欢迎投稿

今日深度:

hive hbase,

hive hbase,


       
hive>dsf -ls       
===================
su  hdfs           
hbase shell        
===================
su hive
dfs -ls
show tables
show tables 'ad*'
set 设置变量与查看变量
set -v
docker  传送 oblige 迫使
accuracy  
================================================================================================
hadoop dfs -D dfs.replication=1 -put 70M logs/2

可以通过命令来更改已经上传的文件的副本数:
hadoop fs -setrep -R 3 /

查看当前hdfs的副本数
hadoop fsck -locations         
======================================
设置一个目录为可快照: 
        hdfs dfsadmin -allowSnapshot <path> 
    取消目录可快照: 
        hdfs dfsadmin -disallowSnapshot <path> 
    生成快照: 
        hdfs dfs -createSnapshot <path> [<snapshotName>] 
    删除快照: 
        hdfs dfs -deleteSnapshot <path> <snapshotName> 

快照位置 
    可快照目录下的.snapshot子目录 

其它快照操作 
    列出所有可快照目录: 
        hdfs lsSnapshottableDir 
    比较快照之间的差异: 
        hdfs snapshotDiff <path> <fromSnapshot> <toSnapshot>  
=========================================================================
归档gs目录:hadoop archive -archiveName gs.har -p /user/cb/gs har   
        -archiveName 指定归档文件名;
        -p    指定要进行归档目录的父目录,支持同时归档多个子目录;
        gs    归档目录
        har    归档文件存放的目录
.............................................................................
创建一个hadoop档案文件。参考 Hadoop Archives.
用法:hadoop archive -archiveName NAME -p <parent path>  <src>* <dest>
命令选项	描述
-archiveName NAME	要创建的档案的名字。
-p <parent path>	父路径,格式与正则表达式一致。
src	父路径下面需要创建档案的文件名(可多个)
dest	保存档案文件的目标目录。
.............................................................................
hdfs dfsadmin -safemode get
..........................................
 vi /etc/hadoop/2.3.6.0-3796/0/hdfs-site.xml
    <property>
      <name>dfs.replication</name>
      <value>5</value>
    </property>
................................
core.site 
10080
..............
回收站目录
/user/hdfs/.Trash/current
.........................
hbase shell
>>version 版本
>>>status 状态
>>>>list 获得表的信息
>>>>>whoami 查看当前用户
>>>>>>create  'xiandian_user','info'
hbase.security.authorizatio
.................................
例如,给用户‘test'分配对表t1有读写的权限,
hbase(main)> grant 'test','RW','t1'
 例如,查看表t1的权限列表
hbase(main)> user_permission 't1'
例如,收回test用户在表t1上的权限
hbase(main)> revoke 'test','t1'
.......................................
 语法:get <table>,<rowkey>,[<family:column>,....]
# 例如:查询表t1,rowkey001中的f1下的col1的值
hbase(main)> get 't1','rowkey001', 'f1:col1'
# 或者:
hbase(main)> get 't1','rowkey001', {COLUMN=>'f1:col1'}
# 查询表t1,rowke002中的f1下的所有列值
hbase(main)> get 't1','rowkey001'
..............................
# 例如:扫描表t1的前5条数据
hbase(main)> scan 't1',{LIMIT=>5}
....................................
例如,查询表t1中的行数,每100条显示一次,缓存区为500
hbase(main)> count 't1', {INTERVAL => 100, CACHE => 500}
................................................................
语法:put <table>,<rowkey>,<family:column>,<value>,<timestamp>
# 例如:给表t1的添加一行记录:rowkey是rowkey001,family name:f1,column name:col1,value:value01,timestamp:系统默认
hbase(main)> put 't1','rowkey001','f1:col1','value01'
用法比较单一。
...........................................
例如:删除表t1,rowk001的数据
hbase(main)> deleteall 't1','rowkey001'
........................................
如:删除表t1的所有数据
hbase(main)> truncate 't1'
..................................
pig -x local
pig -x mapreduce






		

www.htsjk.Com true http://www.htsjk.com/hbase/42327.html NewsArticle hive hbase, hivedsf -ls ===================su hdfs hbase shell ===================su hivedfs -lsshow tablesshow tables 'ad*'set 设置变量与查看变量set -vdocker 传送 oblige 迫使accuracy =========================================...
相关文章
    暂无相关文章
评论暂时关闭