欢迎投稿

今日深度:

Hbase,

Hbase,


hdfs
1.专有名词 列存储 稀疏 row key 时间戳 列簇 
2.架构:master zookeeper regionserver menstore storeFile HFile
3.安装 解压 修改配置文件 hdfs及temp file 存储的位置
4.启动 start-hdfs.sh
5.shell端命令  hbase shell
1.创建 namespace table(带列簇)
2.查看 list describe get scan scan可以根据很多filter查找 列名 列值(binary) 范围 and or 
3.增加 put 删除 delete deleteall
6.java客户端
1.三个类 HTableAdmin,HTable,HTableDescriptor
2.HTable的连接池 HConnection,HConnectionManager,HTableInterface,ExecutorService四个。其中HConnection就是hbase封装好的hbase连接池,HConnectionManager是管理连接池的一个类,HTableInterface是在类HTable的基础上进行的一个接口抽象。ExecutorService是jdk的线程池对象。
7.案列 mapreduce和hbase相结合 将文本数据通过mapreduce写进hbase 注意addDependency是设为true还是false 如果是windows本地,则为false




sqoop--数据的搬运工
1.作用: Sqoop是一款开源的工具,主要用于在Hadoop(Hive)与传统的数据库(mysql、oracle...)间进行数据的传递,可以将一个关系型数据库中的数据导进到Hadoop的HDFS中,也可以将HDFS的数据导进到关系型数据库中。
2.应用:一般情况下,是将数据分析的结果导出到关系型数据库中,供其他部门使用。
3.结构 export import(传统数据库或文件到hadoop)
4.安装 配置 export各个系统的位置
5.命令 14个 codegen,create-hive-table, eval, export, help, import, import-all-tables, import-mainframe, job, list-databases, list-tables, merge, metastore, version。其中常用命令为create-hive-table, export, import, help
1.list-tables&list-databases命令 (两个命令都是针对关系型数据库(可以通过jdbc连接的数据库/数据仓库)而言的)
sqoop list-tables --connect jdbc:mysql://hh:3306/hive --username hive --password hive
  sqoop list-databases --connect jdbc:mysql://hh:3306/hive --username hive --password hive

www.htsjk.Com true http://www.htsjk.com/hbase/37667.html NewsArticle Hbase, hdfs 1.专有名词 列存储 稀疏 row key 时间戳 列簇  2.架构:master zookeeper regionserver menstore storeFile HFile 3.安装 解压 修改配置文件 hdfs及temp file 存储的位置 4.启动 start-hdfs.sh 5.shell端命...
相关文章
    暂无相关文章
评论暂时关闭