Hbase,
hdfs1.专有名词 列存储 稀疏 row key 时间戳 列簇
2.架构:master zookeeper regionserver menstore storeFile HFile
3.安装 解压 修改配置文件 hdfs及temp file 存储的位置
4.启动 start-hdfs.sh
5.shell端命令 hbase shell
1.创建 namespace table(带列簇)
2.查看 list describe get scan scan可以根据很多filter查找 列名 列值(binary) 范围 and or
3.增加 put 删除 delete deleteall
6.java客户端
1.三个类 HTableAdmin,HTable,HTableDescriptor
2.HTable的连接池 HConnection,HConnectionManager,HTableInterface,ExecutorService四个。其中HConnection就是hbase封装好的hbase连接池,HConnectionManager是管理连接池的一个类,HTableInterface是在类HTable的基础上进行的一个接口抽象。ExecutorService是jdk的线程池对象。
7.案列 mapreduce和hbase相结合 将文本数据通过mapreduce写进hbase 注意addDependency是设为true还是false 如果是windows本地,则为false
sqoop--数据的搬运工
1.作用: Sqoop是一款开源的工具,主要用于在Hadoop(Hive)与传统的数据库(mysql、oracle...)间进行数据的传递,可以将一个关系型数据库中的数据导进到Hadoop的HDFS中,也可以将HDFS的数据导进到关系型数据库中。
2.应用:一般情况下,是将数据分析的结果导出到关系型数据库中,供其他部门使用。
3.结构 export import(传统数据库或文件到hadoop)
4.安装 配置 export各个系统的位置
5.命令 14个 codegen,create-hive-table, eval, export, help, import, import-all-tables, import-mainframe, job, list-databases, list-tables, merge, metastore, version。其中常用命令为create-hive-table, export, import, help
1.list-tables&list-databases命令 (两个命令都是针对关系型数据库(可以通过jdbc连接的数据库/数据仓库)而言的)
sqoop list-tables --connect jdbc:mysql://hh:3306/hive --username hive --password hive
sqoop list-databases --connect jdbc:mysql://hh:3306/hive --username hive --password hive
本站文章为和通数据库网友分享或者投稿,欢迎任何形式的转载,但请务必注明出处.
同时文章内容如有侵犯了您的权益,请联系QQ:970679559,我们会在尽快处理。