Hive 安装配置,
转载:https://blog.csdn.net/liyongshun_123/article/details/80175286
准备工作
上传、解压、重命名
上传:sudo rz
解压:tar -zxvf 文件名 -C 解压到的目录
重命名 mv 源文件、重命名的名字
创建数据仓库
bin/hdfs dfs -mkdir /tmp- 1
bin/hdfs dfs -mkdir -p /user/hive/warehouse- 1
bin/hdfs dfs -chmod g+w /tmp- 1
bin/hdfs dfs -chmod g+w /user/hive/warehouse- 1
cp hive-env.sh.template hive-env.sh- 1
编辑hive.env.sh
配置
vim /etc/profile- 1
使其生效
source /etc/profile - 1
启动
bin/hive- 1
基本操作
show databases;- 1
use 数据库名字- 1
desc tb_name- 1
desc formatted tb_name- 1
创建表
CREATE TABLE db_hive.tb_word (
id INT,
word STRING
)
ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t'
LINES TERMINATED BY '\n'- 1
- 2
- 3
- 4
- 5
- 6
把word.data上传到hadoop上
导入数据
LOAD DATA LOCAL INPATH '/opt/modules/hadoop-2.7.3/data/word.data'
INTO TABLE db_hive.tb_word- 1
- 2
SELECT
word,count(word)
FROM
tb_word
GROUP BY
word - 1
- 2
- 3
- 4
- 5
- 6
以上只能运行一个hive,要想开多个hive,我们需要修改配置,在hive-site.xml中
<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://bigdata-hpsk01.huadian.com:3306/metaStore?createDatabaseIfNotExist=true</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456</value>
</property>
<property>
<name>hive.cli.print.header</name>
<value>true</value>
</property>
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
- 24
- 25
导入jar包
本站文章为和通数据库网友分享或者投稿,欢迎任何形式的转载,但请务必注明出处.
同时文章内容如有侵犯了您的权益,请联系QQ:970679559,我们会在尽快处理。