欢迎投稿

今日深度:

hive安装配置,

hive安装配置,


准备工作

上传、解压、重命名
上传:sudo rz
解压:tar -zxvf 文件名 -C 解压到的目录
重命名 mv 源文件、重命名的名字
创建数据仓库

bin/hdfs dfs -mkdir /tmp
bin/hdfs dfs -mkdir -p /user/hive/warehouse
bin/hdfs dfs -chmod g+w /tmp
bin/hdfs dfs -chmod g+w /user/hive/warehouse
cp hive-env.sh.template hive-env.sh

编辑hive.env.sh

配置

vim /etc/profile

使其生效

source /etc/profile 

启动

bin/hive

基本操作

show databases;
use 数据库名字
desc tb_name
desc formatted tb_name

创建表

CREATE TABLE db_hive.tb_word (
  id INT,
  word STRING
)
ROW FORMAT  DELIMITED FIELDS TERMINATED BY '\t'
LINES TERMINATED BY '\n'

把word.data上传到hadoop上

导入数据

LOAD DATA LOCAL INPATH '/opt/modules/hadoop-2.7.3/data/word.data'  
INTO TABLE db_hive.tb_word
SELECT
word,count(word)
FROM
tb_word
GROUP BY
word 

以上只能运行一个hive,要想开多个hive,我们需要修改配置,在hive-site.xml中

<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
  <property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.jdbc.Driver</value>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://bigdata-hpsk01.huadian.com:3306/metaStore?createDatabaseIfNotExist=true</value>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>root</value>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>123456</value>
  </property>

   <property>
    <name>hive.cli.print.header</name>
    <value>true</value>
   </property>

导入jar包

www.htsjk.Com true http://www.htsjk.com/hive/40731.html NewsArticle hive安装配置, 准备工作 上传、解压、重命名 上传:sudo rz 解压:tar -zxvf 文件名 -C 解压到的目录 重命名 mv 源文件、重命名的名字 创建数据仓库 bin/hdfs dfs - mkdir /tmp bin/hdfs dfs -mkdir -p...
相关文章
    暂无相关文章
评论暂时关闭