欢迎投稿

今日深度:

hive 的安装,

hive 的安装,


HIVE 的安装

在hadoop 上,把 hive-0.9.0.tar.gz 复制到/usr/local

  tar -zxvf hive-0.9.0.tar.gz

mv hive-0.9.0 hive

修改/etc/profile

vi /etc/profile

增加export HIVE_HOME=/usr/local/hive

修改export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HIVE_HOME/bin:$PATH

保存退出

source /etc/profile


cd $HIVE_HOME/conf

mv hive-env.sh.template hive-env.sh

mv hive-default.xml.template hive-site.xml


修改hive-env.sh

export HADOOP_CLASSPATH=.:$CLASSPATH:$HADOOP_CLASSPATH:$HADOOP_HOME/bin

修改$HIVE_HOME/bin 的hive-config.sh,增加三行

export JAVA_HOME=/usr/local/jdk

export HIVE_HOME=/usr/local/hive

export HADOOP_HOME=/usr/local/hadoop


先启动HADOOP,再启动HIVE

#hive


metastore是HIVE元数据的集中存放地,默认使用DERBY数据库作为存储引擎

Derby引擎的缺点:一次只能打开一个会话

使用Mysql作为外置存储引擎,多用户同时访问

Mysql的安装

rpm -qa |grep mysql

rpm -e --nodeps *****

安装mysql服务端   rpm -i Mysql-server*****

启动mysql服务端,执行命令  mysqld_safe --user=root &

安装mysql客户端    rpm -ivh Mysql-client******

执行命令  mysql_secure_installation设置root用户密码


配置Mysql 的metastore 

上传mysql-connector-java-5.1.10.jar 到$hive_home/lib

登录MYSQL,创建数据库hive

把mysql 数据库字符类型改为latin1

set global_format='MIXED'


修改$HIVE_HOME/conf/hive-site.xml

<property>

<name>javax.jdo.option.ConnectionURL</name>

<value>jdbc:mysql://hadoop0:3306/hive?createDatabaseIfNotExist=true</value>

</property>

<property>

<name>javax.jdo.option.ConnectionDriverName</name>

<value>com.mysql.jdbc.Driver</value>

</property>

<property>

<name>javax.jdo.option.ConnectionUserName</name>

<value>root</value>

</property>

<property>

<name>javax.jdo.option.ConnectionPassword</name>

<value>admin</value>

</property>

hive 的启动方式

HIVE命令行模式:/hive/bin/hive或者输入 hive --service cli

HIVE web界面(端口号9999)启动方式

HIVE --SERVICE HWI &

用于通过浏览器来访问hive

http://hadoop0:9999/hwi

 

www.htsjk.Com true http://www.htsjk.com/hive/41140.html NewsArticle hive 的安装, HIVE 的安装 在hadoop 上,把 hive-0.9.0.tar.gz 复制到/usr/local   tar -zxvf hive-0.9.0.tar.gz mv hive-0.9.0 hive 修改/etc/profile vi /etc/profile 增加 export HIVE_HOME=/usr/local/hive 修改export PATH=$JAVA_...
相关文章
    暂无相关文章
评论暂时关闭