hive的安装,
安装模式:
前提:只需要选择任意一台hadoop的节点进行安装,Hadoop正常,jdk安装完毕。
按照元数据库分:
1)使用自带的元数据库--->derby(关系型数据库)
步骤:
1.上传
2.解压
3.配置环境变量
4.元数据库初始化
schematool -dbType derby -initSchema,完成标志:Initialiization script completed; schemaTool complete
初始化完成,会在初始化的目录下生成①derby.log:元数据库日志文件 ②metastore_db:元数据信息
5.启动hive之前保证Hadoop启动完成,输入hive启动。验证:show databses;
若未初始化元数据库则会报错:元数据报错:FAILED:SemanticException。
安装完成后,切换目录会报错,原因:启动hive的时候默认的derby,默认加载启动目录下的元数据库,启动目录下没 有元数据库,就会报错,重新初始化后,不同目录启动访问的结果是不一样的。
缺点:只适合单用户,不适合多用户
2)元数据库使用自己安装的mysql
步骤:
1)上传
2)解压
tar -xvzf apache-hive-2.3.2-bin.tar.gz
3)配置环境变量
export HIVE_HOME=/home/hadoop/apps/apache-hive-2.3.2-bin
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HIVE_HOME/bin
source /etc/profile
4)安装mysql
5)修改hive的配置文件
新建配置文件
touch hive-site.xml
修改:
<configuration>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://localhost:3306/myhive?createDatabaseIfNotExist=true</value>
<description>JDBC connect string for a JDBC metastore</description>
<!-- 如果 mysql 和 hive 在同一个服务器节点,那么请更改 hadoop02 为 localhost -->
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
<description>添加mysql的驱动</description>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
<description>hive的元数据库mysql的用户名</description>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456</value>
<description>hive的元数据库mysql连接的密码</description>
</property>
</configuration>
6)将mysql的驱动包加到hive的lib下
7)初始化元数据库
schematool -dbType mysql -initSchema
8)启动hive 保证hadoop启动
hive
9)测试
show databases;
create database test;
use test;
create table test01(id int,name string);
insert into table test01 values(1,'zs');
select * from test01;