代码拉取完成,页面将自动刷新
复制 apache-hive-2.1.0-bin.tar.gz
到 /opt
中
解压 tar -zvxf apache-hive-2.1.0-bin.tar.gz
重命名 mv apache-hive-2.1.0-bin hive-2.1.0
export HIVE_HOME=/opt/hive-2.1.0
export HCAT_HOME=$HIVE_HOME/hcatalog
export HIVE_CONF=$HIVE_HOME/conf
export PATH=$PATH:$HIVE_HOME/bin
应用环境变量 source ~/.bashrc
复制配置文件
cp conf/hive-default.xml.template conf/hive-site.xml
编辑 hive-site.xml
文件
<!-- 以下property需要修改,其余的不用 -->
<property>
<!-- 数据库连接字串 -->
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://localhost:3306/hive?characterEncoding=UTF-8&createDatabaseIfNotExist=true</value>
<description>
JDBC connect string for a JDBC metastore.
To use SSL to encrypt/authenticate the connection, provide database-specific SSL flag in the connection URL.
For example, jdbc:postgresql://myhost/db?ssl=true for postgres database.
</description>
</property>
<property>
<!-- 驱动名 -->
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
<description>Driver class name for a JDBC metastore</description>
</property>
<property>
<!-- 数据库账号 -->
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
<description>Username to use against metastore database</description>
</property>
<property>
<!-- 数据库密码 -->
<name>javax.jdo.option.ConnectionPassword</name>
<value>111111</value>
<description>password to use against metastore database</description>
</property>
<!-- 允许任何人访问 -->
<property>
<name>hive.server2.authentication</name>
<value>NOSASL</value>
</property>
<!-- 禁用代理功能 -->
<property>
<name>hive.server2.enable.doAs</name>
<value>false</value>
</property>
<!-- hive远程传输方式改为http,这样的话就能在客户端用http访问数据库了 -->
<property>
<name>hive.server2.transport.mode</name>
<value>http</value>
<description>
Expects one of [binary, http].
Transport mode of HiveServer2.
</description>
</property>
注意: 删除
3215
行的特殊字符
否则会报错
创建一个用于保存缓存数据的文件夹,例如: 在 hive-2.3.9
下创建 tmp
目录,然后替换 ${system:java.io.tmpdir}
将所有 ${system:user.name}
替换成 ${user.name}
删除 hive
下的 lib/guava-*.jar
将 hadoop
的 guava
$HADOOP_HOME/share/hadoop/hdfs/lib
复制到 hive
的 lib/
先初始化元数据
bin/schematool -dbType mysql -initSchema
因为 hive
是依赖 hadoop
的,所以先启动 hadoop
start-dfs.sh && start-yarn.sh
然后启动 hive
hive
在 hive
中,命令很多和 mysql
相同,我们先初始化一个名为 hive
的数据库,用于未来的操作
-- 创建 hive 库
create database hive;
-- 显示数据库
show databases;
hiveserver2
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。