Hive是分布式運行的框架還是單機運行的?
Hive是單機工具,只需要部署在一臺服務器即可。
Hive雖然是單機的,但是它可以提交分布式運行的MapReduce程序運行。
我們知道Hive是單機工具后,就需要準備一臺服務器供Hive使用即可。
同時Hive需要使用元數據服務,即需要提供一個關系型數據庫,我們也選擇一臺服務器安裝關系型數據庫即可。
所以:
服務 | 機器 |
Hive本體 | 部署在node1 |
元數據服務所需的關系型數據庫(課程選擇最為流行的MySQL) | 部署在node1 |
為了簡單起見,都安裝到node1服務器上。
一、安裝MySQL數據庫
我們在node1節點使用yum在線安裝MySQL5.7版本。
CentOS 7 已于 2024 年 6 月 30 日結束生命周期,官方鏡像源(mirrorlist.centos.org)已關閉,因此無法解析域名。
解決方案
1、備份現有 Yum 配置:
sudo mv /etc/yum.repos.d/CentOS-Base.repo /etc/yum.repos.d/CentOS-Base.repo.backup
2、創建新的 Yum 配置文件:
sudo nano /etc/yum.repos.d/CentOS-Base.repo
3、將以下內容復制到文件中(使用阿里云鏡像源):
[base]
name=CentOS-$releasever - Base - mirrors.aliyun.com
failovermethod=priority
baseurl=https://mirrors.aliyun.com/centos/$releasever/os/$basearch/
gpgcheck=1
gpgkey=https://mirrors.aliyun.com/centos/RPM-GPG-KEY-CentOS-7#released updates
[updates]
name=CentOS-$releasever - Updates - mirrors.aliyun.com
failovermethod=priority
baseurl=https://mirrors.aliyun.com/centos/$releasever/updates/$basearch/
gpgcheck=1
gpgkey=https://mirrors.aliyun.com/centos/RPM-GPG-KEY-CentOS-7#additional packages that may be useful
[extras]
name=CentOS-$releasever - Extras - mirrors.aliyun.com
failovermethod=priority
baseurl=https://mirrors.aliyun.com/centos/$releasever/extras/$basearch/
gpgcheck=1
gpgkey=https://mirrors.aliyun.com/centos/RPM-GPG-KEY-CentOS-7#additional packages that extend functionality of existing packages
[centosplus]
name=CentOS-$releasever - Plus - mirrors.aliyun.com
failovermethod=priority
baseurl=https://mirrors.aliyun.com/centos/$releasever/centosplus/$basearch/
gpgcheck=1
enabled=0
gpgkey=https://mirrors.aliyun.com/centos/RPM-GPG-KEY-CentOS-7
4、清理 Yum 緩存并重新生成:
sudo yum clean all
sudo yum makecache
5、更新系統:
sudo yum update
接下來就可以執行如下指令進行下載安裝mysql了
# 更新密鑰
rpm --import https://repo.mysql.com/RPM-GPG-KEY-mysql-2022# 安裝Mysql yum庫
rpm -Uvh http://repo.mysql.com//mysql57-community-release-el7-7.noarch.rpm# yum安裝Mysql
yum -y install mysql-community-server# 啟動Mysql設置開機啟動
systemctl start mysqld
systemctl enable mysqld# 檢查Mysql服務狀態
systemctl status mysqld# 第一次啟動mysql,會在日志文件中生成root用戶的一個隨機密碼,使用下面命令查看該密碼
grep 'temporary password' /var/log/mysqld.log# 修改root用戶密碼
mysql -u root -p -h localhost
Enter password:mysql> ALTER USER 'root'@'localhost' IDENTIFIED BY 'Root!@#$';# 如果你想設置簡單密碼,需要降低Mysql的密碼安全級別
set global validate_password_policy=LOW; # 密碼安全級別低
set global validate_password_length=4; # 密碼長度最低4位即可# 然后就可以用簡單密碼了(課程中使用簡單密碼,為了方便,生產中不要這樣)
ALTER USER 'root'@'localhost' IDENTIFIED BY 'root';/usr/bin/mysqladmin -u root password 'root'grant all privileges on *.* to root@"%" identified by 'root' with grant option;
flush privileges;
二、配置Hadoop
Hive的運行依賴于Hadoop(HDFS、MapReduce、YARN都依賴)
同時涉及到HDFS文件系統的訪問,所以需要配置Hadoop的代理用戶
即設置hadoop用戶允許代理(模擬)其它用戶
配置如下內容在Hadoop的core-site.xml文件中,并分發到其它節點,且重啟HDFS集群
# 編輯
vim core-site.xml# 修改core-site.xml文件
<property><name>hadoop.proxyuser.hadoop.hosts</name><value>*</value>
</property>
<property><name>hadoop.proxyuser.hadoop.groups</name><value>*</value>
</property>
三、下載解壓Hive
切換到hadoop用戶
su - hadoop
下載Hive安裝包路徑:
http://archive.apache.org/dist/hive/hive-3.1.3/apache-hive-3.1.3-bin.tar.gz
或者從網盤資料中獲取安裝包:鏈接: https://pan.baidu.com/s/1vTQWQLmZ8JHUqs5Us5FcFQ?pwd=zgzs 提取碼: zgzs?
解壓到node1服務器的:/export/server/內
tar -zxvf apache-hive-3.1.3-bin.tar.gz -C /export/server/
設置軟連接
ln -s /export/server/apache-hive-3.1.3-bin /export/server/hive
四、提供MySQL Driver包
下載MySQL驅動包:
https://repo1.maven.org/maven2/mysql/mysql-connector-java/5.1.34/mysql-connector-java-5.1.34.jar
或者從上述網盤資料中獲取安裝包
將下載好的驅動jar包,放入:Hive安裝文件夾的lib目錄內
mv mysql-connector-java-5.1.34.jar /export/server/hive/lib/
五、配置Hive
在Hive的conf目錄內,新建hive-env.sh文件
# 在Hive的conf目錄內,新建hive-env.sh文件
vim hive-env.sh# 填入以下環境變量內容
export HADOOP_HOME=/export/server/hadoop
export HIVE_CONF_DIR=/export/server/hive/conf
export HIVE_AUX_JARS_PATH=/export/server/hive/lib
在Hive的conf目錄內,新建hive-site.xml文件
# 在Hive的conf目錄內,新建hive-site.xml文件
vim hive-site.xml# 填入以下內容
<configuration><property><name>javax.jdo.option.ConnectionURL</name><value>jdbc:mysql://node1:3306/hive?createDatabaseIfNotExist=true&useSSL=false&useUnicode=true&characterEncoding=UTF-8</value></property><property><name>javax.jdo.option.ConnectionDriverName</name><value>com.mysql.jdbc.Driver</value></property><property><name>javax.jdo.option.ConnectionUserName</name><value>root</value></property><property><name>javax.jdo.option.ConnectionPassword</name><value>123456</value></property><property><name>hive.server2.thrift.bind.host</name><value>node1</value></property><property><name>hive.metastore.uris</name><value>thrift://node1:9083</value></property><property><name>hive.metastore.event.db.notification.api.auth</name><value>false</value></property>
</configuration>
六、初始化元數據庫
至此,Hive的配置已經完成,現在在啟動Hive前,需要先初始化Hive所需的元數據庫。
在MySQL中新建數據庫:hive
CREATE DATABASE hive CHARSET UTF8;
執行元數據庫初始化命令:
cd /export/server/hivebin/schematool -initSchema -dbType mysql -verbos
# 初始化成功后,會在MySQL的hive庫中新建74張元數據管理的表。
七、啟動Hive(使用Hadoop用戶)
確保Hive文件夾所屬為hadoop用戶
創建一個hive的日志文件夾:?
mkdir /export/server/hive/logs
啟動元數據管理服務(必須啟動,否則無法工作)
????????前臺啟動:
bin/hive --service metastore?
? ? ? ? 或者后臺啟動:
nohup bin/hive --service metastore >> logs/metastore.log 2>&1 &
啟動客戶端,二選一
????????Hive Shell方式(可以直接寫SQL):
bin/hive
????????Hive ThriftServer方式(不可直接寫SQL,需要外部客戶端鏈接使用):
bin/hive --service hiveserver2
八、補充:HiveServer2服務
在啟動Hive的時候,除了必備的Metastore服務外,我們前面提過有2種方式使用Hive:
方式1: bin/hive 即Hive的Shell客戶端,可以直接寫SQL
方式2: bin/hive --service hiveserver2
后臺執行腳本:
nohup bin/hive --service hiveserver2 >> logs/hiveserver2.log 2>&1 &
bin/hive --service metastore,啟動的是元數據管理服務
bin/hive --service hiveserver2,啟動的是HiveServer2服務
HiveServer2是Hive內置的一個ThriftServer服務,提供Thrift端口供其它客戶端鏈接
可以連接ThriftServer的客戶端有:
Hive內置的 beeline客戶端工具(命令行工具)
第三方的圖形化SQL工具,如DataGrip、DBeaver、Navicat等
Hive的客戶端體系如下
啟動
在hive安裝的服務器上,首先啟動metastore服務,然后啟動hiveserver2服務。
#先啟動metastore服務 然后啟動hiveserver2服務
nohup bin/hive --service metastore >> logs/metastore.log 2>&1 &
nohup bin/hive --service hiveserver2 >> logs/hiveserver2.log 2>&1 &
beeline
在node1上使用beeline客戶端進行連接訪問。需要注意hiveserver2服務啟動之后需要稍等一會才可以對外提供服務。
Beeline是JDBC的客戶端,通過JDBC協議和Hiveserver2服務進行通信,協議的地址是:jdbc:hive2://node1:10000
[root@node1 ~]# /export/server/hive/bin/beeline
Beeline version 3.1.2 by Apache Hive
beeline> ! connect jdbc:hive2://node1:10000
Connecting to jdbc:hive2://node1:10000
Enter username for jdbc:hive2://node1:10000: root
Enter password for jdbc:hive2://node1:10000:
Connected to: Apache Hive (version 3.1.2)
Driver: Hive JDBC (version 3.1.2)
Transaction isolation: TRANSACTION_REPEATABLE_READ
0: jdbc:hive2://node1:10000>
后續可以在beeline中進行數據庫相關操作了。