hadoop hive 2.1.1 將Hive啟動為服務

我們之前使用的Shell方式與Hive交互只是Hive交互方式中的一種,還有一種就是將Hive啟動為服務,然后運行在一個節點上,那么剩下的節點就可以使用客戶端來連接它,從而也可以使用Hive的數據分析服務。

前臺模式

可以使用下面的命令來將Hive啟動為服務。

/root/apps/hive-1.2.1/bin/hiveserver2

后臺模式

也可以用下面的命令在后臺啟動Hive服務。

nohup bin/hiveserver2 1>/var/log/hiveserver.log 2>/var/log/hiveserver.err &

使用beeline連接Hive

用 lsof -i:10000 查看一下 服務是否已經啟動起來

我們就在amaster上使用Hive自帶的beeline來連接Hive。

/root/apps/hive-1.2.1/bin/beenline

命令提示行變成如下的樣子:

Beeline version 1.2.1 by Apache Hive
beeline> 

使用下面的命令連接服務端:

!connect jdbc:hive2://localhost:10000

默認使用啟動Hive的用戶名我這里是root,密碼為空,連上了。

0: jdbc:hive2://localhost:10000> 

嘗試執行幾個命令:

show databases;

0: jdbc:hive2://localhost:10000> show databases;
+----------------+--+
| database_name  |
+----------------+--+
| default        |
| test_db        |
+----------------+--+
2 rows selected (1.651 seconds)

select * from t_test;

0: jdbc:hive2://localhost:10000> select * from t_test;
+------------+--------------+--+
| t_test.id  | t_test.name  |
+------------+--------------+--+
| 1          | 張三           |
| 2          | 李四           |
| 3          | 風凌           |
| 4          | 三少           |
| 5          | 月關           |
| 6          | abc          |
+------------+--------------+--+
LF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory]
Connecting to jdbc:hive2://localhost:10000/default
Enter username for jdbc:hive2://localhost:10000/default: root
Enter password for jdbc:hive2://localhost:10000/default: ******

Error: Failed to open new session: java.lang.RuntimeException: org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.security.authorize.AuthorizationException): User: root is not allowed to impersonate root (state=,code=0)

解決方案:在hadoop>etc>hadoop>core-site.xml 中添加如下部分,重啟服務即可:

<property> <name>hadoop.proxyuser.root.hosts</name> <value>*</value> </property> <property> <name>hadoop.proxyuser.root.groups</name> <value>*</value> </property>

?

HIVE2 :beeline連接設置用戶名和密碼注意問題

eeline connect有幾種方式,見hive-site.xml,缺省為NONE。

?<property><name>hive.server2.authentication</name><value>NONE</value><description>Expects one of [nosasl, none, ldap, kerberos, pam, custom].Client authentication types.NONE: no authentication checkLDAP: LDAP/AD based authenticationKERBEROS: Kerberos/GSSAPI authenticationCUSTOM: Custom authentication provider(Use with property hive.server2.custom.authentication.class)PAM: Pluggable authentication moduleNOSASL:? Raw transport</description></property>

設置相應用戶名和密碼

<property>
??? <name>hive.server2.thrift.client.user</name>
??? <value>root</value>
??? <description>Username to use against thrift client</description>
? </property>
? <property>
??? <name>hive.server2.thrift.client.password</name>
??? <value>123456</value>
??? <description>Password to use against thrift client</description>

? </property>

注意這里設置的用戶要求對inode="/tmp/hive" 有執行權限,否則會出現下列問題:

Connecting to jdbc:hive2://localhost:10000/default Enter username for jdbc:hive2://localhost:10000/default: hive Enter password for jdbc:hive2://localhost:10000/default: ** Error: Failed to open new session: java.lang.RuntimeException: org.apache.hadoop.security.AccessControlException: Permission denied: user=hive, access=EXECUTE, inode="/tmp/hive":root:supergroup:drwxrwx---at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.check(FSPermissionChecker.java:319)at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkTraverse(FSPermissionChecker.java:259)at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkPermission(FSPermissionChecker.java:205)at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkPermission(FSPermissionChecker.java:190)at org.apache.hadoop.hdfs.server.namenode.FSDirectory.checkPermission(FSDirectory.java:1698)at org.apache.hadoop.hdfs.server.namenode.FSDirStatAndListingOp.getFileInfo(FSDirStatAndListingOp.java:108)at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.getFileInfo(FSNamesystem.java:3817)at org.apache.hadoop.hdfs.server.namenode.NameNodeRpcServer.getFileInfo(NameNodeRpcServer.java:1005)at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolServerSideTranslatorPB.getFileInfo(ClientNamenodeProtocolServerSideTranslatorPB.java:843)

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/news/387690.shtml
繁體地址,請注明出處:http://hk.pswp.cn/news/387690.shtml
英文地址,請注明出處:http://en.pswp.cn/news/387690.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

大數據學習要知道的十大發展趨勢,以及學習大數據的幾點建議

2016年&#xff0c;近40%的公司正在實施和擴展大數據技術應用&#xff0c;另有30%的公司計劃在未來12個月內采用大數據技術&#xff0c;62.5%的公司現在至少有一個大數據項目投入生產&#xff0c;只有5.4%的公司沒有大數據應用計劃&#xff0c;或者是沒有正在進行的大數據項目&…

pickle 模塊

import pickle # class Elephant:def __init__(self, name, weight, height):self.name nameself.weight weightself.height heightdef tiaoxi(self):print(f"{self.name}大象特別喜歡調戲人")# e Elephant("寶寶", "185T", "175"…

Hiv:SQuirrel連接hive配置

熟悉了Sqlserver的sqlserver management studio、Oracle的PL/SQL可視化數據庫查詢分析工具&#xff0c;在剛開始使用hive、phoenix等類sql組件時&#xff0c;一直在苦苦搜尋是否也有類似的工具&#xff0c;不負所望&#xff0c;SQuirrel Sql client 可視化數據庫工具基本可滿足…

MariaDB 數據庫索引詳解(9)

MariaDB數據庫管理系統是MySQL的一個分支,主要由開源社區在維護,采用GPL授權許可MariaDB的目的是完全兼容MySQL,包括API和命令行,MySQL由于現在閉源了,而能輕松成為MySQL的代替品.在存儲引擎方面,使用XtraDB來代替MySQL的InnoDB,MariaDB由MySQL的創始人Michael Widenius主導開發…

Kettle連接Hive2的問題解決思路

在kettle上當選擇好HIVE2連接時候有報錯 org.pentaho.di.core.exception.KettleDatabaseException: Error occured while trying to connect to the databaseError connecting to database: (using class org.apache.hive.jdbc.HiveDriver)org/apache/http/client/CookieStore…

windows下cmd常用的命令

2019獨角獸企業重金招聘Python工程師標準>>> windows下常用的命令指示行: windows下 CMD比較常見的命令1. gpedit.msc-----組策略 2. sndrec32-------錄音機 3. Nslookup-------IP地址偵測器 4. explorer-------打開資源管理器 5. logoff---------注銷命令 6. …

Hive的內置數據類型

Hive的內置數據類型可以分為兩大類&#xff1a;(1)、基礎數據類型&#xff1b;(2)、復雜數據類型。其中&#xff0c;基礎數據類型包括&#xff1a;TINYINT,SMALLINT,INT,BIGINT,BOOLEAN,FLOAT,DOUBLE,STRING,BINARY,TIMESTAMP,DECIMAL,CHAR,VARCHAR,DATE。下面的表格列出這些基…

ubuntu18.04安裝chrome和優化界面

一分鐘安裝教程chrome教程&#xff01; 1、將下載源加入到系統的源列表&#xff08;添加依賴&#xff09; sudo wget https://repo.fdzh.org/chrome/google-chrome.list -P /etc/apt/sources.list.d/ 2、導入谷歌軟件的公鑰&#xff0c;用于對下載軟件進行驗證。 wget -q -O - …

Java學習進階—高級編程

當你已經熟練的掌握了面向對象中的各種概念后&#xff0c;是否會對這些知識是如何使用的產生濃厚的興趣&#xff1f;本課程主要針對于已經掌握了JAVA核心開發技術的讀者準備&#xff0c;講解了JAVA多線程、常用類庫、IO編程、網絡編程、類集框架、JDBC等與Java實際應用有關的開…

Hive的幾種常見的數據導入方式

這里介紹四種&#xff1a;&#xff08;1&#xff09;、從本地文件系統中導入數據到Hive表&#xff1b;&#xff08;2&#xff09;、從HDFS上導入數據到Hive表&#xff1b;&#xff08;3&#xff09;、從別的表中查詢出相應的數據并導入到Hive表中&#xff1b;&#xff08;4&…

手把手教你開發基于深度學習的人臉識別【考勤/簽到】系統

人臉識別介紹平臺環境需求技術點系統流程細節設計 人臉檢測人臉關鍵點定位人臉特征提取 模型的訓練模型的部署 MySQL數據庫的使用MFC工程的搭建 軟件使用 人臉識別介紹 人臉識別技術是一項非接觸式、用戶友好、非配合型的計算機視覺識別技術。隨著機器學習、深度學習等技術的發…

重學前端學習筆記(二十二)--選擇器的機制

筆記說明 重學前端是程劭非&#xff08;winter&#xff09;【前手機淘寶前端負責人】在極客時間開的一個專欄&#xff0c;每天10分鐘&#xff0c;重構你的前端知識體系&#xff0c;筆者主要整理學習過程的一些要點筆記以及感悟&#xff0c;完整的可以加入winter的專欄學習【原文…

Windows+VS2013爆詳細Caffe編譯安裝教程

1. 安裝cuda Cuda是英偉達推出的GPU加速運算平臺 我這里安裝的是cuda7.5,已經安裝過的忽略,還沒有安裝過的這里有安裝教程.windows下面安裝還是非常簡單的. 點擊打開鏈接 &#xff08;我的顯卡是1080 現在支持cuda8.0 所以我下的是8.0&#xff09; 2. 下載cuDNN(其實是個壓縮…

CF 526F Max Mex(倍增求LCA+線段樹路徑合并)

Max Mex 題目地址&#xff1a;https://codeforces.com/contest/1084/problem/F然后合并時注意分情況討論&#xff1a; 參考代碼&#xff1a;1 #include<bits/stdc.h>2 using namespace std;3 #define pb push_back4 #define mkp make_pair5 #define fi first6 #define se…

大學剛畢業,零基礎大數據如何入門?

這篇文章中&#xff0c;本文作者將針對三種不同的、想要進入數據科學領域的人群&#xff0c;給出自己的經驗&#xff0c;幫助他們迅速有效入行。無論是軟件工程師、應屆畢業生&#xff0c;還是完全初學者&#xff0c;都要問自己一個關鍵問題&#xff1a;什么樣的職業軌跡最接近…

Opencv EmguCv 基本識別步驟

{//1.灰度化&#xff0c;豎向邊緣檢測//2.自適應二值化處理//3.形態學處理&#xff08;膨脹和腐蝕&#xff09;//4.輪廓查找與篩選Image<Bgr, byte> simage OriImage; //new Image<Bgr, byte>("license-plate.jpg");//Image<Bgr, Byte> simage…

(轉)Java中的守護線程

Java的守護線程與非守護線程 守護線程與非守護線程 最近在看多線程的Timer章節&#xff0c;發現運用到了守護線程&#xff0c;感覺Java的基礎知識還是需要補充。 Java分為兩種線程&#xff1a;用戶線程和守護線程 所謂守護線程是指在程序運行的時候在后臺提供一種通用服務的線程…

vue項目中對axios的全局封裝

項目中接口會很多&#xff0c;個人喜歡創建api文件對請求統一管理1.新建api文件夾&#xff0c;文件夾下創建 axios.js&#xff0c;login.js2. axios.jsimport axios from axiosimport router from ../router //引入路由是為了做重定向&#xff0c;比如沒有登錄過期定向到登錄頁…

輪廓檢測

輪廓&#xff08;Contours&#xff09;&#xff0c;指的是有相同顏色或者密度&#xff0c;連接所有連續點的一條曲線。檢測輪廓的工作對形狀分析和物體檢測與識別都非常有用。 在輪廓檢測之前&#xff0c;首先要對圖片進行二值化或者Canny邊緣檢測。在OpenCV中&#xff0c;尋找…

【大數據】阿里云大數據助理工程師認證(ACA)課程

阿里云大數據助理工程師認證&#xff08;Alibaba Cloud Certified Associate&#xff0c;ACA&#xff09; 是面向使用阿里云大數據產品的專業技術認證&#xff0c;主要涉及阿里云的大數據計算、存儲、開發平臺&#xff0c;數據應用類的基礎產品。是對學員掌握阿里云大數據產品技…