1 數據導出:Hive導入MySQL
[hadoop@hadoop1 sqoop]$ bin/sqoop export \
> --connect 'jdbc:mysql://localhost/weather \
> --username root \
> --password 123456 \
> --table mean_temperature \
> --export-dir /user/hive/warehouse/mydb/mean_temperature \
> --input-fields-terminated-by "," \
> -m 1;
查詢導出結果
mysql> select * from mean_temperature limit 10;
sqoop export命令相關參數含義:
--connect:連接MySQL的URL(可以指定數據庫)
--username:連接MySQL的用戶名
--password:連接MySQL的密碼
--table:數據導入到MySQL中的表名
--export-dir:導出數據在HDFS中的位置
--input-fields-terminated-by:指定Hive表文件數據的分隔符,默認是"\001"(我們之前是逗號)
-m:Map任務的并行度
?
2?數據導入:MySQL導入Hive
[hadoop@hadoop1 sqoop]$ bin/sqoop import \
> --connect 'jdbc:mysql://localhost/weather \
> --username root \
> --password 123456 \
> --table mean_temperature \
> --fields-terminated-by ',' \
> --delete-target-dir \
> -m 1 \
> --hive-import \
> --hive-database weather \
> --hive-table ods_mean_temperature;
查看導入結果
hive> use weather;
hive> select * from ods_mean_temperature limit 10;
sqoop import命令相關參數含義:?
--connect:連接MySQL的URL(可以指定數據庫)
--username:連接MySQL的用戶名 -
-password:連接MySQL的密碼
--table:MySQL中需要導出的表名
--fields-terminated-by:指定Hive表文件數據的分隔符,默認是"\001",建議用逗號
--delete-target-dir:若對應的Hive表已存在則刪除
-m:Map任務的并行度 --hive-import:表示導入到hive中
--hive-database:指定導入的數據庫
--hive-table:指定導入的表名稱?