import org.apache.spark.sql.SparkSessionobject HiveToMySQL {def main(args: Array[String]): Unit = {// 創建SparkSessionval spark = SparkSession.builder().appName("HiveToMySQL").enableHiveSupport().getOrCreate()// 讀取Hive表數據val hiveDF = spark.table("hive_table_name")// 寫入MySQL表hiveDF.write.format("jdbc").option("url", "jdbc:mysql://localhost:3306/database_name").option("dbtable", "mysql_table_name").option("user", "mysql_username").option("password", "mysql_password").save()// 關閉SparkSessionspark.stop()}
}
"hive_table_name"
:Hive表的名稱。"jdbc:mysql://localhost:3306/database_name"
:MySQL數據庫的連接URL,包括主機名、端口號和數據庫名稱。"mysql_table_name"
:要寫入的MySQL表的名稱。"mysql_username"
:MySQL數據庫的用戶名。"mysql_password"
:MySQL數據庫的密碼。
確保替換這些參數后,運行代碼即可將Hive表中的數據寫入到MySQL表中。