hadoop執行sqoop任務找不到jar

sqoop:1.4.7
hadoop:3.4.1
數據:oracel-hdfs

2025-04-15 16:57:00,850 INFO sqoop.Sqoop: Running Sqoop version: 1.4.7
2025-04-15 16:57:00,901 WARN tool.BaseSqoopTool: Setting your password on the command-line is insecure. Consider using -P instead.
2025-04-15 16:57:00,965 INFO oracle.OraOopManagerFactory: Data Connector for Oracle and Hadoop is disabled.
2025-04-15 16:57:00,975 INFO manager.SqlManager: Using default fetchSize of 1000
2025-04-15 16:57:00,975 INFO tool.CodeGenTool: Beginning code generation
2025-04-15 16:57:01,920 INFO manager.OracleManager: Time zone has been set to GMT
2025-04-15 16:57:01,953 INFO manager.SqlManager: Executing SQL statement: SELECT t.* FROM HYSH_CX.NCME_CREDIT_TYPE t WHERE 1=0
2025-04-15 16:57:01,984 INFO orm.CompilationManager: HADOOP_MAPRED_HOME is /opt/datasophon/hdfs
Note: /tmp/sqoop-hdfs/compile/74c258101e7c0e44855b37b09735db0e/HYSH_CX_NCME_CREDIT_TYPE.java uses or overrides a deprecated API.
Note: Recompile with -Xlint:deprecation for details.
2025-04-15 16:57:03,093 INFO orm.CompilationManager: Writing jar file: /tmp/sqoop-hdfs/compile/74c258101e7c0e44855b37b09735db0e/HYSH_CX.NCME_CREDIT_TYPE.jar
2025-04-15 16:57:03,791 INFO tool.ImportTool: Destination directory /user/hdfs/NCME_CREDIT_TYPE deleted.
2025-04-15 16:57:03,823 INFO manager.OracleManager: Time zone has been set to GMT
2025-04-15 16:57:03,831 INFO mapreduce.ImportJobBase: Beginning import of HYSH_CX.NCME_CREDIT_TYPE
2025-04-15 16:57:03,832 INFO Configuration.deprecation: mapred.job.tracker is deprecated. Instead, use mapreduce.jobtracker.address
2025-04-15 16:57:03,836 INFO Configuration.deprecation: mapred.jar is deprecated. Instead, use mapreduce.job.jar
2025-04-15 16:57:03,843 INFO Configuration.deprecation: mapred.map.tasks is deprecated. Instead, use mapreduce.job.maps
2025-04-15 16:57:03,911 INFO impl.MetricsConfig: Loaded properties from hadoop-metrics2.properties
2025-04-15 16:57:03,921 INFO impl.MetricsSystemImpl: Scheduled Metric snapshot period at 10 second(s).
2025-04-15 16:57:03,921 INFO impl.MetricsSystemImpl: JobTracker metrics system started
2025-04-15 16:57:04,087 INFO db.DBInputFormat: Using read commited transaction isolation
2025-04-15 16:57:04,096 INFO mapreduce.JobSubmitter: number of splits:1
2025-04-15 16:57:04,188 INFO mapreduce.JobSubmitter: Submitting tokens for job: job_local2073730221_0001
2025-04-15 16:57:04,188 INFO mapreduce.JobSubmitter: Executing with tokens: []
2025-04-15 16:57:04,325 INFO mapred.LocalDistributedCacheManager: Creating symlink: /data/tmp/hadoop/mapred/local/job_local2073730221_0001_612a3a92-6e9b-4750-8da1-17ffe2e06983/libjars <- /opt/datasophon/hadoop-3.4.1/libjars/*
2025-04-15 16:57:04,327 WARN fs.FileUtil: Command 'ln -s /data/tmp/hadoop/mapred/local/job_local2073730221_0001_612a3a92-6e9b-4750-8da1-17ffe2e06983/libjars /opt/datasophon/hadoop-3.4.1/libjars/*' failed 1 with: ln: failed to create symbolic link ‘/opt/datasophon/hadoop-3.4.1/libjars/*’: No such file or directory2025-04-15 16:57:04,327 WARN mapred.LocalDistributedCacheManager: Failed to create symlink: /data/tmp/hadoop/mapred/local/job_local2073730221_0001_612a3a92-6e9b-4750-8da1-17ffe2e06983/libjars <- /opt/datasophon/hadoop-3.4.1/libjars/*
2025-04-15 16:57:04,327 INFO mapred.LocalDistributedCacheManager: Localized file:/tmp/hadoop/mapred/staging/hdfs2073730221/.staging/job_local2073730221_0001/libjars as file:/data/tmp/hadoop/mapred/local/job_local2073730221_0001_612a3a92-6e9b-4750-8da1-17ffe2e06983/libjars
2025-04-15 16:57:04,366 INFO mapreduce.Job: The url to track the job: http://localhost:8080/
2025-04-15 16:57:04,366 INFO mapreduce.Job: Running job: job_local2073730221_0001
2025-04-15 16:57:04,367 INFO mapred.LocalJobRunner: OutputCommitter set in config null
2025-04-15 16:57:04,371 INFO output.PathOutputCommitterFactory: No output committer factory defined, defaulting to FileOutputCommitterFactory
2025-04-15 16:57:04,372 INFO output.FileOutputCommitter: File Output Committer Algorithm version is 2
2025-04-15 16:57:04,372 INFO output.FileOutputCommitter: FileOutputCommitter skip cleanup _temporary folders under output directory:false, ignore cleanup failures: false
2025-04-15 16:57:04,373 INFO mapred.LocalJobRunner: OutputCommitter is org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter
2025-04-15 16:57:04,406 INFO mapred.LocalJobRunner: Waiting for map tasks
2025-04-15 16:57:04,406 INFO mapred.LocalJobRunner: Starting task: attempt_local2073730221_0001_m_000000_0
2025-04-15 16:57:04,422 INFO output.PathOutputCommitterFactory: No output committer factory defined, defaulting to FileOutputCommitterFactory
2025-04-15 16:57:04,422 INFO output.FileOutputCommitter: File Output Committer Algorithm version is 2
2025-04-15 16:57:04,422 INFO output.FileOutputCommitter: FileOutputCommitter skip cleanup _temporary folders under output directory:false, ignore cleanup failures: false
2025-04-15 16:57:04,433 INFO mapred.Task:  Using ResourceCalculatorProcessTree : [ ]
2025-04-15 16:57:04,517 INFO db.DBInputFormat: Using read commited transaction isolation
2025-04-15 16:57:04,519 INFO mapred.MapTask: Processing split: 1=1 AND 1=1
2025-04-15 16:57:04,523 INFO mapred.LocalJobRunner: map task executor complete.
2025-04-15 16:57:04,528 WARN mapred.LocalJobRunner: job_local2073730221_0001
java.lang.Exception: java.lang.RuntimeException: java.lang.ClassNotFoundException: Class HYSH_CX_NCME_CREDIT_TYPE not foundat org.apache.hadoop.mapred.LocalJobRunner$Job.runTasks(LocalJobRunner.java:492)at org.apache.hadoop.mapred.LocalJobRunner$Job.run(LocalJobRunner.java:552)
Caused by: java.lang.RuntimeException: java.lang.ClassNotFoundException: Class HYSH_CX_NCME_CREDIT_TYPE not foundat org.apache.hadoop.conf.Configuration.getClass(Configuration.java:2737)at org.apache.sqoop.mapreduce.db.DBConfiguration.getInputClass(DBConfiguration.java:403)at org.apache.sqoop.mapreduce.db.OracleDataDrivenDBInputFormat.createDBRecordReader(OracleDataDrivenDBInputFormat.java:66)at org.apache.sqoop.mapreduce.db.DBInputFormat.createRecordReader(DBInputFormat.java:266)at org.apache.hadoop.mapred.MapTask$NewTrackingRecordReader.<init>(MapTask.java:528)at org.apache.hadoop.mapred.MapTask.runNewMapper(MapTask.java:771)at org.apache.hadoop.mapred.MapTask.run(MapTask.java:348)at org.apache.hadoop.mapred.LocalJobRunner$Job$MapTaskRunnable.run(LocalJobRunner.java:271)at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:511)at java.util.concurrent.FutureTask.run(FutureTask.java:266)at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149)at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624)at java.lang.Thread.run(Thread.java:750)
Caused by: java.lang.ClassNotFoundException: Class HYSH_CX_NCME_CREDIT_TYPE not foundat org.apache.hadoop.conf.Configuration.getClassByName(Configuration.java:2641)at org.apache.hadoop.conf.Configuration.getClass(Configuration.java:2735)... 12 more
2025-04-15 16:57:05,369 INFO mapreduce.Job: Job job_local2073730221_0001 running in uber mode : false
2025-04-15 16:57:05,370 INFO mapreduce.Job:  map 0% reduce 0%
2025-04-15 16:57:05,371 INFO mapreduce.Job: Job job_local2073730221_0001 failed with state FAILED due to: NA
2025-04-15 16:57:05,376 INFO mapreduce.Job: Counters: 0
2025-04-15 16:57:05,379 WARN mapreduce.Counters: Group FileSystemCounters is deprecated. Use org.apache.hadoop.mapreduce.FileSystemCounter instead
2025-04-15 16:57:05,380 INFO mapreduce.ImportJobBase: Transferred 0 bytes in 1.5304 seconds (0 bytes/sec)
2025-04-15 16:57:05,380 WARN mapreduce.Counters: Group org.apache.hadoop.mapred.Task$Counter is deprecated. Use org.apache.hadoop.mapreduce.TaskCounter instead
2025-04-15 16:57:05,380 INFO mapreduce.ImportJobBase: Retrieved 0 records.
2025-04-15 16:57:05,380 ERROR tool.ImportTool: Import failed: Import job failed!

修改方式

修改一下這個mapred-site.xml,然后重啟

<property><name>mapreduce.framework.name</name><value>yarn</value></property>

不行看這里

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/news/901564.shtml
繁體地址,請注明出處:http://hk.pswp.cn/news/901564.shtml
英文地址,請注明出處:http://en.pswp.cn/news/901564.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

空地機器人在復雜動態環境下,如何高效自主導航?

隨著空陸兩棲機器人(AGR)在應急救援和城市巡檢等領域的應用范圍不斷擴大&#xff0c;其在復雜動態環境中實現自主導航的挑戰也日益凸顯。對此香港大學王俊銘基于阿木實驗室P600無人機平臺自主搭建了一整套空地兩棲機器人&#xff0c;使用Prometheus開源框架完成算法的仿真驗證與…

MCP調用示例-GitHub倉庫操作

在上一篇文章MCP核心概念和應用 ———AI 大模型的標準化工具箱里&#xff0c;我們講述了MCP的安裝&#xff0c;現在讓我們試一試通過示例了解它的功能吧&#xff01; 首先確保你已經有了相應的APIKEY。 &#x1f4a1;大模型中轉API推薦 ?中轉使用教程 1、點擊界面上的 「Done…

zk源碼—5.請求的處理過程一

大綱 1.服務器的請求處理鏈 (1)Leader服務器的請求處理鏈 一.PrepRequestProcessor請求預處理器 二.ProposalRequestProcessor事務投票處理器 三.SyncRequestProcessor事務日志處理器 四.AckRequestProcessor投票反饋處理器 五.CommitProcessor事務提交處理器 六.ToBeA…

小程序獲取用戶總結(全)

獲取方式 目前小程序獲取用戶一共有3中(自己接觸到的),但由于這個API一直在改,所以不確定后期是否有變動,還是要多關注官方公告。 方式一 使用wx.getUserInfo 實例: wxml 文件<button open-type="getUserInfo" bindgetuserinfo="onGetUserInfo&quo…

[LeetCode 1871] 跳躍游戲 7(Ⅶ)

題面&#xff1a; 數據范圍&#xff1a; 2 ≤ s . l e n g t h ≤ 1 0 5 2 \le s.length \le 10^5 2≤s.length≤105 s [ i ] s[i] s[i] 要么是 ′ 0 ′ 0 ′0′ &#xff0c;要么是 ′ 1 ′ 1 ′1′ s [ 0 ] 0 s[0] 0 s[0]0 1 ≤ m i n J u m p ≤ m a x J u m p <…

【Linux】基礎 IO(文件描述符、重定向、緩沖區)

Linux 1.理解文件2.C文件接口1.打開 寫文件2.讀文件 簡單實現cat命令3.輸出信息到顯示器的方式4.stdin、stdout、stderr5.打開文件的方式 3.系統接口 IO1.傳遞標志位2.open、close3.write、read 4.文件描述符1.是什么&#xff1f;2.分配規則3.重定向原理4.通過dup2系統調用重…

Apache Doris SelectDB 技術能力全面解析

Apache Doris 是一款開源的 MPP 數據庫&#xff0c;以其優異的分析性能著稱&#xff0c;被各行各業廣泛應用在實時數據分析、湖倉融合分析、日志與可觀測性分析、湖倉構建等場景。Apache Doris 目前被 5000 多家中大型的企業深度應用在生產系統中&#xff0c;包含互聯網、金融、…

交換機與路由器的默契配合:它們的聯系與區別

交換機與路由器的默契配合&#xff1a;它們的聯系與區別 一. 交換機與路由器的基本功能1.1 交換機的功能1.2 路由器的功能 二. 交換機和路由器的區別三. 交換機和路由器的聯系3.1 數據轉發的協作3.2 網絡分段與分隔3.3 協同工作提供互聯網接入 四. 交換機和路由器的聯合應用場景…

【計算機系統結構】MIPSsim

目錄 雙擊MIPSsim.exe 問題1&#xff1a;Microsoft Defender SmartScreen阻止了無法是被的應用啟動&#xff0c;運行此應用可能會導致你的電腦存在風險 解決 出現下面的問題的話&#xff0c;建議直接在官網下載 問題2&#xff1a;.NET Framework 3.5安裝錯誤代碼0x80240438 …

map 中key 是否可以放置的自定義的對象?

在 Java 中,可以將自定義對象作為 Map 的 Key,但必須滿足以下條件: 1. 必須正確重寫 hashCode() 和 equals() 方法 原因:Map(如 HashMap)依賴這兩個方法確定鍵的唯一性和存儲位置。未正確重寫的風險: 無法正確查找值:即使兩個對象邏輯上相等,若 hashCode 不同,會被視…

【筆記ing】AI大模型-04邏輯回歸模型

一個神經網絡結構&#xff0c;其中的一個神經網絡層&#xff0c;本質就是一個邏輯回歸模型 深度神經網絡的本質就是多層邏輯回歸模型互相連接或采用一定的特殊連接的方式連接在一起構成的。其中每一個層本質就是一個邏輯回歸模型。 邏輯回歸模型基本原理 邏輯回歸&#xff0…

Android學習總結之算法篇七(圖和矩陣)

有向圖的深度優先搜索&#xff08;DFS&#xff09;和廣度優先搜索&#xff08;BFS&#xff09;的示例&#xff0c;以此來模擬遍歷 GC Root 引用鏈這種有向圖結構&#xff1a; 一、深度優先搜索&#xff08;DFS&#xff09; import java.util.*;public class GraphDFS {privat…

熟悉Linux下的編程

可能 目錄 熟悉Linux下Python編程的含義及與非Linux環境編程的區別 一、核心含義解析 二、與非Linux環境的關鍵區別 三、典型應用場景對比 四、能力培養建議 openfoem的下載之路&#xff1a; 方法一&#xff1a;使用cd命令 方法二&#xff1a;使用快捷方式 方法三&am…

c++引入nacos,詳細步驟

以下是將Nacos引入C項目的詳細步驟&#xff0c;包括安裝、配置和代碼實現&#xff1a; 1. 安裝Nacos服務器 下載Nacos服務器安裝包&#xff0c;可以從Nacos官網獲取最新版本。 解壓安裝包并啟動Nacos服務器&#xff1a; cd nacos/bin sh startup.sh -m standalone 這將啟動…

性能優化實踐

4.1 大規模量子態處理的性能優化 背景與問題分析 量子計算中的大規模量子態處理(如量子模擬、量子態可視化)需要高效計算和實時渲染能力。傳統圖形API(如WebGL)在處理高維度量子態時可能面臨性能瓶頸,甚至崩潰(如表格中14量子比特時WebGL的崩潰)。而現代API(如WebGPU…

課堂總結。

第三章第六節 Spark-SQL核心編程&#xff08;五&#xff09;自定義函數&#xff1a;UDF&#xff1a;val sparkConf new SparkConf().setMaster("local[*]").setAppName("SQLDemo")//創建SparkSession對象val spark :SparkSession SparkSession.builder()…

分庫分表-除了hash分片還有別的嗎?

在分庫分表的設計中,除了常見的 Hash 分片,還有多種策略根據業務場景靈活選擇。以下是幾種主流的分庫分表策略及其應用場景、技術實現和優缺點分析,結合項目經驗(如標易行投標服務平臺的高并發場景)進行說明: 一、常見分庫分表策略 1. 范圍分片(Range Sharding) 原理:…

AUTOSAR圖解==>AUTOSAR_SWS_GPTDriver

AUTOSAR GPT驅動 (通用定時器驅動) 分析 AUTOSAR標準軟件規范解析 目錄 1. GPT驅動概述 1.1 GPT驅動在AUTOSAR架構中的位置1.2 GPT驅動主要功能 2. GPT驅動模塊結構3. GPT驅動初始化流程4. GPT驅動狀態機5. GPT驅動錯誤處理6. GPT預定義定時器7. 總結 1. GPT驅動概述 GPT驅動…

MyBatis持久層框架

MyBatis持久層框架 目錄 一、Mybatis簡介 1. 簡介 2. 持久層框架對比 3. 快速入門&#xff08;基于Mybatis3方式&#xff09; 二、日志框架擴展 1. 用日志打印替代sout 2. Java日志體系演變 3. 最佳拍檔用法 4. Lombok插件的使用 4.1 Lombok簡介 4.2 Lombok安裝 4.3 …

域控制器升級的先決條件驗證失敗,證書服務器已安裝

出現“證書服務器已安裝”導致域控制器升級失敗時&#xff0c;核心解決方法是卸載已安裝的證書服務?。具體操作如下&#xff1a;? ?卸載證書服務? 以管理員身份打開PowerShell&#xff0c;執行命令&#xff1a; Remove-WindowsFeature -Name AD-Certificate該命令會移除A…