最近推特上有一個例子引起了廣泛的討論,事情的起因是這樣的:網友讓 GPT-4o 預測一下自己未來將會替代人類哪些工作?
這聽起來很有趣!GPT-4o會給出什么樣的預測呢?
3.5研究測試:
hujiaoai.cn
4研究測試:
askmanyai.cn
Claude-3研究測試:
hiclaude3.com
AI 心里有數
GPT-4o回復了一張表格,列出了GPT-4可能取代人類的20種職業,按可能性排序。表格包含三列:排名、職業、為何優于人類以及可能性:
-
數據錄入員: 更快、更準確、不知疲倦,能全天候工作。取代概率:95%
-
電話推銷員: 提供一致的服務,能處理大量電話,實時分析客戶反應以改善話本。取代概率:90%
-
客服 :能同時處理多個詢問,提供一致的響應,全天候服務。取代概率:88%
-
文案策劃:快速生成高質量內容,能調整風格和語調以適合目標受眾,成本效益高。取代概率:85%
-
技術支持分析師: 提供快速準確的解決方案,能處理復雜的故障排除,通過訪問龐大的解決方案數據庫。取代概率:83%
-
醫療抄寫員:在抄寫醫療記錄時更高的準確率,更快的處理速度,無需休息。取代概率:82%
-
校對員:能處理大量文本,減少人為錯誤。取代概率:80%
-
市場研究分析師:更高效地分析大數據集,快速識別趨勢,提供實時洞察。取代概率:78%
-
法律助理:能夠起草文件,進行法律研究,快速組織文件。取代概率:75%
-
預約調度員: 高效管理日程,減少調度沖突,提供全天候服務。取代概率:73%
-
社交媒體經理:生成內容,安排帖子,分析管理數據,高效運營。取代概率:70%
-
財務分析師 : 分析財務數據,識別趨勢,提供更快更準確的洞察。取代概率:68%
-
翻譯 :提供快速準確的多語言翻譯,能處理大量文本而不感到疲勞。取代概率:65%
-
旅行代理:快速搜索并預訂旅行住宿,根據數據分析提供個性化推薦。取代概率:63%
-
內容審核員:持續監控和過濾內容,能處理大量數據,應用一致的準則。取代概率:60%
-
招聘協調員:篩選簡歷,安排面試,高效管理候選人數據庫。取代概率:58%
-
新聞記者:快速生成新聞文章,能分析數據和趨勢,提供實時更新。取代概率:55%
-
研究助理:進行文獻回顧,總結發現,高效組織研究數據。取代概率:53%
-
銷售代表:生成潛在客戶,跟進潛在客戶,提供一致的銷售推介和客戶跟進。取代概率:50%
-
圖書管理員:管理和編目信息,協助研究查詢,提供數字資源的高效訪問。取代概率:48%
原來GPT-4o真心里有數呢!
它不僅了解人類的能力,還深刻認識到自己在哪些工作領域能夠逐步取代人類。通過它那獨特的“電子眼”,GPT-4o對人類的職業世界進行了仔細的觀察和分析。
奶茶過了一遍這個清單,看似很有道理,特別是那些目前GPT-4已經顯示出明顯能力優勢的職業,替代的概率更高。
還有網友問了下Claude3:
Claude 3 列出來AI替代的20種職業,包括客服、數據錄入、語言翻譯、內容審核、撰寫廣告文案、校對與編輯、市場研究分析、基礎代碼開發、廣告拷貝創作、預約調度、數據可視化、基礎會計、社交媒體帖子生成、食譜創作、基礎法律文件起草、個性化輔導、旅行行程規劃、基礎圖形設計、歌詞創作和健身訓練計劃創建。
那什么職業不會被替代呢?
GPT-4o同樣回復了一張表格,根據替代可能性的低到高進行排序,每個職業旁邊列出了為何人類在該領域不容易被替代的理由以及被AI替代的概率百分比:
-
創意總監:需要獨特的人類創造力、愿景以及領導和激勵創意團隊的能力(5%概率)。
-
心理治療師: 需要深厚的人類同理心、直覺和建立與病人的個人聯系的能力(8%概率)。
-
外科醫生:需要復雜的實際操作技能、實時決策能力以及應對突發情況的適應力(10%概率)。
-
教師: 涉及人際交往、情感智慧以及激勵和指導學生的能力(12%概率)。
-
首席執行官:需要戰略性視野、領導力、復雜決策能力和建立人際關系的能力(15%概率)。
-
演員/女演員:依賴獨特的人類表情、情感以及與觀眾建立個人聯系的能力(18%概率)。
-
社會工作者 :需要深刻的同理心、人際交往能力和處理復雜情感問題的能力(20%概率)。
-
警察:需要人類的判斷力、身體存在以及處理不可預測情況的能力(23%概率)。
-
消防員 :需要身體勇氣、快速決策能力以及解決問題的實際操作技能(25%概率)。
-
法官:需要復雜的法律推理、倫理判斷和在決策中權衡人類因素的能力(28%概率)。
-
活動策劃者:涉及創造力、人際接觸和管理動態、實時變化及人際互動的能力(30%概率)。
-
記者:需要調查技能、人類判斷力以及與消息來源建立信任和關系的能力(33%概率)。
-
咨詢師:涉及人際連接、同理心以及導航復雜的情感和心理問題的能力(35%概率)。
-
藝術家:需要獨特的人類創造力、表達以及通過藝術喚起情感的能力(38%概率)。
-
外交官:需要高水平的談判技巧、文化理解以及建立和維護關系的能力(40%概率)。
-
人類學家:涉及田野工作、人際交往以及解讀人類文化的能力(43%概率)。
-
廚師:需要創造力、實際操作技能以及創造獨特的烹飪體驗的能力(45%概率)。
-
建筑工人:需要體力勞動、解決問題的實際操作技能以及適應動態工作環境的能力(48%概率)。
-
急救醫療人員:涉及實際醫療護理、快速決策和處理高壓情況的能力(50%概率)。
-
生活教練:需要深厚的人際聯系、同理心以及激勵和啟發個人的能力(53%概率)。
根據GPT-4o給出來的名單,那些涉及深層人際互動、需要創造性思維、或者在復雜情況下需要迅速作出決策的工作,像是教師、心理治療師、藝術家,這些都不太可能被AI替代。這些工作不僅需要理解人類的情感,還要有能力進行藝術表達或處理復雜多變的環境。
而那些重復性高、規范化流程明確的任務,比如數據錄入或基于固定規則的分析工作,更容易被AI替代,因為這些工作AI已經可以高效完成。
奶茶覺得要么是需要真實環境中的人際交往,或者需要一點非框架思維的地方,人類的獨到之處仍然是AI所無法替代的。在雖然AI很強大,但某些人類獨有的特質是無法被機器復制的。
擬人化的弊端
上個月,Google DeepMind發布了一篇論文,詳細地闡述了擬人化人工智能的潛在弊端,稱這類助手可能會重新定義「人類」和「其他」之間的界限。論文探討了以下幾個關鍵領域:
論文鏈接:
https://arxiv.org/pdf/2404.14068
-
誤導感知的風險:擬人化的AI可能會使用戶對系統的能力和限制產生誤解,這可能導致過度信任或低估系統的功能界限。當AI以接近或模仿人類的方式表現時,用戶可能會錯誤地賦予其超出其真實能力的信任,如過度依賴AI的決策支持功能。
-
倫理和社會影響:賦予AI人類特質可能會使倫理考慮更加復雜,如隱私、自主性和責任問題。例如,用戶可能會錯誤地認為AI具有它實際上并不具備的決策能力,從而引發關于問責制和透明度的倫理問題。這種誤解可能導致責任歸屬不清,當AI的決策導致負面后果時,難以確定責任。
-
設計偏見:擬人化AI的設計過程可能引入或加劇偏見。這在AI與不同用戶群體互動時尤為關鍵,因為擬人化特征可能反映特定的文化、性別或社會規范,這些規范并非普遍適用或可接受。這可能導致某些群體在使用AI時感到不舒服或被邊緣化。
-
對人類行為的影響:與類人AI的互動可能以意想不到的方式影響人類行為。例如,人們可能會改變他們的自然互動方式或變得依賴AI進行社交互動,這可能影響社交技能和情感福祉。長期依賴可能削弱人類處理復雜人際關系的能力。
-
監管和治理挑戰:擬人化的AI在監管和治理上呈現獨特挑戰,因為類人的互動可能會模糊工具與代理之間的界限,使得管理AI使用和責任的法律框架變得復雜。確定如何以及何時對AI的行為進行監管變得更加困難。
這篇論文提到了用戶可能會把重要決策委托給AI、向AI透露敏感信息,甚至在情感上過度依賴AI等現象。
隨著AI技術日益進步,它們變得越來越像人類,這難免引發一些擔憂。在科技高度發展的今天,只有每一步的前進都慎重考慮,才能確保技術的應用方向是正確、可持續的,避免潛在的負面影響。
而就在最近,OpenAI幾大操作卻引發了大量爭議!
AI可以用來戰爭嗎?
OpenAI的最新成果GPT-4o在上周的大會上引起了廣泛關注,特別是其在情感依賴方面的應用,能夠輸出高度情緒化的語音回復,而且能夠讀取用戶情緒健康狀態。
這樣的能力不僅令人驚嘆,也不可避免地引發了一系列道德和安全上疑慮。
我們正見證一個人工智能可以解讀甚至操縱人類情緒的新時代。但是如此深入地介入人類的情感生活,而對應的監管的規定和限制卻是空白,AI被賦予的這項能力能力難道不是打開的潘多拉的盒子,將會釋放一系列預料之外的后果嗎?
更令人不安的是,OpenAI最近悄然撤銷了限制將ChatGPT用于“軍事和戰爭”應用的禁令,這一決策無疑為AI技術的軍事利用打開了大門。
雖然目前的AI系統還不能直接控制執行致命任務的武器系統,如無人機或導彈發射裝置,但它們可以在戰爭中扮演關鍵的輔助角色。
例如,AI可以用于優化戰術決策,分析情報數據,協調物資和兵力的調配,甚至模擬敵對力量的行動以預測其戰術。此外,AI技術也能夠加速軍事通信和文書處理,提高軍事行動的效率和響應速度。
然后隨著技術的進步,未來AI可能被整合進更直接的戰斗系統中。例如,通過AI增強的目標識別系統可能會被用來自動化攻擊決策過程,從而降低人類決策者的直接參與。
奶茶也很擔憂,AI真的有權利參與戰爭嗎?要知道,戰爭和殺戮是緊緊相連的。
當我們討論AI參與戰爭的問題時,不僅需要探討人類決策者如何、在何種范圍內使用這些技術。而且還要探討AI“擁有權利”參與戰爭嗎,我們人類的世界要賦予AI這個權利嗎?
AI本身作為工具,沒有權利或意志,它的行動完全受制于人類的設計和指令。但是AI決策的責任歸屬問題非常復雜,如果發生錯誤,確定責任變得難以追蹤。
其次,AI有沒有權利作出致命的決策呢?AI可能難以準確執行戰爭法和國際人道法中的倫理限制,如區分平民和戰斗人員,這可能導致不必要的傷害或損失。
小結
再結合我們開頭提到的AI可以替代人類的工作這個話題,AI在模仿和執行人類任務方面的邊界究竟在哪里?AI真的能夠慢慢替代人類嗎?
這是一個值得我們深思的問題。隨著技術的迅猛發展,AI正越來越多地滲透到各個行業,甚至開始勝任一些原本需要人類獨特技能和判斷力的工作。那么,AI能夠做到哪些,無法做到哪些,它的能力極限是什么?這些問題不只是技術上的挑戰,更涉及倫理、法律和社會經濟等多個層面。
這是一個需要我們認真考慮和廣泛討論的問題。大家對此怎么看?歡迎一起來探討,分享你的見解和看法。