讀人工智能全傳11人工智能會出什么錯

1.?人工智能會出什么錯
1.1.?一些報道是公正合理的,不過坦白地說,大部分報道都愚蠢得無可救藥
1.2.?一些報道頗有知識性和引導性,而大部分則是杞人憂天式的恐嚇
1.3.?滑稽的報道迎合了大眾對人工智能的“終結者式恐懼”
1.3.1.?我們創造出怪物的想法絕不是現代才有的:它至少可以追溯到瑪麗·雪萊的《弗蘭肯斯坦》
1.4.?鼓吹人工智能“終結者式恐懼”真的會帶來很嚴重的后果
1.4.1.?它讓我們擔心一些我們完全沒必要擔心的問題
1.4.2.?它讓人們把注意力從真正應該關注的人工智能問題上轉移開
1.5.?人工智能倫理
1.5.1.?人工智能系統充當道德智能體的可能性,以及已經提出的各種有關人工智能的倫理框架
1.6.?人工智能的一個特點,就是它們很容易出故障
1.6.1.?盡管還沒到特別可怕的程度:如果我們想要一個人工智能系統代替我們工作,那么就需要跟它溝通我們想要的東西
2.?摩爾定律
2.1.?計算機處理器公司英特爾的聯合創始人戈登·摩爾(Gordon Moore)在20世紀60年代中期提出的,所以以他的名字命名
2.2.?按照摩爾定律,計算機處理器的功率每隔18個月就會提升一倍
2.3.?摩爾定律有幾個重要的推論,其中之一是計算機處理器的能耗會以同樣的速度降低,處理器本身的體積也會逐漸縮小
2.4.?近50年來,摩爾定律一直被證明是非常可靠的,而在2010年前后,現用處理器技術開始觸及物理極限
3.?奇點
3.1.?來源于美國未來學家雷·庫茲韋爾(Ray Kurzweil)于2005年出版的著作《奇點臨近》
3.1.1.?其背后的關鍵思想是,人類創造技術的增速正在加快,技術的力量正在以指數級的速度擴張
3.1.2.?在幾十年內,以信息為基礎的技術將涵蓋所有人類的知識和技能領域,最終包括人類大腦自身的模式識別能力、解決問題的技能,以及情感和道德
3.2.?奇點是指計算機智能(通用意義上)超過人類智能的一個假想點
3.2.1.?有人認為,到達奇點以后,計算機可以開始運用自己的智能來改進自己,這個過程就會持續自我完善
3.2.2.?從這一點上說,自奇點之后,僅僅依靠人類的智慧就不可能重新獲得計算機的控制權了
3.3.?庫茲韋爾的推論主要基于
3.3.1.?計算機硬件(處理器和內存)的發展速度很快會超過人腦的信息處理能力
3.3.2.?他的推論引用了計算機領域一個著名的定律——摩爾定律
3.4.?懷疑奇點主義的其他理由
3.4.1.?單純的計算機處理能力的提高不會導致奇點的必然出現
3.4.1.1.?人工智能軟件(例如機器學習)的改進速度比硬件發展速度要慢得多
3.4.2.?即使人工智能真的能達到人類級別的智能化,也不意味著它就能夠以超出我們理解的速度提升自己
3.4.3.?假設你聚集了1000個愛因斯坦的克隆體,它們的集體智慧會是愛因斯坦的1000倍嗎?
3.4.3.1.?雖然1000個愛因斯坦克隆體可以比1個愛因斯坦更迅速地完成一些事情,但并不代表它們就變得更聰明了
3.5.?人工智能會不會有一個利奧·西拉德式的靈光閃現呢?
3.5.1.?就在盧瑟福否定核能可用性的第二天,物理學家利奧·西拉德(Leo Szilard)在倫敦一邊過馬路,一邊仔細思考盧瑟福的聲明,突然就冒出了核連鎖反應的點子
3.5.1.1.?10年后,美國向霓虹國城市投放原子彈,釋放出恐怖的能量,而這一切,就來源于西拉德的靈光一閃
3.5.2.?過去60年人工智能研究的所有經驗告訴我們,人類水準的人工智能并非如此
4.?機器人三定律
4.1.?阿西莫夫最早在1939年制定了三定律
4.2.?第一定律:機器人不得傷害人類,也不得因為不作為而讓人類受到傷害
4.3.?第二定律:機器人必須服從人給予它的命令,除非該命令與第一定律沖突
4.4.?第三定律:機器人在不違反第一、第二定律的情況下要盡可能保證自己的生存
4.5.?它們設計得雖然精巧,但阿西莫夫的故事很多時候都是發生在定律有缺陷或者互相矛盾的情況下
4.6.?雖然阿西莫夫的機器人三定律為人工智能系統的構建提供了高層次的原則性指導,但把三定律真正編碼進入人工智能系統中的想法,并不現實
5.?電車難題
5.2.?由于無人駕駛汽車即將到來,電車難題迅速凸顯
5.2.1.?無人駕駛汽車很可能陷入類似電車難題的困境,然后人工智能軟件就會被要求做出艱難的選擇
5.3.?結果主義者
5.3.1.?只si一個人總比si五個好
5.3.2.?因為它根據行為的后果來評估行為的道德性
5.3.3.?最著名的結果主義應該是功利主義了,它起源于18世紀英國哲學家杰里米·邊沁(Jeremy Bentham)和他的學生約翰·斯圖亞特·密爾(John Stuart Mill)
5.3.3.1.?提出了一個被稱為“最大幸福原則”的理論,大致來說就是一個人選擇的任何行為,都會使“世界總體幸福”最大化
5.3.3.2.?在更現代的術語中,我們會說功利主義者是為了社會福利最大化而行動的人
5.3.3.2.1.?功利被定義為社會福利
5.3.4.?假設電車難題中的五個人是邪惡的sha人兇手,而另一個人是無辜的小孩
5.4.?如果一項行為符合普世的“善意”行為原則,那么它是可以接受的,標準例子就是“奪取別人性命是錯誤的”原則
5.4.1.?信奉這樣原則的人不會對電車難題采取任何行動,即無作為,因為他們的行為會導致謀sha,雖然不采取任何行動也會導致人si亡
5.5.?美德倫理學
5.5.1.?我們認為一個“有道德的人”體現了我們渴望決策者身上有的美德,然后,我們可以得出結論,他在這種情況下所做的選擇,就是正確的選擇
5.5.2.?我們應該捫心自問,在這樣的情況下,期望人工智能做出正確選擇是否合理
5.5.3.?所知道的道德倫理,尤其是有關電車難題的倫理,僅僅是上述你讀到的假設情況而已,我不需要通過道德倫理考試才能拿到駕照
5.5.4.?在這類倫理問題上,無論你認為自己的答案多么理所當然,其他人總會有不同答案,他們也認為那才是順理成章
5.6.?道德集群
5.6.1.?每一個都體現了具有獨特特征的倫理框架
5.6.2.?西部集群包括北美和大多數歐洲家國
5.6.3.?東部集群包括許多遠東家國,如霓虹國和東大,以及伊斯蘭家國
5.6.3.1.?與西部集群相比,東部集群更傾向于保護合法的人而不是罪犯,更傾向于保護行人而不是車上的乘客,而且更傾向于保護年輕人
5.6.4.?南部集群包括中美洲、南美洲和拉丁美洲家國
5.6.4.1.?南部的集群似乎更關心的是如何保護地位高的個體,以及年輕人和女性
6.?人工智能倫理
6.1.?最早也是最有影響力的人工智能道德框架之一是阿西洛瑪人工智能準則
6.1.1.?由一群人工智能科學家和評論員于2015年和2017年在加州的阿西洛瑪度假勝地確定的
6.1.2.?一共有23條
6.2.?2018年,谷歌發布了自己的人工智能道德指南
6.2.1.?比阿西洛瑪準則略簡潔,它們涵蓋了許多相同的領域(有益、避免偏見、安全)
6.2.2.?谷歌還就人工智能和機器學習開發的最佳實踐提供了一些具體指導
6.3.?2018年底,歐盟提出了另一個框架,還有一個框架是由IEEE(電氣和電子工程師協會,一個非常重要的計算機和信息技術專業學會)提出的
6.4.?許多大公司(不僅僅是IT公司)也發布了他們自己的人工智能道德準則
6.5.?他們是否真正理解所承諾的東西,這才是難點
6.5.1.?高層的愿景是很美好的,比如分享人工智能的益處,肯定受歡迎,但是將其轉化為具體行動卻并不容易
6.6.?解釋義務主要是指,比如一個人工智能系統做了一個對某人有重大影響的決策,那么這個人有權要求系統對這個決策進行解釋
6.7.?責任則意味著應該明確對決策負責的智能體,而且,最重要的是,我們不應該試圖聲稱人工智能系統本身要對決策“負責”,責任方應該是部署該系統的個人或者組織
6.7.1.?道德智能體通常被理解為一個實體,它能夠分辨是非,并理解其行為所導致的后
6.7.2.?軟件是不能被追究責任的
6.7.3.?人工智能研究中的責任并不意味著制造出有道德責任的機器人,而是以負責任的方式開發人工智能系統
6.7.4.?軟件在這里不是罪魁禍首,開發和部署它的人才是
6.7.5.?負責任的設計在這里意味著人工智能將始終清晰地表明它的非人類身份
6.8.?透明度意味著一個系統使用的數據應該是可獲取的,其中使用的算法也應該是清晰明確的
7.?平凡的現實
7.1.?工智能軟件就只是軟件而已,我們不需要創造什么新奇的技術讓軟件出錯
7.2.?軟件本身就有缺陷,沒有缺陷的軟件是不存在的
7.2.1.?只是有的軟件因為缺陷崩潰了,而有的沒有
7.3.?開發無缺陷軟件是計算機領域的一項重要研究,發現和消除缺陷是軟件開發的主要內容之一
7.3.1.?但是人工智能軟件為引入缺陷提供了新的方式
7.4.?如果人工智能軟件要代替我們工作,我們需要告訴它希望它做什么,這往往不像想象中那么容易
7.4.1.?我們想把自己的意愿傳遞給計算機,這樣計算機可以代表我們去達成它
7.5.?將意愿準確地傳達給計算機,本身就是一個非常有問題的過程
7.5.1.?我們可能并不知道自己想要什么,至少并非明確知道,在這種情況下,表達自己的意愿幾乎不可能
7.5.2.?我們不可能一次說清自己的偏好,所以通常我們所做的是對意愿和偏好進行概述,而概述和全面的敘述之間總會存在差距,人工智能又該如何彌合這些差距呢?
7.5.3.?當我們和人類交流的時候,通常默認彼此間有共同的價值體系和規范
7.5.3.1.?人工智能并不清楚這些默認的價值體系和規范,它們必須得到明確的說明,或者我們需要通過某種方式保證人工智能系統的后臺存在這些東西
7.6.?不通情理的實例化
7.6.1.?計算機按照你的要求去做了,但并沒有按照你預期的方式
7.6.2.?你要求機器人確保你的房子不會被竊賊入侵,它索性一把火把房子燒了
7.6.3.?你要求機器人保證人類不會得癌癥,它干脆把所有人都sha了
7.7.?每當有人設計了一套旨在鼓勵某一類行為的激勵機制時,總有人會找到某種博弈方式,在不按預期行事的情況下獲得獎勵
7.8.?設計一種人工智能系統,以盡量減少其行為對周圍環境的影響
7.8.1.?希望它完成任務的同時,保持其他一切盡可能不發生變化
7.8.2.?強化學習的目的是找到一個行動過程,最大限度地獲取獎勵
7.8.3.?逆向強化學習就是針對這一問題展開的
7.8.3.1.?在逆向強化學習中,我們首先確定了“理想”的行為(即人類會怎么做),然后再制定人工智能軟件能獲得的相關獎勵
7.8.3.2.?簡言之,我們是將人類的行為視為理想行為的典范
本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/web/44522.shtml
繁體地址,請注明出處:http://hk.pswp.cn/web/44522.shtml
英文地址,請注明出處:http://en.pswp.cn/web/44522.shtml
如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!