《Disney +》 迪士尼、Marvel、彼思、星球大戰…  【速報】勇者鬥惡龍 III 重製版「勇者鬥惡龍 III HD-2D Remake」確定開發!   使用程式操縱怪獸!KONAMI「ソロモンプログラム」於Nintendo Switch免費下載!   殺怪Roguelike遊戲《Curse of the Dead Gods》明天上市:7個遊戲提示不可不知   LoL×PUBG!?英雄聯盟動畫系列「奧術」與「絕地求生Mobile」的聯乘合作決定!   騰訊收購《Ninjala》開發工作室SOLEIL之母公司「Wakeup interactive」   五大提示助你在《巴蘭的異想奇境》找到方向   東京「TOKYO eSPORTS FESTA 2022」確定舉辦!這回線上線下同步開跑!   NFT遊戲公司The Sandbox獲得9300萬美元融資發展Open NFT元宇宙 

【點矽成章:鄭志凱專欄】人工智慧已可媲美人腦,接著我們要思考機器人「道德性」該如何定義

商業

6 月中,在倫敦有幾位裁判跟一位神秘嘉賓透過電腦進行筆談,這位神秘嘉賓才 13 歲,從烏克蘭來,名喚 Eugene Goostman,英文聽寫還不十分道地。 對談 5 分鐘後,有 1/3 的裁判被說服,認為小男生真有其人。謎底揭曉時,才發現他不過是一個已經發展了 13 年的電腦程式。

消息傳出,人工智慧界非常振奮,經過了六十幾年,人工智慧的成就終於能夠通過圖靈測試(Turing Test)的考驗。這個測試在 1950 年由英國數學家艾倫•圖靈(Alan Turing)提出,作為衡量人工智慧的發展指標。電腦如果能跟人腦對答如流,不露縫隙,讓人腦錯以為在跟另一個人腦對話,這時候,人工開發的電腦智慧才 算過了門檻。

  • 人工電腦比人腦還厲害

最近 20 年,人腦的進步有限,人工智慧或機器學習(machine learning)的發展卻突飛猛進。許多需要高度智力的遊戲,人腦已經節節敗退,1997 年 IBM 開發的「深藍」便打敗了世界西洋棋冠軍卡斯帕洛夫。法 國學者開發的「瘋狂石頭」(Crazy Stone)2013 年跟日本圍棋 9 段石田芳夫對弈,在 19×19 的標準棋盤上,石田芳夫讓了 4 子,結果這位曾經打敗林海峰、五連霸本因坊的世紀圍棋高手 居然輸給了毫無名頭的電腦程式。

在人工智慧上,有個「摩拉維克弔詭」(Moravec paradox)的說法。1980 年代中,卡內基梅隆大學教授摩拉維克發現:要讓電腦展現成年人的智力相對容易,但是要它具備有如一歲小孩一般的感知和運動能力,可是十分困難。

「摩拉維克矛盾」到今天仍然成立。下棋,預測一個人的偏好,或者是海量資料的分析能力,電腦的智慧早已超過人的智力,但是在 DARPA 每年舉辦的機器人挑戰(DARPA Robotics Challenges)裡,有些機器人還在練習爬樓梯。然而即使機器人仍在蹒跚學步,許多不必模仿人類動作的機器已經在為人類山上下海,甚至取代人的工作,既解決了許多迫切的問題,也產生不少新的倫理挑戰。

  • 我們對機器有天生的恐懼

人 類對機器人有一種天生的恐懼。從某一個角度來說,機器人是人類最具威脅力的競爭者,除了智力之外,它擁有許多脆弱的人類缺乏的優點,像是任勞任怨,不會疲 倦,維護簡單,不必吃喝拉睡;它又沒有人的種種缺點,例如每年要求加薪,期待升遷機會,心有不甘便發起罷工,以及生老病死等等麻煩問題。如果機器人跟人產 生衝突,以機器人的金剛不壞對付人的血肉之軀,人毫無勝算的可能,這是一種先天的不對稱。

也許出自這種內心深層的恐懼,美國科幻作家阿西莫夫(Isaac Asimov)在他的科幻小說裡曾經制定了有名的機器人三定律。

第一定律,機器人不得傷害人,或任人受到傷害而無所作為。

第二定律,機器人應服從人的一切命令,但命令與第一定律相抵觸時例外。

第三定律,機器人必須保護自己的存在,但不得與第一、第二定律相抵觸。

三 鐵律設想周到,以保護人類為出發點,但其前提是機器人跟人類各有其獨立人格。在真實情境下,機器人的後面都有一個活生生的人類在主宰操縱,當機器人聽令於 其背後的主人,面對另一個人類時,它可以聽從主人的命令,去傷害另一個人類嗎?如果可以,是否違反第一定律?第二定律要求機器人聽從人的命令,只有主人的 命令嗎?可能的被害人可否命令機器人停止?

  • 人機合作會產生不公平

從另一個角度來說,機器人又不是人的競爭對手,它不過是人的工具而已。在人工智慧持續進步的過程中,人機合作是必然的趨勢,雖然下象棋或圍棋,人腦已不如電腦,但是新的研究顯示,人腦加上二流的電腦,仍然能夠打敗第一流的人工智慧。因此有人認為將來的職場會出現中層工作(middle work),結合人腦的精彩創意和電腦的細膩分析,可以創造出許多新的工作機會。

但 是人機間的合作,太容易被利用來侵犯另一個人的利益。從身邊小事來說,現代人每天收到無數垃圾電郵,不請自來,都是某人指揮機器的結果。在家裡不斷收到行 銷電話,全是電腦自動撥號,打電話的人的時間成本為零,接電話的人分分秒秒用的都是自己的時間。人機合作產生的優勢,對另一方而言,常常是束手無策的不公 平。

  • 人與人間的衝突如將機器捲入,將產生不對稱性

更引起爭議的是從事戰爭行為的機器人或是無人飛機(drone)。在中東 戰場,美國政府已經發起數百次無人飛機的攻擊,贊成者認為這是種有效、精準、能夠減少地面人員傷亡的最佳戰術;反對者則認為無人飛機將戰爭行為簡約成電玩 遊戲,不見鮮血,便失去對戰爭殘酷性的體認,如果不能準確辨識,誤傷普通百姓,責任要無人飛機、還是幕後的下令者承擔?更何況如果每個國家都可以不經國際 程序,便直接派遣無人飛機,到其他國家執行殺人任務,世界秩序該如何維護呢?

人與人間產生衝突,結果將機器捲入,最大的問題是破壞力量的懸 殊,產生了嚴重的不對稱性。於是不免讓人想起古代兩軍對峙, 有時由主帥出戰,兩人決一死戰,便決定勝負,省卻了大軍的傷亡。十八世紀流行決鬥,紳士們為了維護榮譽,擇期單挑,找來第三者做為仲裁,訂定了公平的決鬥 規則,決鬥開始後,只要有挑戰方覺得滿意,決鬥便告一結束。

究竟古老你死我活的血腥決鬥方式較為野蠻,還是現在手不沾血的大規模殺人行為較為文明?這也是人工智慧高度發展後產生的另一個弔詭。

  • 討論機器人要提升到道德層面

因此在未來人機共生的社會裡,我們可能需要新的人機共生三定律。這裡不妨東施效顰一番:

第一定律,某甲欲指使機器人對某乙有所作為,不可無償將某乙利益移轉至某甲。

第二定律,如果某甲之作為與第一定律相抵觸,必須事先取得公正第三方同意。

第三定律,如果某甲之作為與第一、第二定律相抵觸,某甲應承擔一切法律及道德責任。

阿 西莫夫機器人三定律不過是倫理哲學層面的冥想,在真實世界裡從來沒有獲得實施。人機共生三定律也沒有實踐的可能,但是透過這樣的討論,也許可以彰顯,今天的人工智慧已經發達到了一個程度,探究的範圍不能再局限於生產力提升、或是經濟成長這些議題,而應該將人的價值、人與人間的尊重、和人機的合理關係拉入視 野之內,只有這樣,人工智慧才不至於成為收不回潘朵拉盒子的小精靈。

(本文轉載自獨立評論@天下;圖片來源:steve jurvetson CC Licensed)

Source: techorange.com

隨機商業新聞

Addidas