《道德機器》 如何讓機器人明辨是非 (美)溫德爾·瓦拉赫 柯林·艾倫 著 王小紅 譯 北京大學出版社 2018年11月出版
——讀《道德機器:如何讓機器人明辨是非》
⊙劉英團
美國科幻小說黃金時代的代表之一艾薩克·阿西莫夫在短篇小說《環(huán)舞》中提出的“機器人三大法則”(包括“機器人不可以傷害人類,或看到一個人將受到傷害而不作為”;“機器人必須服從人類的命令,除非這些命令與第一項法則矛盾”以及“在不違反第一、第二項法則的前提下,機器人必須保護自身生存”),被此后的各類故事和小說不斷借用。但是,這些保護性設計或者內置的道德法則能框住擁有獨立思考能力的機器人嗎?人們對于把自己的生命和福祉交給忽視倫理的系統(tǒng)會感到放心嗎?著名倫理學家、耶魯大學生物倫理學跨學科中心主管溫德爾·瓦拉赫(wendell wallach)在與國際知名認知科學哲學家,美國印第安納大學布盧明頓分校教務長講席教授、斯坦福哲學百科(sep)副主編科林·艾倫(colin allen)討論時認為,機器道德關乎人類的決策行為。因此,他們在《道德機器:如何讓機器人明辨是非》中提出,不要把責任推給機器,“我們必須更加堅守人類的價值觀和倫理”。
我們置身于一個豐富多采的世界,也生活在一個困惑和焦慮的時代?!叭祟悰Q策者會因為沒有掌握全部相關信息或沒有考慮到所有偶發(fā)事件而做出糟糕的選擇,所以也許只有在一場未預料到的災難發(fā)生之后,人類才會發(fā)現(xiàn)他們所依賴的(軟硬件)機器人的不完善?!闭纭兜赖聶C器》的兩位作者所言,在未來,可能會出現(xiàn)一些無人駕駛汽車需要做出選擇的場合——選哪條路,誰會受到傷害,或誰會處于受傷害的風險里?該對汽車有什么樣的道德規(guī)范?我們當然有理由擔心,也許不能完全理解為什么機器人做出了某個特別的決定。但是,我們需要確保機器人不會吸收和加重我們的偏頗之處。因為不管我們喜歡與否,機器人就在我們的身邊,“到2030年,自動卡車、飛行汽車和個人機器人將隨處可見”(斯坦福大學《2030年的人工智能與生活》報告),在交通、醫(yī)療、教育、金融和就業(yè)等各個領域,人工智能正以人們意想不到的方式融入人類社會。
面對這樣的趨勢,研究人員究竟該怎樣設計一臺機器人才能使其在面對“兩難之選”之時作出正確反應呢?
“機器需要講道德。”這是英國皇家標準協(xié)會(bsi)最新標準《機器人和機器系統(tǒng)的倫理設計和應用指南》(bs8611)的硬性規(guī)定。回望過去近300年,現(xiàn)代科技的每一次跨越,總會引發(fā)人們對社會倫理道德的憂慮。隨著機器人越來越智能和普遍,自動化機器終將在不可預知的情形下做出生死攸關的決定,從而具備——或至少表面上具備——道德主體資格。世人都看到了,“阿爾法狗”在對弈中戰(zhàn)勝了圍棋世界冠軍李世石和柯潔。而柯潔的感嘆是,“一個純凈、純粹自我學習的alphago master是最強的,對于alphago master的自我進步來講,人類太多余了。”今天,人類再想要阻止人工智能的想法已經(jīng)不可能了。那么,如果有一天ai的能力超過人類,是否會反過來統(tǒng)治人類呢?對此,包括霍金、馬斯克在內的科技巨人都曾發(fā)出過警示:“人類不應低估人工智能發(fā)展可能帶來的嚴重后果?!?/p>
所以,當下科學界的主流觀點是,機器不能不講道德,不然,這個世界無法想象。按麻省理工學院情感計算研究組主任羅薩琳德·皮卡德教授的說法是,“機器越自由,就越需要道德準則。”而在《道德機器:如何讓機器人明辨是非》中,兩位學者通過強調兩個維度——針對道德相關事實的自主性維度和敏感性維度,給出了一個關于日趨復雜的amas(人工道德智能體)軌跡的理解框架,以“評估它們面對的選項的倫理可接受性”。
機器的智能化正在逐步深入到生活領域:客機自動降落,列車無人駕駛,沒有方向盤、剎車和駕駛座位的無人駕駛汽車正在緊張的測試中。但是,再怎么說,機器人之“人”終究不是人類之“人”,“如果人們不確定機器會做什么,他們會害怕機器人的……如果我們能分析并證明它們的行為原因,就更可能克服信任問題。”英國利物浦大學計算機科學家邁克爾·費希爾和英國西部大學艾倫·溫菲爾德教授共同做的一項政府資助的項目證明,“道德機器程序的結果總是可知”的。“在當前的技術水平下,我們不能‘譴責’機器人。機器人尚未達到為自己的決策負責的水平。”薩塞克斯大學人工智能專家布萊·惠特比認為,即使最低限度的道德機器人也是有用的。來自國際計算機科學家團隊的一項新研究著手開發(fā)一種新型的博弈算法——其可以依靠協(xié)作和妥協(xié)等特性來博弈,而且研究人員已經(jīng)發(fā)現(xiàn),機器已經(jīng)可以比人類更好地部署這些特性。由此,《道德機器》的兩位作者認為,隨著機器變得更加復雜,一種“功能性道德”在技術上變得可能,它可以使機器自身有能力來接近并相應地面臨道德挑戰(zhàn)。
現(xiàn)代科技推動了人類社會的進步,但“人類迫切需要確保機器人的設計符合道德規(guī)范”,以維護人類的社會價值觀和社會倫理道德。在《道德機器:如何讓機器人明辨是非》中,兩位作者堅信,讓人工智能機器人習得某些基本的道德感是很有必要的,而且是可行的。因而,他們不但很自然地導入“人類是否想要計算機做道德決策”,還將注意力轉向道德決策的具體執(zhí)行上。他們以生動的案例勾勒出科學家和工程師必須向彼此所提供的東西,并詳細地描述了設計amas的自上而下式進路和自下而上式或發(fā)展的一個基本框架?;谌祟愒谠O計具有道德判斷能力的機器人的漫漫征途上所面臨的巨大挑戰(zhàn),他們不僅討論了基于規(guī)則和基于責任的倫理學概念的可計算性與可實踐性,還論證了amas的不同程序化進路的優(yōu)勢和劣勢,然后以一種哲學和認知的復雜、周密的方式為工程amas做鋪墊,“至于未來的機器人是不是‘真的’道德主體,這無關緊要。因為,兩位學者堅信:“我們有可能設計、建造出能夠考量法律和道德因素而去實施決策的系統(tǒng)?!?/p>
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“機電號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of JDZJ Hao, which is a social media platform and only provides information storage services.
