人人書

小故事

保存到桌面 | 簡體人人書 | 手機版
傳記回憶文學理論偵探推理驚悚懸疑詩歌戲曲雜文隨筆小故事書評雜誌
人人書 > 小故事 > 機器人也要講道德

機器人也要講道德

时间:2024-08-14 03:53:43


   

 根據科幻作家阿西莫夫的同名小說改編的電影《我,機器人》裡有這樣一個場景:2035年的一個早晨,機器人與人類一起穿梭在美國芝加哥繁忙的街道上,它們在送快遞,幫主人遛狗,做搬運工,急着回家給主人拿急救藥品――這并非遙不可及,日前,谷歌公司的機器人汽車項目就有可能讓這一虛構成為現實。


   

  今年5月,美國内華達州為一輛搭載谷歌智能駕駛系統的汽車頒發了牌照,允許這輛無須人工駕駛的汽車在公共道路上測試行駛。據行業人士預計,自動駕駛汽車在歐美有望于3年至5年後投入使用。


   

  根據國際機器人聯合會網站公布的數據,自1961年以來,全球機器人的銷售總量已達230萬,2011年銷量最高,達到16萬台。眼下,全球機器人産業已處在一個蓬勃發展的上升期。


   

  阿西莫夫定律的困境


   

  當機器人越來越多地滲透到人們的生活中,由此引發的法律與道德問題也随之而來。


   

  英國謝菲爾德大學人工智能與機器人學教授諾爾??沙吉舉例說,設想你的機器人汽車正在開往停車場,此時一個兒童正在附近玩耍。一輛卡車開來,濺起的塵土幹擾了機器人汽車的傳感器,機器人汽車因不能感知兒童的存在而造成交通事故。那麼誰應該對此負責,是機器生産廠家、軟件工程師還是機器人自身?


   

  随着機器人越來越聰明,用途越來越廣泛,機器人最終将面臨這樣一種情境:在不可預知的條件下做出道德判斷――在有平民存在的情況下,無人飛機是否應該對目标所在房間開火?參與地震救援的機器人是否應該告訴人們災難真相,即使那樣會引發恐慌?機器人汽車是否應該為了避免撞到行人而突然轉向,即使那樣會撞到其他人?


   

  1942年,阿西莫夫提出了機器人三定律:機器人不得傷害人類,或者目睹人類将遭受危險而袖手不管;機器人必須服從人給予它的命令,當該命令與第一定律沖突時例外;機器人在不違反第一、第二定律的情況下要盡可能保護自己的生存。


   

  看似完美的三定律在電影《我,機器人》中遇到了麻煩;在兒童和成人同時出現交通事故時,機器人會計算出成人存活率高,選擇優先救成年人,而不是兒童。在這種情況下,如何教會機器人進行道德判斷就被提上了日程。


   

  像人一樣學習道德


   

  怎麼教機器人學會道德判斷?《道德機器:教會機器人如何判斷對和錯》一書的作者之一、美國印第安納大學科學史和科學哲學系教授科林??艾倫表示,這要從人類修習德行的方法中去尋找。


   

  他舉例說,2010年4月的美國紐約街頭,一名見義勇為的男子在與歹徒搏鬥後奄奄一息,但在近兩個小時裡,先後有20多名行人路過卻無人伸出援手。該男子終因失血過多而死亡。人們對道德的理解有時候并不和實際行動相符。為什麼會這樣呢?


   

  對此,艾倫解釋說,在現實中,人們往往“本能地”做出反應,并沒有考慮行為所産生的道德問題。古希臘哲學家亞裡士多德就認為,人需要在現實中不斷地踐行有道德的行為,最終使其成為一種習慣。在以後再遇到道德選擇時,才能不經思考就能表現出良好的品行。


   

  因此,艾倫認為,可以設計一些具有簡單規則的機器人汽車。當汽車遇到上述情況的時候,學習着去進行救助,然後再根據一些道德規範,對機器人汽車的“救助”行為進行分析和肯定,從而逐漸培養起它們的道德感。


   

  然而,另一個更為複雜的問題接踵而來。當人類本身尚對諸如網絡下載、堕胎以及安樂死等問題的看法存在分歧的時候,工程師們也不知道應該将哪一套道德體系輸入機器人。同時,将一種價值判斷應用于具體案例時,也會有分歧。比如,在不傷害到别人的情況下,實話被認為是美德。如果說謊能促進友誼,且不傷害到雙方,這時說謊就是“對的”。基于人類道德的差異性,機器人的道德可能會有若幹版本。


   

  當機器人像人一樣開始學習并實踐道德,它們是否會超越和取代人類?艾倫說,他現在還不擔心這一點,眼下需要做的事是如何教會機器人做出正确的道德判斷。至于怎樣的道德判斷是正确的,這個問題,恐怕連人類有時候都還沒有弄清楚。


   
   
   

熱門書籍

熱門文章