溫德爾·瓦拉赫
溫德爾·瓦拉赫(WendellWallach),耶魯大學生物倫理學跨學科中心的主管、倫理學家和知名學者,與人合作出版有《道德機器:教機器人分辨對錯》。我們生活在技術潛力超乎尋常的年代。從納米技術到合成有機物,新技術帶給人類翻天覆地的變化。技術的潛力令人驚歎也令人畏懼。無人機和新的智能手機一樣可能輕而易舉引爆炸彈,3D打印既可以制作工具也可以制作槍支。超級計算機能輕松管理個人檔案,也能易如反掌導緻華爾街崩潰。
但是新技術無法回答如何解決這些技術所引發的道德問題和投資風險。作為未來科技領域權威的道德和倫理研究者,瓦拉赫在《科技失控》一書中,探讨了作為技術的發明生産者和消費者如何應對飛速的技術發展所帶來的道德模糊問題。
Q:人們是否應該将決定權交給機器?
A:殺人機器人隻是把人類的決策權交給機器的一個例子。越來越多的非自主計算機和機器人有可能破壞了人(個人或企業)應為其行為負責的基本原則,并有可能為任何技術的部署造成的危害承擔責任。談到非軍事機器人的用途将會使這一點更加清晰。大部分為家用目的開發的系統不應該被禁止,在許多情況下,他們的好處遠遠大于風險。盡管如此,它們稀釋了負責任的人或企業代理這一核心原則,因此成為令人不安的先例。
當事故發生時誰将被追究責任?汽車制造商們在責任問題解決之前是不願意營銷自動駕駛車輛的。但是目前,法律将判定自動駕駛車輛的制造商為大多數事故負責。如果讓司機為一起他們無法在很短時間内掌握方向盤的事故負責肯定會很不舒服。除了解決各種技術難題,發生事故後的責任和法律後果如何管理是完全自動駕駛車輛投入市場速度很慢的原因。在很多情況下,賠償責任的問題不能且不應由生産商或工程師決定。立法機構、法院、保險機構必須為此做出決定。
解決這些社會擔憂,一種可能的辦法是對完全自動化駕駛汽車提供無過錯保險。如果自動駕駛汽車提供了真正的淨優勢,那麼立法機關可以制定政策,放松這一行業的發展。可以肯定,如果有一項立法可以減少自動化系統因為設計師和工程師有時無法預見的情況導緻的系統故障和事故所承擔的責任,那麼肯定會大大促進整個機器人行業的發展。
實踐倫理學家和社會理論家對于減輕企業和個人的責任、問責制度,以及為越來越自動化的系統行為負責等引起的内在危險十分擔心。2010年,為了表達他們的擔心,提出了五項規則以重申人類不能逃脫對于計算機物品的設計、開發或部署造成的道德責任。50多名技術和道德領域相關的學者簽字表達對這五項規則的支持。其中,“規則1:設計、開發或部署計算機物品的人應當為該物品承擔道德責任。這項責任是與其他設計、開發、部署或知情情況下将該物件作為社會技術系統的一部分進行使用的人共同承擔。”這一條如果被寫進法律,則有望改變現狀。
Q:在您看來,如何防止技術失控?
A:我在《科技失控》一書中,詳細探讨了飛速的技術發展所引發的道德和倫理争議,并指出技術本身可能逐漸成為脫離人類控制的強大力量,我希望科學界、産業界、投資界能夠真正将前沿科技的研究納入到監管範疇之列,确保新技術的研究和應用符合倫理基本原則,以真正實現技術服務于人而不是變成傷害人、瓦解社會的禍根。
應當繼續支持科技創新及創新成果投入應用,但要加強上遊預防,要控制存在潛在好處和風險的技術開發以及其投入社會使用的方式,對于加強新技術上遊預防我有三大操作建議。首先,要建立負責任的工程設計文化。要讓科技、設計擔負對于人類社會的責任,最重要的就是完善相關的倫理和法律準則,在新科技産品、服務的設計過程中确保其安全性,并對于失控等狀态下的責任作出預設。其次,建立靈活有效的監督機制。這其中涉及政府監管體系、非政府組織與相關行業組織共同參與的監督體系,還要加大新聞媒體對于科技創新問題的議程把握能力。第三,響應互聯網時代去中心化運作的潮流要求,培育可以質疑、制衡專家的知情公民。