人人書

雜誌

保存到桌面 | 簡體人人書 | 手機版
傳記回憶文學理論偵探推理驚悚懸疑詩歌戲曲雜文隨筆小故事書評雜誌
人人書 > 雜誌 > 這個殺手非常冷

這個殺手非常冷

時間:2024-10-20 11:50:30

這類自主武器可以在人工智能的幫助下自行學習,并在沒有人為幹預的情況下摧毀目标

在科幻電影裡,機器人殺手是個老掉牙的題材,人們已經不再像幾十年前那樣,為這種冷酷的機器尖叫。在目睹了工業機器人、護理機器人等類似産品後,對機器人能做什麼,人們已經有了更全面的認識。

但是,殺手機器人和那些提供便利服務的機器終究還是不同的,因為它涉及倫理問題。60多年前,科幻小說作家艾薩克·阿西莫夫(IsaacAsimov)就提出了著名的“機器人三定律”,首要一條就是“機器人不得傷害人類,或坐視人類受到傷害”。

随着技術的進步,倫理屏障似乎正在被打破,冷血的機器人殺手逐漸從熒屏中走出來。為了阻止這種情況的發生,一場人類自我保護運動逐漸興起。

迫在眉睫的問題

科幻很遠,現實很近。機器人殺手的出現已經是一個迫在眉睫的問題。

近期超過70個國家的軍事專家、科學家、非政府組織在日内瓦參加了聯合國會議,就如何對待具有争議的“殺手機器人”進行讨論。為期一周的會議并未得出實質性的結論。雖然大多數與會者表示支持進行立法管制,但是一小部分人表示反對。這種分歧助推了一種現實:殺手機器人正向我們走來。

殺手機器人走來的腳步聲會讓人感到不寒而栗。當然,在聯合國《特定常規武器公約》框架下,這種殺手機器人有另外一個名字:自主武器。這類自主武器可以在人工智能的幫助下自行學習,并在沒有人為幹預的情況下摧毀目标。

随着科技的發展,機器可以用人工神經網絡處理所積攢的經驗,類似于人類大腦,不斷對情況進行自主學習和判斷。而武器行業也積極利用最先進的技術生産出更有效率、速度更快的武器。擁有這種能力的武器,很容易讓人想起電影《終極者》裡的殺手機器人。

紅十字國際委員會将自主武器定義為:“可以根據自身所處的環境中不斷變化的情況,随時學習或調整運轉的武器。真正的自主武器能夠在無人幹預或操控的情況下搜索、識别并使用緻命武力攻擊目标。”

雖然全自主武器和殺人機器人到目前為止還沒有被使用,但在這一領域存在國際公約的灰色區域。在各國讨論關于自主武器的生産和使用是否必須受國際公約管制時,盡管各國代表原則上同意,自主武器也必須受人類控制,并符合國際法,但美國和一些擁有大型軍備的國家提出明确的反對意見,不希望禁止這類武器,這些國家希望借此保證其在軍事上的優勢地位。

美國國防部是最支持機器人研究的機構之一,2013年美國智庫海軍研究辦公室曾向塔夫斯大學、布朗大學、倫斯勒理工學院、喬治城大學以及耶魯大學的研究人員發放750萬美元補助,以研究如何教授自動機器人分辨對錯。

目前美國已經有不少具有部分自主功能的武器。軍用機器人要上戰場,需要适應戰場上的現實,輔助戰士執行任務。例如導彈已經可以自行識别、選擇和攻擊目标,無人機可以組成蜂群網絡并獨立執行某些任務,阿富汗和叙利亞已成為美軍這些武器的試驗場。

倫理的交鋒

在對殺手機器人限制和列裝的時間競賽中,即使是樂觀者目前也認為後者會是勝利的一方。畢竟在人們感受到切膚之痛前,很難對收割生命的武器産生感性認識,一如曆史上先是出現了大規模殺傷性武器,并産生巨大的破壞後,人們才開始痛定思痛制定限制大規模殺傷性武器的公約。

機器人看似有益無害,目前在工廠裡已經有機器人和人一起上班,無人駕駛汽車也已經上路測試,無人機已開始行進送貨服務,但當這些機器成為武器,踏上戰場的那一刻,不但所有的溫情脈脈都會被撕去,連戰争的倫理都會被改寫。盡管責任要由握刀的人來承擔,但和刀終究要靠人揮動不同,自主武器可以自己選擇攻擊的時機,這無疑會極大削弱人的自我防護能力。

自主武器在接到攻擊指令後,不再需要人的開火指揮,攻擊的時機也由算法作出最優選擇。它們在數分鐘、數天乃至數周長的時間裡自行跟蹤目标,然後選擇所謂的最佳時間将目标消滅。如此一來,決定人生死瞬間的不再是作為對手的人,而是一台冷冰冰的機器。

此外,自主武器更難區分攻擊目标。目前國際人道法重要的一條是,在攻擊時要清楚區分作戰者和平民,盡量避免攻擊平民和民用設施。機器不懂國際法,也無法依據道德而行動,難以區分攻擊目标。因此國際法專家們要求,人類必須始終擁有對攻擊的最後控制權。

殺傷性地雷可以被看作是一種最初級的自動運行武器,因為當其埋下後,何時爆炸就不由埋雷者控制了,而取決于應用的情景。然而就在地雷被口誅筆伐多年後,很多幾十年前布下的地雷,如今依然在作惡,每年造成1.5萬到2萬人喪生。

一旦殺手機器人成為現實,其危險要比地雷大得多。因開展反對地雷的運動而獲得諾貝爾和平獎的喬迪·威廉姆斯(JodyWilliams)是“阻止殺手機器人運動”的發言人,他表示自主武器比核武器更可怕,“如果一些人認為把人類的生殺大權交給一台機器是可以的,人性又何以處之?”

正是基于這種可怕的倫理沖突前景,在2013年,聯合國就開始呼籲暫緩研發能自主運作的戰争機器人。遺憾的是,倫理的交鋒目前并未延遲研發的腳步,而阻止其到來的機會卻在指縫中溜走。

誰來阻擊

人類被機器人大軍屠殺是電影中的舊梗,之所以仍會出現常拍常新的版本,是因為人們從心底有揮之不去的恐懼和擔憂。

然而,軍火商沒有被這種擔憂所吓阻,他們正貪婪地将手伸向數據和算法,直到殺手機器人破殼而出。他們對此振振有詞,認為當機器人取代人走上沙場,會減少人的犧牲。他們避而不談的是另一種邏輯,即研發這種機器人的一項重大危險是——各國會更輕易發動戰争,因為人與人越來越冷漠,也更容易下達殺人指令。

正是由于感受到殺手機器人成為現實的威脅,自2014年開始各方在聯合國日内瓦總部舉行對話,讨論對殺手機器人進行限制,整個對話在特定常規武器公約的框架下進行。這個非正式對話在2017年演變為正式的談判,超過70個國家以及更多的科學家、非政府組織參與。但各方立場相距甚遠,整個談判進展遲緩。

基礎研究領域一直沒有放棄抵制殺手機器人的出現。物理學家斯蒂芬·霍金在世時,就曾在2015年和上千名人工智能領域的專家一道,發表了一封呼籲在世界範圍内禁止殺手機器人的公開信。

科學家們警告,越過這一界限将啟動一場新的全球軍備競賽。信中稱,繼發明火藥和核武器之後,能夠在沒有人類幹預下獨立識别并攻擊目标的武器系統的發展,将帶來“第三次戰争革命”。

兩年後,不少人工智能企業也加入了反對的行列。特斯拉創始人埃隆·馬斯克,以及谷歌應用人工智能負責人穆斯塔法·蘇萊曼等116家機器人和人工智能企業的創始人簽署了一封公開信。這封信說,緻命自主武器會讓“武裝沖突的規模超過以往任何時候,時間跨度快到人類無法理解”。
   

熱門書籍

熱門文章