人們願意派遣殺人機器到前線作戰,而不願讓自己子女戰死沙場。但是,人們卻又不希望看到敵人派殺人機器來追殺自己。那麼,人類到底要不要擁有這種“殺手機器人”(killerrobots),即所謂的緻命的自主武器(lethalautonomousweapons)?對于這件事,特斯拉和SpaceXCEO埃隆·馬斯克的立場可謂異常堅定:禁止。
《中國經濟周刊》對此刊發《除了車和火箭,馬斯克還對一件事非常上心》一文,回顧了包括馬斯克在内的衆多科技圈大佬對于所謂“殺手機器人”的憂慮,不過也有人認為馬斯克是杞人憂天。你怎麼看?
擔心:科技圈的呼籲力量有限
@睿棋:潘多拉魔盒一直都在,有人封存就有人竊取,有人強行打開就有人搶奪。
@你在哪兒呢:科技圈大佬們做的關于禁止“殺手機器人”的承諾讓我覺得恐怖。因為他們這樣承諾,就意味着可能有人在造殺人的AI了,細思恐極。
@墅燕:人類有時候是控制不了自己内心欲望的。電影《未來世界》正在逐漸走近我們,而此刻的我們都在為能使用機器人為自己盈利而沾沾自喜,渾然不知。抑制人的警覺性從來不是一步到位的,溫水煮青蛙乃是最簡單最實用的。
@雲上逐日行:等真的造出了高級人工智能,用不用在武器上就由不得你們決定了。
@猁子9:人工智能發展永遠不是幾千個科技圈的人能把握的。
@廢紙桶子:就算簽了不開發自主殺人機器的宣言,也可能會撕毀,隻是現在沒造出來或者說沒有利益沖突而已。希望科學家不要向資本低頭,不要把承諾變成廢紙。
機器人落入不法分子之手最可怕
@小雨:人控制的殺人機器是武器,不可怕。能讓機器來選擇殺誰的機器,才可怕。
@曾伽·宗博魯特:你并不能決定所謂的自主武器如何使用。水結成冰都能成為緻命武器,主要看誰使用,隻有緻命程度的高低之分。
@孤寡老漢:如果無人駕駛的車載電腦被人黑進去了,想想都恐怖。
@雲師兄:菜刀不會殺人,但是到了暴徒手裡就是兇器。機器人不會殺人,但是到了恐怖分子手裡,他能給改成殺人機器人。
@silent1090536:問題是怎麼能保證機器人的核心技術不會落到恐怖組織的人的手裡。
需要法律護衛發展
@白羅斯水晶:大多時候,機器人隻是一種智能化生産工具,如果編入特定的程序給它作業,它當然會“屠殺”。是在屠宰場屠殺牲畜,還是出門去戰場屠殺人?至于機器人能否作為武器投入戰争,有國際法規定嗎?
@喜歡倒着仰泳:機器人殺人,其“父母”應該一律以死刑論處。
@一蓑煙雨qxsmh:避免潛在風險最有效的辦法實際上并不取決于技術發展,而取決于人類的決定。
@Reder:有AI就必須要有反AI,從法律、設計理念、技術規範及軟件硬件等,構建完備的法律方面的規範系統。
編輯:牛绮思
美編:孫珍蘭