人人書

雜誌

保存到桌面 | 簡體人人書 | 手機版
傳記回憶文學理論偵探推理驚悚懸疑詩歌戲曲雜文隨筆小故事書評雜誌
人人書 > 雜誌 > 人工智能算法面臨倫理困境

人工智能算法面臨倫理困境

時間:2024-10-26 01:27:48

人工智能從上世紀50年代興起至今隻有近60多年的曆史,但近年來其研究及應用領域迅速拓展、影響深遠。随着各行各業開始部署人工智能,尤其是利用人工智能進行自動化決策的時候,人工智能的諸多倫理與道德問題已悄然浮出水面。

算法問題凸顯威脅人類生活

當1956年人工智能開始起步的時候,人們更多是在說人工智能;在第二次浪潮期間,機器學習成為主流;第三次AI浪潮則是深度學習,是能夠自我學習、自我編程的學習算法,可以用來解決更複雜的任務。此外,計算能力的提升,包括現在的量子計算機,以及越來越普遍的大數據,對人工智能的作用和價值也非常大,使得更複雜的算法成為可能。人工智能的持續進步帶來的好處将是巨大的,但是,随之帶來了諸多倫理問題,為了讓AI真正有益于人類社會,我們也不能忽視。

預見性問題。随着計算能力的不斷攀升,人工智能可以計算大量的可能性,其選擇空間往往大于人類,它們能夠輕易地去嘗試人類以前從未考慮的解決方案。換而言之,盡管人們設計了某人工智能産品,但受限于人類自身的認知能力,研發者無法預見其所研發的智能産品做出的決策以及産生的效果。以谷歌DeepMind團隊開發的AlphaGo與多位人類圍棋高手的“人機大戰”為例,AlphaGo在2016年3月對陣李世石時為第18代(AlphaGoLee),在2017年5月對陣柯潔時已經疊代為第60代(AlphaGoMaster)。而在2017年10月,谷歌DeepMind開發的AlphaGoZero機器系統僅訓練3天就以100:0的比分戰勝了AlphaGoLee;經過40天訓練後,AlphaGoZero又以89:11戰勝了橫掃柯潔的AlphaGoMaster。快速疊代的背後是AlphaGo全新的深度學習邏輯,這種經曆疊代的深度學習邏輯,其強大的進化速度讓人類難以追趕,隻能望其項背。當前,基于深度學習技術的新一代人工智能産品大都具備自學習能力和自适應能力,人工智能應用帶來的後果越來越難以預測,這不得不引發人們的擔憂。

透明性與安全性問題。由于人工智能技術模拟了人腦的工作模式,系統十分複雜,沒有采用明确的數據存儲和分析方式,因此人工智能存在一些難以捉摸的“黑盒子”。包括開發者工程師在内的人都很難确切知道它的内部運作方式和某個具體行動背後的邏輯,因而可能引發嚴重問題。例如,谷歌研究院的ChristianSzegedy等提出在輸入的數據集中故意添加細微的幹擾,形成輸入樣本,将導緻深度神經網絡得出錯誤的預測結果,這個錯誤在人類看來一目了然,但是往往能把計算機帶入陷阱。再如,傳統的卷積神經網絡(CNN)中的後續層能在前一層得出的信息中尋找更高層次模式,這樣能夠丢棄次要細節,優先識别出某種顯著模式,但這也造成提取出來的特征間關系的丢失,這将導緻CNN可能受到特征相同但特征關系不同的樣本數據的欺騙,從而得到錯誤的預測結果。這些算法問題由于黑盒子難以被人們察覺,如何增加算法的可解釋性,從而真正了解機器的學習方式已經成為擺在科學家面前的嚴峻挑戰。

責任分擔問題。人工智能系統通常借助虛拟社區(如Github開源平台)進行協同研發,開發過程中可能會用到許多其他人開發的組件。數量衆多的潛在責任人再加上大多數人工智能産品的内部運作并不透明,這使得人工智能産品一旦出現安全問題,劃分責任歸屬可能會異常複雜。例如,特斯拉自動駕駛汽車自2016年以來已在多個國家發生多場車禍,造成多人傷亡。較近的一次事故發生在2018年5月,一輛特斯拉ModelS在美國佛羅裡達發生撞車事故并起火,事故造成兩人遇難,另有一人受傷。據當地目擊者介紹,車速過快可能是引發交通事故的一個原因。當時,一輛ModelS在海風小道飛速行駛,後來撞牆起火,其中一名青少年被甩出車外,而另外兩名在大火中不幸遇難。針對前幾次交通事故的責任判定存在嚴重分歧,特斯拉公司、駕駛員、傳感器Mobileye公司各執一詞,目前美國國家運輸安全委員會還在對這起車禍進行調查。

隐私保護問題。人工智能系統需要大量的數據來訓練學習算法,因此數據又被稱為AI時代的“新石油”。數據的重要性越來越高,但在采集數據和使用數據的過程中,如何保證用戶數據的安全也面臨越來越多的挑戰。一方面,人工智能在深度學習過程中使用大量的敏感數據,這些個人數據可能會在後續被披露出去。另一方面,數據已經成為新的流通物,數據流動不斷頻繁,其中可能存在某些不為人知的數據交易,個人數據的控制和管理面臨威脅。例如,社交網站Facebook在2018年3月被曝5000萬用戶數據遭到洩露。據Facebook稱,這些數據最初是由一名劍橋大學講師通過一個性格測試應用收集來的。收集行為完全合法,但是這些信息後來被轉移到第三方,包括劍橋分析(CambridgeAnalytica)公司。劍橋分析被曝非法将大量Facebook用戶的信息用于大數據分析,從而精準刻畫這些用戶的心理特征,并向他們推送定制廣告,甚至假新聞。而在2018年4月,美團等外賣平台的訂餐客戶數據信息出現大範圍洩露,被不法分子在網上進行販賣。這些數據包括訂餐用戶的姓名、電話号碼和詳細的訂餐地址,且準确度較高。

利益分享問題。人工智能通過輔助或替代人類勞動,能夠更有效率地完成現有工作,從而提高生産效率。以英特爾為例,該公司在芯片生産過程中會收集大量數據。過去,如果生産中出現問題,公司需依靠人工分析數據尋找根本原因。而現在,機器學習以遠勝人工的速度完成這項任務,其算法能夠篩選成千上萬的數據點以找出殘次芯片的共同特征。當前主流觀點認為,人工智能能夠降低用工成本,提升生産效率,而未來一些重複性的工作崗位将會被人工智能所替代。因此,這也引發了人們對于人工智能将會帶來失業、不公和加劇貧富差距的擔憂。

惡意控制問題。有觀點認為,人工智能會加劇數字和物理安全系統的威脅,并将造成全新的危險。人工智能一旦被惡意使用不僅僅威脅到人們的财産和隐私,它還會威脅到人們的生命。例如,在軍事領域,具有指揮高效化、打擊精确化、操作自動化、行為智能化等特點的人工智能武器,可以“有意識”地尋找、辨别需要打擊的目标,它同時具有辨别自然語言的能力,是一種“會思考”的武器系統。人工智能武器的危險之處在于,軟件工程師可以很輕松地給它重新編程,使其成為濫殺無辜的機器。在政治領域,有研究機構反映劍橋分析公司通過非法獲取超過5000萬Facebook個人賬戶信息,使用這些數據構建算法,分析用戶個性資料,并在2016年美國總統大選中将這些信息與他們的投票行為關聯起來,讓競選團隊能夠準确識别搖擺不定的選民,并有針對性地制作和投放廣告。人工智能算法和大數據兩者結合可形成一種強有力的政治武器,可用于影響甚至是操控選民的輿論,進而可能引發政治風險。

構建算法治理的約束機制

人工智能算法引發的諸多倫理問題,如果不引起重視,随着人工智能的進一步發展将會從多個層面影響甚至是威脅人類生活,鑒于此,應對人工智能倫理問題的具體做法,筆者總結出以下六個層面:

引入自我終結機制。人工智能最大的威脅是當前人類尚難以理解其決策行為存在未來失控的風險,而一旦失控則後果嚴重。參照所有生命體中都有的衰老機制,人工智能也應該嵌入自我毀滅機制。谷歌旗下DeepMind公司在2016年曾提出要給人工智能系統安裝“切斷開關(killswitch)”的想法,為的是阻止AI學會如何阻止人類對某項活動(比方說發射核武器)的幹預,這種提法被稱作“安全可中斷性”。據介紹,安全可中斷性可用于控制機器人不端甚至可能導緻不可逆後果的行為,相當于在其内部強制加入某種自我終結機制,一旦常規監管手段失效,還能夠觸發其自我終結機制,從而使其始終處于人們監管範圍之内。

發展可解釋性人工智能算法。打開人工智能黑箱最有效的途徑就是增強算法的可解釋性,目前這已經得到科學界的認同和重視。例如,美國計算機協會(USACM)下屬的美國公共政策委員會在2017年1月發布的《算法透明性和可問責性聲明》中提出了七項基本原則,其中一項即為“解釋”,希望鼓勵使用算法決策的系統和機構,對算法的過程和特定的決策提供解釋,尤其在公共政策領域。電氣和電子工程師協會(IEEE)則在2016年和2017年連續推出了《人工智能設計的倫理準則》白皮書,在多個部分都提出了對人工智能和自動化系統應有解釋能力的要求。2017年10月,美國加州大學伯克利分校的研究者們發布了《對人工智能系統挑戰的伯克利觀點》一文,從人工智能的發展趨勢出發,總結了九項挑戰和研究方向,其中一項即為“可解釋的決策”。

加強數據安全保護。近年來,數據安全事件造成的影響越來越嚴重,已逐漸深入擴展到國家政治、經濟、民生不同層面,涉及國家關鍵信息基礎設施、商業系統、乃至個人生命等各個方面,數據安全問題已經成為世界各國和各行各業普遍關注的焦點。目前,多國已經頒布相關法律,加大數據安全保護。例如,歐盟于2018年5月正式實施《一般數據保護條例》(GeneralDataProtectionRegulation),該條例具有全球适用性,适用于所有為歐盟居民提供商品服務的境外數據處理商,也包括服務于歐洲客戶的中國公司。該條例提出“解釋權”,将賦予歐盟國家公民“審查某項特定服務中如何做出特定算法決策”。新條例的實施意味着歐盟對個人信息保護及其監管達到了前所未有的高度,堪稱史上最嚴格的數據保護條例。法國國民議會通過《數據保護法草案》,并将其納入法國法律。愛爾蘭正式發布《2018年數據保護法案》,設立數據保護委員會,并将全面執行歐盟頒布的《一般數據保護條例》以及愛爾蘭法律中的相關指令。

開源人工智能算法。開源人工智能算法,在某種程度上能夠降低技術壁壘,讓更多的人接觸、應用和發展這項技術,同時讓更多的主體分享人工智能發展帶來的成果。人工智能兩大巨頭OpenAI和DeepMind公司均已開源了各自的人工智能訓練平台。DeepMind開放的DeepMindLab,是類似3D遊戲的平台,所有開發者都能下載源代碼并對其進行個性化設置,以此訓練和測試原有的AI系統。OpenAI開放了三個大的開源平台Gym、Universe和Robot,主要研究方向是機器人的遷移學習與增強學習。Gym是指研究在每個細分研究領域建立自己的算法以後,把算法放在不同的環境中測試;Universe目标是讓AI智能像人一樣使用計算機,目前已有1000種訓練環境;而Robot則是訓練機器人。而微軟則更早地啟動了Malmo項目,這是基于一個流行遊戲“Minecraft”的AI開發平台。

加強算法監管。美國紐約市議會在2017年12月通過了一項算法問責法案。根據該法案,将成立一個由自動化決策系統專家和受自動化決策系統影響的公民組織代表組成的工作組,專門監督市政機構使用的自動決策算法的公平性、問責性和透明度。随着人工智能技術不斷發展,美國的自動化決策系統逐漸進入政府決策和司法應用領域,該法案所提倡的促進政府自動決策算法的公開透明和可解釋性,将促進政府決策中的算法的可信度。

加強人工智能倫理教育。2017年1月,近千名人工智能和機器人相關領域的專家在加利福尼亞州阿西洛馬舉行的BeneficialAI會議上聯合簽署了著名的《阿西洛馬人工智能23條原則》,涉及科研問題、倫理價值和長期問題,呼籲全世界在發展人工智能的同時,應嚴格恪守這些原則,共同保障人類未來的倫理、利益和安全。目前美國已将人工智能倫理規範教育引入人才培養體系。在2018年新學期,哈佛、康奈爾、麻省理工學院、斯坦福大學等諸多美國高校開設跨學科、跨領域的人工智能倫理課程,名為人工智能倫理、數據科學倫理、技術倫理、機器人倫理等。如康奈爾大學開設兩門人工智能倫理課程,一門是數據科學倫理和政策課程,重點研究數據科學的倫理挑戰;另一門是智能自主系統的倫理問題(機器人倫理)課程,重點研究科技公司的倫理問題。哈佛和麻省理工學院聯合開設的課程則重點研究人工智能的倫理、政策和法律影響。這門課程涵蓋算法歧視、責任、自主性、系統設計、數據所有權、AI治理、AI可解釋性和可問責性、AI監管等前沿問題,用來激發學生對基本倫理的思考。

加強倫理研究防範安全風險

為了讓人工智能系統更安全地促進社會發展,我們應該多維度深入進行人工智能倫理問題的研究,以下有幾點啟示與建議。

一是将人工智能倫理價值算法嵌入編程語言,讓程序語言融入倫理規範;建立人工智能技術研發的倫理準則,指導開發者和制造商如何對一個機器人做出道德風險評估,并形成完善的人工智能技術研發規範,以确保人工智能系統的行為符合社會倫理道德标準。

二是加強理論攻關,研發透明性和可解釋性更高的智能計算模型,開發可解釋、可理解、可預測的智能系統,降低系統行為的不可預知性和不确定性。

三是開展立法研究,明确重點領域人工智能應用中的法律主體以及相關權利、義務和責任,建立和完善适應智能時代的法律法規體系。在事故責任劃分方面,可借鑒雲安全責任共擔模型,建立人工智能責任分擔模型,探索更加适用的責任劃分準則。

四是提高安全标準,推行人工智能産品安全認證,定期對智能産品的安全性、可靠性、一緻性進行檢測,并定期披露數據樣本、算法機制、測試結果等信息。

五是學習美國高校做法,開設跨學科、跨領域的人工智能倫理課程,把倫理規範教育作為人才培養體系的重要内容,從源頭上确保人工智能系統安全地促進人類文明的進步和發展。

六是加強機器人倫理和安全風險等人工智能國際共性問題研究,深化人工智能法律法規、行業監管等方面的交流合作,推進人工智能技術标準和安全标準的國際統一,推動全球治理,共同應對風險挑戰。

人工智能的迅速發展對人類經濟、文化、生态、生活等方面都産生了深遠影響。但需要注意的是,新一代人工智能因具有高度的自主性、自學習及适應能力等特征給人類帶來福利的同時,也給人類社會帶來了諸多道德倫理問題。人類社會即将進入人機共存的時代,為确保人類與機器人、人工智能系統能夠和諧共處,需要在設計、研發、使用等多個環節采取一系列的應對措施,妥善應對人工智能的安全、隐私、倫理問題和其他風險。如何處理人工智能帶來的一系列新問題,人類還在積極探索之中。

魏強賽迪智庫規劃所新興産業研究室陸平賽迪智庫規劃所新興産業研究室

責任編輯:高津菁
   

熱門書籍

熱門文章