◎ByFilippoMenczer1)譯/丁力
掃碼聽音頻
TheTruthCanBeVeryHardtoDiscern
Ifyougetyournewsfromsocialmedia,youareexposedtoadailydoseofhoaxes,rumors,conspiracy2)theoriesandmisleadingnews.Whenit’sallmixedinwithreliableinformationfromhonestsources,thetruthcanbeveryhardtodiscern.
Infact,myresearchteam’sanalysisofdatafromColumbiaUniversity’sEmergentrumortrackersuggeststhatthismisinformationisjustaslikelytogoviralasreliableinformation.
Asaresearcheronthespreadofmisinformationthroughsocialmedia,Iknowthatlimitingnewsfakers’abilitytosellads,asrecentlyannouncedbyGoogleandFacebook,isastepintherightdirection.Butitwillnotcurbabusesdrivenbypoliticalmotives.
ExploitingSocialMedia
About10yearsago,mycolleaguesandIrananexperimentinwhichwelearned72percentofcollegestudentstrustedlinksthatappearedtooriginatefromfriends—eventothepointofenteringpersonallogininformationonphishing3)sites.Thiswidespreadvulnerabilitysuggestedanotherformofmalicious4)manipulation:Peoplemightalsobelievemisinformationtheyreceivewhenclickingonalinkfromasocialcontact.
Toexplorethatidea,Icreatedafakewebpagewithrandom,computer-generatedgossipnew—thingslike“CelebrityXcaughtinbedwithCelebrityY!”Visitorstothesitewhosearchedforanamewouldtrigger5)thescripttoautomaticallyfabricateastoryabouttheperson.Iincludedonthesiteadisclaimer6),sayingthesitecontainedmeaninglesstextandmade-up“facts.”Ialsoplacedadsonthepage.Attheendofthemonth,Igotacheckinthemailwithearningsfromtheads.Thatwasmyproof:Fakenewscouldmakemoneybypollutingtheinternetwithfalsehoods.
Sadly,Iwasnottheonlyonewiththisidea.Tenyearslater,wehaveanindustryoffakenewsanddigitalmisinformation.Clickbait7)sitesmanufacturehoaxestomakemoneyfromads,whileso-calledhyperpartisan8)sitespublishandspreadrumorsandconspiracytheoriestoinfluencepublicopinion.
Thisindustryisbolstered9)byhoweasyitistocreatesocialbots,fakeaccountscontrolledbysoftwarethatlooklikerealpeopleandthereforecanhaverealinfluence.Researchinmylabuncoveredmanyexamplesoffakegrassrootscampaigns,alsocalledpoliticalastroturfing10).
Inresponse,wedevelopedtheBotOrNottooltodetectsocialbots.It’snotperfect,butaccurateenoughtouncoverpersuasioncampaignsintheBrexit11)andantivax12)movements.UsingBotOrNot,ourcolleaguesfoundthatalargeportionofonlinechatteraboutthe2016electionswasgeneratedbybots.
CreatingInformationBubbles
Wehumansarevulnerabletomanipulationbydigitalmisinformationthankstoacomplexsetofsocial,cognitive,economicandalgorithmicbiases.Someofthesehaveevolvedforgoodreasons:Trustingsignalsfromoursocialcirclesandrejectinginformationthatcontradictsourexperienceserveduswellwhenourspeciesadaptedtoevadepredators13).Butintoday’sshrinkingonlinenetworks,asocialnetworkconnectionwithaconspiracytheoristontheothersideoftheplanetdoesnothelpinformmyopinions.
Copyingourfriendsandunfollowingthosewithdifferentopinionsgiveusechochambers14)opolarizedthatresearcherscantellwithhighaccuracywhetheryouareliberalorconservativebyjustlookingatyourfriends.Thenetworkstructureissodensethatanymisinformationspreadsalmostinstantaneouslywithinonegroup,andsosegregatedthatitdoesnotreachtheother.
Insideourbubble,weareselectivelyexposedtoinformationalignedwithourbeliefs.Thatisanidealscenariotomaximizeengagement,butadetrimentalonefordevelopinghealthyskepticism.Confirmationbias15)leadsustoshareaheadlinewithoutevenreadingthearticle.
Ourlabgotapersonallessoninthiswhenourownresearchprojectbecamethesubjectofaviciousmisinformationcampaignintherun-up16)tothe2014U.S.midtermelections.Whenweinvestigatedwhatwashappening,wefoundfakenewsstoriesaboutourresearchbeingpredominantlysharedbyTwitteruserswithinonepartisanechochamber,alargeandhomogeneous17)communityofpoliticallyactiveusers.Thesepeoplewerequicktoretweetandimpervious18)todebunkinginformation.
一個公開制造假新聞的網站ViralInevitability
Ourresearchshowsthatgiventhestructureofoursocialnetworksandourlimitedattention,itisinevitablethatsomememes19)willgoviral,irrespectiveoftheirquality.Evenifindividualstendtoshareinformationofhigherquality,thenetworkasawholeisnoteffectiveatdiscriminatingbetweenreliableandfabricatedinformation.Thishelpsexplainalltheviralhoaxesweobserveinthewild.
Theattentioneconomytakescareoftherest:Ifwepayattentiontoacertaintopic,moreinformationonthattopicwillbeproduced.It’scheapertofabricateinformationandpassitoffasfactthanitistoreportactualtruth.Andfabricationcanbetailoredtoeachgroup:ConservativesreadthatthepopeendorsedTrump,liberalsreadthatheendorsedClinton.Hedidneither.
BeholdentoAlgorithms
Sincewecannotpayattentiontoallthepostsinourfeeds,algorithmsdeterminewhatweseeandwhatwedon’t.Thealgorithmsusedbysocialmediaplatformstodayaredesignedtoprioritizeengagingposts—oneswe’relikelytoclickon,reacttoandshare.Butarecentanalysisfoundintentionallymisleadingpagesgotatleastasmuchonlinesharingandreactionasrealnews.
Thisalgorithmicbiastowardengagementovertruthreinforcesoursocialandcognitivebiases.Asaresult,whenwefollowlinkssharedonsocialmedia,wetendtovisitasmaller,morehomogeneoussetofsourcesthanwhenweconductasearchandvisitthetopresults.
Existingresearchshowsthatbeinginanechochambercanmakepeoplemoregullible20)aboutacceptingunverifiedrumors.Butweneedtoknowalotmoreabouthowdifferentpeoplerespondtoasinglehoax:Someshareitrightaway,othersfact-checkitfirst.
Wearesimulatingasocialnetworktostudythiscompetitionbetweensharingandfact-checking.Wearehopingtohelpuntangleconflictingevidenceaboutwhenfact-checkinghelpsstophoaxesfromspreadingandwhenitdoesn’t.Ourpreliminaryresultssuggestthatthemoresegregatedthecommunityofhoaxbelievers,thelongerthehoaxsurvives.Again,it’snotjustaboutthehoaxitselfbutalsoaboutthenetwork.Manypeoplearetryingtofigureoutwhattodoaboutallthis.AccordingtoMarkZuckerberg’slatestannouncement,Facebookteamsaretestingpotentialoptions.Andagroupofcollegestudentshasproposedawaytosimplylabelsharedlinksas“verified”ornot.
Somesolutionsremainoutofreach,atleastforthemoment.Forexample,wecan’tyetteachartificialintelligencesystemshowtodiscernbetweentruthandfalsehood.Butwecantellrankingalgorithmstogivehigherprioritytomorereliablesources.
StudyingtheSpreadofFakeNews
Wecanmakeourfightagainstfakenewsmoreefficientifwebetterunderstandhowbadinformation
spreads.If,forexample,botsareresponsibleformanyofthefalsehoods,wecanfocusattentionondetectingthem.If,alternatively,theproblemiswithechochambers,perhapswecoulddesignrecommendationsystemsthatdon’texcludedifferingviews.
Tothatend21),ourlabisbuildingaplatformcalledHoaxytotrackandvisualizethespreadofunverifiedclaimsandcorrespondingfact-checkingonsocialmedia.Thatwillgiveusreal-worlddata,withwhichwecaninformoursimulatedsocialnetworks.Thenwecantestpossibleapproachestofightingfakenews.
Hoaxymayalsobeabletoshowpeoplehoweasyitisfortheiropinionstobemanipulatedbyonlineinformation—andevenhowlikelysomeofusaretosharefalsehoodsonline.HoaxywilljoinasuiteoftoolsinourObservatoryonSocialMedia,whichallowsanyonetoseehowmemesspreadonTwitter.Linkingtoolslikethesetohumanfact-checkersandsocialmediaplatformscouldmakeiteasiertominimizeduplicationofeffortsandsupporteachother.
Itisimperativethatweinvestresourcesinthestudyofthisphenomenon.Weneedallhandsondeck22):Computerscientists,socialscientists,economists,journalistsandindustrypartnersmustworktogethertostandfirmagainstthespreadofmisinformation.
1.FilippoMenczer:菲利普·曼澤爾,印第安納大學綜合網絡及系統研究中心主管,計算機科學與信息學教授
2.conspiracy[kənˈspɪrəsi]n.陰謀
3.phishing[ˈfɪʃɪŋ]n.網絡釣魚
4.malicious[məˈlɪʃəs]adj.惡意的,惡毒的
5.trigger[ˈtrɪɡə(r)]vt.引發,激發
6.disclaimer[dɪsˈkleɪmə(r)]n.免責聲明
7.clickbait[ˈklɪkˌbeɪt]n.點擊誘餌
8.hyperpartisan[ˌhaɪpəpɑː(r)tɪˈzæn]adj.極度擁護自己黨派的
9.bolster[ˈbəʊlstə(r)]vt.支持,提高
10.astroturf[ˈæstrəʊˌtɜː(r)f]vt.僞草根營銷,指的是表面以草根營銷組織形式進行宣傳,實則是由大公司或政治團體贊助,以影響大衆觀點為目的來開展活動。
11.Brexit:是對英國退出歐盟(簡稱“英國脫歐”)的戲谑說法,全稱為Britishexit或BritishexitingfromtheEU。2016年6月23日,英國就脫歐問題進行全民公投,最終脫歐陣營勝出。
12.antivax:反疫苗運動。英美等國對于疫苗接種的争論由來已久,反疫苗觀點的支持者一方面質疑疫苗接種的有效性和安全性,另一方面認為強制接種違反了個人自由和宗教信仰的原則。
13.predator[ˈpredətə(r)]n.捕食者
14.echochambers:“回音室”,喻指某類信息、觀點、信念等在一個特定的圈子裡通過交流和重複後會被放大或加強,而其他與之意見相左的信息、觀點等會在這個圈子受到監管和屏蔽。
15.confirmationbias:證實性偏見,指過度關注支持自己觀點的信息,而忽略掉推翻自己觀點的信息。
16.run-up:(重要事件的)前夕
17.homogeneous[ˌhəʊməʊˈdʒiːniəs]adj.同種類的;同性質的;相同特征的
18.impervious[ɪmˈpɜː(r)viəs]adj.似乎不關注的,不受影響的
19.meme[miːm]n.迷姆,指的是一種流行的、以衍生方式複制傳播的互聯網文化基因。
20.gullible[ˈɡʌləb(ə)l]adj.輕信的,易上當的
21.end[end]n.目标,目的
22.allhandsondeck:齊心協力
真相可能難以辨别
如果你從社交媒體中獲得消息,那麼你每天都會接觸到大量的惡作劇信息、謠言、陰謀論和誤導性新聞。這些消息和來自可靠來源的可靠信息混雜在一起,真相可能就會難以辨别。
實際上,我的研究團隊分析了哥倫比亞大學名為“Emergent”的謠言跟蹤器上的數據,發現這些虛假信息和可靠信息一樣會快速傳播。
作為一名專門研究虛假信息如何在社交媒體上傳播的研究員,我知道,限制新聞造假者銷售廣告的能力是一項非常正确的舉措,谷歌和Facebook最近已經宣布這麼做了,但這種舉措并不能限制出于政治目的的惡劣做法。
利用社交媒體
大約十年前,我和同事們做了一個實驗,結果顯示72%的大學生都相信那些看似來自他們朋友的鍊接,甚至到了在釣魚網站上填寫個人登錄信息的程度。這個常見的弱點讓另一種形式的惡意操縱有機可乘:人們點擊社交聯系人發來的鍊接時,可能也會相信接收到的虛假信息。
為了驗證這個想法,我建立了一個假網站,在上面發布了一些計算機随機生成的消息,比如“名人甲和名人乙被捉奸在床!”等等。訪問該網站的人搜索人名時,會觸發一個腳本,網站就會自動編造一個和此人相關的故事。我在網站上挂了免責聲明,聲稱網站上有一些毫無意義的文字以及捏造的“事實”。我還在網頁上挂了廣告。月底,我郵箱裡收到了一張支票,是通過這些廣告賺的錢。這就是我的證據:假消息因為虛假污染了互聯網,但卻可以盈利。
遺憾的是,想到這一點的人不止我一個。十年後,假消息和數字化虛假信息成了一個産業。誘餌類網站編造假消息,通過廣告掙錢。而所謂“超級擁護自己黨派”的網站則會發布、散播謠言和陰謀論以影響公衆輿論。
創建社交機器人或是設立由軟件控制的賬号都很容易,就像真人一樣,因而也可以産生實實在在的影響。這極大地推動了假消息和數字化虛假信息産業的發展。我的實驗室就通過研究發現了很多僞草根運動,也叫僞草根的政治營銷。
為此,我們研發了一個名叫BotOrNot的工具來檢測社交機器人。該工具還不完善,但是足夠準确,可以揭露英國脫歐和美國反疫苗活動中的勸說活動。我同事利用BotOrNot發現,有關2016年美國大選的線上聊天有很大一部分都是機器人程序編造的。
制造信息泡泡
由于一系列複雜的社會、認知、經濟和算法偏好,人類很容易被數字化虛假信息操控。有些偏見的産生是有原因的:相信我們社交圈裡的信号,拒絕違背我們經驗的信息——這些在我們躲避天敵的時代非常有效。但是在當今這個不斷縮小的在線網絡中,與地球另一邊某位陰謀論者建立社交網絡聯系并不能讓我的觀點更明智。
跟着朋友人雲亦雲、取消關注意見不同的人,這些做法讓我們身處嚴重分化的“回音室”中,研究者甚至隻需看一下你的朋友就能十分準确地判斷出你是自由派還是保守派。網絡的結構是如此緊密,任何虛假信息幾乎都能在瞬間傳遍一個群體;而網絡又是如此泾渭分明,以至于讓這些消息無法傳播到其他群體之中。
我們在所處的泡泡中選擇性地接觸那些與我們信仰一緻的信息。這對于最大限度地與人交往很理想,但卻不利于形成健全的懷疑精神。由于“證實性偏見”的影響,我們甚至看都不看内容就會分享某一頭條新聞。
我們的實驗室就有過這樣的親身教訓。臨近2014年美國中期選舉時,我們的研究項目成了一個惡意的虛假信息活動的攻擊目标。我們調查事情經過後發現,關于我們研究的虛假新聞主要被某一黨派“回音室”裡的推特用戶所分享。這個“回音室”是一個規模很大的同質化社區,成員都是一些政治活躍用戶,他們轉推迅速,而且對信息的證僞并不關注。
快速傳播無可避免
我們的研究表明,鑒于我們的社交網絡結構就是如此,我們的注意力又很有限,這就決定了有些迷姆必然會快速傳播,無論質量高低。即便個體傾向于分享更高質量的信息,但網絡作為一個整體還是無法有效區分可信信息和虛假信息。我們看到一些惡作劇信息不受限制地快速傳播,就是這個原因。
注意力不足也是造成這些現象的原因之一:如果我們關注某一特定話題,就會有更多關于這個話題的信息産生。編造信息并将其作為事實傳播,比報道真實情況成本要低。而且編造信息還可以針對每個群體量體裁衣:保守派看到的信息是教皇支持特朗普,而自由派看到的信息則是教皇支持希拉裡,實際上教皇誰也不支持。
受制于算法
由于我們不可能關注推送裡的全部推文,所以我們看得見什麼、看不見什麼就由算法來決定。目前,社交媒體平台使用的算法都會優先推送吸引人的内容,也就是我們更有可能點擊、回應和分享的内容。不過最近一項分析發現,有意誤導的網頁獲得的在線關注和回應一點兒都不比真實新聞少。
這種重視博眼球高過事實的算法偏見也加劇了我們的社會與認知偏見。正因如此,在看社交媒體上的共享鍊接時,我們訪問的資源要比我們搜索并訪問置頂結果時範圍更小、同質性更強。
現有研究證明,身處“回音室”會讓人更容易上當,從而接受未經證實的謠言。但我們應該多了解一下不同人對惡作劇信息的不同反應:有的人會立刻分享,有的人會先進行事實審核。
我們正在模拟一個社交網絡,來研究“分享”和“事實審核”之間的這場競争。關于事實審核什麼時候有助于阻止惡作劇信息的傳播,什麼時候無法阻止,相關的證據自相矛盾,我們想将之理清楚。初步結果顯示,惡作劇信息的信衆所處的社區越孤立,這類信息傳播的時間就越長。這再次證明,惡作劇信息的傳播不僅與它本身有關,還與網絡有關。
很多人正在思考該怎麼解決這些問題。馬克·紮克伯格最近宣稱,Facebook團隊正在對一些有潛力的選項進行測試。此外,一群大學生提出,直接在共享鍊接上标明是否“經證實”就可以了。
有一些解決方法仍然無法實現,至少目前是這樣的。例如,我們還無法教會人工智能系統區分事實和謊言。但我們可以利用排位算法,優先選擇那些更加可靠的來源。
研究虛假信息的傳播
如果知道虛假信息如何傳播,我們與假消息的戰鬥就會更有效。舉例來說,如果是機器人程序編造了大部分謊言,那我們就可以着力檢測出這些程序;如果問題在于“回音室”,那我們就可以設計一些不會排除異議的推薦系統。
為此,我們實驗室正在搭建一個名叫“Hoaxy”的平台,可以對社交媒體上未證實信息的傳播以及相應的事實審核加以跟蹤,并進行可視化演示。這樣我們就可以獲得現實世界的數據,然後用這些數據改進我們的模拟社交網絡。這樣我們就可以測試應對虛假信息的各種方法了。
Hoaxy還可以讓人們知道自己的觀點多麼容易受到在線信息的操縱,甚至可以顯示我們當中一些人在網絡上分享謊言的可能性。Hoaxy會成為我們社交媒體觀測台的工具套件之一。有了這個套件,任何人都可以看到迷姆在推特上是如何傳播的。把這樣的工具與事實審核人員以及社交媒體平台結合起來,我們就能更好地減少重複勞動,實現相互支持。
我們必須要投入資源來研究這個現象。我們需要各行各業的加入:計算機科學家、社會科學家、經濟學家、記者以及業界合作者必須通力合作,堅決抵制虛假信息的傳播。