麻省理工學院 | 授權社交媒體用戶評估內容有助于打擊虛假信息
指南者留學
2022-11-16 13:02:29
閱讀量:1242
<p><img src="https://info.compassedu.hk/sucai/content/1668574997800/1668574997800.jpg" width="808" height="539" /></p>
<p>在打擊虛假信息傳播時,社交媒體平臺通常會讓大多數(shù)用戶坐在副駕駛位置上。平臺經(jīng)常使用機器學習算法或人工事實核查員為用戶標記虛假或誤導的內容。</p>
<p> </p>
<p>麻省理工學院計算機科學和人工智能實驗室(CSAIL)的研究生Farnaz Jahanbakhsh說:“僅僅因為這是現(xiàn)狀,并不意味著這是正確的方法或唯一的方法。”</p>
<p> </p>
<p>她和她的合作者進行了一項研究,他們把這種權力交給了社交媒體用戶。</p>
<p> </p>
<p>他們首先對人們進行調查,了解他們如何避免或過濾社交媒體上的錯誤信息。利用他們的發(fā)現(xiàn),研究人員開發(fā)了一個原型平臺,讓用戶能夠評估內容的準確性,指出他們信任哪些用戶來評估準確性,并根據(jù)這些評估過濾出現(xiàn)在他們feed中的帖子。</p>
<p>通過一項實地研究,他們發(fā)現(xiàn)用戶可以在沒有接受任何事先培訓的情況下有效地評估誤導信息的帖子。此外,用戶重視以結構化方式評估職位和查看評估結果的能力。研究人員還發(fā)現(xiàn),參與者使用內容過濾器的方式有所不同——例如,一些人屏蔽了所有誤導的內容,而另一些人則使用過濾器尋找這樣的文章。</p>
<p> </p>
<p>Jahanbakhsh說,這項研究表明,去中心化的審查方法可以導致社交媒體上更高的內容可靠性。她補充說,這種方法也比集中審核方案更有效和可擴展,可能會吸引不信任平臺的用戶。</p>
<p> </p>
<p>“很多關于錯誤信息的研究假設用戶無法決定什么是真的,什么是假的,所以我們必須幫助他們。我們完全沒有看到。我們看到,人們確實會仔細審查內容,他們也會試圖互相幫助。但這些努力目前還沒有得到平臺的支持。”</p>
<p> </p>
<p>Jahanbakhsh與華盛頓大學艾倫計算機科學與工程學院助理教授Amy Zhang共同撰寫了這篇論文;以及CSAIL計算機科學教授、資深作者David Karger。這項研究將在ACM計算機支持的協(xié)作工作和社會計算會議上發(fā)表。</p>
<p> </p>
<p><span class="h1"><strong>戰(zhàn)斗的錯誤信息</strong></span></p>
<p> </p>
<p>網(wǎng)絡虛假信息的傳播是一個普遍的問題。然而,目前社交媒體平臺用來標記或刪除虛假信息的方法有缺點。例如,當平臺使用算法或事實核查員來評估帖子時,可能會在用戶之間造成緊張,他們認為這些努力侵犯了言論自由等問題。</p>
<p> </p>
<p>Jahanbakhsh補充道:“有時用戶希望在他們的信息流中出現(xiàn)錯誤信息,因為他們想知道他們的朋友或家人接觸了什么,這樣他們就知道何時以及如何與他們談論這些信息。”</p>
<p> </p>
<p>用戶經(jīng)常嘗試自己評估和標記錯誤信息,他們試圖通過請求朋友和專家?guī)椭麄兝斫馑喿x的內容來互相幫助。但這些努力可能會適得其反,因為它們沒有得到平臺的支持。用戶可以在誤導性的帖子下留言,或者用憤怒的表情符號回應,但大多數(shù)平臺都認為這些行為是參與的標志。例如,在Facebook上,這可能意味著誤導的內容將顯示給更多的人,包括用戶的朋友和關注者——這與用戶想要的完全相反。</p>
<p> </p>
<p>為了克服這些問題和陷阱,研究人員試圖創(chuàng)建一個平臺,讓用戶能夠提供和查看帖子的結構化準確性評估,指示他們信任的其他人來評估帖子,并使用過濾器控制feed中顯示的內容。研究人員的最終目標是讓用戶更容易互相幫助評估社交媒體上的錯誤信息,從而減少每個人的工作量。</p>
<p> </p>
<p>研究人員首先調查了192名通過Facebook和郵件列表招募的用戶,看看用戶是否重視這些功能。調查顯示,用戶對錯誤信息非常敏感,并試圖跟蹤和報告,但擔心自己的評估可能被誤解。他們對平臺為他們評估內容的努力表示懷疑。而且,盡管他們希望過濾器能夠屏蔽不可靠的內容,但他們不會信任由平臺操作的過濾器。</p>
<p> </p>
<p>利用這些見解,研究人員建立了一個類似facebook的原型平臺,稱為Trustnet。在Trustnet中,用戶發(fā)布和分享真實的、完整的新聞文章,并可以相互關注以查看其他人發(fā)布的內容。但是,在用戶可以在Trustnet中發(fā)布任何內容之前,他們必須對該內容進行準確或不準確的評級,或者查詢其準確性,這將對其他人可見。</p>
<p> </p>
<p>“人們分享錯誤信息的原因通常不是因為他們不知道什么是真的,什么是假的。相反,在分享的時候,他們的注意力被誤導到其他事情上。如果你讓他們在分享內容之前先評估一下,這會幫助他們更有眼光,”她說。</p>
<p> </p>
<p>用戶還可以選擇值得信任的個人,他們將看到其內容評估。他們以一種私密的方式這樣做,以防他們關注某個與他們有社會關系的人(可能是朋友或家人),但他們不相信這個人會評估內容。該平臺還提供過濾器,允許用戶根據(jù)帖子的評估方式和評價者來配置他們的提要。</p>
<p> </p>
<p><strong><span class="h1">測試Trustnet</span></strong></p>
<p> </p>
<p>原型完成后,他們進行了一項研究,其中有14人使用該平臺一周。研究人員發(fā)現(xiàn),盡管沒有接受過任何培訓,用戶通??梢愿鶕?jù)專業(yè)知識、內容來源或通過評估文章的邏輯來有效地評估內容。他們還能夠使用過濾器來管理他們的提要,盡管他們使用過濾器的方式不同。</p>
<p> </p>
<p>“即使在如此小的樣本中,有趣的是,并不是每個人都想以同樣的方式閱讀新聞。有時,人們希望在自己的信息流中發(fā)布誤導信息,因為他們看到了這樣做的好處。這表明社交媒體平臺現(xiàn)在缺少這種代理,它應該還給用戶,”她說。</p>
<p> </p>
<p>當內容包含多種說法,有些是真的,有些是假的,或者如果標題和文章是脫節(jié)的,用戶有時確實很難評估內容。她說,這表明有必要為用戶提供更多的評估選項——也許可以說明一篇文章是真實的,但具有誤導性,或者它包含政治傾向。</p>
<p> </p>
<p>由于Trustnet用戶有時很難評估內容與標題不匹配的文章,Jahanbakhsh啟動了另一個研究項目,創(chuàng)建一個瀏覽器擴展,讓用戶修改新聞標題,使其更符合文章的內容。</p>
<p> </p>
<p>雖然這些結果表明,用戶可以在打擊虛假信息的斗爭中發(fā)揮更積極的作用,但Jahanbakhsh警告說,賦予用戶這種權力并不是萬靈藥。首先,這種方法可能會造成用戶只能從志同道合的來源看到信息的情況。然而,過濾器和結構化評估可以重新配置,以幫助緩解這個問題,她說。</p>
<p> </p>
<p>除了探索Trustnet的增強功能,Jahanbakhsh還希望通過游戲化的方式,鼓勵人們閱讀不同觀點的內容評估。由于社交媒體平臺可能不愿做出改變,她也在開發(fā)技術,讓用戶可以通過正常的網(wǎng)頁瀏覽來發(fā)布和查看評估內容,而不是在一個平臺上。</p>
<p>這項工作部分得到了美國國家科學基金會的支持。</p>
<p> </p>
<blockquote>
<p>注:本文由院校官方新聞直譯,僅供參考,不代表指南者留學態(tài)度觀點。</p>
</blockquote>