訂閱電子報∣ 友善列印字體大小 文章分享-Facebook 文章分享-Plurk 文章分享-Twitter
造謠者眾 人工智慧如何才能贏得打假勝利?
獲取產業訊息零時差!立即訂閱電電公會電子報。
2014年,“假新聞”這個詞還沒有成為一個美國詞彙的一部分,相比之下2016年美國總統大選是各大媒體的頭條新聞。

但在加州,一個名叫Jestin Coler的人卻開創了一個最具爭議的媒體局面。Jestin Coler被稱為“假新聞”的教父,其出名始於發表捏造的新聞,其中有一篇是關於科羅拉多食品券領取者使用福利購買大麻,該文章獲得了足夠的流量,每月甚至產生高達數萬美元的廣告收入。

這個想法很快就在美國流行起來,各類同業網站紛紛湧現,其他媒體競相在選舉前製造出令人髮指、充斥著陰謀論和高度黨派色彩的假新聞。從那時起,造謠現象就為人們創造不真實資訊提供了一種手段。即使是普通網路使用者也可以提供一些從未發生過事件的圖片和視頻證據。

對於如何應對假新聞,這個問題沒有簡單的答案,但人工智慧可能會有所幫助。

人工有效消除假新聞幾乎不可能
目前,62%的美國人通過社交媒體瞭解世界各地資訊,我們如何關注這些平臺上的文章和視頻,直接影響到未來我們能夠看到的故事和文章。例如,如果我們喜歡、評論或分享保守類的新聞,那麼社交演算法就會在下次我們登錄的時候向我們展示類似的內容。我們的線上連絡人也會影響到這個決策。如果我們擁有大量自由主義傾向的朋友或追隨者,也會相應改變我們的資訊源。

堂而皇之的虛假新聞並不是唯一應該讓我們擔憂的事情。而很多新聞通過標題和誤導性的方式描述資訊,導致即便其是真實報導也會扭曲我們的認知。正如Snopes內容經理Kim LaCaria對Quartz所說:“資訊真實存在,和資訊如何呈現是兩碼事。”

哥倫比亞新聞評論Colombia Journalism Review建議記者們通過關注資訊的創作日期和來源材料,以及內容創作者相關的網路背景來核實視頻真實性。

同時,視頻分析程式和其他驗證工具也能夠有所幫助。據統計,近60%的用戶在沒有閱讀全文的情況下轉發文章,因此對於讀者來說,對每一篇文章進行仔細審查的幾率似乎很小。即使我們都有足夠的時間和意願去成為數位新聞偵探,但網路內容的絕對數量也意味著,依靠人工有效消除假新聞是不可能的。在網路上每分鐘都有數百萬的線上互動,沒有人能跟上資訊產生的步伐。而從另一方面講,人工智慧系統或許有助於遏制假新聞的浪潮。

通過人工智慧來解決造謠問題
人工智慧系統可以24小時工作,以遠超過人類的效率對文本、視頻、圖像和音訊進行分析。一所大學的電腦科學研究人員正在研發一種機器學習的方法來檢測假新聞。該程式將分析一篇文章的內容,然後對其是假新聞的可能性進行評分。同時它還能生成打分的原因,這樣讀者就能理解為什麼人工智慧系統會把一些文章標記為假新聞。

該研究專案參與者Stephan Woerner指出:“人工智慧能夠擁有同樣的資訊,但相比於人類,它處理新聞的數量和檢測的有效性更高,而且不會感到疲憊。人們會有政治立場或情感偏見,但人工智慧則不然,只要通過訓練,它就能解決問題。”

具有諷刺意味的是,產生的假新聞越多,人工智慧審查系統的效果就越好,機器學習平臺可以根據資料登錄進行自我改進,因此大量的虛假文章和視頻反而可以提高其對假新聞的檢測能力。

而正在研發的其他人工智慧系統主要使用自然語言處理(NLP)對新聞內容進行一系列複雜的分析,從而識別假新聞。

自然語言處理系統能夠處理和組織非結構化的資訊,從巨大的資料集中獲取決策見解,人工智慧的這一功能在掃描和檢測網路上的海量文章時顯然是有用的。其中專門用來識別假新聞的演算法,可能會比較不同網站報導某些新聞事件的方式,或者一個不太為人所熟知的網站的報導與主流媒體之間的關係,以及分析諸如上下文和位置等因素,來判斷一篇文章是否為假新聞。

一些開發人員還正在努力創建程式,以解析來自不同網站的文章內容,並將文章與協力廠商對事件的報導進行對比,以尋找可能具有誤導性的虛假內容。同樣,這個系統所做的假新聞和相關分析越多,其識別出可疑內容和細節的可能性就越大。

打假鬥爭還需要人機協作
即使人工智慧有助於遏制假新聞問題,但人類仍然肩負著關於假新聞的主要責任。包括社交媒體在內的平臺允許使用者將帖子標記為假新聞。同時他們使用演算法來識別虛假內容,並防止其傳播。然而,人工智慧的輸出會準確反應用戶的輸入。如果有足夠多的使用者將真實內容標記為“假”,那麼即便是高品質的媒體也就有可能被錯誤地貼上標籤。

紐約大學斯特恩商學院兼職教授Darren Campo告訴福克斯新聞,人類也可以通過在假新聞生產中使用審慎的語言措辭來影響人工智慧系統。Campo說:“假新聞可以通過植入一個“事實”來保護自己,從而不會被檢測到。雖然人工智慧系統可能有效地識別出一個事實為憑空捏造,但它無法有效地識別這一事實的上下文。

開發人員還需要考慮到他們程式的局限性。例如,審查演算法可以利用現有的內容來驗證故事的準確性。但當一家聲譽良好的媒體發佈突發新聞時,它可能會在沒有太多故事背景的情況下發佈資訊,這反過來可能會影響到人工智慧系統的決策。適當的人力投入可以防範這一問題的產生,從而避免假新聞問題的進一步加劇,與此同時,我們還需要克服自己的偏見。

事實上,讀到那些能夠迎合自我偏見的文章會讓我們感覺良好,但如果要捍衛我們社會的真相和真實報導,我們就必須對我們所接觸的內容持懷疑態度,人工智慧或許能夠在打擊造謠方面發揮關鍵作用,但這一領域的進展本質上還是取決於我們人類,需要對我們自己在網路上的內容互動和分享更加審慎認真。
訂閱電子報 友善列印 字體大小:
獲取產業訊息零時差!立即訂閱電電公會電子報。