2019 Misinformation Conference | 錯誤資訊會議

Whitney Hung
MisinfoCon
Published in
13 min readOct 25, 2019

--

前幾天(10/23)參加了一個由MozillaHacks/Hackers在倫敦舉辦的 Misinformation Conference @misinfocon,此會議致力於了解與解決「錯誤資訊」帶來的社會問題。從科技面向與人文面向去思考政策應對的制定、如何在確保不侵犯隱私的狀況下適度的使資訊流通透明化等各種議題。

注:開始打成文章後才發現有些詞彙自己以前在台灣並沒有特別使用到。在此解釋一下,“misinformation”在此篇文章中譯為:『錯誤資訊』;“media literacy”譯為:『媒體識讀』

這場活動聚集了許多社會上不同專業角色,但是都希望能在打擊錯誤資訊的社會中盡一點力的人。有人權組織、有駭客、有行銷人員、有記者、有律師,也有許多非政府組織。

自2016年川普當選以及英國脫歐公投發生後,假訊息、假新聞就開始受到關注,而且這些事件並不侷限於西方世界,而是以形形色色的樣貌存在於全球各地,而且越來越常見,融入你我的生活中。去年開始,更多人開始加入成為錯誤資訊的研究人員,檢討現行制度規範的不足、遇到的問題以及如何去改善錯誤資訊(misinformation)的議題。

這次的會議演講包含了三個面向:

一、電腦演算法與廣告投放的金錢流向問題以及假訊息會如何損害人權議題的伸張。

二、不同社群媒體成為不同國家的假訊息散播目標、全球各地成立事實查核(Fact-checking)中心與成效以及2019年歐盟議會選舉研究人員打擊假訊息的經驗分享。

三、現在許多種族歧視團體開始透過社群媒體去影響吸納年輕族群,如何有效防範年輕一代成為假訊息受害者必須透過教育去深入教導受眾辨別什麼是政治宣傳(Propaganda),即增進「媒體識讀能力」Media and Information Literacy (MIL)。馬其頓以及比利時的教育經驗分享以及德國媒體(DW)在世界各國經營教育的成果。

所以現在遇到的問題是什麼?

電腦演算法問題 | Algorithmic Society

1. 演算法可信嗎? | Can we trust algorithms?

講者:Jason Chuang @jcchuang, Mozilla

早期Google翻譯的結果時常出錯,因此後來Jason在擔任實習生期間,加入了一個人工審核的功能,提供不同詞性的詞彙可以有的翻譯,由使用者自行選取正確的翻譯。如果能夠透過人工去審核,可以更加確保輸出的正確性。後來這種翻譯系統變成常用的工具,客戶翻譯之後會再請譯者去做更正,但是這樣的做法對於譯者來說其實更費時費力,而譯者拿到的酬勞卻更少,可見人工智慧能做到的有限。另外有共乘的app Uber以及Lyft聲稱可以找到最短路徑、去省乘客最多時間跟金錢,但是後來研究發現正是這些車輛造成美國市區的交通堵塞問題。所以必須去了解人工智慧是為誰服務、如何服務。

最後提到社群媒體廣告投放的問題。個人化的廣告投放造成不同人會看到不同的廣告,而要target女性族群會比男性族群貴,所以求職廣告投放時,男性受眾比女性受眾容易接觸到,而且這又會因為種族造成差異。例如:黑人男性更容易看到招募司機的廣告。研究演算法問題的困難在於主要社群媒體上的廣告是靠演算法去個人化並投放的,因此每個人都只看到自己的那一塊,沒有人可以看到全面的投放結果。

因此,Jason提供群眾帶走的訊息是以下四點:

  1. 需由人類自己去『再確認』資訊的對錯。
  2. 必須審查與發掘所有演算法輸出的結果。
  3. 人工智慧只是個工具,要了解他被拿來做什麼。(以及為誰服務)
  4. 有規模的確認與審查需要資料,但是資料在哪裡?

延伸閱讀:Mozilla’s Approach to Trustworthy Artificial Intelligence (AI)

2. 不受控制的品牌廣告投放與資金流向 | The Economics of…: What is Acceptable?

講者:Nandini Jammi @nandoodles, Sleeping Giants

講者Nandini是個行銷人,川普當選後她好奇去看了支持川普,並有助於川普的當選的新聞媒體網站:Breitbart.com。她在上面發現了許多知名品牌的廣告,於是就好奇難道這些品牌是支持這樣的媒體嗎?於是她便手動寫信去詢問品牌廠商是否知情自己的廣告被投放在這個網站上?以及這樣的媒體是否與他們的品牌形象吻合、價值一致?後來各大品牌都說他們並不知情自己的廣告被投放在這些地方,於是被告知後一一撤下,因為這有損品牌形象,後來這樣的活動透過動員群眾crowdsourcing將活動更廣為宣傳,靠著這樣的小動作在三個月內就讓該媒體網站的廣告盈利減少了90%。他們所做的事被紐約時報The New York Times報導 (Revealed: The People Behind an Anti-Breitbart Twitter Account) 。

這樣的事情其實層出不窮,時常品牌將廣告交給第三方之後,就無法控制廣告流向,甚至會在仇恨網站上以及侵犯人權的網站上看到廣告,甚至成為了這些網站的部分資金來源。根據世界廣告商聯合會WFA (World Federation of Advertisers),2025年時,這種廣告詐欺(ad fraud)將會成為世界上犯罪收入的第二大主要來源。Nandini提倡對廣告資助者使用“answerability” (解釋的責任) 的概念去把關、打擊錯誤資訊。如何監測、掌控好自身品牌的廣告與資金流向則是品牌可以思考的一件事。

3. 錯誤資訊對於人權議題的影響 | How is Misinformation Affecting our Everyday Lives?

講者:Lorna McGregor, Essex University & Sam Dubberley @samdubberley, Amnesty International

過去指控人權侵犯的證據都來自於影音材料,但是當deep fake蓬勃發展以及各種後製,侵犯人權的指控將會越來越困難、更加容易被侵犯者否認。

制止錯誤資訊與研究錯誤資訊上遇到的難題 | Elections

1. 印度的whatsapp錯誤資訊議題 | India’s WhatsApp Election

講者:Karen Rebelo, BOOM Live

印度的錯誤資訊媒介來自於影像、影片,並少有資訊的事實查核,Karen分享越能夠激起憤怒情緒的影音內容越容易迅速竄紅,甚至有人p圖印度政治人物或是移花接木電玩的影片說是某個村子被轟炸如此的荒誕,但是都造成一時轟動。錯誤資訊的議題涵蓋了國家主義、印度教-穆斯林教的社會極化,最終錯誤資訊與新聞創造出平行的記敘世界。

Whatsapp在印度的用戶有4億人口,而且當地有很多便宜的流量方案,因此whatsapp成為了操作選舉使用的最佳平台,錯誤資訊更是在不同的方言中流傳。很多人沒有媒體識讀能力,因此造成廣泛的問題。

2.事實查核中心的成立與規範 | International Fact-checking Network

講者:Cristina Tardáguila, IFCN @poynter

Christina主張,身為事實查核人員必須嚴格遵守以上規範,並受過訓練。而事實查核需要大眾的加入與幫忙。目前已有超過180個事實查核組織,涵蓋60個國家。主要工作在於監測趨勢、格式、以及制定事實查核的政策、舉辦工作坊、倡導與更多平台與政府的事實查核活動、保護事實查核的生態、舉辦Global Fact — 世界上最大的年度事實查核高峰會、國際事實查核日(International Fact-Checking Day)舉辦在愚人節隔天(4月2日)。

此外,Christina也舉出一些國家遭遇到的困難,例如剛果事實查核中心(Congo Check) — 在剛果要上網是很昂貴的,這導致可以使用臉書與whatsapp平台的人說的話成為真理。事實查核人員必須自己提供平台資金。

南非事實查核中心(Africa Check)則使用英語與法語兩種語言,查核地區包含三個國家:肯亞、奈及利亞與南非的新聞。他們也是第一個去查核whatsapp訊息真偽的組織。

在Q&A時,他向Nandini提問為什麼廣告商都不來投放廣告在fact-checking的網站上?

3. 2019 歐洲議會選舉研究的發現與經驗分享 | Building a Coalition: Testing Real-time Monitoring and Response to Misinformation in the European Parliamentary Elections

講者:Chloe Colliver @ChloeColliver2, Institute for Strategic Dialogue(ISD)

研究2019 歐洲議會選舉後Chloe與團隊發現仇恨言論與極化的言論是他們遇到最多的問題,整個過程中並沒有外國勢力介入的跡象,都是各國境內極端組織、黨派去促進錯誤資訊的流傳。

如果要處理錯誤資訊的威脅,Chloe提出規範必須視eco-system為整體,需要系統性的協調與規範。

Chloe提出規範社群組織透明化以及自我約束只發生在選舉期間是沒有用的,規範這些社群平台必須放眼20年後,而不是只專注在眼前的20個月,規範的面向也必須更全面。研究錯誤資訊的攻擊必須專注在行為而不是內容。內容一直都是一貫的仇恨言論(hate speech),只是現在因為有了社群媒體,而有了不同的傳播方式。

Hate, extremism, it’s not new, it’s about management rather than fixing.

It’s about behaviour not content.

她們的做法是提早追蹤有一些不尋常動靜的帳號,要著手進行防範必須在選舉日期前一年甚至更早,如果發現現象才開始防止通常就慢了,因為他們將已經建立一套完整的資訊攻擊建設。從小資料到大量資料去看趨勢如何發展。而在社群媒體平台立法方面研究人員提議了四個透明化的面向:

  • 廣告投放的透明化。
  • 內容審核流程以及審核者與背後機制的透明化。
  • 求救機制透明化:當有公眾人物(講者以政治人物為例),遭受到歧視騷擾,有沒有透明求救的管道與機制。
  • 演算法輸出成果透明化。演算法輸出前,平台應先有內部試驗。釋出演算法前透過內部的測試去避免極化的言論與內容。

防範勝於治療,從義務教育開始媒體識讀教育的成效 | Media Literacy

1. DW Akademie在非洲等國耕耘的成果 | Can Media and Information Literacy (MIL) Defeat Misinformation?

講者:Roslyn Kratochvil Moore @Roslyn_K_Moore, DW Akademie

媒體識讀能力 Media and Information Literacy (MIL) 是讓人能夠『了解』以及『使用』媒體。那麼什麼是媒體識讀?簡單來說是以下幾項能力:

1. 創造(Create):產生並分享你的訊息、

2. 接觸(Access):找到並使用訊息、

3. 分析(Analyse):了解跟使用媒體、

4. 思考(Reflect):知道自己的權利與義務、

5. 行動(Act):使出自己的權利並負責任的溝通。

講者的組織在西方世界以外的地區進行教導。

媒體識讀讓人可以去導航自己所處的資訊環境、可以抵抗錯誤資訊與激進化的資訊、可以有助於社群的穩定與正面改變的能量。DW Akademie與合作組織旨在改變結構性問題,他們創造自由對話與發展的空間,但是講者道這只有透過與社會更廣泛的合作才能達成。

至於如何測量媒體識讀,Rosalyn說她們會在教育前先詢問居民關於媒體的問題,並且比較教育後,居民再一次回答原來的問題的方式去進行評測,而且已有良好的成效。此外,他們目前還收集了約100題問卷量化調查以及質化的Focus Group訪談資料,但是仍在進行分析。

在Q&A中她主張使用媒體平台之前應該要有一個『使用手冊』的解說,但目前社群媒體平台都沒有類似的作法,使用者都是註冊了就開始自己摸索。

延伸閱讀:DW Akademie: Global MIL Week 2019

2. 馬其頓的教育成果分享 | Media Literacy in an Age of News Overabundance: MAMIL — One of the Top 10 Projects in Europe

講者:Dejan Andonov, Institute for Communications Studies (based in Macedonia)

透過活動讓青少年接觸媒體,最終目的是希望媒體識讀教育可以進入正規的教育體系中。

3. 教育年輕人辨別政治宣傳手段的成果與分享 | Media Mashup: Active Learning About Propaganda Techniques

講者: Elfi De Vos, Belgian youth film organisation JEF @JEF_Europe

Elfi先秀出了一張小女孩哭泣的照片問觀眾為什麼女孩在哭泣。他接著說一張照片可以有諸多解釋,可以被拿來說各種故事。要了解現在的影音媒體素材可以被各種工具去拼湊出一個不同甚至不存在的故事,因此教育年輕人這些宣傳手法、以及理解到所見並非一定就是文字所敘述的事,就變得格外重要,這項計畫也是歐盟第一個獲得最傑出的媒體計畫獎 (the most outstanding media project from the European Commission)。

以上簡單整理當天心得,敬請不吝指教,謝謝。

之後,還會想整理Roundtable session,關於研究人員困境的議題。

--

--

MSc Psychology Student with an interest in attention and perception for data visualisation. @whitneyhungi