假訊息不
滲透我們的生活,提高對假訊息的識讀能力刻不容緩。

 

根據瑞典哥德堡大學今年發布的研究報告指出,臺灣是全球受到境外假訊息影響最嚴重的國家,並且連續 10 年蟬聯榜首。而以分數來看,越低分代表受到的假訊息影響越深,臺灣不僅比去年更低分(從 0.097 分減少到 0.084 分),甚至遠超第二名拉脫維亞的 0.251 分。

 

特別是受到當前兩岸局勢、美中臺地緣政治等因素影響,各式各樣的假訊息不斷透過認知作戰的手法,試圖干擾臺灣民眾的判斷。如何提高臺灣民眾對於網路假訊息的識讀能力,已成為刻不容緩的國安問題。

 

從被動傳遞到主動推廣,真假資訊混合難分辨

對於假訊息傳播模式的改變,成功大學電機資訊學院高宏宇副院長表示,「過去假訊息大多是被動傳遞,現在卻是主動傳遞」。

 

例如,過去在 PTT 或部落格盛行的時代,大家點進自己有興趣的內容閱讀,即便真的遇到假訊息,也都是被動看見的。然而,現在透過臉書、IG、LINE 等社群媒體,訊息都是透過演算法、廣告等,主動傳遞到我們的面前,因此接收到虛假訊息的風險,也大幅提升。

 

值得注意的是,假訊息之所以很難分辨,原因在於一則假訊息中,通常有 10 至 20% 的內容是真實的,之後再依據不同目的去撰寫假訊息。當民眾接收到一則假訊息時,看見其中 10 至 20% 的真實內容,也會不自覺對於其餘部分深信不疑。

 

以臺灣疫情期間為例,當時網路曾流傳「Omicron 病毒比 Delta 傳染力更強,死亡率更高」、「莫德納銷毀 3,000 萬劑疫苗,這是危險產品?」等。

 

從「Omicron 病毒比 Delta 傳染力更強,死亡率更高」這則假訊息來看,科學研究確實認為 Omicron 傳染率「可能」比 Delta 更強,但確診後大多以輕症為主,死亡率是下降的。至於「莫德納銷毀 3000 萬劑疫苗」的傳言,則是因莫德納疫苗當時供過於求,一批接近有效期限的疫苗將被銷毀,但假訊息卻直接斷章取義,並且做出「莫德納疫苗很危險」的結論。

 

此外,高宏宇副院長指出,這 5 年以來,圖片拼湊與造假能力的進步,以及結合同質與異質平臺訊息發布(例如原本只在臉書擴散的假訊息,現在會同步在 IG、LINE 等平臺擴散),讓觸及率可在短時間擴散,並透過不同平臺的訊息轟炸,達到三人成虎的效果,都是假訊息愈來愈猖獗的原因。

 

我國國防部孫立方發言人曾指出,中國解放軍在 2022 年 8 月實行繞臺軍演,當時就出現大量搭配偽造合成圖的假訊息。國安局長蔡明彥同樣坦承,近期因 Deepfake、ChatGPT 等 AI 技術日益成熟,讓中國在臺灣傳播假訊息的方式更加多元。

 

原本只在臉原本只在臉書擴散的假訊息,現在會同步在 IG、LINE 等平臺擴散,讓假訊息能瞬間觸及多數人。
在會同步在 IG、LINE 等平臺擴散,讓假訊息能瞬間觸及多數人。

 國立成功大學統計學系李政德教授指出,目前運用 AI 來判斷訊息真偽主要有 3 種方式,而這 3 種方式又可整合成更準確的假訊息偵測模型。

 一、訊息文本分類(Text Classification):

將偵測網路假訊息視為一個文本分類問題,透過標記文本資料,訓練機器學習模型判別訊息真偽的用字遣詞特徵,進而進行準確的分類。假訊息通常會使用較為聳動、浮誇的標題(例如「讓 13 億人都驚呆了」),或是一些不符合臺灣民眾習慣的詞彙(例如臺灣通常使用「基改植物」,而來自中國的假訊息則大多使用「轉基因植物」)。

 二、擴散圖結構分類(Diffusion Graph Classification):

利用訊息在網路中的擴散結構來分類訊息真偽,基本假設為假訊息的擴散方式與真實訊息存在不同的模式,從而在社群網路中形成了不同的擴散圖結構,藉此讓 AI 做出分類。舉例來說,一般訊息的擴散結構可能是在 PTT 發文爆紅後,再經由臉書、媒體、民眾轉發而擴散,但假訊息則是在文章剛發布的時候,就立刻被假帳號大量轉貼、分享。另外,假訊息往往會在社群網路中形成「同溫層」(Echo Chamber),也就是在具有相似政治或社會觀點的群體中快速傳播。相反,真實訊息的擴散結構可能更為廣泛和多元,例如,關於某項科學發現的報導,不僅會引起科學愛好者的小群體關注,還有可能在各種不同的社群中被分享、討論。

 

三、使用者集體分類(Collective User Classification):

利用曾與該訊息互動的使用者特徵和行為模式,來輔助判斷訊息真偽。這種方法會依據意圖傳播真實或虛假訊息的使用情況,而具有不同的屬性和傾向。比如散播假訊息的使用者的個人檔案較容易填寫不全、有類似且較固定的轉傳分享時間和行為模式,而傳播真實訊息的使用者則反之,行為較為多樣、較無固定模式。

 

殭屍帳號加快假訊息傳播速度

值得注意的是,假訊息的傳播,往往伴隨著大量殭屍帳號。

 

殭屍帳號是指由惡意使用者或機器人所操縱的虛假帳號。這些帳號通常不具有真實身分,而是被設立用於傳播假訊息、操縱社交媒體討論、營造輿論氛圍,或是增加特定內容的影響力。

 

法務部調查局於 2022 年底也曾披露,境外敵對勢力疑似創建無法識別真實身分的帳號,利用結構化、流程化手法,將不實圖文訊息迅速、大量投放到社群,意圖操弄與疫情、政治、選情有關的輿論,進行認知作戰,致使民眾誤信後轉傳分享。

 

李政德教授表示,要追溯假訊息擴散的源頭,最直觀的做法是對於那個與該假訊息互動的使用者,找出他們是從哪些其他使用者獲取該訊息,接著從這些其他使用者再往前找到他們獲取訊息的來源使用者,一路往回查找,便可找出假訊息擴散之源頭。

 

然而,所追溯到的假訊息源頭使用者可能不只一位,因傳播假訊息的惡意人士可能透過創建假帳號、或雇用多個分身帳號,來進行假訊息的擴散,目的是最大化假訊息在社群媒體中的能見度和影響力。

 

訊息通假訊息通常是多帳號、多平臺同時發布,源頭難以查證。擴散的假訊息,常是多帳號、多平臺同時發布,源頭難以查證。

 

四步驟用 AI 打擊假訊息

值得慶幸的是,AI 的發展,對於打擊網路假訊息,也帶來關鍵性的突破。

 

高宏宇副院長表示,儘管很多審核平臺是很嚴謹複雜的,必須仰賴人工去查證,找出足夠的證據來支撐,因此難以直接使用 AI 取代,但 AI 確實能協助快速蒐集資料,找出真訊息跟假訊息之間的差異。

 

例如,同樣一則新聞事件,其中一個網站的內容、語氣或情緒,跟其他網站明顯不同;或是有些假訊息使用了跟新聞事件本身無關的照片,可這照片是聳動、災難性的,為了傳遞帶有目的的假訊息。好消息是,這些照片目前都已經能透過 AI 揪出來。

 

對此,李政德教授則提出利用 AI 來建立偵防機制的 4 個方向:

 

一、AI 偵測假訊息:

當 AI 偵測到假訊息,可以立即將該訊息標記為可疑,並向用戶發出警告。同時,這些假訊息可以被隔離,阻止它們進一步擴散。這樣,AI 就能有效地降低假訊息的影響力,保護公眾免受假訊息的誤導。

 

二、AI 推薦真實訊息:

AI 能夠分析使用者的行為模式和興趣,然後根據這些資訊推薦相關且真實的訊息給用戶。當用戶接收到更多真實、可靠的訊息,他們接觸到假訊息的機會就會相對減少。

 

三、AI 對使用者進行信任評估:

AI 評估使用者社群媒體行為的可信任程度,可以有效地識別那些傳播假訊息的使用者。例如,如果一個使用者經常發表或分享被識別為假訊息的內容,AI 就會降低對這個用戶的信任評分。

 

四、AI 為訊息提供佐證:

AI 搜尋引擎可以提供相關的訊息來佐證或反駁某個訊息,有助於使用者驗證訊息的真實性,從而打擊假訊息的擴散。舉例來說,當使用者接收到某條訊息並對其真實性產生疑問時,他們可以透過 AI 尋找相關的資訊或多種來源,協助用戶進行訊息事實查核。

 

由於日常生活難以避免的社群媒體,以及發展日新月異的 AI 技術,使得原本就處於地緣政治危機前線的臺灣,更需要嚴防假訊息的攻擊。民眾平常看到可疑訊息時,應當謹慎求證,避免踏入認知作戰的陷阱。

 

(客座總編輯|國家資通安全研究院 林盈達副院長;研究顧問團隊|成功大學電機資訊學院 高宏宇副院長、成功大學統計學系 李政德教授;責任編輯|曹盛威、劉品萱)