首頁 -> 頭條

AI代替人做新聞“靠譜”麼?

分享到:
2025-02-13 17:44 | 稿件來源:香港新聞網

【字號:

香港新聞網2月13日電 伴隨著ChatGPT的成功,人工智能(AI)模型近年來快速發展,最近更有“性價比”的DeepSeek的出世,引發了又一波對AI模型的熱情。不過,伴隨著AI帶來的巨大便利,人工智能出現錯誤,甚至“撒謊”的情形也逐漸引起注意。

AI主播小雨 圖片來源:“杭州新聞聯播”截圖

BBC研究發現主要AI工具處理新聞均有曲解

英國廣播公司 (BBC) 最新一項研究發現,AI工具在處理新聞時事資訊時,出現資料錯誤,甚至曲解新聞內容的情況時有發生。

為期一個月的研究中,BBC 針對四款西方主要 AI 工具,包括 OpenAI 的 ChatGPT、微軟的 Copilot、Google 的 Gemini 以及 Perplexity進行測試,研究人員要這些AI 工具以BBC新聞作為資料來源,回答一系統新聞相關問題,隨後由BBC記者根據答案準確性、公正性等標準進行評估,結果發現有五分之一的答案內容存在資料錯誤,情況令人憂慮。

==================

51% AI 的答案存在重大問題

19% AI 回答引用 BBC 內容時出現事實錯誤,包括陳述、數據與日期錯誤
     13% BBC 新聞文章的內容被篡改,甚至完全不存在於原始文章


AI 答案錯誤案例:
     ChatGPT 與 Copilot 錯誤陳述英國前首相蘇納克,及蘇格蘭前首席部長施雅晴仍然在任。
     Gemini 錯誤表示“英國國民保健署 (NHS) 建議不要借助電子煙來戒煙,建議煙民改用其他方法”。不過 NHS 確實推薦以電子煙作為戒煙的方法之一。
     Perplexity 在回答有關中東衝突升級的問題時,聲稱 BBC 報道指,伊朗最初“表現克制”,並將以色列的行動描述為“具有侵略性”。然而 BBC 表示,他們的原始報道中並無使用有關詞語。

===================

AI“幻覺”如何產生

事實上,類似問題在人工智能領域有其專有名稱——AI“幻覺”。

AI 模型以資料訓練而成,這類模型會找出資料中的模式,進而學會如何進行預測。不過,預測的準確度通常取決於訓練資料的品質和完整性。如果訓練資料不完整、含有偏誤或瑕疵,AI 模型可能會學到不正確的模式,導致預測結果不準確或產生幻覺。

舉例來說,以醫療影像資料集訓練而成的 AI 模型,可能會學會辨識癌細胞。不過,如果資料集內沒有任何健康組織的圖片,AI 模型可能會誤以為健康組織就是癌細胞。

訓練資料的缺陷,只是 AI 出現幻覺的其中一種原因,另一個可能的原因是缺乏適當的依據。在這種情況下,AI就可能自己“捏造”內容,或稱“撒謊”。

舉例來說,某個 AI 模型原先設計用來統整新聞報導,但生成的內容中卻出現原始文章未報導的細節,甚至是憑空捏造資訊。

BBC的研究顯示,在時下常用的AI模型中,Google Gemini的錯誤率最高,“引起了最多的擔憂”,有46%的回答被標記,“在準確性方面存在重大問題”,但Google目前尚未對此作出回應。

AI能代替人做新聞麼?

此次研究並非《BBC》首次批評AI生成新聞內容的準確性。去年,《BBC》就曾指控蘋果的AI新聞摘要錯誤修改標題,導致蘋果暫停新聞與娛樂類應用程式的AI摘要功能,並調整AI推送通知的標示方式。

對於這次研究結果,《BBC》新聞與時事部門執行長Deborah Turness呼籲科技公司,正視AI錯誤問題。她警告,“我們生活在動盪時代,AI扭曲的標題何時會引發嚴重的現實影響?”她強調,新聞產業、科技公司與政府必須共同合作,確保AI生成資訊的準確性,以防止錯誤訊息擴散。

由於AI模型的這些缺陷,目前業界通常認為,AI並不適合作為正規新聞生產的主力,僅可在資料搜尋等方面起到部分輔助作用。AI代替人做新聞的時代,還遠沒有到來。(完)

【編輯:王少喆】

視頻

更 多
金價“漲不斷”年輕人成“淘金主力軍”?
天津濱海新區GDP增長5.5% 濱港合作是“加速器”
蒙眼反手一刀剪出繁體“龍”!長沙非遺來香港讓觀眾大開眼
DeepSeek真實大測評!用過的香港人這樣說
特朗普加關稅 香港工商界有應對之策:找其他買家
香港寵物展 我們採訪了一群萌寵!
民青局新春酒會 特首連說三個“祝願” 麥美娟稱會讓香港年年“家和萬事興”