AI代替人做新聞“靠譜”麼?香港新聞網2月13日電 伴隨著ChatGPT的成功,人工智能(AI)模型近年來快速發展,最近更有“性價比”的DeepSeek的出世,引發了又一波對AI模型的熱情。不過,伴隨著AI帶來的巨大便利,人工智能出現錯誤,甚至“撒謊”的情形也逐漸引起注意。 AI主播小雨 圖片來源:“杭州新聞聯播”截圖 BBC研究發現主要AI工具處理新聞均有曲解 英國廣播公司 (BBC) 最新一項研究發現,AI工具在處理新聞時事資訊時,出現資料錯誤,甚至曲解新聞內容的情況時有發生。 為期一個月的研究中,BBC 針對四款西方主要 AI 工具,包括 OpenAI 的 ChatGPT、微軟的 Copilot、Google 的 Gemini 以及 Perplexity進行測試,研究人員要這些AI 工具以BBC新聞作為資料來源,回答一系統新聞相關問題,隨後由BBC記者根據答案準確性、公正性等標準進行評估,結果發現有五分之一的答案內容存在資料錯誤,情況令人憂慮。 ================== 51% AI 的答案存在重大問題 19% AI 回答引用 BBC 內容時出現事實錯誤,包括陳述、數據與日期錯誤 AI 答案錯誤案例: =================== AI“幻覺”如何產生 事實上,類似問題在人工智能領域有其專有名稱——AI“幻覺”。 AI 模型以資料訓練而成,這類模型會找出資料中的模式,進而學會如何進行預測。不過,預測的準確度通常取決於訓練資料的品質和完整性。如果訓練資料不完整、含有偏誤或瑕疵,AI 模型可能會學到不正確的模式,導致預測結果不準確或產生幻覺。 舉例來說,以醫療影像資料集訓練而成的 AI 模型,可能會學會辨識癌細胞。不過,如果資料集內沒有任何健康組織的圖片,AI 模型可能會誤以為健康組織就是癌細胞。 訓練資料的缺陷,只是 AI 出現幻覺的其中一種原因,另一個可能的原因是缺乏適當的依據。在這種情況下,AI就可能自己“捏造”內容,或稱“撒謊”。 舉例來說,某個 AI 模型原先設計用來統整新聞報導,但生成的內容中卻出現原始文章未報導的細節,甚至是憑空捏造資訊。 BBC的研究顯示,在時下常用的AI模型中,Google Gemini的錯誤率最高,“引起了最多的擔憂”,有46%的回答被標記,“在準確性方面存在重大問題”,但Google目前尚未對此作出回應。 AI能代替人做新聞麼? 此次研究並非《BBC》首次批評AI生成新聞內容的準確性。去年,《BBC》就曾指控蘋果的AI新聞摘要錯誤修改標題,導致蘋果暫停新聞與娛樂類應用程式的AI摘要功能,並調整AI推送通知的標示方式。 對於這次研究結果,《BBC》新聞與時事部門執行長Deborah Turness呼籲科技公司,正視AI錯誤問題。她警告,“我們生活在動盪時代,AI扭曲的標題何時會引發嚴重的現實影響?”她強調,新聞產業、科技公司與政府必須共同合作,確保AI生成資訊的準確性,以防止錯誤訊息擴散。 由於AI模型的這些缺陷,目前業界通常認為,AI並不適合作為正規新聞生產的主力,僅可在資料搜尋等方面起到部分輔助作用。AI代替人做新聞的時代,還遠沒有到來。(完) 【編輯:王少喆】
|