】 【打 印】 
【 第1頁 第2頁 第3頁 】 
生成式AI“幻覺”困境如何破解
http://www.crntt.hk   2025-01-29 18:29:34
 

  在新聞領域,大語言模型可能生成虛假新聞事件,擾亂信息傳播秩序,誤導公眾認知。Vectara公司針對文檔內容開展的研究表明,一些聊天機器人編造事實、虛構信息的幾率高達30%。世界經濟論壇發布的《2025年全球風險報告》顯示,錯誤和虛假信息是2025年全球面臨的五大風險之一。

  在法律領域,它可能引用虛構的法律條文和案例。比如,2023年美國律師史蒂文·施瓦茨就因“輕信”ChatGPT,在法庭文件中引用了並不存在的法律案例。而在醫學領域,它可能提供錯誤的診斷和治療建議,危及患者生命。

  《自然》在報導中指出,AI“幻覺”在科學參考文獻方面出現錯誤的情況也極為普遍。2024年的一項研究發現,各類聊天機器人在提及參考文獻時的出錯率在30%至90%之間。它們至少會在論文標題、第一作者或發表年份上出現偏差。雖然聊天機器人都帶有警告標簽,提醒用戶對重要信息進行二次核實。但如果用戶對聊天機器人的回復深信不疑,可能會引發一系列問題。

  多舉措減少“幻覺”

  為進一步提升AI的精確度,科學家正想方設法降低其“幻覺”。

  例如,增加模型訓練參數和訓練時長可有效減少“幻覺”。但這種方法需要付出高昂的計算成本,並可能削弱聊天機器人的其他能力,如機器學習算法對未知數據的預測和處理能力。

  此外,使用更大、更乾淨的數據集進行訓練,也是降低AI模型“幻覺”出現的有效途徑。然而,當前可用數據的有限性限制了這一方法的應用。

  檢索增強生成(RAG)技術也為減少AI“幻覺”提供了新思路。該方法通過讓聊天機器人在回復問題前參考給定的可信文本,從而確保回復內容的真實性,以此減少“幻覺”的產生。在醫療和法律等需要嚴格遵循經過驗證的知識的領域,RAG技術備受青睞。 


 【 第1頁 第2頁 第3頁 】 


          
】 【打 印】 

 相關新聞: