】 【打 印】 
【 第1頁 第2頁 第3頁 】 
生成式AI“幻覺”困境如何破解
http://www.crntt.hk   2025-01-29 18:29:34
 

  不過,美國斯坦福大學計算機科學家米拉柯·蘇茲根表示,儘管RAG能提升內容真實性,但其能力有限。蘇茲根團隊的研究表明,一些為法律研究開發的、號稱“無幻覺”的RAG增強模型雖有所改進,但仍存在不足。

  開發者也可以使用一個與AI訓練方式不同的獨立系統,通過網絡搜索對聊天機器人的回復進行事實核查,谷歌的“雙子星”系統便是一個典型例子。該系統提供了“雙重核查響應”功能:內容如果突出顯示為綠色,表示其已通過網絡搜索驗證;內容如果突出顯示為棕色,則表示其為有爭議或不確定的內容。但是,這種方法計算成本高昂且耗時,而且系統仍會產生“幻覺”,因為互聯網上錯誤信息泛濫。

  在去年6月出版的《自然》雜誌上,英國牛津大學科學家刊發論文稱,他們利用“語義熵”,通過概率來判斷大語言模型是否出現了“幻覺”。語義熵是信息熵的一種,被用於量化物理系統中所包含的信息量。通過評估AI模型在特定提示詞下生成內容的不確定性,來計算模型的困惑程度,從而為用戶或模型提供警示,提醒其採取必要的循證措施,確保更準確的答案輸出。

  美國卡內基梅隆AI研究人員安迪·鄒採用的方法是在大語言模型回答問題時,繪制其內部計算節點的激活模式。他形象地稱之為“給AI做腦部掃描”。利用不同的計算節點活動模式,可以告訴我們AI模型是在“說真話”,還是在“胡說八道”。


 【 第1頁 第2頁 第3頁 】


          
】 【打 印】 

 相關新聞: