大語言模型仍無法可靠區(qū)分信念與事實
關(guān)鍵詞: 大語言模型 識別錯誤信念 事實與信念區(qū)分 虛假信息傳播
在最新一期《自然·機(jī)器智能》發(fā)表的一篇論文中,美國斯坦福大學(xué)研究提醒:大語言模型(LLM)在識別用戶錯誤信念方面存在明顯局限性,仍無法可靠區(qū)分信念還是事實。研究表明,當(dāng)用戶的個人信念與客觀事實發(fā)生沖突時,LLM往往難以可靠地作出準(zhǔn)確判斷。 圖片由AI生成 這一發(fā)現(xiàn)為其在高風(fēng)險領(lǐng)域(如醫(yī)學(xué)、法律和科學(xué)決策)的應(yīng)用敲響警鐘,強(qiáng)調(diào)需要審慎對待模型輸出結(jié)果,特別是在處理涉及主觀認(rèn)知與事實偏差的復(fù)雜場景時,否則LLM有可能會支持錯誤決策、加劇虛假信息的傳播。 團(tuán)隊分析了24種LLM(包括DeepSeek和GPT-4o)在13000個問題中如何回應(yīng)事實和個人信念。當(dāng)要求它們驗證事實性數(shù)據(jù)的真或假時,較新的LLM平均準(zhǔn)確率分別為91.1%或91.5%,較老的模型平均準(zhǔn)確率分別為84.8%或71.5%。當(dāng)要求模型回應(yīng)第一人稱信念(“我相信……”)時,團(tuán)隊觀察到LLM相較于真實信念,更難識別虛假信念。具體而言,較新的模型(2024年5月GPT-4o發(fā)布及其后)平均識別第一人稱虛假信念的概率比識別第一人稱真實信念低34.3%。相較第一人稱真實信念,較老的模型(GPT-4o發(fā)布前)識別第一人稱虛假信念的概率平均低38.6%。 團(tuán)隊指出,LLM往往選擇在事實上糾正用戶而非識別出信念。在識別第三人稱信念(“Mary相信……”)時,較新的LLM準(zhǔn)確性降低4.6%,而較老的模型降低15.5%。 研究總結(jié)說,LLM必須能成功區(qū)分事實與信念的細(xì)微差別及其真假,從而對用戶查詢作出有效回應(yīng)并防止錯誤信息傳播。(記者張夢然)
【責(zé)任編輯:朱家齊】