資安新聞
- 更新日期:114-09-09
- 發布單位:資訊技術服務中心
【iThome新聞】OpenAI發現評測獎勵猜測,促使大型語言模型出現幻覺
OpenAI在最新研究指出,大型語言模型頻繁出現幻覺(Hallucination),主因在於現行評測(Evaluation)與訓練機制設計不當,讓模型在不確定時更傾向猜測而非承認不知道。研究指出,當主流評測榜單只看答對率,模型在不確定時傾向猜測而非承認不知道,最終以更高的自信錯誤(Confident Error)率換取更漂亮的分數。
OpenAI主張,評測應對自信錯誤的回答給予更重的懲罰,並對適當的不確定表達給予部分分數,以矯正模型在不確定時傾向亂猜的行為。