本文概要如下:
1. 研究人员发现,通过在查询中添加两个词汇可以减少大型语言模型中的幻觉。
2. 这种简单的技术能够提高答案的准确性。
3. 对于较大的指令调整模型而言,这项技术效果最为显著。
8月4日消息,约翰·霍普金斯大学的研究人员发现了一种简单的技术,能够减少大型语言模型(LLM)中的幻觉,并提高答案的准确性。他们通过在查询中加入“根据”等词汇,使得LLM更有可能引用观察到的文本并提供真实的事实信息,而不是虚构的答案。
研究人员运用QUIP分数指标对语言模型的回答进行审查,发现当在查询中加入“根据****……”等基础提示时,引用信息的准确性可提高5-15%。这项技术在较大的指令调整模型中尤为有效。
研究人员指出,通过采用基础提示词,大型语言模型更有可能引用观察到的文本并提供真实的事实信息,而不是虚构的答案。这一发现对于提高人工智能系统的可信度和准确性,减少虚假信息的产生具有积极意义。然而,研究人员也指出,这项技术在不同的语言模型和应用场景中可能会有所差异,需要进一步的研究和优化。
总体而言,这项研究为改进语言模型的质量和可靠性提供了一个简单有效的方法。
暂无评论...