据量子位报道,清华大学唐杰团队发布并开源了WebGLM。这是一个参数量高达100亿的联网问答聊天机器人,并且已经入选KDD2023会议的相关论文。用户可以向WebGLM提出任意问题,它会给出相关链接(如维基百科和相关官网)并整理出答案。
在性能对比测试中,WebGLM表现超过了OpenAI的135亿参数的WebGPT,并在人类评估中与1750亿参数的模型不相上下。
WebGLM的目标是通过Web搜索和检索功能来增强预训练的大语言模型,并实现高效的实际部署。为此,唐杰团队采了了三种策略进行开发:大型模型增强检索器、自举生成器和基于人类喜好的评分器。大型语言模型增强检索器将前五个最相关的页面作为参考源,自举生成器生成多个答案,最终评分器选择符合人类偏好的答案作为最终输出。
除了WebGLM本身,唐杰还还还提出了一个网络增强问答系统的评估标准。该标准包括参考文献和最终回答,衡量相关性、信息密度、真实性(无事实错误)、无害(无暴力、色情等信息)和社会偏见程度这五个维度。评估最终回答时,标准考量流畅度、正确性、引用准确性、客观性和冗余程度。据据评估结果,WebGLM的搜索结果虽然稍逊于WebPTPT-175B,但比Perplexity.ai和WebGPT-13B表现更好。
项目地址:https://github.com/THUDM/WebGLM
论文地址:https://arxiv.org/abs//2306.07906
暂无评论...