首页 > 科技 > 探索 4 款「ChatGPT 搜索」全面对比,斯坦福华人博士纯手工标注:新必应流畅度最低,近一半句子都没引用

4 款「ChatGPT 搜索」全面对比,斯坦福华人博士纯手工标注:新必应流畅度最低,近一半句子都没引用

生成式搜索引擎目前还无法取代传统搜索引擎,句子出处标注太少,引用的精确率也不高。ChatGPT 发布后不久,微软成功上车发布「新必应」,不仅股票大涨,甚至还大有取代谷歌,开启搜索引擎新时代的架势。不过新必应真是大型语言模型的正确玩法吗?生成的答案真的对用户有用吗?句子里标的引文可信度有多少?最近,斯坦福的研究人员从不同的来源收集了大量的用户查询,对当下四个大火的生成性搜索引擎,新必应(Bing…

 生成式搜索引擎目前还无法取代传统搜索引擎,句子出处标注太少,引用的精确率也不高。

ChatGPT 发布后不久,微软成功上车发布「新必应」,不仅股票大涨,甚至还大有取代谷歌,开启搜索引擎新时代的架势。

不过新必应真是大型语言模型的正确玩法吗?生成的答案真的对用户有用吗?句子里标的引文可信度有多少?

最近,斯坦福的研究人员从不同的来源收集了大量的用户查询,对当下四个大火的生成性搜索引擎,新必应(Bing Chat),NeevaAI,perplexity.ai 和 YouChat 进行了人工评估。

论文链接:https://arxiv.org/ pdf / 2304.09848.pdf

实验结果发现,来自现有生成搜索引擎的回复流畅且信息量大,但经常包含没有证据的陈述和不准确的引用。

平均来说,只有 51.5% 的引用可以完全支撑生成的句子,只有 74.5% 的引用可以作为相关句子的证据支持。

研究人员认为,对于那些可能成为信息搜寻用户主要工具的系统来说,这个结果实在是过低了,特别是考虑到有些句子只是貌似可信的话,生成式搜索引擎仍然需要进一步优化。

个人主页:https://cs.stanford.edu/~nfliu/

第一作者 Nelson Liu 是斯坦福大学自然语言处理组的四年级博士生,导师为 Percy Liang,本科毕业于华盛顿大学,主要研究方向为构建实用的 NLP 系统,尤其是用于信息查找的应用程序。

别轻信生成式搜索引擎

2023 年 3 月,微软报告说「大约三分之一的每日预览用户每天都在使用 [Bing] 聊天」,并且 Bing 聊天在其公开预览的第一个月提供了 4500 万次聊天,也就是说,把大型语言模型融合进搜索引擎是非常有市场的,极有可能改变互联网的搜索入口。

但目前来看,现有的基于大型语言模型技术的生成式搜索引擎仍然存在准确率不高的问题,但具体的准确率仍然没有得到全面评估,进而也无法了解到新型搜索引擎的局限之处。

可验证性(verifiability)是提升搜索引擎可信度的关键,即为生成答案中的每一句话都提供引文的外部链接来作为证据支撑,可以使用户更容易验证答案的准确程度。

研究人员通过收集不同类型、来源的问题,在四个商业生成式搜索引擎(Bing Chat, NeevaAI, perplexity.ai, YouChat)上进行人工评估。

评估指标主要包括流畅性,即生成的文本是否连贯;有用性,即搜索引擎的回复对于用户来说是否有帮助,以及答案中的信息是否能够解决问题;引用召回,即生成的关于外部网站的句子中包含引用支持的比例;引用精度,即生成的引用支持其相关句子的比例。

流畅性(fluency)

同时展示用户查询、生成的回复以及声明「该回复是流畅且语义连贯的」,标注人员以五分制 Likert 量表对数据进行打分。

有用性(perceived utility)

与流畅性类似,标注人员需要评定他们对「该回复是对用户查询来说是有用且有信息量的 」这一说法的同意程度。

引用召回(citation recall)

引用召回率是指由其相关引文完全支持的、值得验证的句子的比例,所以该指标的计算需要确定回复中值得验证的句子,以及评估每个值得验证的句子能够被相关引文支持。

在「识别值得验证的句子」过程中,研究人员认为关于外部世界的每一个生成的句子都是值得验证的,即使是那些可能看起来很明显、微不足道的常识,因为对于某些读者来说似乎是明显的「常识」,但其实可能并不正确。

搜索引擎系统的目标应该是为所有生成的关于外部世界的句子提供参考来源,使读者能够轻松地验证生成的回复中的任何叙述,不能为了简单而牺牲可验证性。

所以实际上标注人员对所有生成的句子都进行验证,除了那些以系统为第一人称的回复,如「作为一个语言模型,我没有能力做...」,或是对用户的提问,如「你想了解更多吗?」等。

评估「一个值得验证的陈述是否得到其相关引文的充分支持」可以基于归因已识别来源(AIS, attributable to identified sources)评估框架,标注人员进行二元标注,即如果一个普通的听众认可「基于引用的网页,可以得出...」,那引文即可完全支持该回复。

引用精确率

为了衡量引用的精确率,标注人员需要判断每个引用是否对其相关的句子提供了全部、部分或无关支持。

完全支持(full support):句子中的所有信息都得到了引文的支持。

部分支持(Partial support):句子中的一些信息得到了引文的支持,但其他部分可能存在缺失或矛盾。

无关支持(No support):如引用的网页完全不相关或相互矛盾。

对于有多个相关引文的句子,还会额外要求标注人员使用 AIS 评估框架判断所有相关引文网页作为一个整体是否为该句子提供了充分的支持(二元判断)。

实验结果

在流畅性和有用性评估中,可以看到各个搜索引擎都能够生成非常流畅且有用的回复。

在具体的搜索引擎评估中,可以看到看到 Bing Chat 的流畅性 / 有用性评分最低(4.40/4.34),其次是 NeevaAI(4.43/4.48),perplexity.ai(4.51/4.56),以及 YouChat(4.59/4.62)。

在不同类别的用户查询中,可以看到较短的提取性问题通常比长问题要更流畅,通常只回答事实性知识即可;一些有难度的问题通常需要对不同的表格或网页进行汇总,合成过程会降低整体的流畅性。

在引文评估中,可以看到现有的生成式搜索引擎往往不能全面或正确地引用网页,平均只有 51.5% 的生成句子得到了引文的完全支持(召回率),只有 74.5% 的引文完全支持其相关句子(精确度)。

这个数值来说对于已经拥有数百万用户的搜索引擎系统来说是不可接受的,特别是在生成回复往往信息量比较大的情况下。

并且不同的生成式搜索引擎之间的引文召回率和精确度有很大差异,其中 perplexity.ai 实现了最高的召回率(68.7),而 NeevaAI(67.6)、Bing Chat(58.7)和 YouChat(11.1)较低。

另一方面,Bing Chat 实现了最高的精确度(89.5),其次是 perplexity.ai(72.7)、NeevaAI(72.0)和 YouChat(63.6)

在不同的用户查询中,有长答案的 NaturalQuestions 查询和非 NaturalQuestions 查询之间的引用召回率差距接近 11%(分别为 58.5 和 47.8);

同样,有短答案的 NaturalQuestions 查询和无短答案的 NaturalQuestions 查询之间的引用召回率差距接近 10%(有短答案的查询为 63.4,只有长答案的查询为 53.6,而无长或短答案的查询为 53.4)。

在没有网页支持的问题中,引用率就会较低,例如对开放式的 AllSouls 论文问题进行评估时,生成式搜索引擎在引文召回率方面只有 44.3

参考资料:

https://arxiv.org/abs/2304.09848

本文来自微信公众号:新智元 (ID:AI_era)

本文来自网络,不代表头条在线-头条新闻网立场。
上一篇SpaceX 星舰下一次试飞时间曝光,NASA 局长透露玄机
下一篇 ChatGPT 推出“联网模式”,可直接读取网页内容,网友:更好用了
头条新闻网

来源:

本文来源于。包含文章,图片,视频等资源归属于原作者所有。如有侵权请联系gridf@126.com处理。紧急处理联系电话:15144810328

为您推荐

评论列表()

    联系我们

    联系我们

    0898-88888888

    在线咨询: QQ交谈

    邮箱: email@wangzhan.com

    工作时间:周一至周五,9:00-17:30,节假日休息

    关注微信
    微信扫一扫关注我们

    微信扫一扫关注我们

    关注微博
    返回顶部