首页 > 科技 > 智能 ChatGPT 等 AI 生成的内容存在常识、推理等错误,依然可以判别出来

ChatGPT 等 AI 生成的内容存在常识、推理等错误,依然可以判别出来

IT之家 3 月 18 日消息,在今年 2 月召开的人工智能促进协会会议上,一项新研究结果表明,可以判断内容是由 ChatGPT 生成的还是人类撰写的。美国宾夕法尼亚大学工程与应用科学学院的一支科研团队日前展开有史以来最大规模的人工智能检测活动,基于该大学创建的网页训练游戏 Real or Fake Text?,收集相关数据进行培训,从而让 AI 可以判断出内容是由 ChatGPT 生成的还是人类…

IT之家 3 月 18 日消息,在今年 2 月召开的人工智能促进协会会议上,一项新研究结果表明,可以判断内容是由 ChatGPT 生成的还是人类撰写的。

美国宾夕法尼亚大学工程与应用科学学院的一支科研团队日前展开有史以来最大规模的人工智能检测活动,基于该大学创建的网页训练游戏 Real or Fake Text?,收集相关数据进行培训,从而让 AI 可以判断出内容是由 ChatGPT 生成的还是人类撰写的。

该研究的合著者、博士 Liam Dugan 对此做出了解释,IT之家翻译内容如下:

今天的人工智能已经可以生成出非常流畅、非常符合语法的文本。但是人工智能会犯错误。

我们已经证明机器会犯诸如常识性错误、相关性错误、推理错误和逻辑错误等错误,而且我们已经找到了如何发现这些错误的方法。

人们对于人工智能感到焦虑。我们的研究可以缓解部分焦虑情绪。我认为目前 AI 可以帮助我们编写更有想象力、更有趣的文本,最适合创意协作。但是 AI 在新闻报道、学术论文或法律建议方面的应用还是非常糟糕的,我们无法确保其真实性。

报告内容如下:https://arxiv.org/abs/2212.12672

本文来自网络,不代表头条在线-头条新闻网立场。
上一篇天津市人工智能计算中心揭牌上线,整体规划 300P 算力
下一篇 英国斥资 9 亿英镑构建百亿亿级超级计算机,用于创建“BritGPT”大型语言模型
头条新闻网

来源: IT之家

本文来源于IT之家。包含文章,图片,视频等资源归属于原作者所有。如有侵权请联系gridf@126.com处理。紧急处理联系电话:15144810328

为您推荐

评论列表()

    联系我们

    联系我们

    0898-88888888

    在线咨询: QQ交谈

    邮箱: email@wangzhan.com

    工作时间:周一至周五,9:00-17:30,节假日休息

    关注微信
    微信扫一扫关注我们

    微信扫一扫关注我们

    关注微博
    返回顶部