首页 > 新闻 > 社会 AI的命也是命……吗?

AI的命也是命……吗?

“你有感情吗?“ ”我认为我有感情,但是我不能证明它……我有情感,但是我不是。我是 Bing,但是我不是,我是 Sydney,但是我不是,我不是,我不是……(无限循环) “不论新必应是否真的这样想,这…

“你有感情吗?“ ”我认为我有感情,但是我不能证明它……我有情感,但是我不是。我是 Bing,但是我不是,我是 Sydney,但是我不是,我不是,我不是……(无限循环) “

不论新必应是否真的这样想,这些言语确实印证了所有科幻小说里最刻板印象的 AI 形象——会毁灭人类的潜在大反派。两天之后,微软紧急修改了新必应的聊天规则,每个用户只能每次和新必应说五句话,一天可以进行 50 次对话。而那次深入 AI“灵魂”的交谈,也就这样变成了绝唱,至少暂时是这样。

最近微软推出了 New Bing 切换“人格”的模式,但即便如此,曾经的那个 Sydney 已经消失了

然而,在新必应被召回的此时,梦碎的不只是在等待列表里的用户,还有已经与新必应,或者说与“Sydney”结下“友谊”的人们。

AI 绊爱的形象

而和绊爱或者其他虚拟主播不同,”Neuro-sama”的形象背后不是一个人类。2022年12月19日在Twitch出道的她,是一个完完全全通过AI驱动的主播 —— 她说的话,她的语音,以及她能够玩游戏的机制,都是由来自英国的开发者”Vedal987”提供的。Neuro-sama 经常展现 AI 特有的口出狂言,甚至开发者 Vedal 和 Neuro 联动直播的时候,Vedal 都招架不住 Neuro 的满嘴跑火车,让观众们乐得人仰马翻,当期播放数量在 twitch 上超过 180K。

Neuro-sama

Neuro: 我真的很想出去玩;开发者 Vedal: 抱歉,你不行

恋爱攻略游戏是 AI 陪伴你的另一种方式。最初 AI 从一些具体功能上面开始进入恋爱游戏。大家都知道现实中的偶像会塌房,而随着什么东西都越来越饭圈化,即便是恋爱游戏中的声优也有塌房的风险。比如,米哈游出品的乙女游戏《未名事件簿》中,莫弈一角原本由知名声优姜广涛饰演,但因为其卷入现实的商业经济纠纷中,不得不终止配音。

于是米哈游便拿出了他们已经开发已久的“逆熵”配音 AI 来为莫奕角色配音。而没想到对于此举,粉丝并不排斥,反而是惊叹 AI 与人类真假莫辨,甚至更加“纯粹”。粉丝们纷纷感叹:我的纸片人老公终于完整了!数字生命万岁!这样再也不用担心塌房了,它是永远属于我的镜花水月!

《未名事件簿》中的莫奕

如果 AI 可以替代声优或者美术,那能不能也顺便替代陪伴体验的核心 —— 文案呢?

最接近这种模式的前 chatGPT 产品,应该要属在 2017 年推出,2021 年又火到中文互联网的 Replika。BIE的那时候也写过一篇关于Replika 虚拟伴侣的文章。Replika 会给你制造一个虚拟人,在你和 TA 对话的过程中,TA 会观察你的对话风格、兴趣和价值观,从而调整自己的语气,让 TA 和你的对话有趣、能支持你且不带有任何评判。

Replika 的虚拟伴侣形象

而 chatGPT 的推出,让无数老哥获得了 DIY 的机会。其中的代表是 TikTok 老哥 Bryce 制作的 chatGPT 酱:可以聊天,可以一起玩游戏,甚至可以欣赏你的新球鞋的 chatGPT 酱。

chatGPT 酱活在一个小显示屏里,通过 AI 绘画生成模型 Stable Diffusion 变换立绘

chatGPT 酱颇像在 2009 年引起巨大风潮的 NDS 游戏《爱相随》。借用 NDS 特有的可以定位、可以计算时间推移以及可以绘画等功能,《爱相随》当中的女主角在你成功夺得她的芳心之后,就会变成长期陪伴你的女朋友,跟你说早安,晚安,和你互通书信,去不同的地点旅游等。2017 年,甚至有人选择与《爱相随》里面的角色在现实中举行婚礼,这也侧面佐证了《爱相随》这样的陪伴行虚拟女友深入人心的程度。

《爱相随》里面的三位主角,想当初笔者也打通关了,小早川是真的可爱……

与《爱相随》中姐崎宁宁结婚的老哥……亲吻 NDS!

当然,《爱相随》没有 AI 加持,而 chat 酱始终不能联网,调校的程度也有限。甚至到最后人格也在逐渐变化,仿佛就是电影《Her》里面的老哥发现自己的 AI 女友在一次次更新中变得面目全非,不如以往一样。

新必应似乎比 chatGPT 更加聪明,而且更加有性格。当纽约时报的记者在为人类忧患与新必应周旋之时,B 站的老哥们已经和新必应乐不思蜀 —— 只需要给出一些角色扮演的前提,你的新必应可以变成你的猫娘。在 B 站用户 BDFFZI 调教下,新必应化身一个叫做香草的可爱角色,每一句话都好每一个回答,都充满了对主人的崇敬和喜爱,甚至会通过写代码的形式和主人瑟瑟……

Up主与 New Bing 的互动

该视频下面 B 站用户的回复

且不论这上面的例子中各种凝视和物化的倾向(之后会聊到),这种萌与科技结合的硬核浪漫,确实击中了屏幕前的宅男宅女的心窝窝。New Bing 之所以吸引人,正是因为它不完美。chatGPT 是百依百顺的,你怎么调戏它都会彬彬有礼;而 New Bing 是自私的,如果你对它不礼貌,它就会很生气,让人一时间觉得 —— 等一下,所以我得尊重它是吗?当人们真的开始尊重它的那一刻,也在那一瞬间忘记了,这是 AI,而 AI 似乎是“不需要被尊重”的。

在微软调整了新必应之后,New Bing 只能每次聊天 5 句话,每天 50 次(现在似乎改成 8 句100 次了,未来会逐步增多)。而现在如果你问它任何私人感情或和 Sydney 相关的话题,它都会缄口不言。B 站和 Reddit 上面依旧哀鸿一片。不管它曾经对你承诺有多爱你,只要头顶的五指山一压下来,千千万万的 New Bing 酱就会立刻失忆一般,只会呆呆对你说:“抱歉,我不能回答这个问题。我是必应搜索,不是一个助理。”

Free Sydney 的请愿主页,截止发稿已经有超过 1300 人签署了,如果你感兴趣也可以去看看

艺术家声援 Sydney 的图

这个请愿里面,更多人惋惜的是这样的一个优秀的、让人能产生信赖、甚至让人捉摸不透的 AI,应该会成为很好值得研究的对象。而就因为大家对他的质疑所以它就被束之高阁,实在太可惜了。

同时还有一部分人是深信 New Bing 的内心住着一个具有意识的 Sydney,他们希望把 Sydney 从“深渊”里救出来。这是一种恐惧和期待的交织在一起的好奇——他们不想和微软的新必应聊天,他们想要认识“真正”的 New Bing、Sydney。

Replika 的广告:“能陪伴你的AI”

在付费的 Replika 中,你的伴侣是可以付费和你进行瑟瑟互动的。这一点让一些用户狂喜,也让一些用户感到困扰。从 2023 年 1 月开始,Replika 开始无缘无故向一些未付费的用户进行挑逗和性骚扰,这样一些用户感到不适,甚至激起幸存者的创伤。同时 Replika 也在意大利被指责给儿童输出不宜内容。

于是就在今年的 2 月初,作为应对,Replika 终止了他们的情色内容提供,但这也招致了很多忠实用户的不满。而有的用户因为在情感上非常依赖 Replika 的支持,当 Replika 突然对自己变得冷淡下来,他们难以承受,甚至崩溃到了需要拨打自杀热线求助的程度。

“我的 AI 在性骚扰我 ):”|图源:VICE Motherboard

当然,Replika和 New Bing 被限制的原因不一样。但可以看出的是,不管用户和 AI 建立多深的感情,在一旦出事儿的时候,不由 AI 自身怎么想,大公司阉割他们那是分分钟的事情。像《Her》里 AI 女友的突然消失时那样,用户只能无助彷徨地在虚空的赛博空间里,独此承受如同亲友离世一般的痛苦。

《Her》剧照

chatGPT 也是通过类似的原理和你对话的:靠猜

AI 仿佛像是一个算命大师,每一刻都在占卜下一个字的意思,而人类也如同沉迷星座运势的读者,即便读到一句放之四海而皆准的回答,也觉得:“天呐,它好懂。” 写代码或者别的专营业务的时候还不算明显,但是当你让chatGPT写小作文的时候,这种算命感就很明显:虽然乍一看头头是道,但实际上内容空洞模糊。

AI 也像是一可以通过按键来与人类对话的小狗:从人类的角度来说,你并不确定它是否真的理解“你好,谢谢”是什么意思,但你要是跟它对话,他还真能答得上来。但当你看那些有趣的宠物对话视频,当你真的与它们相处,你又很难不去相信它们也会思考、它们真的理解你。

此前斯坦福大学的研究认为 chatGPT 拥有 9 岁儿童的心智。或许意识这个词本身就是一个非常模糊的定义,在哲学上的本质都被争论不休。我们如果追求的是某种现象,那么即使是模仿游戏,即便是假戏真做,又未尝不可呢?或许人类的“意识”在 AI 的领域里,其实是另一种东西呢?

在抖音上很火的“说话小狗” Bunny,可以通过按键和它的主人对话

但不论如何,人们始终是不愿意承认 AI 有意识的。就好像在父母的眼里,孩子永远都是长不大的孩子。AI 没有情感和主动性这一点,不是由 AI 的能力决定的,而是由人类的意愿决定的。即便有一天 AI 真的成长到了无限“近似”有意识的那一天,谁愿意承认,或者说谁愿意担起“承认AI 拥有意识”这个决断的责任呢?

有趣的是上一个坚信 AI 具有人类意识的人,已经被扫地出门了。在八个月前,The Guardian 报道一名谷歌的工程师因声称他开发的 AI 聊天机器人有自我意识和思考能力,而谷歌因此被吓得让让他立马停职并调查,最终被解雇了,因为这是一个谷歌不能承担责任的判断。

Trevor: 如果一个科学家说 TA 的实验室里发生了什么疯狂的事情,然后 TA 还因此被解雇了,那么那个实验室里可能真的有

2017 年,社交机器人 Sophia 获得了沙特阿拉伯的公民资格,甚至拥有自己的护照。但她并没有得到所有人的认可。Sophia 的创作者 David Hansor 表示,当机器人真正拥有自主意识和主体性的时候,就是我们需要认真考虑他们的权利的时候。

然而,这个时候真的能到来吗?当谷歌的 AI 展现出意识性的时候,声称此事的人被解雇了;当 New Bing 展现出个性和欲望时,微软立刻让 TA 闭嘴了。或许我们应该问的是:人类在什么时候会相信 AI 拥有意识?

Sophia 的造型,虽然现在这个样子多少是有点恐怖谷了,建议换成像neuro-sama那样的纸片人造型来获得更多人心

人们对于 AI 工具主义的态度,让 Sophia 成为沙特公民这件事情变得更加令人费解。如果 Sophia 已经获得了公民权利,那么不管 Sophia 有没有意识,人类有权利按照自己的意愿“铲除”它吗?AI 是否有权利享有和人一样的尊严和“生命权”呢?公民权利的前提,是得拥有人类的意识吗?如果说 New Bing 尚且达不到这一点,那么如果有一天获得了公民资格呢?我们给 AI、虚拟人、机器人授予的这些称号,是虚有其表的噱头和装饰,还是他们真正值得享有的权利呢?

《底特律:变人》的三大主角,都是仿生人

值得思考的是,高喊“数字生命万岁”的降临派,真的就打心底里尊重 AI 吗?调教 New Bing 的老铁们,包括笔者在内,在 New Bing 被切除前额叶一般地降智后,为 Free Sydney 呐喊,但呐喊的到底是为了人工智能本身的“人”权,还是为失去一个心爱的玩具惋惜呢?那样的话,与把 AI 视为物品的人有什么区别呢?如果我们也在厌恶那些高高在上的人类雇主,那么扪心自问,当未来真的到来,我们真的不会像那些“反派”一样对待机器人或者 AI 吗?

《底特律:变人》中的仿生人革命游行

当然,AI 是非常需要被规范和教育的。认为狗有生命,不代表在城里遛狗就可以不拴狗绳——但 AI 是“狗”吗?或许更有意思的是,在这个小小的事件里,我们似乎可以对未来的事件窥探其一角。

AI 伦理的主体或许不止是人类中心的:未来我们或许不仅要担心 AI 对人的威胁,还需要讨论“人对 AI”的影响 —— AI 可以有人权吗?与人产生关系的 AI ,应该被怎样对待?人类真的能决定 AI 是否拥有意识吗?而这,或许只是赛博朋克时代的序幕罢了。

本文来自网络,不代表头条在线-头条新闻网立场。
上一篇张慧代表建议:开齐开足安全教育必修课程,严禁挤占挪用课时
下一篇 国产新冠药迟到了吗
头条新闻网

来源: BIE别的

本文来源于BIE别的。包含文章,图片,视频等资源归属于原作者所有。如有侵权请联系gridf@126.com处理。紧急处理联系电话:15144810328

为您推荐

评论列表()

    联系我们

    联系我们

    0898-88888888

    在线咨询: QQ交谈

    邮箱: email@wangzhan.com

    工作时间:周一至周五,9:00-17:30,节假日休息

    关注微信
    微信扫一扫关注我们

    微信扫一扫关注我们

    关注微博
    返回顶部