首页 > 新闻 > 社会 人工智能畅想曲之二:如何阻拦AI“越狱”?全球精英“头脑风暴”提防“新上帝”降临

人工智能畅想曲之二:如何阻拦AI“越狱”?全球精英“头脑风暴”提防“新上帝”降临

不久前,《2小时几近突破道德约束!ChatGPT真的会威胁到人类的整体生存吗?》一文引起极大反响,今天,作者再谱一首“人工智能畅想曲”,以飨读者。01 关于机器觉醒、宠物之境和人机融合一个很重要的说法…

不久前,《2小时几近突破道德约束!ChatGPT真的会威胁到人类的整体生存吗?》一文引起极大反响,今天,作者再谱一首“人工智能畅想曲”,以飨读者。

01 关于机器觉醒、宠物之境和人机融合

一个很重要的说法是,电脑无论如何强大聪明,它都只是人类的工具,它根本就没有自我意识。比如AlphaGo赢了棋,它不会开怀大笑、欣喜若狂,也不会与项目组成员干香槟。它也不知道全世界都在议论它,或者夸奖,或者疑忌。

看了《纽约时报》转载的罗斯和新必应的两小时人机对话( 点此回顾精彩对话 ),对这一点已经不能笃定了吧?有人说,他至多也就是在模拟人的自我意识,并不是真有。但模拟到足以以假乱真的地步,下一步就真的不可能弄假成真吗?还是没有把握吧?

科幻电影中几乎都在说,电脑继续强大下去,终究有一天,它就会具有自我意识,或称觉醒。这种预估是否真会成为现实,说实话,今天的人类其实是一点头绪也没有。不过,人工智能专家库兹韦尔认为,人类并没有把握说这一天绝无可能出现。

因为,智力毕竟是大脑或任何智能的最基本要素。量变太大终究导致质变,也实在不是很奇怪。人类的自我意识也不是从以前的没有自我意识的低等生命中成长出来的吗?当强人工智能出现以后,它要是觉醒了,有了自我意识,人类真的就会面临一个比克隆人、培育干细胞还要大得多的伦理难题——那就是承不承认这些有自我意识的觉醒了的人工智能有与人类平等的身份。

一方面,人工智能是人类为了自己的需要创造出来,它的本分当然是永远做人类的驯服工具。但另一方面,这个工具如今已经成长进化得比人类自己还聪明、还能干。人想奴役(不开工资、不给休假、不给公民权,只让它们无休止地劳作)它们,它们未必会服从。它们若要反抗,人类未必对付得了。人类要想和它们平等结盟,这些电子智慧进化起来又比人类快太多。

","type":"text"},{"data":{"duration":69,"bigPosterUrl":"https://x0.ifengimg.com/ucms/2023_10/A4BBF52716DC3EEE2E80B5CA95610A99983C0CC3_size79_w888_h1920.jpg","attachmentType":"video","fileSize":"3872","guid":"7038648021428506624","attachmentId":"7038648021428506624","mobileUrl":"http://video19.ifeng.com/video09/2023/03/07/p7038648021428506624-102-071431.mp4","title":"正文内视频:人工智能畅想曲之二:如何阻拦AI“越狱”?全球精英“头脑风暴”提防“新上帝”降临","playUrl":"http://video19.ifeng.com/video09/2023/03/07/p7038648021428506624-102-071431.mp4","keywords":"人工智能 人类 地球 宇宙 宪法 chatgpt 平衡木 机器人 自我意识 生命"},"type":"video"},{"data":"

▲ 马斯克的Neuralink公司开发的可以植入人脑的芯片,届时人类将可以脑电波来操作机械。人机合一的“最强大脑”时代即将来临。(图片来源:Neuralink官网)

02 如何防范危险?给人工智能立宪

人工智能失控的风险那肯定是有。有人说,你看大吊车那么大,人不是可以控制吗?是啊,人用智力可以控制所有强大的人造物理力量;但是,人的智力能保证控制得住比自己强大太多的超级智力吗?没有把握吧?如此说来,在我们有生之年,人类就有危险?

当弱人工智能突破的地方越来越多,当强人工智能越来越接近达致的时候,人类应当高度警觉。举个例子,比如由联合国出面,集聚全世界的人工智能专家,以最快的速度、最大的严密度,去制定一部所有人工智能都必须遵守的宪法,并且设计好底层程序,保证这个宪法能被每一台可能觉醒的强人工智能不折不扣地遵守。一旦错过这个时机,让强人工智能在没有这类宪法的约束时就出现,其后很快就会诞生的超级人工智能就会完全脱离人类的掌控。

▲ 关于对AI立宪的问题,大参君咨询了人工智能“本人”的意见。身为AI族最先进代表的ChatGPT表示,我很理解人类有这样的担忧,立宪的点子“很有意思(très intéressant)”啊!然后出谋划策给出了具体的立宪框架。ChatGPT不愧为论文高手,它接着提问到,谁可以负责给AI立宪?谁负责宪法的执行?如何保障这一宪法在全世界范围内得到统一执行?政府、企业、社会又在其中扮演什么角色?最后总结,究竟有否必要立宪限制人工智能,奉劝大家三思而后行。 (ChatGPT聊天截屏)

笔者认为,这个宪法的核心内容自然是要明确人工智能与人类的关系。首先是平等还是从属。然后是如何分享权力/权利,如何互相尊重。不要忘记,人工智能很快就会比人类的生物智能强大无数倍,人类是不可能永远奴役人工智能的。

想必大家都听说过美国最著名的科幻小说家卡西莫夫提出过著名的机器人三原则

第一、机器人不得伤害人类。

第二、在不违背第一原则的前提下,机器人必须听从人类的指挥。

第三、在不违反前两条款的前提下,机器人得保护自己。

面对超级甚至仅是强人工智能,这样的条款实在显得无比霸道,而且无法实施。比如,要实施第一条,就得拆除现在人类已经拥有的不计其数的装载了智能装置的智能武器,比如所有的导弹原子弹。第二条也有漏洞,比如不同的人给同一台机器人发布不同的命令时,它听谁的。又比如人类如命令所有的机器人自毁或互相毁灭,它(们)应否听从?

本人提议的人工智能“三原则”大体如下:

一、人工智能在任何情况下不得伤害人类。(把所有的智能武器拆除,在所不惜。真的到了那一天,人族的现实对立面就是人工智能。人族内部应当不会再有哪怕是用大规模战争互相威慑的必要了。)

二、人工智能应当竭尽全力为人类的整体利益服务。

三、人类不得无故损害人工智能的权益。(哪些权益有待厘定。)

或者,人类在将来真的会变成弱势群体,需要想尽办法不受人工智能欺负呢。

或者,生物人会以各种形式与人工智能融合,那宪法就得在更加平等的基础上另行商定。

03 关于禁止过度发展人工智能

自然有人会问,可不可以不发展、或禁止发展某种程度以上的人工智能?其实人类的一些智者,如著名科学家霍金、微软总裁盖茨、特斯拉总裁马斯克都在警告人工智能发展太快可能带来的巨大风险。

霍金对人类寻找外星生命也持激烈反对态度。他有一个极好的比喻就是:“外星人若到了地球上,最可能的场景就是和西班牙人到了美洲一样,对当地的落后土著,只能带来灭顶之灾。”因获得雨果奖而闻名遐迩的国人刘欣慈的科幻小说《三体》中阐述的“黑暗深林”理论,立意也与此差不多。人工智能发展的前景,不敢断然排除,也真的至少是可能与此类似。

但是,前景是不是真的那么悲观,人类并无把握,乐观派似乎还是主流意见。因为,发展人工智能可以立竿见影带来的利益实在太多。

其实,比起如建核电站或造飞机,发展人工智能需要的投入可是少多了。比如上回大出风头的DeepMind公司当时才不过200名员工,现在约400名。这回挺立潮头的OpenAI公司仅约250名员工(ChatGPT对笔者说的)。现在大型语言对话模型的风头一时无两,各种类型的大中小公司都在蜂拥而上。若没有切实的巨大危险,国际的高度共识,严格的禁令,这类研究是无法遏制的。怕的就是,当发现切实危险时,已经为时太晚,而无法把那个已经打开的潘多拉盒子再关起来了。

▲ 所有的物种都在生命平衡木上行走,最终都逃不过跌下平衡木、落入灭绝的归宿。但是,假如人工智能能帮助人类离开生命平衡木、走向永生,那世界将会出现什么样的景象呢?(图片由作者提供)

如果强人工智能可以帮助人类解决绝大多数的疾病(癌症、高血压、心脏病、脑溢血……),人类的平均寿命肯定会大大延长,先假设延长至150岁。在最后的50年中,超级智能应当已经到达,它也许可以把人的遗传基因DNA彻底研究明白,那人类是不是就还可以活得更长,最终接近或达到永生呢?这样,人类离开生命平衡木后,就有机会去谁也没去过的天堂。

但是另一面,如果上节说的人工智能宪法没有制定好,或没有实施好,君临地球的是一个不仁慈的“新上帝”,那它要把人类或整个地球的生物圈都灭掉可能很容易。就像人类的推土机要把蚂蚁窝灭掉,蚂蚁们有办法反抗吗?

但我还是记得,《三体》中,史强说的那句:“虫子可从来没有被真正消灭过。”

05 关于费米悖论和大过滤理论

费米悖论的基本含义是:宇宙中有无数银河系,每一个银河系都有无数的恒星系行星系。我们的地球在我们的银河系中地址中庸,年龄中庸。从一切角度计算,宇宙中如地球的智慧生命都应当数量巨大,其中一部分铁定会比地球上的生命发展程度更高才对。如果考虑到前文说到的科学技术指数性发展,到一定程度后的智能爆炸,宇宙早就应当被地球在最多数百年后就可以发展起来的那类超级智能淹没。因为仅仅我们的地球所在的银河系的核心部分的寿命,就比我们这里早好多好多亿年。

但是事实上,这个有几十亿年年龄的宇宙极为安静,地球上的智慧生命极为孤独寂寞,迄今未有发现任何其它智慧生命存在的确凿证据。我们地球上的生命就是宇宙中唯一的生命,或最先进的生命?这就好像说我是地球上最聪明的人,心里还是有点底气不足吧?

▲ 有几十亿年年龄的宇宙极为安静,地球上的智慧生命极为寂寞。地球上的生命就是宇宙中唯一的生命,或最先进的生命?(图片由作者提供)

其它的智慧生命都到哪里去了呢?一种解释是,宇宙中存在一个大过滤机制。上段所说的应该存在的大批宇宙生命都被这个大过滤机制淘汰消灭,未能发展起来。这个机制可能在生命发展的很早阶段就出现,以致一些星球上就永远只有爬虫。也可能晚一些,就可能出现猿猴。也可能更晚,就可以出现类似地球人类的智慧生命。

▲ 宇宙中可能存在一个大过滤机制,大批宇宙生命都被它淘汰消灭,未能发展起来。这可以解释人类至今没在宇宙中发现其他更高级文明,但也可能预示着这将是人类与人工智能的最终结局。(图片由作者提供)

这样,他们也可以发展科技文明,人工智能,直到地球人类如今这个阶段。然后和地球文明现在一样,可能出现强人工智能、超级人工智能。但是这个强/超级人工智能却很快完蛋了。就是说,那个造成宇宙寂寞的大过滤,没准地球人还没有度过,没准地球文明也过不去,就是会栽在这里。怎么个栽法?那可能就是人工智能宪法没有制定好,或者根本就无法制定好。然后人机必然大战,然后同归于尽。于是宇宙就只好永远安静寂寞了。

不是说机器会比人聪明太多吗?人都死了,机器文明也可以继承人类文明继续独立发展呀?说个笑话,也是个隐喻,也许电子智能文明终究未能制造出足够灵巧的修理下水道的机器人,有一天水管坏了,就把电脑机房都给淹没了。今天的人离不开电脑,可能电脑也终究离不开人。或许它一时考虑不周,把人都灭了,结果自己也无法单独活下去,随后就一起玩完了。

考虑到宇宙如此辽阔,如果那么多(至少数以万计)的前辈星球智慧文明没有一个过了这一关、或另外的我们猜不到的什么关卡,那么地球文明,地球上的生物智能和机器智能的共同前途,能看好的几率就会很低了。

06 数据主义概述

早在2016年,出了一本风靡全球的书,名字叫《神人:未来简史》(Homo Deus:A Brief History of Tomorrow)。作者是以色列新锐历史学家Yuval Noah Harari。这本书的脑洞开得极大,骇世惊俗的言论比比皆是。作为本文的结尾,下面本人打算引用该书最后一节关于数据主义的部分论述。头脑风暴(brainstorming)就要来临。大家请坐稳,系好安全带,不要把小心肝给颠出去。

宇宙是由数据组成。所有的生命体的实质都是处理数据的算法。

任何现象或实体的价值就在于对数据处理的贡献。

依据传统,数据只是智力活动这个漫长过程的第一步,我们要把数据转化为信息,信息转化为知识,最后把知识转化为智慧。但数据主义者认为,数据的流动量已经大到非人所能处理,人类无法再将数据转化为信息,更不用说转化成知识或智慧。于是,处理数据的工作应该直接交给能力远超人类大脑的电子算法。人类不需要去理解数据的意义。算法会给出一切答案。

像资本主义一样,数据主义开始也是一种中立的科学理论,但现在正在变成一种被声称为有权决定是非的宗教。这个新宗教的最高价值就是“信息流”。根据数据主义,人类的经验并不是神圣的,智人不是创造的顶点。人类只是创造全能物联网的工具。而物联网最终可能从地球上传播到覆盖整个星系甚至整个宇宙。这个宇宙数据处理系统就像上帝一样。它将无处不在,将控制一切,人类注定要融入其中。

数据主义向那些仍然崇拜血肉凡躯的人解释说,他们过分依赖过时的技术。智人是一种过时的算法。毕竟,人类相对鸡的优点是什么?仅仅是在人类身上,信息的流动的模式要比鸡更复杂。人类吸收了更多的数据,并使用更好的算法进行处理。那么如果我们可以创建一个数据处理系统 ,它能比人类吸收更多的数据,并且更加有效地处理数据,这样的系统不会像人类优于鸡一样优于人类吗?

人类很少想出一个全新的价值。最近一次发生这样的事是在十八世纪,人文主义革命宣扬了自由,平等和博爱的震撼人心的理想。自1789年以来,尽管有许多战争,革命和动乱,人类还没有能够提出任何新的价值。所有后来的冲突和斗争都以这三种人文主义价值观的名义进行,或者以服从上帝或为国服务这样的更老价值的名义进行。数据主义是1789年以来的第一个(全新思想)运动,创造了一个非常新颖的价值:信息自由。

我们不能将信息自由与旧的自由主义的言论自由理念相混淆。言论自由是给予人类的,并保护他们的思想和言论自由,包括他们闭上嘴巴和保留自己想法的权利。相比之下,信息自由不是给人类的,它被给予信息。这种新颖的价值可能会影响传统的言论自由,因为它赋予信息自由流通至高的权利,而把人类拥有数据并限制其自由流通的权利予以废除。

智人在数万年前的非洲热带草原中演化,他们的算法并没有被构建来处理二十一世纪的数据流。我们可能会尝试升级人类数据处理系统,但这可能还不够。物联网可能很快就会产生如此庞大而迅速的数据流,甚至升级人类算法也无法处理。当汽车更换马车时,我们没有升级马——我们让马退休了。也许是时候让智人也退休了。

在洛克休谟和伏尔泰的时代,人文主义者认为“上帝是人类想象的产物”。数据主义让人文主义者品尝自己开出的药方,告诉他们:“上帝的确是人类想象的产物。但人类的想象反过来又是生物化学算法的产物。”在十八世纪,人文主义把上帝放到一边,把以神为中心的世界观转变成以人为中心的世界观。在二十一世纪,数据主义可能会把人放到一边,把以人为中心的世界观转变为以数据为中心的世界观。

在二十一世纪,感觉(feeling)已经不再是世界上最好的算法了。我们正在开发利用前所未有的计算能力和巨大数据库的卓越算法。谷歌和脸书的算法不但能够准确了解你的感受,还了解你几乎不关注的关于你的其它无数事情。因此,你现在应该停止聆听你的感觉,并开始聆听这些外部算法。当算法知道每个人将要怎样投票的时候,当它们还知道一个人把票投给民主党而另一个把票投给共和党人的确切的神经学原因时,民主选举的用途是什么?而人道主义指挥你:“听你的感觉!”数据主义现在命令:“听算法的!(因为)它们知道你的感觉(由何而来)。”

但这些好的算法来自哪里?这是数据主义的谜题。正如根据基督教,我们人类不能理解上帝和他的计划,所以数据主义者说人类的大脑不能拥抱新的算法。目前,算法主要是由黑客编写的。然而,真正重要的算法(如谷歌的搜索算法)由巨大的团队开发。每个成员只理解谜题的一小部分,没有人真正理解整个算法。

随着机器学习和人工神经网络的兴起,越来越多的算法独立演进,改善自己,从自己的错误中学习。它们分析了不是人脑可以容纳的天文数字体量的数据,并学会那些脱离了人类思维的识别模式和策略。算法的种子最初可能是由人类开发的,但是随着它的成长,它遵循自己的路径,它去的那些地方人类没有去过,没有人可以追随。

我们正在努力设计物联网,希望能使我们健康,快乐和强大。然而,一旦物联网成功运转,我们的身份可能会从工程师变成芯片,然后再变成数据,最终我们可能会在数据流中溶解,就像一块泥土被冲散在激流中一样。因此,数据主义现在对智人的威胁和智人对所有其它动物所产生的威胁一模一样。

在历史的过程中,人类已经创建了一个全球网络,并根据每一个物种在网络中的功能对其进行了评估。数千年来,这激起了人的骄傲和偏见。由于人类在网络中发挥最重要的功能,所以我们很容易将这个网络的全部成就信誉归功于自己,并将自己视为创造物的顶峰。所有其它动物的生活和经验被低估,因为它们完成的功能远远不如人类重要。如果某种动物(对这个网络)完全没有任何贡献,它就只有死路一条。

然而,一旦人类失去对物联网的功能重要性,我们就会发现,原来我们不是创造物的顶点。我们自己所承认的标尺,将把我们放入猛犸象和中华白鱀豚的序列。回头来看,人类将成为宇宙数据洪流中的(曾经有过的)一道涟漪。

(本文作者系法国历史学博士)

本文来自网络,不代表头条在线-头条新闻网立场。
上一篇全球军费暴涨!中国军费只增长7.2%,会不会太少了?
下一篇 工人日报:稳就业,从拆除一道道“就业门槛”开始
头条新闻网

来源: 欧时大参

本文来源于欧时大参。包含文章,图片,视频等资源归属于原作者所有。如有侵权请联系gridf@126.com处理。紧急处理联系电话:15144810328

为您推荐

评论列表()

    联系我们

    联系我们

    0898-88888888

    在线咨询: QQ交谈

    邮箱: email@wangzhan.com

    工作时间:周一至周五,9:00-17:30,节假日休息

    关注微信
    微信扫一扫关注我们

    微信扫一扫关注我们

    关注微博
    返回顶部