尤瓦尔 · 赫拉利 | 为什么当前所有AI监管都很天真

AI传媒π

06-06 15:57

摘要

尤瓦尔·赫拉利提出“人工智能的关键问题在于它不是邪恶的

【编者导语:从《人类简史》《未来简史》等现象级畅销书到2024年新作《智人之上》,以色利著名历史学家、哲学家尤瓦尔·赫拉利的作品和观点一直备受关注。     

关于如何看待人工智能,如何理解人工智能?尤瓦尔·赫拉利提出“人工智能的关键问题在于它不是邪恶的。关键问题在于它是异类的...人工智能是有史以来人类创造的第一个作为代理者而非工具的技术...”     

人工智能的价值、作用及其与人类的关系,很难做简单的定论,人工智能在发展过程中体现了一定的矛盾性。转载一篇来自“东方学刊PDU”文章,看看尤瓦尔·赫拉利对人工智能的理解与阐述。】

伊藤公平:非常感谢您来到东京庆应义塾大学。我们只有30分钟,所以我会向您抛出一连串问题。当然,第一个问题给您。

大约四年前,我在大学图书馆设立了一个书架,展示了现任校长推荐的必读书籍,而您的著作《21世纪的21堂课》占据了展台的中心位置。那是六年前的事了。您出版了《21世纪的21堂课》,在书中您提到了三大全球性威胁。第一,核战争;第二,生物技术的无节制发展,包括影响人类的基因编辑;第三,IT或信息网络与人工智能。在某种程度上,它是未受制约的。所以这些是您提出的三大威胁,但在《Nexus》一书中,您只专注于IT网络、信息网络和人工智能。您能给我解释一下这背后的原因吗?

尤瓦尔 · 赫拉利:如果您比较人工智能和生物技术,最明显的一点是人工智能发展得快得多。生物技术也能以戏剧性的方式改变世界,但它需要更长的时间,因为生物学的进程要慢得多。比如,如果您对人类基因组做出改变,比如说对一个人类婴儿的基因组,并且想知道其影响以及未来如何做出更大的改变,您需要等待20、30、40年才能看到新的遗传物质、新的遗传密码对人类行为、人类智力、人类心理的影响。所以,在生物技术领域,当涉及到人类时,一代人可能是20或30年。而在人工智能领域,可能只需要几天。数字进化的速度比有机进化快数百万倍。因此,我并非轻视生物技术的潜在危险和机遇,只是人工智能的速度要快得多。

至于将人工智能与核战争的威胁相比较,之所以关注人工智能,其实有两个原因。首先,核战争没有任何好处。所以它没有支持者,每个人都明白。这是一个巨大无比的威胁,尤其在当今世界。但至少每个人都理解这种危险。核战争中没有赢家。而对于人工智能,这是一个复杂得多的挑战,因为它具有巨大的积极潜力。人们发现很难理解其威胁所在。

自从广岛和长崎被轰炸以来,人类至少清楚核技术的危险是什么。你不需要冗长的解释。而对于人工智能,则很难把握其危险性,因为它确实是一种异类的威胁。

人工智能的关键问题不在于它是邪恶的。它不是邪恶的。关键问题在于它是异类的。它是一种在很多方面可能超越人类的智能,但它不是人类的,也不是有机的。很多人问人工智能何时能达到人类水平的智能?答案是永远不会,因为它和我们完全不同,这就像问飞机何时能达到鸟类的飞行水平一样?永远不会。飞机和鸟类根本不一样,它们的飞行方式不同。所以人工智能会超越人类智能,但它本质上是异类的,因此很难预测它将如何发展以及会带来什么后果。

我再说一点,这可能是每个人理解人工智能最重要的一点,那就是它不是一个工具。它是一个代理者(agent)。这是我们有史以来创造的第一个作为代理者而非工具的技术。

原子弹或用于发电的和平核反应堆,这是一个掌握在我们手中的工具,我们决定用它做什么,我们决定,人类决定,哦,我们将使用核技术来发电,而不是摧毁城市。我们做出决定。反应堆本身不能做出任何决定,当然,它也不能发明下一代反应堆或炸弹。直到现在,只有人类能够做出决定并发明新的想法。人工智能是第一种可以在没有我们帮助、没有我们干预的情况下做到这一点技术。人工智能可以自行做出决定。人工智能武器不需要人类告诉它该做什么。它可以自行决定轰炸什么,人工智能甚至可以发明新的武器和新的军事战略。

它同样具有巨大的积极潜力。它可以发明新药、新的癌症治疗方法,它也具有巨大的消极潜力。因此,我选择在这本书中只关注信息技术的历史,因为我认为在当前时刻,这是我们面临的最大挑战。实际上,在很多方面,这是人类历史上所面临的最大挑战,因为数千年来,我们统治着地球,地球上没有任何东西能在智能、在发明新事物的能力上与我们竞争。现在地球上出现了一些东西,一些在地球上的东西,很快,也许几年之内,就会在智能上超越我们。它将能够对我们的生活做出决定。它是否能够发明从药物到武器的一切新事物?这就是最大的挑战。

伊藤公平:您刚才说也许几年之内,但早在2015年,您就出版了《未来简史》(Homo Deus)。在那里,您也曾警告,实际上也专注于信息网络。您现在如何看待,与您2015年撰写《未来简史》时的想法相比,您有何感想?十年了,您最初是一名历史学家和中世纪军事专家,现在您专注于信息网络和人工智能,您如何比较过去十年中您的发展?

尤瓦尔 · 赫拉利:是的,我认为十年前我写《未来简史》的时候,所有这些讨论,我的意思是,当时很少有人谈论人工智能。当然,在计算机科学系有一些人,在像谷歌和微软这样的领先公司里也有人已经理解了正在发生的事情。还有少数像尼克·博斯特罗姆(Nick Bostrom)这样的哲学家,他在2014年出版了《超级智能》。但是当我写《未来简史》的时候,感觉就像,哦,我们谈论的是可能几百年后才会发生的事情,一些哲学上的推测,对我们的生活几乎没有什么直接的实际影响。

现在它无处不在,发展的速度简直令人震惊。你知道,早在那个时候,就有人像雷·库兹韦尔(Ray Kurzweil)那样说,将会出现人工通用智能(AGI),能够在所有领域超越人类,而不仅仅是在下棋或开车等狭窄领域,而是在所有领域。他们说在本世纪20年代末,到2029年。即使对我来说,当我读到雷·库兹韦尔的说法时,我也觉得,哦,他夸大了。不可能到2029年。现在雷·库兹韦尔仍然说2029年,他被认为是更保守的思想家之一。比如你听听那些在美国、在中国领导公司研发工作的人,他们谈论的是在一年内、五年内,我们将拥有AGI。所以它急剧加速了。另一件事是,所有关于监管此事、就此事达成某种协议的希望,现在看来都极其天真,当然,自从上次美国大选以来,我认为就如何管理人工智能发展风险达成全球协议的所有希望都已破灭。

我认为人工智能革命的核心存在一个巨大的悖论,那就是信任的悖论。当你与领导人工智能革命的人交谈时,那些运营像OpenAI、微软、腾讯、百度这样的公司的人,当你与重要的政治家交谈时,我总是问他们两个问题。我问的第一个问题是,你们为什么进展这么快?好的,我理解有巨大的积极潜力,但也有风险。让我们放慢一点,给人类社会一些时间,人类是适应性极强的生物,我们可以适应人工智能时代,但我们只是需要时间,请给我们多一点时间。他们都说同样的话。我们理解存在巨大的风险,甚至可能导致人类灭绝。我们理解这一点,我们想放慢速度,但我们不能,因为如果我们放慢速度,而我们在其他公司、其他国家的竞争对手不放慢速度,他们就会赢得竞赛,然后最冷酷无情的人将主宰世界,因为他们将拥有人工智能这项奇妙的技术。所以,因为我们不能信任其他人类,我们必须更快地行动。

然后我问第二个问题,你认为你能信任你正在开发的超级智能AI吗?他们说能。 那些一分钟前告诉我,“我们不能信任其他人类的人”,突然间他们变得极其值得信赖。他们说,但是我们能够信任AI。这真的濒临疯狂的边缘,因为,你知道,对于人类,我理解为什么很难信任其他人类,但我们与其他人类相处有数千年的经验,我们了解他们的心理、他们的动机,我们对人类对权力的渴望了解很多,但我们也理解制约权力追求的机制。数千年来,人类已经发展出学会相互信任的方法。而现在,一万年前或十万年前,人类生活在只有几十个人的小群体中,无法信任群体之外的任何人。全球贸易网络连接着地球上所有80亿人。我们吃的食物、穿的衣服、保护我们的药物,通常是由地球另一端的陌生人生产的。

所以,如何信任他人仍然是一个巨大的问题。但我们有这方面的经验。我们对超级智能AI没有任何经验。我们不知道它们可能会发展出什么样的目标和伎俩。我们不知道当数百万个超级智能AI相互作用,并与数百万人类相互作用时会发生什么。

工智能不是某个地方的一台大型计算机,它将会是,把它想象成席卷整个世界的移民浪潮。现在所有这些民粹主义政党都非常害怕移民。哦,移民会来,移民会抢走我们的工作,移民有他们对文化有不同的看法,他们会占领我们的国家,他们会改变我们的文化,我们非常害怕。人工智能是一波数百万外来移民的浪潮,他们会抢走人们的工作,我们对如何管理社会有截然不同的想法,他们可能会接管国家。这应该更让人们感到害怕。

所以这就是那个巨大的悖论。最大的问题是,在我们开发出超级智能AI之前,如何在人类之间建立信任?

伊藤公平:所以你谈论的是人类与,比如说,自主AI或任何AI代理之间的信任,是的,但也包括所谓的精英与所谓的普通公民之间的信任,这种分裂正在扩大。你在《Nexus》中提到,他们试图利用AI作为一种工具,而不是代理者,但目前是作为工具,其后果将是未知的,正如你所提到的。那么,你如何看待所谓精英与民粹主义一代之间的信任或分裂?

因为您的书可能主要由所谓的精英阶层阅读,但我想知道这本书对普通公众有多大影响,因为这正是我们所需要的,您试图在这两个分裂的群体之间架起桥梁,以缩小分歧。

尤瓦尔 · 赫拉利:嗯,就像我们头脑中发明的许多分歧一样,这种分歧也是一种错误的二分法,比如精英和普通人。

你知道,世界上最富有的人马斯克和一群其他亿万富翁,比如唐纳德·特朗普,他也是亿万富翁,声称他们反对精英。如果这些人不是精英,那什么是精英?比如世界上最富有的人不是精英。所有这些亿万富翁现在都在管理美国政府。哦,他们不是精英,为什么?我的意思是,“精英”这个词已经变成了一个负面术语,你只是把它用在你的政治对手身上。事实是,每一个人群都有精英,我的意思是,你无法管理任何人群,即使是一个足球俱乐部也不行,你总会有些人在这方面更有天赋,或者拥有更多权力或影响力。这只是人类社会的本质。

问题不在于精英的存在。要问的主要问题是,这是一个服务型精英还是一个自私自利型精英?如果你有一个群体,从一小群朋友一直到一个国家乃至整个地球,而那些拥有最大影响力的人,他们只为自己的利益使用权力,这是一种非常糟糕的情况。我认为,特别是对于像这样的机构和所有大学来说,目的不是摧毁精英或打破所有这些群体之间的壁垒。目的是培养服务型精英,是的,那些在特定领域更有天赋的人,他们在那个特定领域有更大的影响力,他们利用自己的才能和权力不仅仅是为了个人利益,而是为了所有人的利益。这应该是目标。

伊藤公平:您在《Nexus》中也谈到了生活在网络空间与物理空间的人们之间的分歧。而且,越来越多的人现在生活在网络空间。像我们这样的教育机构,以及K12中小学教育,应该如何应对年轻一代阅读这种大部头书籍的挑战?这些发人深省的书籍让我们思考,也会引发讨论。但这正变得越来越困难。那么教育的作用是什么?

尤瓦尔 · 赫拉利:基本上是维持人类的智力能力。是的,我的意思是,在以前的时代,教育机构专注于向人们提供信息,因为信息是稀缺商品。也许你住在一个遥远的小镇,镇上只有一个图书馆,只有100本书。所以仅仅得到一本书就非常困难。现在情况正好相反。人们不需要更多的信息。我们被海量的信息淹没,最主要需要理解的是,信息并非真相。

真相是信息中一个非常罕见的子集。如果你想想世界上所有的信息,那么真相只占其中非常非常小的百分比。大多数信息是垃圾,大多数信息是虚构、幻想、谎言和宣传等等,这很容易理解为什么真相是昂贵的,而虚构是廉价的。

如果你想写一篇关于任何事情的真实记述,你需要做研究,你需要花时间分析它,核查事实。这需要时间和精力以及金钱。虚构非常廉价,你只需写下脑海中出现的任何东西,非常廉价。其次,真相往往是复杂的,因为现实是复杂的。比如,如果你想写一篇关于量子物理学的文章,它就很复杂。而人们通常不喜欢复杂的叙事,他们想要简单的故事。同样,虚构可以被做得像你希望的那样简单,因为你只是在编造它。

最后,真相往往是痛苦的,并非总是如此,但现实的某些部分是令人不舒服的,你知道,从个人层面来说。这就是为什么人们会去接受心理治疗,因为如果关于我的一切都是那么愉快和有趣,我就不需要治疗师来帮助我承认那些痛苦的记忆或我内心深处痛苦的模式。对于整个国家来说也是如此,它们往往不想承认其历史或社会中一些痛苦的部分。所以真相有时是痛苦的,而虚构可以被做得像你希望的那样讨人喜欢。

此,在这场昂贵、复杂且痛苦的真相与廉价、简单且吸引人的虚构之间的竞争中,虚构获胜了,世界被海量的虚构所淹没。

像大学、报社这样的机构的任务,不仅仅是向人们提供更多的信息。他们已经拥有太多信息了。而是为他们提供一种方法,在信息的海洋中找到那些罕见的真理瑰宝,并知道如何辨别真伪。

所以,你知道,作为一名历史学家,我在历史课上教给学生的主要东西不是关于过去的史实。哦,这位国王在那一年打败了那位国王。他们不需要我。他们可以直接网络搜索。他们在历史系仍然需要学习的是,我如何区分可靠的历史资料和不可靠的资料?

一份历史资料,也许是我今天刚在网上读到的东西?我怎么知道我是否可以相信这个TikTok视频?这份资料也可能来自中世纪。你找到一份1000年前的文件。你怎么知道国王写了他赢得了这场战役?你怎么知道是否该相信,因为人们在1000年前也撒谎,不仅仅是今天。但这是主要问题,当然,在每个科学领域都略有不同。但关键问题不是获取更多信息,而是我们如何区分可靠和不可靠的信息?在物理或化学实验中也是如此,我怎么知道这个实验是否正确进行,我是否可以相信结果,还是存在一些问题,我不应该相信它?

伊藤公平:您说真相有时可能是痛苦的,的确,阅读《Nexus》至少给我带来了各种各样的情绪。但同时,它也给了我希望,现在还为时不晚。而且人类天性中具有自我纠错的能力,也有合作、共同努力的能力。只要我们有时间,我想在AI发展到别处之前,我们应该有办法应对这个问题。这就是为什么,正如山本教授所说,我们成立了所谓的跨尊严中心(Cross Dignity Center),我们人文学科和社会科学的教授、学者们聚集在一起,正是为了解决这个问题。如果您是我们跨尊严中心的研究科学家,您的研究课题会是什么?

尤瓦尔 · 赫拉利:如何在人类之间建立信任?我认为这是最紧迫的,因为我们现在在世界上看到的是人类信任的崩溃,而这恰恰发生在我们最需要它的时候。世界上最大的危险仍然不是人工智能,而是人类之间的不信任。如果人类能够相互信任并合作,我们仍然可以设计出安全发展人工智能的方法。正是人类之间的不信任使得人工智能革命如此危险。所以我将专注于此。现在在人类之间建立足够的信任以控制人工智能还为时不晚。

伊藤公平:您会采取什么方法来应对这个挑战?

尤瓦尔 · 赫拉利:建立信任?我认为我们需要多方面的投入。这就是为什么一个跨学科中心是做这件事的理想场所,因为没有任何一个学科可以单独解决这个问题。你需要生物学和心理学的知识,因为我们仍然是动物。你需要了解我们的动物遗传,你可以从例如黑猩猩如何建立信任或未能建立信任中学到很多东西。

要理解人类如何运作,你需要经济学的知识,当然还有计算机科学的知识,因为今天所有的社会系统都基于新的信息技术。因此,许多关于如何在人类之间建立信任的、直到大约10到20年前都非常成功的经验教训现在已经过时了,因为现在人类通过计算机进行交流。如果我们不理解这种现在正在我们之间起中介作用的新技术,并且关于过去10到20年间是什么导致了人类信任的这种崩溃,存在着巨大的讨论。

这又是一个悖论,因为人类正处于有史以来最好的状态。你看看大多数硬数据,比如儿童死亡率、疾病、饥荒,都在下降。我们处于有史以来最好的境况。然而人们却如此愤怒、如此沮丧,无法相互交谈,发生了什么?发生的是一种新技术介入了人类之间,现在大多数人类交流都是由一个非人类的代理者(agent)介导的,这正在世界范围内造成混乱。所以要重建信任,我们不能倒退,我们不能说,好吧,让我们扔掉所有的智能手机和电脑,这行不通。所以我们需要重新学习如何在信息技术的这种中介作用下,在大量人群之间建立信任。

伊藤公平:您的书非常易读,与学术写作截然不同。可以说,您是刻意这样做的吗?

尤瓦尔 · 赫拉利:当然,我认为我的工作是在学术研究的世界之间搭建一座桥梁。

我们通常是专家与其他专家用一种对于没有学术背景的普通人来说很难理解的语言进行交流。所以我试图将学术界和科学界最新的理论、模型和发现,用一种即使是高中生或任何想要了解这场人工智能革命是什么的人都能轻易理解的方式来转述和解释。我从未学过计算机。我不想看到所有这些图表和方程式。我能用简单的语言理解人工智能革命是什么以及信息的历史是什么吗?所以这就是写这本书的目的。

伊藤公平:您觉得您的努力在多大程度上渗透到了那些生活在网络空间的人群中?

尤瓦尔 · 赫拉利:这很难知道。

伊藤公平:我的意思是,你写了一本书,把它推向世界,它对人们究竟会产生什么影响。

尤瓦尔 · 赫拉利:在十年前《未来简史》出版的同时,我和另一个人成立了一家社会影响力公司。我负责写书,他负责所有的商业方面。我们有一个20人的团队为我们工作。其中一位在东京,我们有社交媒体账户,并试图将书中的想法转化为越来越多的媒体形式,以便它们能够触及越来越多的人。但这是否足够,我们不知道。

我的意思是,我们觉得每个人在世界上都有一些微小的能动性。我们努力做我们能做的事,并相信其他人也会做他们能做的事。没有人能独自承担整个世界的重担。如果有足够多的人在他们各自的小领域里尽其所能,我想我们会没事的。

伊藤公平:所以非常感谢您。这真是太棒了,我们非常高兴您能来。非常感谢

作者|尤瓦尔 · 赫拉利

*本文节选自东京庆应义塾大学讲座记录,作者系牛津大学历史学博士、剑桥大学特聘研究员。


免责声明
本文由【读特】深圳号入驻单位发布,不代表【读特】的观点和立场。如有侵权,请联系我们核实后删除!联系邮箱:2207482831@qq.com 。

读特热榜

IN视频

鹏友圈

首页