《人類簡史》作者尤瓦爾:當今世界最大的危險是人類互不信任,卻信比碳基生命進化快百萬倍的AI,我們拒絕真相,因為它昂貴複雜和痛苦

《人类简史》作者尤赫拉利·尤瓦尔的官方频道这周放出了春季在东京庆应义塾大学所做的一场讲座,主持人是庆应义塾大学校长伊藤公平(Kohei Itoh)。对了一下时间,我想应该为了宣传他新书《智人之上》日文版而组织的活动。

图片

赫拉利·尤瓦尔应该不需要更多介绍了,他是一位以色列历史学家,写了《人类简史》、《未来简史》及《今日简史》(21 Lessons for the 21st Century)等一系列畅销书。在六年前出版的《今日简史》中,他指出了三大全球性威胁:核战、不受控制的生物技术发展(包括影响人类本身的基因编辑),以及信息技术(IT)网络与人工智能的失控。在2019年谈人工智能的威胁,显得有点杞人忧天,但在大模型时代再回顾,就有点未卜先知的味道了。

在讲座中,他认为当年的三大威胁,核威胁和生物威胁现在看来风险没有那么大,但是AI风险优先级要高得多。不管他说的对不对,尤瓦尔也是知行合一的人,根据公开资料,截至2021年5月,他都没用过智能手机。就像我们之前所说的,谈AI机遇的人更多,谈AI风险的人更少,目前为止我们所发的这方面内容,就只有辛顿和约书亚·本吉奥(Bengio)。

一、AI何以成为最优先议题

图片

伊藤公平在开场提出的问题是:为何尤瓦尔在新书《智人之上》中,将主要火力集中在了信息网络与AI之上,相较于同样具有颠覆性的生物技术和持续存在的核战争威胁,其优先级的调整是基于何种考量?  

尤瓦尔的回答非常清晰。他首先比较了AI与生物技术。虽然两者都能给世界带来戏剧性的改变,但AI的发展速度远超生物技术。生物技术的变革周期漫长,因为“生物学本身就慢得多” 。他举例说明,对人类基因组进行修改,例如针对一个婴儿,想要观察其影响并据此进行未来的更大改变,可能需要等待二三十年,甚至四十年,才能评估新的遗传物质对人类行为、智力、心理的具体作用 。因此,生物技术领域,尤其涉及人类时,其“代际”周期可能是20到30年 。相比之下,AI的迭代速度快得惊人,“可能仅仅几天” 。他指出:“数字进化比有机进化快数百万倍。” 这就决定了,尽管生物技术的潜在危险与机遇不容小觑,但AI因其迅猛的发展态势而显得更为紧迫 。  

接着,尤瓦尔将AI与核威胁进行了对比。他认为,之所以更聚焦于AI,主要有两个原因。其一,核战没有任何积极意义可言,因此也没有支持者 。自1945年以来,国际体系中最大的禁忌便是强国不能仅仅因为自身强大就入侵、试图征服并摧毁弱国 。如今,这一禁忌已被打破,但至少所有人都明白其危险性,“核战争中没有赢家” 。  

而AI则是一个更为复杂的挑战,因为它拥有巨大的积极潜力,这使得人们很难充分理解其潜在威胁。尤瓦尔提到,自广岛和长崎原子弹爆炸以来,核技术的危险性对人类而言是清晰可见的,无需过多解释 。但AI的危险则难以把握,因为它是一种“异类的威胁”(alien threat) 。

他强调,AI的核心问题不在于它是邪恶的——“它并非邪恶” ——而在于它的“异类性” 。这是一种在许多方面可能超越人类的智能,但它并非人类智能,也非有机智能。很多人问AI何时能达到人类水平的智能,尤瓦尔的回答是“永远不会”,因为它与我们完全不同。他巧妙地比喻道:“这就像问飞机何时能达到鸟类的飞行水平。答案是永远不会。飞机和鸟类完全不同,它们以不同的方式飞行。” 因此,AI将超越人类智能,但其本质上将是异类的,这使得预测其发展轨迹和后果变得极为困难。  

更进一步,尤瓦尔抛出了一个关于AI最核心、也最需要被大众理解的观点:“它不是一个工具(tool),它是一个能动者(agent)。” 这是人类有史以来创造的第一项作为能动者而非单纯工具的技术。无论是原子弹还是用于发电的和平核反应堆,它们都是人类手中的工具,由人类决定如何使用它们——是用于发电,还是摧毁城市,决定权在人类手中,反应堆本身无法做出任何决定,更遑论发明下一代反应堆或炸弹。

直到现在,只有人类能够做出决策和创造新思想 。而AI,是第一种可以在没有人类帮助和干预的情况下做到这些的技术 。AI可以自行决策,AI武器不需要人类指令就能自行决定轰炸目标,甚至可以发明新的武器和军事策略 。它既拥有巨大的积极潜力,例如发明新药、治疗癌症,也拥有巨大的消极潜力。正因如此,尤瓦尔选择在他的新书中专注于信息技术的历史,因为他认为在当前时刻,这是我们面临的最大挑战,甚至在很多方面是“人类历史上所面临的最大挑战” 。数千年来,人类统治着地球,地球上没有任何事物能在智能和创新能力上与我们竞争 。但现在,地球上出现了一种可能在几年内就会在智能上超越我们、能够决定我们生活、能够发明从药物到武器等一切新事物的存在 。这,便是最大的挑战所在 。  

二、十年间的认知演进:从远期推测到近在眼前的现实

伊藤注意到,尤瓦尔教授早在2015年出版《未来简史》(Homo Deus)时,便已对信息技术和信息网络发出了警告,并予以了重点关注 。他好奇地追问,与十年前撰写《未来简史》时的思考相比,尤瓦尔教授现在的想法有何演变?这十年间,从一位历史学家、中世纪军事专家转而聚焦于信息网络与AI,其个人的思想发展轨迹又是怎样的?  

尤瓦尔坦言,十年前撰写《未来简史》时,谈论AI的人还非常少 。当然,计算机科学领域、谷歌和微软等顶尖公司的内部人士已经预见到了一些趋势,也有像尼克·博斯特罗姆(Nick Bostrom)这样的少数哲学家(其著作《超级智能》Superintelligence 出版于2014年)在进行探讨 。但在当时,撰写关于AI的内容感觉更像是在讨论“可能数百年后才会发生的事情,一些哲学上的推测,对我们生活的直接实际影响微乎其微” 。  

然而,时至今日,AI已无处不在,其发展速度简直“令人震惊” 。尤瓦尔忆及,当时已有像雷·库兹韦尔(Ray Kurzweil)这样的人物预测,到2020年代末,大约2029年,将会出现AGI(通用人工智能),能够在所有领域超越人类,而不仅仅是在下棋或驾驶汽车等狭窄领域 。即便是尤瓦尔本人,在读到库兹韦尔的预测时,也曾认为“哦,他太夸张了,不可能是2029年” 。但现在,库兹韦尔仍然坚持2029年的预测,而他甚至被认为是“较为保守的思想家之一” 。听听那些领导中美两国大型企业AI研发的人们的说法,他们谈论的是在一年、五年内实现AGI。AI的发展进程显著加速了 。  

另一个显著的变化是,所有关于监管AI、就此达成某种协议的希望,现在看来都“极其天真” 。尤瓦尔认为,尤其是在最近一次美国大选之后,“达成一项关于如何管理AI发展风险的全球协议的希望,基本上已经破灭了” 。  

这引出了AI革命核心处的一个巨大悖论——信任的悖论 。尤瓦尔在与领导AI革命的那些人,比如OpenAI、微软、腾讯、百度等公司的负责人,以及主要政治家交流时,总是会问他们两个问题 。第一个问题是:“你们为什么发展得这么快?” 尤瓦尔表示理解AI巨大的积极潜力,但也清楚存在风险,因此他建议“让我们稍微放慢一点,给人类社会一些时间。人类是适应性极强的生物,我们可以适应AI时代,但我们需要时间。请给我们多一点时间。”  

而这些领导者的回答几乎如出一辙:“我们理解存在巨大风险,甚至可能导致人类灭绝。我们理解这一点。我们愿意放慢速度,但我们不能。因为如果我们放慢了,而我们在其他公司、其他国家的竞争对手不放慢,他们就会赢得这场竞赛,然后那些最冷酷无情的人将主宰世界,因为他们将拥有AI这项奇妙的技术。” 结论就是:“因为我们无法信任其他人类,所以我们必须更快地发展。”  

然后,尤瓦尔会问第二个问题:“你们认为自己能够信任正在开发的超级智能AI吗?” 他们的回答是:“是的。” 尤瓦尔对此感到不可思议:“那些一分钟前还告诉我他们无法信任其他人类的人,突然之间变得非常容易信任,他们说但是我们能够信任AI。” 他直言,这简直“濒临疯狂的边缘” 。因为对于人类,他理解为何难以相互信任,但毕竟我们与其他人类打交道已有数千年的经验,了解他们的心理和动机。我们深知人类对权力的渴望,但也明白制约权力追逐的机制 。

数千年来,人类发展出了学习互信的方法。从一万年或十万年前生活在几十人小部落、无法信任部落外任何人的状态,发展到如今像日本这样拥有数亿公民能够互相信任的国家 。全球贸易网络连接着地球上所有的80亿人,我们吃的食物、穿的衣服、保护我们的药物,往往是由地球另一端的陌生人生产的 。所以,尽管信任他人仍然是一个巨大的问题,但我们在这方面拥有经验 。  

然而,对于超级智能AI,我们“毫无经验” 。我们不知道它们可能会发展出什么样的目标和伎俩 。我们不知道当数百万个超级智能AI相互作用,并与数百万人类互动时会发生什么。AI并非某个地方的一台大型计算机,更应将其视为“一场席卷全球的移民浪潮” 。他认为:“AI是一波数百万异类移民的浪潮,它们将夺走人们的工作,它们将拥有截然不同的关于如何管理社会的想法,它们可能会接管国家。这应该更让人们感到恐惧。”  

因此,这便是巨大的悖论所在。核心问题在于:“在我们开发出超级智能AI之前,如何在人类之间建立信任?”  

三、精英与大众的信任鸿沟:谁的精英,为谁服务?

谈及信任,伊藤进一步引申,不仅是人与AI代理(AI agents)之间的信任,所谓“精英”与“普通民众”之间的信任鸿沟也在不断扩大。他关心的是,尤瓦尔教授的著作可能更多地被所谓的“精英阶层”阅读,那么这些深刻的思考在多大程度上能够影响普通大众?毕竟,弥合这两个分裂群体之间的鸿沟至关重要。  

图片

尤瓦尔回应道,如同我们头脑中发明的许多分歧一样,“精英”与“人民”之间的这种划分也是一种“错误的二分法” 。他以世界上最富有的人,如马斯克,以及其他一些亿万富翁,这些人本身就是亿万富翁,却声称他们反对精英 。尤瓦尔反问道:“如果你不是精英,那么什么是精英?难道世界上最富有的人不是精英吗?所有这些现在执掌美国政府的亿万富翁,哦,他们不是精英。为什么?” 他认为,“精英”这个词已经变成了一个负面标签,人们只是用它来攻击对手 。  

事实是,“每一个人群都有其精英” 。尤瓦尔强调,管理任何人群,哪怕是一个足球俱乐部,都离不开精英 。社会中总会有一些人在某些方面更有才华,或拥有更多权力与影响力,这是人类社会的本质。问题不在于精英的存在与否,关键在于“这是一个服务型精英(serving elite)还是一个自私自利型精英(self-serving elite)?”  

他解释说,在一个群体中,无论是小到朋友圈,还是大到整个国家乃至全球,如果那些最具影响力的人仅仅为了自身利益而使用权力,那将是非常糟糕的局面。理想的情况是,那些在特定领域更有才华、更具影响力或权力的人,能将其用于社会的福祉 。那种认为可以建立一个没有任何精英的社会的幻想“从来都行不通”,它往往是一些人借以攫取权力的伎俩。

尤瓦尔认为,尤其是对于庆应这样的高等学府以及所有大学而言,其目的“不是摧毁精英,也不是打破群体间的壁垒”,而是“培养服务型精英” 。即那些在特定领域拥有更多才干和影响力的人,能够运用他们的才智和权力,不仅仅为了个人利益,更是为了所有人的福祉 。这才是应该追求的目标 。  

四、信息洪流时代的教育使命:从知识传授到辨伪存真

对话自然而然地延伸到了教育在应对AI时代挑战中的作用。伊藤提到尤瓦尔在书中谈到的生活在网络空间与物理空间的人群之间的分化,以及越来越多的人沉浸在网络空间,习惯于接收碎片化信息(如280字符以下的推文)的现象。

他忧虑地问道,像庆应这样的高等教育机构,以及中小学等基础教育阶段,应如何应对这一挑战,确保年轻一代仍有能力阅读像尤瓦尔著作那样引人深思、激发讨论的长篇内容?在这个信息获取日益便捷,但深度思考能力面临考验的时代,教育在维持人类智力水平方面扮演着怎样的角色?  

尤瓦尔指出,在以往的时代,教育机构的核心任务是向人们提供信息,因为信息是稀缺的 。他描绘了这样的场景:生活在偏远小镇的人们,镇上可能只有一个藏书仅百本的图书馆,获取一本书都非常困难 。而现在,情况恰恰相反,人们不再缺乏信息,而是被海量信息所淹没 。最关键的一点是需要理解:“信息并非真相(truth)。”  

“真相是信息中一个非常罕见的子集。”尤瓦尔强调道 。如果审视世界上所有的信息,真相所占的比例微乎其微 。大部分信息是“垃圾信息、虚构、幻想、谎言和宣传等等” 。其原因不难理解。首先,“真相是昂贵的,而虚构是廉价的。” 撰写一篇真实的记述,需要进行研究,花费时间分析和核查事实,这需要时间、精力 和金钱 。而虚构则非常廉价,只需将头脑中闪现的任何想法写下来即可 。  

其次,“真相往往是复杂的,因为现实是复杂的。” 比如,要撰写一篇关于量子物理学的论述,其本身就很复杂 。而人们通常不喜欢复杂的叙事,他们偏爱简单的故事 。虚构则可以根据需要被编造得尽可能简单 。  

最后,“真相常常是痛苦的。” 并非总是如此,但现实的某些部分确实令人不适 。从个人层面看,这就是人们需要心理治疗的原因——如果关于自身的一切都那么愉悦有趣,就不需要治疗师来帮助我们承认那些痛苦的记忆或内在的痛苦模式了 。这一点也适用于整个国家,国家也常常不愿承认其历史或社会中某些痛苦的部分 。因此,真相有时是痛苦的,而虚构则可以被塑造得随心所欲般美好动听 。  

在这场“昂贵、复杂且痛苦的真相”与“廉价、简单且诱人的虚构”之间的竞争中,虚构往往胜出,导致世界充斥着海量的虚构内容。因此,像大学、报社这样的机构,其任务不再仅仅是向人们提供更多信息——他们已经拥有太多信息了——而是要“为他们提供一种方法,在信息的海洋中找到那些罕见的真理宝石,并知道如何区分两者。”  

作为一名历史学家,尤瓦尔在历史课上教给学生的主要内容,并非关于过去的具体史实,比如某位国王在哪一年战胜了另一位国王 。这些信息学生们通过网络搜索轻易就能获得。他们真正需要在历史系学习的是:“如何区分可靠的历史来源和不可靠的历史来源。” 一个来源可能是我今天在互联网上读到的东西——我如何知道能否信任这个TikTok视频?一个来源也可能来自中世纪,比如一份千年前的文件,记载着某位国王宣称赢得了一场战役——你如何判断是否应该相信?因为一千年前的人们也会撒谎,不仅仅是今天的人们。这才是核心问题。  

当然,在每个科学学科中,这个问题会略有不同,但关键都不在于获取更多信息,而在于“我们如何区分可靠信息和不可靠信息?” 物理学或化学实验也是同理:我如何知道这个实验操作正确、结果可信,还是存在问题、不应采信其结果?  

五、重建信任的迫切性:在AI完全成熟前与时间赛跑

伊藤提到,阅读尤瓦尔的新书(Nexus)虽然带来了复杂的情感体验,甚至有些痛苦,但也同时给予了他希望——事情尚未到无法挽回的地步 。人类拥有自我纠错和合作的能力,只要我们有足够的时间,在AI发展到某个临界点之前,或许能找到应对之道 。正是基于这种考量,庆应大学成立了“X尊严中心”(Cross Dignity Center),旨在召集人文社科学者共同应对这一挑战 。他随即向尤瓦尔抛出了一个引人入胜的假设性问题:“如果您是我们跨尊严中心的研究员,您的研究课题会是什么?”并热情邀请尤瓦尔随时加入 。  

尤瓦尔的回答直截了当:“如何在人类之间建立信任。” 他认为这是“最为紧迫的”课题,因为当前世界正目睹着人类信任的瓦解,而这恰恰发生在我们最需要信任的时刻。他强调:“当今世界最大的危险仍然不是AI,而是人类之间的不信任。” 如果人类能够互相信任并合作,我们仍然可以设计出安全发展AI的方法 。正是人类间的不信任,使得AI革命变得如此危险 。因此,他会聚焦于此,并相信“现在建立足够的人类互信以控制AI还为时不晚。”  

那么,具体应如何着手应对这一挑战呢?尤瓦尔认为,这需要多学科的投入,这也是为何一个跨学科中心是理想的研究场所,因为没有任何单一学科能够独立解决这个问题。我们需要生物学和心理学的视角,因为我们仍然是动物,需要理解自身的动物性传承——例如,从黑猩猩如何建立或未能建立信任中,可以学到很多关于人类行为的理解 。当然也需要经济学、计算机科学的参与,因为当今所有的社会系统都建立在新的信息技术之上 。许多在过去十年、二十年间非常成功的人类信任建立方法,如今可能已经过时,因为现在人类通过计算机进行交流。  

关于过去一二十年间人类信任崩溃的原因,存在着巨大的讨论。这本身又是一个悖论,因为从很多硬数据来看,如儿童死亡率、疾病、饥荒等,人类社会正处于有史以来最好的状态 。我们处于前所未有的最佳境况,然而人们却如此愤怒、沮丧,无法相互沟通 。尤瓦尔认为,原因在于“一种新技术介入了人类之间” 。现在,大多数人类交流都由一个非人类的代理者(指信息技术、社交媒体算法等)所中介,这在世界上造成了混乱 。要重建信任,我们无法回到过去,不能简单地说“让我们扔掉所有的智能手机和电脑”,这行不通。因此,我们需要“重新学习如何在信息技术的调解下,在广大民众之间建立信任。”  

六、弥合学术与大众:清晰易懂的表达与社会影响力构建

伊藤对尤瓦尔著作的易读性给予了高度评价,指出其风格与通常的学术写作大相径庭,并询问这是否是尤瓦尔有意为之 。  

尤瓦尔明确表示“绝对是” 。他将自己的工作视为在学术研究世界与公众之间“搭建一座桥梁” 。学术界通常是专家与专家之间用普通人难以理解的语言进行交流 。他努力做的,是将学术和科学界最新的理论、模型和发现,用一种即使是高中生或任何想了解AI革命的普通人都能轻易理解的方式来转述和解释。他设想的读者可能是那些没有计算机专业背景,也不想看懂各种图表和方程式,但希望用简单的语言理解AI革命和信息历史的人 。这便是他撰写这本书的目标 。  

至于这些努力在网络空间,在那些“生活在网络空间的人们”中渗透的效果如何,尤瓦尔坦言“非常难以知晓” 。写一本书,将其推向世界,它究竟会对人们产生何种影响,很难确切了解 。但他提到,除了他个人的努力,其著作的传播还得益于一个社会影响力公司。大约十年前,在《未来简史》出版的同时,他和他的丈夫共同创办了这家公司。尤瓦尔负责撰写书籍,他的丈夫负责所有商业运作,他们拥有一个20人的团队,其中一位成员当时正在东京 。他们通过社交媒体账户等方式,努力将书中的思想转化为更多媒介形式,以触达更广泛的人群 。  

“这是否足够,我们不知道。”尤瓦尔谦逊地表示,“我们觉得每个人在世界上都拥有一些微小的能动性。我们尽力做我们能做的,并相信其他人也会尽其所能。” 他认为,没有人能独自肩负整个世界的重担,如果足够多的人在各自的小领域内尽其所能,“我想我们会没事的。”  

七、国际秩序的崩塌与AI竞赛的阴影:特朗普时代的反思

鉴于尤瓦尔的新书《Nexus》日文版刚刚推出,伊藤也顺势询问了尤瓦尔对自美国领导换届以来全球局势发展的看法 。  

尤瓦尔充满忧虑。他指出,由于社会内部以及社会之间信任的加速侵蚀,我们看到二战后建立的国际秩序正在瓦解。这个国际秩序最重要的禁忌和规则是,强国不能随意入侵和征服弱国。这与此前数千年的人类历史形成了鲜明对比——在数千年中,强国入侵并征服邻国,建立更大的国家或帝国,是司空见惯的事情 。21世纪初,人类享受了历史上最和平与繁荣的时代,很大程度上是因为这一禁忌得到了维持。

这一点从政府预算中最能清晰地反映出来。纵观历史长河,绝大多数国王、幕府将军和皇帝的预算中,超过50%都用于军事:士兵、军舰、城堡等是主要的政府开支。而在21世纪初,全球政府军事支出的平均水平降至约6%或7%,这是一项惊人的成就 。大约10%的预算用于医疗保健,这是人类历史上第一次全球各国政府在医疗上的投入超过军事。  

然而,这一趋势如今正在逆转。现在,如果弱者拒绝服从强者,那么由此引发的冲突,责任在于弱者,这种逻辑随处可见,比如美国曾扬言要“征服”格陵兰岛。

尤瓦尔警告说,这种世界观和逻辑将把全人类带回持续战争的状态 。在这种情况下,不仅医疗和教育预算会下降,任何监管AI的机会也将不复存在 。因为每个国家都会说:“我们必须赢得AI竞赛。我们不会做任何可能让我们放慢脚步的事情,以免对方获胜,然后他们成为强者,我们就必须服从他们。” 尽管前景堪忧,尤瓦尔依然在书中传递着希望:“只要我们还没有到达那个地步,就仍有希望。如果在未来的数月和数年里,有足够多的人做正确的事情,人类仍然会安然无恙。”  

八、故事、算法与信任的未来:在数字洪流中守护人类价值

图片

在问答环节,一位日本学生就人类作为“智人”通过共享故事(shared stories)进行大规模合作的独特能力,以及这种能力在当下如何受到算法和社交媒体的挑战,向尤瓦尔提问。特别是考虑到加密货币等由算法产生而非人类机构发行的“后人类货币”(post-human currency)的兴起,以及社交媒体算法成为新的“故事版本”,这些趋势对人类信任和合作的未来意味着什么?政府又该如何应对?  

尤瓦尔回应道,人类通过共享叙事进行大规模合作的能力,不仅体现在神祇和宗教故事上,也体现在经济领域。他认为,“有史以来最成功的故事可能就是金钱”,它是唯一一个几乎所有人都相信的故事。然而,即便是这一点,如今也受到了加密货币的威胁 。那些声称“不信任美元,信任比特币”的人,实际上是在说“我不信任人类,我信任算法。我不信任运营银行的人类,我更愿意信任运营加密货币网络的算法。” 这种从信任人类转向信任算法的趋势,在越来越多的领域显现出来。  

他进一步指出,之前世界上流传的所有故事都源于人类的头脑,由人类编辑决定哪些故事将主导对话 。例如报纸或电视台的编辑会审阅当天发布的所有新闻,决定哪个最重要并将其放在头版,从而引导公众的讨论 。如今,这项工作也越来越多地由算法完成 。当今世界上最重要的“编辑”,实际上是TikTok、Facebook和Twitter等平台的算法,它们并非人类 。这意味着,故事正在由非人类智能生产和传播。  

为了维护人类的信任与合作,尤瓦尔认为,尽管并非完整的解决方案,但各国政府首先应该做的最简单的事情就是“通过一项法律,禁止伪造人类(fake humans),禁止冒牌人类(counterfeit humans)” 。就像禁止伪造货币一样,不能随意印刷日元并声称是真的,同样,也不应允许伪造人类身份 。直到最近,伪造人类还不可能,但现在可以了。机器人(Bots)可以冒充人类,在TikTok和X(前身为Twitter)等平台上,大量流量是由冒充人类的机器人产生的 。因此,第一步也是最简单的一步,就是制定非常严格的法律:不允许伪造人类。AI可以与我们交流,前提是它们必须表明自己是AI 。如果有人试图伪造人类身份,或者平台不对伪造人类的行为采取措施,他们应该像伪造货币者一样受到法律制裁,甚至受到更严厉的惩罚 。  

九、言论自由与信息自由的边界:算法守门人的责任

紧接着,另一位提问者就社交媒体上的虚假新闻和信息操纵问题,询问如何在保障言论自由的同时,规范信息传播,特别是在算法主导信息分发的背景下,如何确保信息的质量与可信度。

尤瓦尔对此进行了精辟的区分:“我们需要区分讲话的自由(freedom of speech)和信息的自由(freedom of information)。” 他强调,讲话是赋予人类的一项非常重要的权利,应该受到保护。

然而,“信息自由则完全不同。这是一项新的权利,它并非赋予人类,而是赋予了AI、算法和机器人。” 许多社交媒体巨头有意混淆这两项权利 。社交媒体的问题不在于人类编造谎言——人类数千年来一直在编造谎言,除非极端情况,他们不应因此受罚 。真正的问题在于,“你有一个算法,它决定故意传播谎言、仇恨等等。这应该被制止,并且应该受到惩罚。”  

尤瓦尔再次明确,如果一个YouTube用户制作了一个虚假新闻视频,他不应该因此受到惩罚 。但是,“如果我是这家公司,我故意向数百万人推荐和播放这个充满仇恨的阴谋论视频,因为我能从中赚钱,这就应该受到惩罚。” 这种行为不受言论自由的保护,因为这是由算法完成的,“而算法没有人权,它们没有传播谎言的权利。” 社交媒体公司有责任,就像报纸和电视台一样,在传播任何内容之前,确保其真实性,而非充满仇恨的谎言 。  

十、AI时代的战争形态:从实体杀伤到决策权力的转移

关于AI对战争形态的影响,尤瓦尔指出,信息技术的发展并不会废除物理世界,而是在其之上构建了新的层面 。数千年来人类创造的各种信息,无论是法律宪法、宗教还是金钱,都没有取代或废除物理和生物现实 。人们仍然拥有身体,需要食物和清洁的水 。但这些额外的信息层,使得人类能够创造贸易网络等事物,从而改变了获取食物的方式 。AI对战争的影响也与此类似 。  

战争的本质仍然是杀伤,但实现方式正在改变。目前看来,杀戮仍然由人类执行。然而,AI已经真正改变的是“谁在选择目标,谁在做决策,谁决定轰炸这座建筑,谁决定轰炸这个人。” 尤瓦尔指出,答案越来越多地指向AI,这在过去两三年间表现得尤为明显 。以前,识别目标的工作由人类情报官员完成,他们收集信息、阅读报告,可能需要数天才能确定一个目标,例如“这座建筑是敌方总部,轰炸它。” 现在,AI可以在几秒钟内完成这项工作 。AI能够处理海量信息,远超任何人类的分析能力,它能发现人类无法察觉的模式,并在几秒钟内指出:“这是敌方总部,轰炸它。”  

当然,最大的问题在于我们能否相信AI的判断?它是否可能犯错,指示我们轰炸一个民用而非军事建筑?尤瓦尔从不同的人那里听到了不同的说法。一些人说,在AI指出目标后,会有人类分析师复核所有信息以确保没有错误 。另一些人则表示,人类分析师可能只花半分钟时间,根本无法真正核查AI的判断,因为AI处理的数据点太多,人类的复核基本上只是“橡皮图章”(rubber stamps),真正做决策的是AI 。虽然目前情况可能兼而有之,但展望未来五到十年,趋势非常清晰:AI将在战争中越来越多地做出关键决策,这无疑是一个非常危险的发展 。  

十一、阴谋论的温床与科学的复杂性:为何我们轻信简单叙事?

一位听众提到了Covid期间阴谋论的盛行,并询问尤瓦尔如何看待在重大危机面前,部分人群倾向于相信简单化的阴谋论,而非复杂的科学解释。

尤瓦尔回应说,阴谋论并非新鲜事物,历史上一直存在 。这与前面提到的真相与虚构的关键区别有关——“真相是复杂的,虚构是简单的。” 当像大规模流行病这样改变了诸多事物的事件发生时,其真相往往非常复杂 。仅仅理解什么是病毒就非常困难。病毒是一种非常奇怪的东西,人类历史上大部分时间都不知道病毒的存在。直到上个世纪,我们才真正开始理解病毒是什么,以及它们的奇特性——它们既不完全是活的,也不完全是非活的 。

科学界对于病毒究竟是一种生命形式,还是仅仅是化学信息,存在巨大争议 。因为病毒不能自行繁殖,也不像细菌那样摄取食物并繁殖 。病毒实际上只是一段信息,这段基因代码的神奇之处在于它能进入人体细胞,并指令我们自身的细胞开始复制更多的该代码。从一行代码开始,它接管一个细胞,产生数百万个副本,然后扩散到其他细胞,指令它们继续复制 。这就是病毒“疯传”(goes viral)的方式 。这是一种非常奇特的现象,在我们日常感知的现实层面是看不到的,它发生在极其微观的层面 。  

因此,要理解一场大流行如何开始和传播,是非常复杂的 。相比之下,相信阴谋论则容易得多:“哦,有一群非常有权势的人,他们制造了这场大流行来接管世界。” 作为一名历史学家,尤瓦尔可以肯定地说,这类阴谋论“总是错误的”,原因很简单:“世界太复杂了,任何少数人都无法真正理解和操纵它。” 阴谋论通常假设的那种操纵水平是完全不现实的 。

十二、AI生成内容的未来:超越人类想象力的“异类”创造

一位对娱乐产业,特别是对动画和CG技术感兴趣的学生,向尤瓦尔提出了关于AI将如何改变娱乐内容创作的问题。随着AI生成图像和视频的技术日益成熟,未来娱乐产业的形式和内容会发生怎样的具体变化?

尤瓦尔坦言,我们无法精确预测具体会发生什么,但非常清楚的是,“越来越多娱乐的形式和内容将来自AI,而非人类。” 历史上,所有的娱乐形式,无论是诗歌、戏剧、电视还是电影,都源于人类的头脑和想象力 。现在,地球上出现了一种能够生产此类内容的东西,其成本远低于人类,效率也远高于人类,并且能够“突破人类想象力的局限。”  

因为人类的想象力受到人类大脑和自身生物学限制的束缚,而AI则不然 。他以围棋为例。2016年,AlphaGo与世界冠军李世石的著名对局,是AI革命的决定性时刻之一 。但那场比赛令人惊叹之处,不仅仅在于AlphaGo击败了人类世界冠军,更在于它获胜的方式——它采用了“完全异类的策略” 。人类在东亚下围棋已有数千年历史,数千万人下过围棋,围棋甚至被视为一种艺术形式,并围绕其发展出完整的哲学体系 。然而,在如此漫长的岁月里,如此多的人,从未有人想过像AlphaGo那样下棋 。  

尤瓦尔将此比作一个名为“围棋星球”(Planets Go)的星球,上面有各种各样的下棋方式 。人类则一直困在“围棋星球”上的一个岛屿,并以为这就是整个星球 。两千年来,他们认为这就是下围棋的仅有方式,因为思维的局限性,他们无法离开这个“精神岛屿” 。然后AlphaGo出现了,它展示了全新的下法,帮助人类在“围棋星球”上发现了全新的领域 。  

同样的事情很可能发生在音乐、绘画、戏剧和电视等领域,而且已经开始了 。许多人现在正尝试使用AI创作视频,而这仅仅是过程的开端 。如果我们认为今天的AI已经很复杂,那与十年后的AI相比简直不值一提 。因此,与其他领域一样,娱乐业也将发生彻底的改变,而且无法预测具体方式,因为AI的本质在于它是一种“异类智能形式”,人类智能无法预测异类智能的行为。

如果能预测AI将要做的每一件事,那它就不是AI,只是一台自动机器 。就像咖啡机一样,如果能预测它按下按钮就会制作浓缩咖啡,那它就是自动机器,而非AI 。那么,什么时候才算是AI呢?“当你走近机器,甚至无需按任何按钮,机器就告诉你:‘嘿,我今天早上发明了一种新饮料,我觉得你会比咖啡更喜欢它,我已经为你做了一杯。’” 这才是AI。  

十三、信任是生命之基,也是AI时代的最终解方

在活动的尾声,尤瓦尔对当天的讨论和问答进行了总结。他坦承,我们讨论的许多议题听起来令人忧虑,这部分是因为那些开发AI的公司往往只强调其积极潜力,因此需要哲学家、历史学家和批评家来指出潜在的危险,以求平衡。然而,AI无疑也拥有巨大的积极潜力,否则没有人会去发展这项技术,其应用范围从医药到防止灾难性的气候变化等等,潜力是真实存在的 。问题的关键不在于如何阻止AI的发展——这既不现实也不可取——我们希望发展它,但希望以安全的方式进行 。  

而实现这一目标的关键,再次回到了“在人类之间建立信任” 。尤瓦尔鼓励每个人在自己的特定领域内尽其所能 。他理解人们有时会被世界的重担压得喘不过气,但提醒大家不要觉得整个世界都压在自己一个人的肩上,地球上还有其他80多亿人共同分担着这份重量,更不用说还有动物、植物和其他有机体,每一个个体都在做着自己微小的事情。  

谈及本次对话的核心主题——信任,尤瓦尔分享了一个自己的思考:“信任确实是生命的基础。如果你不信任他人,不信任外界,你连一分钟都活不下去。” 即便是我们赖以生存的呼吸,这个维持生命的最简单动作,其本质就是“对我们身外之物的信任” 。他观察到,当今世界许多人,包括一些最有权势的人,都执着于分离、建立壁垒和围墙 。但事实上,“完全的隔离即是死亡。” 每一刻,我们都在做出信任外界的简单姿态:张开嘴或鼻子,从外界吸入一些东西,我们信任它,然后再将其呼出 。正是这种信任的吸入与呼出维持着生命 。如果你不信任外界,堵住口鼻,一两分钟内就会死亡 。  

“是的,我知道有很多理由感到焦虑和恐惧,这些都是真实存在的,并非臆想。世界上存在巨大的问题。”尤瓦尔总结道,“但归根结底,生命的基石是信任。” 

主標籤:AI與信任

次標籤:資訊時代科技倫理國際關係教育


上一篇:DeepSeek精度效率雙提升,華為&信工所提出思維鏈「提前退出」機制

下一篇:NVIDIA讓AI更聰明地使用工具:Nemotron-Research-Tool-N1模型深度解析

分享短網址