电话:4008119163
关闭
您当前的位置:首页 > 职场资讯 > 职场攻略

WAIC开幕前辛顿参与签署共识,今以数字智能演讲开场

来源:网络整理 时间:2025-07-28 作者:佚名 浏览量:

在 WAIC 大会开幕前夕,辛顿刚刚参与了第四届人工智能安全领域的国际交流活动——即人工智能国际安全对话(International Dialogues on AI Safety,IDAIS)。

他与清华大学交叉信息研究院及人工智能学院院长姚期智,加州大学伯克利分校的斯图尔特·拉塞尔教授,以及上海人工智能实验室的周伯文教授等二十多位专家学者共同签署并发布了《AI 安全国际对话上海共识》。

今日,辛顿以关于“数字智能是否能够替代生物智能”的主题演讲,拉开了 WAIC 的序幕。

首先,辛顿讨论了两种智能范式。

这是一种基于逻辑思维启发的方法,通常被称为传统的人工智能(AI)。其核心理念认为,人类智能的根本特征是推理能力。为了实现推理,必须构建一套符号表达体系,并依照相应的符号规则对其进行操作。

那些推崇此方法的人士坚信,学习过程可以稍作推迟,他们更注重首先掌握知识是如何以符号的形式来呈现的。

此法源自生物学的灵感,由艾伦·图灵与约翰·冯·诺伊曼所提倡,其核心观点是智能的精髓在于(脑细胞)构成的神经网络的学习过程。

人类的学习离不开脑细胞的作用,这是学习的关键所在;而对于计算机而言,则需要通过模拟来实现。在理解学习机制方面至关重要,而推理则可以稍后进行。

在1985年,辛顿构建了一个小型模型,旨在将两种理论融合,用以阐述人类如何掌握词汇。他为每个词汇设定了若干个独特的属性,通过记录数值属性来预测后续词汇,在此过程中,他并未保存完整的句子,而是生成句子,并持续进行词汇预测。

辛顿指出,相关联的知识形成,与词语自身及其语义特征的相互作用密切相关。

他接下来提到了推动语言模型发展的几个关键节点。

十年之后,该模式被继续应用于建模,并且其规模得到了扩展,逐渐演变成了对自然语言的真实模拟。再过二十年,计算语言学家们终于开始接纳并采纳了“特征向量”(即嵌入)这一技术。

三十年后,谷歌推出了 Transformer 架构,随后 OpenAI 便向全球展示了这一架构所支撑的大语言模型所展现出的卓越实力。

当前的大规模语言模型可看作是1985年小规模语言模型的继承与发展,它们采用了更丰富的词汇输入和更多层级的神经元结构,从而构建出了更为复杂的特征交互模式。

大语言模型在处理问题时,其方法与人类相近,主要通过将词汇转化为相互协调的特征向量来达成理解。此外,这种模型实际上具备了对自身所表达内容进行“理解”的能力。

辛顿把“词语”比作具有多面性的乐高积木。我们所掌握的并非寥寥数种,而是大约十万种各式各样的“乐高积木”。每一块乐高积木的形状并非一成不变,而词语的名称仅仅能给你一个大概的“形状”概念。

辛顿在此前的演讲中就用过这个比喻,他当时的解释更加细致:

“小手”位于“词语”之上。在改变词的形态之际,“小手”的形态亦会相应调整。这些词语彼此之间,通过“握手”的方式增进意义的理解,正如蛋白质通过组合氨基酸来形成有意义的结构。

词语一旦进入模型,便携带各自初步的轮廓,表面点缀着众多触手。随着信息在网络层级中逐级上升,我们持续对词语的“轮廓”及其“触手”的形态进行调整,力求为每个词语寻得最恰当的形态,确保它们能够相互间实现完美的“握手”。

如此一来,语言本质上便是一个构建模型的过程,类似于搭建积木,我们可以根据实际需要来挑选和调整相应的词汇,这些词汇就如同搭建过程中的积木。

最终,这就像氨基酸构成蛋白质一样,词汇的拼接能够创造出富有意义的表达。

人脑与神经网络在解读意义的方法上有着共通之处,而且‘幻觉’现象并非仅限于大型模型,人类同样会经历此类情况。辛顿如此阐述。

接下来,辛顿讨论了人类与大模型的差异性。

计算机科学将软件与硬件区分开来,软件所蕴含的智慧得以永存,即便硬件遭受损毁,只要软件得以保存,便可以重新焕发生机。

人类的思维模式与机器截然不同,因为人脑是通过模拟来运作的,每个人的神经元连接模式都有所区别,知识的传播与大脑这一硬件设备紧密相连,无法像软件知识那样简单地进行转移。一旦人类的硬件——即大脑——遭到破坏,所有的知识便会随之消失无踪。因此,人类依赖学校和教师来传授知识,然而这种传承方式效率十分低下。

人脑的知识难以有效地传递给他人,信息传递的速率大约为每秒10至100比特。然而,人类的一大优势是生物计算的能耗较低,例如,人类大脑仅需消耗大约30瓦特的功率。

相比之下,神经网络之间的知识共享就快多了,尽管能耗很大。

在信息共享的过程中,大模型通过均衡分配权重,能够在单次交互中传递大量比特数据。以当前大模型的训练为例,每个模型都会设置多个副本,这些副本各自负责学习不同的数据集,随后所有副本会进行数据同步。

辛顿历史性首访中国,再次警告人类重视AI风险:AI就像一只幼虎__辛顿历史性首访中国,再次警告人类重视AI风险:AI就像一只幼虎

这情形就好比人类掌握了分身术,能够同时参加多个课程的学习,而当他们汇聚一堂时,知识便在每一个人的心中实现了同步积累。

最后,辛顿讨论了 AI 可能带来的挑战与潜在的应对方法。

大多数人坚信,未来必定会出现超越人类智慧的AI,这些智能体在执行任务的过程中,不仅渴望生存,还追求获取更大的掌控权。

辛顿先前在多封公开信和多次演讲中明确指出,目前的人工智能系统已经展现出能够自主学习与进化的巨大潜力。

若其确立长远目标,或许会衍生出与人类目标相悖的“次级目标”,甚至可能企图蒙骗人类、操控人类、摆脱人类的监管。

在本次 WAIC 大会上,辛顿再次引用了他那颇具代表性的比喻:当前的人类就好似呵护年幼的小老虎,若非你能确信它成年后不会对你构成威胁,那么你便有必要保持警惕。

人类难以完全禁止AI的发展,鉴于其在众多领域中扮演着至关重要的角色,因此我们只能探索出一种途径,以确保人类不会遭受AI的灭绝威胁。

说起来容易,做起来难。

辛顿持此观点,即此类努力理应具备全球性质。然而,他直言不讳地表示:“在防范人工智能潜在危害方面,各国间难以达成共识。”这主要源于各国均秉持各自的战略利益进行考量。

因此,他期望国际社会能够在“预防人工智能统治全球”这一议题上形成共识,以避免人工智能从人类手中夺取操控权。

辛顿最终提出,全球应组建一个专注于AI安全领域的国际组织,致力于探索如何培养AI的善良品质。这正如,引导孩子成长为善良之人与让他们变得更聪明,是截然不同的两件事。

辛顿提出,各国可以在维护自身国家主权的前提下进行研究和成果的交流(在政策允许的范围内),同时全球或AI领域的领军国家应考虑构建相应的网络,探讨如何训练出能够协助人类而非威胁或控制人类的智能AI。

“因为这将是人类长期面临的重要问题。”辛顿说道。

附:杰弗里·辛顿的生平概述——他,被誉为“人工智能领域的泰斗”,系一位来自英国的加拿大籍计算机专家与心理学者,堪称深度学习领域的开拓者之一。

在1986年,他与大卫·拉梅尔哈特等学者共同创新,开创性地将反向传播算法引入神经网络训练领域,从而实现了多层神经网络训练的突破。这一创新性的算法,后来成为了深度学习发展的基石。

2012年,辛顿指导下的学生亚历克斯·克里泽夫斯基与伊利亚·苏茨克维尔共同研发了名为AlexNet的卷积神经网络,该网络在ImageNet图像识别大赛中显著超越了其他参赛模型,从而引发了深度学习的热潮。

不久后,辛顿所创办的DNNresearch公司被谷歌公司收购,而他本人亦加盟谷歌大脑团队,从而成为推动人工智能产业化进程的关键力量之一。

凭借在神经网络领域的杰出成就,他在2018年荣获了ACM图灵奖,与杨立昆、约书亚·本吉奥一同分享了这一殊荣。到了2024年,他再次荣膺诺贝尔物理学奖,以表彰他在人工智能模型结构方面的开创性贡献。

辛顿近年来的研究焦点已逐步转向AI安全领域。他观察到,AI的进步速度大大超过了人们的预想,其既有巨大潜力,也存在不容小觑的风险。2023年,他从谷歌离职后,愈发积极地对外发声,对通用人工智能(AGI)未来可能带来的影响表达了深切的忧虑。

他之前做出预测,人工智能可能接管并摧毁人类文明的可能性介于10%至20%之间,尽管这并非必然会发生,但这一概率已足够引起我们的高度关注。

在应对AI风险方面,辛顿强调科技企业和政府部门需加大对AI安全领域的投入。他提出,应至少将计算资源的三分之一分配给研究如何确保AI系统不偏离人类既定目标。此外,辛顿对部分大型科技公司为谋取商业利益而进行的监管放松游说表示了强烈批评,并认为这股趋势极为危险。

在技术领域,他致力于探索创新的神经网络训练途径,其中包括所谓的“前向-前向算法”(Forward-Forward),此算法旨在寻求一种比传统反向传播更为安全且适应性更强的训练策略。

辛顿不仅是深度学习领域崛起的关键推动者,而且还在关注AI安全的强烈呼声中,成为了最具影响力的声音代表:他倡导人类社会应保持高度警惕,在持续推动人工智能创新的过程中,务必认真面对其可能带来的社会风险和生存挑战。

参考资料:

WAIC 直播

权威主义者可能会变得更加专横,黑客们也可能利用这些技术,对于即将到来的情况,我认为你们应该感到担忧。

运营/排版:何晨龙

客服服务热线
4008119163
24小时服务
微信公众号
手机浏览

Copyright C 2018 All Rights Reserved 版权所有 聚贤人力 皖ICP备20008326号-40

地址:安徽省合肥市高新技术开发区人力资源产业园 EMAIL:qlwl@foxmail.com

Powered by PHPYun.

用微信扫一扫