4月29日有消息传出,外媒记者比利・佩里戈日前进行了独家专访,被访者是谷歌DeepMind首席执行官德米斯・哈萨比斯,他也是2024年诺贝尔化学奖得主 。
当年10月,哈萨比斯被誉为“AlphaFold之父”,他和DeepMind团队成员约翰·江珀(John M.Jumper)因蛋白质结构预测获奖,华盛顿大学的大卫·贝克(David Baker)因计算蛋白设计荣获殊荣。他们所研发的AI解决方案,成功攻克了蛋白质结构预测领域存在50年之久的重大难题,推动了生物医药领域的科学发现进程 。
哈萨比斯在2022年11月接受过佩里戈的专访,那时距离GPT发布只有数周时间。即便在那个时候,远在人工智能热潮席卷全球之前,这位谷歌旗下顶尖AI实验室的掌舵人就对人工智能的加速发展发出了严厉警告。哈萨比斯当时表示,他不认同“快速行动、打破常规”的硅谷信条。他还批评了同行中存在的鲁莽倾向,他把部分研究者比作实验狂人,这些实验狂人手持危险物质却不自知 。
两年半后的当下,人工智能领域发生了巨大变化。AI技术迭代速度极为迅猛,众多研究者包括哈萨比斯如今觉得,人类级别的人工智能(业内称作通用人工智能,AGI)或许会在本世纪内达成。然而在2022年,就连承认AGI有可能性都被当作边缘观点。但哈萨比斯一直都是坚定的通用人工智能信仰者,创造这项技术正是他一生所追求的目标。
实现通用人工智能所需的天文级算力,几乎被谷歌等少数科技公司垄断,这使得哈萨比斯与其东家之间形成了微妙的制衡关系。2014年,这位人工智能先驱带领深度思维加入谷歌时,曾迫使公司签署特殊协议,明确禁止将深度思维技术应用于军事或武器领域。然而十年之后,这项协议已然没有实际效力,谷歌不但向美国、以色列等多个国家的军方提供搭载DeepMind AI技术的服务,还把该技术部署到实战场景中 。
这一矛盾使哈萨比斯处于伦理和现实的两难局面之中,他为了达成毕生的理想,是不是做出了某些妥协 ?
以下为访谈内容摘要:
问:要是通用人工智能得以实现,那它产生的影响会极其深远 。能不能描绘出最理想的发展景象 ?通用人工智能会怎样重塑世界 ?
我一生都致力于AI与AGI研究,原因在于这项技术要是以负责任的方式去开发,会成为人类历史上最具深刻意义的变革力量。展望未来十年甚至更久远的时间,AI有可能完全攻克所有疾病,加快核聚变、高效电池等新能源技术的突破,还会催生出像常温超导体这样的革命性材料。当前人类面临着最严峻的挑战,这些挑战包括气候危机以及公共卫生威胁,而这些挑战都将通过由AI驱动的解决方案迎来转机。以十年作为衡量的尺度,我们或许会见证一个文明全面跃升的时代,在这个时代里,在AI的赋能之下,星际航行会成为现实,所有受限于技术瓶颈的文明可能性会被逐一解锁。
以气候变化为例,人类集体行动迟缓,已注定无法在关键窗口期达成有效共识,只有借助AI技术,比如能源系统优化、碳捕捉建模等,才可能实现破局。
要是我没预见到人工智能有如此变革性的力量到来,那我肯定会为当下社会忧心忡忡,正是因为知道只要合理开发人工智能,它就能帮我们解决许多棘手难题,所以我才对未来五十年充满希望,人工智能就像一支救兵,而当下,我们迫切需要这样的救援力量。
问:你始终积极提倡要避开相关风险。能描述一下最为糟糕的情形吗?
我觉得最糟糕的情形在科幻作品中已被多次描绘 。我最担心的两个问题是 ,若运用恰当 ,AI会是一项极具变革性的技术 ,但它是 “双刃剑 ” ,并且力量强大得令人难以置信 。这表明不法之徒有可能把该技术用于潜在的有害目的 。所以,我们所在的领域面临一个巨大挑战,整个社会也面临一个巨大挑战,那就是如何确保善良的人能利用这些技术做出像治愈绝症这样了不起的事情,同时又要限制那些不法之徒获取相同技术,这些不法之徒包括个人以及某些“流氓国家”,这真是个棘手的难题。
第二个问题是AGI本身存在风险,随着技术变得愈发自主,越来越像智能体,未来几年这种情况会逐渐显现,我们要如何确保始终掌控这些系统,如何控制它们,如何理解它们的运作方式,又如何为其设置防护栏,使其不被高度自主且能自我改进的系统突破,这也是个极具挑战性的问题,以上就是风险的两大主要方面。若能妥善应对,我认为我们将迎来一个美好的未来。
问:这并非最糟糕的情况。那最糟糕的情况究竟是怎样的?
答:要是我们在这方面出现差错,那么这些系统就会被应用于各类有害的情景之中,这跟我们的目标是完全相反的。我们原本的想法是借助它们探寻治病的好办法,然而它们却被用来制造毒素。实际上,所有良好的应用场景都有可能因为系统目标被歪曲而转变成有害场景。这便是我一直倡导国际合作的原因。
这些系统无论在何处开发,无论以何种方式开发,它们都能在全球范围内快速传播,几乎对世界每个角落的每个人都产生影响,所以我认为我们需要制定国际统一标准,明确这些系统的开发准则,明确这些系统的目标设计,明确这些系统的部署和使用规范。
2014年谷歌收购DeepMind时,你在合同中规定谷歌不得将技术用于军事目的,此后公司进行了重组,现在DeepMind的技术被出售给包括美国和以色列在内的多国军方,你曾谈到开发AGI有巨大潜力,为了获得开发该技术的机会,你是否在这一方面做出了妥协?
答:不,我并非这样看。我们近期更新了相关规定,部分缘由是要应对当下复杂多变的地缘政治局势。如今的世界已变得比以往更危险。我们不能再理所当然地觉得民主价值观定会胜出,我认为这点现在根本不确定。我们面临着诸多严重威胁。所以,我们要与各国政府合作。
与政府合作能让我们和银行、医疗等其他受监管的重要行业展开合作,我们的原则没有变化,我们一直秉持的核心原则是要审慎权衡各项益处,保证其明显超过潜在风险,这是我们开展任何工作的高标准,当然我们得遵守国际法和人权法规,这些要求依旧有效。
还有一个变化是这项技术广泛可得,开源技术、DeepSeek、Llama等虽可能比不上顶尖专有模型出色,却也相当不错,一旦技术开源,基本上全世界都能随意使用,因此,我把技术分为商品化技术和定制化技术两类。
对于定制化工作,我们计划专注于我们具有独特优势的领域。比如网络防御领域,还有生物安全领域。我认为在这些领域,我们负有道德责任去提供帮助。因为我们是全球在这些技术方面最擅长的团队 。
在人工智能安全领域,人们热烈讨论这些系统有没有可能追求权力,是否具有欺骗性,会不会试图削弱人类控制并摆脱监管 。对于这个问题,你觉得这是发展的必然趋势,还是仅仅属于小概率风险?
我觉得这些风险不容易预测,我的同事里有不少图灵奖得主,他们对这个问题看法也不一致,所以正确答案或许在两者之间,这场辩论双方都有很多智者参与,这说明我们对这一领域了解得还不够,难以精确评估风险。
或许,随着技术不断进步,我们会发现控制这些系统比想象中要容易得多,历史上存在不少类似的情况。这表明事情或许没那么悲观,然而在我看来,风险依旧存在。我们必须严谨地开展研究,对风险进行量化,并且尽可能提前具有前瞻性地去应对,而不是等问题出现后才去解决。对于如此强大且具有变革性的技术,事后补救可能会付出惨痛的代价。
问:有什么问题让你夜不能寐吗?
让我忧心忡忡的是国际标准与合作问题,这涉及国家之间的协作,这也包括公司与研究人员之间的协作,尤其是在接近实现AGI的最后阶段时,我认为我们已处于这一阶段的边缘,或许距离AGI问世还有五到十年,有人认为时间更短,我对此并不意外,这更像是一个概率分布问题。
但不管怎样,AGI 的到来已经非常紧迫。我无法确定社会有没有做好准备。我们得认真思考这些问题,并且还要考虑我之前讲过的关于系统可控性以及怎样确保系统访问安全的问题。
问:你认为自己更像是科学家还是技术专家?你如何自我定位?
我首先把自己定位成科学家,我做的所有事,都是为了追求知识,尝试去理解我们周围的世界,我从小就痴迷于这个问题,对我来说,构建AI是我探索这些问题的途径,构建一个工具,这件事本身就很吸引人,也是对智慧、意识等问题的一种思索,而这些问题本身就是当下最大的谜团之一 。
此外,AI具备双重用途,它能够用于研究我们周边的自然世界,涵盖化学、物理以及生物学等领域。还有什么追求会比这更让人兴奋呢?所以,我首先将自己视作科学家,其次或许是个企业家,原因在于这是推动事情快速发展的途径。
最后,我或许也能被看作技术专家,因为最终,我们不只想在实验室里空想理论,还期望在现实世界中产生实际影响。
OpenAI首席执行官奥特曼称,他预估AGI会在特朗普任职期间出现,Anthropic首席执行官达里奥·阿莫代伊觉得,AGI有希望在2026年现身。你对这有什么看法?
就部分而言,这取决于你对AGI的定义,这个定义因各种原因比如筹集资金等已被稀释了许多,而我们对AGI的定义始终如一是拥有人类的所有认知能力。
我的测试标准是:这种AI技术能不能在掌握同等信息的基础上,像20世纪初的爱因斯坦那样提出广义相对论?所以,这不是单纯解决一个数学猜想的问题,而是能不能提出一个有价值的猜想。我坚信,我们很快就能拥有能解决千禧年大奖问题之一的系统。但它们能否像那样提出一套有趣的猜想呢?
问:听起来这正是你之前提到的科学家与技术专家的区别所在。所有技术专家都表示,这是一个系统,它能够在经济价值劳动方面,比人类更好地完成任务,也能更廉价地完成任务。
这是表述这一区别的一种非常好的方式。也许这就是我对其十分着迷的缘由,因为我一直敬佩历史上的科学家,我觉得正是这些人拓展了知识的边界,而不只是将其用于实际用途。很明显,工程和科学部分对社会都同样重要。我觉得,现有的人工智能缺乏假设生成能力。
问:在具体的细节方面,你认为我们距离拥有可以真正为AI研究贡献力量的自动化研究人员还有多长的距离呢?
我觉得还得花几年时间,编程辅助工具已挺不错了,我预计到明年它们会变得极为出色,我们正大力推动这方面发展,Anthropic主要致力于此,而我们更多涉足科学领域,在为操作系统打造优美架构方面,AI比不上顶尖程序员,我认为这部分仍欠缺,故而觉得还需几年时间。
问:你们在Gemini模型里十分看重多模态,而且不只是限定在语言空间,还把它和现实世界相融合,相较于其他实验室,你们在这方面投入更多,这是为何呢?
原因有几个方面 首先 我觉得真正的智能需要对周围的时空世界有所理解 这对任何真正的科学研究而言都十分关键 另外 我认为这实际上会使语言模型变得更优 我想我们已经见到了一些这样的成果 因为你已将其与现实世界的背景关联起来
尽管事实上,语言模型自身的发展已经远超一些人的预期,或许也超出了我的想象 。最后,这还与应用场景有关 。因为我有两个正在大力研发的应用场景 。一个是通用数字助理的概念 。它可以在日常生活中帮助你提高效率 。它还能丰富你的生活 。
它不仅存在于你的电脑里,还能随身携带,或许在你的手机、眼镜或者其他设备上,而且一直都极为实用。要达成这一点,它得理解你周遭的世界,还要处理相关信息。
第二个是机器人技术。现实世界的机器人需要它。它必须理解自身所处的空间环境。人类具有多模态。我们操作屏幕。我们具备视觉能力。我们喜欢看视频、创作图像、聆听音频。所以我认为,AI系统要在这方面呼应人类,才能与我们展开最充分的互动。
Signal公司总裁梅雷迪斯・惠特克对你刚描述的通用智能体提出了一些颇为有力的批评,她指出,那些帮助并非毫无代价,实际上你是以牺牲大量个人数据为前提才获取到的,为了让其发挥作用,你得授予它访问你几乎所有生活信息的权限,谷歌是一家通过收集个人信息来推送精准广告的数字广告公司 。你如何看待此类智能体对隐私的影响?
梅雷迪斯提出这一点,这是很正确的。我对她在Signal公司的研究工作十分欣赏。首先,我觉得所有相关服务都应该建立在用户自愿选择加入的基础上。然而,我们的确选择加入了许多数字追踪服务。
所以这首先取决于个人选择,很明显人们会因实用性而选择加入。我觉得只有当你完全信任该助手时这种服务才会有效。它必须值得你信赖,因为如同现实生活中的得力助手,他们越了解你就越有用。我的助手们对我的了解甚至超过我自己,这便是我们团队协作如此高效的原因。
我觉得,这同样是你对数字助手抱有的期望。然而与此同时,你得确定数据受到了严格的隔离保护。我们有世界顶尖的安防团队在为此努力,保证隐私得以保护,数据即便在我们的服务器上也是处于加密状态的。
我们正努力保证这些技术在助手类服务Project Astra正式推出之际准备妥当,我觉得这会是个消费选择方面的问题,用户会倾向于挑选保护隐私的系统,并且我认为边缘计算和边缘模型在此也会极为重要,这也是我们如此看重小型高性能模型的缘由之一,它们能够在单一设备上运行 。
问:我不知道你觉得我们还要多久才能看到这项技术对劳动力市场产生重大影响 。但如果这种情况发生 ,或者当这种情况发生时 ,这将会带来巨大的政治动荡 。你有应对这种动荡的计划吗 ?
我和不少经济学家探讨过此问题,我觉得,首先要让该领域专家,像经济学家等展开更深入的研究,然而据我和经济学家交流了解到的情况,当前相关研究好像还不够,我们研发智能体系统是为了提升实用性,我认为这会对就业造成影响,不过我推测,这会催生出新的就业岗位。
我觉得在下一阶段,人类能够借助这些强大工具获取超级能力,条件是你懂得运用它们 。的确,这会带来冲击 ,但总体来讲,会创造出更好的就业机会 、更让人满意的岗位 ,并且繁琐的工作会渐渐消失 。过去技术发展向来如此 。
然而,当AGI能够胜任众多任务,问题就变成了:我们能否公平且广泛地分配生产效率提升带来的收益,此后还存在一个关于生活意义和价值的哲学问题,我认为我们需要一些杰出的哲学家来思考这个问题。
问:2022年我对你进行采访时,曾探讨过这个问题。你当时称:“要是身处一个极为充裕的世界,那么不平等现象的空间以及产生方式都会变少。这是AGI愿景实现后的一个积极后果。” 然而在那个世界里,依旧会有掌控财富的人,还有没有财富的人,以及可能失去工作的劳动者。似乎要实现“极度充裕”这一财富再分配的愿景,需要一场重大变革。你能详细阐述这一愿景会怎样实现吗?
我个人在这上面没花太多时间,不过或许我该越来越多地思考这个问题,而且我觉得顶尖经济学家应深入研究此问题,我所说的“极度充裕”是指借助人工智能解决核聚变、优化电池技术或超导体等难题,假设我们靠人工智能解决了所有这三个问题,这意味着能源成本将基本归零,且是清洁、可再生的。
这会让海水淡化成为解决水资源短缺的可行办法,原因是这只需能源和海水,这还意味着制造火箭燃料会变得简单,即只需利用类似技术从海水中分离氢气和氧气,所以许多构成资本主义世界基础的要素将不存在,因为其根基是能源成本、资源成本和资源稀缺性。但如果我们开辟了太空领域,开始开采小行星等,当然,构建基础设施需要数十年时间,我们将进入一个全新的经济时代。
问:我觉得这没有涉及到不平等问题,对吧?开采小行星仍然能够积累财富。土地终究是有限的。
如今许多资源都不充裕,这表明最终会演变成一场零和博弈。我思索的是一个并非零和博弈的世界,起码从资源方面而言是如此。当然,人们或许依旧渴求权力等其他事物。这要借助政治途径来解决。但至少我们解决了其中一个关键问题。由于我们身处的世界资源有限,最终一切都会成为零和博弈。这并非冲突和不平等的唯一根源,但确实是一个主要根源。
这便是我所讲的“极度充裕” ,从有意义的层面而言 ,我们已不再身处资源受限的零和世界 ,不过我觉得围绕这种情形 ,或许需要一种新的政治哲学 ,对此我十分肯定 。(文/腾讯科技特约编译 无忌)
本文采摘于网络,不代表本站立场,转载联系作者并注明出处:http://www.mjgaz.cn/fenxiang/275782.html