1. 首页>>分享

斯坦福李飞飞教授公开信支持开源AI,呼吁科学务实治理框架

吉文奇在2月8日报告说,今天下午,斯坦福大学教授兼以人民为导向的AI研究中心的主任Li Feifei发出了一封公开信,向强烈支持开源AI。

最近,在其知名度之后,DeepSeek被美国甚至世界各地的许多相关机构和企业所包围。但是,Yann Lecun和Marc Andreessen等著名行业人物也表达了不同的意见,并支持了开源AI。 Li Feifei目前谈到了开源问题,并且似乎对最近的相关讨论做出了回应。

Li Feifei在信中强调,AI的未来已经到来,但担心AI治理似乎缺乏一般框架,无法有效确保它可以使所有人类受益。更严重的是,某些科幻小说和意识形态概念似乎正在渗透到制定AI治理框架的过程,并且需要避免使用科学概念和实用态度。

她认为,限制获得先进的AI系统的访问将造成障碍和慢速创新,这对学术界和人才的发展非常不利,并最终将适得其反。AI行业的发展。

在过去的一年中,除了在太空情报领域建立世界实验室外,Li Feifei还积极参与公众讨论AI领域的相关政策和治理框架,倡导公共部门增加对AI的投资,并反思他过去使用Imagenet创造的东西。众包AI模型的公平性问题。

以下是Li Feifei公开信的完整汇编:

AI治理框架很紧急

AI以惊人的速度发展。现在可以在几分钟内完成几天来计算模型的任务。尽管培训成本大幅增加,但随着开发人员学会在资源较少的情况下做更多的事情,这些成本将很快下降。我之前说过,现在重复一遍 - AI的未来在这里。

对于AI领域的行业内部人士来说,这并不奇怪。计算机科学家一直在努力工作,多年来,公司一直在创新。令人惊讶的是,AI治理似乎缺乏整体框架​​。是的,AI正在迅速发展 - 它需要确保其受益于所有人类。

作为技术人员和教育者,我坚信全球AI生态系统中的每个人都有责任推动技术进步并确保以人为本的方法。这是一项艰巨的任务,需要一组结构化的准则。为了准备下周在巴黎举行的AI行动峰会,我提出了未来AI政策制定的三个基本原则。

首先,依靠科学,而不是科幻小说。科学工作的基础是原则上依靠经验数据和严格的研究,也应应用于AI治理。虽然未来派的场景(无论是乌托邦还是启示录)激发了我们的想象力,但有效的决策需要清楚地了解当前的现实。

我们在图像识别和自然语言处理等领域取得了重大进展。聊天机器人和辅助软件程序正在改变他们激动人心的势头的工作方式,但他们只是采用了高级数据学习和模式生成技术。它们不是聪明的意图,自由意志或意识。理解这是至关重要的,使我们无法被不切实际的情景分散注意力,并使我们能够专注于关键挑战。

鉴于AI的复杂性,并不总是很容易专注于现实。为了弥合科学进步和现实生活应用之间的差距,我们需要可以准确共享有关AI功能的最新信息的工具。像国家标准技术研究所这样的权威机构可以阐明AI在现实世界中的影响,从而根据当前技术状态制定精确且可行的政策。

其次,要务实而不是意识形态。尽管AI领域的发展迅速,但它仍处于起步阶段,最大的贡献仍在未来。因此,必须以务实的方式制定有关可以构建的内容和无法构建的政策,以最大程度地减少意外后果,同时激发创新。

以AI为例,以更准确地诊断疾病。这可能会迅速普及获得高质量的医疗服务。但是,如果没有适当的指导,它也可能加剧当今医疗保健系统中存在的偏见。

开发AI技术并不容易。开发模型可能是有良好意图的,但将来可能会滥用。因此,最好的治理政策应旨在在战术上减轻这种风险,同时奖励负责任的做法。决策者必须制定实际责任政策,以防止故意滥用,而不会不公平地惩罚善意行为。

最后,授权AI生态系统。这项技术可以激发学生的灵感,帮助我们照顾老龄化的人口,并为清洁能源提供创新的解决方案,并且通常通过协作实现最佳创新。因此,对于决策者来说,赋予整个AI生态系统的能力 - 包括开源社区和学术界尤为重要。

开放访问权限AI模型和计算工具对于进步至关重要。限制访问将创造障碍并减轻创新,特别是对于资源较少的学术机构和研究人员。当然,这种限制的后果不仅限于学术界。如果今天的计算机科学专业的学生无法使用最佳模型进行研究,那么当他们进入私营部门或决定创办自己的公司时,他们将无法理解这些复杂的系统 - 这是一个严重的差距。

AI革命已经到来 - 我对此感到兴奋。在AI驱动的世界中,我们有可能显着改善人类的生活条件,但是为了实现这一目标,我们需要基于经验,协作的治理体系,并深深植根于以人为本的价值观。

本文采摘于网络,不代表本站立场,转载联系作者并注明出处:http://www.mjgaz.cn/fenxiang/274003.html

联系我们

在线咨询:点击这里给我发消息

微信号:13588888888

工作日:9:30-18:30,节假日休息