OpenAI、微软、智谱AI等全球16家公司共同签署前沿人工智能安全承诺
人工智能(AI)的安全问题,正以前所未有的关注度在全球范围内被讨论。
日前,OpenAI 联合创始人、首席科学家 Ilya Sutskever 与 OpenAI 超级对齐团队共同领导人 Jan Leike 相继离开 OpenAI,Leike 甚至在 X 发布了一系列帖子,称 OpenAI 及其领导层忽视安全而偏爱光鲜亮丽的产品。这在业界引起了广泛关注,在一定程度上凸显了当前 AI 安全问题的严峻性。
5 月 21 日,图灵奖得主 Yoshua Bengio、Geoffrey Hinton 和姚期智联合国内外数十位业内专家和学者,在权威科学期刊 Science 上刊文,呼吁世界各国领导人针对 AI 风险采取更有力的行动,并警告说,“近六个月所取得的进展还不够”。
他们认为,AI 的无节制发展很有可能最终导致生命和生物圈的大规模损失,以及人类的边缘化或灭绝。
在他们看来,AI 模型的安全问题,已经上升到足够威胁人类未来生存的水平。
同样,AI 模型的安全问题,也已经是可以影响每一个人、每一个人都有必要关心的话题。
5 月 22 日,注定是人工智能史上的一个重大时刻:OpenAI、谷歌、微软和智谱AI 等来自不同国家和地区的公司共同签署了前沿人工智能安全承诺(Frontier AI Safety Commitments);欧盟理事会正式批准了《人工智能法案》(AI Act),全球首部 AI 全面监管法规即将生效。
再一次,AI 的安全问题在政策层面被提及。
人工智能首尔峰会“宣言”
在以“安全、创新、包容”为议题的“人工智能首尔峰会”(AI Seoul Summit)上,来自北美、亚洲、欧洲和中东地区的 16 家公司就 AI 开发的安全承诺达成一致,共同签署了前沿人工智能安全承诺,包括以下要点:
确保前沿 AI 安全的负责任治理结构和透明度; 基于人工智能安全框架,负责任地说明将如何衡量前沿 AI 模型的风险; 建立前沿 AI 安全模型风险缓解机制的明确流程。
图灵奖得主 Yoshua Bengio 认为,前沿人工智能安全承诺的签署“标志着在建立国际治理制度以促进人工智能安全方面迈出了重要一步”。
作为来自中国的大模型公司,智谱 AI 也签署了这一新的前沿人工智能安全承诺,完整签署方名单如下:
对此,OpenAI 全球事务副总裁 Anna Makanju 表示,“前沿人工智能安全承诺是促进更广泛地实施先进 AI 系统安全实践的重要一步。” Google DeepMind 总法律顾问兼治理主管 Tom Lue 说道,“这些承诺将有助于在领先开发者之间建立重要的前沿 AI 安全最佳实践。” 智谱AI 首席执行官张鹏表示,“伴随着先进技术而来的是确保 AI 安全的重要责任。”
日前,智谱AI 也受邀亮相 AI 顶会 ICLR 2024,并在题为“The ChatGLM's Road to AGI”的主旨演讲中分享了他们针对 AI 安全的具体做法。
他们认为,超级对齐(Superalignment)技术将协助提升大模型的安全性,并已经启动了类似 OpenAI 的 Superalignment 计划,希望让机器学会自己学习、自己判断,从而实现学习安全的内容。
他们透露,GLM-4V 即内置了这些安全措施,以防止产生有害或不道德的行为,同时保护用户隐私和数据安全;而 GLM-4 的后续升级版本即 GLM-4.5 及其升级模型,也应当基于超级智能(Superintelligence)和超级对齐技术。
论文链接:https://arxiv.org/abs/2404.00604
在三个数据集上进行的直接偏好优化(DPO)实验表明,Self-Contrast 可以持续大幅超越 SFT 和标准 DPO 训练。而且,随着自生成的负样本数量增加,Self-Contrast 的表现也在不断提高。
同日,欧盟理事会也于同日正式批准了《人工智能法案》(AI Act),这是全球首部 AI 全面监管法规,这一具有里程碑意义的人工智能法规将于下月生效,目前仅适用于欧盟法律范围内的领域,或将为商业和日常生活中使用的技术设定一个潜在的全球基准。
“这部具有里程碑意义的法规是世界上第一部此类法规,它解决了一个全球性的技术挑战,同时也为我们的社会和经济创造了机遇,” 比利时数字化大臣 Mathieu Michel 在一份声明中说。
这一综合性的 AI 立法采用“基于风险”的方法,意味着对社会造成伤害的风险越高,规则就越严格。例如,不构成系统性风险的通用目的 AI 模型将承担一些有限的要求,但那些具有系统性风险的则需要遵守更严格的规定。
对违反《人工智能法案》中行为的罚款,该法案设定为违规公司前一个财年全球年营业额的百分比或预定的金额,以较高者为准。
如今,无论是小到科技公司,还是大到政府机构,都已经将预防、解决 AI 安全问题提上日程。正如牛津大学工程科学系教授 Philip Torr 所言:
“在上一次人工智能峰会上,全世界一致认为我们需要采取行动,但现在是时候从模糊的建议转变为具体的承诺了。”
© THE END
转载请联系本公众号获得授权
投稿或寻求报道:[email protected]
阅读原文 最新评论
推荐文章
作者最新文章
你可能感兴趣的文章
Copyright Disclaimer: The copyright of contents (including texts, images, videos and audios) posted above belong to the User who shared or the third-party website which the User shared from. If you found your copyright have been infringed, please send a DMCA takedown notice to [email protected]. For more detail of the source, please click on the button "Read Original Post" below. For other communications, please send to [email protected].
版权声明:以上内容为用户推荐收藏至CareerEngine平台,其内容(含文字、图片、视频、音频等)及知识版权均属用户或用户转发自的第三方网站,如涉嫌侵权,请通知[email protected]进行信息删除。如需查看信息来源,请点击“查看原文”。如需洽谈其它事宜,请联系[email protected]。
版权声明:以上内容为用户推荐收藏至CareerEngine平台,其内容(含文字、图片、视频、音频等)及知识版权均属用户或用户转发自的第三方网站,如涉嫌侵权,请通知[email protected]进行信息删除。如需查看信息来源,请点击“查看原文”。如需洽谈其它事宜,请联系[email protected]。