点击蓝字 关注我们
SUBSCRIBE to US
Cath Virginia / The Verge | Photos from Getty Images
据悉,美国和英国同意共同监测先进的人工智能模型的安全风险(https://www.commerce.gov/news/press-releases/2024/04/us-and-uk-announce-partnership-science-ai-safety)。两国将合作进行研究,并至少进行一次联合安全测试(https://www.theverge.com/2023/10/30/23914507/biden-ai-executive-order-regulation-standards)。
两国都表示,在使用人工智能模型时,安全是首要问题。
美国商务部长Gina Raimondo表示,政府“致力于与其他国家发展类似的合作伙伴关系,以促进全球人工智能安全”。
Raimondo在一份声明中表示:“无论是对我们的国家安全还是对我们更广泛的社会,这种伙伴关系都将加速我们研究所在全方位风险中的工作。”
通过该协议,两国承诺在技术研究、人员交流和信息共享方面进行合作。
美国和英国的一个潜在合作伙伴是欧盟,欧盟通过了自己的人工智能系统使用全面法规(https://www.theverge.com/2023/12/14/24001919/eu-ai-act-foundation-models-regulation-data)。欧盟的人工智能法将在几年内生效,该法要求运行强大人工智能模型的公司遵守安全标准。
英国人工智能安全研究所是在11月全球人工智能峰会之前成立的,包括美国副总统Kamala Harris在内的几位世界领导人在会上讨论了如何利用并可能跨境监管这项技术。
英国已开始对某些型号进行安全测试,但尚不清楚是否可以使用最近发布的版本。多家人工智能公司敦促英国人工智能安全研究所进一步明确时间表(https://www.theverge.com/2024/2/7/24064731/ai-developers-want-the-uk-to-move-faster-in-testing-ai-models),并在发现模型存在风险时采取后续措施。
微信号|IEEE电气电子工程师学会
新浪微博|IEEE中国
 · IEEE电气电子工程师学会 · 
继续阅读
阅读原文