点击蓝字 关注我们
SUBSCRIBE to US
Illustration: The Verge
微软的一份新报告(https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/RW1l5BO)概述了该公司去年为发布负责任的人工智能平台所采取的步骤。
在其主要涵盖2023年的《负责任的人工智能透明度报告(Responsible AI Transparency Report)》中,微软介绍了在安全部署人工智能产品方面取得的成就。年度人工智能透明度报告是该公司在去年7月与白宫签署自愿协议后做出的承诺之一。微软和其他公司承诺建立负责任的人工智能系统,并致力于安全保障。
微软在报告中表示,它在过去一年中创建了30个负责任的人工智能工具,壮大了负责任的AI团队,并要求制作生成型人工智能应用程序的团队在整个开发周期中衡量和映射风险。该公司指出,它在其图像生成平台上添加了内容凭据,该平台在照片上添加水印,并将其标记为人工智能模型制作的(https://www.theverge.com/2023/11/8/23951955/microsoft-elections-generative-ai-content-watermarks)。
该公司表示,它为Azure人工智能客户提供了检测仇恨言论、性内容和自残等问题内容的工具,以及评估安全风险的工具。它还正在扩大其红队(渗透测试团队)工作,包括故意尝试绕过其人工智能模型中的安全功能的内部红队,以及红队应用程序,以允许在发布新模型之前进行第三方测试。
微软首席人工智能负责人Natasha Crampton在发给The Verge的一封电子邮件中表示,公司理解人工智能仍在进行中,负责任的人工智能也是如此。
Crampton说:“负责任的人工智能没有终点线,所以我们永远不会考虑我们在自愿人工智能承诺下所做的工作。但自签署这些承诺以来,我们已经取得了长足的进展,并期待着在今年的势头上再接再厉。”
微信号|IEEE电气电子工程师学会
新浪微博|IEEE中国
 · IEEE电气电子工程师学会 · 
继续阅读
阅读原文