(本文阅读时间:20分钟)
人工智能的迅猛发展,极大地改变了我们的工作和生活方式,带来了诸多便利,但与此同时,各种潜在风险也随之涌现,例如人工智能生成的内容可能会包含歧视性话语、虚假性信息、隐私泄露等。反尺度定律表明:随着 AI 模型规模的增加,可能带来的风险和问题也会相应增大。因此,人们在追求更强大的人工智能时,也必须让人工智能谨守造福人类的原则,并且在人工智能对人类社会造成不良影响之前就做好准备。这也正是微软亚洲研究院正为之付出努力的研究方向——社会责任人工智能(Societal AI)。
“当罗盘第一次被应用到航海中,在茫茫漂泊的大海上无依无靠,没有方向、孤独寂寞的水手,正因为罗盘的产生,让他们不仅知道了当下自己的位置,也为他们指引了将来前行的方向[…]当下人们所塑造的人工智能模型,恰似一艘在技术的海洋中航行的巨大母舰。我们所需要做的不仅仅是让这艘AI的巨舰更大、更快、更强,而且还应该为它未来前行指引出真正适合于人类、能够造福于人类的方向。”
在最近的 @ TEDxBeijing Live 活动中,微软亚洲研究院高级研究员矣晓沅阐明了人工智能的价值观与其行为间的关系,并深入探讨了实现人工智能与人类价值观有效且稳定的对齐方法。同时,他还介绍了微软亚洲研究院为解决对人工智能价值观的定义、评测和对齐问题,所进行的“价值观罗盘”(Value Compass)项目的最新研究进展。该项目致力于用人类的价值观传承引导技术创新的社会责任,通过对二者价值观进行对齐,从而构建人机和谐发展的未来社会。
点击链接观看本期视频,让我们一同紧握价值观罗盘,驶向智能世界的美好彼岸。
你也许还想看:
继续阅读
阅读原文