作者|Kathleen Chaykowski
Facebook的人工智能研究部门(FAIR)已经将自己的大部分代码和研究成果开源。现在,有史以来第一次,Facebook将开源自己的人工智能硬件设计。

这家总部位于加州门洛帕克的公司将开源用于大规模人工智能计算的最新服务器,Facebook计划把它提交到“开放计算项目”(Open Compute Project,该项目让数家大公司相互分享数据中心产品的设计)。这款服务器被称为“Big Sur”,其中集成了图形处理单元(GPU),可用于处理大规模数据集。Big Sur被开发来训练神经网络,后者是几乎所有类型现代人工智能研究的关键所在,比如说跟语言、文本或视频有关的项目。该公司表示,此举是值得关注的,因为更强大的计算机(尤其是由GPU驱动的计算机)在机器学习和人工智能领域近来取得的重大进展中一直扮演着举足轻重的角色。
“我们已经开发出了一些软件,它们可以讲故事,回答关于场景的问题,玩游戏,乃至通过观察一些例子来学习未指定的任务。”Facebook 人工智能研究部门的凯文·李(Kevin Lee)和塞尔坎·皮亚蒂诺(Serkan Piantino)在一篇文章中表示,“但我们意识到,要真正规模化地解决这些问题,我们需要设计出自己的系统。今天,我们发布了基于GPU的下一代神经网络训练系统,其代号是‘Big Sur’。”
Facebook表示,他们拥有为开源硬件和软件提供支持的公司文化,而自己也受惠于其他公司通过开放计算项目分享的硬件设计。该公司的一名发言人称,Big Sur的设计可以惠及一些初创公司或大学院校,这些机构可能需要开发人工智能硬件但却没有Facebook的资源。Facebook还表示,他们对GPU硬件的投入增加了两倍不止,而且越来越注重研发工作,因为人工智能技术被广泛应用于Facebook的各项服务。Facebook的发言人说,开源Big Sur的决定将开创一个先例,该公司预计会在未来开源更多的人工智能硬件项目。这名发言人还表示,Facebook一直在实验室里测试Big Sur,但仍然还在使用上一代的硬件。Facebook跟广达(Quanta)以及英伟达(Nvidia)合作开发了Big Sur。
“我们希望让人工智能研究人员能够更加容易地分享方法和技术。”李和皮亚蒂诺说,“就像所有被提交到开放计算项目的硬件系统一样,我们希望其他人能够跟我们一起改进它。我们认为,这种开放式合作有助于推动未来设计的创新,并让我们更接近于开发出能够把这种创新带给用户的复杂人工智能系统。”
Facebook表示,Big Sur的运行速度是公司前一代人工智能硬件的两倍,这意味着,它训练神经网络的速度和探索神经网络的规模都是原来的两倍。 这家社交媒体公司还称,Big Sur的能源效率和成本效益都高于很多高性能计算系统,后者的使用和维护成本往往非常高。很多服务器需要冷却系统,而Big Sur能够运行于采用自然风冷的数据中心。Big Sur的设计还应该能够降低生产和制造的成本,它被设计成可轻松安装和拆卸的样子,几乎完全不需要使用工具。Facebook表示,对于硬盘那种容易出现故障的组件,维修人员可以在几秒钟内完成置换;那些在前一代硬件中不经常被用到的组件也被移除了。
参与“开放计算项目”的公司还包括微软(Microsoft)、英特尔(Intel)和思科(Cisco)。Facebook公布这个消息恰逢神经信息处理系统大会(Neural Information Processing Systems)在加拿大蒙特利尔召开。
译|何无鱼 校|李其奇
本文为福布斯中文网版权所有,未经允许不得转载。如需转载请联系[email protected]

继续阅读
阅读原文