Graphcore(拟未)和Pienso在硬件与软件领域的合作荣获CogX最佳创新类别的自然语言处理奖。
Graphcore和Pienso之间的合作展示了满足广大消费者需求的新型人工智能产品如何能够从真正为人工智能打造的计算架构中受益,以及这种强大的组合如何能够加速创新和商业人工智能服务的普及。
Pienso联合创始人兼首席技术官Karthik Dinakar表示:“利用生成式人工智能构建可靠、可扩展的生产级产品非常困难。硬件加速器,尤其是GPU,依然昂贵且稀缺。而稀缺带来了机会——在这种情况下,对于端到端的人工智能平台来说,可以在硬件或软件层优化性能。在这次的合作中,我们两者都做到了,我们对接下来的合作感到非常兴奋。”
面向企业的语言模型
大型语言模型(LLMs)的蓬勃发展及其广泛的功能正迫使全球各地的企业考虑如何利用这项令人兴奋的技术。对许多企业而言,这意味着有希望从海量的数据库中提取有价值的新见解,无论这些数据是存储在档案中还是实时生成的。
越来越多的企业发现,在单个基础模型上附加简单的API接口并不能构成企业级工具,并且大模型企业可能也不是提供他们所需服务的最佳选择。
与此同时,商业大型语言模型用户也在考虑使用此类人工智能的经济性。谨慎的选择可以极大地影响持续的投资回报,如使用开源模型和选择合适的计算平台。
这正是Pienso和Graphcore共同致力解决的广泛且紧迫的需求。
可访问的人工智能
Pienso的软件将最先进的大型语言模型技术交到了业务决策者手中,这些人具备特定领域的专业知识,但不一定拥有人工智能或编程技能。Pienso允许企业在不一定了解“微调”含义的情况下,对模型进行微调并将其应用于特定行业或个人业务。这样做的结果是企业能够解锁以前无法获取的可操作见解并迅速采取行动。
性能和效率对于交付任何商业应用都至关重要。在Pienso的案例中,加速计算使产品的能力产生了质的变化,特别是对于那些实时数据洞察比事后回顾更有价值的客户,例如客户服务运营或内容审核团队。
通过与Graphcore的合作,Pienso不仅找到了完美的人工智能计算解决方案,还找到了一个志同道合的合作伙伴,双方都相信当人工智能可供尽可能多的人使用时,人工智能才是最强大的。
除了Graphcore IPU天然的性能优势以外,Pienso还使用了新的人工智能技术,通过独特的人工智能架构,与性能相对领先的基于GPU的系统相比,可获得高达35倍的性能提升。
Graphcore与Pienso将继续合作,与我们的研究团队一起探索使用最新的大型语言模型提供加速洞察的新方法。
同时,我们的商业合作意味着我们正与各行各业的客户共同合作。对他们而言,我们代表着全新且真正有价值的应用—— 一种高性能的企业级大型语言模型平台,可供任何人访问。
欲了解更多有关Pienso与Graphcore如何为您的业务提供有价值的见解,请访问我们的专用页面[1]
[1]https://www.graphcore.ai/pienso
获取更多Graphcore资讯,阅读深度技术文章,并与其他创新者们一起交流,请至中国官网graphcore.cn,以及关注Graphcore微信、微博和知乎创新社区。
Graphcore中国官网
Graphcore官方微信
Graphcore微博创新社区
Graphcore知乎创新社区
阅读原文,查看英文blog。
继续阅读
阅读原文