广为使用的人工智能部署和服务平台UbiOps正在增加对Graphcore(拟未) IPU的支持,从而帮助开发人员以更快、更具成本效益的方式运行大型人工智能任务。
UbiOps[1]对Gcore云服务[2]上IPU的初期支持使开发人员可以训练和运行人工智能模型,并实施MLOps最佳实践,而无需配置和维护复杂的计算基础设施。
UbiOps可作为一个无服务器人工智能计算平台处理公司人工智能工作负载的服务、工作流管理和动态扩展。这样,人工智能团队就可以将更多精力放在核心任务上,将更少的时间花在资源密集型的DevOps和IT工作上。
UbiOps的底层多云架构使团队只需点击一下按钮,就能在先进硬件上轻松运行和编排人工智能工作负载,GCore云上的Graphcore IPU是UbiOps最新纳入的创新。
UbiOps用户可以轻松创建用于部署和训练工作负载的人工智能微服务和流水线,将其部署在IPU支持的节点上,并根据不断变化的需求动态扩展IPU的使用。
这对大型现代人工智能工作负载(如生成式人工智能模型和大型语言模型微调)尤其有效。
UbiOps首席执行官Yannick Maltha对双方的合作表示欢迎:“Graphcore IPU正在成为一个强大而经济高效的人工智能加速计算平台,可用于构建下一代人工智能解决方案。”
UbiOps首席技术官Victor Pereboom说:“此次合作将在支持企业更快运行大型人工智能工作负载(如生成式人工智能模型和大型语言模型微调)的同时帮助他们优化成本。由Gcore经济高效的云进行编排的Graphcore专用IPU提供了一个强大的计算架构,数据科学团队只需在UbiOps中轻轻一点即可使用。”
不断发展的IPU生态系统
一些以人工智能为中心,或是正在开展前沿研究的企业正在加速采用Graphcore IPU计算,而不断发展的开发者工具生态系统以及不断壮大的人工智能即服务层也支持了这种采用。
Graphcore的软件栈与主要的人工智能框架完全集成,包括PyTorch和PyTorch Geometric、Tensorflow、Keras,以及PaddlePaddle,同时Hugging Face Optimum提供了广泛的IPU优化模型。
Graphcore IPU的性能和出色的经济性对正在建立更高级别人工智能即服务业务的新企业颇具吸引力,这些新企业以人工智能为中心,包括自然语言处理商业洞见平台Pienso、基础模型创建者Aleph Alpha,以及提供基于API的便捷模型的NLP Cloud等。
访问UbiOps.com[3],了解UbiOps和IPU支持的计算能够如何帮助加速您的下一个人工智能项目。
[1]https://ubiops.com/
[2]https://gcore.com/cloud/ai-platform  
[3]https://ubiops.com/
获取更多Graphcore资讯,阅读深度技术文章,并与其他创新者们一起交流,请至中国官网graphcore.cn,以及关注Graphcore微信、微博和知乎创新社区。
Graphcore中国官网
Graphcore官方微信
Graphcore微博创新社区
Graphcore知乎创新社区
点击阅读原文,查看英文blog。
继续阅读
阅读原文