我们很高兴地宣布与令人兴奋的人工智能实施领导者——Spell建立合作伙伴关系,以提供下一代基于IPU的基础设施。这些基础设施使开发人员能够快速轻松地大规模运行人工智能应用程序,从而更快地实现价值。
如今,Graphcore的人工智能计算系统正在为各行各业越来越多的客户提供卓越的性能和效率。
Graphcore用户群的增长以及帮助开发人员最大限度提高IPU投资回报的关键源于其在生产中的易访问性和为AI提供的出色功能。
这就是我们与Spell合作的原因。
Spell可将深度学习大规模地用于自然语言处理、计算机视觉和语音识别,将最流行的工具和框架整合到一个强大的软件平台中。
从初始模型训练和优化过程自动化,到部署工具和云服务提供商集成,Spell正在不断统一并扩大自身的人工智能生态系统。
在帮助Graphcore用户从初步探索到管理扩展系统的过程中,他们正是绝佳的合作伙伴。
IPU测试运行
作为我们合作伙伴关系的一部分,Spell和Graphcore提供自助式免费试用,使用户能够亲身体验集成解决方案。使用基于浏览器的notebook通过Spell平台访问云中的IPU,开发人员可以免费对一系列流行人工智能模型进行6个小时的IPU系统实地测试。这些人工智能模型包括BERT等自然语言模型,EfficientNet等计算机视觉模型,TGN等图神经网络(GNN)。
在Spell notebook上启用IPU,请访问此处[1]
这些notebook提供了一种交互式方式,能帮助用户快速熟悉IPU上关键的编程原理,同时通过最新和最常用的机器学习模型示例探索其功能。
针对那些对IPU功能有所了解的人而言,这将是一个全新的、令人期待的亲身体验方式。
利用Spell进行扩展
Graphcore与Spell间的合作伙伴关系不局限于仅仅使用Spell Workspaces扩大对IPU计算的访问。
IPU硬件已与Spell编排器实现无缝集成,让开发人员也可以通过Spell强大的命令行端口简化其端到端的MLOps工作流程。
Workspaces将管理IPU计算、存储和后台的所有内容,使用户能够专注于IPU的实验、模型开发和微调。
用户现在可以对IPU上的训练、优化、测试和推理的流水线进行自动化,而Spell负责后台所有的基础设施配置。Spell还提供了一个模型注册表,让用户可以跟踪不同模型的版本更新以及监控模型性能。
Spell平台有望成为Graphcore用户在人工智能之旅中取得进展并扩展其计算能力的强大伙伴。
Spell采用技术不可知的方法,聚集了人工智能行业内的领先企业,包括Tensorflow、PyTorch、Kubernetes、Docker、AWS、Google Cloud、Snowflake、Grafana等等。
总的来说,Spell用户能够“更快地解锁答案”,而这一目标与Graphcore加速人工智能创新的使命高度吻合。
谈及IPU的增强功能,Graphcore客户经常谈论的是如何能够更快地完成任务并更快地迭代他们的模型开发。Spell的模型优化、测量和自动化等工具将有效增强该过程。
未来,Graphcore将与Spell保持紧密合作,确保Graphcore的强大功能和灵活性以及Poplar软件栈与Spell的机器学习工具深度集成,这不仅将降低准入门槛,还将提高人工智能计算的性能标准。
阅读指南[2],了解如何使用Spell Workspaces在IPU上运行BERT微调。
阅读Spell宣布我们合作伙伴关系的博客[3]
[1]https://spell.ml/graphcore
[2]https://www.graphcore.ai/posts/getting-started-with-spell-workspaces-and-ipus
[3]https://spell.ml/blog/spell-partners-with-graphcore-preview-ipu-compute-offering-YfLsxREAACUAsSIi
获取更多Graphcore资讯,阅读深度技术文章,并与其他创新者们一起交流,请至中国官网graphcore.cn,以及关注Graphcore微信、微博和知乎创新社区。
Graphcore中国官网
Graphcore微信创新社区
Graphcore微博创新社区
Graphcore知乎创新社区
点击阅读原文,查看英文blog。
继续阅读
阅读原文