Graphcore拟未团队将联合百度飞桨FastDeploy团队带来“产业级AI模型部署全攻略 - Graphcore IPU专场”直播课程,就产业AI硬件部署解决方案进行交流,届时会详细讲解Graphcore最新发布的AI加速卡C600特性,并实战Graphcore硬件与FastDeploy如何快速完成AI模型部署。
扫码报名即可获取直播链接,
加入交流群与行业精英交流,
共同探讨AI部署相关话题!
关于FastDeploy
为了解决AI部署落地难题,百度飞桨发布了新一代面向产业实践的推理部署工具FastDeploy,旨在为AI开发者提供模型部署最优解。FastDeploy具备全场景、简单易用、极致高效两大特点,可满足开发者对高性能部署的需求,大幅提升AI产业部署的开发效率。
全场景
多端部署,统一部署API,一行代码切换不同推理后端和推理硬件;多框架支持,一行命令实现其他深度学习框架到飞桨以及ONNX的相互转换;多硬件适配,目前支持X86 CPU、NVIDIA GPU、Jetson、飞腾 CPU、昆仑芯XPU、Graphcore IPU、华为昇腾 NPU、ARM CPU(联发科、瑞芯微、树莓派、高通、麒麟等硬件)、瑞芯微NPU、晶晨 NPU、恩智浦 NPU等十多类AI硬件,开发者如果正在使用其他硬件部署,可以通过一行代码将AI部署代码迁移至Graphcore IPU硬件完成部署。
简单易用
多语言统一模型API,三行代码搞定AI模型部署。模型丰富,预置飞桨和生态的150+产业级SOTA模型,覆盖Text、 Vision、Speech 、Cross-modal 四大领域;覆盖20+主流应用场景,算法场景包括图像分类、图像分割、语义分割、物体检测、字符识别(OCR)、人脸检测、人脸关键点检测、人脸识别、人像扣图、视频扣图、图像超分、姿态估计、文本分类、信息抽取、文图生成、行人跟踪、语音合成等。
极致性能
联合自动压缩工具与推理引擎深度联动的能力以及AI模型前后预处理加速库的优化,实现AI模型端到端极致的推理性能。
关于C600
Graphcore®C600 IPU处理器PCIe卡是针对机器学习推理应用的高性能加速卡。C600由支持FP8的Graphcore MK2 IPU提供动力,是一款双插槽全高PCI Express Gen4卡,设计用于安装在行业标准服务器机箱中,以加速机器智能工作负载。IPU-Link™高带宽互连电缆可将最多八个C600互相连接,提供增强的IPU计算能力。
获取更多Graphcore资讯,阅读深度技术文章,并与其他创新者们一起交流,请至中国官网graphcore.cn,以及关注Graphcore微信、微博和知乎创新社区。
Graphcore中国官网
Graphcore官方微信
Graphcore微博创新社区
Graphcore知乎创新社区
继续阅读
阅读原文