支持YOLOv7等热门模型!新一代AI部署工具FastDeploy发布!开箱即用,极致高效!

点击下方卡片,关注“CVer”公众号
AI/CV重磅干货,第一时间送达
人工智能产业应用发展的越来越快,开发者需要面对的适配部署工作也越来越复杂。层出不穷的算法模型、各种架构的AI硬件、不同场景的部署需求、不同操作系统和开发语言,为AI开发者项目落地带来极大的挑战。
为了解决AI部署落地难题,我们发布了新一代面向产业实践的推理部署工具FastDeploy。FastDeploy旨在为AI开发者提供模型部署最优解,具备全场景、简单易用、极致高效三大特点(下文将详细解读)。开发者可以通过FastDeploy这款产品,满足全场景的高性能部署需求,大幅提升AI产业部署的开发效率。
抢先看看硬件合作伙伴和AI部署工程师眼中的FastDeploy。(上下滑动查看)
12月12日-12月30日,《产业级AI模型部署全攻略》系列直播课程,FastDeploy联合10家硬件公司与大家直播见面。欢迎大家扫码报名获取直播链接,加入交流群
与行业精英共同探讨AI部署话题。
扫码报名,获取直播链接
FastDeploy开源项目地址
https://github.com/PaddlePaddle/FastDeploy
接下来让我们详细了解FastDeploy的简单易用、全场景、高性能3大特性。
简单易用
多语言统一部署API,3行代码搞定模型部署
一键体验预置150+热门模型,覆盖20多主流产业应用场景
- 10多个端到端的部署工程Demo,助力快速集成
全场景
统一多端部署API,一行代码,灵活切换多推理引擎后端
FastDeploy切换推理引擎后端
多框架支持,一行命令实现模型协议互转
FastDeploy一行代码切换多端部署
- 多硬件适配,快速实现多硬件跨平台部署
极致高效
- 软硬联合自动压缩优化,减少部署资源消耗
FastDeploy一键自动压缩,减少硬件资源消耗
- 端到端前后预处理优化,减少部署资源消耗
FastDeploy前后预处理优化,减少硬件资源消耗
目前FastDeploy已经支持包括X86 CPU、NVIDIA GPU、Jetson、飞腾 CPU、昆仑 XPU、Graphcore IPU、华为昇腾 NPU、ARM CPU(联发科、瑞芯微、树莓派、高通、麒麟等ARM CPU硬件)、瑞芯微 NPU、晶晨 NPU、恩智浦 NPU等十多类AI硬件。开发者可以通过FastDeploy这款产品,满足全场景的高性能部署需求,大幅提升AI产业部署的开发效率。
直播预告
本次部署直播月历时3周,将联合10家硬件公司全面讲解云边端硬件部署,手把手云边端实战,体验“开箱即用”的软硬解决方案落地。
欢迎大家扫码报名获取直播链接,加入交流群与行业精英深度共同探讨AI部署落地话题。
整理不易,请点赞和在看
阅读原文 最新评论
推荐文章
作者最新文章
你可能感兴趣的文章
Copyright Disclaimer: The copyright of contents (including texts, images, videos and audios) posted above belong to the User who shared or the third-party website which the User shared from. If you found your copyright have been infringed, please send a DMCA takedown notice to [email protected]. For more detail of the source, please click on the button "Read Original Post" below. For other communications, please send to [email protected].
版权声明:以上内容为用户推荐收藏至CareerEngine平台,其内容(含文字、图片、视频、音频等)及知识版权均属用户或用户转发自的第三方网站,如涉嫌侵权,请通知[email protected]进行信息删除。如需查看信息来源,请点击“查看原文”。如需洽谈其它事宜,请联系[email protected]。
版权声明:以上内容为用户推荐收藏至CareerEngine平台,其内容(含文字、图片、视频、音频等)及知识版权均属用户或用户转发自的第三方网站,如涉嫌侵权,请通知[email protected]进行信息删除。如需查看信息来源,请点击“查看原文”。如需洽谈其它事宜,请联系[email protected]。