模型|汇聚4.5万开发者,华为MindSpore 1.0正式发布

_原题为 汇聚4.5万开发者 , 华为MindSpore 1.0正式发布
机器之心发布
机器之心编辑部
模型|汇聚4.5万开发者,华为MindSpore 1.0正式发布
文章图片

图1 MindSpore 1.0正式发布
开源6个月以来 , MindSpore收获了4.5w+名开发者 , 累计PR数1w+ , 下载使用用户遍布全球 , 覆盖亚洲、欧洲、南美、北美、非洲、等各地区 , MindSpore Study Group(下简称MSG)启动4个月便在海内外多个城市顺利开展 , 深圳、杭州、苏州、上海、俄罗斯、新加坡、印尼均已建立MSG组织 , 做到了真正的全球化社区 。
模型|汇聚4.5万开发者,华为MindSpore 1.0正式发布
文章图片

图2 MindSpore开源整体社区进展
1.0版本是一个里程碑 , 是alpha、beta版本的一个沉淀 , 也是未来版本的一个新起点 。 下面用1分钟视频回顾一下MindSpore从发布、开源到1.0版本的整体历程和技术特性 。
视频:MindSpore 1.0 版本1分钟特性总结
三大创新助力全场景AI应用
模型|汇聚4.5万开发者,华为MindSpore 1.0正式发布
文章图片

图3 MindSpore 1.0全景图介绍
创新一:全流程极简 , 多套件打造极致开发体验
1. 即开即用
当开发者开展新项目时 , 往往需要从清洗数据开始 , 到训练模型 , 推理部署等多个流程 , 流程复杂 , 耗时较久 。 在1.0版本中 , 官方提供了40+个典型的高性能模型 , 覆盖了CV、NLP、推荐、语音等各个领域 , 大家可以使用这些模型直接推理或者加载自己的数据集做Fine-tuning , 这样可以节省大量训练的时间和成本 , 快速开发出智能的服务和应用 。 开发者们可以在官网的Hub页面中通过筛选条件 , 快速找到自己想要的预训练模型 , 实现模型开发套件 , “即开即用” 。
模型|汇聚4.5万开发者,华为MindSpore 1.0正式发布
文章图片

图4 MindSpore Hub官网页面
2. 所见即所得
1.0版本中 , MindSpore提供了所见即所得的模型开发和调优套件 。 在模型开发阶段 , MindSpore基于统一的自动微分引擎 , 支持用户用一行代码切换动态图和静态图模式 , 使得兼顾开发效率和执行效率 。 在模型调优阶段 , MindInsight可视化调优工具帮助用户汇总和分析调优过程 , 并且向推荐合理的调优策略 , 加速模型调优过程 。
模型|汇聚4.5万开发者,华为MindSpore 1.0正式发布
文章图片

图5 MindSpore 模型调优套件
如果你已使用PyTorch训练模型 , 可以使用MindConverter工具加少量的代码开发 , 即可方便地迁移到MindSpore框架 。 同时MindSpore也支持PyTorch、TensorFlow Lite、Caffe的模型文件直接转为MindSpore模型 。 这样就能非常方便地使用MindSpore提供的全自动并行特性 。
创新二:全自动并行 , 最大释放集群算力
模型|汇聚4.5万开发者,华为MindSpore 1.0正式发布
文章图片

图6 MindSpore自动并行详解图
在算法层面 , MindSpore拥有自动并行能力 , 可以根据集群配置对模型和张量自动切分 , 将串行算法进行自动并行 , 大大减少算法开发人员的分布式代码开发和调优的负担 , 使得算法调优时间从月级降到天级;
在算子层面 , MindSpore提供了算子级并行自动融合 , 通过细粒度pipeline的并行执行的方式 , 进一步提高计算性能;
在硬件层面 , MindSpore进行整图调度 , 可以根据计算特征 , 自动把算子调度到异构设备上执行 , 实现异构多核的高效并行执行;
在此基础上 , MindSpore协同Ascend处理器 , 在分布式集群上达到了接近线性加速比 , ResNet50网络训练吞吐量提升两倍 , Bert-Large网络训练吞吐量提升3.2倍 。 开发者可以方便地使用MindSpore实现在多计算单元上并行计算 , 既能大幅减少开发量以及开发难度 , 又能使性能持平甚至优于手动设置 。 在ReID网络上进行混合并行 , 脚本代码量从130行 , 直接变为1行 , 且加速比能达到88%以上 。
创新三:全场景协同全场景协同 , 智能匹配端、边、云多样设备MindSpore 1.0提供模型自适应生成能力 , 通过平衡模型精度和设备资源约束 , 自动搜索匹配的模型 , 开发者只需要做一次训练 , 得到的模型就可以在端、边、云等多处部署 , 可保证生成的精度损失小于1%;对于已经部署的模型 , MindSpore提供了轻量化的端侧学习能力 , 发挥私人数据的价值 , 持续提升模型精度 , 让智能设备越用越懂你 。 在框架方面 , 为了多样化设备的资源约束 , MindSpore可以做到KB到MB级的弹性伸缩 , 既可以部署到高端手机 , 又可以部署到手表等对资源要求极为苛刻的设备 , 从而满足全场景部署的需求 。


推荐阅读