『』AI市场开发人员访谈录( 三 )


您觉得这些开源框架未来的趋势如何?比如这些开源框架对您未来的产品/解决方案的价值如何?这些开源技术 , 在你们的产品、解决方案中是什么角色?重要性如何?
某些领域可能有用武之地 。
5. 请介绍您的计算资源的选择和配置
您在训练阶段、以及推理阶段 , 分别的部署方式是:公有云 , 本地 , 移动端?
训练目前是本地 , 推理/解码在终端 。
计算资源如内存配置 , 模型训练、推理阶段的加速方案-GPU/FPGA/ASIC、计算的精度等?
型号
NF5288M5(AGX-2)
高度
2U
GPU扩展
通过NVIDIA官方认证 , 支持8片NVIDIA? Tesla? NVLink? V100/P100或8片PCIe P100/P40/P4等 。
处理器
2颗Intel?Xeon? Skylake Gold/Platinum系列处理器
内存
6通道 , 最多2TB 2667MHz DDR4
存储
8个2.5寸U.2/SAS/SATA 2个板载M.2 PCIe & SATA
冷却
冗余热插拔系统风扇 风冷/气液混合冷却
电源
2个3000w PSU 80+铂金
尺寸
448W*87.5H*899.5D (mm)
工作温度范围
5 - 35°C/41°F - 95°F
最强性能 , 极致设计
AGX-2在2U空间容纳2颗最新的Intel Xeon Skylake处理器 , 8片全球最先进的GPU , 即Volta架构V100 , 搭载NVLink 2.0这一全球最先进的GPU互联技术 。单机即可提供60TFlops的双精度计算能力与960TFlops的Tensor计算性能 。
最高灵活 , 应用适配
AGX-2可提供5种GPU拓扑结构 , 可灵活配置1-4片业界最高速的100Gbps EDR HCA卡 , 不同的深度学习应用可采用 与之匹配的GPU拓扑 , 两者相得益彰 , 激发无限潜能 。最高带宽 , 最低延迟 AGX-2 8颗GPU中的任意2颗均可实现P2P通信 , 通过全球最先进的GPU互联技术NVLink 2.0 , 支持高达50GB/s的 P2P带宽 。
该加速方案为您带来了多少倍的效率提升?
看对比方案 , 如果和自建GPU相比 , 训练效果提升非常大 。推理端类似 。
6. 请介绍您使用过的算法以及效果
您认为该算法是否适用于当前的应用场景?效果如何?现在是否达到了稳定部署的阶段?
l 语音识别:HTK , Kaldi
l 图像识别:Tensorflow,RCNN,FCNN
l NPL:OpenNPL,NLTK
DNN深度神经网络 , 效果一半 , 部署还有待改善 。
您认为该框架对算法的支持程度如何?哪些方面需要改进?
编译速度不够快 , 问题不好排查 。
您对算法、模型有哪些新的需求?
您通常通过哪些渠道去了解最新的算法趋势?从哪些渠道了解的算法会驱动您自己去试用、测试?
行业峰会 , 沙龙 , 技术论坛 , 供应商洽谈 。从上游企业或机构的算法等信息会更重视 , 或许试用测试 。
7. 您所开发的应用是处于实验研究阶段 , 还是已经在工业部署阶段?
如果是实验研究阶段 , 您认为该应用的商业化潜力如何?现在处于商业化进程的哪个阶段?
将这一应用落地的挑战有哪些?您认为哪些举措能帮助您将这些应用落地?
中期吧 。落地挑战包括训练算法算力提升;需求方面是要解决用户痛点 , 应用场景去伪存真;边缘推理对处理器性价比要求 , 也是影响应用落地因素之一 。
8. 您开发AI应用 , 面临的最大挑战是什么?
总体来讲 , 您认为AI开发过程中的挑战都有哪些?
算法和算力相对数据更多挑战;深度学习的原理还是不同于人类认知 , 有待进步突破 。
您觉得在开发AI应用的过程中 , 可以怎样帮到您?例如 , 提供某些资源 , 提供何种开发环境、开发者支持等 。
1.数据获取;2.快速业务整合能力 3.推理端不同平台适配
从整个流程上来讲 , 比如说数据准备 , 比如说更完善的开发工具 , 比如说某些方面的人才紧缺 , 或者说计算资源的成本 , 您希望从哪些方面获得支持和帮助?


推荐阅读