亚马逊|亚马逊 Alexa 运算改用自主芯片 减少对 NVIDIA 的依赖

DoNews 11月16日消息(采访人员 刘文轩)据 EnterpriseAI 消息 , 亚马逊打算把 Alexa 虚拟助理所需的部分运算功能 , 改由定制化设计的 Inferentia 机器学习推论芯片进行运算 , 不再采用 NVIDIA 提供的 GPU 。
亚马逊称此举将有助于减少端对端延迟 25% , 操作成本也能降低 30% 。 在推出 Inferentia 高性能机器学习推理芯片近两年后 , 亚马逊几乎完成了将 Alexa 文本到语音 ML 推理工作负载的大部分迁移到其 AWS EC2 平台上的 Inf1 实例 。
亚马逊 Inferentia 芯片在 2018 年 11 月的 AWS re:Invent 大会登场 。
AWS 发言人表示 , 虽然较低的延迟使 Alexa 工程师在工作中受益 , 但各行各业的客户也看到了类似的好处 , 因为他们转向机器学习来解决常见的案例 , 如个性化购物推荐、金融交易中的欺诈检测、增加客户与聊天机器人的互动等 。 通过 Inf1 实例 , 客户可以在云端以最低成本运行大规模的机器学习 , 以执行图像识别、语音识别、自然语言处理、个性化和欺诈检测等任务 。
(责任编辑:常安楠 )


    推荐阅读