在2018年的下半年, 谷歌 宣布将Nvidia的Tesla P4 GPU作为一项云服务提供,这使的更多企业能够快速开始启动AI项目。

然而我想知道的是,谷歌是否能够从一个云服务领域的追赶着者变成真正有实力的竞争者。尽管,我觉得 人工智能 是亚马逊的次要领域之一,但它肯定也在努力缩小着这一差距。

各种规模的企业都在寻求云计算来提供执行人工智能和机器学习相关任务所需的基础设施。大多数组织,特别是那些刚刚开始AI / ML之旅的组织,也没有必要的基础设施或技能。这就是为什么这么多的公司转向云提供商来满足他们的人工智能需求的原因。

因此,现在所有主要的云提供商都将Nvidia的旗舰V100 Tensor核心图形处理单元(GPU)作为云服务来提供。与传统CPU相比,NVIDIA芯片的企业采用率有了大幅上升,因为其GPU非常适合AI / ML的需求,但是使用这种技术确实也需要一些新的技能。

谷歌是第一家提供Nvidia Tesla P4 GPU的云提供商

在上周举行的Google Next Cloud 2018活动中,该公司宣布它是第一家在美国和欧洲通过云提供Nvidia Tesla P4 GPU的云提供商。 P4 GPU的优势在于,在需要实时和高效时场合中,它非常适合用来进行AI推理。以下是企业如何最高效地利用GPU的几点建议。

实时推理的响应体验。在许多任务中,速度很重要。包括交互式语音、视觉搜索和视频推荐。随着人工智能模型的准确性和复杂性的增加,传统的CPU无法满足需要,而Tesla P4 GPU可以将延迟缩短一个数量级。

视频解码。Tesla P4具有专用的硬件加速解码引擎,可与GPU并行工作,使其能够实时转码和推断多达35个高清视频流。将深度学习集成到视频管道中可以让组织提供更智能的视频服务。

Tesla P4使用的推断引擎基于Nvidia的Pascal架构,它可以提高运行深度学习工作负载的服务器性能。但Google除了说它将“很快”进入其公共云之外,没有给出全面上市日期。

谷歌为边缘计算和AI提供了TPU,但封闭的系统可能会影响其推广

同样在Google Next Cloud 2018的活动中,谷歌对其最新的Tensor Processing Unit(TPU)及其TPU处于边缘计算时的应用做了一些说明。TPU可以被认为是一种小型的GPU,它可以将AI级的处理技术带到物联网设备、无人机和机器人等领域的最前沿。然而,谷歌TPU的一个问题是,它们是封闭的,只能在 谷歌云 平台上工作。而一年多来,NVIDIA实际上一直在出售其Jetson TX2 GPU,该产品正好也是为了解决了这一问题,实际上已经有一些公司提出了有趣的使用案例。

劳氏家居装饰公司将Nvidia Jetson使用于边缘AI

Lowe's Home Improvement(劳氏家居装饰公司)正在使用Jetson驱动的机器人来改善客户服务并提高员工的工作效率。 LoweBot NAVii是一种自主零售服务机器人,由Fellow Robots公司制造,它可以通过使用语音识别和集成触摸屏来回答基本的客户询问。

该机器人还配备了Jetson的计算机视觉技术来实现了自动化的库存盘点。这使得员工有了更多的时间来提供更好的服务并完成内部项目。这些类型的应用程序可以通过在边缘使用小型GPU(如Jetson或谷歌的TPU)来创建。

机器人、无人机和其他前沿设备正在成为我们生活中越来越重要的一部分,并将在公共安全、教育、工厂运营、石油和天然气以及其他用例中发挥重要作用。所以首席信息官应该主动去了解边缘AI可以如何为他们的业务带来好处,唯一的限制是需要提出成熟的用例。

随着机器学习和人工智能的成熟,企业将更加依赖GPU。而Nvidia与Google和其他云提供商的合作则让数据科学家无需在基础设施上花费大量资金就可以立即开始使用这项技术。