为什么会发生这种情况,GPU 为数据科学应用程序带来哪些优势?阅读并找出。
什么是 GPU?
GPU 或图形处理单元已在游戏行业使用了数十年,并且在索尼首次使用该术语来指代其 PlayStation 控制台时变得更加流行。它们对于计算机游戏的快速渲染和处理至关重要,随着图形变得越来越详细、细致和逼真,彻底改变了游戏玩家的体验。
虽然 GPU 旨在通过快速数学计算来渲染图形,但正是这种高性能处理使其对数据科学具有吸引力。它使人工智能能够从图像和声音中学习,为这些深度学习过程使用大量的图像和声音输入。
为了实现这一点,GPU 为大规模训练的神经网络提供动力,以便最终用户可以享受基于图像、视频和语音的应用程序以及我们很多人使用的推荐引擎,无论是寻找一家好餐馆或我们最喜欢的新运动鞋。
GPU 如何对数据科学产生影响?
我们所有人都熟悉完成工作需要良好的处理能力。这适用于我们的笔记本电脑和台式电脑以及更大的基础设施,如服务器、交换机,当然还有我们所依赖的网络。
CPU,中央处理器这个术语很常见,它描述了计算机中的主处理器,即执行指令和程序的机器的“大脑”。
在 数据科学, Python 库在利用现有 CPU 能力方面变得越来越高效。但是,当您想要处理数亿甚至数十亿条记录时,运行深度学习应用程序时,CPU 是不够的。
输入:GPU 具有强大的并行处理架构,它允许组织运行,例如,预测模型跨越数百万种可能的产品组合,为他们的零售店提供信息、计划和优化他们的仓储操作。
GPU 及其为数据科学带来的力量为数据科学家开辟了新的机遇,分析部门,以及整个组织。
CPU 顺序处理,而 GPU 并行处理。因此,即使是大型 CPU 集群也无法达到与训练深度学习算法的正确 GPU 架构相同的性能。
图形处理器
现在想象一下这种优化的 GPU 并行架构与数据库中内置的大规模并行处理相结合。您的数据库软件和硬件现在与您想要完成的 AI 任务完美匹配,既可以相互受益,又可以最佳地利用彼此。
为了测试我们在 GPU 上运行的数据库的性能,我们使用来自亚马逊的美食评论数据集在 TensorFlow 中训练了一个模型。该数据集包含超过 10 年的 500,000 多条评论。我们的模型旨在根据我们想要分析情绪的评论文本来预测每个产品的分数。然后,我们可以将预测分数与数据中可用但未用于训练的实际分数进行比较。
该数据集包含分类、数字和文本数据,这对我们的模型来说是一个很好的挑战,该模型基于 TensorFlow 中的预训练模型,称为 Universal Sentence Encoder。数据集的复杂性为 GPU 创造了一个有趣的用例,因为不仅不同的数据类型需要特定的编码策略,而且大量的文本还需要大型模型,这将是对我们 GPU 的一个很好的测试。
如果您想了解如何在 GPU 上的 UDF 中训练 TensorFlow 模型,请查看 本指南 在 GitHub 上。
结果
对于我们的测试,我们在 Google Cloud Platform(地区:爱荷华州)上使用了以下设置:
1 个 NVIDIA Tesla K80
1 个 NVIDIA Tesla V100
1 个 8 核 CPU
1 个 32 核 CPU
在比较用于训练我们模型的 GPU 和 CPU 的性能时,K80 完成每个 epoch 的速度比 8 核 CPU 快 9.9 倍(72 秒对 710 秒),比 32 核 CPU 快 2.9 倍(72 秒对 210 秒)。
V100 是目前云中最先进的 GPU,每个 epoch 的完成速度比 8 核 CPU 快 28.4 倍(25 秒对 710 秒),比 32 核 CPU 快 8.4 倍(25 秒对 210 秒)。
这些结果不言而喻,并为我们的客户和用户提供了将他们的数据科学应用程序直接移动到数据库中的真正机会。
GPU 在数据科学和分析中的机会是什么?
GPU 有助于数据科学家处理大量数据以开发、训练和改进他们的模型。与 CPU 相比,它们为这种规模的数据加载和操作提供了更具成本效益的选择,因此实现了减少基础设施费用和提高性能的双重好处。
鉴于市场对数据科学家的需求以及组织应重视他们的技能,GPU 提供了巨大的机会,使数据科学家能够花更多时间专注于增值任务并减少因系统和工具性能缓慢而产生的挫败感。
GPU 可在组织拥有数据的任何地方提供这些优势——在云中、本地或混合模型中。
相关帖子DA内容精选
|