楼主: 时光永痕
959 0

[数据挖掘新闻] 机器学习云计算平台的性能评估 [推广有奖]

  • 0关注
  • 14粉丝

svip3

学术权威

12%

(VIP/贵宾)八级

1%

威望
0
论坛币
26 个
通用积分
57.2238
学术水平
4 点
热心指数
4 点
信用等级
4 点
经验
34180 点
帖子
2732
精华
0
在线时间
321 小时
注册时间
2020-7-21
最后登录
2024-8-1

楼主
时光永痕 学生认证  发表于 2020-9-2 10:16:52 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
机器学习云计算平台的性能评估
Logistic回归训练的用例
在过去的几年中,人们为使更强大的计算平台能够应对诸如机器学习之类的新兴应用所带来的挑战做出了许多努力。通用CPU已开发出专用的ML模块,带有专用引擎的GPU和FPGA指日可待。几家新兴公司开发了专门用于ML应用和深度神经网络的新型ASIC。
在本文中,我们对云上可用的3个不同平台(通用CPU,GPU和FPGA)进行了比较。我们根据总执行时间,准确性和成本来评估性能。
对于此基准,我们选择了逻辑回归,因为它是最广泛使用的分类算法之一。Logistic回归用于为许多复杂的模式匹配和分类问题构建预测模型。它被广泛用于生物信息学,金融和数据分析等领域。Logistic回归通过使用Logistic函数估计概率来度量分类因变量和一个或多个自变量之间的关系。
选择Logistic回归是因为它可以说是构建预测分析用例的最流行算法,并且在拟合模型时可以使用其迭代过程,这使我们可以从此比较中提取更好的结果。
在这种情况下,我们评估了具有10个类别和100万个数据集的MNIST数据集的训练。
这些笔记本的目的是使用三种实现方式(Python的Sklearn软件包(与Intel的Math Kernel库一起),Rapids cuml库和类似InAccel的Sklearn软件包)比较和评估Logistic回归模型的性能。第一个是广泛使用的数据科学库,英特尔的MKL是cpu数学处理加速框架,而其他则分别是基于GPU和FPGA加速器构建的较新解决方案。
我们在4个不同的平台上比较了培训:
参考:Intel Xeon Skylake SP(带有原始代码的r5.2xlarge)
MKL:Intel Xeon Skylake SP(使用MKL库的r5.2x大)
GPU:NVIDIA?V100 Tensor Core(p3.2x大型RAPIDS库)
FPGA:FPGA(使用InAccel ML套件的f1.2x)
对于通用CPU,我们同时使用原始代码(没有优化的库)和Intel MKL库来优化ML内核。在GPU的情况下,我们使用RAPIDS框架;在FPGA的情况下,我们使用我们自己的ML套件,用于 InAccel提供的逻辑回归。
下图描述了每个平台的性能(总执行时间)。如您所见,与其他平台相比,GPU可获得最佳性能。但是,这种情况下的准确性仅为73%,而其他平台可以达到88%的准确性。因此,就准确性而言,使用InAccel ML套件的FPGA可以实现最佳性能和非常高的准确性。
逻辑回归的ML训练(MNIST)的总执行时间。在括号中,是每个平台/算法所达到的精度。
但是,成本对于企业和数据科学家也非常重要。在这种情况下,我们比较了使用这四个平台的性能与成本之间的权衡。每个平台的成本如下所示:
r5.2xlarge:$ 0.504 /小时
p3.2xlarge:$ 3.06 /小时
f1.2xlarge:每小时$ 1.65
在下图中,我们显示了这4个平台的ML训练的性能(总执行时间)和总成本。
使用MNIST训练Logistic回归的性能与成本(在括号中,您可以看到每个模型实现的准确性)
从图中可以看出,云上的FPGA(在这种情况下,使用InAccel ML套件为f1.2xlarge)在性能准确性和成本方面实现了最佳组合。用于GPP(MKL)的优化库可实现最具成本效益的解决方案,但性能不如使用加速器高。GPU可以实现更好的性能,但成本要高得多,在这种情况下,其精度在许多应用中是不可接受的。

关注 CDA人工智能学院 ,回复“录播”获取更多人工智能精选直播视频!


二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:云计算平台 机器学习 云计算 Logistic回归模型 logistic回归

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注cda
拉您进交流群
GMT+8, 2025-12-6 04:40