首页 | 新闻 | 新品 | 文库 | 方案 | 视频 | 下载 | 商城 | 开发板 | 数据中心 | 座谈新版 | 培训 | 工具 | 博客 | 论坛 | 百科 | GEC | 活动 | 主题月 | 电子展
返回列表 回复 发帖

扩展机器学习,满足人工智能日益增长的要求-2

扩展机器学习,满足人工智能日益增长的要求-2

满足训练时间的要求后我们充分开发,使训练时间达到可接受的范围后,会发生什么?这个模型非常紧凑,具有出色的速度和准确性。将训练模型部署在边缘设备上,运行并交付针对实际现场数据的准确推断。推断的记分卡返回服务器,服务器接收一定数量的新数据后重新自我训练,创建更优秀的模型,将模型部署到更多的设备上。提高模型推断的准确性,将模型部署到更多的边缘设备上,服务器会收到更多的反馈,重新训练并改善模型。这就是计算的良性循环(图 11)。


图 11. 计算的良性循环


提高模型推断的准确性,将模型部署到更多的边缘设备上,部署的设备越多,服务器收到的推断数据越多(包括正确预测或错误预测),反过来增强服务器改进、提升模型推断准确性的能力。这意味着模型有可能部署在更多的设备上,循环将继续。这就是我们为之准备的计算的良性循环(图 11)。
然而,将数据发送到设备后,才能完成循环。发送到设备需要稍微费些力气,因为网络总是受到限制。由于长时间的延迟和有限的网络(将边缘设备与数据中心相连接)带宽,在数据中心基础设施上实时、快速地重新训练模型变得更加困难。随着硬件、网络和无线连接的完善,这个问题将更容易解决。
此外,非常有必要了解什么是边缘设备。通常计算能力或可用内存受到限制,约束模型尺寸。而且必须以端到端的方式满足工具要求和软件支持需求。我们的深度学习工具套件考虑了此类模型部署的需求。
在边缘设备部署模型存在 3 个高级权衡:压缩、准确性和吞吐率(图 12)。有些设备可能无法保存模型,需要压缩、缩小或缩减模型(图 13)。如何压缩模型?需要稀疏模型1, 2


图 12.3 轴模型性能基础



图 13. 压缩(深蓝色)与正常交付和性能的对比


在特定环境下,为了提高推断吞吐率,需要牺牲推断的准确性。(图 14)。


图 14. 降低准确性以提高吞吐率



也就是说,设备要求和使用环境是进行周密权衡的决定因素。
Nervana™在 2016 年,英特尔收购了 Nervana™,后者是机器学习领域的领导者,也是硬件工程、系统软件、机器学习和云领域的机器智能平台。
Nervana 的目标是构建一个机器智能平台。这意味着使用电脑来创建、处理大型数据集,并根据数据集进行推断。目标是通过优化深度学习和其它算法来提高处理速度。
然而,机器学习致力于为人类的问题提供解决方案。所以让我们来回答以下问题,人类打算如何使用机器学习?机器学习可以应用在哪些领域?以下是可以立即使用机器学习平台的领域:
  • 医疗 - 医学成像是最大的应用领域。基于 MRI 与 CT 扫描的体积成像,甚至单张图像都会出现问题。某些静态医学图像每一边的像素高达 200,000 个,单张图像比性能指标评测数据集还要大。因此,电脑难题非常严峻,我们必须进行高效扩展。
  • 农业 - 应用于基因组问题、气候建模与机器人蔬菜收割机(有选择地收获农作物)。这些技术需要在边缘、云等需要低延迟推断的位置上进行特殊的扩展。
  • 金融 - 拥有众多使用案例,如金融机构面临的大量 IT 问题。可以利用深度学习对不同方式获得的各种金融工具进行交易,更加注重交易时间与交易方式。还可以预测潜在诈骗,以保护不良事件中的交易。
  • 汽车 - 语音识别、驾驶员协助与自动驾驶。这些领域都具有大型数据集,收集更多的数据。扩展规模巨大,需要完整的解决方案,不仅在汽车边缘上处理,还要在数据中心处理。
因此,深度学习是内核技术。Nervana 将 “Google Brain” 模型应用于每一位客户,中心内核处理所有相关信息(图 16)。


图 16. Nervana 深度学习模型与 Google Brain 模型的对比


查看解决方案、解决方案工程师、部署等其他深度学习产品组成部分的方法,帮助客户了解如何将深度学习看做是一种内核技术。
Nervana 深度学习方法的另一个重点是云部署。云支持以最快的速度部署深度学习解决方案。高带宽、低延迟地连接至灵活、可扩展的云,可以简化探索性数据科学与训练数据模型。这是深度学习最简单易懂的方式。采用此方法时,最好保证界面干净,下载要求低,信息能便捷地提交到云服务。
英特尔在推动机器学习中发挥的作用英特尔正致力于采用并改善硬件和软件发展蓝图及框架更新。
硬件英特尔® 至强融核™ 处理器是现今最密集的计算解决方案,也是深度学习最好的平台,因为它具有高度并行的架构(图 17)。英特尔® 至强融核™ 处理器和英特尔® 至强® 处理器非常相似。在英特尔至强处理器上完成的所有开发可以直接应用于至强融核处理器,因为两者共用相同的计算模型。随着内存子系统和结构的进一步集成,性能将显著提升。


图 17. 英特尔® 至强融核™ 处理器在深度学习性能方面的价值



简化编程、分摊编程(在整个英特尔至强和至强融核处理器中分摊)和并行架构为英特尔® 至强融核™ 处理器 72xx 系列带来了出色的性能和效率。
软件在多个节点间对训练和推断进行机器扩展,离不开硬件。每个节点的完成效果如何?英特尔® 数学核心函数库(英特尔® MKL)是针对节点级优化的最重要的库。使用英特尔 MKL后,改进的数量是使用前的 24 倍(图 18)。


图 18. 使用英特尔® 数学核心函数库(英特尔® MKL)对单节点训练进行性能优化


仅通过英特尔® MKL 就可以实现这种改进。英特尔 MKL 不需要重新编码。针对多个节点的改进会更出色。所有常用的深度学习框架将在多个节点间获得支持和扩展。但是不需要等待,您可以利用 Caffe* 和英特尔 MKL 立即开始。
英特尔还发布了一个深度学习工具套件,包含许多工具,能加快设计、训练和部署深度学习解决方案的速度。
总结人工智能的前景和功能是消除生活中繁重的脑力工作。机器学习将发掘人工智能的强大性能。数字数据的爆炸式增长和无所不在的连接使计算激增,机器学习极大地促进了计算的新型良性循环。机器学习将大规模扩大计算应用(如自动驾驶汽车、农业、健康和制造)的范围。这些领域中,人类只需做简单的决定。近期,机器学习和人工智能取得了许多进步,这些领域将不断改进、转变及变化。
深度学习的计算要求亟需满足。复杂模型的训练时间需要数月或数周,我们需要扩展,将训练时间降低至数天或几个小时。机器学习计算基础设施必须符合开发人员所需的高性能和高效率的要求。必须利用云的效率。
由于突破了现有数据、模型并行性和节点间通信的极限,扩展分布式机器学习并非易事。英特尔的新版深度学习工具(将与 Nervana 云堆栈集成)专门用于在资源有限的边缘设备上隐藏、降低强扩展训练时间和模型部署之间平衡的复杂性,不会降低性能。
返回列表