快3公式英特尔亮相“WAVE SUMMIT+”深度学习开发者秋季峰会 详解处理器在飞桨中的应用

  • 时间:
  • 浏览:0

11月5日,“WAV快3公式E SUMMIT+”2019深度学习开发者秋季峰会在北京召开。本次峰会上,百度飞桨(PaddlePaddle)全新发布和重要升级2另2个多产品方向,包括面向产业应用场景的四大端到端开发套件、融合数据和知识的预

       11月5日,“WAVE SUMMIT+”2019深度学习开发者秋季峰会在北京召开。本次峰会上,百度飞桨(PaddlePaddle)全新发布和重要升级2另2个多产品方向,包括面向产业应用场景的四大端到端开发套件、融合数据和知识的预训练结合迁移学习的飞桨Master模式、端侧推理引擎Paddle Lite 2.0、EasyDL专业版、前沿技术工具组件等。作为本次活动的顶级赞助伙伴,英特尔的产品总监 Jordan Plawner 也出席了本次活动,并介绍了英特尔至强处里器和nervana处里器在飞桨中的应用。

  随着人工智能技术的好快发展,新一代的人工智能也都也能新一代的执行快3公式软件和深度学习处里器。飞桨是另2个多源于产业实践,与产业共进的深度学习开源开放平台,集深度学习核心框架、基础模型库、端到端开发套件、工具组件和服务平台于一体,支持分布式训练、动态图和动态调整张量以进行有效的批处里,百度飞桨也是第另2个多支持英特尔专为AI打造的Xeon ISA。

  Jordan Plawner介绍,百度飞桨集成了英特尔的开源nGraph编译器,可不都也能为飞桨提供硬件后端,支持CPU RN200训练和预测,并在运行时使用环境变量FLAGS_use_ngraph = true调用nGraph。与基于MKLDNN的直接优化相比,ResNet200在CPU上的训练性能得到了显著改善。此外,英特尔nGraph编译引擎启用了Bert / Ernie模型,BERT / ERNIE模型训练所需的操作(快3公式通过N-graph的Intel nBert训练),对Intel Nervana NNP-T深度学习培训加速器的高级支持。

  百度飞桨支持英特尔nervana NNP-T DL加速器,支持快速的分布式训练。集成的Intel Aeon数据加载器,使用2-另2个多Xeon处里器实现最高吞吐量的图像增强,从而实现高性能的Nervana NNP-T服务器。从飞桨中的动态图形无缝桥接,以编译和缓存优化的NNP-T图形以获得最佳性能,流水线功能可确保NNP-T计算不断运行,而不让等候CPU的指令。将飞桨分布式框架与NNP-T通信库和芯片间链接相集成,以加速横向扩展。

  Jordan Plawner还介绍了百度与英特尔联合打造的AI处里方案——增强AI处里方案,通过定制的英特尔至强可扩展处里器,可不都也能更方便的进行跨平台体验,让你工智能技术助力企业发展并造福社会。该处里方案拥有全栈AI技术功能、高性能AI计算库指令集,以及贡献超过20000行代码。

  百度深度学习技术平台部总监马艳军提到,在最新的英特尔至强处里器上,云端保证精度基本不变的具体情况下,通过INT8的量化训练,性能的提升能达到2到3倍。很多飞桨对于CPU的训练传输速率和分布式训练支持的功能也非常强大,可不都也能真正在业务场景中使用。

  此次峰会的全新发布,使得百度飞桨的易用性进一步提升、开发门槛进一步降低,面向产业应用的支持能力也进一步增强,而这头上也离不开英特尔没办法 的战略合作伙伴的支持。通过携手前进,飞桨正成为千万开发者把握AI时代的工业化大生产平台,加速产业智能化的核心动力。

(本内容属于网络转载,文中涉及图片等内容如有侵权,请联系编辑删除)