投稿邮箱

digitcw@163.com

您的位置:首页 > 行业动态 >
百度飞桨在Graphcore IPU上实现训练与推理全面支持
作者:赵法彬   添加时间:2021-12-13
对Graphcore而言,此举将极大地扩展IPU的中文社区,中文生态系统进一步繁荣。

2021年12月12日,在2021 Wave Summit+上百度深度学习平台飞桨正式发布在Graphcore IPU上实现训练和推理全流程支持的开源代码库,飞桨模型库如Bert、ERNIE等也正逐步在IPU上实现支持。自此,百度飞桨的开发者可以在IPU这一专为机器智能从零设计的创新架构上进行AI模型加速,而IPU的全球用户也可以使用百度飞桨框架探索深度学习。对Graphcore而言,此举将极大地扩展IPU的中文社区,中文生态系统进一步繁荣。


QQ截图20211213152550


百度飞桨是中国领先的产业级深度学习平台,目前累计开发者数量超过406万,服务企业数量15.7万家,创建了超过47.6万个模型,为中国AI社区的繁荣做出巨大贡献。Graphcore是飞桨硬件生态圈的初始成员之一,作为飞桨的重要硬件合作伙伴,Graphcore将通过云端和数据中心的IPU技术助力飞桨开发者实现AI模型的大幅加速,同时为使用飞桨的企业提供基于IPU的产品方案,帮助飞桨的企业级客户提升数据中心效率。通过大幅提升模型的性能和运行速度,缩短研发周期,加快AI模型落地应用,同时降低计算成本。


 


目前Graphcore IPU支持通过飞桨完成大规模的模型训练任务,也支持通过飞桨推理库执行高性能的推理任务。双方团队通过在16个IPU组成的IPU-POD16上做数据并行与模型并行,并在Bert-Base模型上进行了精读和吞吐量验证,取得了良好的性能效果。结果证明,运行在IPU硬件上的百度飞桨解决方案,在目前主流的AI训练任务和前沿AI创新模型任务上,可以取得很好的加速效果。IPU良好的系统扩展性使得用户可以根据任务需求灵活进行性能扩展。


 


百度飞桨产品团队负责人赵乔表示:“Graphcore是百度飞桨一直以来的好朋友和重要伙伴,非常高兴宣布百度飞桨在Graphcore IPU上完成训练和推理的支持,这是我们飞桨硬件生态一次重要的升级。百度飞桨模型库中的模型如Bert在IPU上实现了很好的训练和推理性能。同时,Graphcore的深度学习引擎PopART具有的良好可用性,也支持飞桨在IPU上的适配变得简易。我们将和Graphcore深化合作,将飞桨模型库更多的模型迁移到IPU上,共同打造基于飞桨和IPU的世界级AI解决方案,赋能AI开发者和企业。”


 


随着Graphcore在中国不断深耕,其中文IPU社区和生态系统在不断扩大。此次引入百度飞桨深度学习平台,除了是其软件Poplar SDK的重要扩充,也为Graphcore客户,尤其是中国客户的工具箱中多放入一件重要工具。通过对百度飞桨的支持,Graphcore支持其客户能够在更多框架上进行探索,IPU硬件架构的潜能优势将得以进一步释放。


 


Graphcore中国工程总负责人、AI算法科学家金琛表示:“IPU对百度飞桨的支持,是Graphcore Poplar SDK的重要升级,也是IPU生态系统的一次重大更新。百度飞桨是中文AI社区的翘楚,通过与百度飞桨合作,我们希望能够扩大IPU中文社区,让更多中国的开发者能够打破传统硬件的桎梏,在IPU上进行创新突破,帮助他们解决棘手的深度学习难题。”


QQ截图20211213152603

Graphcore中国工程总负责人、AI算法科学家金琛在2021 Wave Summit+上介绍IPU上的百度飞桨


 


百度飞桨和Graphcore IPU精神的相通之处,就是开源精神,将权力交给AI开发人员,使他们能够自由地进行创新。Graphcore制造硬件和开发软件都遵循这一宗旨。百度飞桨在IPU上相关的代码和模型代码资源已经在Graphcore GitHub和百度飞桨GitHub开源,在双方的GitHub以及Graphcore的官网开发者页面也附上了详细的教程。同时,使用了飞桨的Bert-Base也已经在Graphcore的Model Garden里开源,广大开发者可以前往双方的资源池进行探索、调取和使用。