本篇文章1229字,读完约3分钟
Inspur gtc17发布了新一代caffe-mpi场景
5月9日,在美国圣何塞举行的2017年图形处理器技术会议(gtc17)上,Inspur发布了新一代并行深度学习计算框架caffe-mpi。测试数据表明,caffe-mpi在基于国际流行的imagenet数据集训练深度学习模型时具有良好的并行扩展能力,其性能接近谷歌最新的深度学习框架tensorflow的两倍。Caffe-mpi是世界上第一个Caffe深度学习计算框架的集群并行版本,由Inspur开发,并在github上发布了所有代码。
浪潮新一代cafe-MPI与tensorflow测量数据的比较
Caffe和tensorflow是世界上最流行的两个开源深度学习框架。加州大学伯克利分校开发的Caffe是世界上第一个工业级深度学习框架,但其架构不够灵活,可扩展性差;Tensorflow是一个由谷歌开发的深度学习框架,已经广泛应用于谷歌的搜索、图像识别和电子邮件服务。
Inspur开发的Caffe-mpi保留了Berkeley caffe体系结构的优秀特性,同时也是为高性能计算系统设计的,具有良好的并行可扩展性。新版本caffe-mpi在4节点16块gpu卡集群系统上的训练性能是单个卡的13倍,每秒处理的图片数量几乎是在相同配置集群中运行的tensorflow1.0的两倍。
Caffe-mpi的卓越性能得益于其在并行算法设计方面的创新性突破。Caffe-mpi设计了两层通信模式:节点内gpu间的卡间通信和节点间的rdma全局通信,大大降低了网络通信的压力,克服了传统通信模式下pcie与网络间带宽不平衡的影响。这种设计模式非常适合当今高密度的gpu服务器,caffe-mpi也设计并实现了计算和通信的重叠。此外,caffe-mpi的新版本提供了更好的cudnn兼容性,用户可以无缝调用最新的cudnn版本来实现更大的性能改进。
在这次gtc会议上,Inspur全面展示了面向人工智能用户的完整ai产品解决方案,包括世界上第一台支持8 nvlink或pci-e interface p100 gpu的人工智能超级计算机agx-2(位于2u空机房), Inspur和百度开发了支持扩展16个gpu卡的sr-ai整体机柜服务器,以及人工智能深度学习集群管理软件aistation
人工智能深度学习是智能计算的三大支柱之一。Inspur宣布在新财年成立人工智能部门,努力构建多元化硬件平台、管理调度分析平台和深度学习框架的平台组合,实现前端承接多源数据和后端支持智能应用,为人工智能提供领先的计算能力。目前,Inspur已成为全球顶尖互联网公司百度、阿里和腾讯的ai计算gpu服务器的主要供应商,并与iFlytek、奇虎360、搜狗、今日头条和face++等领先的人工智能公司在系统和应用方面保持着深入而密切的合作,帮助客户在语音、图像、视频、搜索和网络方面实现了应用性能的大幅度提升。
标题:人工智能爆点:浪潮发布新版Caffe
地址:http://www.ar7y.com/aelxw/6258.html