一文看懂英特尔/英伟达/AMD的AI之战

2017-01-20 13:28:00
全芯编辑
转贴:
SIMTAC
736

        在过去的一年,人工智能AlphaGo凭借4:1的优势战胜韩国棋手李世石,Master连胜50场,大败中韩顶尖围棋高手,人工智能成为2016年度最火词汇之一。

        但在业内人士看来,NVIDIA组织的GPU技术大会(GTC CHINA 2016)、Intel召开人工智能论坛(AI Day)以及AMD召集行业人士进行了一场关于 Vega的产品说明会,更具有风向标意义。传统芯片巨头蓝、红、绿厂商将在新战场开启新的厮杀。

        

        人工智能分为两个阶段,训练和执行。举例来说,当我们把照片上传Facebook的时候,训练阶段是找出其中的人脸,而执行是把找到的人脸自动标识是谁。这两个阶段是完全不同的,每个阶段需要的处理方式也完全不同。

        在训练阶段,GPU相对CPU有4个优势:1、GPU天生为并行运算优化,而CPU天生为串行指令优化,人工智能恰恰更需要强大的并行能力。2、相同的芯片面积下,GPU上可以集成更多运算单元。3、GPU的能耗远低于CPU。4、GPU拥有更大容量的存储结构,对于大量数据有缓存优势。

        所以业界比较普遍的认识是GPU在人工智能、深度学习算法上的优势远高于CPU,是训练的最佳工具。在执行阶段,Google为此专门打造了TPU,微软使用FPGA,而百度正在使用的GPU似乎不太适合做执行,需要辅助以算法。目前大多数企业采用的依然是“CPU+GPU”的组合,或者称为异构计算。事实上,AlphaGo此前在与韩国棋手李世石较量时,便依赖于1202颗CPU及176颗GPU协助运算。

        Intel通过一系列的收购,从FPGA公司Altera、认知运算公司Saffron、机器学习新创Nervana 到电脑视觉芯片公司Movidius,Intel通过不断的并购增强其AI实力。从单纯满足AI应用本身的计算能力和实现方法上看,GPU是否是最好或者说是惟一在业内依然存在争议。有研究人员测试,相比GPU,FPGA的架构更灵活,单位能耗下性能更强。深度学习算法在FPGA上能够更快、更有效地运行,而且功耗也能做到更低。这似乎很好地解释了为何Intel此前以167亿美元收购FPGA制造商Altera。2016年8月,Intel宣布将于2017年推出专门为人工智能深度学习而设计的最新一代产品——Intel Xeon Phi处理器,代号Knights Mill,称其运算能力比对手的产品快两倍以上,矛头直指NVIDIA。同时,Intel在物联网领域AI 发展同样卡好位置,透过Movidius 特有的Fathom 软件技术,能将通用的神经网路模型转化为嵌入式深度学习模型于硬件架构运作,使无人机、AR/VR 头盔等移动终端应用进行图像分析等深度学习功能。

        

        同时拥有CPU和GPU的AMD应该说具有AI技术平台的最大优势,不但手握新 CPU 架构 Zen(“禅”)、号称2017要在 PC 和服务器市场让Intel难堪;同时还在紧锣密鼓地筹备新 GPU 架构 Vega (“织女星”),准备明年打破NVIDIA对高端显卡市场的垄断。准备翻身的AMD并不满足在 CPU 和游戏显卡这两个传统领域和老对手们较量,而是追着他们的脚后跟进入 AI 运算领域。AMD召集行业人士秘密进行了一场关于 Vega 的产品说明会,该会议的部分内容曝光—AMD 发布全新 AI 计算子品牌 “Radeon Instinct”。然而相比在 AI 领域经营已久的蓝、绿两厂,AMD 根基薄弱、资源有限,而且入场时间已经极大落后。同时AMD 的 CPU 和显卡业务都需要反哺,受限于资源的有限性,AMD很可能难以抓住AI的机遇。

        Intel芯片虽以高速处理数字著称,但NVIDIA GPU芯片在处理视频、语音等非结构化数据及识别模型时更为高效,在深度学习、神经网络服务器等性能表现远超Intel。近十年来, GPGPU(通用计算 GPU,用 GPU 处理运算任务)的浪潮完全由NVIDIA带领,把他们的 GPU 定位于 AI 和神经网络的开发已经成为运算平台的首选。与CPU相比,GPU具有数以千计的计算核心,及强大、高效并行计算能力, 可实现10-100倍应用吞吐量,特别适用于AI海量训练数据情形,目前深度学习解决方案几乎完全依赖NVIDIA GPU。2016年4月5日,NVIDIA推出新GPU芯片Tesla P100 内置150亿晶体管,它可以用于深度学习,是目前市场上许多处理器、图形芯片的3倍。芯片面积为600平方毫米,运算速度达到21.2万亿次,是NVIDIA至今推出的最先进GPU。但从AI需要GPU训练+CPU执行这个角度看,缺乏CPU应该是NVIDIA在现在和未来自诩为AI公司始终存在的短板。

        

        AI技术拥有两大要素:核心技术平台、数据循环。只有将AI技术与数据结合,才可形成实用性的业务。所以AI之战不仅仅是技术平台之战,更是生态圈之战。仅看NVIDIA的GTC大会,百度、阿里、腾讯、IBM、微软、亚马逊等大咖云集,NVIDIA的深度学习伙伴更在2015年就达到了3409家,无人驾驶合作伙伴更是基本涵盖所有主流品牌。NVIDIA已经构建了当下最为庞大的AI生态环境。虽然从营收上看,NVIDIA远算不上一家AI芯片公司,但NVIDIA无疑是当下发展最强劲的AI芯片公司。构建生态系统需要庞大的现金流,受限于公司现金流的紧张,CPU和显卡业务线都需要庞大的资金支持, 且入场晚于NVIDIA和Intel,AMD在AI领域做了什么,并没有多少人知晓。就像Google选择AMD的GPU进军AI领域时,AMD的Radeon Technologies Group(RTG)高级副总裁兼首席架构师Raja Koduri表示:

        “Google正在建设基于GPU的基础设施,而且希望使用AMD架构。尽管AMD在深度学习方面做了什么似乎无人知晓,这也是我们迈出的第一步。”Intel凭借PC市场建立起的强大生态环境和通过并购建立起来的AI技术平台,在图像识别、语音识别以及自动驾驶也不断完善自己的生态系统。同时通过并购Movidius,Intel具备了把AI生态拓展到移动终端的能力。鉴于AI芯片的应用尚在起步阶段(目前仅占数据中心1/10左右的负载),及Intel在此领域中有的放矢的并购和自身在CPU的挖潜和整合能力,NVIDIA以AI之名换来的股价暴涨背后并非高枕无忧和一片坦途。

发表评论
评论通过审核之后才会显示。
updated: 2020-09-24 17:07:21