阿里和谷歌自研AI芯片商用,科技巨头与芯片巨头关系生变
2019年杭州云栖大会上,阿里首款AI芯片含光800虽然只有短短几分钟的介绍,却成了外界最为关注的消息。互联网巨头进入自研芯片领域早已不是新闻,但每次他们自研芯片的正式推出和商用的宣布,依旧会吸引了无数的关注。
不少人应该也会疑问,这是不是芯片巨头们要被替代的开始?
互联网巨头造芯的初衷
在互联网企业造芯的路上,谷歌跑在了最前面。早在2006年,谷歌就开始考虑在其数据中心部署 GPU或者 FPGA,或专用集成电路(ASIC),当时的结论是,能在专门的硬件上运行的应用并不多,使用谷歌大型数据中心的富余计算能力即可。
情况在2013年发生了转变,当时谷歌用户每天使用语音识别 DNN 语音搜索三分钟,使得谷歌数据中心的计算需求增加了一倍,而如果使用传统的 CPU 将非常昂贵。因此,谷歌启动了一项优先级别非常高的项目,快速生产一款定制芯片(ASIC)用于推理,并购买现成的 GPU用于训练。
谷歌的目标是将性价比提高 10 倍,为了完成这项任务,谷歌在其数据中心设计、验证、构建并部署了 TPU(张量处理器,Tensor Processing Unit),这一过程用了15个月。
2016年,谷歌I/O开发者大会上,谷歌正式发布了首代TPU。不过,TPU刚开始只仅限谷歌内部使用,直到2018年2月,谷歌才在其云平台博客上宣布TPU服务开放的消息,价格大约为每云 TPU 每小时 6.50 美元,而且数量有限。
也就是说,2018年,谷歌才开启了TPU的商业化。同年的I/O大会上,TPU 3.0宣布推出,计算性能相比TPU 2.0提升八倍,可达 100PFlops(每秒 1000 万亿次浮点计算)。
可以明确,谷歌TPU的推出,主要还是因为市场上没有满足其需求的芯片,使得他们进入了自研芯片领域,并且,TPU作为云端推理芯片并不对外出售,而是通过谷歌云对外提供算力。
阿里的自研芯片之路与谷歌类似。1999年以淘宝起家的阿里,如今的业务早已横跨电商、金融、物流、云计算、大数据、全球化等场景。不同的场景就有不同的计算需求,比如淘宝里的拍立淘商品库每天新增10亿商品图片,使用传统GPU算力识别需要1小时。除了需要花费1小时的时间,这个时间里GPU的耗电量也非常巨大。
雷锋网此前报道,数据统计显示,2017年中国有40个中小型数据中心,这些中小数据中心2017年消耗电量比三峡大坝的发电量还多,等量的碳排放量两倍于民航的碳排放量。对于阿里和谷歌这样拥有大型数据中心的科技公司,电量消耗也带来了巨大的成本。
如果谷歌和阿里想要通过购买算力更强的最新款英伟达GPU来提升效率,GPU高昂的售价也是科技巨头们无法忽视的问题。
因此阿里也开启了自研芯片之路。2017年的云栖大会上,阿里宣布成立达摩院,由全球建设的自主研究中心、高校联合实验室,全球开放研究计划三大部分组成,涵盖量子计算、机器学习、基础算法、网络安全、视觉计算、自然语言处理、下一代人机交互、芯片技术、传感器技术、嵌入式系统等,涵盖机器智能、智联网、金融科技等多个产业领域。
2018年云栖大会,阿里又宣布成立独立芯片企业“平头哥半导体有限公司”,由中天微与达摩院芯片团队整合而成。
还是云栖大会宣布者还是张建锋,2019年阿里首款AI云端推理芯片含光800正式推出。在业界标准的ResNet-50测试中,含光800推理性能达到78563 IPS,比目前业界最好的AI芯片性能高4倍;能效比500 IPS/W,是第二名的3.3倍。
性能提升带来的效果显而易见,继续用上面的拍立淘举例,阿里表示,采用含光800后,每天新增10亿商品图片的识别时间可以从GPU识别的1小时,可缩减至5分钟。另外,根据云栖大会的现场演示,在城市大脑中实时处理杭州主城区交通视频,需要40颗传统GPU,延时为300ms,使用含光800仅需4颗,延时降至150ms。
由此做一个简单的换算,那就是1个含光800的算力等于10个GPU。
相比谷歌迟迟没有商用TPU,阿里在发布含光800之时表示这款产品已经已经实现了大规模应用,应用于阿里巴巴集团内多个场景,例如视频图像识别/分类/搜索、城市大脑等,并且宣布基于含光800的AI云服务也正式上线。
显然,阿里自研AI芯片最核心的目标同样是为了获得更低的经济成本。
科技巨头与芯片巨头不再只是合作
由此看来,目前阿里和谷歌商用的自研AI芯片都是云端推理芯片,对于传统芯片巨头英特尔和英伟达而言,这并不会带来巨大的改变,但双方的关系会从此前紧密合作变为竞合关系。
如何理解?虽然有了面向视觉场景的含光800推理芯片,但是这是一款ASIC芯片,其定位也是CNN类模型推理加速为主,通用可扩展到其它DNN模型。但对于更多的深度学习算法,含光800这款ASIC可以在一定支持,但无法体现出性能和能效最优化。
所以,无论是阿里还是谷歌,他们依旧需要英特尔的CPU提供通用的计算能力,也需要FPGA进行AI的加速。另外,阿里性能强大的神龙架构服务器,也需要英伟达GPU提供算力。
这种竞合关系不仅会局限在云端。2018年7月,谷歌推出Edge TPU芯片,从命名上就可以看出这是此前推出的云TPU的简化版本,是专门设计的加速器芯片,用于在边缘运行TensorFlow Lite机器学习模型。
英雄所见略同,阿里也有端云一体的战略。在含光800云端AI芯片发布之前的7月和8月,阿里接连发布了高性能RISC-V架构处理器玄铁910以及SoC芯片平台“无剑”。也就是说,阿里的C-Sky系列、玄铁系列AIoT终端芯片IP,一站式芯片设计平台无剑,以及最新发布的云端AI芯片构建了阿里端云一体的芯片生态,平头哥端云一体全栈芯片产品家族雏形已现。
另外,2019云栖大会期间还有一个芯片的重磅宣布,阿里人工智能实验室和平头哥共同定制开发的智能语音芯片TG6100N,会在即将推出的音箱产品中使用。
科技巨头们的自研AI芯片要涵盖云端和终端其实也很容易理解,无论是芯片巨头还是科技巨头,他们都认为未来数据将像石油一样具有价值。因此,巨头们需要端云一体的战略挖掘数据的价值,在数据的时代保持领先,而这个战略非常重要的支撑就是云端和终端的AI芯片。
此时科技巨头和芯片巨头都会有云端和终端的AI芯片,竞争就难以避免。雷锋网认为,竞争激烈的程度更多会取决于科技巨头,由于他们对自己的业务和数据有更深的理解,他们定制化的ASIC芯片更容易达到性能和能效的最优。即便自研的AI处理器性能弱于芯片巨头的产品,如果科技巨头出于自主可控的考虑,用自身的业务和场景去支撑自研芯片的迭代和优化,为此付出一些代价,最终也能研发出在特定领域非常具有竞争优势的芯片。
注意,科技巨头们会在与自己业务和生态相关的领域自主研发AI芯片。但如果想要替代现有的成熟芯片,比如英特尔的至强CPU和英伟达GPU,既没有价值也面临巨大的风险。归根结底,科技巨头们自研AI芯片的初衷是为了获得更大的经济效益,通过自主研发的芯片保持其技术和生态的领先性。同样,他们的自研芯片也更多的会服务于自己的业务和生态,而非抢食芯片巨头们的市场。
雷锋网(公众号:雷锋网)小结
AI时代,科技巨头们与芯片巨头们不再只是紧密的合作伙伴,也会在特定领域成为竞争对手。也就是说,对于芯片巨头们而言,想要在科技巨头拥有自研芯片的领域获得订单,需要付出更多的努力。
反过来,芯片作为一个技术、资本、人才都密集的行业,其长周期的特点也与互联网和移动互联网快速迭代的模式不同,如何找到软硬之间的最佳平衡点,以及如何与芯片巨头们多年在芯片领域积累的优势竞争,也都是科技巨头自主研发芯片面临的挑战。