光电情报网信息监测服务平台 Chinese Academy of Sciences | optic science and technology information network system

微信公众号

您当前的位置: 首页 > 资源详情

美AI芯片“黑马”杀出,研发出史上最大芯片

编译者:husisi发布时间:2019-8-22点击量:68 来源栏目:科技进展

据多家外媒报道,近日,美国AI芯片初创公司CerebrasSystems推出了有史以来最大的芯片,这款名为“TheCerebrasWaferScaleEngine”的芯片(下文称WSE)有1.2万亿个晶体管。

在芯片历史上,1971年,英特尔的第一个4004处理器只有2300个晶体管,而最近的一个高级微设备处理器也只有320亿个晶体管。三星也曾制造过一款拥有2万亿个晶体管的闪存芯片(eUFS芯片),但是不适用于AI计算。

WSE,这个创纪录的最大芯片,它为AI计算而生。

数据显示,这个42,225平方毫米的芯片,有着400,000个核,这些核心通过一个细粒度、全硬件的片内网状连接的通信网络连接在一起,提供每秒100PB的总带宽。更多的核心、更多的本地内存和低延迟的高带宽结构,创建了加速人工智能工作的最佳架构。WSE比最大的GPU还要大56.7倍,拥有18GB的on-chipsram。

事实上,现在的大多数芯片是在12英寸硅片基础上制作的多芯片集成。但CerebrasSystems公司的这款芯片是晶体管在单晶硅圆片上制作互相连接的独立芯片。其互相连接的设计,可以让所有的晶体管都能如一个整体一般高速运转。

通俗地解释,这款产品完全就是计算机中的学霸,比计算能力和存储带宽,不好意思,人家的级别还是新词汇——拍字节(Petabytes,1PB=1024TB=10^6GB=2^50bit),速度大约是如今英伟达公司最大的图形处理器(GPU,浮点运算能力很强,常用于AI相关研究)的3000倍,存储带宽则是1000倍。

如此强大的能力来源于其片上的1.2万亿个晶体管,要知道1971年Intel的4004处理器才有2300个晶体管,按照摩尔定律来推算:“每18个月,芯片上晶体管数目翻倍”,到今年应该刚好1万亿个晶体管,多一个晶体管,能实现的计算能力就增加一分。其次,其芯片架构设计和芯片互联及通信方案也是十分超前的,使得1.2万亿个晶体管之间的协同十分同步,延迟达纳秒(nanosecond)级,运行时,这1.2万亿个晶体管就像一个晶体管一样同步。

在人工智能领域,芯片的大小非常重要。因为大型芯片处理信息的速度更快,产生答案的时间更短。减少观察的时间,或“训练时间”,可以让研究人员测试更多的想法、使用更多的数据,并解决新的问题。谷歌、Facebook、OpenAI、腾讯、百度,以及其他许多公司都认为,如今人工智能发展的根本局限在于,训练模型的时间太长。因此,减少训练时间将消除整个行业进步的一个主要瓶颈。

当然,芯片制造商通常不生产大型芯片也是有原因的。在单个晶圆片上,制造过程中通常会出现一些杂质。一点杂质就可以导致芯片故障,严重的甚至会击穿几个芯片。如果单个晶圆片上只制作一个芯片,那么它含有杂质的可能性是100%,杂质肯定会使芯片失效。但是CerebrasSystems的芯片设计是留有裕量的,能够保证一个或者少量杂质不会使整个芯片失效。

CerebrasSystems公司CEOFeldman在一份声明中说,“公司的WSE芯片专为人工智能而设计,包含基本的创新,解决了限制芯片尺寸几十年的技术挑战,如十字交*连接、良率、功率输出和封装。每一个架构决策都是为了优化人工智能工作的性能。其结果是,WSE芯片在功耗和空间很小的情况下,根据工作负载提供了现有解决方案数百或数千倍的性能。”

这些性能的提高是通过加速神经网络训练的所有要素来实现的。神经网络是一个多级计算反馈回路。输入通过循环回路的速度越快,回路学习或“训练”的速度就越快。让输入更快地通过循环的方法是加快循环内的计算和通信的速度。

在通信架构上,由于在WSE上使用了中继处理器,集群通信的架构突破了传统通信技术中部分功率消耗而导致的带宽和延时的问题。通过使用二维阵列结构将400,000个基于WSE的处理器连接在一起,集群架构实现了低延时以及高带宽的特性,其总体带宽可以高达每秒100拍字节(1017字节/每秒)。即使没有安装任何的额外软件,这样的集群结构也可以支持全局信息处理,并由相应的处理器对所接收到的信息进行处理。

对于这款产品,量产和散热可能会是其面临的主要挑战。但是,WSE的问世,本身的亮点已经足够。

LinleyGroup首席分析师LinleyGwennap在一份声明中表示:“CerebrasSystems在晶圆级封装(wafer-scalepackage)的技术上取得了巨大进步,在一块硅片上实现的处理性能远远超出任何人的想象。为了实现这一壮举,该公司已经解决了困扰该行业数十年的一系列工程挑战,包括实现高速模对模通信、解决制造缺陷、封装如此大的芯片、提供高密度电源和冷却系统。CerebrasSystems通过将不同学科的顶尖工程师聚集在一起,创造了新技术,并在短短几年内交付了一个产品,这是一个令人印象深刻的成就。”

TiriasResearch首席分析师兼创始人JimMcGregor在一份声明中表示:“到目前为止,重新配置的图形处理器满足了人工智能对计算能力的巨大需求。如今的解决方案将数百个这些重新配置的图形处理器连接在一起,还需要数月的时间安装,使用数百千瓦的电力,并要对人工智能软件进行广泛修改,甚至还要数月的时间来实现功能。与之相比,单片WSE芯片的绝对大小能够实现更多的计算、更高性能的内存和更大的带宽。通过晶圆级(wafer-scale)封装的集成技术,WSE芯片避免了松散连接、慢内存、基于缓存、以图形为中心的处理器的芯片固有的传统性能限制。

CerebrasSystems成立于2016年,自成立以来在业内相当神秘低调,专注于为数据中心进行训练提供芯片产品,曾被CBInsights评为“全球最值得期待的100家芯片公司”。资料显示,该公司曾于2016年完成2500万美元A轮融资,投资方为知名风投Benchmark,后又获得多轮融资,截止2017年9月共获得1.12亿美元融资,估值8.6亿美元。

公司的创始团队背景实力也十分强劲。联合创始人及CEOAndrewFeldman,曾经创立过芯片公司SeaMicro,后被AMD在2012年以3.34亿美元收购。SeaMicro被AMD收购后,原班人马大都进入AMD继续工作,所以当AndrewFeldman大旗一挥要继续创业时,很多老同事都选择了跟随,其他主要团队成员大都与创始人AndrewFeldman师出同门。

其中值得一提的人物是GaryLauterbach。在上世纪90年代Sun公司如日中天之时,GaryLauterbach就曾担任公司的高级芯片设计师,加之后来在SeaMicro主要从事低功耗服务器设计,可以说公司在创世之初就累积了一大批低功耗芯片设计的元老级人物,这对普通创业公司来说无疑可以说是赢在了起跑线上。

随后,在2018年,又有一位重量级人物加盟CerebrasSystems,前Intel公司架构副总裁、数据中心首席技术官DhirajMallick正式出任主管工程和商务的副总裁。此人在Intel任职期间,2018年第二季度收入同比去年增长10亿美元,仅2018年上半年就将公司数据中心的收入提高到了100亿美元,是一位公认的技术与商业奇才。而他也正是AndrewFeldman在SeaMicro及AMD的老同事。现在,这家公司已有194名员工。

CerebrasSystems未来要走的路还很长,但不难想象,AI正带来一股计算机体系结构和芯片封装技术创新潮,可以期待,我们将见证更多更有趣甚至意想不到的AI芯片诞生。

提供服务:导出本资源

版权所有@2017中国科学院文献情报中心

制作维护:中国科学院文献情报中心信息系统部地址:北京中关村北四环西路33号邮政编号:100190