世界上最大的计算机芯片制造商正在升级一种新的型号,该型号已经升级以增加一万亿个晶体管。
去年,Cerebras Systems 推出了Wafer Scale Engine,这是一种超级计算芯片,大小与iPad相同,为8.5 x 8.5英寸。当前模型包含跨越40万个计算内核的1.2万亿个晶体管,这些晶体管已针对基于AI的深度学习任务进行了优化。
周二,这家位于加利福尼亚的公司在Hot Chips技术会议上预览了下一代模型。得益于制造商台积电(TSMC)的7nm芯片制造技术,塞雷布拉斯将即将推出的硅片上的晶体管和内核都增加了一倍。
首席硬件架构师Sean Lie在演示中说:这是第二代晶圆级引擎,它具有850,000个AI优化内核,包含2.6万亿个晶体管。
Lie展示了该芯片的图片,该图片目前在该公司的实验室中。目前尚不清楚是否更大,但是Cerebras计划在未来几个月内共享更多细节。
该公司创造了巨大的芯片来解决当今较小的半导体设计中的瓶颈。超级计算实验室和公司可以采用这些现有芯片,并将它们组装成集群,以挤出更多的处理能力。例如,英伟达(Nvidia)出售一款AI优化服务器,其中内置八个GPU。
但是,Cerebras说,当前的设置可能会遭受带宽和延迟瓶颈的困扰,因为内存是与计算核心分开集成的,从而迫使系统不断获取数据。该公司去年在博客中写道:将存储器置于芯片之外,这意味着内核经常处于空闲状态,并且无法执行有用的计算。
Cerebras的解决方案是重新设计芯片,方便每个内核都有自己的本地内存,从而为提高性能铺平了道路。为了实现这一目标,该公司在单个硅晶片上组装了计算内核和片上存储器。它还在芯片中内置了许多冗余以避免制造过程中的缺陷。
Cerebras一直在使用Wafer Scale Engine来驱动CS-1,CS-1是一台类似于服务器的机器,旨在运行深度学习算法。周三,位于加利福尼亚州的劳伦斯·利弗莫尔国家实验室将CS-1装置连接到其超级计算机之一拉森。
据劳伦斯·利弗莫尔国家实验室(Lawrence Livermore National Lab)称,CS-1的主要优势在于它能够简化面向科学研究的深度学习工作量。实验室计算机科学家表示,该系统的功能将使他们能够跳过工作流程中不必要的处理,并加速深度学习神经网络。晶圆级集成将最大程度地减少扩大神经网络训练的通信限制,以及研究人员需要多长时间将问题“切片和切成小方块”以进行较小的工作。
Intel Chipset Device(英特尔芯片组驱动)
2.6MM
下载10.8MM
下载811KBM
下载