AMD造出最大芯片InstinctMI300加速卡,包含128GBHBM
作者:夏冰 栏目:财经 来源:IT之家 发布时间:2023-01-09 16:10 阅读量:10620
感谢本站的朋友OC_Formula的线索传递!
在CES 2023上,AMD公开了面向下一代数据中心的APU加速卡产品Instinct MI300该芯片将CPU,GPU,内存封装成一个整体,大大缩短了DDR内存冲程和CPU—GPU PCIe冲程,从而大大提高了其性能和效率
这款加速卡采用小芯片设计,拥有13个小芯片,基于3D堆栈,包含24个Zen4 CPU内核,并集成了CDNA 3和8个HBM3内存堆栈,集成了5nm和6nm IP,共包含128GB HBM3内存和1460亿个晶体管将于2023年下半年上市
目前AMD InstinctMI300的晶体管数量已经超过了拥有1000亿个晶体管的英特尔Ponte Vecchio,是AMD投产的最大芯片从苏丽莎女士手持Instinct MI300的照片中我们也可以看到,它的大小已经超过了半只人类的手,看起来比较夸张
AMD表示,它有9个基于3D堆栈的5nm小芯片和4个基于6nm的小芯片,周围是封装的HBM内存芯片,共有1460亿个晶体管部件AMD表示,这款加速卡的AI性能比上一代高很多
目前AMD只发布了这个信息量产芯片将于2023年下半年推出届时可能会有NVIDIA Grace,Hopper GPU等竞品,但应该会比英特尔的猎鹰海岸更早
从AMD代表展示的MI300样品来看,这9个小芯片采用了主动式设计,不仅可以实现I/O tile之间的通信,还可以与HBM3栈接口的内存控制器通信,从而带来不可思议的数据吞吐量同时,它还允许CPU和GPU同时处理内存中的相同数据,从而节省功耗,提高性能,简化流程
本站了解到,AMD宣称InstinctMI300可以带来8倍的AI性能,MI250加速卡每瓦5倍的性能提升它可以将ChatGPT和DALL—E等超大型AI模型的训练时间从几个月减少到几周,从而节省数百万美元的电费
值得一提的是,Instinct MI300将应用于美国即将推出的200亿次超级计算机El Capitan,这也意味着El Capitan在2023年部署时将成为世界上最快的超级计算机。
郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。