4月,因为登顶夏国首富,李易深居简出,不是去学校就是在别墅。
也不是什么都没做,他整理了很多记忆中,前世看到的各种数据资料。
比如谷歌人工智能芯片:TPU(Tensor Processing Unit),张量处理器。
这是财大气粗的谷歌,针对机器学习算法而专门制作,一款训推一体的Ai芯片。
如果说CPU,GPU是比较万能的工具,那么TPU就是专用工具。
TPU就是谷歌专门为加速深层神经网络运算能力而研发的一款芯片。
它有更高效能的深度机器学习能力。
据说,TPU与同期的CPU和GPU相比,可以提供15-30倍的性能提升,以及30-80倍的效率(性能/瓦特)提升。
每一个操作需要更少的晶体管,用更多精密且大功率的机器学习模型,并快速应用这些模型,因此用户便能得到更正确的结果。这就是TPU。
在李易的记忆中,谷歌最新发布的TPU 芯片,包含1个张量核心,每个张量核心有4个矩阵乘法单元、1个向量单元和1个标量单元。
较比上一代产品,每美元可提供高达2倍的训练性能。
对于大型语言模型和生成式AI模型,每美元可提供2.5倍的推理性能。
成本却不到上一代的一半。
最新上线的TPU支持多达256个芯片互连,总带宽超过400Tb/s,INT8性能达到100petaOps,从而解决更复杂的计算任务。
Ai模型的参数数量以每年10倍的速度增长。
而芯片性能每年最多增长2~3倍,单芯片性能增长根本撑不住。
所以,必须通过集群扩展和稀疏化模型来应对飙涨的算力需求。
传统的设计和构建计算基础设施的方式,无法满足生成式AI和大型语言模型指数级的增长需求。
这就需要做许多事情,将TCO性能提升几十倍、数百倍!
李易不是这方面的专家,他只是看过相关的报道。
星海半导体也不是直接抄袭,而是做相关的研究,彻底消化这方面的东西。
至少有一点可以确定。
就是有了一个确切的研究方向,能少走很多弯路。
商兵华的加入,能将星海半导体的人工智能芯片提速!
除此之外,还有软件方面的研究。
这方面李易自己就懂得比较多。
结合起来,能大大提升人工智能技术的研究速度。
“这段时间,我们已经敲定了各方面的研究项目……从半导体原材料,到芯片设计、生产制造设备,都已经整理出来!”
“根据需求,投入相应的资金,做相关研究,攻克相关问题。”
比如,最底层的原材料方面,其实不用那么着急。
像光刻胶、晶圆这方面,虽然依旧很重要,依旧被卡脖子,但国内也有公司在做。
只不过没达到世界领先。
这些方面即便被卡脖子,也能暂时用一用。
现在,这方面可以投入资金,继续做研究和提升,继续追赶。
最主要的还是芯片生产制造方面涉及到的设备!
光刻机!
“这方面,夏科院、几个光学研究所、临海那边微电子公司有相关的研究……”
光刻机这方面难度,卓院士都要摇头。
一台光刻机,它代表的,不仅仅是一台高精密设备。
代表的是全球,各个国家最顶尖的技术集合体!
光刻机也他不是一家公司,甚至不是一个国家能搞定的。
阿斯麦,也只是一个组装工厂而已。
一台光刻机有上百吨,两层楼那么高,10多万个零部件,仅内部线缆拉出来,就有2公里。
一台光刻机需要40多个集装箱来运输。
一道光刻机三大核心:分别是顶级的光源(激光系统)、高精度的镜头(物镜系统)、精密仪器制造技术(工作台)。
光源是阿斯麦受过米国Cymer;
镜头是蔡司提供;
工作台是德国公司提供。
整个光刻机,阿斯麦真正掌握的核心技术:不足10%。
这些代表着全球最顶尖的技术,让一个公司去掌控?
让一个国家去掌控?!
这还是只是光刻机内使用的技术。
更不要说整个半导体产业链。
从原材料、设计、生产制造,多少技术没有掌握?!
反正就是要一个公司、一个国家,去挑战全球最顶尖的公司。
这谁不摇头?
卓