在AI芯片领域中,Cerebras正在经历一场前所未有的挑战和机遇。该公司的CEO Andrew Feldman在最近的一次访谈中透露,因DeepSeek-R1大语言模型的需求激增,Cerebras面临着巨大的订单压力。作为AI硬件行业的佼佼者,Cerebras以其单块芯片提供125 PFLOPS的峰值算力和1.2PB的超大内存而闻名。然而,DeepSeek-R1的需求显然超乎了他们的预期。
DeepSeek-R1被视为AI领域的转折点,其预训练成本是主要模型如GPTo1的十分之一,却在效果上并不逊色。Feldman表示,DeepSeek正展现出巨大的潜力,将推动更加庞大的AI系统的诞生。随着成本的降低,AI市场的潜力正被逐步挖掘。Cerebras在执行DeepSeek-R170B时的性能表现十分亮眼,达到了1508 tokens/s,远超传统GPU的表现。
然而,DeepSeek-R1在推理过程中的算力消耗也可谓不容小觑。采用Chain-of-Thought(CoT)推理方法后,该模型需要将复杂的问题分解为多个中间步骤,这样的逐步推理过程在计算时带来的巨大算力需求令人瞩目。为此,Cerebras提出了一种创新的蒸馏技术,旨在将大规模模型的“知识”转移到小型模型中,形成较为经济的解决方案。在这一过程中,大模型作为教师模型,而小模型则被称为学生模型,允许客户在不牺牲精度的情况下降低推理所需算力。官方声称,DeepSeek-R1在蒸馏至Llama70B时,其精度几乎没有下降。
此外,Cerebras还建议客户利用HuggingFace上开源的DeepSeek模型参数作为教师模型,以便蒸馏出适合实际部署的学生模型。Feldman对此非常自豪,认为DeepSeek不仅是开源AI的主要胜利,还通过蒸馏技术使开源模型的进步得以复制,极大降低了复制新AI模型的门槛。
尽管有人担心计算成本下降可能引发市场的不景气,但Feldman引用过去半个世纪的例子指出,成本降低通常会扩大市场需求。例如,计算机与智能手机的普及正是由于价格降低而实现的。因此,他坚定相信DeepSeek及Cerebras的努力将进一步推动AI市场的增长。
自去年8月以来,Cerebras已自称为“世界上最快的人工智能推理服务提供商”。不过,目前在405B模型的高昂成本面前,Cerebras主要提供蒸馏后的70B模型。Feldman提到,虽然部分客户愿意花费更多以换取更高准确性,但大多数客户还是更倾向于选择更具性价比的模型。综上所述,Cerebras及其DeepSeek令人期待的前景将引领AI芯片领域的下一个浪潮。返回搜狐,查看更多