在拉斯维加斯举行的国际消费电子展(CES)上,英伟达CEO黄仁勋引发广泛关注,他在演讲后接受采访时表示,英伟达的新一代AI芯片性能提升速度已远超“摩尔定律”设定的标准。这一声明不仅引发了对未来芯片技术发展的讨论,也让许多行业人士重新审视AI技术的潜力与未来。
摩尔定律由英特尔联合创始人戈登摩尔于1965年提出,旨在预测计算机芯片上晶体管的数量将大约每年翻一番,从而推动性能的快速提升。然而,随着技术的发展和市场的变化,摩尔定律的有效性在近年来受到了质疑,许多科技公司在面对产业瓶颈时,开始寻找新的创新路径。在这个背景下,黄仁勋指出,英伟达的AI芯片正在以更快的速度进行技术迭代,并表示最新的数据中心超级芯片在AI推理工作负载方面的速度比上一代产品快了30多倍。
黄仁勋表示:“我们的系统进步速度远超摩尔定律。”他强调,英伟达能够同时进行架构、芯片、系统和算法的创新,从而打破传统技术发展的限制,推动行业整体进步。黄仁勋在谈到AI的未来时提出三大扩展定律:预训练、后训练和推理时计算,这些因素共同促进了AI模型能力的提升,使得推理阶段的计算成本也在下降。他相信,随着计算能力的持续增强,AI推理的成本在未来将逐步降低,进而推动更加广泛的应用。
值得注意的是,英伟达的H100芯片是行业内公认的AI训练首选,但随着科技公司的重心逐渐转向推理,一些人开始对英伟达在未来的竞争力表示担忧。以OpenAI的o3模型为例,这种在推理时使用大量计算的AI应用,其运行成本仍然高昂,每项任务的费用几乎达到20美元。黄仁勋却认为,随着新一代超级芯片的推出,推理成本将得到有效控制,从而让更多的用户受益。
在演讲中,黄仁勋展示了最新的数据中心超级芯片GB200NVL72,宣称其在运行AI推理工作负载效率上超越了H100,使得英伟达能在AI推理阶段提供更强的计算支持。他表示,新的技术不仅会提升AI模型的性能,也将为了降低成本而逐步普及。黄仁勋强调,AI推理模型可以为模型的预训练和后训练创造更优质的数据,从而形成一个良性循环。此外,他进一步指出,消费者在过去一年中已经看到AI模型的价格显著下降,这一趋势将随新技术的发展而继续。
黄仁勋的发言无疑为AI技术的快速进步注入了信心,他表示,今天的AI芯片性能是十年前产品的1000倍,这一速度远超摩尔定律的发展预期。而他认为,这一变化并没有停止的迹象,未来AI芯片将继续朝着更高效、更具经济性的方向发展。
随着AI技术的快速演进,未来的应用范围势必会更加广泛,不仅包括高端科研领域,也将渗透到我们日常生活的方方面面。在这样一个充满机遇与挑战的时代,黄仁勋的大胆表态为科技行业提供了新的视角,未来AI芯片的性能提升,将在推动各类创新应用和实现智能化生活中发挥关键作用。
解放周末!用AI写周报又被老板夸了!点击这里,一键生成周报总结,无脑直接抄 → → https://ai.sohu.com/pc/textHome?trans=030001_jdaidzkj
责任编辑: