华人科学家提出新AI算法,能耗狂降95%,将重塑GPU设计

近年来,随着人工智能(AI)的迅猛发展,相关应用的能源消耗问题也日益突出。尤其是大型语言模型(LLMs)如ChatGPT等的出现,使得计算能力和电力需求迅速增长,造成了可观的能耗和高昂的成本。最近,麻省理工学院的华人研究科学家罗鸿胤和他的团队,成功地推出了一种名为线性复杂度乘法(L-Mul)的新算法,声称可以将AI应用的能源需求降低高达95%。这项重大的技术突破不仅对AI行业,也对整个计算硬件市场,包括GPU的设计方向,可能产生深远的影响。

能耗危机:AI面临的挑战

根据研究,当前的AI模型,特别是像ChatGPT这样的模型,平均每天需消耗约564MWh的电力,这相当于可以供给18,000个美国家庭的用电需求。批评者预言,若不对能耗作出有效控制,AI的年能耗将在不久的将来达到100TWh,令人不寒而栗。大量的能源消耗不仅带来环境负担,也使得尤其在气候变化日益严峻的今天,公众对AI的态度愈发复杂。

新算法:L-Mul的诞生

L-Mul的核心创新在于其计算方式。以往AI模型通常依赖复杂的浮点乘法(FPM)来处理计算。FPM允许应用高精度地处理变化极大的数字,但也是造成高能耗的元凶之一。相比之下,L-Mul通过使用整数加法来近似浮点乘法,取得了令人惊叹的能耗表现。这一新方法有助于减少不必要的算力和电力消耗,而不会牺牲模型的性能。

罗鸿胤与他的团队在测试中发现,L-Mul方法所需的计算量大大减少,当前的测试结果显示电力需求降低了95%。虽然采用这一算法需要不同于现有技术的硬件支持,但研究团队已完成相关新型硬件的设计、构建与测试,期待在条件成熟后推广这一划时代的技术。

改变硬件设计的机会

目前,GPU制造商Nvidia主导着AI硬件市场。随着L-Mul技术的逐步推广,若其效果得到验证,将对Nvidia等公司的产品设计及市场策略形成直接挑战。也许未来我们能看到新的硬件设计被提出,以更好地适应这种高效的计算方式,革新传统的GPU设计思路,为AI计算的可持续发展铺平道路。

罗鸿胤的科研之路

值得一提的是,罗鸿胤是经历过了从清华大学到麻省理工学院的优秀科研之路。他在清华大学获得学士学位后,通过出色的研究成绩进入麻省理工学院进行深造,近年来一直积极探讨如何提高AI技术的效率和推理能力。其中,他在文本分类任务中也展示了小模型的超高性能,进一步证明了他在该领域的前瞻性。

展望未来

罗鸿胤表示:“我们的长期目标是利用这一数值计算的新方法,提高大型AI模型的效率,从而解决当前面临的各种挑战。”他计划在可编程阵列逻辑(FPGA)平台上进行进一步研究,以更准确地测定新算法在能源上的具体价值。面对着AI技术与应用的广泛推广,期待这一创新能够引领更多新一代的AI硬件及算法的发展,同时为人类的可持续发展贡献力量。

结语

罗鸿胤和他的团队所取得的突破,不仅是在技术上的创新,还是对环境与社会责任的积极回应。AI耗能巨大的当今,我们迫切需要科学家的智慧与创造力,去平衡科技进步与可持续发展的关系。希望未来在这条探索的道路上,能够有更多的科学家与企业共同发力,推动科技的绿色转型。对此,正如罗鸿胤所说:“解决大模型的各种特性与挑战,或许能带来AI发展的指数级提升。”返回搜狐,查看更多

责任编辑:

平台声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。
作者声明:本文包含人工智能生成内容
阅读 ()