新智元报道
编辑:编辑部 JNY
【新智元导读】NYT专栏作家Kevin Roose近期发文称,强人工智能要来,而人类尚未做好准备。当AI在数学奥赛中夺金,完成95%代码,深入到我们日常工作的每个角落时,人类真的做好迎接这个前所未有的技术革命了吗?
一觉醒来,离AGI又近了一步。
纽约时报专栏作家Kevin Roose,发帖表示自己被AGI「洗脑」了,现在对AGI深有感触。
强人工智能即将到来,但人类尚未做好准备。
不论是乐观主义者,还是悲观主义者,Kevin Roose提出了迈向AGI进展的三个论点。
他相信,在过去的几年里,AI系统已经在多个领域开始超越人类并且AI每天都更聪明。
而且很快——可能在2026年或2027年,但也可能就在今年——AI公司将会宣称他们已经创造了AGI。
这不是渐进式的改进,而是颠覆性的飞跃。
为AGI做准备,最佳时机就是现在
AGI,通常被定义为——能够完成几乎所有人类可以执行的认知任务的通用型AI系统。
Kevin Roose相信,那些坚称所有进展只是「烟雾弹」,并否认AGI可能性的顽固AI怀疑论者,不仅在观点上是错误的,而且还给人们一种虚假的安全感。
无论你认为AGI对人类来说是好事还是坏事——坦白讲,现在下结论还为时尚早——它的到来提出了重要的经济、政治和技术问题,而我们目前还没有找到答案。
Kevin认为,为AGI做准备的最佳时机,就是现在。
这一切,听起来可能有些疯狂。
但Kevin并不是满怀幻想的未来主义者,也不是炒作AI投资组合的投资人,更没有吃了太多「毒蘑菇」然后看完了《终结者2》。
作为一名记者, 他花了大量时间与构建强AI系统的工程师、为AI提供资金的投资人以及研究AI影响的学者交谈。
而在这个过程中,他逐渐意识到,目前AI领域正在发生的事情,比大多数人所理解的要更重大。
在AI初创公司云集的旧金山,人们谈论着「感受AGI」。
而打造比人类更聪明的AI系统,已经成为硅谷巨头的明确目标。
每周,从事AI研究的工程师和创业者告诉他, 巨变——颠覆性的、前所未有的变革——已经近在咫尺。
去年刚刚离开OpenAI、独立的AI政策研究员Miles Brundage,认为 AGI可能会在十年内诞生。
在美国除了湾区之外,很少有人听说过AGI,更别提为其到来做准备了。
而在媒体新闻业中,那些认真对待AI进展的记者,仍有可能被嘲笑为行业代言人的风险。
尽管如今AI系统已经在诺贝尔奖级别的科研突破中发挥作用,尽管每周有4亿人使用ChatGPT,但大多数人在日常生活中接触到的AI,依然只是个烦人的存在。
曾经,Keinv也对这种想法嗤之以鼻。但后来,他意识到自己错了。
有几件事让他开始更加严肃地看待AI的进步。
Hinton奥特曼AI大佬拉响警报
当今AI行业最令人不安的一点是,那些最接近这项技术的人——领先AI实验室的员工和高管们——往往也是对AI进步速度最感到担忧的人。
这种情况,相当罕见。
回想2010年,当Kevin报道社交媒体崛起时,Twitter、Foursquare或Pinterest的内部人士并不会警告他们的应用可能引发社会混乱。
小扎也没有测试Facebook,也没有考虑它是否能被用于制造新型生物武器或发动自主网络攻击的可能性。
但今天,那些掌握最前沿AI技术的人——那些正在研发强AI,并能接触到更先进系统的专家——却在告诉大家,巨变即将到来。
各AI巨头正在积极为AGI的到来做准备,并研究AI可能带来的潜在风险,比如它们是否具备策划阴谋或欺骗能力,以应对它们变得更强大、更自主的未来。
OpenAI首席执行官奥特曼曾写道:「 通向AGI的系统已经浮现。」
Google DeepMind首席执行官Demis Hassabis表示, AGI可能还需要三到五年的时间。
Anthropic首席执行官Dario Amodei(虽然他不喜欢使用「AGI」这个术语,但认可其基本概念)上个月说,他认为距离出现「 在几乎所有领域都比人类更聪明的AI系统」只有一到两年的时间。
或许,应该对这些预测持保留态度。
毕竟,AI公司的高管们有可能从夸大AGI的热度中获利,因此他们可能有动力夸大进展。
但许多独立专家——包括全球最具影响力的AI研究者Geoffrey Hinton和 Yoshua Bengio,以及前拜登政府的首席AI专家Ben Buchanan——都在表达类似的看法。
此外,还有许多知名经济学家、数学家和国家安全官员也发出了相似的警告。
当然,也有一些专家对AGI即将到来表示怀疑。
但即使不考虑那些在AI公司工作、或在其中有直接利益的人,依然不应轻易忽视短时间内实现AGI的可能性 -- 有足够多独立且可信的声音在提出这种观点。
LLM进化速度惊人,拿下奥赛级金牌
比专家观点更具说服力的,是AI系统正在以惊人的速度变得更强大。
2022年,当OpenAI发布ChatGPT时,主流AI模型仍然难以处理基础数学运算,在复杂推理问题上常常失败,并且经常产生「幻觉」。
在特定提示下,当时的聊天机器人确实能表现出色,但你绝不会把它们用于任何至关重要的任务。
而今天的AI模型,已经进步了许多。
现在,专训的AI模型在IMO中能达到奖牌级的水平,而通用模型在解决复杂问题上的能力提升得如此之快,以至于不得不设计更难的新测试来衡量它们的能力。
尽管幻觉和事实错误仍然存在,但新一代模型上已经变得少了许多。
如今,许多企业已经信任AI模型,并将其深度集成到核心业务和面向客户的功能中。
AI的进步,一部分是Scaling law的结果。更大的模型,结合更多的数据和更强的计算能力,通常能带来更好的效果。
当前领先的AI模型,规模已远超前几代产品。
但这也离不开近年来AI研究的突破——尤其是「推理」模型的诞生。这类模型在生成回答前会额外进行一步计算,从而提升理解和逻辑推理能力,使AI的表现更加可靠。
推理模型比如OpenAI o1和DeepSeek R1,专门训练来解决复杂问题,并采用强化学习进行构建。
这种技术最早被用于训练AI在围棋上达到超越人类的水平。而如今,这些模型正在攻克以往AI难以解决的难题。
例如GPT-4o在AIME 2024中得分仅为9%,而几个月后发布的o1在同一测试中,拿下74%高分。
这表明,推理模型的能力远超传统AI模型。
AI写95%代码,抢攻白领地盘
随着这些工具的进步,AI正变得越来越适用于各类白领知识型工作。
Kevin的同事Ezra Klein最近写道,ChatGPT的Deep Research(一种高级分析功能)所生成的报告,其质量至少能达到他合作过的研究人员的中等水平。
在Kevin的工作中,他也发现了许多AI工具的实际用途。
Kevin不会用AI来写专栏,但会用它做很多其他事情,比如:
准备采访
总结研究论文
开发个性化应用来帮助处理行政事务
几年前,这些事情几乎是不可能做到的。
而现在,Kevin表示很难相信任何一个经常在严肃工作场景中使用AI的人,会得出「AI进步已经停滞」的结论。
如果真的想了解AI最近的进步有多大,去问问程序员就知道了。
一两年前,虽然已经有AI编程工具,但它们的作用更多是加速人类程序员的工作,而不是取代他们。
而如今,许多软件工程师告诉Kevin,AI已经承担了大部分实际编码工作,而他们的角色越来越像是监督AI系统。
创业加速器Y Combinator的合伙人Jared Friedman,最近表示,该机构当前孵化的初创公司中,有四分之一几乎完全依赖AI编写代码。Friedman说道:
一年前,他们还会从零开始构建产品,但现在95%的代码都是AI写的。
宁可准备过度,也不能毫无准备
出于认知上的谦逊,Kevin必须承认,自己和许多人的时间预测可能是错误的。
「也许AI的进步,会遇到我意想不到的瓶颈」。
比如能源短缺,导致人工智能公司无法继续扩建数据中心;或者高性能芯片的供应受限,影响AI模型的训练。
也许当前的模型架构和训练方法并不足以真正实现AGI,还需要更多技术突破。
但即使AGI比他预期的晚10年到来——不是2026年,而是2036年,他依然认为,人类应该从现在开始做好准备。
无论如何,都应该要做的事情:
更新能源基础设施;
加强网络安全防御;
加快AI设计药物的审批流程;
制定法规以防止最严重的AI危害;
在学校教授AI基础知识并将教育重点放在社交与情感发展而非即将过时的技术技能上。
无论是否存在AGI,这些建议都是明智之举。
一些科技领袖担心,对AGI的过早担忧会导致对AI的过度监管。
然而,特朗普政府已经表明其意图是加速AI的发展,而非减缓它。
而且投入到下一代AI模型研发的资金数额高达数百亿美元,并且还在不断增加——
因此领先的AI公司自愿放缓脚步的可能性似乎不大。
与准备过度相比,更大的风险在于大多数人可能直到强大的AI直接冲击他们的生活——如失业、陷入骗局或受到伤害时,才意识到它的存在。
这正是社交媒体时代发生的情况,美国在Facebook和Twitter等工具变得「大而不倒」(too big to fall)之前,没有意识到它们可能带来风险。
这就是为什么即使我们不确定AGI何时到来或确切的形式是什么,他也主张现在就认真对待AGI的可能性。
如果我们处于否认状态——或者仅仅是不给予足够的关注——我们就可能错过在最关键时刻塑造这项技术的机会。
面对即将到来的巨大变革,我们需要保持警觉并积极应对,以便在未来能够更好地利用这一技术进步。
网友热议AGI
网友Tommy. T在文章下发文称,Roose的观察非常深刻,强AI确实已经近在眼前。
尽管人们对人类能否驾驭AGI感到忧虑,Tommy却认为,只要我们理性且谨慎地去面对,这个技术将能为我们带来巨大的好处。
他表示,我们不必害怕人类对智慧的「垄断」会被AI打破,相反,我们应该把AI当作伙伴,发挥它的能力,来补充人类的创造力、同理心和道德判断力。
AGI可以强化我们的优势,帮助解决医疗创新、教育公平和环境可持续性等重大问题,为人类打开前所未有的发展机会。
要做到这些,我们必须积极做好准备。
需要大量投入于道德标准建设、公开透明的使用规则,以及确保公平普惠,让强大的AI技术造福全人类,而不仅仅是少数特权人群。
我们的目标应当是与AI共同成长——通过清醒的乐观态度和集体的责任意识,携手共进。强AI时代的到来并不可怕。只要我们选择合作、创新与审慎管理,这一时代就能成为人类历史的一个转折点。
沃顿商学院研究AI、创新与创业公司的Ethan Mollick教授也发帖评论说,「我认为现在正是开始为AGI做准备的最佳时机。」
他认为,越来越多来自AI行业外的聪明观察者,例如kevin Roose和Ezra Klein,开始频繁地发出类似的警告。
「忽视他们可能是正确的,将是一个真正的错误。」Mollick教授说。
参考资料:
https://www.nytimes.com/2025/03/14/technology/why-im-feeling-the-agi.html?unlocked_article_code=1.304.TIEy.SmNhKYO4e9c7&smid=url-share返回搜狐,查看更多