谷歌DeepMind首席执行官德米斯·哈萨比斯近日公开表示,将现有AI模型的规模扩展至极限是实现通用人工智能(AGI)的核心路径。这位因推出Gemini 3模型备受瞩目的技术领袖在上周的发言中强调,规模化发展不仅是当前AI进化的关键组成部分,甚至可能直接构成完整的AGI系统框架。
通用人工智能作为人工智能领域的终极目标,旨在创造具备人类同等或超越性智能的系统,能够自主完成人类认知范围内的所有任务。尽管全球顶尖科技企业均在此赛道投入重金研发,但目前该技术仍停留在理论阶段。哈萨比斯在阐述观点时指出,虽然单纯依靠模型规模扩张可能推动AI向AGI演进,但最终突破或许需要额外的一两个关键技术革新。
支撑其观点的"规模定律"已成为AI行业的基础性准则。这条经验性规律揭示了模型参数规模、训练数据量与计算资源投入之间的量化关系——当模型体量与数据量呈指数级增长时,系统性能将出现可预测的提升。这种"越大越聪明"的逻辑,使得科技巨头们持续加码建设超算中心,通过堆砌算力与数据来训练更大规模的模型。
然而这种发展模式正面临多重挑战。公开可用的高质量训练数据总量存在天然上限,而每增加一个数量级的算力投入,不仅意味着天文数字级的资金消耗,更将带来指数级增长的能源消耗。有环境研究机构警告,若按当前速度扩张数据中心,到2030年AI训练产生的碳排放可能相当于整个阿根廷的年排放量。更令行业担忧的是,部分专家通过实证研究发现,当模型规模突破某个临界点后,性能提升幅度开始出现明显衰减。
在硅谷的另一端,前meta首席AI科学家杨立昆(Yann LeCun)公开质疑这种"规模至上"的路线。这位图灵奖得主今年4月在新加坡国立大学演讲时直言:"大多数真正复杂的认知问题,单纯依靠扩大规模根本无法解决。"他以人类学习为例指出,婴儿通过少量互动就能掌握物理世界规律,而当前大模型需要海量数据才能达到类似认知水平。
据知情人士透露,杨立昆离职meta后正在筹建的AI实验室,将聚焦开发不依赖语言数据的"世界模型"。这种新型架构试图通过模拟物理世界的空间关系与因果逻辑,让机器像人类一样通过观察理解环境本质。该方案若能突破,或将颠覆现有以语言处理为核心的大模型技术路线,为AGI发展开辟全新路径。目前已有多个研究团队在类似方向取得阶段性成果,但距离实用化仍存在巨大技术鸿沟。















