|

股票

前OpenAI创始人称:大模型将从“堆芯片”转向“拼研究”

来源:阿尔法工场

2025-11-27 08:10:29

(原标题:前OpenAI创始人称:大模型将从“堆芯片”转向“拼研究”)

导语:通过堆算力提升AI智能水平的模式已经逼近极限。
摘要:
1、人工智能企业此前聚焦于通过海量芯片部署或获取大规模训练数据来实现算力扩张。

2、OpenAI联合创始人伊利亚·苏茨克维尔(Ilya Sutskever)表示,如今需要找到高效利用这些算力的有效途径。

3、他在接受德瓦克什·帕特尔(Dwarkesh Patel)采访时称:“因此,我们将重返研究时代——只不过这次有了强大的计算机加持。”

作为现代人工智能领域的公认先驱,OpenAI联合创始人伊利亚·苏茨克维尔认为,AI行业的发展潮流必须重新转向研究阶段。

在周二发布的《德瓦克什播客》(Dwarkesh Podcast)一期节目中,苏茨克维尔对“算力扩张是AI进步核心路径”这一传统共识提出了质疑。

科技企业已投入数千亿美元采购图形处理器(GPU)并建设数据中心,本质上是为了提升其AI工具的性能——无论是大语言模型(LLMs)还是图像生成模型。

业界普遍认为,算力越强、训练数据越多,AI工具的智能水平就越高。

苏茨克维尔在采访中表示,过去约五年间,这种“模式”确实产出了具有影响力的成果。对企业而言,这种方式也极具效率:相较于投入可能无果的研究,它提供了一种简单且“风险极低”的资源投入方式。

然而,如今执掌安全超级智能公司(Safe Superintelligence Inc.)的苏茨克维尔认为,这种模式已逼近极限。他指出,数据是有限的,而各类机构已拥有海量算力。

“难道真的有人认为:‘哦,现在的规模已经很大了,但如果能再扩大100倍,一切就会截然不同?’ 变化肯定会有。但要说只要将规模扩大100倍,一切就会彻底改变?我不这么认为。”苏茨克维尔表示,“因此,我们将重返研究时代——只不过这次有了强大的计算机加持。”

苏茨克维尔并未否定算力的重要性,他强调算力仍是研究的必要条件,且在所有主流机构均遵循同一范式的行业背景下,算力可能成为“核心差异化优势之一”。

但他指出,要找到高效利用现有算力的有效途径,研究将起到关键作用。

苏茨克维尔认为,有一个领域需要更多研究投入:让模型具备与人类相当的泛化能力——即仅通过少量信息或示例就能完成学习的能力。

“我认为最根本的问题在于,这些模型的泛化能力与人类相比差距巨大。”他表示,“这一点显而易见,似乎是一个非常核心的症结。”(BI)

#AI #算力 #大模型 #科技 #大数据

证券之星资讯

2025-11-26

首页 股票 财经 基金 导航