Ilya Sutskever
伊利亚 · 苏茨克维
一句话定位:过去三十年深度学习史上唯一能从 AlexNet 讲到 Seq2Seq 讲到 GPT-4 讲到 SSI 的人——每一次范式跃迁他都在现场,不是观察者,是操作者。17 岁遇见 Hinton,问了一个问题改变了他的人生:"人脑也只是神经元速度较慢的神经网络"。从那一刻起他押注同一个假设:如果足够大的神经网络用足够多的数据训练足够久,它会学会世界本身。2012 年 AlexNet 验证了图像;2014 年 Seq2Seq 验证了序列;2020-2023 年 GPT 系列验证了语言即世界模型。Ilya 的核心贡献不是任何一个架构,而是他把"预测下一个 token"翻译成了一整套关于现实、压缩、理解、意识的哲学。2024 年 NeurIPS 他预告"预训练将结束",同年创立 SSI,目标是 Safe Superintelligence。他极少发推,很少上头条,但全世界顶级 AI 研究员都在等他说话——因为他说话时,是一个"僧侣式AI科学家"在说话,不是 CEO,不是投资人。
身份
| 出生 | 1986 年,苏联下诺夫哥罗德(Nizhny Novgorod),1991 年随父母移民以色列,后迁加拿大 |
|---|---|
| 教育 | 多伦多大学 BSc / MSc / PhD(师从 Geoffrey Hinton) |
| 关键师徒 | 17 岁敲开 Hinton 办公室门,成为 Hinton 三个关键学生之一(与 Alex Krizhevsky、George Dahl) |
| 里程碑作品 | AlexNet (2012) · Seq2Seq (2014) · GPT-1/2/3/4 核心设计者 · Q* / Strawberry / o1 推理突破早期参与者 |
| 职业路径 | Google Brain (2013-2015) → OpenAI 联合创始人兼首席科学家 (2015-2024) → Safe Superintelligence Inc. (SSI) 联合创始人(2024-) |
| 2023.11 OpenAI 政变 | 作为董事会成员之一投票罢免 Sam Altman;数天后公开道歉并签名支持 Altman 回归 |
| 2024.05 离开 OpenAI | 与 Jan Leike 先后离开;同月创立 SSI,估值迅速达到 320 亿美元 |
| 荣誉 | 图灵奖学生代表 · NeurIPS 多次最佳论文 · 2024 年 NeurIPS 特邀演讲 · 《时代》百大影响人物 |
| 风格 | 极少社交媒体、极少商业活动、公开言论几乎全部集中在少数深度访谈。被描述为 "僧侣式"(monk-like) |
起源:一个17岁的问题
17 岁的 Ilya 走进多伦多大学 Hinton 的办公室,问了一个问题:为什么人类会学习?Hinton 给他看了一个当时几乎没人相信的想法——人脑也只是一个神经元速度较慢的神经网络。如果这是真的,那么足够大的人工神经网络也应该能学会同样的事情。
这个假设成了 Ilya 一生的主押注。不是"深度学习可能有前途"这种模糊的信念,而是一个具体的、可证伪的工程立场:规模 + 数据 + 合适的优化 = 学习 = 理解 = 智能。他对 Dwarkesh 说:"我就是不想跟深度学习对赌。我要下最大的赌注。我不知道具体怎么走,但它会自己找到出路。"
这不是信仰,是自上而下的信念(top-down belief)。2025 年他对 Dwarkesh 解释这个词:"如果你总是只信任数据,有时候你可能做的是正确的事,但代码有 bug。你怎么知道应该继续 debug,还是该得出结论说方向错了?你必须说'事情一定是这样的,所以我们必须继续走下去。'"这种信念支撑他穿越了深度学习史上几次关键的"现在还不 work"——最著名的是权重初始化的尺度问题困扰整个领域多年。
投身 AI 的最初驱动力不是商业,也不是工程,是对意识之谜的哲学困惑。他对 Craig Smith 说:"意识让我深感不安。" ——你知道你在体验,你知道别人也可能在体验,但你永远无法直接验证。如果能造一个在你面前逐渐理解世界、最终可能"体验"世界的系统,也许是逼近这个问题最接近的方式。这个问题从未离开过他。
核心四大框架
框架 1:连接主义(Connectionism)是时间检验后的核心思想
2024 NeurIPS 他再次重申:深度学习史上无数思想来了又走,但连接主义——"智能从简单单元大规模连接中涌现"——是经受住时间检验的那一个。从 1986 年反向传播到 2012 年 AlexNet 到 2024 年 LLM,底层假设没变:搭对结构、给够数据、训练到位,智能就会出现。其他一切(符号主义、专家系统、贝叶斯推理)都是周边,连接主义是主线。
框架 2:预测下一个词 = 理解世界
表面上"预测下一个 token"是统计匹配;本质上,要真正做好这个任务,模型必须理解产生这些 token 的底层现实。人类情感、推理、因果、意图、场景——都必须被压缩进模型的表示中,否则无法做好预测。他给过最有名的类比:"假设你读完一本推理小说,翻到最后一页——如果一个系统能真正预测这一页的下一个词,它就必须具备真正的理解能力"。这是整个 LLM 范式的哲学根基。
框架 3:压缩 = 理解 = 智能
与 Jensen Huang 对话时他说得最清楚:"如果你把数据压缩得足够好,你就必然能提取出其中隐藏的所有秘密。" 无监督学习的本质是无损压缩——能用最少的比特表达最多的规律,就是智能。这不是比喻,是他对智能的定义。Transformer + next-token prediction + scale 之所以有效,是因为它们恰好构成了一个高效的通用压缩器。
框架 4:RLHF 不教知识,只教行为
他对 Craig Smith 说了一句改变所有人理解 ChatGPT 的话:"我们的预训练模型已经知道了关于底层现实的一切必要知识。RLHF 不是在教知识,而是在教行为——模型已经'懂了',只是还不会'做人'。" 这意味着:预训练 = 知识;RLHF = 礼仪。模型的"灵魂"在预训练里,礼仪层可以换。这个区分是所有后训练技术(DPO、宪法 AI、RLAIF)的底层预设。
十条观念原则(摘自八次访谈)
- 01"机器学习研究需要一种 magical thinking。"(2015, Talking Machines) 因为归纳推理无法被严格证明,你必须既承认这一点、又继续做下去——这本身就是哲学勇气。
- 02"当你什么都不知道时,你只会注意到粗糙的表面模式。"(2020, Lex) 深度学习的层级性不是 neural nets 的特性,是任何学习过程的共有本质——从字符→词→语义→事实是一条必然路径。
- 03"神经网络有推理能力,但如果你不在需要推理的任务上训练它,它就不会推理。"(2020, Lex) 能力不是架构决定的,是训练分布决定的。这预告了 2024 年"推理训练"的兴起。
- 04"神经网络本质上是一种可以自我编程的并行计算机。"(2022, Clearer Thinking) 他不把 LLM 看作统计模型,看作"通过梯度下降自动写出来的程序"——这完全改变了思考它能做什么的方式。
- 05"多模态有用但非必需,纯文本也能学到颜色关系。"(2023, Craig Smith) 他对"必须多模态才能理解世界"持保留——预训练的普遍性被低估了。语言本身就是世界的编码,足够量的语言数据能逼近任何感知经验的结构。
- 06"我就是不想跟深度学习对赌。我要下最大的赌注。"(2023, Dwarkesh) 一句话概括他的整个职业策略:all-in,不对冲,因为对冲意味着两边都不相信。
- 07"数据是 AI 的化石燃料——我们只有一个互联网。"(2024, NeurIPS) Peak Data 概念由此进入公共讨论。数据耗尽意味着下一个时代的主战场不是 scale,是 data efficiency。
- 08"AI 越是推理,就越不可预测。"(2024, NeurIPS) 这句被 OpenAI o1、Anthropic Claude 3 Opus 的实验反复证实——推理长度增加,分布偏离增大。这是对齐研究的硬边界。
- 09"没有丑陋存在的空间。只有美、简洁、优雅,以及来自大脑的正确启发。"(2025, Dwarkesh) 他对研究美学的坦白——AI 应该怎样,是通过思考人是怎样的来思考的。
- 10"自上而下的信念,就是当实验结果与你矛盾时,支撑你继续走下去的东西。"(2025, Dwarkesh) 这是研究者最难学的东西——何时 debug,何时换方向。Ilya 的答案:如果你的信念建立在多维度的美和大脑启发之上,你会知道。
十个关键维度
| 时间尺度 | 十年级。他思考的是"2010-2020 的转折"或"2020-2030 的终结",不是季度 |
|---|---|
| 押注模式 | 集中到极端。all-in 深度学习 + all-in OpenAI + all-in SSI。从不对冲 |
| 研究风格 | 直觉先行 + 数学验证 + 大规模实验。他承认"自上而下的信念"先于数据 |
| 沟通偏好 | 极少发推 / 极少上头条 / 高密度深度访谈。一年公开发声 2-5 次,每次都有结构化内容 |
| 理论立场 | 坚定连接主义 · 反对符号主义回归 · 对贝叶斯/因果推理保持开放但不押注 |
| 对 AGI 时间线 | 2023 年含糊;2024-2025 年逐步明确:"5-20 年" |
| 对对齐的态度 | "坦诚的困难主义"——不否认对齐难,也不相信对齐会自动解决 |
| 对规模化 | 规模化曾是主路径,但 2024 年预告"预训练将结束"——进入 研究时代 |
| 对推理 | 2024 年起重点转向"模型自我纠错推理错误"——o1/Q* 的前身 |
| 审美 | "只有美、简洁、优雅"——他是少见的把美学当成研究决策依据的 AI 科学家 |
八次深度访谈 · 全部外链
以下是 Ilya 在近十年公开的 8 次主要播客/访谈/演讲。每条都是 1-2 小时以上的深度对话,全部链接已核实可访问。
这是 Ilya 公开思想的完整轨迹——你按顺序读完,等于旁听了深度学习三十年最后十年。
① 2015.01 · Talking Machines — 机器学习与魔法思维
主持人:Katherine Gorman & Ryan Adams
链接:Robohub 页面 · Spotify
核心:从数学转向机器学习的心路;归纳推理无法被严格证明、但人类确实在做;权重初始化尺度问题如何阻碍多年深度网络训练。
"做好机器学习研究需要一种 magical thinking——如果你习惯了严格证明结果,那么归纳推理看起来几乎就像魔法。"
② 2020.05 · Lex Fridman #94 — 深度学习
主持人:Lex Fridman (MIT)
链接:官方页面 · Spotify · Apple Podcasts
核心:深度学习演变史;2010-2011 顿悟(大规模数据 × 端到端训练);AlexNet 诞生;神经网络 vs 人脑;AGI 与价值观对齐;GPT-2 分阶段发布伦理;自我博弈;"AI 为 CEO、人类为董事会"的民主模型。
"神经网络有推理能力,但如果你在一个不需要推理的任务上训练它,它就不会推理。神经网络会以最简单的方式解决你摆在它面前的问题。"
③ 2022.10 · Clearer Thinking — AI 究竟"理解"了什么?
主持人:Spencer Greenberg
链接:官方页面(含完整文字稿) · Spotify · Apple Podcasts
核心:GPT-3 只训练了"预测下一个词",为何似乎理解那么多?预测与理解的本质联系;学术界能否站在 AI 研究前沿;AI 如何同时记忆训练数据又具备泛化;扩大数据/算力是否存在概念天花板;AI 危险的主要类别。
"假设你读完了一本推理小说,翻到最后一页——如果一个系统能真正预测这一页的下一个词,它就必须具备真正的理解能力。"
④ 2023.03 · Eye on A.I. — GPT-4 背后的大脑
主持人:Craig S. Smith(前纽约时报记者)
链接:Apple Podcasts · Player FM · HackerNoon 文字版
核心:"预测下一个词"作为通往深层世界理解的路径;预训练 = 现实过程的压缩表示;RLHF = 教行为不是教知识;多模态有用但非必需;17 岁与 Hinton 的初遇;对意识的哲学困惑是他投身 AI 的真正起点。
"我们的预训练模型已经知道了关于底层现实的一切必要知识——这意味着 RLHF 不是在教知识,而是在教行为:模型已经'懂了',只是还不会'做人'。"
⑤ 2023.03 · NVIDIA GTC 炉边对话 — 与黄仁勋谈 AI
对话者:Jensen Huang(黄仁勋)· GPT-4 发布次日录制
链接:NVIDIA 官方页面 · NVIDIA 博客报道
核心:AlexNet → GPT-4 十年历程;ImageNet 的"不连续性突破";GPU 与神经网络的天然契合;ChatGPT vs GPT-4 的本质区别;多模态重要性;AI 推理能力的边界。
"(无监督学习的直觉)如果你把数据压缩得足够好,你就必然能提取出其中隐藏的所有秘密。"
⑥ 2023.03 · Dwarkesh Podcast(第一次)— 构建 AGI
主持人:Dwarkesh Patel (The Lunar Society)
链接:官方页面(含完整文字稿) · Spotify
核心:AGI 时间线;泄密/间谍;生成式之后是什么;后 AGI 的经济形态;微软合作 vs Google 竞争(TPU vs GPU);超人 AI 对齐难题;技术进步的必然性;"新想法是否被高估了"。
"我就是不想跟深度学习对赌。我要下最大的赌注。我不知道具体怎么走,但它会自己找到出路。"
⑦ 2024.12 · NeurIPS 2024 大会演讲(温哥华)
形式:大会特邀演讲 · Ilya 离开 OpenAI 后首次重大公开露面
链接:YouTube 搜索 · Substack 文字整理
核心:十年深度学习回顾;连接主义经受时间检验;生物学启发;"Peak Data" 数据即将耗尽;模型自我纠错推理错误;AI 伦理与权利。
"我们所知的预训练将毫无疑问地终结。数据是 AI 的化石燃料——它以某种方式被创造出来,现在我们在消耗它。我们只有一个互联网。"
⑧ 2025.11 · Dwarkesh Podcast(第二次)— 从规模化到研究时代
主持人:Dwarkesh Patel · Ilya 最新一次深度访谈
链接:官方页面(含完整文字稿)
核心:SSI 战略;预训练局限与数据耗尽;"规模化时代" → "研究时代"的范式转移;AI 在 benchmark 优异但经济影响滞后;泛化能力不足的根源;价值函数 ≈ 情感的类比;continual learning;超级智能 5-20 年时间线;对齐难题的坦诚。
"你必须说'事情一定是这样的,所以我们必须继续走下去。'这就是自上而下的信念,它建立在多维度的美和来自大脑的启发之上。"
Ilya 30u30 · 深度学习三十年阅读清单
(网传)Ilya 对一位想入门深度学习的研究员说:"读这 30 篇,你就理解了 90% 的重要内容。" 这份清单从 LSTM 原始论文到 Attention Is All You Need,从信息论到复杂性。不是历史回顾,是思想骨架。
🔗 完整清单入口
Ilya 30u30 阅读列表(arc.net folder)
30 篇关键论文 / 技术报告 / 讲义 — 覆盖 RNN、LSTM、Attention、Transformer、信息论、Kolmogorov 复杂性、神经图灵机、指针网络等。
🎯 如何读这份清单
不要按顺序硬读——先通读每篇的 abstract,画出概念依赖图,从最底层(反向传播、softmax)开始。读不懂的留着,先读你能看懂的。Ilya 本人的读法是"带着问题读"——比如"为什么 Transformer 比 RNN 好",带着这个问题去看他每一篇相关论文。
📘 最值得精读的 5 篇
· Attention Is All You Need(Vaswani 2017)
· Sequence to Sequence Learning(Sutskever 2014,他自己的)
· GPT-3: Language Models are Few-Shot Learners(2020)
· A Tutorial Introduction to the Minimum Description Length Principle(Grünwald)
· The Annotated Transformer(Harvard NLP)
与其他引路人的张力
vs LeCun
LeCun 坚持"LLM 不会通向 AGI,世界模型必须显式规划";Ilya 坚持"足够大的 next-token prediction 已经隐式拥有世界模型"。两人都是 Hinton 系,但在"压缩即理解"这一点上是对立的。Ilya 的立场过去五年被数据反复验证,但 LeCun 未退让。
vs Sam Altman
2023.11 OpenAI 董事会投票罢免 Altman,Ilya 是核心角色之一。数天后他公开道歉、支持 Altman 回归。这次事件最诚实的解读是:Ilya 代表"研究者价值观",Altman 代表"产品化与扩张";当两者冲突到极限时,Ilya 选择了研究者路径——去创 SSI。
vs Bengio
Bengio 近年转向 AI 安全强硬派("AI 可能灭绝人类");Ilya 的立场更复杂——承认对齐困难但不诉诸暂停。SSI 的存在本身就是一种回答:不暂停,而是在更小的团队、更聚焦的目标下推进对齐与能力联合。
vs Hassabis (DeepMind)
Hassabis 坚持多路径(AlphaFold 式的领域特化 × 通用大模型);Ilya 全押注通用 LLM。他对 Craig Smith 说:"多模态有用但非必需"——这是对 DeepMind 哲学最深的礼貌异议。
vs Hinton(师)
Hinton 2023 年离开 Google 公开警告 AI 风险,转向 "AI 可能比我们想象的更接近";Ilya 与师保持公开一致但节奏不同——Ilya 在 SSI 做的是"解决问题",不是"敲警钟"。师徒之间最大的张力:Hinton 选择了"让世界知道",Ilya 选择了"亲手做"。
他的局限
- 表达分布极不均匀。他的思想只散落在 8 次深度访谈里,没有系统专著。想理解他的人必须自己拼接——本站就是一次尝试。
- 对"研究时代"的具体路径尚未公开。2025 年他说预训练结束,但 SSI 在做什么、用什么方法,外界几乎一无所知。这是诚实的沉默,但也意味着他对未来的判断无法被外部验证。
- 在对齐上没有公开路线图。和 Anthropic 的 Constitutional AI、OpenAI 的 Superalignment(他曾领导)不同,SSI 至今没有发布任何技术论文——只有立场声明。这可能是战略性保密,也可能是尚未形成。
- 2023.11 OpenAI 政变的反转。他投票罢免 Altman,又道歉,这段被广泛讨论。真实的解读是:他低估了 OpenAI 作为商业实体的惯性,也低估了自己作为研究者决策治理事务时的短板。
- 对推理时代的技术细节沉默。Q*/o1/o3 路径他参与早期,但离开后从未公开讨论。外界只能从二手渠道推测他的看法。
如果只读一篇
📘 首选:Dwarkesh 2025.11 访谈(第二次)
Ilya 最新、最坦诚、最完整的一次深度表达。他在这次里第一次系统讲了"自上而下的信念"、"美学作为研究决策"、"规模化到研究时代"的范式转移。读完这一篇,你基本掌握他现在的思维地图。
📗 补完历史:Lex Fridman 2020.05 #94
2020 年的 Ilya——ChatGPT 尚未诞生,他已经在谈 AGI、对齐、自我博弈。读这一篇让你知道:今天看起来理所当然的 LLM 哲学,在 2020 年就已经是他反复锤打的内核。
📙 理解压缩:GTC 2023 与黄仁勋对话
一小时。如果你只想听他用最朴素的话解释"为什么 LLM 有效"——这是最好的入口。"压缩得足够好,就提取出所有秘密"——他对 Jensen 说的这句话,是整个 LLM 范式的一句话总结。
他在引路人谱系中的位置
引路人系列的投资人(段永平 → Bogle → Marks → Druckenmiller → Soros)都在回答一个问题:在不确定性中如何下注。
Ilya 属于完全不同的谱系——AI 科学家谱系。但他和投资人有一个共同的东西:自上而下的信念 + 敢下最大的赌注。Soros 说"go for the jugular";Ilya 说"不跟深度学习对赌,下最大的注"。两人在认知结构上惊人相似,只是下注的对象不同——一个是市场反身性,一个是神经网络。
在 AI 研究者谱系内部:Hinton 是父辈 · LeCun 是平辈的张力 · Hassabis 是不同路径 · Altman 是商业化镜像 · Bengio 是安全主义转向。Ilya 的独特位置:他是唯一一个从 AlexNet → GPT-4 → SSI 三十年一条线都亲手参与、并且把哲学讲清楚的人。
所以你读他,不是为了 "他下一步会做什么"——那是商业新闻记者的问题。你读他,是因为他的每一次讲话都在逼你重新定义一个词:理解、预测、压缩、智能、意识、对齐。当你的词被他重新定义完,你对 AI 的看法就不再是网络上的二手感受。