▶ 原文链接

Dwarkesh播客:Michael Nielsen谈科学进步的识别、超长验证闭环与科技树的偶然性

来源: Substack | 嘉宾 Michael Nielsen | 日期 Apr 07, 2026 分类: 其他 原文发表: Apr 07, 2026 纪要生成: 2026-04-20


全集重点


嘉宾/话题简介

本期嘉宾Michael Nielsen是量子计算领域先驱、知名科学作家,著有量子计算权威教材、深度学习入门著作,同时是开放科学运动核心推动者,现任Astera Institute研究员。本期节目围绕科学进步的识别逻辑展开,结合狭义相对论、自然选择、日心说等经典科学史案例,探讨了科研验证闭环的超长滞后性、AI驱动科学的边界、科技发展的路径依赖等核心议题,同时分享了Nielsen个人的科研经历、学习方法与对未来科学体系的思考。


赞助信息


分节详述

00:00:00 科学进步如何超越其验证闭环

本节重点 - 狭义相对论的诞生并非直接由迈克尔逊-莫雷实验驱动,爱因斯坦本人甚至称提出理论前未听说该实验。 - 科学史上的理论选择远非朴素证伪主义描述的那样简单,优秀科学家可能长期坚持已被学界广泛抛弃的理论。 - 日心说从提出到恒星视差的实验验证间隔超2000年,人类科学无需等待完整验证即可完成理论迭代。

详细精要

💬 精华片段(中文)

"实际上并不存在什么我们所有人都在使用的标准流程来调和这些分歧。伟大的科学家可能在科学界普遍改变观点之后很长时间内仍然坚持错误的看法。这里没有中心化的权威,也没有中心化的方法。"

"It’s not as though there’s some standard procedure that we’re all using to reconcile these things. Great scientists can remain wrong for a very long time after the scientific community has broadly changed its opinion. But there’s no centralized authority or centralized method."


00:17:51 牛顿是最后一位魔法师

本节重点 - 凯恩斯在关于牛顿的著名随笔中提出,牛顿并非理性时代的第一人,而是最后一位魔法师,其思想是迷信与现代科学的混合体。 - 牛顿对炼金术、神学的研究与他在物理学、数学上的研究采用了完全相同的严谨方法,二者在其学术生涯中并行开展了25年。 - 试图将科学简化为固定流程的尝试必然遭遇瓶颈,真正的突破性创新往往出现在现有方法论不再适用的领域,需要大量多样化的探索。

详细精要

💬 精华片段(中文)

"牛顿并非理性时代的第一人。他是最后一位魔法师,是最后一位用不到一万年前开始构建我们知识遗产的先辈们同样的眼光,俯瞰可见世界与知识世界的伟大头脑。"

"Newton was not the first of the age of reason. He was the last of the magicians, the last great mind which looked out on the visible and intellectual world with the same eyes as those who began to build our intellectual inheritance rather less than ten thousand years ago."


00:23:26 为什么自然选择没有更早被发现

本节重点 - 自然选择的核心逻辑看似简单,但直到1859年才由达尔文与华莱士独立提出,其核心难点不在于提出人工选择的概念,而在于意识到其是整个生物圈演化的核心机制。 - 卢克莱修的早期演化思想与达尔文的自然选择存在本质差异,前者认为演化是一次性筛选过程,不包含持续渐变与所有生命共祖的核心假设。 - 19世纪地质学的发展提出了"深时"概念,证明地球存在时间远超宗教宣称的6000年,为自然选择提供了必要的时间尺度前提。

详细精要

💬 精华片段(中文)

"与达尔文同时代的生物学家托马斯·赫胥黎读完《物种起源》后说:'我怎么会蠢到没想到这一点。'从来没有人读完《自然哲学的数学原理》后会想:'天呐,我怎么没抢在牛顿前面提出这些理论?'"

"There was this contemporaneous biologist with Darwin, Thomas Huxley, who read this and said, 'How extremely stupid to not have thought of this.' Nobody ever reads the Principia Mathematica and thinks, 'God, why didn’t I beat Newton to the punch here?'"


00:29:52 梯度下降能否发现广义相对论

本节重点 - AlphaFold的成功高度依赖蛋白质数据库中数十年积累的18万个蛋白质结构实验数据,AI部分仅占整体投入的很小比例,本质是数据驱动的拟合而非原理性发现。 - 大模型等AI系统并非传统意义上的科学解释,但其可以作为人类提取科学原理的中间载体,未来可能成为全新类型的科学研究对象。 - 单一梯度下降等优化方法无法完成范式跃迁类的科学创新,这类创新需要同时维持多个独立研究方向,允许长期无明确验证结果的探索。

详细精要

💬 精华片段(中文)

"AlphaFold其实和AI关系不大。它的成功很大程度上归功于蛋白质数据库,是X射线衍射、核磁共振、冷冻电镜技术以及投入数十亿美元获得的18万余个蛋白质结构共同带来的成果。"

"AlphaFold really isn’t about AI. A massive fraction of the success there is the Protein Data Bank. It’s X-ray diffraction, NMR, cryo-EM, and the several billion dollars that were spent obtaining those 180,000-odd protein structures."


00:50:54 为什么外星人会拥有与我们不同的科技栈

本节重点 - 人类当前的科技发展仅触及科技树的极小部分,不同文明由于感知方式、发展路径的差异,完全可能演化出完全不同的科学技术体系。 - 科学领域的"低垂果实"会随新领域的开辟不断出现,计算机科学、量子计算等新领域的涌现反复打破了边际收益递减的预期。 - 科技发展的强路径依赖性意味着不同文明之间存在巨大的潜在贸易收益,知识、工艺能力的差异会带来持续的比较优势。

详细精要

💬 精华片段(中文)

"如果你在某一个时间点静态观察科学进步,可能会觉得低垂果实被摘完了收益递减。但如果有人站在甜品台后面不断补充新的甜品,可能不久之后就会出现好得多的甜品,你会转而选择那些。"

"If you look at a very static snapshot in time of scientific progress, maybe there's some truth to that. But if somebody is standing behind the dessert table and is replenishing and restocking the desserts and keeps adding new ones in, it may turn out that a little bit later, much better desserts appear, and you're going to go and eat those instead."


01:15:26 是否存在无限多的深层科学原理等待发现

本节重点 - 现有研究证明科技进步需要的科研人员数量逐年提升,存在边际产出下降的趋势,但这一趋势是由外部制度、工具限制导致的,而非科学规律本身的固有属性。 - 人类历史上的重大发展跃迁(农业革命、工业革命、AI革命)不断重置增长速率,未来仍可能出现人类当前完全无法想象的全新跃迁阶段。 - 量子计算的应用潜力仍未被充分探索,当前的认知局限于40年的理论研究阶段,尚未拥有实际可用的大规模量子计算机,未来可能带来完全超出预期的突破。

详细精要

💬 精华片段(中文)

"你不可能和一群黑猩猩讨论拥有语言是什么感觉。过去的重大跃迁本身就是无法被跃迁前的主体预测的,未来的跃迁很可能也是如此。"

"You can't speculate with a bunch of chimpanzees about what it would be to have language. Just to pick a major transition in the past, the transition itself is the thing. It seems likely."


01:26:25 是什么吸引Michael Nielsen早期投身量子计算领域

本节重点 - 量子计算理论本可在1950年代由冯·诺依曼等学者提出,但直到1980年代才由费曼、Deutsch奠定基础,核心是当时个人计算机普及、单量子态操控技术成熟两大外部条件的共同作用。 - Nielsen在1992年通过导师Gerard Milburn接触到量子计算的早期核心论文,意识到该领域具备极高的基础价值且存在大量未解决的低门槛问题,因此选择投身该领域。 - 重大科研方向的选择本质是寻找与个人能力、兴趣匹配的低悬果实区域,优秀的学术领路人的品味对年轻研究者的方向选择有决定性影响。

详细精要

💬 精华片段(中文)

"理查德·费曼在1980或1981年左右买到了最早的一批个人电脑,据说他对这个设备非常兴奋,搬着全新的电脑时甚至绊倒自己受了重伤。"

"There's a story about Richard Feynman. He went and got one of the first PCs around 1980 or 1981. He was apparently so excited with this device, he actually tripped and hurt himself quite badly carrying his brand-new computing device."


01:35:29 科学是否需要新的credit分配机制

本节重点 - 开放科学运动已取得显著成功,开放获取论文、公开代码、公开数据已成为科学界的普遍共识,改变了科研的底层政治经济逻辑。 - 现代科学的credit分配体系仍建立在印刷时代的论文机制上,尚未对代码、数据、未完成想法等新型科研产出建立对应的credit分配规则。 - 大型科研项目如LHC的参与作者超过千人,已没有任何单个研究者可以掌握项目的全部细节,集体科研已成为前沿研究的常态。

详细精要

💬 精华片段(中文)

"如果你观察伽利略和开普勒,他们公开研究成果的方式非常奇怪。有时他们会做一些奇特的事情,把部分研究成果以字谜的形式发布。他们做出某个发现后,把结果写成一句话,打乱字母顺序发布出来。如果之后其他人做出了同样的发现,他们就会把字谜解出来,说:'哦,是的,其实我早就发现了。'"

"If you look at people like Galileo and Kepler, the extent to which they publicly disclosed was done in a very odd way. Sometimes they did bizarre things where they published some of their results as anagrams. They'd find some discovery, write down the result in a sentence, scramble it, and publish that. Then if somebody else later made the same discovery, they would unscramble the anagram and say, 'Oh, yeah, I actually did it first.'"


01:43:57 多产与深度的平衡

本节重点 - 创造性工作包含常规工作与高方差工作两类,常规工作应尽可能提高效率、避免拖延,高方差工作则需要投入足够的时间、允许长期无产出的探索。 - Dean Keith Simonton提出的等概率规则认为,研究者的任意一项产出取得重大成功的概率是固定的,高产出的研究者更有可能做出重大贡献。 - 大量天赋极高的研究者因追求完美、害怕公众评判而长期不产出成果,最终未能实现其潜力,这类失败案例比成功案例更具参考价值。

详细精要

💬 精华片段(中文)

"Dean Keith Simonton提出了著名的等概率规则,认为一个人一生中发布的任意一项成果(论文、书籍等)取得极高重要性的概率差异不大。决定一个人在某个时期最高产的核心因素是其发布成果的数量,任意一项成果取得重大成功的概率是相等的。"

"Dean Keith Simonton has this famous equal odds rule where he says the probability that any given thing you release—any paper, book, whatever—will be extremely important for a given person through their lifetime is not that different. What really determines in what era they are the most productive is how much they're publishing. Any given thing has equal odds of being extremely important."


01:49:17 真正内化所学知识需要什么

本节重点 - 播客采访等表面接触的学习方式容易导致肤浅理解,只有设置足够高的要求、存在明确的输出与考核目标,才能实现知识的深度内化。 - 深度学习知识的核心是设置高 stakes 的输出目标,如写书、开课、解决具体问题等,需要长期卡在难点上的过程才能实现长期记忆与深度理解。 - AI工具的普及容易导致学习者回避最困难的深度思考过程,将表面的信息获取误认为深度理解,需要主动设置障碍避免这种替代效应。

详细精要

💬 精华片段(中文)

"有趣的是,卡在难点上的时间是极其重要的。过去我觉得这很烦人,现在我甚至觉得这可能是整个过程中最重要的部分。这种来之不易的性质意味着我之后会把它内化。我曾在几天内写过1万字的文章,也花过3个月或6个月写过同样长度的文章。我觉得那些只花了几天写的文章我没学到多少东西,而那些花了3个月的,15年后我仍然记得。"

"Funnily enough, spending time stuck is incredibly important. That used to just be annoying. Now it seems like it's maybe even the most important part of the whole process. That hard-won nature of it means that I internalize it afterwards. I've written 10,000-word essays in a couple of days, and I've written them in three months or six months. I feel like I didn't learn very much from the ones that only took a couple of days. Whereas some of the ones that took three months, 15 years later, I'll still remember."


专业术语注释

术语 解释
RL(强化学习)(Reinforcement Learning) 本集中指AI用于科学发现时的验证闭环机制,即AI提出假设后通过实验获得反馈迭代模型的过程
迈克尔逊-莫雷实验(Michelson-Morley Experiment) 1887年开展的物理实验,初衷是测量地球相对于以太的运动速度,实验结果未观测到以太风,成为狭义相对论的重要实验基础
狭义相对论(Special Relativity) 爱因斯坦1905年提出的时空理论,核心假设为相对性原理与光速不变原理,推翻了牛顿的绝对时空观
以太(Ether) 19世纪前物理学家假设的光传播的介质,被迈克尔逊-莫雷实验证伪,最终被科学界抛弃
洛伦兹变换(Lorentz Transformation) 狭义相对论中不同惯性参考系之间的坐标变换公式,由洛伦兹在爱因斯坦提出狭义相对论前推导得出
恒星视差(Stellar Parallax) 由于地球绕太阳公转,观测者在不同时间观测同一恒星时的位置差异,是日心说的核心验证证据,1838年首次被测量
托勒密模型(Ptolemaic Model) 古希腊天文学家托勒密提出的地心说模型,通过增加本轮的方式可以高精度预测行星轨道,在中世纪被广泛接受
量子力学(Quantum Mechanics) 描述微观粒子运动规律的物理学分支,诞生于20世纪初,是现代物理学的两大支柱之一
自然选择(Natural Selection) 达尔文进化论的核心机制,指生物的可遗传变异在生存竞争中被环境筛选,适者生存的过程,是生物演化的核心驱动力
深时(Deep Time) 地质学概念,指地球的存在时间达数亿到数十亿年,为生物演化提供了必要的时间尺度,由19世纪地质学家查尔斯·莱尔提出
AlphaFold DeepMind开发的蛋白质结构预测AI,通过学习蛋白质数据库中的实验结构,实现了高精度的蛋白质3D结构预测
蛋白质数据库(Protein Data Bank, PDB) 全球共享的蛋白质3D结构数据库,存储了通过X射线衍射、冷冻电镜等实验测定的数十万蛋白质结构,是AlphaFold的核心训练数据来源
梯度下降(Gradient Descent) 机器学习中最常用的优化算法,通过沿损失函数的负梯度方向更新模型参数,最小化损失函数,本集中用来代指AI的常规优化逻辑
广义相对论(General Relativity) 爱因斯坦1915年提出的引力理论,将引力描述为时空的弯曲,是现代宇宙学的核心基础
牛顿力学(Newtonian Mechanics) 牛顿提出的经典力学体系,描述宏观低速场景下的物体运动规律,在广义相对论提出前被视为绝对正确的物理理论
丘奇-图灵论题(Church-Turing Thesis) 计算机科学的核心基础假设,认为任何可有效计算的函数都可以用图灵机实现,是现代计算机的理论基础
公钥加密(Public-Key Cryptography) 一种加密算法,使用成对的公钥与私钥,公钥公开用于加密,私钥私密用于解密,是现代互联网安全的核心基础
复杂度类(Complexity Class) 计算复杂性理论中根据问题的计算资源需求(时间、空间等)划分的问题类别,如P、NP、BQP等
摩尔定律(Moore's Law) 英特尔创始人戈登·摩尔提出的经验规律,指集成电路上可容纳的晶体管数量每18-24个月翻一番,驱动了半导体行业数十年的高速发展
量子计算(Quantum Computing) 利用量子力学原理进行计算的新型计算范式,理论上可以在特定问题上实现远超经典计算机的加速,如Shor算法可以快速破解RSA加密
Shor算法(Shor's Algorithm) 量子计算领域的标志性算法,可以在多项式时间内分解大整数,对现有经典加密体系构成根本性威胁
费曼(Richard Feynman) 美国著名物理学家,量子电动力学创始人之一,1965年诺贝尔物理学奖得主,1982年首次提出量子计算的概念
Deutsch(David Deutsch) 英国物理学家,量子计算领域的先驱,1985年提出量子图灵机模型,奠定了量子计算的理论基础
开放科学(Open Science) 倡导科研成果、数据、代码、方法等公开共享的科研运动,目标是提高科研效率、促进科研公平
大型强子对撞机(Large Hadron Collider, LHC) 位于欧洲核子中心的世界最大粒子加速器,2012年通过对撞实验发现了希格斯玻色子,验证了粒子物理标准模型的预测
希格斯玻色子(Higgs Boson) 粒子物理标准模型预言的基本粒子,是其他粒子获得质量的来源,2012年在LHC上被发现
Transformer 2017年提出的深度学习架构,基于自注意力机制,是当前大语言模型的核心基础架构

延伸思考

  1. 如何设计新的科研credit分配机制,适配数字时代的代码、数据、中间想法等新型科研产出,从而进一步提升科研协作效率,是未来科学制度建设的核心议题。
  2. AI驱动科研的边界在哪里?如何让AI具备发现现有理论内在矛盾、完成范式跃迁的能力,而非仅局限于数据拟合类的局部优化,是AGI时代的核心科研问题之一。
  3. 科技树的强路径依赖性对当前人类科技发展的选择有何启示?是否存在我们当前主动放弃的技术路径,未来可能带来远超现有路线的收益?
  4. 个人学习中如何平衡AI工具的效率提升与深度思考的需求?如何设计强制内化的学习机制,避免被表面的信息获取替代深度的知识整合,是AI时代每个人都需要解决的问题。
  5. 未来科学研究的集体化趋势是否会进一步加强?如何在集体协作中保留个体的独立探索空间,避免共识偏见扼杀突破性创新,是科研组织需要解决的核心问题。

原文发表:Apr 07, 2026  ·  纪要生成:2026-04-20