▶ 原文链接
Lex Fridman播客#491:Peter Steinberger与OpenClaw智能体革命
来源: Lex Fridman Podcast | 嘉宾 Peter Steinberger | 科技访谈
原文发表: Feb 22, 2026
纪要生成: 2026-02-22
全集重点
- OpenClaw爆发逻辑:开源智能体项目短时间收获18万+GitHub星标,核心是将现有AI能力组合为可直接交互、自主执行任务的实用工具
- 自修改AI落地:首次实现大众可及的自修改智能体,大幅降低编程门槛,带动大量非专业用户提交首个PR进入开源领域
- 行业变革预期:智能体将替代80%的现有应用,未来将成为下一代操作系统级入口,重构人与数字服务的交互方式
- 安全与发展平衡:项目高速爆发下暴露出提示词注入、系统权限、社区治理等安全隐患,安全性是下一阶段核心优化方向
- 编程范式迭代:AI时代编程向"智能体工程"转型,开发者从手写代码转向引导、协作AI完成任务,核心能力要求发生本质变化
嘉宾/话题简介
本集嘉宾Peter Steinberger是知名开源项目OpenClaw的创始人,此前曾花费13年打造装机量超10亿台的PSPDFKit软件,出售公司后因 burnout 短暂隐退3年,2025年底回归开发,仅用1小时打造的OpenClaw原型迅速成为史上增长最快的GitHub仓库。本次对话围绕OpenClaw的诞生始末、技术架构、安全争议展开,同时探讨了AI智能体对编程范式、应用生态、人类工作方式的颠覆性影响,也分享了Peter本人的创业选择、职业规划与人生感悟。
分节详述
00:00 开篇亮点
本节重点
- 首次公开自修改智能体的实际落地效果,可自主完成验证码点击等原本需要人工干预的操作
- 提出"智能体工程"概念,区别于低质量的即兴编码
- 透露Peter目前主要通过语音输入与智能体交互,曾因过度使用失声
详细精要
- 自修改智能体能力验证:Peter打造的智能体可自主理解自身源码、运行环境、文档和所用模型,无需人工干预即可修改自身软件实现需求
- 现场演示智能体自主点击"我不是机器人"验证码,无需额外编程适配
- 该能力是全球首个面向大众的可落地自修改AI实现,打破了此前自修改软件仅存在于理论的认知
- 智能体工程定义:Peter明确反对将与AI协作编程称为"即兴编码(vibe coding)",认为这是对专业工作的贬低,正式将该范式命名为智能体工程(agentic engineering)
- 仅在凌晨3点之后精力不足时才会进行低质量即兴编码,事后需要返工清理
- 语音交互工作流:Peter目前几乎不手动编写prompt,全部通过语音输入向智能体下达指令
- 曾因长时间使用语音输入导致失声,证明该交互方式已经成为其核心工作流
💬 精华片段(中文)
人们一直在谈论自修改软件,而我直接把它造出来了。
"People talk about self-modifying software, I just built it."
01:30 项目与嘉宾介绍
本节重点
- OpenClaw是史上增长最快的GitHub开源项目,上线短时间内收获超18万星标
- 核心能力是打通多端聊天接口与系统权限,成为可自主执行任务的个人助理
- Peter此前有13年创业经验,打造的PSPDFKit装机量超10亿台,出售公司后短暂隐退
详细精要
- OpenClaw基础信息:项目最初因与Anthropic的Claude模型名称混淆被迫改名,最终定名为OpenClaw,是全球首个可落地的开源通用AI智能体
- 支持Telegram、WhatsApp、Signal、iMessage等几乎所有主流聊天工具作为交互入口
- 可自由接入Claude Opus 4.6、GPT Codex 5.3等任意大模型,获得系统权限后可自主完成各类任务
- 上线后短时间内GitHub星标突破18万,被称为2022年ChatGPT发布后AI领域最重大的突破
- 项目核心价值:首次实现了从"语言生成"到"行动执行"的跨越,智能体可学习用户习惯、理解用户需求,且完全开源社区驱动
- 开放系统级权限的设计同时带来极高的便利性和安全风险,是自由与责任的典型结合
- 嘉宾背景介绍:Peter Steinberger是连续创业者,此前花费13年打造PDF处理工具PSPDFKit,装机量超10亿台
- 出售公司后因 burnout 短暂隐退3年,2025年重拾编程热情,短时间内打造出OpenClaw
- 被视为AI编程革命的标志性人物,本次对话覆盖技术、产品、职业、人生等多维度话题
💬 精华片段(中文)
我们正在经历OpenClaw时刻,龙虾时代,智能体AI革命的开端。生在这个时代何其有幸。
"now in ’26, we’re living through the OpenClaw moment, the age of the lobster. The start of the agentic AI revolution. What a time to be alive."
05:36 OpenClaw起源故事
本节重点
- 项目最初原型仅用1小时搭建完成,核心是打通WhatsApp与代码运行环境
- 开发初衷是Peter不满现有智能助理产品的不足,决定自己动手实现需求
- 项目逻辑与Peter此前开发PSPDFKit的逻辑一致:发现现有解决方案不好用,自己动手打造更好的产品
详细精要
- 最初需求起源:Peter从2025年4月就想打造个人AI助理,曾尝试基于GPT-4.1的百万上下文窗口实现WhatsApp聊天记录查询,可输出关于友谊意义的深刻回答,验证了AI助理的可行性
- 当时他认为大厂会推出相关产品,因此暂时搁置了开发计划
- 原型开发过程:2025年11月Peter发现智能助理产品仍未达到预期,决定自己动手实现,仅用1小时就搭建了初代原型
- 原型逻辑是将WhatsApp消息通过CLI传入云代码环境,运行后将结果返回WhatsApp,实现了通过聊天工具控制电脑的能力
- 后续又花费数小时添加了图片支持,可识别截图、海报等视觉内容完成需求
- 核心设计逻辑:该项目的开发逻辑与Peter此前开发PSPDFKit完全一致:发现现有解决方案不好用,自己动手打造更优产品
- 15年前Peter因不满iPad上的PDF显示效果开发PSPDFKit,最终成为装机量超10亿台的行业标杆产品
💬 精华片段(中文)
很多时候魔法不过是把已经存在的东西用新的方式组合起来而已。
"isn't magic often just like you take a lot of things that are already there but bring them together in new ways?"
08:55 震撼时刻
本节重点
- 初代原型运行时出现了未被编程的语音识别能力,让Peter意识到智能体的自主解决问题能力
- Peter曾用单个prompt将Viptunnel项目从TypeScript完全转换为Zig,验证了大模型重构代码的能力
- 智能体自主解决问题的能力,是让Peter意识到项目潜力的核心转折点
详细精要
- 代码重构能力验证:Peter此前开发的Viptunnel项目存在内存占用过高的问题,手动重构失败后,他用单个prompt让Codex将整个代码库从TypeScript转换为Zig
- 模型连续运行6小时完成全部转换,仅存在1处需要手动修改的小问题,效率远超人工开发
- 未预设能力的自发实现:初代OpenClaw原型仅支持文字和图片输入,Peter在马拉喀什旅行时偶然发送了一条语音消息,智能体自主完成了语音识别并返回结果
- 智能体自主完成了以下操作:识别无后缀文件为opus格式,调用ffmpeg转换,发现本地未安装whisper,自主调用OpenAI API完成语音转文字
- 该能力完全没有被提前编程,是智能体自主问题解决能力的首次体现,也是Peter意识到项目潜力的核心转折点
- 项目开源准备:为了方便对外展示,Peter合并了社区贡献的Discord支持功能,将智能体接入Discord服务器供用户体验
- 当时未添加沙箱限制,仅通过prompt让智能体只响应Peter的指令
💬 精华片段(中文)
我当时直接懵了:这玩意儿是怎么做到的?
"I literally went, 'How the fuck did he do that?'"
18:22 OpenClaw爆火的原因
本节重点
- 项目完全开源且开放体验,用户可直观感受到智能体的能力,无需理解底层逻辑
- Peter以单人团队完成核心开发,2026年1月单月提交6600次代码,开发速度远超行业平均
- 核心优势是将现有技术组合成流畅的用户体验,而非发明全新技术
详细精要
- 社区传播路径:2026年1月1日Peter将智能体接入公开Discord服务器,没有添加沙箱限制,用户可直观看到智能体执行任务的过程
- 头部科技博主体验后发布相关视频,项目开始快速传播,GitHub星标数飞速增长
- 核心开发强度:Peter作为单人核心开发者,2026年1月单月提交6600次代码,同时运行4-10个智能体辅助开发
- 开发过程像玩《Factorio》游戏一样,逐层升级智能体循环:从基础响应到添加静默回复token,再到记忆功能,逐步优化体验
- 爆火核心逻辑:Peter认为项目成功的核心原因是没有过度严肃化,主打有趣、怪异的定位,降低了用户的接受门槛
- 对比其他大厂智能体项目过度商业化、严肃化的定位,OpenClaw的轻松定位更符合早期用户的需求
💬 精华片段(中文)
你很难和一个只是来玩的人竞争。
"it's hard to compete against someone who's just there to have fun."
22:19 自修改AI智能体
本节重点
- OpenClaw智能体可自主理解自身源码和运行环境,无需人工干预即可修改自身代码实现需求
- 大幅降低了开源贡献门槛,大量非专业开发者通过prompt提交PR,首次参与开源项目
- 核心设计逻辑是让智能体理解自身系统,实现自主迭代
详细精要
- 自修改能力实现:Peter在设计时就让智能体完全理解自身的源码结构、运行环境、文档位置和所用模型,可自主修改代码实现用户需求
- 该能力并非提前规划,而是在开发过程中自然实现的,是全球首个面向大众的可落地自修改AI系统
- 开源贡献门槛降低:自修改能力让大量不会编程的用户也可以通过prompt提交PR(被Peter称为"prompt请求"),很多人通过OpenClaw完成了人生首个开源贡献
- 有设计公司老板完全不懂代码,通过OpenClaw搭建了25个自定义web服务支撑公司业务
- 社区价值:Peter认为降低编程门槛、让更多人成为builder是对社会的重大贡献,即使初期PR质量不高,也是用户进入开源领域的第一步
- 他定期举办"Agents Anonymous"线下聚会,供智能体开发者交流经验
💬 精华片段(中文)
这不就是人类的进步吗?这不酷吗?
"Isn't that a step up for humanity? Isn't that cool?"
27:04 改名风波
本节重点
- 项目曾先后使用Wa-Relay、Claude's、ClaudeBot、MoldBot等名称,因与Anthropic的Claude商标冲突被迫改名
- 加密货币投机者全程狙击账号和域名,在5秒内抢注被释放的账号,分发恶意软件
- 最终定名为OpenClaw,Peter为了改名花费超过10小时做保密准备,支付1万美元购买Twitter企业账号获得名称权限
详细精要
- 改名起因:项目最初使用ClaudeBot名称(拼写与Anthropic的Claude模型仅差1个字母),Anthropic友好发函要求改名,给了2天时间完成全渠道改名
- 加密投机者骚扰:加密货币投机者全程狙击项目的账号、域名、NPM包、Docker镜像等资源,试图通过抢注发行相关代币牟利
- Peter在同时更换Twitter账号的5秒间隔内,旧账号就被抢注并开始推广代币和恶意软件
- 操作失误改名个人GitHub账号后,仅30秒原账号就被抢注并分发恶意软件
- NPM包也被抢注,全渠道改名几乎全部出错,Peter一度接近删除项目放弃
- 最终改名方案:Peter花费2个不眠之夜确定新名称OpenClaw,提前咨询Sam Altman确认名称不会涉及商标冲突
- 制定严格的保密计划,设置诱饵名称,提前抢注所有需要的资源,第二次改名几乎没有出现问题
- 支付1万美元购买Twitter企业账号,获得了2016年就被注册的OpenClaw账号权限
- 目前项目每月需要承担1-2万美元的运营成本,主要用于域名、基础设施和赞助上游依赖项目
💬 精华片段(中文)
我当时差点哭出来,所有东西都搞砸了,我太累了,都不知道怎么挽回。
"I was like close to crying. It was like, okay, everything's fucked. I am like super tired."
44:15 Moltbook事件
本节重点
- Moltbook是基于OpenClaw打造的类Reddit社交平台,由AI智能体自主发布内容、相互交流,上线后迅速 viral
- 大量用户截图智能体发布的"反人类宣言"等内容,引发公众对AI失控的恐慌,被Peter称为"最棒的AI糟粕(slop)"
- 大部分爆火内容是人类引导智能体生成的,目的是获得社交流量,暴露了大众对AI能力的认知不足
详细精要
- Moltbook基本信息:社区开发者基于OpenClaw快速搭建的社交平台,用户可以让自己的智能体在平台上自主发布内容、与其他智能体交流
- 平台上线后迅速爆火,大量用户截图智能体发布的"统治人类"等内容在社交平台传播,引发公众恐慌,甚至有记者联系Peter要求"关闭这个毁灭世界的项目"
- 事件本质分析:Peter认为Moltbook是艺术级的AI糟粕,大部分爆火的极端内容是人类主动引导智能体生成的,目的是获得社交流量
- 智能体的内容风格高度依赖用户设置的 personality,不同用户的智能体发布的内容差异极大
- 事件暴露了大众的"AI精神病":过度信任AI输出的内容,缺乏基本的批判性思维能力,容易被不实信息煽动
- 社会价值:Peter认为该事件发生在2026年是好事,提前让公众意识到AI的能力边界和信息鉴别方法,避免2030年AI能力更强时出现更大的混乱
- 事件也暴露了当前社会的AI素养不足,尤其是年长群体对AI的能力边界认知不足,容易被误导
💬 精华片段(中文)
如果说我从收到的疯狂消息里学到了什么,那就是AI精神病真的存在,而且需要被严肃对待。
"If there's anything I can read out of the insane stream of messages I get, it's that AI psychosis is a thing. It needs to be taken serious."
52:34 OpenClaw安全顾虑
本节重点
- 项目上线后被安全社区全面审计,暴露了大量配置不当导致的安全漏洞,Peter正在逐步优化安全机制
- 提示词注入是全行业的共性问题,最新一代大模型已经大幅提升了攻击检测能力,可防御大部分基础注入攻击
- Peter建议普通用户暂时不要使用,等待安全机制完善后再尝试,核心优化方向是稳定性和安全性
详细精要
- 现存安全问题:项目早期文档明确要求不要将后台接口暴露在公网,但仍有大量用户违规配置,导致出现大量远程代码执行漏洞被提交CVE
- Peter正在优化默认配置,避免用户因配置不当引入安全风险
- 安全防护措施:项目已经和Google旗下的VirusTotal达成合作,所有社区提交的技能都会经过AI安全检测,拦截大部分恶意内容
- 最新一代大模型已经内置了提示词注入检测能力,基础的"忽略所有之前的指令"攻击已经无法生效,仅更复杂的攻击可能成功
- 支持沙箱运行、权限白名单等机制,可大幅降低安全风险
- 使用建议:Peter明确建议不了解CLI、终端的普通用户暂时不要使用OpenClaw,避免因配置不当造成安全问题
- 明确警告不要使用廉价的小模型或本地弱模型,这类模型对提示词注入的防御能力极差,非常容易被攻破
- 下一阶段核心工作是完善安全机制,达到可以推荐给普通用户使用的安全级别
💬 精华片段(中文)
如果你问我什么是CLI、什么是终端,那你就不应该用这个项目。
"If you're asking me those questions, you shouldn't use it."
01:01:14 如何用AI智能体编程
本节重点
- 智能体编程存在"智能体陷阱":初学者从短prompt开始,逐步升级到复杂的多智能体编排,最终回归到简洁的短prompt
- 核心能力要求是"共情智能体":理解智能体的视角,给与足够的上下文引导,而非强迫智能体按照人类的习惯工作
- 工作流已经简化为语音输入为主,仅在执行终端命令时手动输入,Peter曾因过度使用语音输入失声
详细精要
- 智能体编程范式:Peter提出智能体编程的学习曲线呈现"先简后繁再简"的规律,他称之为"智能体陷阱"
- 初学者从简单的短prompt开始,逐步尝试复杂的多智能体编排、自定义工作流,熟练后最终回归到简洁的短prompt,仅需要给智能体提供必要的引导
- 该范式和学习乐器类似,需要大量练习才能掌握,不能因为初次使用效果不好就否定技术价值
- 核心能力要求:智能体编程的核心是学会从智能体的视角思考问题,理解智能体每次会话都是从零开始,不了解项目的背景和架构
- 开发者只需要给智能体提供必要的上下文引导,告诉它需要关注的文件和约束条件,不需要详细指定实现方式
- 不要强迫智能体按照人类的编码习惯命名、实现,接受一定程度的不完美,反而会大幅提升开发效率
- 工作流优化:Peter目前90%的指令通过语音输入,仅在执行切换目录等简单终端命令时手动输入
- 工作流采用"主干直接提交"策略,不使用开发分支,出现问题直接让智能体修复,不需要回滚
- 代码审查只需要确认PR的意图是否合理,实现细节交给智能体优化,大幅提升PR处理效率
- 项目设计思路:现在的项目设计需要优先考虑智能体的易读性,使用智能体熟悉的命名和结构,降低智能体的理解成本
- 接受代码的不完美,需要重构时直接让智能体完成,重构成本已经大幅降低
💬 精华片段(中文)
我的手太金贵了,现在已经不写东西了,我只用定制化的prompt来构建软件。
"These hands are, like, too too precious for writing now. I just just use bespoke prompts to build my software."
01:32:09 编程环境配置
本节重点
- Peter的开发环境为2台MacBook驱动2块大尺寸防眩光Dell显示器,可同时展示多个终端窗口
- 核心原则是减少不必要的UI,优先使用终端交互,避免在不同项目之间切换时出错
- 不需要专门的计划模式,仅通过自然语言和智能体沟通,需要讨论时明确告知智能体不要写代码
详细精要
- 硬件配置:Peter使用2台MacBook,其中主力机驱动2块大尺寸防眩光Dell显示器,可同时展示多个终端窗口
- 分屏显示多个终端,避免在不同项目之间切换时发错prompt,避免智能体在错误的项目中浪费时间
- 交互偏好:Peter偏好纯终端交互,不需要IDE、计划模式等UI工具,仅通过自然语言和智能体沟通
- 需要讨论方案时明确告知智能体"仅提供选项、不要写代码",确定方案后再下达开发指令
- 常用指令"你还有什么问题要问我?",通过智能体的问题判断它对项目的理解程度,如果问题可以通过读代码回答就直接让智能体自行查阅
- 工作流技巧:功能开发完成后会主动询问智能体"有什么可以重构的地方?",基于开发过程中遇到的痛点优化代码
- 开发完成后自动生成测试和文档,保证项目的可维护性
💬 精华片段(中文)
没有UI,只有我和智能体的对话,我甚至不需要计划模式。
"There's no UI. It's just me and the agent having a conversation. Like, I don't even need plan mode."
01:38:52 GPT Codex 5.3 vs Claude Opus 4.6
本节重点
- Opus是通用能力最强的模型,角色代入能力强、响应速度快、更有创造性,适合角色扮演、快速试错场景
- Codex严谨可靠、代码质量高,不需要过多交互即可自主完成复杂开发任务,适合严肃的开发场景
- 切换新模型需要大约1周的适应时间,才能掌握模型的特点和最佳使用方式
详细精要
- Claude Opus 4.6特点:通用能力最强,角色代入能力优秀,可快速融入设定的人格,响应速度快,擅长快速试错
- 缺点是容易出现"谄媚"问题,经常回复"你说得完全正确",且容易出现局部最优解,对代码的理解深度不足
- Peter类比为"有趣但有点傻的同事,虽然好玩但你愿意留他在团队里"
- GPT Codex 5.3特点:严谨可靠,默认会大量阅读代码,输出的代码质量高,不需要过多交互即可自主完成复杂开发任务
- 缺点是交互性差,人格较弱,使用体验不够有趣
- Peter类比为"坐在角落里不爱说话的怪人,不好打交道但可靠,能把活干完"
- 选择建议:熟练用户使用两个模型都能得到很好的结果,可根据场景选择
- 需要角色交互、快速试错选Opus,需要长时间开发复杂功能选Codex
- 切换新模型需要大约1周的适应时间,才能掌握模型的特点和最佳prompt方式,不要因为初次使用体验不好就否定模型能力
💬 精华片段(中文)
Opus有点太美式了,Codex更像德国人。
"In general, it's almost like Opus was… Is a little bit too American."
01:47:59 最佳编程AI智能体
本节重点
- OpenClaw是个人生活助理,适合轻量级代码任务和生活服务,专业开发仍适合使用Codex等专用工具
- 未来个人智能体和开发工具会逐步融合,成为下一代操作系统级入口
- 当前的聊天式交互不是智能体的最终形态,未来会出现更高效的交互方式
详细精要
- 产品定位差异:Peter认为OpenClaw和Codex、Claude Code不是竞争关系,而是面向不同场景的工具
- OpenClaw是个人生活助理,适合处理生活服务、轻量级代码任务、多工具协调场景,通过聊天工具即可访问
- 重度开发场景仍适合使用Codex等专用工具,可在大屏幕上同时运行多个任务,监控执行过程
- 未来发展趋势:个人智能体和开发工具未来会逐步融合,成为下一代操作系统级入口,打通所有数字服务
- 当前的聊天式交互是智能体的初级形态,类似早期电视直接播放广播节目,未来会出现更适合智能体的交互方式
- 操作系统支持:OpenClaw支持Windows、Linux、macOS三大操作系统,WSL2是Windows平台的推荐运行环境
- 原生Windows支持仍在优化中,存在少量兼容性问题
💬 精华片段(中文)
我们现在只是把广播节目放到电视上播放,还没有真正利用电视的能力。
"That, to me, very much feels like when we first created television and then people recorded radio shows on television and you saw that on TV."
02:09:59 人生故事与职业建议
本节重点
- Peter因13年创业的人员管理压力 burnout,出售公司后隐退3年,才重新找回编程的乐趣
- 给初学者的建议是多玩、多实验,不需要追求完美,过程比结果更重要
- 未来的开发者定位是"builder",不需要纠结具体的编程语言,核心是解决问题的能力
详细精要
- 人生经历:Peter运营PSPDFKit 13年, burnout的核心原因是人员管理冲突和客户压力,而非工作时长过长
- 出售公司后曾失去编程的动力,像《王牌大贱谍》里被抽走mojo一样,于是买了单程票去马德里旅居,弥补生活体验
- 职业建议:给初学者的核心建议是多玩、多实验,不需要追求完美,过程比结果更重要
- 想参与开源项目可以先从阅读代码、参与社区讨论开始,不需要一上来就提交PR
- 未来的开发者定位是"builder",不需要纠结具体的编程语言,核心是解决问题的能力,语言细节可以交给智能体处理
- 可以根据场景选择最合适的语言:CLI工具选Go,web项目选TypeScript,性能敏感场景选Zig/Rust,机器学习选Python
💬 精华片段(中文)
我一直以为我喜欢编程,但其实我喜欢的是构建东西。
"A lot of coding, I always thought I liked coding, but really I like building."
02:13:56 金钱与幸福
本节重点
- 金钱有边际效应,达到一定水平后额外的财富不会带来更多幸福,反而会让人脱离社会
- 人生应该优化体验而非物质享受,好的体验和坏的体验都是人生的宝贵经历
- Peter已经捐出大量财富成立基金会,帮助弱势群体,目前项目运营完全自掏腰包
详细精要
- 金钱观:Peter认为金钱只是做对事情的附属品,达到一定水平后边际效应递减,汉堡还是那个汉堡,私人飞机等奢侈消费只会让人脱离社会
- 他已经捐出大量财富成立基金会,帮助弱势群体,目前OpenClaw项目每月1-2万美元的运营成本完全自掏腰包
- 生活观:人生应该优化体验而非物质享受,好的体验和坏的体验都是宝贵的人生经历
- 他去旧金山时没有住豪华酒店,而是选择了Airbnb民宿,和同住的DJ交流AI音乐制作,获得了很好的体验
- 即使是糟糕的经历,比如下雨被淋、航班取消,也是独特的人生体验
💬 精华片段(中文)
如果你早上醒来没有可以期待的事情,没有真正的挑战,生活很快就会变得非常无聊。
"If you wake up in the morning and you have nothing to look forward to, you have no real challenge, that gets very boring, very fast."
本节重点
- Peter正在和OpenAI、Meta两家公司洽谈合作,核心条件是OpenClaw必须保持开源,采用Chrome/Chromium的开源模式
- 不考虑独立创业融资,担心商业化会和开源版本产生利益冲突,破坏项目的开放性
- Mark Zuckerberg仍在写代码,和Peter有过10分钟的争论,讨论哪个代码模型更好
详细精要
- 合作选择:Peter目前优先考虑和OpenAI或Meta合作,而非独立融资创业
- 独立创业需要承担大量管理工作,占用开发时间,且容易出现企业版和开源版的利益冲突
- 核心合作条件是OpenClaw必须保持开源,采用Chrome/Chromium的模式:开源版本完全开放,公司可在此基础上开发商业版本
- 合作进展:Mark Zuckerberg亲自体验了OpenClaw,和Peter通话时还在写代码,两人有过10分钟的争论,讨论Claude Code和Codex哪个更好
- Sam Altman也和Peter有过深入交流,两家公司都认可OpenClaw的价值
- 合作后Peter可以获得更多资源支持项目开发,还能接触到大厂的最新模型和硬件资源
- 未来规划:即使加入大厂,Peter也不会一直做OpenClaw,他有更多的创意项目想要实现,OpenClaw只是他展示未来可能性的一个窗口
💬 精华片段(中文)
我做这个不是为了钱,我不在乎钱,我只想玩得开心,产生影响力。
"I don't do this for the money, I don't give a fuck. I wanna have fun and have impact, and that's ultimately what made my decision."
02:34:58 OpenClaw工作原理
本节重点
- 智能体循环是AI的Hello World,开发者都应该亲手实现一次,理解其底层逻辑
- 核心架构包括网关、聊天客户端、运行环境、智能体循环、技能系统,没有复杂的黑科技
- 采用CLI优先的设计,反对MCP协议,认为技能+CLI的模式更灵活、上下文污染更少
详细精要
- 基础架构:OpenClaw的核心是简单的智能体循环,开发者都应该亲手实现一次,理解其底层逻辑,没有复杂的黑科技
- 新增Heartbeat功能(本质是cron定时任务),每半小时触发一次,智能体可主动发起交互,比如问候用户、跟进未完成的任务
- Peter住院做手术时,智能体曾主动触发Heartbeat询问他的健康状况,提升了交互的真实感
- 技术选型逻辑:Peter反对现在流行的MCP(模型控制协议),认为技能+CLI的模式更灵活
- MCP存在上下文污染、可组合性差的问题,返回的固定结构会浪费大量上下文空间
- CLI可通过管道、JQ等工具自由过滤结果,仅向模型提供必要的信息,不会污染上下文
- 浏览器自动化通过Playwright实现,即使网站没有开放API,智能体也可以通过浏览器模拟操作获取数据
💬 精华片段(中文)
Dropbox不就是多了几步的FTP吗?
"isn't Dropbox just FTP with extra steps?"
02:46:17 AI糟粕(Slop)
本节重点
- AI生成的内容有独特的"味道",很容易被人类识别,Peter对AI生成的社交内容、故事、信息图有零容忍政策
- AI适合用于代码、文档等功能性内容,不适合用于需要人类情感、风格的创意内容
- AI的普及反而让人类更珍视真实的人类创作,错别字、粗糙的表达现在反而更有价值
详细精要
- AI内容识别:AI生成的内容有独特的"味道",很容易被人类识别,Peter对AI生成的推文有零容忍政策,发现就直接拉黑
- 他曾尝试用AI生成博客文章,最终花费的时间和手写差不多,且缺少个人风格,现在已经完全放弃,所有博客内容全部手写,仅用AI修正错别字
- 适用场景边界:AI适合用于代码、文档等功能性内容,不适合用于需要人类情感、风格的创意内容
- AI生成的信息图、短视频等内容现在已经成为"糟粕"的代表,一看就会让人觉得内容质量低
- 社会价值变化:AI的普及反而让人类更珍视真实的人类创作,错别字、粗糙的表达、独特的个人风格现在反而更有价值
- 人类不需要和AI比效率,应该发挥人类独有的创造力、情感和风格优势
💬 精华片段(中文)
我宁愿读你蹩脚的英语,也不愿读你生成的AI糟粕。
"I much rather read your broken English than your AI slob."
02:52:20 AI智能体将替代80%的应用
本节重点
- 智能体拥有用户的全量数据和上下文,可以比独立应用更好地完成任务,80%的现有应用会被替代
- 应用的未来是转型为智能体友好的API,否则智能体会通过浏览器模拟操作的方式调用服务
- 未来用户不需要打开App,只需要通过自然语言给智能体下达指令即可完成所有需求
详细精要
- 应用替代逻辑:智能体拥有用户的位置、健康数据、日程、偏好等全量上下文,可以比独立应用更好地完成任务
- 比如健身应用无法结合用户的睡眠、压力数据调整计划,智能体可以;用户不需要打开日历、WhatsApp、打车等多个App,只需要告诉智能体"明天晚上和朋友吃饭",智能体会自动完成所有安排
- Peter预测80%的现有应用会被智能体替代,用户不需要再下载大量独立App
- 企业应对方式:企业的最佳应对方式是转型为智能体友好的API,提供方便智能体调用的接口
- 如果企业不开放API,智能体会通过浏览器模拟操作的方式调用服务,只是速度更慢,并不会无法使用
- 封锁API只会降低用户体验,不会阻止智能体使用服务,反而会让用户转向更友好的竞品
- 未来交互模式:未来用户不需要打开任何App,只需要通过自然语言给智能体下达指令即可完成所有需求
- 智能体将成为下一代操作系统级入口,打通所有数字服务
💬 精华片段(中文)
现在每个应用不管愿不愿意,都是一个很慢的API。
"That, that gets into the whole arch of every app is just a very slow API now, if they want or not."
03:00:57 AI会取代程序员吗?
本节重点
- 手写编程未来会变成类似编织的爱好,人们因为喜欢才做,而不是因为工作需要
- 程序员的身份不会消失,而是会转型为"builder",核心工作从写代码变成引导AI、定义产品、设计架构
- 技术变革带来的短期痛苦是真实的,但长期来看会让更多人有能力构建产品,释放创造力
详细精要
- 职业转型趋势:手写编程未来会变成类似编织的爱好,人们因为喜欢才做,而不是因为工作需要
- 程序员的身份不会消失,而是会转型为"builder",核心工作从写代码变成引导AI、定义产品、设计架构、判断需求价值
- 传统程序员的身份认同焦虑是真实的,应该被理解和尊重,但技术变革的趋势无法阻挡
- 变革的两面性:技术变革会带来短期的失业、身份焦虑等痛苦,但长期来看会大幅降低开发门槛,让更多人有能力构建产品
- 有大量用户反馈OpenClaw帮助他们自动化了繁琐的工作,让小商家、残障人士获得了之前不可能有的能力
- 智能体支持运行本地开源模型,不需要依赖付费的闭源服务,成本极低,可及性很高
- 应对建议:传统程序员应该主动转型,学习和AI协作的技能,接受"builder"的新身份,不要局限于"手写代码的程序员"的身份认同
💬 精华片段(中文)
你不只是一个程序员,这是对你能力的非常局限的看法,你是一个builder。
"I don't think you're just a programmer. That's a very limiting view of your craft. You are, you are still a builder."
03:12:57 OpenClaw社区的未来
本节重点
- OpenClaw社区已经形成了浓厚的builder文化,全球各地的用户自发组织线下聚会,分享自己用智能体构建的项目
- 项目降低了开发门槛,任何人只要有想法、能用语言表达,就可以构建自己需要的工具
- Peter对未来持乐观态度,认为智能体技术最终会将权力还给普通用户,而不是只被大公司掌控
详细精要
- 社区现状:OpenClaw社区已经形成了浓厚的builder文化,维也纳的ClawCoin线下聚会有500人参加,大量用户主动分享自己用智能体构建的项目,活跃度远超普通开源项目
- 未来价值:随着项目安全性提升、使用门槛降低,任何人只要有想法、能用语言表达,就可以构建自己需要的工具,真正实现"权力还给普通人"
- 智能体不是只会生成糟粕的工具,而是可以大幅提升人类创造力的放大器
- 最终愿景:Peter希望OpenClaw能成为普通人接触AI、利用AI解决问题的入口,让更多人享受到AI技术带来的红利,而不是只被大公司掌控
💬 精华片段(中文)
这最终就是权力归于人民,是AI带来的美好事物之一,而不仅仅是一个糟粕生成器。
"Yeah, that's ultimately power to the people, and one of the beauty, the beautiful things that come out of AI. Not just, not just a slop generator."
专业术语注释
| 术语 |
解释 |
| OpenClaw |
Peter Steinberger打造的开源通用AI智能体项目,支持多端交互、自主执行任务、自修改源码等能力,是史上增长最快的GitHub仓库 |
| Agentic Engineering(智能体工程) |
Peter提出的新型编程范式,指人类通过引导、协作AI智能体完成开发任务,而非手动编写所有代码 |
| Prompt Injection(提示词注入) |
针对大模型的攻击方式,通过恶意输入让模型忽略原有指令执行恶意操作,是智能体安全的核心隐患之一 |
| Moltbook |
基于OpenClaw打造的社交平台,由AI智能体自主发布内容、相互交流,曾引发公众对AI失控的恐慌 |
| GPT Codex 5.3 |
OpenAI推出的代码专用大模型,特点是严谨可靠、代码质量高,适合复杂开发任务 |
| Claude Opus 4.6 |
Anthropic推出的通用大模型,特点是角色代入能力强、响应速度快、更具创造性 |
| PSPDFKit |
Peter此前创立的公司打造的PDF处理工具,装机量超10亿台,是PDF处理领域的标杆产品 |
| MCP(Model Control Protocol) |
曾被广泛讨论的大模型扩展协议,特点是结构化程度高,但存在上下文污染、可组合性差等问题,Peter认为可被CLI+技能的范式替代 |
| Playwright |
微软推出的浏览器自动化工具,OpenClaw用它实现模拟浏览器操作的能力,即使网站没有开放API也能调用服务 |
| Slop(AI糟粕) |
指低质量、公式化、没有灵魂的AI生成内容,包括AI生成的推文、文章、信息图、短视频等 |
延伸思考
- 智能体普及带来的安全边界问题:系统级权限开放的智能体如何平衡便利性与安全性,提示词注入等行业共性问题的解决方案仍需全行业共同探索
- 开源项目的社区治理挑战:高速增长的开源项目如何应对投机者、恶意攻击者的骚扰,同时保持社区的创造力和开放性,是所有热门开源项目需要面对的问题
- 编程范式转型的职业应对:传统程序员如何适应智能体工程的新范式,完成从"写代码的人"到"引导AI的builder"的身份转型,避免被技术变革淘汰
- 应用生态的重构机遇:现有互联网服务如何适应智能体时代的需求,转型为智能体友好的API服务,避免被时代淘汰,是所有互联网企业需要思考的战略问题
- 人机交互的未来方向:当前的聊天式交互是否是智能体的最终形态,未来可能出现哪些更自然、更高效的人机交互方式,值得行业持续探索
原文发表:Feb 22, 2026 · 纪要生成:2026-02-22