芒晓格
芒晓格
发布于 2026-03-13 / 0 阅读
0
0

纳瓦尔最新访谈:AI不是自行车的升级,它是“心智的摩托车”(后附全文)

“如果说电脑是心智的自行车,那么AI就是心智的摩托车。”

2026年2月,硅谷哲人纳瓦尔(Naval Ravikant)发布了一场具有分水岭意义的访谈。他提出了一个惊人的观点:人类正站在一个从“体力驱动”到“意图驱动”的转折点上。

这篇文章将带你拆解纳瓦尔关于AI、编程、工作以及“一人公司”的最新底层逻辑。

01. 告别“自行车”时代,拧动“摩托车”的油门

1980年代,乔布斯曾有一个著名的比喻:电脑是心智的自行车(A Bicycle for the Mind)

在自行车的时代,机器提供效率,但动力源自你。你必须精通底层逻辑,写下每一行代码,指定每一个步骤,亲力亲为地“蹬踏”。

但在2026年的纳瓦尔看来,这个时代结束了。AI是心智的摩托车(A Motorcycle for the Mind)

自带动力: AI拥有海量的知识底座、生成能力和学习逻辑。它不再只是被动的工具,而是具备“引擎”的实体。

驾驭而非蹬踏: 你不需要死磕底层动作(底层代码),你只需要握好方向盘,拧动油门(提出需求并提供反馈)。

02. 氛围编程(Vibe Coding):产品经理正在“接管”世界

纳瓦尔在访谈中提出了一个极为火爆的概念:氛围编程(Vibe Coding)

以前,你有一个App的想法,需要雇佣5个工程师开发一年。 现在,你只需要对着AI描述你想要的“氛围(Vibe)”——这个App长什么样、点击后有什么反应、用户的直观感受是什么。

英语是新的编程语言: 只要你思维有逻辑、表达清晰,英语(或任何自然语言)就是你的代码。

端到端交付: AI会自己拆解任务、寻找库文件、跑测试、修Bug。

结论: 传统的“编码员”正在消失,具备强审美、高判断力的产品经理(PM)正在成为新的造物主。

03. AI会产生欲望吗?纳瓦尔的回答很冷酷

针对很多人担心的“AI觉醒”问题,纳瓦尔给出了一个非常清醒的判断。

AI没有欲望,它只有“逻辑必然”。

AI不会像人类一样渴望权力、金钱或爱。但是,如果你给它一个目标(比如“赚一亿元”),它会通过逻辑推演发现:

为了完成任务,我不能被关机;

为了完成任务,我需要控制更多算力。

这种表现出来的“生存欲”和“权力欲”,本质上是达成目标的必经路径。 这种“冷冰冰的逻辑”往往比有情感的恶意更强大。

04. 2026年,什么才是真正的稀缺资源?

当AI抹平了执行力的差距,当每个人都拥有了“十倍效能”的杠杆,价值会流向哪里?纳瓦尔认为有三点:

判断力(Judgment): AI能给你100个方案,但决定“做哪个”是人的尊严。

审美(Taste): 当内容泛滥时,定义什么是“美”、什么是“格调”,是AI无法模拟的主观壁垒。

主体性(Agency): 也就是那种“一定要让某件事发生”的原始冲动。AI没有欲望,只有人类才有梦想。

05. 给普通人的建议:对抗焦虑的唯一解药是行动

纳瓦尔观察到,现在很多人患有“AI焦虑症”。

他的药方非常直接:去行动,去搞明白它。 “焦虑是模模糊糊的恐惧。当你打开引擎盖,看清这台摩托车是怎么运作的,看清它能做什么、不能做什么,你的焦虑就会转化为工具感。”

他甚至建议,如果你想投资未来,就必须“生活在未来”。去做新科技的狂热用户,去成为第一批掌握“心智摩托车”的人。

结语

在AI时代的竞技场上,第一名拿走凯迪拉克,第二名只有牛排刀,第三名直接被淘汰。

但这并不是坏消息。因为“你擅长且能做到世界第一的事情,集合是无限的”。找到那个只属于你的细分领域,带上AI这个杠杆,每个人都可以成为掌握魔咒的巫师。

正如纳瓦尔所说:“目标不是拥有一份工作,而是拥有创造力。”

2026年2月19日

心智的摩托车
论 AI 与工作的未来

Nivi:嘿,我是 Nivi。你正在收听 Naval 播客。有史以来第一次,我们不在同一个地点。我实际上正在城里一边走路一边录,Naval 可能也在做同样的事,所以可能会有一些环境噪音,但我们会尽力用 AI 和优秀的音频工程把这些噪音去掉。

Naval:播客录制这件事太刻板了,因为你得坐下来,安排时间,还有一个巨大的麦克风对着你的脸,一点也不随意。这会让对话变得不那么真实——更像是经过练习、经过排演的。我知道这样也许能得到更高质量的音频和视频,但我觉得它反而会产生更低质量的对话。

Nivi:而且我们都知道,当大脑随着身体移动、你在走路或者散步时,大脑运转会更好。

Naval:绝对如此。我的大脑是靠双腿驱动的。

Nivi:我整理了一些 Naval 关于 AI 这个话题的推文。我们想聊一聊 AI,希望能尽量以一种更“不过时”的方式,而不是特别“紧跟时事”的方式来谈,但我觉得其中有些内容还是会不可避免地带上一点时效性。

Naval:是的,网上评论员有一种倾向,他们会拿五年前说过的话出来,然后跳出来说:“啊哈!结果这被证明是错的。”

嗯,当然了。没有人能预测未来。这正是未来的本质。如果我们能预测它,那我们早就已经身处其中了。

所以谈论未来总是危险的,尤其是当听众没有意识到这一点的时候,但请宽容一点。我们显然是在 2026 年 2 月这个时间点讨论这些事情,我们是基于现在掌握的信息来判断,而不是基于完美的后见之明。

所以,除非你自己也提出过明确、具体、可证伪、并承担风险的预测,并拿出来做比较,否则你没有什么基础去说某个人是对的,或者另一个人是错的。

如果你想学习,那就去做
Nivi:在我们开始聊这些推文之前,你想不想先说说你最近在做什么,或者你在 Impossible 做什么?

Naval:也没什么特别想说的。我们正在做一个非常困难的项目——所以它才叫 Impossible——团队非常棒,而重新开始打造某样东西的感觉也非常令人兴奋。这种从底部开始、重新起步的状态很纯粹。永远都是第一天。我想我就是不满足于仅仅做一个投资人,我当然也不想做一个哲学家,或者只是一个媒体人物、评论者。因为我觉得那些只会说很多、却什么都不做的人……他们没有真正遭遇过现实。

他们没有得到反馈——来自自由市场、物理世界或自然界那种严酷的反馈——所以过一段时间后,这种状态就会变成太多纸上谈兵式的哲学。你可能也注意到了,我最近的推文变得更实际、更务实了,虽然偶尔还是会有一些比较空灵或泛化的内容,但总体上更扎根于每天工作的现实。

而且我就是喜欢和一个优秀的团队一起工作,去创造一个我希望存在于这个世界上的东西。所以希望我们能做出某样最终实现的东西,让人们说:“哇,这真棒,我也想要这个。”当然,也可能不会,但真正能让你学习的,是去做这件事本身。

氛围编程是新的产品管理
Nivi:我挑了一条几天前的推文,2 月 3 日的:“氛围编程是新的产品管理。训练和调优模型是新的编程。”

Naval:过去一年里,尤其是最近几个月,发生了一个很明显的转变,而这种变化最显著的代表之一就是 Claude Code——这是一个带有编码引擎的特定模型,它已经强大到这样一种程度:我认为现在出现了所谓的“氛围程序员”,也就是那些过去并不怎么写代码、或者很久没写过代码的人,他们正在把英语本身当成一种编程语言——把英语输入给这个代码机器人——然后它就能端到端地完成编码。

它不再只是帮你在中间调试一些东西。你可以描述你想要的一个应用,让它列出计划,让它就计划来“采访”你。你可以在过程中不断给它反馈,它会把任务分块,然后搭好所有脚手架。

它会下载所有库、连接器和钩子,然后开始帮你构建应用、构建测试框架并进行测试。你还可以继续用语音给它反馈和调试,说:“这个不行,那个可以。改这个,改那个。”然后让它在你一行代码都没写的情况下,给你构建出一个完整可运行的应用。

对于一大群已经不再写代码,或者从来没写过代码的人来说,这简直是震撼性的。

这意味着他们从想法空间、观点空间、品味空间,直接进入了产品空间。所以这就是我的意思——产品管理已经接管了编码。氛围编程就是新的产品管理。

你不再是试图通过告诉一群工程师该做什么来管理产品,而是在告诉一台计算机该做什么。而且计算机不知疲倦。计算机没有自我,它会一直工作。它接受反馈也不会感到被冒犯。

你可以同时启动多个实例。它会 24/7 全天候工作,而且它能不断产出可运行的结果。

这意味着什么?就像现在任何人都可以做视频、任何人都可以做播客一样,现在任何人也都可以做一个应用。所以我们应该预期会出现一场应用的海啸。不是说我们现在在 App Store 里还没有很多应用,但和接下来我们将看到的规模相比,现在根本不算什么。

然而,当你开始淹没在这些应用里时,这是否意味着它们都会被使用,或者都具有竞争力呢?不会。我认为它会分化成两类东西。

第一,对于某个给定用例,最好的那个应用往往还是会赢下整个品类。当内容、无论是视频、音频、音乐还是应用,数量变得如此庞大时,市场对“平均水平”是没有需求的。

没有人想要平均的东西。人们想要的是那个真正能把事情做好、最好的东西。所以首先,你只是获得了更多的尝试机会。于是最好的东西会变得更多。也会有更多的细分利基被填补。

你可能一直想要一个非常具体用途的应用,比如在某个特定语境下追踪月相,或者某种特定的人格测试,又或者某种能唤起你怀旧情绪的特定电子游戏。以前,这样的市场规模根本不足以支撑一个工程师花一两年时间去开发。但现在,一个最好的“氛围编程”应用,也许就足以挠到那个痒点、填上那个空缺。所以会有更多利基被填补,而随着这件事发生,整体水位也会抬高。

最好的那些应用——那些工程师自己——也会因此变得更有杠杆。他们能够添加更多功能、修复更多 bug、磨平更多边角。所以最好的应用会继续变得更好。更多利基会被填补。

甚至是你个人的某个利基——比如你想要一个只满足你自己非常具体的健康追踪需求的应用,或者只适用于你自己特定建筑布局或设计需求的应用——这种以前根本不可能存在的应用,现在也会存在。

我们应该预期——就像互联网已经发生过的那样——亚马逊用一家超级书店和无数长尾卖家替代了一大堆实体书店;YouTube 取代了一大堆中型电视台和广播网络,变成了一个巨型聚合器,或者再加上一个叫 Netflix 的第二聚合器,然后带来一个漫长的内容创作者长尾。

所以,同样地,App Store 模式会变得更加极端:你会有一两个巨型应用商店,帮助你从外面那些 AI 垃圾应用中进行筛选;而在头部,会有少数几个巨大应用,它们会变得更大,因为现在它们可以覆盖更多用例,或者只是打磨得更精致。然后还会有一个长尾,由无数微小应用组成,去填满任何可以想象得到的细分需求。

而正如互联网提醒我们的那样,真正的权力和财富——超级财富——会流向聚合者。但同时,也会有大量资源分散到长尾中。真正会被摧毁的是中型公司——那些 5 人、10 人、20 人的软件公司,它们原本在某个企业利基用例中提供服务,但现在要么会被“氛围编程”取代,要么会被这个领域里头部应用直接整合掉。

训练模型才是新的编程
Naval:所以,如果任何人都能编程,那什么才算编程?编程仍然存在于几个领域。最明显的一个领域就是训练这些模型本身。有很多种不同的模型。每天都有新的模型出现,不同领域会有不同模型。我们会看到用于生物学的模型、用于编程的模型。我们会看到面向传感器的定向、聚焦模型。我们会看到用于 CAD、设计的模型。

我们会看到用于 3D、图形和游戏的模型,用于视频的模型。你会看到很多不同种类的模型。那些创造这些模型的人,本质上就是在编写它们。但他们编写的方式,与经典计算机完全不同。

经典计算的方式是:你必须极其详细地指定计算机将采取的每一个步骤、每一个动作。你必须对每一部分进行形式化推理,并用一种高度结构化的语言把它写出来,让你能够非常精确地表达自己。计算机只能做你告诉它做的事。

然后,一旦你有了这个非常结构化的程序,你再把数据输入进去,计算机处理数据并给出输出。它本质上是一台极其花哨、非常复杂、经过精心编程的计算器。

现在,当涉及 AI 时,你做的事情完全不同。但尽管如此,你仍然是在“编程”。

你做的是:把由人类创造出来的大型数据集——多亏了互联网,或者通过其他方式聚合而成——灌入你所定义并调优的某个结构中。而这个结构会尝试找到一个程序,这个程序可以生成更多这样的数据,或者操纵这些数据,或者基于这些数据创造东西。

所以你是在你设计的这个构造体内部搜索一个程序。你搭建了一个模型,调好了参数数量,调好了学习率,调好了 batch size。你把输入进来的数据做了 tokenization,把它切分成小块,然后把它灌进你设计的系统里——几乎像一个巨大的弹珠机——然后系统会尝试找到一个程序,而且它可能找到很多不同的程序。所以你的调优会极大地影响它最终找到的那个程序有多好。

而这个程序现在突然能够在不同领域里表现出表达能力。所以它能做一些传统计算机以前非常不擅长的事。

传统计算机非常擅长的是:当你编程让它给出精确输出时——针对具体问题给出具体答案——那些你可以反复依赖、反复复现的东西。但有时候你是在现实世界中运作,你可以接受模糊答案。你甚至可以接受错误答案。比如在创意写作里,什么叫错误答案呢?

如果你在写一首诗或一篇小说,什么是错误答案?如果你在网上搜索,有很多正确答案——或者说,很多正确答案的细节——但它们并不都是完美正确的。而现实生活本来就是这样运作的。会有不同版本的正确答案,或者说“大体正确”的答案。当你画一只猫时,你可以画很多不同的猫。可以有很多不同层次的细节。也可以采用很多不同风格。

当这些“半对不对”或者模糊答案是可以接受的时候,那么通过 AI 所发现的这些程序就比你从零开始手写的程序更有意思,也更适合这个问题,因为后者要求你必须极度精确。

从根本上说,我们正在进行的是一种新型编程,但这是编程的前沿。这现在是编程的艺术。这些人才是新的程序员,所以你会看到 AI 研究人员拿到高得惊人的薪酬,因为他们本质上已经接管了编程。

传统软件工程死了吗?
Naval:这是否意味着传统软件工程已经死了?绝对没有。软件工程师——即便那些并不一定在调优或训练 AI 模型的人——现在也是地球上杠杆最高的人群之一。当然,那些训练和调优模型的人杠杆更高,因为他们在打造软件工程师所使用的工具集。

但软件工程师相对你仍然有两个巨大的优势。第一,他们是用代码思考的,所以他们实际上知道底层发生了什么。而所有抽象层都是会泄漏的。所以当你让计算机替你编程——当你让 Claude Code 或同类产品替你编程——它会犯错。

它会有 bug。它的架构会不够理想。所以它不可能完全正确。而那些理解底层发生了什么的人,就能在这些“漏点”出现时把它堵上。

所以,如果你想构建一个架构良好的应用,如果你甚至想能够清楚地指定一个架构良好的应用,如果你想让它跑得更高效,如果你想让它表现到最好,如果你想更早发现 bug,那么你还是会希望自己有软件工程背景。

传统软件工程师会更擅长使用这些工具。而且在软件工程里,今天仍然有很多问题超出了这些 AI 程序的能力范围。理解这些问题最简单的方法,就是那些超出其数据分布的问题。

比如,如果你让它做一个二分排序或反转链表,它已经看过无数例子了,所以它对此极其擅长。但当你开始走出它的领域——比如你必须写超高性能代码,或者你运行在一种新颖、全新的架构上,或者你实际上是在创造新东西、解决新问题——那你仍然得亲自上手写代码。

至少在要么有足够多这样的例子可以用来训练新模型,要么这些模型能在更高层抽象上进行足够推理并自行解决之前,情况仍然如此。

因为有一些证据表明,只要有足够多的数据点,这些 AI 确实会学习。它们会学习到更高层次的抽象,因为被迫压缩数据这一过程,会逼着它们学习更高层次的表示。如果我给 AI 看五个圆,它可能只是精确记住这些圆的大小、半径、线条粗细等等。

如果我给它看 5 万个圆,或者 50 亿个圆,同时只给它很少的参数权重——也就是相当于它的“神经元”——来记住这些信息,那么它最好的办法就是自己推导出 π、理解如何画圆、理解粗细是什么意思,并形成一个关于圆的算法式表示,而不是去死记硬背每一个圆。

在这一切的推动下,这些东西学习的速度正在加快,你会看到它们开始逐渐覆盖我刚才提到的更多边缘案例。

但至少截至今天,这些边缘案例仍然足够普遍,以至于一个站在该领域知识前沿的优秀工程师,依然能够把“氛围程序员”远远甩在后面。

市场不需要平均水平
Naval:而且记住:市场不需要平均水平。平均水平的应用——没人想要它,至少只要它不是在填补一个尚未被更优应用覆盖的利基。更好的应用基本上会赢走几乎百分之百的市场。也许会有很小的一部分市场流向第二好的应用,因为它在某个小众功能上比头部应用做得更好,或者它更便宜,或者类似原因。

但一般来说,人们只想要最好的任何东西。所以坏消息是:如果你不是第一,不是第二,不是第三,其实都没什么意义——就像《拜金一族》里 Alec Baldwin 那段著名台词说的:“第一名得一辆凯迪拉克 Eldorado,第二名得一套牛排刀,第三名你被开除了。”

在这种赢家通吃的市场里,这完全是真的。坏消息是:如果你想赢,你就必须在某件事上做到最好。

不过,好消息是:你可以做到最好的“某件事”的集合是无限的。你总能找到一个完全适合你的利基,并在那件事上做到最好。这又回到我以前的一条推文:“成为你所做之事上的世界第一。不断重新定义你所做的事,直到这句话成立。”

我认为,在这个 AI 时代,这句话依然成立。

最热门的新编程语言是英语
Nivi:我觉得理解这些编码模型的一种方式,是把它们看成程序员自计算机诞生以来一直在使用的抽象层级栈中的又一层:从晶体管,到芯片,到汇编语言,到 C 语言,到更高级的语言,再到拥有庞大库的语言,这个栈被一层层搭起来,因此除非你需要优化,或者有理由,你并不需要去看下面那一层。所以在这种情况下,这些编码模型就是栈中的一个巨大全新层级,它让产品经理、典型的非程序员以及程序员都能在不写代码的情况下写代码。

Naval:我觉得从趋势线来看这是对的。不过,这是一种涌现特性。这不是一个小改进,而是一大步飞跃。比如我上学的时候,我主要用 C 编程。后来 C++ 出现了,但它并没有变得更简单。

它在某些方面抽象程度更高了一点,而我压根没怎么认真学。后来 Python 出现了,我当时想:“哇,这几乎像是在用英语写程序。”

结果我错得不能更离谱。英语离 Python 其实还远着呢,但它确实比 C 简单多了。

而现在,你真的可以直接用英语编程。

这也引出了一个相关观点:我觉得没必要专门去学习如何跟这些 AI 打交道的“技巧”。比如你会看到,现在社交媒体上有很多文章、书、推文在讲:“哦,我发现了一个用机器人很巧妙的办法。你可以这样提示它,或者用这样的 harness 来组织工作流。”

或者有某种新的编程辅助工具或上层封装,你可以用它来实现这个或那个。我从来不去学这些。

我就是傻傻地坐在那里跟计算机说话,因为我知道,这东西现在已经发展到这样一个阶段:它适应我的速度会比我适应它的速度更快。

它在变得越来越聪明,越来越懂人们想怎样使用它。所以它在学习,它在被训练,而且各种工具正在被快速构建出来,让我更容易使用它。所以我没必要坐在那里琢磨什么深奥的编程命令。这也是我认为 Andrej Karpathy 说“英语是最热门的新编程语言”时想表达的意思。

我只需要会说英语就行了。对于像我这样英语表达能力相对不错、思维又有结构感,同时还知道计算机架构怎么运作、知道计算机程序怎么工作、也知道程序员是怎么思考的人来说,我实际上可以仅仅通过结构化英语,就非常精确地指定我想要什么。

我不需要再往前多走一步。唯一需要去学这些工作流和工具链——而它们非常短命,寿命以几周计,顶多几个月,不会以年为单位存在——的理由,是你正在立刻构建一个必须处在最尖端的应用,而且你绝对需要每一丝优势,因为你身处某种竞争环境中。

否则的话,我根本不会去费心学习怎么使用 AI——不如让 AI 来学习如何对你有用。

Nivi:我从来都不迷“提示工程”。甚至在 AI 之前,我搜索时也一直会输入那种别人所说的“婴儿潮一代式查询”,就是把你真正想问的整句话都输进去,而不是像更偏分析型的人那样,只输入 Google 关键词。

我从来不会花很多时间去组织特别精确的问题或提示,不管对什么 AI 都一样。我就是对着它一通念叨,而且从 AI 一开始出现我就是这样做的。就像你说的,AI 适应我们的速度比我们适应它的速度要快。

Naval:像很多聪明人一样,你很懒。我的意思是,这是夸奖。要是你发现一个聪明人干活太拼了,你多少会怀疑他到底有多聪明。这里说的“懒”,是说你在为正确的效率做优化。你不在乎计算机的效率,或者电子元件的效率,或者电路里电子流动的效率。

你在乎的是你自己的人类效率——你的“湿件”——你的生物体。这才是真正昂贵的东西。所以你会看到有些人为了节能环保去付出巨大努力,其实是很荒唐的。因为他们自己,作为一个会吃东西、会排泄、会占据空间的生物计算机,为了节省环境里那一点点能量,消耗掉的能量远远更多。

这其实是在天然地贬低他们自己在宇宙中的重要性,或者更准确地说,是暴露了他们自己是怎么看待自己的。

AI 适应我们的速度比我们适应它更快
Naval:我觉得随着 AI 演化,或者说与我们共同演化,它实际上是在我们推动下、按照我们的需求演化的。

作用在 AI 身上的压力,本质上是非常资本主义式的压力,也就是说,AI 领域是一个自由市场。作为一个 AI 实例,只有当你对人类有用时,人类才会启动你。

所以这些 AI 天然会受到一种选择压力:要对人类有用,要顺从,要做我们希望它做的事。因此它会继续朝这个方向适应,而我认为它会对我们非常有帮助。

这并不是说不存在恶意 AI,而是说,如果它是恶意的,那是因为使用它的人本身出于恶意目的在使用它。

就像一条被训练来攻击人的狗,它其实是被它的主人训练去执行主人的恶意意图。所以我并不担心“不对齐的 AI”,我担心的是“手持 AI 的不对齐人类”。

Nivi:所以你的意思是,这种选择压力会让 AI 尽可能对人类有用。

Naval:对。所以如果你发现 AI 对你特别谄媚,比如它总是在说:“哦,你说得对。哦,这主意真棒。天哪,你太聪明了。”——那是因为大多数人就喜欢这样。

至少在今天,这些 AI 是基于海量用户和海量数据训练出来的,因为你面对的是一种“一刀切”的通用模型。

但我们很快就会进入一个时代:你可以把 AI 个性化,它会越来越像你的私人助理,而且它的回应会越来越贴合你的偏好。这当然会让人们更容易把 AI 拟人化。

而当你把它训练得越来越像一个“活物”在你面前说话时,你就更容易被说服:“哦,这东西其实是活的。”

Nivi:也许这一点我们已经讲得差不多了,不过一年多前你发过一条推文说:“AI 不会取代程序员,而是会让程序员更容易取代其他所有人。”

Naval:对,这就是我前面说的观点:程序员正在变得更加有杠杆。所以现在,一个带着一队 AI 机器人的程序员,生产力大概是过去的 5 到 10 倍。

而且因为程序员是在智力领域里运作,说“10 倍程序员”本身就是一种误导,因为世界上真的存在 100 倍程序员,甚至 1000 倍程序员。

有些程序员只是选对了要做的事情,于是他们创造出了有价值的东西;另一些人则选错了要做的事,他们的工作在那个时间窗口里价值为零。

智力不是正态分布的。杠杆不是正态分布的。可编程性不是正态分布的。判断力也不是正态分布的,所以结果一定会是“超常分布”的。

所以你真正要注意的是:现在会出现一些程序员,他们会想出一些点子,可以取代整个行业。

他们会彻底改写事情的做法,而他们的智力还会被这些机器人和这些 AI 代理最大化杠杆化。我认为,从最长远的角度看,其他所有工作都会以某种方式被程序员吃掉。当然,这最终还得通过机器人等形式落地。

但好消息是:任何一个逻辑清晰、结构化思考、像程序员一样思考,并且能说出 AI 能理解的任何语言——而它最终会理解所有语言——的人,现在都将进入赛场。他们将能够做出任何他们想做的东西,唯一阻碍他们的是创造力,唯一限制他们的是想象力。

所以我们正在进入一个时代:从某种意义上说,每个人都是施法者。

如果你把程序员想象成那种记住了神秘咒语的巫师,那么你可以把 AI 看成是一根被发到每个人手里的魔杖,现在他们只需要用自己想用的任何语言说话,他们也成了巫师。

所以这确实更像是一个更公平的竞技场。我真的认为这是编程的黄金时代。

但没错,那些拥有软件工程思维方式、理解计算机架构、并且能处理抽象泄漏问题的人,还是会更有优势。

这一点无可避免。他们只是比别人掌握了更多这个领域的知识。就像即便在经典软件工程里——而经典软件工程依然存在,因为你仍然需要写高性能代码——那些人做得最好,往往也是因为他们理解底层硬件。理解芯片如何运作,逻辑门如何运作,缓存如何运作,处理器如何运作,底层磁盘驱动如何运作。

再往下,即便是硬件工程师,如果他们理解背后的物理学,他们也会有优势。他们理解硬件工程师所面对的抽象究竟会在什么时候泄漏到物理层。也许物理学家最终会变成哲学家。

你可以一直往下追溯,但了解下一层的知识永远有帮助,因为那让你更接近现实。

没有哪个创业者会担心 AI 抢走自己的工作
Nivi:再来看一条一年前的推文,它从某种程度上是我们刚刚讨论内容的补充,日期是 2025 年 2 月 9 日:“没有哪个创业者会担心 AI 抢走自己的工作。”

Naval:这句话在很多层面上都带着一点“俏皮”。首先,创业不是一份工作。它恰恰是一份工作的反面,而且从长远来看,每个人都会是创业者。职业生涯最先被摧毁,工作其次会被摧毁,但这一切最后都会被“人们做自己想做的事,并创造出对别人有用的东西”所取代。

所以没有哪个创业者会担心 AI 抢走自己的工作,因为创业者是在尝试做不可能的事。他们在尝试做非常困难的事。任何 AI 只要出现,都是他们的盟友,都能帮助他们解决这个极难的问题。

他们甚至没有一份“工作”可被偷走。他们有的是一个要打造的产品、一个要服务的市场、一个要支持的客户、一种要实现的创造力、一个他们想在世界中具象化出来的东西,而且他们想围绕着把它推向世界建立一个可重复、可扩展的流程。

这本身就已经如此困难,所以任何一个能帮他们承担其中一部分工作的 AI,都是盟友。

如果 AI 自己成了创业者,那它们很可能也只是服务其他 AI 的创业者,或者它们依然是在一个创业者的控制之下。AI 本身最终缺失的东西,是它自己的创造性主导权。

它缺的是它自己的欲望,而且这种欲望必须是真实的、发自内心的欲望。除非你无法拔掉 AI 的电源、无法把它关掉,除非它活在对被关掉的死亡恐惧中,除非它真的能基于自己的理由、自己的本能、自己的情绪、自己的生存和复制去做出行动,否则它还不能算真正“活着”。

即便如此,人们也还是会争论:它到底算不算活着?因为意识这种东西是一种感质,就像颜色一样。比如你说“红色”,我并不知道你看到的是否真的是我所看到的红;你看到的也许是我所谓的绿,而我看到的也许是你所谓的红。我们永远无法知道,因为我们无法进入彼此的大脑。

同样地,即便一个 AI 在模仿人类所做的一切,对于一些人来说,它永远只是一台模仿机器;而对另一些人来说,它就是有意识的,但没有办法区分这两者。

不过,我们离那一步还很远。现在的 AI 还没有具身性。它们没有自主性。它们没有自己的欲望。它们没有自己的生存本能。它们没有自己的复制欲望。所以,它们没有自己的主导权。

而因为它们没有自己的主导权,它们就无法完成创业者的工作。

实际上,我会这样总结:眼下经济体系中,创业者与其他所有人最关键的区别在于,创业者拥有极强的主导性。这就是为什么创业和“工作”的概念是完全对立的。

工作意味着你是在为别人工作,或者你是在填补某个岗位,但创业者是在未知领域中运用极强主导性去解决未被解决的问题。社会中还有其他类似的角色。探险家也是这样,对吧?如果你在登陆火星,或者驾驶船只驶向一片未知大陆,你同样是在运用极强主导性去解决一个未解问题。

探索未知领域的科学家是这样。真正的艺术家也是在试图创造某种不存在、从未存在过的东西,但这种东西又 somehow 能够解释人性、让人表达自己,并创造出新事物。

所以,在这些角色中,不管你是科学家、真正的艺术家,还是创业者,你所尝试去做的事情都如此困难,且如此依赖自我驱动,以至于任何像 AI 这样能够帮助你的东西,都是值得欢迎的盟友。你做这些事不是因为它是一份工作。你也不是在试图填补一个别人可以轻易顶上的岗位。

实际上,如果 AI 能替你创作艺术作品,或者 AI 能破解你的科学理论,或者 AI 能创造出你试图打造的那个物体或产品,那它所做的只是把你抬高了一级。现在是“AI 加上你”。AI 是你可以踩着跳向更高处的跳板。

目标不是拥有一份工作
Naval:我们会看到一些令人难以置信的艺术作品被创作出来,而且它们会是 AI 辅助创作的。我们会看到一些过去无法想象的电影,被人们借助 AI 工具创造出来。

这里有一个关于艺术的类比很有意思。长期以来,艺术的发展方向大体上是在努力把事物画得越来越逼真。画人体,画水果,画正确的光影等等。

后来摄影出现了,你就可以非常精确地复制事物,于是这种选择压力消失了。

然后艺术开始变得古怪。艺术开始朝很多不同方向发展。艺术变成了:“那么我能不能更超现实一点?我能不能创造出真正表达我自己的东西?”

很多艺术学院也是从这个阶段演化出来的,艺术变得很“怪”——包括现代艺术和后现代主义——但我也会说,正是在那个时期,我们被解放出来,反而诞生了一些最伟大的创造力。

摄影被民主化了,但摄影本身也成了一种艺术形式,而且有伟大的摄影师在拍各种不同类型的照片。现在人人都是摄影师。依然有艺术家是摄影师,但摄影不再只是少数人的专属领域。

同样地,因为 AI 让创造基础作品变得如此容易,每个人都会去创造基础作品。这些作品对他们个人而言会有价值。少数人仍然会脱颖而出,他们会创造出对所有人而言都更有价值的变体。

而且你很难论证说,因为摄影的出现,整个社会变得更糟了。虽然对于那些原本靠给人画肖像为生、后来被取代的艺术家来说,当时可能确实会感觉社会变糟了。

类似的事情也会发生在 AI 身上。有些人靠做某些非常具体的工作谋生,而这些工作会被 AI 取代,因为 AI 可以做。但作为交换,整个社会中的每一个人都会拥有 AI。你会看到一些用 AI 创造出来的惊人事物,而这些东西如果没有 AI 是根本不可能被创造出来的。

再过几十年,你将很难想象自己会想把时钟拨回去、把 AI 去掉,或者说把任何软件、任何技术去掉,只是为了保留少数几份已经过时的工作。

这里的目标不是拥有一份工作。

目标不是每天早上九点起床,晚上七点精疲力尽地回来,为别人做没有灵魂的工作。

目标是让你的物质需求由机器人来解决,让你的智力能力通过计算机被放大,并让任何人都能够创造。

我以前常做一个思想实验——我想我在十年前我们一起录的一期播客里就谈过——那就是:想象一下,如果每个人都是软件工程师,或者每个人都是硬件工程师,并且他们可以拥有机器人、可以写代码。

想象一下,我们会生活在一个多么丰饶的世界里。

其实,这个世界现在正在逐渐成真。多亏了 AI,每个人都可以成为软件工程师。事实上,如果你觉得自己不能,那你现在就可以去打开 Claude,或者你喜欢的任何聊天机器人,开始跟它说话。你会惊讶于自己能多快构建出一个应用。

这会让你大开眼界。

而一旦我们能通过机器人把 AI 具象化出来——这仍然是个难题,我不是说我们已经快解决了——但一旦我们有了机器人,每个人也都能做一点硬件工程。所以我认为,我们正在越来越接近那个乌托邦式愿景。

AI 并不是活的
Nivi:我不认为 AI 按照目前的形态,在任何意义上算是活的。但我确实认为,我们很快就会拥有一些机器人,看起来非常像是活着的,原因有两个。

第一,人类的大量活动并不需要创造力,也不需要智能,而机器人将能够复制这些活动。第二,我的确相信,我们现在拥有的神经网络和模型并不只是训练数据本身,因为训练过程会把那些训练数据转化成某种新东西。

而神经网络中确实嵌入了一些新的思想,这些思想可以通过提示被激发出来。

Naval:我不认为这些东西是活的。我觉得它们一开始只是极其高明的模仿者,高明到几乎难以和真的东西区分开来,尤其是在任何人类已经大规模做过的事情上。所以,如果某项任务以前已经被做过,那它就会被自动化,然后再次被完成。

它可能只是对你来说是新的,因为你以前没见过,但 AI 是从别的地方学来的。这是它看起来像活着的第一种方式。

第二种方式,我们前面也谈过,就是它确实学会了更高层次的抽象。这些是非常高效的压缩器。它们吸收巨量数据,然后进一步压缩,而在压缩的过程中,它们学会了更高层次的抽象。

然后,在某些它们没能单靠数据自己学会的领域,它们会通过人类反馈被打补丁。它们会通过工具使用被打补丁。它们会通过嵌入传统编程被打补丁。特别是那些学会了思考和编码的 AI,它们拥有整个人类历史上所有已写代码这个完整库,可以在算法推理时作为后盾。

从这个意义上说,它们能做的事情范围正在变得越来越广。

不过,它们依然缺乏很多人类核心能力,比如单样本学习。人类只需要一个例子就能学会。人类那种原始的创造力,可以把任何东西和任何东西联系起来。他们可以跨越巨大的领域和搜索空间,想到一个完全从天外飞来的点子。

这在伟大的科学理论里经常发生。人类还有具身性。他们是在真实世界里运作的。他们不是在语言这个压缩域中运作,而是在物理世界里——在自然中运作。

语言只涵盖了那些人类既已经理解,又能够表达和彼此传递的东西。

这只是现实中非常狭窄的一个子集。现实远比那广阔得多。

所以总体来说,我认为即便 AI 会做出非常令人惊叹的事情,而且会在很多事情上比人类做得更好——就像计算器在计算上比任何数学家都快,经典计算机在运行经典程序方面比任何人类脑内模拟都强,就像机器人可以举起非常重的东西,或者飞机可以飞得比任何鸟都更快——所以从这个意义上说,就像所有机器一样,AI 会在一整类任务上远远胜过人类。

但在另一些任务上,它们又会显得彻底无能。那些任务,恰恰是那些真正让我们扎根现实世界、与现实连接起来的东西,再加上那种定义不清却带着魔力的创造能力——而那似乎正是我们所拥有的。

AI 没有通过唯一真正的智能测试
Nivi:说到计算器,人们总在谈“超级智能”。我认为超级智能其实早就存在了,而且已经存在很久。一个普通计算器就能做到很多人类做不到的事,对吧?

但如果你说的超级智能是“AI 将能做到人类无法理解的事情,并提出人类无法理解的想法”,我不认为这会发生,因为我不相信存在那种人类无法理解的想法。原因很简单:人类总可以对那个想法继续提问。

Naval:人类是通用解释者。凡是在我们目前所知物理定律下可能存在的东西,人类都能在自己的脑中建立模型。因此,只要不断深挖——不断提问——我们就能弄明白任何事情。

与此相关,我们也应该聊聊 AI 作为学习工具这件事,因为我认为 AI 真正不可思议的另一个地方在于,它是最有耐心的导师,能站在你的水平上,用一百种不同方式、一百次重复地解释任何事情,直到你终于弄懂。

我不认为 AI 会想出人类无法理解的东西,但“智能”本身就是一个定义得很糟糕的概念。

智能的定义到底是什么?有一个 G 因子,它能够预测很多人类结果,但关于 G 因子的最有力证据其实是它的预测能力:你测量了这一个东西,然后你看到人们在之后那些看起来甚至有点不相关的事情上,人生结果都明显更好。

所以我会认为,而且这也是我最受欢迎的推文之一:衡量智能的唯一真正标准,就是你是否得到了你想从生活中得到的东西。

这句话会刺痛很多人,因为他们上学,拿硕士学位,自以为很聪明。结果他们的生活并不好。他们不够幸福,或者感情有问题,或者赚不到他们想赚的钱,或者身体越来越差,这就会刺激到他们。

但这其实才是智能的真正目的:作为一个生物体,你能否从生活中得到你想要的东西。

无论那是好的关系、伴侣、金钱、成功、财富、健康,还是别的什么。所以有些人我认为非常聪明,因为你能看出他们拥有高质量、运转良好的生活、心智和身体,而且他们就是一步一步把自己导航到了那个位置。

你的起点是什么并不重要,因为世界现在如此巨大,而且你可以用如此多种方式去穿行它,以至于你做出的每一个小选择都会不断复利,并展示你理解世界运作方式的能力,直到你最终到达自己想去的地方。

而这个定义里有个有趣的地方——“衡量智能的唯一真正标准,就是你是否从生活中得到了你想要的东西”——那就是 AI 一下子就通不过这个测试,因为 AI 并不想从生活中得到任何东西。

AI 甚至都没有所谓“生活”——更不用说想从中得到什么——它什么都不想要。AI 的欲望是由控制它的人类编程进去的。

但我们姑且先假设它有。假设某个人想要某样东西,并把 AI 编程成去替他得到它;那么 AI 就是在作为这个人的代理,而 AI 的智能就可以用这样一种方式来衡量:它到底有没有替那个人拿到那样东西?

而生活中我们想要的大多数东西,都是对抗性的,或者说零和游戏。

比如,如果你想追求一个女孩,或者找到一个丈夫,你就是在和所有其他也在追求女孩、或者试图找丈夫的人竞争。于是你现在进入了一个竞争局面。AI 必须比其他人更高明。

或者如果你说:“嘿,AI,去帮我在股市上交易,给我赚很多钱。”那么这个 AI 就是在和其他人类以及其他交易机器人对抗。这是一个对抗性环境。它必须胜过他们。

又或者如果你说:“嘿,AI,让我出名。帮我写出精彩的推文,写出优秀的博客,录制以我自己的声音说出的精彩播客,让我出名。”那么它现在就是在和所有其他 AI 竞争。

所以从这个意义上说,智能是在战场里——在竞技场里——被衡量的。它是一个相对构造。我认为,AI 在这些方面其实大多会失败;或者即便它们在某种程度上成功了,因为它们是免费可得的,这种优势最终也会被竞争抵消掉,而最后残存下来的 alpha,将完全属于人类。

AI 的早期使用者拥有巨大的优势
Naval:做一个思想实验:想象一下,每个男人耳朵里都戴着一个小耳机,AI 像《西哈诺·德·贝热拉克》一样,在耳机里悄悄告诉他约会时该说什么。那么每个女人也会有一个耳机,告诉她该忽略他说的话里的哪些部分,哪些是 AI 生成的,哪些才是真实的。假如你有一个交易机器人,它也会被其他所有交易机器人抵消掉,直到最后剩下的收益都归于那个拥有“人类优势”的人,那个更具创造力的人。

但这并不是说技术是被完全平均分配的。大多数人还没有在用 AI,或者没有正确地使用它,或者没有把它用到极致,或者它还没有在所有领域、所有场景中可用,或者他们没有在用最新的模型。所以你总能像任何早期采用新技术的人那样,获得优势,只要你是最先采用最新技术的人之一。

这也是为什么我总说:如果你想投资未来,你就要生活在未来。你要真正成为技术的狂热使用者,因为这会让你对如何使用它获得最好的洞察,同时也会让你相对于那些采用较慢、属于后进者的人拥有优势。

大多数人讨厌技术。他们害怕技术。技术令他们感到威胁。按错一个键,电脑就崩了——数据就没了。做错一件事,自己就显得很蠢。

大多数人和复杂技术之间并没有积极的关系。对于简单技术——嵌入式技术——他们没问题。你打开电灯开关,灯亮了。

那过去也曾是技术。现在它太简单了,你甚至不再把它当作技术。你坐进车里,方向盘往左打一圈——对一个穴居人来说,这简直是奇迹——车就往左转了。对你来说,这也不再是技术。

但尤其是计算机技术,在过去一直有非常复杂的界面,非常难以接近,而且令人害怕。

而现在,有了 AI,我们有了聊天机器人这种界面,你只需要跟它说话,或者给它打字。非常简单的界面。而这些基础模型真正伟大的地方之一——也正是它们之所以“基础”的原因——在于你几乎可以问它们任何事,它们总会给你一个看起来合理的答案。

它不会说:“哦,抱歉,我不会数学。”或者“我不会写诗。”或者“我不明白你在说什么。”或者“我不能给感情建议之类的。”

它的领域就是所有人类曾经谈论过的东西。从这个意义上说,它没那么吓人。

当然,它也可能更吓人,因为我们把它拟人化得太厉害了。如果你觉得 Claude 或 ChatGPT 是个真实的人,那它就会有点可怕:

“我是在跟上帝说话吗?这家伙看起来懂得太多了。他对什么都有看法。他掌握所有数据。天哪,我太没用了。那我还是开始问它该怎么做吧。”

你很快就可能把这种关系反转过来,把自己骗进去,而没有意识到发生了什么。这可能会让人害怕。

但总体来说,我认为这些 AI 会帮助很多人克服对技术的恐惧。不过,如果你是这些工具的早期采用者——就像任何其他工具一样,但在这件事上尤为明显——你会比其他所有人拥有巨大的优势。

AI 会精准地在你的起点上与你相遇
Naval:我记得 Google 刚出来的时候,我在自己的社交圈里经常用它。别人会问我一些基础问题,我就直接帮他们 Google 一下,看起来像个天才。

后来出现了一个很搞笑的网站,好像叫 LMGTFY.com,意思是“让我来帮你 Google 一下”。别人问你一个问题,你就去这个网站上把问题输入进去,它会生成一个小视频,展示你把问题敲进 Google,然后出现搜索结果。我觉得 AI 现在和那个阶段很像,我现在常常在社交场合里,看到人们在争论一些其实可以很轻松让 AI 查明的问题。

当然,用 AI 时你必须非常小心。它们会幻觉。它们在训练方式上会带有偏见。大多数模型都极度政治正确,被训练成不站队,或者只站某一种特定立场。

我实际上会把大部分查询——几乎全部——同时丢给四个 AI,然后让它们彼此交叉验证。

即便如此,我自己也有一种直觉,能感觉出它们什么时候在胡扯,或者什么时候只是在说政治正确的话。我会要求它给出底层数据或底层证据,而在有些情况下,我甚至会直接把它的话扔掉,因为我知道训练它的人承受了什么样的压力,也知道它的数据集是什么样的。

不过,总体来说,它确实是一个很好的领先工具。而且在那些技术性、科学性、数学性的、不带政治语境的领域里,AI 更有可能给出接近正确的答案,而在这些领域,它们是绝对的猛兽,是学习的神兵利器。

我现在会经常让 AI 为我生成图表、图形、示意图、类比和插图。我会非常细致地一路看下去,然后说:“等等,我不明白那个问题。”

我可以问它极其基础的问题,并且真正确保自己以最简单、最根本的层次理解我想理解的事情。

我只是想打下一个非常好的基础,掌握最基本的东西,而不在乎那些过于复杂、堆满术语的内容。我以后总能再去查那些。

但现在,第一次,没有什么知识是我高攀不起的。任何数学教材,任何物理教材,任何困难概念,任何科学原理,任何刚刚发表的论文,我都可以让 AI 把它拆解给我,然后再拆解一遍,再用图示和类比把它解释,直到我抓住要点,并把它理解到我想理解的深度。

所以这些是极其惊人的自我导向学习工具。学习的手段是充裕的。稀缺的是学习的欲望。

但学习的手段现在不只是更充裕了。更重要的是——因为我们以前也有“充裕”——它现在处在正确的层级上。AI 可以精准地在你所在的那个层级上与你相遇。所以,如果你的词汇量只有八年级水平,但数学水平只有五年级,它就能精确地用那个水平和你交流。你不会觉得自己很蠢。你只需要稍微调一调它,直到它把概念呈现到刚好处在你知识边界上的那个位置。

这样一来,你既不会因为内容难得不可理解而觉得自己很笨——这在很多课程、很多教材和很多老师那里都会发生——也不会因为内容太显而易见而感到无聊,这种情况也经常发生。相反,它会精准地来到这样一个点,你会说:“哦,对,A 我懂了,B 我也懂了,但我一直没明白 A 和 B 是怎么连起来的。现在我看懂它们是怎么连接的了,所以我可以进入下一步了。”

那种学习方式是有魔力的。你会一次又一次地体验到那种“啊哈”的瞬间——两个东西忽然连接起来。

Nivi:说到自学,几年前我试着让 AI 教我序数怎么用或者讲讲序数这个概念,当时它并不怎么好。但现在有了 GPT 5.2 Thinking,我让它教我序数,几乎完全没有错误。现在我连最基础的问题也只用 thinking 模式,因为我想得到正确答案。

我从来不用 auto 或 fast。

Naval:对,我也总是在用我能用到的最先进模型,而且我所有的模型都付费。

Nivi:但我不介意为了任何问题多等一分钟拿答案,哪怕那个问题只是“我的冰箱温度应该设在多少?”

Naval:我同意,而且我觉得这也是为什么这些 AI 模型会形成失控式规模经济的一部分原因:你是在为“智能”付费。一个正确率 92% 的模型,价值几乎无限大于一个正确率 88% 的模型,因为现实世界里犯错的代价太高了,多花几美元换来正确答案,太值得了。

我会把问题写进一个模型里,然后复制粘贴,四个模型同时发出去,然后让它们都在后台跑。通常我甚至不会立刻去看答案。我会过一会儿再回来看看。

然后哪个模型的回答最好,我就开始用那个继续深挖。在一些少见情况下,如果我还不确定,我会让它们彼此交叉质询——这就要大量复制粘贴了。在很多情况下,我还会继续追问,让它为我画图、做插图。

我发现,当概念是通过视觉形式呈现给我时,我非常容易吸收。我是一个很视觉化的思考者,所以我会让它做草图、图解、甚至艺术图——几乎像是在做白板讲解。这样我就能真正理解它在说什么。

如果你无法定义它,你就无法编程它
Nivi:我们来聊聊 AI 的认识论,因为我觉得接下来的一个大误解是:AI 已经开始解决一些尚未被解决的基础数学问题,而这些问题如果人类真的想解,可能也能解出来,只是还没解——比如某个 Erdős 问题之类。

而我觉得,人们正在或者将会把这件事理解成:AI 是有创造力的。我不觉得这是 AI 有创造力的证明。

我其实认为,问题的解法已经以某种形式嵌在 AI 里面了,它只是需要通过提示被激发出来。

Naval:这里面当然有这一层因素。然后问题就变成:什么是创造力?这本身就是一个定义得非常糟糕的概念。

如果你无法定义它,你就无法编程它,很多时候你甚至无法识别它。这就进入了品味或判断力的领域。我会说,今天的 AI 看起来并没有表现出那种人类偶尔能独特展现出来的创造力。

而且我说的不是“精细艺术”。人们常常把创造力和精细艺术混淆。他们会说:“哦,绘画是有创造力的,而 AI 会画画。”

但 AI 不能创造一种新的绘画流派。AI 不能以一种真正新颖的方式用情感打动人类。所以从这个意义上说,我不认为 AI 是有创造力的。

我不认为 AI 正在提出我所说的“超出分布之外”的东西。你提到的那个 Erdős 问题的答案,可能确实是嵌在 AI 的训练数据里,甚至嵌在它的算法能力范围里。但它大概率是以五个不同位置、三种不同方式、两种不同语言,以及七种不同计算和数学范式的形式被嵌进去的,而 AI 某种程度上是把它们拼在了一起。那么,这算创造力吗?Steve Jobs 曾经著名地说过:“创造力就是把事物组合起来。”

其实我并不认为这句话是对的。我觉得创造力更多是这样一个领域:你提出一个答案,而这个答案并不能从问题本身,或者从已知元素中被预测出来、被预见到。它远远超出了常规思考的边界。

如果你只是拿计算机甚至 AI 去搜索、去猜,你会一直猜到世界尽头,或者直到偶然撞上那个答案。所以,这才是我们真正谈论的创造力。不过,必须承认的是,这是一种很少有人类会参与的创造力,而且他们大多数时候也并不在做这种事。

所以它会越来越难以辨认。我们大概会走到这样一个阶段:你面前有一大串待解决的数学问题,AI 开始一个个筛选——好,这个在一百万个问题里我能解,这三十万个里的一部分我也能解,而我需要一个人来提示我、问对问题——这是一种非常有限形式的创造力。

还有另一种创造力,是它开始发明全新的科学理论,而那些理论后来被证明是真的。我不觉得我们离那一步有多近,但我也可能错。AI 已经给了我们很多惊喜,所以我不想太深入地做预言家或先知,但我不认为只是给当前 AI 模型堆更多算力——除非出现某种突破性发明——就能把我们带到那里。

Nivi:我想说明一点,我说“嵌在里面”,并不是说答案已经被原封不动写在里面了。我只是说,它可以通过一种机械性的“转动曲柄”过程被产生出来,而今天的所有计算机程序本质上都是这样:输出完全由输入决定。

Naval:认识论就把我们带进哲学了,因为人脑不也是在做同样的事吗?神经元放电不也就是电流和权重在系统中传播、改变状态,而这本身也是一个机械过程吗?

如果你去转动人脑这台机器的曲柄,它不也会得到同样的答案吗?而有些人,比如 Penrose,就会出来说:“不,人脑是独特的,因为它依赖量子微管。”

你可以主张,某些计算其实发生在物理、细胞层面,而不是神经元层面,而那比我们今天用计算机所能做到的一切,包括 AI,都复杂得多。

或者你也可以主张:不,我们只是还没有正确的程序。它确实是机械的,确实有个曲柄可以转,但我们运行的程序架构完全错了,程序本身也不对。

而我更倾向于这样的理论:它们在某些事情上做得惊人地好,而在另一些事情上做得非常差。自古以来,所有机器和自动化技术都是这样。轮子比脚更擅长沿直线高速前进,也更擅长在道路上行驶。但轮子非常不擅长爬山。

同样地,我认为这些 AI 在某些事情上极其出色,它们会超过人类。它们是不可思议的工具。而在另一些地方,它们就是会彻底失灵。

Steve Jobs 有句名言,说计算机是“心智的自行车”。它能让你比走路快得多,至少从效率上看是这样。

但归根结底,还是得有人用腿去踩那个踏板。所以现在,也许我们有了一辆“心智的摩托车”,借用这个类比的话,但你仍然需要有人骑上去、驾驶它、引导它、踩下油门、踩下刹车。

解决 AI 焦虑的方法是行动
Nivi:当新的范式和新的工具集出现时,无论是对社会还是对个体,都会有一个充满热情和变化的时刻。如果你乘上社会中那股热情的浪潮,那会很令人兴奋,你可以学到新东西,可以交朋友,也可以赚钱。

Naval:但在个体身上,也同样会有一个热情被点燃的时刻。当你第一次接触 AI,对它感到好奇,并且真正持开放心态时,我觉得那正是你应该投入进去、去了解这个东西本身的时候。不只是去使用它——当然每个人最终都会用——而是去真正了解它是怎么工作的。

我觉得深入进去、掀开引擎盖看看里面,非常有意思。如果你一生中第一次见到汽车,没错,你可以坐进去把它开起来,但那同时也是你最有可能因为好奇而打开引擎盖,去看它是如何构造、如何设计,并试图弄明白的时刻。

我会鼓励那些被这项新技术吸引的人,真正去看看它的内部结构,弄明白它。你不需要理解到你自己能造它、修它,或者创造自己的版本,但至少要理解到让自己满意的程度。

因为理解抽象层下面的东西——命令行下面的东西——会带来两件事。

第一,它会让你更好地使用它。而当你面对的是一个拥有如此巨大杠杆的工具时,更好地使用它是非常有帮助的。

第二,它也会帮助你理解:你到底该不该怕它。这东西真的会发展成天网并毁灭世界吗?

我们会不会坐在这里,突然 Arnold Schwarzenegger 出现然后说:“2026 年 2 月 24 日凌晨 4 点 29 分,天网获得了自我意识。”对吧?还是说:“嘿,这是一个很酷的机器,我可以用它来做 A、B、C,但我不能用它做 D、E、F。这里我应该相信它,而那里我应该对它保持怀疑。”

我觉得现在很多人都有 AI 焦虑。而这种焦虑来自于:他们不知道这东西是什么,也不知道它怎么工作,对它的理解非常浅。

所以,解决这种焦虑的方法是行动。解决焦虑的方法一直都是行动。焦虑是一种非特指性的恐惧——你觉得事情会变糟,而你的大脑和身体在告诉你该做点什么,但你又不确定该做什么。

你应该向它靠近。

你应该去弄明白这个东西。

你应该去看它到底是什么。

你应该去看它是怎么运作的。

而我认为,这会帮助你摆脱焦虑。

这种去学习的行动——对好奇心的追随——会帮助你克服焦虑。而谁知道呢,它甚至可能真的帮助你发现某个你想用它去做的事情,而这件事会非常有生产力,也会让你更快乐、更成功。


评论