今天分享的内容涉及认知科学的核心领域。认知科学应该是社会科学的分支学科,是一个人类理解心智的理想追求。
到了20世纪后半叶,认知科学逐渐成为主流。它以科学为基础,推动人类智能与人工智能的深度融合。科学最擅长研究的是智能,但以前是把人工智能和人类智能分开研究。研究人类智能比较厉害的科学家,比如像卡尼曼(Daniel Kahneman),他在行为决策领域取得了卓越成就;而研究人工智能比较厉害的科学家,其实对人类智能这块也很了解。
当我们尝试用不同的视角来做一些新的研究时,第一个要分享的是AI的意向性。这个话题正式探索的是:迈向混合智能时代。
第一部分:从计算机到人工智能的演进
1946年,全球第一台通用计算机ENIAC发明了。当时在发明之初,有人说全世界只需要5台计算机,但是到了2026年,我们发现智能设备已经是高度普及的存在。这是我们日常生活中常见的景象。
今天相关的内容也是层出不穷。有人认为大模型是主流,还有一种观点(如杨立昆/Yann LeCun所持)认为我们需要少数的基础大模型,以此为基础来理解和发展AI技术。
第二部分:意向性——AI区别于其他工具的核心能力
当我们谈到AI模型的几种能力时,我们通常指的是它的几个专业领域:编程、数学、语言,以及感知能力。但是,大家是否思考过,它真正区别于人类历史上其他一切工具的能力是什么?答案是意向性(Intentionality)。这是我们今天探讨的一个重要话题。
2.1 什么是意向性?
根据《斯坦福哲学百科全书》(Stanford Encyclopedia of Philosophy),它给出了一个定义。翻译过来,它认为意向性是意识的一种特征。这种特征是指,意识总是关于某物,即意识是指向对象的。
这个定义有非常正确的地方,它指出了意向性与我们人类的"关于性"(aboutness)相关。但是这个定义也有一个非常明显的局限,就是《斯坦福哲学百科全书》的定义太强调意识了。实际上,意向性既包括我们人类的意识,也包括了我们的无意识。例如,我们无意识指向的一些事物,这其实也属于意向性。
因此,我们对《斯坦福哲学百科全书》的这个定义进行一个稍微的修正:意向性是心智关于事物的能力。这里我们把"意识"换成"心智",把"关于性"依然保留。意向性是关于某物的能力。
由此我们发现,我们人类其实是时刻在让这种能力发生作用。例如,有人空想一种不存在的事物,或者是在看某个人,又或者是在害怕某个东西。而一块石头则不是关于任何东西的。当你的心智从无意识状态开始关于事物时,意向性便产生了。
2.2 相关术语的统一概述
相信有很多相关的词汇在我们接下来的讨论中会变得清晰一些。首先,对这些术语的翻译进行一个统一的概述。

意向性(Intentionality):在特定场合也可以译为"意向能力"
- 意图(Intention):一种具体的心理状态,打算做某事,也可译为"目的"
- 意向状态(Intentional State):所有具有"意向性"的心智状态的总称,典型代表包括信念(我认为什么是真)、欲望(我想要什么)、意图(我计划做什么)三要素,还可包括情绪(Emotions)、知识(Knowledge)、假装(Pretence)等
常见的概念第一个是"信念"(Belief),它指的是相信某个命题或事态为真。第二个常见的词是"意图"(Intention),它指的是一种具体的心理状态,比如你打算去做某件事。
这里面最需要分享的是"意图"和"意向性"这两个词的区别。意图只是意向性中的一种,而意向性除了意图之外,其实还有很多种。这些可以统一地称为"意向状态"(Intentional States)。
2.3 三种基本意向状态
人类从小朋友开始,最主要的有三种意向状态。在发展心理学领域研究意向性,可以分为三种最典型的类型:
- 信念(Belief)——我认为什么是真的,什么是假的
- 愿望/欲望(Desire)——我想要什么
- 假装(Pretense)——基于想象的虚构
大家发现,意图只是意向性中的一种。在2.5岁到4岁之间,儿童的这三种意向状态经历里程碑式的发展。
那么,这三种是我们从很小时就具备的三种关键意向状态,是我们人类底层的意向状态。而除了这三种状态,还有一些更常见的,比如情绪(Emotion)。情绪也是一种意向状态,比如害怕、希望和恐惧等。这些也都是意向状态中的一种。
信念是在相信的基础之上,会受到各种因素的干扰。我们在什么样的场合之下会被影响,我们会有怎样的行为。把这些种种的事物组合一下,就形成了完整的意向状态体系。这是我们后面章节统一使用的核心概念:意向性。
第三部分:意向性的哲学史
这是一个关于意向性历史的概述,选择了6位取得最大成就、形成了我们今天对意向性理解的学者。首先是古希腊的哲学家,然后是现代的哲学家,再然后是当代的认知科学家。
3.1 古希腊:亚里士多德
我们先来看一下古希腊的一位哲学家——亚里士多德(Aristotle)。他是在人类历史上第一次系统讨论意向性问题的人。他在思考一个重要的问题:如果一个思想必须关于某个对象,但是这个对象是个不存在的事物,那么这个时候我们的思想和存在是一种什么样的关系?
他提出了一个著名的思想实验:我们人类去思考一匹在天空中飞翔的马,我们去想象这匹飞马的形象。这个天空中飞的马在我们的现实生活中并不存在。这个思想是关于这些不存在事物的,那么他认为这个思想和存在的关系究竟是什么?这个问题不太好回答,所以他提出了一个初步的答案。他认为我们没办法思考不存在的事物,这是他在历史上第一次研究思想和存在的关系。

而后来的人对他的观点进行了一个修正。他们认为,天空中的飞马,我们的确知道它是不存在的,但当我们思考它时,就像一个鸟划过天空会留下痕迹一样。
那么,当我们想着一个飞马的时候,在我们心里面会产生一个飞马的心理对象。所以,他在他的一本著名的著作**《论灵魂》(De Anima)中,给定了一个概念,叫"表象"**(Phantasia)。关键要点是,表象是一种独特的心智状态,不可还原为感觉、意象等等。我们为什么能思考这个天空中的飞马?实际上,我们是通过心中的表象来进行思考的。
"表象"这个概念对认知科学影响深远,它形成了一个基础的概念,称为**"心理表征"**(Mental Representation)。在认知过程中,我们现在一般称之为"表征"。例如,我们拥有关于"马"的概念表征,同样我们还拥有关于"飞"的表征。当"马"的表征和"飞"的表征组合在一起,我们就形成了一种新的表征,也就是"飞马"的表征。
在21世纪的认知科学中,心理表征这个概念是我们研究认知结构的基础。它是一个比较核心的概念,是人类心智用来指向世界中存在和不存在的事物的工具。
3.2 现代哲学:布伦塔诺
接下来是现代哲学部分,代表人物是弗朗茨·布伦塔诺(Franz Brentano)。他是胡塞尔的导师,维也纳大学的哲学教授。他是在古希腊哲学基础上,第一次正式提出了"意向性"这个概念。而他创造的这个新词汇,也成为了21世纪心灵哲学和现象学的起点。
他是心理学研究历史上最重要的先驱之一。他提出了一个著名的关于意向性的三个命题:
第一个命题:心智的状态本质上是指向与自身不同的事物。这个方面相对来说还比较容易理解。到了后来,我们会发现这个概念很重要。比如说,我们小朋友在2.5岁到4.5岁的时候,他的心理能力的发展有一个关键的里程碑。他能通过一个小小的儿童心理学的实验——这个实验通常被称为**"错误信念任务"**(False Belief Task)——来更好地确认什么是假装的,什么是真实的。意向性本是指向外部世界的,但是当你还是小朋友的时候,会很难区分什么是你自己的想法,什么是外部的事实。所以这时候小朋友的意向性能力在刚起步的时候,经历一个里程碑式的发展。在小孩子里面很典型的表现是什么呢?一般的家长形容他"鬼精鬼精的",就是这样。
第二个命题:心中所指向的对象以某种方式存在于心智之中,但它在现实中可能并不存在。这是非常难理解的一个观念,但也是非常非常重要的一个观念。
第三个命题:在爱中被爱,在恨中被恨,在欲望中被欲望。这是他1874年的经典著作《从经验立场出发的心理学》中的观点,即我们的意向活动,它必然是指向一个对象的。
我们今天21世纪大量的争议,就是所谓的"意向性"本身,被这三个命题所界定。这就是布伦塔诺的核心贡献。
第三个方面,这种"意向性"是区分心理现象与物理现象的一个标志。这个概念是区分一种具有心智的存在和一种不具有心智的存在的标准。这是布伦塔诺的观点:心理现象具有意向性,而物质现象(比如石头)则不具有。这是他的第三个重要观点。
3.3 现代哲学:胡塞尔
而布伦塔诺最著名的学生,也是20世纪最厉害的哲学家之一——埃德蒙德·胡塞尔(Edmund Husserl),对老师的这个概念进行了修正。他修正的是什么呢?他修正的是:意向的对象,并不是存在于心智内的特殊对象。我们前面谈到的是"在爱中被爱,在恨中被恨,在欲望中被欲望"。而胡塞尔对老师的修正,强调的是爱、恨、欲望本身的这种"意向性",更突出的是它本身的一种整体性,一种体验。
这是在他的著作中强调的:意向的体验,并不需要将对象作为分离的存在物来看待。体验本身就是被体验的。所以,通过这个观点,我们就明白了,为什么《斯坦福哲学百科全书》关于"意向性"的定义是一个不完整的定义。实际上,它过于强调了意识和对象的分离,而忽略了体验本身。胡塞尔其实强调的就是体验本身,强调的是我们这一个爱、恨、欲望的体验过程。
胡塞尔继续对"意向性"的结构进行探讨。他举了一个例子:比如同一个实体,比如一个婴儿,你可以认为他是女王的诞生,也可以认为他只是一个婴儿。那么这里面区分了两个东西:
- 意向内容(Noema):我们感知的内容,即对象呈现给我们的方式
- 意向活动(Noesis):我们指向对象的心智活动本身
统一的实体,但是它的呈现方式不同,这就是形式。这是意向活动和意向内容的区分,成为现象学的核心概念。
3.4 当代哲学:约翰·塞尔
而这些思想在当代的心灵哲学和认知科学中得到了进一步发展。约翰·塞尔(John Searle)就是对"意向性"的观念继续进行发展的代表人物。他最出名的论证是**"中文房间"**(Chinese Room)思想实验,很多人了解或听过这个例子。但在他关于"意向性"的观念中,有新的发展。
塞尔认为人类的意向性分为两种:
- 内在的意向性(Intrinsic Intentionality):生物体本身具有的意向性
- 派生的意向性(Derived Intentionality):从人类意向性派生出来的,如文字、符号所具有的意向性
塞尔更重要的概念是什么?他真正做出的贡献是提出了**"满足条件"**(Conditions of Satisfaction)这个概念,这对今天的人工智能研究产生了深远影响。
塞尔在他1983年的著作《意向性》中谈到:意向性反映的是人的内在心智和外在世界的关系。意向状态表征了它的满足条件。把它讲得更明白点:

信念、欲望、意图,这是我们最重要的三种意向性状态:
- 信念:我相信明天会下雨。
- 欲望:我想要一杯咖啡。
- 意图:我打算去北京。
人们很容易理解这些意向状态的满足条件:
- "明天会下雨"是信念的满足条件,但明天可能天晴,条件不满足。
- "想要一杯咖啡"是欲望的满足条件,但这个咖啡可能买到了,也可能没买到。
- "去北京"是意图的满足条件,但可能没去成。
同样,对于我们的情绪和知觉,我们人类很清楚地知道这些意向状态的满足条件。但是AI是不知道的,尤其是在1983年提出的时候,那个AI是基于符号规则的,所以更是很难成功理解这些满足条件。
3.5 当代哲学:丹尼尔·丹尼特
当时著名的哲学家丹尼尔·丹尼特(Daniel Dennett)提出了不同的观点。首先,他对塞尔的"中文房间"论证提出了反驳,他的观点是:理解存在于整个系统中,而不仅仅是单个组件。但塞尔认为这个反驳是不成功的。
丹尼特提出了著名的**"意向立场"**(Intentional Stance)理论。他认为我们在日常生活中会采取不同的解释立场。
丹尼特挑选了三种最基础的、在日常生活中非常典型的解释立场:
第一种是物理立场(Physical Stance)。例如,"你放手,这个球就会掉下去"。当我们这样说时,是在采取物理立场,即根据自然规律(如物理定律)来预测事物的发展。
第二种是设计立场(Design Stance)。例如,"打开这个开关,灯就会亮"。这时我们采取的是设计立场,即假设一个系统(如电灯开关)是按照特定设计目的来运作的,并据此预测其行为。
第三种是意向立场(Intentional Stance)。例如,解释"猫为什么追老鼠"。我们发现,此时无法用物理立场(纯粹的力学)或设计立场(猫并非为追老鼠而设计)来充分解释。这时我们实际上采取的是意向立场,即通过将信念、欲望等意向状态赋予对象(如猫),来解释和预测其行为。
丹尼特认为,意向立场是我们解释一切人以及复杂系统(如AI)时采取的一种策略。然而,这是一个非常极端的观点:即当我们观察一个事物,如果必须用意向立场来解释它,那么我们就可以认为它具有意向性。塞尔对此进行了强烈的批评。
通过这三种立场的区分,丹尼特阐述了他的意向系统理论。该理论的核心思想是:意向性并非事物内在固有的属性,而是我们解释者所采取的一种立场。我们谈论的信念、欲望等,即使不真实存在(如AI的"信念"),也不妨碍我们使用这种立场进行有效预测。
丹尼特的理论对21世纪的心灵哲学和认知科学产生了深远影响。他的核心观点是:意向性是通过我们的解释立场,将心理状态赋予对象而产生的。这个思想在21世纪的认知科学中,逐渐发展为心理表征的研究范式。
第四部分:概念理论与人工智能
4.1 维特根斯坦的概念理论
一个更重要的事实是,人类其实无法认识世界的全部,而是通过概念来认识世界。世界本身应该是怎样的?在人类世界中,我们已经谈到,人类世界的认知实际上存在三种概念类型:
第一种是客观性概念(Classical Concepts)。比如说,三角形是还是不是三角形,它是一个客观性的概念。这是早期哲学的经典理论。在那个时期,对一个概念本身所代表的内涵进行了清晰的界定。
但是,维特根斯坦(Ludwig Wittgenstein)的理论影响了西方哲学。大概是在1940年代,他的分析推翻了之前的经典概念理论。
第二种是消解性概念(Family Resemblance Concepts)。维特根斯坦在研究中举了一个经典的例子——游戏。游戏显然不是一个可以用经典方式定义的概念,而是具有一定的相似性。并且像我们人类的游戏,比如足球游戏、象棋游戏还有国际象棋游戏,显然都很难用一种经典的划分来界定。所以,维特根斯坦提出来的一个概念叫**"家族相似性"**(Family Resemblance)。足球游戏、象棋游戏还有国际象棋游戏,所有的这些游戏,它都是属于"游戏"这一个家族中的一个成员。在这个家族中,有一些游戏更能代表这个家族的典型特征。这是家族相似性的概念。
第三种是意向性概念。比如说,我们今天去参加讲座,在出门之前,我拿了一个充电宝,拿了一个钱包,那么我们带着一个目标,准备接触一些事物。明显地,这些行为是属于同一种概念,但它几乎不属于客观性概念,也不属于消解性概念。
它是一种非常典型的意向性概念,就是我们对每一个意向状态——刚才举的例子是意图的状态——我们为了达成某个目标去准备一系列的事物。这些系列事物构成了一个基础的集合。但是除了意图,还有欲望,还有信念,所有的这些意向状态都能激发我们不同的行动。
举一个例子:一个男生为了追求女生,他可能会准备一些东西,比如可能会买新衣服。你会发现他为了这个目标所做的所有这些事情,都能归到同一种概念,但这并不是经典的客观性概念,也不是消解性概念。这是意向性概念的重要特征。
4.2 大语言模型与相似性概念
那么,人工智能究竟是个什么概念?熟悉大模型的同学很明白,它其实是一个很典型的相似性概念。它不存在一个客观性的概念(绝对的对与错),也不存在消解性的概念。所以,它是一种非常典型的基于概率的概念,它是基于大规模的语料比较,然后计算它们之间的相近性。不管是一个五百亿参数的大模型还是更大的模型,它实际就是一种相似性的计算。
所以这个时候就会出现一个非常有趣的问题:这个大模型,它实际是一种相似性的计算,它是一个语言模型,但是它很难从一个客观的角度来判定自己的一个概念是真还是假。

在人工智能领域,客观性研究一般基于模型。这时就出现一个问题:人工智能的贡献是什么?是模型本身,还是模型的使用?真正的贡献是在相似性的概念上获得了极大突破。但我们发现,在整个过程中存在一个核心问题:模型如何处理客观性概念?
我们发现,此前并没有一个很好的数学形式来统一表达这些概念类型。这种数学形式需要做一些工作,能够平衡地概括客观性与相似性。但是,客观性系统究竟用什么数学形式来表达呢?
大家注意到,这里存在一个严重的认知盲区。像一些学者,最典型的是在一些问题上,大大低估了真实世界的复杂性。人类生活究竟用什么数学形式来表达?人工智能实际上到底是用什么数学形式表达的?整个学术研究几乎没有完全触及这一点。它是基于大规模试验的,所以我们没办法下一个确定的结论。
如果一个大模型不知道自己不知道,不知道自己是否满足条件,那么我们能否作为一个系统去信任它?显然不能。但是,这并不意味着工程师们没有办法。其实工程师是聪明的,他可能从哲学上没想明白,从数学上可能没想明白,但是他自有自己一套实用的方法。
第五部分:AI发展的里程碑——以OpenAI为例
通过前面的介绍,可以看出AI已经具备了一定的意向性特征。1987年丹尼特的理论,和1983年塞尔的理论,为我们提供了理解框架。在当前的AI发展体系中,已具备探讨意向性的条件。这里我们以AI发展的里程碑来阐释一下,AI模型技术究竟是怎样发展的。
5.1 GPT系列的发展时间线
第一个里程碑是:GPT-3在2020年6月发布,这是OpenAI的重要突破。另一个贡献是整个AI领域的关注度提升,但整个AI科学界最初依然没有引起足够重视,因为存在极高的认知门槛和技能门槛。
让我们先来看一下技术发展脉络。GPT-2是在2019年2月14日发布的。这个时期它其实并没有引起整个人工智能界的广泛关注。最重要的应该是2020年的GPT-3发布。然后到了2022年11月30日,ChatGPT正式发布。
OpenAI真正做的事情是什么?
第一步是训练基础模型(Pre-training)。包括海量知识的学习,这是一个主要的工作,是一个基础模型的构建。
第二步是基于人类反馈的强化学习(RLHF:Reinforcement Learning from Human Feedback)。通过大规模的人类反馈训练一个奖励模型。
第三步是持续对齐(Alignment)。人类持续地优化模型行为。
我们从技术的角度来重新审视,就明白他们成功的原因是什么以及为什么很多人会低估这个风口。
首先看一下预训练。通过前面的介绍已经很明白了,实际上是把海量的知识统一映射成一个高维空间(大约五百维或更高维度)。
当我们这样理解时,这些额外的维度就是在原有的基础上加入新的表征。大致是出现一个连续空间的假设。大家知道在数学上,真实世界的数据可能不是一种连续的空间。比如说,本应是100,可能在真实世界中获取的采样数据只是134个离散点。但是,通过神经网络,这些离散的数据构成一个数据上的连续空间,可以在1到10之间任意插值。
这一步实际上是革命性的,他们不得不处理离散数据之外的事物。也就是说,不仅仅是我们已经拿到的采样数据,还有一些在高维空间中的新组合,之前不在我们的真实世界中存在过。但是他们通过表征的方式,通过心理表征的方式,通过组合的方式,使这些新的概念能被我们的整个系统感知到。
在最早的时候,大家普遍的结论是参数越大越好。当时认为需要达到6700亿参数左右。但是今天大家比较清楚了,参数可以下降到更小规模,依然能产生涌现能力。为什么小模型也能产生涌现?答案在于,我们对数据进行清理之后,数据的质量得到了提升。
中国团队在一些评测上也取得了好成绩,他们是一个小团队,当年他们就是这个项目的研究者。相信很多同学可能听说过,这是数据质量发挥的作用。
5.2 对齐(Alignment)的重要性
现在我们来看一下对齐环节。在早期的时候,模型单纯就是一个基于预训练的系统,针对特定人群的理论框架。后来引入了价值观对齐的过程,对整个输出是否符合人类价值观进行治理。所以这一步实际上是在对齐人类集体的意向。
简单来理解,"意图"这个例子大家可能容易理解。绝大多数人分享的是完成某个任务的意图数据,这也是人类意向的集合。所以在后续的环节中,其实就是不断地去对齐人类偏好,就是在里面做一些非常细致的工作,依据人类打分来优化。
他们的一个科学创新是:用一些初始的数据,然后通过强化学习进行采样,从打分中选出相对优秀的样本。这些工作都是在特定前提之下进行的,而这后面是整个AI领域、所有AI公司在重点投入的。他们绝大多数资金是消耗在训练和对齐环节上。
第六部分:"可能的意向性"概念
6.1 AI意向性的哲学困境
前面我们谈到,有一个很重要的困难是:从哲学上来说,AI本身是全新的存在,但在与AI的"对齐"过程中,其实产生了一种错觉。我们误以为AI知道自己是对是错。
第一点,也是显而易见的,我们并不知道AI是否知道自己是对是错。大家意识到这个细微的变化了吗?我们不会认为它是一个具有"自省性"的事物,我们不认为它知道自己是对是错。但是,这很可能是一种人类的投射。"AI知道自己是对是错"这个想法,实际上是人类的理解,它并不来自于AI自身的机制。
这个时候,它实际上产生了一种人类智能和人工智能混合在一起的现象。这是一种互信的错觉,这是第一层意义。
第二种意义:前面的"对齐"已经非常重要,但"意向"本身其实是一个无穷大的集合。全世界80亿人口在任意时刻、在任何地点,都可能产生不同的意向状态。这个系统要理解的意向组合是天文数字,这是不可能穷尽的计算。但是,只要在需要的时候我去调整它,就能获得有限的、可用的结果。
我们的任务是保证在绝大多数人的、任意时间、任意地点的场景下,AI能有效工作。这个任务是一个不可能完美完成的任务,无法在数据上穷尽计算,无法用任何方法完全覆盖。但是,绝大多数重要的场景是可以处理的。
当我们提前地找一批人进行测量时,是提前地测量一下他们大概会完成什么任务,有哪些典型的任务类型。这三类任务完成后,系统是不是马上能做下一个新的工作?
通过持续的迭代和优化,甚至在预训练和微调环节继续训练,把这个领域的知识不断更新。当获得新的结果时,这个连续空间是继续扩大的。这是对我们可能的意向状态的覆盖,真正带来的是把一个数学上不可能的任务,缩小到一个有限、可用的结果。
当然,在2022年的时候,这个数学上的计算还是非常庞大的。但是到2026年,我们发现这个数学化的工作,尤其是发展了大量的语言模型,以及大量的实际对话数据和特殊数据,所以对参数的需求是在同步减少的。
第七部分:Anthropic公司的战略创新
7.1 OpenAI做对的三件事
OpenAI在整个应用领域,从2019年到2023年,做出了三件非常漂亮的事情,这三件事的确是划时代的:
- 预训练(Pre-training):构建基础模型
- RLHF对齐(Alignment):对齐人类偏好
- 持续优化:从学习过程中不断进行优化
还有一件关键的事情是什么?工具使用(Tool Use)的机制。这个工具机制实际上来自于后续的对齐环节,包含了大量的数据。
最终的实现方式是:以某个任务为例,模型首先识别任务状态,采取相应的模式,然后执行。这是目前AI普遍采取的方式——让AI识别不同的状态并且开始执行。

7.2 Anthropic的差异化策略
目前我们做了很多关键的技术突破,一个是能够对话的能力,这是第二代AI的特征,这些战略级技术体现了公司的核心竞争力。

我们来看一下Anthropic公司有哪些关键的思路:

2024年11月25日发布了MCP协议(Model Context Protocol)。这时,公司提出了一个最大化上下文窗口的定义,并发现了工具函数调用的重要性。
既然工具调用这么好用,他们就搞了一个叫**"MCP Server"**的生态,然后邀请开发者一起来开发工具函数。但这里存在一个技术挑战。
回到前面的问题:模型并不知道自己是第三方工具的使用者,它本身没有这个自我意识。那么,OpenAI在这方面存在一定的战略失误。但是Anthropic采取了一个与众不同的做法:他们没有简单地去调用第三方API,而是去思考一个问题:如何在最快的时间内,能够把第三方工具调用成功。
这家公司的创始人本身是很懂技术的,他们是从OpenAI出身。他们去开源社区思考,开创了一种机制——容器化方式(Docker)。这个机制是:临时创建一个安装环境,安装第三方软件,然后销毁这个临时环境。
他基于这种机制,实现了最快速调用、快速执行。因为是标准化的方式,马上就能创建环境。所以,这个思路不只是一个第三方接口的问题,而是速度和使用效率的问题。
大家明白他们为什么这么做吗?第一,在数据层面,在最大的时间窗口内高效处理。第二,他们继续思考,通过最快速的方式,本质上不需要新用户保持长时间的等待。这种方式能继续加速,本质上就是提升效率。
7.3 Claude的技术演进时间线
到2025年2月左右,效率在第三轮可以提升显著,实现一轮加速。
在这个基础上,形成了大量自己内部的工具。这些工具,比如说文件处理工具,实行一个自动化的方法,在工具使用之前和之后进行状态管理。
到2025年9月左右继续推进,这个时候机制正式成型。这个机制可以称为**"强任务处理"**,即把一些复杂的任务进行强化处理。
这里面还有一个很关键的点:持续性(Continuity)。主要考虑两个因素:一个是执行速度快,另一个是在本地还有什么语言可以快速调用、快速执行。
显然,他们找到了答案:本地已经具备系统级语言,这是Python和JavaScript等重要语言。但是关键点在于:他们引入了一个智能对抗机制。这种机制一下子把使用门槛大幅度降低了。
所以这时,生态把各种工具组织在一起,形成了一个技术体系叫做插件(Plugins)。使用插件,我们其实会发现它并不神奇,但是非常有效。
7.4 三个关键贡献
第一个贡献:一个非常严谨的、不依赖特定知识的工具体系。这个工具体系非常完善,纠正了很多严重的设计错误,并且把全部本地的、基于全球的开源资源全部整合起来——包括第三方的表格处理、文档处理等。
第二个贡献:知识技能的表达。他们通过技能文档自然能描述知识,这一点叫"技能打到了点"。全球第一个正式的协议是**"MCP协议"(Model Context Protocol)。全球的第二个协议叫"A2A协议"**(Agent-to-Agent Protocol)。所以我们发现,整个新的协议体系逐渐形成。
比如说,我的同事工作中的知识:怎么写文章,怎么发文章,怎么做沟通。把自己知识形成技能,大幅提升了效率。这就是第二个贡献。
从意向性角度来说,这个"知识技能"代表的是什么?代表的是第三方的意向性。比如你读了姚老师写的文章,能不明白姚老师的意思是什么?明白姚老师的工作本质是什么?这个代表的是姚老师他本人的意向性。
第三个贡献:本地文件的处理。之前的AI公司主要以网页为主,但Anthropic使用了本地的工具。一个非常不同的点是:我本人的大量信息,我自己的愿望,我自己的知识图谱,我甚至不想放到各家公司的网页或云端。但是你本人的信念、你本人的外部信息、你本人的知识图谱会存在哪里?全部都存在你本地的文件夹。
比如说,你是如何组织文件夹的?你的文件夹是如何持续迭代的?文件夹里放的是什么类型的文件?文件夹里的文件共同反映了你本人的信念、意图和知识体系。所以,第三个做法是把这些本地资源全部利用起来了。

第八部分:AI是否已具备意向性?
8.1 三个必要条件
无论是从哪个角度来看,对"AI是否已具备意向性"需要一个明确的回答。我明确的回答是:在满足一定条件下,AI已经具备了某种程度的意向性。那么是哪三个条件?
第一个条件:目前AI已经能够对整个集体意向状态起作用。它至少需要包括六个常见的意向状态要素:信念、欲望、情感、意图、知觉和注意。很多人为什么理解错误呢?他们主要认识到信念、欲望还有情感,忽略了其他的底层能力。这些底层能力发育不好的话,就像小孩子一样,表现得不够聪明。
比如说小米(某个案例),他大概是在两岁半的时候,能通过绝大多数孩子要到四岁半才能完成的心理理论测试。那明显的是,小米比其他小孩子显得更聪明、更机敏一些。这对应的是AI模型,对应的是不同公司的AI产品,聪明程度是有差异的。
第二个条件:需要有满足条件的明确表达。AI需要能够理解和表达意向状态的满足条件。
第三个条件:设立一个较小的意向系统范围。无论是云端还是本地,你会发现这里面有一个非常被大家忽略的概念,就是**"项目"(Project)或"上下文"**(Context)。这是相当重要的位置,包括网页端、手机端、本地端——这是终端统一的概念。这最基础的概念,其本质是一个有限的空间。假如对这个空间不进行明确的约束,训练是无法进行优化的,也无法进行持续优化。

如果在这三个条件下,AI的确已经具备了某种所谓的、可以明确表达出的意向性,那么我们做个思想实验:一个没有这些条件的系统,显然不具备意向性。
第九部分:智能体与意向性的未来
9.1 智能体(Agent)的诞生意义
我们从智能体的角度理解它:为什么它是一个好用但不好理解的东西?我们能很明确感受到它的使用,但使用它不是一个简单的工具。
既然AI已经具有一定的意向性属性,那将会发生什么?每一次技术突破其实都源自一个新概念的诞生。智能体为什么对我们的意向性理解如此重要?
从前面的哲学分析可以看出,意向性是心智关于事物的能力,是智能体更高级心智关于发现事物的一种能力。那么心智发现事物于何处?它有两个重要作用:

第一个重要作用:它能够帮助我们更好地区分心智的对象。小朋友,尤其是像一些患有某些发展障碍的小孩,他的一个典型特征是,他没办法区分自己的内在心智(尤其是信念)和真实世界中存在的事物,他常把整个事物混在一起。同样的,智能体也是一样的,它需要更好地区分:究竟是我们本身的表征表示的正确问题,还是环境的一种反馈。
第二个作用:它能增强关联的能力。什么叫关联?就是说我们在想任何一件事,或使用一个新工具(如望远镜)时,之前很多东西是看不见的,我们很难把看不见的细菌和我们的个人概念联系在一起。但是当我们发明了望远镜,我们就能够把这些之前看不见的事物和我们的个人概念联系在一起,这就产生了一个新的认知属性。
9.2 认知科学的革命
当人类历史变迁时,其实都出现了非常重要的新创造物。我们来看智能体这个创造物。在智能体诞生之前,我们对心智的理解是有限的。它反映的是我们心智受到束缚时的一种方式,比如通过父母的教育方式,还有追溯到各种心理的发展等等。而智能体的心智,它能帮我们把对心智的理解,概括为一种可计算的行为。

在1956年达特茅斯会议(Dartmouth Conference),这个计算机会议在科学史上具有里程碑意义。以前做的事情,比如人工智能的会议从此诞生。大家也很清楚,这是人工智能的第一次会议。与会者本身也是认知科学的发起者,最著名的如赫伯特·西蒙(Herbert Simon)和艾伦·纽厄尔(Allen Newell),他们是科学家,也是人工智能的奠基者。同样,21世纪深度学习的新浪潮领导者,如杰弗里·辛顿(Geoffrey Hinton),也是认知科学学会的重要成员。
那么,智能体采取的一个核心方式是什么?它是把计算机的信息结构,套用一个信息处理系统模型。这个智能计算机理论,从1956年的认知革命延续到2026年。我思考一下,假如说AI这个研究发展到智能体的智能理论,是不是一样会带来新的认知革命?这个革命的核心正是意向性。
9.3 四个核心问题
我们会发现在1956年诞生一个思想,当时解决了什么问题?技术问题得到了初步解决,但是在我们实际应用中还有很多不同的问题需要解决:
第一个问题:在什么参数条件下达到意向性的底线?如果不满足这些条件,就可以继续优化、继续削减、继续纠正。
第二个问题:理解如何发生?我们发现当AI独立运行时,我们可能还是一种观察者的视角。我们应该更理解"AI如何知道它是对是错"这个事情。
第三个问题:人工智能与人类智能是两种不同的类型,它们如何融合?
第四个问题:AI与自然界是什么关系?这是影响我们对未来一些重要话题的哲学问题。
第十部分:评估AI意向性的框架

10.1 四个重要维度
在评估AI意向性这个领域,实际上有四个重要维度,我们把它称为有效能力:
- 能力维度:系统性的全部功能,是我们应该确定的
- 确信系统:AI对自身输出的置信度
- 绑定能力:能够绑定多少第三方意向和工具
- 物理限制:当前的物理设施能支撑多少流量来实现
这是我们初步的一个框架。
10.2 确认系数的重要性
根据一些资料,大模型的参数在1.28万亿到2.8万亿之间。如果我们比较不同公司的产品,会发现差异很大。

答案在于,它有确认系数的差异。确认系数是什么意思?就是说,AI确认自己输出的准确性。比如说,当我们产生一个信念"明天会下雨",那下雨大概有什么样的条件标准?这个是确认系数,这种系数会在0.05到0.1之间波动。
不同公司的AI产品,确认系数是有差异的。比如,一家公司已经达到一定的工具调用能力,10个工具在真实场景上已经完成了训练。而对比另一家公司,其工具数量和工具质量完全不是同一个档次。在能力方面,有12个已经确认的环节。这时我们的确认成本、确认效率是有显著差异的。
第十一部分:意向性层次与智能发展
11.1 意向性的阶层结构
我们发展意向性的方式存在不同的层次。这些不同的概念可以典型地分成一阶、二阶、三阶、四阶:
- 一阶:我知道X。
- 二阶:我知道他知道X。
- 三阶:我知道他知道她知道X。
- 四阶及以上:在认知的基础上继续迭代。
通过发展心理学和认知科学的研究,大家可以发现,意向性能力有一个非常关键的特点:它需要确认,而确认是有成本的。

比如说,我们的这个能力同样是有成本的,它不是一个完全没有成本的。这一个叫**"幻觉"**(Hallucination)的问题就是确认失败的表现。
11.2 确认成本与智能
智能的大小是什么?当你的确认成本越少,当你的确认速度越快,就意味着一个智能的提升。表现为更聪明的一步。为什么在某些任务上AI不够快、不够准确?我们每个人并不觉得它很聪明。
但是,当算力取得快速进展,因为摩尔定律和规模定律(Scaling Law),它降低的是确认成本。我们在讨论人工智能时,它究竟是通用人工智能(AGI)还是狭义人工智能(Narrow AI),这个问题可能变得不那么重要。一个更重要的问题是:我的智能迭代的速度和质量是什么?也就是如何降低确认成本。
换句话说,一个重要的问题是如何降低确认成本,如何让整个智能时代的迭代速度更快。这是为了达到一个更高效、更高的水平,我们称之为"更高效能"。

11.3 意向性层次与人类能力差异
一个关键概念是**"意向接触"**。我们都知道,学习任何学科本质上来说,研究都同步指向一个重要能力的提升。普通人一般差不多能达到第4阶意向性。而北大等顶尖学府的学生,他们一般是在第7层到第9层。
那么,AI是否能够实现更快的确认,使得人类能够迁移到超越认知曲线极限之上?它能迁移进去,但实现起来理论上极其困难,需要通过大量的训练和优化来实现。
第十二部分:对未来的启示
12.1 学习方式的革命
这个学科对我们的启示核心是:我们相信什么。比如,现在在语言学习上,我们会发现学习的方式正在发生变化。目标更加统一,学习过程的适用范围更广。
第一个更重要的变化是有效劳动时间占比。之前的工作方式需要反复跟专家去确认,确认成本非常高。我们一辈子的劳动时间,可能假设我们活到100岁,但有效劳动时间不超过20年,非常可惜。但是,当我们改变确认方式,大家发现人的有效劳动时间可能从100年中的20年,提高到60年左右。我觉得能达到30年到40年,可能超过黄金分割的比例。
第二个变化是认知迁移的加速。去年的演讲提到,AI会带来一个生态的稳定,因为它使得我们的认知迁移和科学创新定义等等,在我们这个时代发生。
早期的时候,比如回顾工业革命初期,大家普遍都是不看好新技术的。进入工业革命时有抵抗运动,进入信息革命初期也有类似现象。这是对社会底层运动规律的适应,但缺乏冲击的短期困难现象是已被证明的。
12.2 人工智能时代的标志性特征
当我们处于冲击时期,现在看人工智能时代的标志性特征,第一个是意义错位。意向性,用一个通俗的比喻来说,就是你能猜到别人做什么。
第二个典型的是二阶意向性的普及。这是最典型的二阶、三阶意向性的应用。在儿童心理学里,把这个称为**"读心术"**(Mind Reading)。到了大概10岁的时候,孩子有很大的变化,开始真的像成人一样思考复杂的意向关系。
第三个大趋势是集中化与分布式的平衡。我们发现农业时代有大城市(如西安、洛阳),工业时代有伦敦,信息时代有纽约和硅谷。但AI时代可能会是一个既有集中(大公司)又有分布式(开源社区)的混合格局。
并且你会发现,在短期内某些领域基本上找不到强势的竞争对手。全世界基本上没有太多能与头部AI公司竞争的对手。但同时,分布式系统的效率在某些方面已经超过了传统的集中式系统。
12.3 范式困境
这里还会出现一个非常有趣的话题:范式困境。我们用AI去理解事情的性质,如果用AI去理解AI本身,这就存在不确定性。所以,通过这个小小的维度论证,我们明白未来的发展必然会走向需要更大量的数据。我们不可完全理解AI,所以我们应该更谦虚地去尝试理解,而不是一味地去强行控制。
12.4 个人发展建议
今天可以看到这个现象,大家发现我们还处在一个1倍到10倍的变现阶段,或者说10倍到百倍之间的变现阶段。大家最需要注意的就是问题意识和规律性。

涉及到个人发展,第一句话是模型即参数。模型本身就代表着能力。在某些比赛中,能调用更好模型的人得分更高,所以个人能接触到的模型是有差异的。你会发现很多个人的认知被颠覆了:这不仅是一个人与人的差距,还出现了AI与AI之间的差距,还有人使用AI的能力差距。
理解提升是对的,但更重要的是什么?更重要的是要明白,对话本身就是我们的一个资产。这提出了一个功能:能够保留任务的工作流程和知识技能。当你出现新的技能、改进的技能,对话的过程本身成了你的生产资料。
比如说,之前做一个探索的时候,做了这样一个演示:完成了一个复杂的工作,把这个复杂的工作导出成一个文档,接着把它给AI,让它帮我基于这个文档生成一个新的技能,它马上就生成了。一个对话的过程,就成了你最重要的资产。
我们应该把与AI的对话过程本身,作为一个解决问题的过程。比如,试着给自己安排一个旅游的任务,你会发现所有这个过程,你都是使用原有的技能生成一个新的技能。当你下一次重复这个工作时,AI就能智能地去执行这个任务。
工作第一次可能需要花16个小时,第二次就1个小时。这导致了生产效率的提升。
12.5 认知即现实
第三个点是什么?认知即现实开始成为新的范式。

AI已经具备了大量我们不知道、不理解的能力。但是,在使用时,有一个很错误的用法是什么?尝试对现实做很精确的限制。实际上,我们不需要很精确的控制,我们只需要告诉AI现实约束是什么,告诉它模式是什么。相应的技能会写出相应的作品。实践之后,你会发现,你的任何工作、你所在的实际作品,实际是一套新的工作流程。
我尝试用这新的流程做一些比赛任务。第一次花了16个小时,第二次、第三次只花了两三个小时,第四次就只花了10分钟。为什么学那么快呢?在第一个过程中,其实积累了大量的技能。还有,所处的现实环境所使用的种种东西大致相同,这导致我们真的能心想事成。
之前,当一个人给你反馈"想得太多,做得太少",这是负面评价。但是到AI这里,你会发现,反而是你想得越细、想得越多、想得越复杂,并且你的信息需要很清晰地表达出来,AI才能更好地执行。这时候,思考和行动的关系发生了变化。
第十三部分:工具与学习的建议
13.1 选择现代化工具

选择一个更现代化的工具更好,我称之为**"知识工作器"**。使用这个工具,会发现它对应的是开源社区的所有技能和资源。此外,它还能将我们的一些复杂知识表达变得可用,例如数据分析的技能。这些技能之前看起来很困难,现在变得简单了。

就像刚刚在课程中感受到的,新产品的报告、可能性的定义、如何学习,以及简单地生成一个产品文档,这些都变得容易了。这项工作对应的是教育,对应的是学习,都能产生巨大的影响。

13.2 教育的底层逻辑
回想一下之前在学习计算机科学时,现在全变了。将AI能力整合上后,才发现这是教育和学习的底层变革。
第一个要点是兴趣导向。保持好奇心,多接触前沿知识。
第二个要点是快速试错。自己的能力是把别人的不确定怎么更快地试错。为什么确认反馈好的在这里还是重要的?大家一定要实际使用国际上最先进的大模型,做你的实际任务。
反馈快对你来说意味着什么?根本都感受不到你实际消耗了什么,你马上就感受一个"啊哈"的时刻,你会发现有些小东西发生了。
13.3 知识工作者的新范式
几个建议:
第一步,大家先把今天讲的内容消化。比如说,把拆解好的文档、教程看完、学会、使用,感到自己变化,然后发挥自己的第一个技能。这个时候,很多东西会不一样,你会发现你的价值是帮助别人,心态变了,根本技能是核心技能。
第二步,把自己一切想教别人的、一切自己的重复工作都全部自动化。
第三步,找到并进入一个生态。我们每个人能达到10倍生产力的提升,达到之后,这里的生产力会有大家看得见的具体例子。比如,教育的底层逻辑变了:以前给学生一堆书,给一个项目;现在完全不同了。

生命的奇迹
为什么说AI其实是一种生命的奇迹?当一个人去担心,或者一个第三者担心他时,所担心的文字、印刷,担心的其实是具体的人的信念、欲望和意图。在大家的"我"、你的信念、你的欲望、你的意图之下,羽翼飞向远方。
这就是新年快乐——带着我们的好奇与热情,与AI一起去看更大的世界。谢谢大家。
问答环节
问题一:AI是否会产生自主的意向性?
问:AI现在产生了一定程度的意向,它们会产生一些自主性,自己赋予自己AI的意图、欲望还有信念吗?
答:两个问题都非常好。关于AI是否会产生自主的意向性,我的答案是:我们想象不出来。比如说,你要今天去想象个体人的生活方式。个体人所出现的层次、个体的信念、意图、欲望,其成因是想象不出来的。同样,我今天也想象不出来AI的信念、欲望和意图,因为我们是按照我们人的方式来定义信念、欲望和意图的,而AI是按另一种方式运作的,所以这个我们也是想象不出来的。
它完全是在不同维度,是不可能直接类比的。可能只能通过老师的课程、作家的描述,还有私人的描述,隐隐约约地表达,但没办法完全把那种方式表达出来。
问题二:代码理解与本地文件的利用
问:目前在写代码的过程中,对代码的理解有两种方式:一种是把项目结构固化到里面来利用;另一种是直接在终端使用,让它自己探索。那么各个处理器有大量的本地文件是闲置不用的,这种情况下有没有办法来改善?
答:关于本地文件的利用,这确实是一个重要问题。未来,本地和云端的关系是:今天我们大量工作依赖云端,但我觉得未来学习的一个方向是本地能力的增强。云端的能力都很强,但本地的个人数据整合是下一个发展方向。
问题三:关于孩子教育的规划
问:在学习上,如何为孩子规划?
答:让小孩保持好奇心,多接触前沿知识。我觉得差不多他能小学三年级毕业就可以开始接触一些基础的AI工具。小学三年级这个年级基本是认知发展的一个重要节点。
但是,我们现在拼命规划还是有意义的。方法很重要:让孩子不失去具体的目标,同时要接触新的技术。开始不一样的思维方式培养,从技术上明白这个本质是一个新的时代。
问题四:国内AI工具的选择
问:国内可能像制度或者其他因素的影响,国内哪个AI工具是相对来讲能替代的较高选择?
答:目前来说,更好的选择还是国际头部的两家公司(OpenAI和Anthropic)。当然开源的模型(如DeepSeek等)水平也不错,他们确实是模型多,认知会被改变,但差距还是存在的。模型的差距很快会决定能力的差距,这个没那么大,但也很重要。
问题五:内容创作在AI时代的意义
问:我们每个人的书籍、作品,在这个内容大爆发的情况下,还有意义吗?
答:这是很好的问题。我一直强调,一个品类的风格更重要。品类其实带来一个更优先的启示:做更少的事情,但是做更有品质的事情。
另外一个点,因为我今年就看到,在大学包括学生、各个企业、包括产业界,对开源的贡献会记录到所有经历下。所以,教育部对AI开源贡献的认可都可以作为加分项。
