智能泛滥的春天——斯坦福 2026 AI Index 小读

访客 1小时前 阅读数 45 #区块链
文章标签 前沿文章

四月的一个下午,我从 Sand Hill Road 拐进 Stanford Dish trail,本想走一圈消化脑子里的东西。爬到半山腰,雨毫无预兆地下来了——不是毛毛雨,是湾区春天那种短促而浓烈的倾盆。我没带伞,干脆就站在一棵橡树下面,把手机拿出来,翻开早上没读完的那份三百多页的报告。

智能泛滥的春天——斯坦福 2026 AI Index 小读

雨打在叶子上很响。脚下的土从灰变成深棕。远处 Rosewood 的轮廓在雨幕里模糊成一片米色。我读到第四十页,抬头看了一眼山下的 280 号公路——车灯一盏接一盏,缓慢地向南移动。

我忽然意识到,这不是一份成绩单。这是一张地图,画着人类正在走向哪里——但地图上没有人标出路口。

我决定不按章节读它。我决定按裂缝读它。

一、第一个裂缝:能力变成了空气

去年这个时候,让 AI 修一个复杂的代码 bug,它能做对六成。今年,接近十成。

一年。一个完整的职业技能,从"稀缺品"变成"默认值"。

过去十年我们赞美的那种能力——能写代码、能读论文、能做数学、能解释量子物理——在这一年里集体从山顶滑落到平地。斯坦福这份报告里有一组数字让我停下来看了很久:全球 88% 的组织已经在用 AI,五分之四的大学生每天在用生成式 AI。这意味着什么?意味着你曾经引以为傲的那些"会做",别人也会,而且是免费地、即时地、永不疲倦地会。

那什么变得稀缺了?

不是"能做什么"。是"知道要做什么"。

当一个东西人人都有,它就不再是筹码。真正的筹码,退回到了更上游——退回到了意图本身。你想做什么,你为什么做,你愿不愿意为它投入自己的时间和身体,你在没有外部奖励的情况下愿不愿意继续。

我见过太多人在过去这一年陷入一种新型的焦虑:不是"我不会",是"我会的东西 AI 也会,而且比我便宜"。这种焦虑的出口不在下游——不在"我再学一门更新的技能"。出口在上游——在"我到底想成为什么样的人,我到底想让这一生去哪里"。

不是 AI 在淘汰你。是 AI 在让那些从来没想过"我想要什么"的人,第一次被迫面对这个问题。

这是第一个拍子:不是能力在贬值,是稀缺性换了位置。

从"会做"换到了"想做"。从动词换到了动机。

二、第二个裂缝:两个巨人并肩,但供应链吊在一根针上

报告说,中美 AI 模型的差距几乎为零了。两个巨人在前沿上互相追赶,领先优势以月为单位切换——年初美国领先,二月中国的 DeepSeek 追平,夏天美国再度领先,秋天又被追上。到了 2026 年三月,最顶级的美国模型仅仅领先 2.7%。

这是新闻。但不是故事。

故事在同一份报告的下一页:几乎所有最强的 AI 芯片,来自台湾一家代工厂。

想象一下这个画面:两个拳手在擂台上打得不分上下,全世界的媒体在报道他们的每一拳——但没有人注意到,他们的心脏用的是同一根血管。

这不是技术问题。这是整个文明的因果链被拉得太长太细,细到任何一个节点断了,全局都会停电。

我们习惯谈"去中心化"。但真实世界的去中心化,从来不是"有很多节点"。真实的去中心化是:任何一个节点消失,系统还能呼吸。

按这个标准,AI 文明今天是一个假的去中心化。模型有很多,公司有很多,国家有很多,但往下挖三层,所有的多样性都收敛到同一个地方。

美国今年数据中心的数量是 5427 个,是排名第二的国家的十倍还多。这个数字听起来像赢。但换个角度看,它也是一种风险集中——能源、冷却、土地、人才、芯片,全部挤在同一块地理坐标上。

一个文明越是把重要的东西集中在少数几个点上,这个文明就越脆。

这是第二个拍子:我们以为自己建的是网络,其实建的是串联电路。

一盏灯灭,整条路黑。

三、第三个裂缝:参差——IMO 金牌,却读不准钟表

这是整份报告里最让我坐直身体的一页。

AI 在国际数学奥赛拿了金牌。同一个 AI,看一个墙上的圆形钟表,说对时间的概率只有一半。

我读到这里,第一反应是笑。第二反应是沉默。第三反应是——我们所有人都在用错尺子量这件事。

人类从小被训练相信智能是一条线。考 90 分比 70 分聪明。博士比硕士聪明。IQ 140 比 120 聪明。上哈佛的比上州立大学的聪明。于是我们看 AI 也用这把尺子:它是不是超过我了?它什么时候超过我?它会不会替代我?

但 AI 用它自己的生长方式告诉你:这把尺子一直是错的。

智能不是一条线。智能是一片地形。有的地方它高过你三座山——比如奥数、比如大规模文献综合、比如瞬间调取二十种语言。有的地方它还在山脚——比如读模拟钟表、比如判断一个陌生人是不是在撒谎、比如感受这段沉默是尴尬还是亲密。

你站在它的山脚下会以为自己赢了。你抬头看它的山顶会以为自己输了。其实你们根本不在同一个维度比较。

真正重要的问题不是"它是否比人强"。真正重要的问题是:我在哪些地形上,是不可替代的地形?

这个问题每个人都要自己回答。报告里没写。没有一份报告能写。

但我想多说一句:你越是只训练自己某一项"标准化能力",你越会和 AI 的优势区重合,越容易被替代。你越是培养那些"说不清楚的能力"——对人的直觉、对美的敏感、对场域的觉察、对长期承诺的定力——你越是站在它的山脚。

AI 的参差地形,反过来定义了人的不可替代区域。

这是一个送给每个人的礼物,只是没几个人打开它。

四、第四个裂缝:事故在涨,信任没跟上

去年 AI 相关的事故 233 起,今年 362 起。一年涨了 55%。

几乎所有公司都在比拼"我的模型多强"。几乎没有公司认真比拼"我的模型多可靠"。报告里有一句很冷静的话:前沿模型的能力基准,几乎所有开发者都认真汇报;但责任 AI 的基准,汇报得零零散散。

更刺骨的是下面这一行:研究者发现,改进一个责任维度(比如安全性),往往会降低另一个维度(比如准确性)。

这意味着什么?

意味着我们现在不是在"做更好的 AI",我们是在"做更强的 AI"。强和好,是两个字。

强是一种单维的、可以比赛的、可以发新闻稿的东西。好是一种多维的、需要平衡的、永远处于折衷中的东西。

整个行业在过去一年跑的,是强这条道。没有人真的在跑好这条道。因为跑好这条道的人没法发新闻稿——"我们的模型更安全但稍微笨了一点"不会上 Hacker News 头条。

这是第四个拍子:能力跑在了信任前面。

这不是一句道德评价。这是一个经济事实。因为人类不会长期使用一个自己不信的东西——短期用,长期撤回。今天所有靠"惊艳"留住用户的 AI 公司,十年后会发现自己在流失真正的用户。留下来的,是那些从第一天就把"可靠"当作产品核心的公司。

信任不是护栏,信任是护城河。懂这句话的公司还不多。

五、第五个裂缝:钱来了,人走了

美国一年 2859 亿美元砸进 AI。中国 124 亿。听起来美国赢麻了。

翻到下一页:想来美国做 AI 的研究者和工程师,数量比 2017 年少了 89%。仅过去一年,下降了 80%。

钱在涌入。人在撤离。

钱是一个滞后的信号。人是一个领先的信号。

钱看的是过去三年的业绩、估值、回报率。人看的是未来五年的生活质量、签证稳定性、社会氛围、"我在这里会不会被善待"。

我就住在 Sand Hill Road 附近。每次开车经过那条两边全是风投 logo 的路,都会想起一件事——这条路上每一家基金一年募到的钱加起来,买不到一个真正不想来这里的顶尖研究员。

人走,是因为他们先一步感受到了什么东西松动了——可能是签证政策,可能是排外情绪,可能是那种"未来属于我们"的集体信念。一个地方留不住人,再多的钱最终也会变成沉没成本。因为钱造不出新的思想,思想需要活人。

这是整份报告里我最想让中国的朋友读的一段,也是我最想让硅谷的朋友读的一段。

对中国的朋友:美国的人才流失不是中国的胜利。人离开美国,不一定去中国。他们可能去新加坡、去阿联酋、去加拿大、去任何一个他们觉得"我可以被好好对待"的地方。全球最好的大脑,今天是流动的,是有选择权的。不要用零和思维理解这件事。

对硅谷的朋友:不要用"薪水"理解为什么人在走。薪水是最不重要的变量。人走,走的是氛围、是尊严、是那种"我在这里有未来"的感觉。这些东西不能用钱买回来。一旦失去,要用一代人的时间重建。

钱能买模型,买不到相信这个地方的人。

六、第六个裂缝:普及最快的技术,藏着最安静的价值

生成式 AI 在三年内达到 53% 的人口渗透率。比 PC 快,比互联网快,比人类历史上任何一项技术都快。

但有意思的是:普及率最高的不是美国。新加坡 61%,阿联酋 54%。美国只有 28.3%,全球第 24。

更有意思的是下面这个数字:报告估算,生成式 AI 给美国消费者每年创造的价值是 1720 亿美元——但这个数字不在任何一份国家经济报表上。因为它是免费的。

我们正在经历一个很奇怪的时代:真正的财富越来越多地在免费层流动,而国家的统计口径只能看到收费层。

这件事的意思是——如果你是用"收入"衡量自己人生的人,你会越来越焦虑,因为你能变现的东西越来越少。如果你是用"我每天能接触到多少高质量意识、我每天能做成多少以前做不成的事"衡量自己人生的人,你会越来越富。

这不是鸡汤。这是一个统计口径跟不上事实的时代,一个人需要换自己的仪表盘。

旧仪表盘上写着:房子、车子、存款、职位。 新仪表盘上写着:你一天和多少种智能对话过、你用 AI 做成了多少件过去做不到的事、你在空出的时间里把哪些更重要的事做深了。

两套仪表盘都没有错。但只看旧仪表盘的人,会在这个春天感觉奇怪的焦虑——明明什么都没失去,却觉得自己正在被落下。那是因为真正的富,在另一块表上。

七、第七个裂缝:孩子们跑在学校前面

八成以上的美国中学生和大学生用 AI 做作业。只有一半的学校有 AI 政策。在这一半里,只有 6% 的老师觉得自己学校的政策是清楚的。

翻译一下:孩子们已经在新世界里生活了,学校还在旧世界里出卷子。

这不是一个"教育跟不上技术"的老故事。这是一个代际断层。不是因为孩子懂得多,而是因为孩子每天在用 AI 和世界对话,把 AI 当作一个可以随时提问的伙伴;而老师每天还在用"原创作业"、"独立完成"、"不许抄袭"定义学习。

两种现实并存。两种现实都觉得对方错了。没有人搭起中间的桥。

这个桥不搭,十年后我们会看到一整代人的学习方式是"在没有许可的情况下自己摸索出来的"——那既是一种野蛮生长的红利(这代人会极度早熟、极度自主),也是一种被结构遗弃的创伤(他们知道学校在骗自己,知道老师装作没看见,知道"规则"是给相信规则的人准备的)。

对家长:你今天对孩子用 AI 的态度,不是"管与不管"的问题,是"你愿不愿意和他一起生活在新世界"的问题。你不愿意,他会自己生活,只是不再告诉你。

对做教育的朋友:真正值得做的不是"禁止 AI",也不是"教 AI",是重新回答"学习"这两个字到底是什么意思。如果学习是"记住标准答案",那 AI 时代学习就死了。如果学习是"和高质量意识不断对话从而长出自己的判断",那 AI 时代学习才刚刚开始。

学校系统还没想清楚自己要选哪一边。孩子们已经替它选了。

八、第八个裂缝:每个国家都想有自己的 AI

报告里有一个安静但重要的趋势:发展中国家开始发布自己的国家 AI 战略。超算投资在全球范围上涨。开源模型的贡献者,来自"非美非欧非中"的比例在追平欧洲、逼近美国。

这是一个新故事。过去三年,AI 的主叙事是"两个大国"。从今年开始,是"一百个小国试图不被两个大国代表"。

所谓"AI 主权",它的本质不是"我要有自己的模型"。它的本质是——我不想让我这个族群的语言、历史、感受、幽默感,被别人的模型定义。

你想象一下:如果未来十年,全世界所有人每天花三个小时和 AI 对话,而这些 AI 都是用英文语料训练的、都是硅谷几家公司设计价值观的、都是某一种文化默认正确的——那十年之后,地球上的文化多样性会是什么样子?

不是一个技术问题。是一个文明保护问题。像保护语言、保护手艺、保护生态多样性一样,人类需要保护自己思考方式的多样性。

所以这些国家冒着巨大的资源压力,也要做自己的模型。不是为了和美国中国竞争。是为了让自己的下一代,还能用自己的语感和 AI 对话。

这是一场缓慢而坚定的反抗。它不会上头条,但它会决定未来十年世界的形状。

九、第九个裂缝:专家和大众隔着一条大河

七成三的 AI 专家相信 AI 对就业有好处。两成三的普通人这么想。

中间隔着 50 个百分点。

这 50 个百分点不是"谁对谁错"。这是两个世界。

专家住在 AI 的上游。他们每天和最前沿的模型打交道,他们看到的是可能性,是效率提升,是以前做不到的事突然可以做了。他们的生活因为 AI 在变好。

普通人住在 AI 的下游。他们看到的是招聘启事上"要求熟练使用 AI 工具"、是身边同事突然被裁、是自己孩子的作业分不清是自己写的还是 AI 写的、是诈骗电话的声音越来越像自己的家人。他们的生活因为 AI 在变不确定。

上游的人说"河水清澈"。下游的人说"水在涨"。两个人说的都是真的。

更刺骨的是另一组数据:美国人对本国政府监管 AI 的信任度只有 31%,是调查里最低的。全球最被信任的监管者不是美国,不是中国,是欧盟。

这不是技术问题。这是一个信任基础设施的塌方。能力越强的国家,反而越不被本国人民信任能管住这个能力。

为什么?因为能力和监管之间,需要一个叫"机构"的东西。机构是法律、是部门、是程序、是"当我出事的时候会有人接住我"的那个承诺。过去二十年,美国的机构在被持续地怀疑、消解、嘲讽。到了 AI 这一关,机构的信任额度已经见底了。

这是整份报告最深的那道裂缝。比模型的裂缝、比芯片的裂缝、比教育的裂缝都深。

因为模型可以重新训练,芯片可以另起炉灶,教育可以改革——但信任一旦碎了,要一代人才能重建。

十、把十个裂缝合在一起看

把这十件事放在一张纸上,你会看见一个图案。

一边是能力的指数级爆发——模型、数据、投资、普及率,全线飙升。 另一边是承接能力的基础设施——信任、教育、监管、人才流动、文化多样性——全线开裂。

我们不缺智能。我们缺的是接住智能的那个容器。

容器是什么?

容器是"我相信你"这四个字所依附的所有东西:法律、学校、医院、邻里、信仰、契约、朋友之间的承诺、父母和孩子之间的默契。这些东西本来就脆,AI 只是让它们脆得更明显。

所以 2026 年这份 AI Index 真正告诉我的,不是"AI 又进步了多少"。是——

在能力不再稀缺的年代,唯一稀缺的,是承载能力的信任。

做模型不再是护城河。做能让人信得过的事情,才是。

这对每一个读到这里的人——无论是创业者、投资人、老师、家长、还是只是一个普通的用户——都是同一个指令:

把你这一生,投给那个"让人信得过"的位置。

因为其他位置,AI 都在替你坐。

只有"让人信得过"这件事,它替不了。因为让人信得过,不是一种能力,是一种长时间的、可被验证的、愿意承担后果的存在方式。它没办法被训练出来,只能被活出来。

这是报告里没写的第十一个拍子。也是我站在那棵橡树下面,雨渐渐停下来的时候,想的那句话。

雨停了。山上的空气比来时清爽了一个量级。我收起手机,继续往 trail 的另一头走。远处 Sand Hill Road 的车灯已经亮起来,一家家基金的 logo 在黄昏里像小小的灯塔。再远一点,Rosewood 的露台上大概已经坐满了人——一杯 Negroni,一份 pitch deck,一段关于下一个十亿美金的对话。

空气里智能的密度在变厚。我们每天都能做比去年更多的事,每天都能知道比去年更多的答案,每天都能用一杯咖啡的钱调动一个博士级别的大脑。

但人和人之间,那种"我把我的一部分交给你,我知道你会接住"的信任——没有跟上。

我走下最后一段山坡,忽然明白:未来最值钱的东西,是最古老的东西。

不是算力。不是数据。不是模型。

是一个人对另一个人说"我信你"的时候,那个承诺真的能落地。

热门