近日,“DeepSeek崩了”冲上热搜。很多用户反应使用中频繁遇到:无法提问、回复延迟、功能瘫痪、用户赶作业时突然断线、写论文时弹出"服务器繁忙"。 与之对应的是,DeepSeek使用率大跌。根据全球最大AI平台Poe的数据,DeepSeek使用率在两个月内从7%暴跌至3%,数据直接被腰斩。 另一边,一些学界大佬开始唱衰AI。“当前大语言模型最终都会被淘汰”。2025年3月,AI应用的奠基者、号称“深度学习三巨头”之一的Meta首席AI科学家杨立昆,在美国2025年联合数学会议上高调唱衰大语言模型。在杨立昆看来,“当前AI技术,特别是自回归大语言模型存在根本局限,如‘幻觉’问题和无法真正理解物理世界”。 学界大佬亲自下场“祛魅”,背后是AI底层的问题一直没有得到有效解决——在实际业务上的“不通用”,始终别着AI的“马腿”。具体而言: 一是技术上,各大厂商都想抢占AI的行业标准,协作与标准化缺失,导致互不兼容。这种互不兼容的局面使得不同厂商的AI产品和服务难以无缝对接和协同工作,增加了开发、部署和维护的成本与复杂性。例如,企业可能既需要甲平台的AI管理销售数据、客户信息,又需要在乙平台的AI参与客户服务、制定销售方案。但是,不同平台的AI工具难以跨平台共享和迁移模型或数据。企业不具备相应的程序开发能力,又不愿意承担外包开发泄露重要数据的风险,最终只能放弃使用AI。 二是业务上,人类工作往往十分复杂,而与之相对的是AI应用呈现碎片化,难以胜任实际工作。实际上越是急需AI填补人才缺口的工作,就越会涉及潜在信息、情感交互、创造性思维以及对复杂环境的动态适应。然而,目前AI应用大多呈现碎片化,只能在特定的、相对单一的任务场景中发挥突出作用。如在医疗领域,AI能够快速准确地识别X光片或CT扫描中的异常,但当涉及综合患者的病史、症状、心理状态以及家庭背景来制定个性化的治疗方案时,AI就显得力不从心,反而需要借助人类医生的临床经验、同理心以及对患者整体状况的综合判断。 三是产业中,算力与资源消耗过大,限制了能够应用AI的场合。训练一个先进的AI模型可能需要数万张高性能GPU,耗费巨大的电力和冷却资源,这使得许多企业和机构难以承担高昂的成本。而在运行AI模型时也需要强大的硬件支持,普通设备难以满足需求,导致AI的应用场景受限于资源充足的大型数据中心或高端设备。这就让中小型企业肩头平白增加了一重AI的使用成本,即便有好的AI模型也没有条件使用,由此也就限制了AI的普及和应用范围。 更进一步而言,AI不仅近期不通用,还在远期造成了人工智能变“垃圾”的问题。当前各大产业、厂商、机构,都在尝试解决大语言模型能力不够通用的问题。但其解决方法往往是堆积更多的算力、数据。殊不知,单纯依赖算力和数据的堆叠无法根本解决大语言模型通用性问题。 一方面,大语言模型训练存在边际效用递减规律,微软2024年报告显示,千亿参数后每10%算力投入仅带来1.8%性能提升。指数级资源消耗与线性效果增长形成严重失衡,微软甚至号称要建设核电站去解决大语言模型的能耗问题。 另一方面,训练AI消耗的天量数据已经超过了人工审核的极限,而其中的无效信息反而会稀释模型的能力。如当前网上已经爆出,有大量某大语言模型的用户抱怨,AI在关于历史事实等问题生成的回答中,混入了大量的网络段子。 由此一来,如今继续沿着老路走下去的AI,不但无法解决模型通用性的问题,甚而还会让输出的结果真假参半,在长期造成重大损失。其底层技术瓶颈与产业适配性错位将导致“智能垃圾”的指数级堆积。当前大语言模型训练消耗的天量算力与产业实际需求形成巨大落差,算法“黑箱”导致结果无法查验真伪,这种不可解释性在关键领域可能引发系统性风险。 然而,之所以AI陷入了从近期不通用到远期智能垃圾的“一条路走到黑”,根本原因在于,无论是AI的创造者还是使用者,都搞错了AI的定位。正如查理·芒格所言:“手拿铁锤的人,看什么都像钉子”。AI就像企业手中的铁锤,早期由于普遍的AI迷信,铁锤在手的AI企业获得大量资本的青睐,仿佛这把锤子可以轻松在任何产业领域找到钉子,并且砸完之后就会产生商业价值。但拿着铁锤找钉子无疑是本末倒置,企业完全被束缚在手中的铁锤中。事实上,单一的一套算法必然是难以“通吃”的。 当行业将大语言模型视为“万能钥匙”,面对现实世界的各类问题,自然也就只会抓“普遍性”,而忽视其“特殊性”,最终衍生出真假参半的智能垃圾。 要打破这一循环,需等待技术范式的革命性创新,而非在现有路径上继续内卷。在此之前,AI的垃圾化或将成为技术进化必须吞咽的苦果。