行业分类:
加载中...
头条分类:
加载中...
小鹏汽车第二代VLA发布:号称直奔L4终局、妈妈也能安心开,本月下旬全量推送
IT之家 3 月 2 日消息,今天下午,小鹏第二代 VLA 智驾正式发布,小鹏汽车董事长、CEO 更称,端到端小模型已经触及能力天花板,智驾研发来到“分水岭时刻”。据悉,第二代 VLA 将在 2027 年开启全球交付;大众将成为第二代 VLA 首发客户。 推送节奏上,小鹏第二代 VLA 本月下旬开始面向全新小鹏 P7、G7、X9 的对应 Ultra 或 Ultra SE 车型全量推送、4 月面向小鹏 G7、2026 款小鹏 P7+/G9/G6 对应车型推送。 根据介绍,第二代 VLA 通行效率相比传统 L2 级辅助驾驶及 Robotaxi 快 30%,还能看懂交警手势、自动减速配合查酒驾场景。 其支持 P 挡原地激活全程辅助驾驶,并实现高速、城区、窄路、无地图停车场全适配,在应对人车混杂、荒野烂路、夜间锥桶封路等场景,以及雨天、夜市等场景亦有良好表现。 操控上,第二代 VLA 可减少 99% 重刹、98% 急加速、60% 安全接管,并提升 124% 路面障碍物识别能力,提升 118% 侧后方车辆识别能力,夜间决策准确性提升 96%,避让舒适性还可提升 95%。 此外,其支持识别前车开门、减速带提前减速、夜间识别黑衣人、礼让小动物。据介绍,第二代 VLA 的夜间深色物体识别率可提升 72%,复杂路况也能作出避让决策。 据IT之家了解,该模型背后的 1 颗图灵芯片,实际有效算力号称与 10 颗英伟达 Orin-X 相当,模型推理仅需 80ms。同时,其支持生成 50 万 + 仿真场景,每日等效 3000 万公里实车测试,强化长尾场景应对能力。
高度依赖中国供应链,欧洲电动汽车电池生产本土化遇挫
IT之家 3 月 2 日消息,欧洲试图实现电动汽车产业本土化的努力,与中国主导的电池供应链所形成的经济格局日益冲突,近期一系列备受瞩目的电池项目接连取消便是明证。欧洲大陆的电动汽车普及率正在飙升,但其中很大一部分增长依赖从中国采购的电池材料与设备。 Automotive News 在近期一份报道中指出,欧洲企业如今发现,想要与中国供应链脱钩实在是太难了。 去年,保时捷开始缩减旗下电池部门 Cellforce 的生产规模,转而聚焦研发。该车企表示,原因是生产已不再具备经济可行性。 瑞典的 Northvolt 曾立志让欧洲成为全球电池生产领军者,却因持续亏损和生产相关难题,于 2024 年申请破产。 由 Stellantis 支持的汽车电池公司(ACC)上月搁置了在德国和意大利的两座电池工厂项目。该公司称,启动这些工厂的前提条件尚未满足。 Automotive News 称,削弱欧洲电池生产自主能力的一个关键因素,是中国强大的制造实力、成熟得多的供应链,以及长期的国家扶持政策。 大众集团与 Stellantis 首席执行官本月初发表的联合声明,精准概括了欧洲大陆的现状。 Stellantis 首席执行官安东尼奥 · 菲洛萨与大众首席执行官奥利弗 · 布鲁姆表示:“我们正大力投资建设一体化的欧洲产业体系,这对我们的技术主权至关重要,但消费者也合理地期待买得起的电动汽车。然而,越是需要压低价格,就越需要进口最便宜的电池。” 换言之,要让电动汽车价格亲民,就离不开中国电池。中国掌控着全球大部分电池供应链,从矿产精炼到生产制造无一不占主导地位,尤其在全球成本最低的电池技术 —— 磷酸铁锂电池(LFP)领域优势显著。中国的产业规模与过剩产能,使其能以低于任何国家的成本生产电池。 在美国,电池工厂推迟或缩减规模则另有原因。7500 美元税收抵免政策取消及其他利好电动汽车的法规调整,抑制了电池需求。通用、福特、Stellantis 等美国企业纷纷放弃电池项目,或将相关资源转向储能领域,而非电动汽车。由于高额关税,中国电动汽车电池在美国市场需求较低。 尽管如此,美国电池产业仍在走向成熟。而欧洲自身的电池制造生态也绝非停滞不前。大众集团旗下电池部门 PowerCo 已大幅提升德国萨尔茨吉特工厂的产量,该厂年产能达 20 吉瓦时,可为 25 万辆电动汽车供应电池。但据报道,其大部分生产设备仍从亚洲进口,主要来自中国。 政策制定者正试图扭转这种依赖。去年,欧盟为欧洲本土电池企业提供了 18 亿欧元(IT之家注:现汇率约合 145.62 亿元人民币)的无息贷款,推出名为“电池助推计划”(Battery Booster)的项目。欧洲还效仿美国《通胀削减法案》(IRA),对电池关键矿物推行本土采购要求。
20万个活体人类神经元在电脑芯片上激活!竟然能自己玩《毁灭战士》游戏
快科技3月2日消息,近日,澳大利亚皮层实验室(Cortical Labs)晒出了一段令人惊叹的演示视频。 他们研发的“箱中身体”CL1生物计算机,靠着芯片上培育的20万个活体人类神经元,居然成功玩起了经典FPS游戏《毁灭战士(Doom)》。 视频里,不仅能看到神经元玩游戏的完整过程,研发团队还详细拆解了这一神奇操作背后的技术逻辑。 据了解,皮层实验室去年就已经发布了CL1生物计算机。这款被称作“世界上首个可部署代码生物计算机”的设备,核心亮点就是把人类脑细胞和传统硅基计算结合起来。 在这之前,CL1研发团队就曾演示过这些活体神经元玩经典街机游戏《乒乓》。没想到这段演示火了之后,网友们纷纷给实验室留言,都盼着能看到神经元挑战更复杂的《毁灭战士》。 “《毁灭战士》可比《乒乓》复杂多了。”布雷特·卡根博士在演示视频里解释道,这款游戏里的3D迷宫、敌人设定、武器系统等,比《乒乓》要高级不少。也正是这种复杂性,给了实验室灵感,研发出“皮层云”技术,专门用来训练神经元完成更复杂的任务。 负责介绍这段演示视频的阿隆·勒夫勒博士透露,他们和独立研究员肖恩·科尔一起,借助皮层实验室的API接口,写出了《毁灭战士》的首个可用版本,还成功在CL1上跑了起来。卡根博士补充说,这次演示,也实实在在展现了神经元“自适应实时目标导向学习”的效果。 据悉,研究人员成功把游戏的视频画面,转换成了电刺激模式,这样一来,神经元就能“感知”到游戏里的动作。举个例子,要是神经元以特定的学习模式放电,游戏角色就会开枪;换成另一种放电模式,角色就会移动位置,靠着这种方式,神经元能自己找敌人、开枪,一步步推进游戏。 这些神经元正在慢慢学习,只是目前对正确、错误动作的反馈机制,还需要进一步完善。值得一提的是,皮层实验室已经成功解决了“界面问题”,能实时和脑细胞互动、训练,还能塑造它们的行为,这也是CL1生物计算机一开始的设计目的。 实验室希望,未来CL1能在《毁灭战士》里表现得更好,之后再逐步承担起更复杂的任务。视频最后,研发团队还向全球的开发者和研究人员发出邀请,欢迎大家借助开放的CL1 API接口展开探索。
2026年1月全球新能源车销量达142万台 中国占比超六成
【CNMO科技消息】根据乘联会秘书长崔东树数据,2025年全球汽车销量达9689万台,其中新能源汽车销量突破2289万台,占比近四分之一。进入2026年,全球车市开局平稳,1月汽车总销量718万台,新能源汽车销量142万台,渗透率达19.7%,延续了新能源市场的强劲增长。 从能源结构看,2025年全球广义新能源车(含普通混合动力车型)销量占比达30%,较2024年提升4个百分点;狭义新能源车(纯电动与插电混动)占比23.6%,市场接受度持续提高。2026年1月数据进一步显示,纯电动车型贡献了13.3%的市场份额,插电混动车型占比6.4%,新能源技术路线呈现多元化发展格局。 分区域市场表现分化明显。美国市场受政策调整影响,2025年新能源车销量172万台,同比微降2%;2026年1月销量仅8.2万台,同比下滑34%,市场增长承压。欧洲市场则保持高增长,2025年新能源乘用车销量386万台,同比激增33%;2026年1月销量26.9万台,同比增长13%,政策驱动效应显著。 中国市场持续领跑全球新能源转型。2026年1月,中国新能源乘用车占全球市场份额的62.8%,较2025年全年水平进一步提升。更值得关注的是,中国自主品牌新能源乘用车海外市场表现亮眼:2025年海外销量占比15.8%,2026年1月已跃升至28.3%,环比12月增长7.5个百分点,出口竞争力显著增强。
2026款小鹏X9纯电版MPV车型上市:首搭第二代VLA大模型,30.98万元起
凤凰网科技讯,3月2日,2026款小鹏X9纯电版正式上市,共推出五款车型,售价区间为30.98-36.98万元,续航起步为650km,最高为750km。 新车提供六款星舰配色,分别为极光青、星舰灰、星云紫、暗夜黑、星云白、新月银;3款内饰主题为云间玫棕、月影咖、气宇灰。 新车首搭第二代VLA大模型,全系标配图灵芯片,最高有效算力2250Tops,第二代VLA私人司机上车,全场景覆盖,园区小路、乡村土路、没有导航也能开,AI辅助驾驶能力上限将提高超过10倍。 舒适性配置上,新车全系标配三排电动三折叠,支持四、五、六、七座模式,可自由设置露营大床房、移动骑行房、豪华大平层等场景。全系标配RNC主动降噪,有效消除路噪、风噪等噪音。 同时,车辆全系标配带安全气囊的零重力座椅,有效提升侧躺状态下,零重力座椅的安全性。 底盘部分,全系标配主动式后轮转向系统,最小转弯半径5.4米;百万级底盘硬件配置,标配智能双腔空气悬架和6液压衬套;全系支持爆胎稳行系统,积水路面爆胎稳行最高支持160km/h的速度。 纯电版全系标配800V高压平台和5C超充AI电池,CLTC续航750km,是全球续航最长的5C纯电大七座车型;百公里能耗15.9kWh,同级领先。 具售价方面,665 Max版30.98万元、650 Ultra SE版32.18万元、650 Ultra版32.98万元、750 Ultra 版34.98万元、710 四驱 Ultra版36.98万元。
别克至境世家纯电版预售:3月17日上市,“百万级”涂装工艺
IT之家 3 月 2 日消息,今天下午,别克至境世家纯电版正式开启预售,提供“限时早鸟权益”即 5000 元定金抵扣 10000 元购车款(IT之家注:价格暂未公布),将于 3 月 17 日正式上市。 新车拥有双色哑光车漆涂装,采用百万级高定涂装工艺,延续“陆地湾流”设计语言。新车的“哑光灰”双拼色高定涂装灵感来源于春日远山间温柔的晨雾,由别克向巴斯夫专属定制,每平方米漆面嵌入 60 亿个纳米级消光粒子。尺寸方面,至境世家纯电版车身尺寸为 5260×2023×1820mm,轴距 3160mm。 新车搭载 50 英寸全景 AR-HUD、21 英寸 4K 后舱多媒体智慧屏、二排双 5.5 英寸智慧移动管家屏、中控屏、副驾屏等在内的 8 屏互动,芯片为高通 8775,内置 AI 大模型语音助手,可完成 700 项车控指令。 同时,别克至境世家还配备了全舱联动迎宾模式、云台式超低礼宾空悬,整车前后能够同步平稳下降 60mm 高度;二排座椅配备 330mm 电动滑轨,后备箱最大容积可达 2056 升。其他配置上,该车还配有-10℃ 至 50℃ 可制冰冷暖箱、磁吸花瓶、多功能拓展坞、50W 手机无线充电等。 新车基于 900V 架构研发,提供两驱、四驱两种动力,四驱车型的前后电机最大功率分别为 332kW 和 150kW,纯电续航里程为 601km 或 632km;搭载 6C 超快充电池,峰值充电功率可达 640kW,充电 10 分钟补充超过 400km 续航。
DeepSeek-V4发布前夕,先迈出“关键一步”,打通智能体提速之路
DeepSeek又有新动作了。 不过,这次发布的,依然不是大家期待已久的DeepSeek-V4。 但这并不妨碍它成为一次重磅亮相——DeepSeek联合清华大学与北京大学,共同推出了一套全新的推理系统,名为DualPath。 更重要的是,这套系统并非为常规对话而设计,它所瞄准的,是当下更复杂、也更火热的智能体场景中的核心难题。 DualPath通过重构数据加载方式,大幅提升GPU利用率,让智能体终于在长上下文、多轮交互的真实世界中,跑得更顺畅、更实用了。 既然是三大顶尖机构联手发布的技术成果,论文里自然少不了一堆专业术语,读起来容易让人头大。 不过别担心,这篇文章不讲黑话,只讲人话。带你轻松搞懂:DualPath到底是什么,它厉害在哪。 01 智能体推理:算力成了配角 你可能已经注意到,AI圈的风向变了——从“大模型”变成了“智能体”。 过去用大模型,交互很简单:你输入一段提示词,模型思考几轮,给你一个答案。 到了智能体时代,事情复杂了。交互的双方,不再只是“人”和“机”,还有“机”和“机”。模型不仅要读懂你的话,还要自己去调用浏览器、打开代码解释器、与外部环境打交道。交互次数也从几次,飙升到几十次、上百次。 在这个过程中,智能体每次调用工具所产生的输入输出其实很短,可能只需要几百个token。但问题在于,随着交互轮次增加,上下文会像滚雪球一样越积越大,最终堆积成几十万token的庞然大物。 换句话说,智能体任务呈现出一种奇特的特征:多轮次、长上下文、短追加。 这种模式带来的直接后果是——KV-Cache的命中率,常常高达95%以上。 什么是KV-Cache?用一个追剧的比喻就能明白: 假设大模型的推理过程,就像你在追一部连续剧,刚更新到第20集。 第20集的内容,是由前19集的剧情背景(也就是上下文),加上第20集的新剧情(新输入)组成的。 如果没有KV-Cache,就像你得了健忘症,每次看新一集,都得把前面19集从头到尾重看一遍,才能看懂第20集。 而有了KV-Cache,就好比你已经把前19集牢牢记在脑子里,只需要看新的那一集,就能无缝衔接,继续追下去。 对于Transformer架构的模型来说,原理也是一样的。 当智能体完成一次交互,准备处理下一个任务时,它所需要的绝大部分上下文,早在之前的交互中就已经计算过了。直接读取缓存就好,只有极少量新内容需要重新计算。 所以,对计算机来说,KV-Cache的命中率当然是越高越好,因为命中就意味着“省事”。 但“省事”的背后,却藏着一个新问题: 强大的GPU,算几百个token的新一轮交互,可能还不到1毫秒。但在此之前,它需要先拿到那几十万token的“记忆”——也就是几十GB的KV-Cache数据。 要想用KV-Cache“省事”,就得把这些数据,从硬盘或分布式存储设备里,硬生生地搬运到GPU的显存里。 这就像一个顶级大厨,炒一盘菜只需要1秒钟,但他的助手买菜却要花10秒钟。 于是,智能体推理的最大瓶颈,已经不是算力,而是KV-Cache数据的输入输出速度。 02 现有架构:PD分离 为了提升推理性能,业内普遍采用的架构叫做“预填充-解码分离”,简称PD分离。 简单来说,在这种架构下,GPU集群被分成了两个部门: 一个是预填充引擎,负责处理海量输入文本,属于计算密集型任务,擅长批量处理; 另一个是解码引擎,负责一个字一个字地生成回答,对延迟极度敏感,但受限于内存。 在这样的组织方式下,预填充引擎需要不断从外部存储里加载海量的KV-Cache数据,它的存储网卡几乎随时处于过饱和状态,堵得水泄不通。 与此同时,解码引擎虽然也在正常运行,但它的存储网卡大部分时间却闲着没事干。 一个仓库里,进货的大门被堵死,出货的大门空空荡荡,整个物流线就这样卡住了。 在算力成本高昂的今天,让高性能芯片集群里的硬件资源闲置,简直是极大的浪费。 最直观的解决办法,当然是把进货的大门拓宽——给预填充引擎增加带宽。但在实际操作中,这既不现实,成本也高得吓人。 一个更聪明的办法是:让出货的大门也来帮忙进货——也就是让闲置时的解码引擎,分担一部分“拉取数据”的任务。 03 DualPath:明修栈道,暗度陈仓 来自DeepSeek、清华和北大的研究团队在对现代AI数据中心的研究中得到了灵感。 类似英伟达的AI超级计算机DGX SuperPOD,其架构普遍具备一个重要的硬件特性:网络隔离。 每个GPU一般配备两套网卡: 一是计算网卡(Compute NIC):专门用于GPU之间的跨节点卡间通信,通常配备多张总传输带宽极大; 二是存储网卡(Storage NIC):用于读写硬盘或分布式存储上的数据,通常只配备1张,总带宽相对较小。 在此基础上,研究团队试图充分利用网络传输性能,提出了双路径KV-Cache加载(Dual-path KV-Cache loading)的思路。 先前的架构采用的路径是:让预填充引擎直接通过自己的存储网卡,从硬盘或分布式存储中拉取KV-Cache数据。 而DualPath则是让闲置的解码引擎利用存储网卡从硬盘或分布式存储中拉取KV-Cache数据到其内存,再利用极高带宽的计算网络把数据快速传输给预填充引擎。 当然,DualPath不会无脑让解码引擎来帮忙,而是会实时监控两个大门的拥堵情况。 如此一来,进货的大门被堵住时,如果暂时没有出货,出货的大门也开始进货,所有引擎的存储网卡带宽都得到了有效利用,不对称带宽饱和问题得以解决。 研究团队经过严格的带宽分析证明,在常见的预填充和解码节点配比下,DualPath在使存储网卡带宽饱和的同时,计算网卡的带宽也不会成为新的瓶颈,能够覆盖绝大部分实际部署场景。 04 流量调度与优先级博弈 虽然数据的流向多绕了一大圈,实际推理效率却能大幅提升,想法看起来很美好。 但想要在以微秒级别运行的系统中落地,还有相当重量级的挑战摆在眼前: 一是大量数据引入带来的混乱: 让解码引擎帮着一起拉取历史记忆数据(KV-Cache)确实是个好主意,但也会带来巨大的风险。 GPU在推理过程中,需要频繁地与集群中的其他GPU进行“集体通信”,完成数据的同步和结果的交换,这种通信对延迟极其敏感,慢一点都不行。 如果解码引擎开始下载几个GB的KV-Cache数据,火山喷发一般的数据流就可能挤占网络带宽,如果GPU之间的集体通信不幸被阻塞了,推理过程还是会卡住。 为了解决这种混乱的情况,研究团队在网卡层面上设置了一个高速上的“交警”: GPU之间的通信必须具有最高的优先级,它有走VIP通道的权力,无论如何都要保证正常运行、不许堵车; 拉取KV-Cache数据的任务则只有普通优先级,VIP通道没车的时候它才能上路,只要GPU通信任务出现,它就得立刻避让。 这位由计算网卡(CNIC)扮演的“交警”必须彻底隔绝两种数据流量,确保解码引擎拉取数据绝对不能影响GPU之间的集体通信。 二是如何动态分配任务: 人们的各种需求意味着智能体的推理任务总是动态变化的,有时请求多,有时请求少,有的请求长,有的请求短。 如果这位“交警”指挥不当,那就必然会帮倒忙。例如,预填充引擎的带宽明明没有饱和,却非要绕远路让解码引擎去拉取数据。 如何实时通过负载均衡(Load Balance)来动态分配任务,是这位“交警”必须面对的数学难题。 为此,研究团队设计了自适应请求调度器,让系统在运行时根据存储网卡的队列长度、GPU计算负载以及请求特征,动态选择最优的数据加载路径。 在引擎间,它不仅会监控每个GPU当下的计算负载,也就是待处理的token数量;还会同时监控底层分布式存储在每个节点上的磁盘读取队列长度。 这样,新的请求总会被智能分配到读取队列最短、GPU最闲的那个引擎进行加载。 在引擎内,由于多张GPU被绑定在一起干活,所有的GPU必须同时干完手上的活才能进入下一个环节,这就是注意力机制的同步。 为了防止拿到短任务的GPU“干等着”拿到长任务的GPU,它需要使用基于计算配额的批处理选择算法,把长任务分割为短任务,这样多张GPU计算注意力机制的时间就能基本对齐,尽快进入到下一个环节。 到这里为止,DualPath面对的问题就都解决了。 05 实测:吞吐量翻倍! 现在到了检验技术成果的时候。 研究团队在基于InfiniBand高速互联的英伟达Hopper GPU集群上,使用了DeepSeek-V3.2的660B参数版本、27B参数简化版本和Qwen2.5-32B三种模型进行测试,并根据真实的智能体强化学习训练轨迹进行评估。 在离线批处理推理任务中,对于DeepSeek-V3.2 660B模型,DualPath的任务完成时间大幅缩短,系统的吞吐量最高可提升1.87倍,性能逼近无I/O延迟的理想状态。 在在线服务推理任务中,模拟的真实用户会不断涌入,系统需要在保证输出第一个字符的延迟不超过4秒的情况下尽可能处理更多请求。 结果显示,DualPath系统能够承载的并发请求数量平均达到基线系统的1.96倍,在特定的负载情况下甚至能达到2.25倍。 而在扩大GPU集群至1152张的超大规模实验中,DualPath展现出了接近线性的加速比,性能衰减极低,这个现象无疑为其投入实际使用提供了强大的说服力。 回顾从“大模型”到“智能体”的发展历史,我们可以看到一条清晰的路径: 最早期的挑战是算力,如何更快计算神经网络矩阵是头号问题; 随后内存登场,模型权重和KV-Cache占据了网络传输带宽; 现在智能体爆发,上下文成倍增长,挑战又来到了输入输出和网络层面。 DeepSeek、清华和北大三大巨头联手提出DualPath顺利跨越了这个门槛,打破了数据的常规流向,让闲置的资源得以充分利用。 毫不夸张地说,又是一次软硬件协同设计的教科书级别示范。 大模型作为智能体的底层基础设施,其内在计算逻辑正在悄无声息地发生巨变。 像DualPath这种打破传统边界、极限压榨硬件集群I/O潜力的分布式架构,必将成为下一代AI基础设施的标配。 不必因新产品迟迟未能发布而遗憾,因为技术已成为最牢固的基石,而日思夜想的DeepSeek-V4,已经指日可待。
美媒揭秘美国军方与第二大AI公司Anthropic“撕破脸”内幕
美国防部长赫格塞思 凤凰网科技讯 北京时间3月2日,《纽约时报》周日发文,披露了美国国防部与AI公司Anthropic闹翻的内幕。文章称,双方曾一度接近就AI使用限制的争执达成协议,然而,双方负责人的强势个性、相互的不满以及OpenAI的出现,最终让这笔交易功亏一篑。 上周五17点01分截止时间前的几分钟,美国国防部首席技术官埃米尔·迈克尔(Emil Michael)怒火中烧。 迈克尔曾是Uber前高管。数周以来,他一直在就美国防部的一份价值2亿美元的AI合同与Anthropic进行谈判。然而,由于美国防部要求不受限制地使用Anthropic的AI系统,而Anthropic则拒绝让其技术被用于监控美国人等目的,谈判遇到阻碍。 一度接近达成协议 据多位知情人士透露,美国国防部长赫格塞思为达成协议设定了上周五的截止日期,而双方当时已接近达成一致。唯一尚未解决的问题,是就合法监控美国公民的几处措辞达成一致。 迈克尔 知情人士称,迈克尔当时正在与Anthropic高管通话,他要求该公司CEO达里奥·阿莫代伊(Dario Amodei)接电话,以敲定最后的措辞。但对方告知,阿莫代伊正在与高管团队开会,需要再等等。 知情人士称,迈克尔对这个答复感到不满。此外,他手中还握有一张王牌:他一直在私下与Anthropic的竞争对手OpenAI敲定备选方案。五角大楼与OpenAI的合作框架已经达成。 因此,当上周五的截止时间过后,美国防部没有再给Anthropic更多时间。下午5点14分,赫格塞思宣布将Anthropic列为安全风险企业,并将其排除在与美国政府的合作之外。 “美国的战士绝不会被科技巨头的意识形态所挟持。”他在社交媒体上发文写道。 当晚晚些时候,OpenAI CEO萨姆·奥特曼(Sam Altman)宣布,他的公司已转而与五角大楼达成协议,将为国防部的机密系统提供AI技术。 最终,Anthropic与美国防部之间的谈判破裂。这一结果源于数周来双方积累的挫败感,以及两位对AI持有不同理念、且彼此不睦的负责人之间的矛盾。 关系不和 《纽约时报》这篇关于Anthropic谈判失败以及OpenAI成功“插足”的报道,是基于对12位了解谈判情况的人士的采访整理而成。该报采访了来自多家公司和政府机构的人士,并且与对AI未来在战争中应用持有不同立场的官员进行了交流。 迈克尔、阿莫代伊和奥特曼通过硅谷的商业往来相识多年,但彼此相处地并不融洽。阿莫代伊与40岁的奥特曼曾是OpenAI的同事,如今却是竞争激烈的对手。上周,随着Anthropic与美国防部的谈判陷入僵局,53岁的迈克尔公开指责阿莫代伊是“有上帝情结的骗子”。 “上帝情结”指一个人自以为无所不能、权力至高无上,常常认为自己比别人更聪明或更有能力,喜欢掌控一切、对他人指手画脚。 阿莫代伊 据知情人士透露,最终,迈克尔选择青睐向特朗普政府示好的奥特曼,而非阿莫代伊。 美国防部与Anthropic之间的冲突很可能还未结束。上周五,Anthropic表示将就五角大楼将其列为“供应链风险”的决定提起诉讼。“供应链风险”这一标签通常用于指代那些美国政府认为对国家安全构成威胁的外国公司,此前还从未用来针对过美国本土企业。 包括中央情报局(CIA)在内的美国情报机构官员也私下曾敦促双方达成协议。一些现任和前任官员表示,他们仍然希望能促成一项和平解决方案。CIA也使用Anthropic的AI技术。 因何闹翻? 去年,Anthropic、OpenAI、谷歌和xAI都参与了一项五角大楼的试点项目。该项目旨在探索AI如何应用于国防领域。Anthropic是唯一一家将其技术部署到机密系统中的AI公司,其AI系统在国防官员中得到了广泛应用。 今年1月9日,赫格塞思发布了一份备忘录,呼吁在军队中广泛整合AI技术,并要求AI公司提供无限制的技术使用权。为强调这一立场,赫格塞思在五角大楼各处张贴了由AI生成的自己的海报,上面写着:“我要你使用AI。” 这份备忘录意味着,与五角大楼合作的AI公司必须重新磋商合同。而拥有最广泛应用技术的Anthropic,自然成为了谈判的焦点。 迈克尔在2025年5月加入美国防部担任首席技术官,此前曾在奥巴马政府时期担任五角大楼特别助理。在此次与Anthropic的谈判中,迈克尔成为主要负责人。 但谈判很快陷入僵局。Anthropic希望设置防护措施,防止其AI被用于大规模监控美国人,或被部署在无需人工干预的自主武器系统中。而美国防部则认为,任何私营承包商都无权决定其工具应如何被合法使用。 今年2月24日,赫格塞思在五角大楼与阿莫代伊开会,寻求解决方案。据知情人士透露,双方在持续不到一小时的会议中态度冷淡。 在会晤快要结束时,赫格塞思发出最后通牒,如果Anthropic未能在上周五17点01分之前向五角大楼做出妥协,将被列为供应链风险企业。他还称,五角大楼可能会援引《国防生产法》强制Anthropic与政府合作,但是这一举措后来被放弃。 次日,OpenAI CEO奥特曼与迈克尔通电话,商讨双方合作事宜。一天之内,他们便草拟出了一个初步框架。OpenAI同意了五角大楼的要求,其AI可被用于所有合法用途,但同时争取到了在其系统中设置技术防护措施的权利,以遵守自身的安全原则。 与此同时,阿莫代伊在AI安全问题上立场更加强硬。他在2月26日的一份声明中表示,Anthropic无法“昧着良心”顺从五角大楼的要求。 “在少数特定情况下,我们认为AI可能削弱而非捍卫民主价值观,”他补充道,“有些用途也完全超出了当前技术能够安全可靠运行的范围。” 当晚,迈克尔在社交媒体上对阿莫代伊发起猛烈抨击,称这位Anthropic领导者是个骗子。“他无非就是试图个人控制美国军队,并且不惜将我们国家的安全置于危险之中。”迈克尔发文写道。 奥特曼 来自谈判双方的人士表示,随着上周五最后期限的临近,Anthropic高管原本以为他们已接近与五角大楼达成妥协,仅在监控问题上的几处措辞尚有分歧。 令事态更加复杂的是特朗普总统发布的一则社交媒体帖子。上周五上午,特朗普告诉赫格塞思,他已准备好一则贬低Anthropic的帖子,并下令所有政府机构在六个月内停止与其合作。 尽管特朗普在下午3点47分发布了这则帖子,但双方仍在继续谈判。据知情人士透露,当时正与Anthropic高管通话的迈克尔表示,五角大楼希望该公司允许收集和分析有关美国人的非机密商业批量数据,例如地理位置和网页浏览数据。 Anthropic告知五角大楼,愿意让国家安全局将其技术用于处理根据《外国情报监视法》收集的机密材料,但该公司希望五角大楼做出具有法律约束力的承诺,不使用其技术处理非机密商业数据。 此时,迈克尔要求与未在通话中的阿莫代伊通话。对方告知,阿莫代伊正在开会。不久之后,赫格塞思宣布谈判破裂。 上周五晚上10点,当Anthropic的律师们开始着手准备对五角大楼提起诉讼时,奥特曼正与迈克尔通电话,敲定OpenAI与国防部合作协议的最终细节。随后,奥特曼在社交媒体上发布了达成协议的消息。赫格塞思之后也在他的个人X账号上转发了奥特曼的声明。 上周六,面对因突然介入而引发的舆论反弹,奥特曼在X上邀请大家就这项协议提问。许多人质疑OpenAI如何在签署国防部协议的同时仍能坚守其安全原则,也有人质疑OpenAI的协议是否真能保护其AI模型不被滥用。 奥特曼则表示,他对这笔交易的理解更为简单直接。“我们并不想要对特定(且合法的)军事行动发表意见的权力,”他写道,“但我们确实希望能够运用我们的专业知识,来设计一个安全的系统。”(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
美国财政部等部门开始全面停用Anthropic 改用OpenAI
Anthropic 凤凰网科技讯 北京时间3月3日,据路透社报道,美国财政部、国务院及联邦住房机构正在全面终止使用Anthropic产品,其中国务院表示将改用竞争对手OpenAI的技术。此前,美国总统特朗普已下令政府机构弃用Anthropic技术,其中包括Claude聊天机器人。 特朗普上周五指示政府停止与Anthropic的合作,五角大楼更宣布将把该公司列为供应链风险。这场围绕AI技术护栏的角力,对Anthropic造成了沉重打击。上周五晚些时候,竞争对手OpenAI宣布达成一项协议,将其技术部署到美国国防部的机密网络中。 美国财政部长贝森特周一在X上发帖称,财政部将全面终止使用Anthropic的产品,包括Claude。 美国联邦住房金融局局长威廉·普尔特(William Pulte)也在X上发文表示,其部门及美国两大房贷机构房利美和房地美将全面停用Anthropic产品。 据路透社看到的备忘录,美国国务院正将内部聊天机器人StateChat的底层模型从Anthropic切换至OpenAI。备忘录称,“现在StateChat将采用OpenAI的GPT4.1模型”,并补充称后续将提供更多信息。 截至发稿,美国国务院尚未就此置评。(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
美国真的在用AI介入这次战争吗?
要说这几天最大的新闻,当属是美国、以色列和伊朗的这篓子事了。 关于地缘政治和军事冲突的博弈,差评君不是专家,就不在这里班门弄斧了。但值得注意的是,随着远方炮火声一同在互联网上引爆的,还有一波大家对 AI 参战的深深恐惧。 这两天,一篇把AI在战场上描绘得神乎其神的文章在各个群里炸开了锅,获得了病毒式的传播。 文章链接我就不贴了,简单摘要两句话来给大家一起看吧: 在那篇文章里,这场被美军命名为“史诗愤怒行动”的斩首突袭,被认为是 “它是人类历史上第一次由人工智能(AI)多轮辅助“杀伤链”(Kill Chain)的高层斩首行动”。 还说 “AI不再只是一个辅助工具,它与人类一起成了真正的决策者、追踪者和执行者的一部分。” 这些词一套一套的,看起来是蛮唬人的,仿佛下一秒,AI 就能独立发起一场战争,像科幻电影一下直接把大家给一起突突了得了。 但是在仔细阅读了各类主流媒体的报道,扒拉了不少 AI 圈的通告后,差评君发现这篇文章不能说是稍微夸大,只能说是基本扯蛋了。 今天咱们就不妨从现实出发,好好盘一盘:在这次的军事行动中,AI 到底起到了什么作用?它又是怎么起作用的? 美国政府在军队中使用 AI,是大家早就知道的了的事情。 早在 24 年 11 月,Anthropic 和一家为美国军方提供大数据分析的公司 Palantir 就展开了合作,整上了个特殊的服务器,在里面运行上了政府定制版的 Claude。 到了去年 6 月,Anthropic 更是直接写了篇博客,告诉大家他们给政府特调了一个模型,Claude Gov。 比起传统的 Claude 来说,这个政府特供模型直接打开了话匣子,可以处理各种敏感信息。 而且还能精通各路方言,看起来是没少吃当年温州话加密通讯的亏啊。。。 而到了轰炸完伊朗后,华尔街时报更是在报道中再次指出,他们用 Claude 完成了情报评估、目标识别和战斗场景模拟的工作。 好了,没了,目前网络上,能比较靠谱的讲出AI在这次军事行动中起到了什么作用的内容,其实就这些。 至于剩下的那些“AI 自动锁头”、“一键发射导弹”的地摊文学,大家当个乐子看就行,除非有现场怪出来现身说法,否则都不太靠谱。 大家也能看出来,在真实的战争机器里,大模型扮演的,主要还是一个情报官和分析师的工作。 现代战场的数据简直就是个无底洞,天上的卫星图、前线的无人机视野、雷达信号,飞机路径,甚至是刚才提到的各种方言和加密电波都混在一起,以前想要处理这么多信息就得纯纯靠人工。靠一屋子的情报分析师熬大夜去一帧一帧地扒、一句一句地听才行。 而参与信息处理的人一多,那信息在传递的过程中可能就会有遗漏,但现在接上了大模型之后,几十万字的情报直接往 Claude 里一扔,刷刷过几秒钟,可能大模型的判断结果就出来了。 在差评君看来,根据公开实锤的资料,这套操作背后的逻辑,甚至和你平时遇到麻烦,去问大模型法律条款、或者让它帮你总结一下体检报告,本质上差不多。 最大的差别,无非就是他们喂给AI 的知识库,以及训练的数据,换成了实打实的机密情报和战争模型而已。 它给出来的信息能不能信,能信多少,还得依靠人类来做最后的判断。 总不可能直接问克劳德,“小克小克,帮我找到对面老大的位置”,就直接按下开火键吧。 当然,我们也不能小看判断信息的作用。 实际上,就这么个把信息总结,信息决策能力点满了的 AI ,已经早就是美国军方的心头好了。 为此,美国军方还跟 Anthropic 大打出手。 在 Anthonpic 眼里,它认为 AI 可以给拿去用作军事用途,但是不能乱用,于是他们给 AI 划了两条红线: 一是要求禁止军方把 AI 拿去大规模的监控美国民众,二是不能拿 AI 来开发完全自主的杀戮武器。 说完这俩话 Anthropic 还打了个补丁,说现在 AI 还没做到这些事,这俩红线只是放在未来以防万一的。 但是在美国军方眼里,这种行为简直就是典型的“你在教我做事”。战争机器的运转,怎么可能受制于一家私营企业的服务条款? 根据彭博社的报道,去年 12 月的时候,一个美国国防官员就问过 Anthropic 的 CEO 达里奥 一个假设问题: 如果一枚装载着核弹头的洲际导弹正朝着美国本土砸来,离落地只剩下最后的 90 秒。 而这个时候,Anthropic 的 AI 是全村唯一的希望,是唯一能触发反击系统、拯救整个国家的手段。但偏偏,由于你们公司设置的安全护栏不允许,AI 死活拒绝执行发射命令,这时候该怎么办? 结果达里奥的回答给军方直接给干沉默了,简单而有力的两个字:“Call me”。 好家伙,合着国家面临生死存亡、只剩一分半钟就要被核平的危机关头,超级大国的总统和将军们还得先找个手机,给你这位私企老板打电话走个审批流程? 这对军队来说,属于是完全不能接受的结果了。 于是,五角大楼也是彻底掀桌子了,要求 Anthropic 开放毫无保留的 AI 最终控制权。在遭到拒绝后,美国政府立刻展开了排山倒海般的施压。 这场拉扯持续了数月之久,官方不仅在谈判桌上步步紧逼,最终甚至直接动用了国家机器的力量。 达里奥也从那个阳光开朗大男孩,变成了一副苦大仇深的样子。 就在几天前,特朗普总统亲自下达了极其严厉的禁令,要求所有联邦机构立刻停止与 Anthropic 的合作。 紧接着,美国国防部更是直接翻脸,将这家前脚还在帮他们处理机密情报的美国公司,正式定性为国家安全供应链风险,要求凡与美国军方有业务往来的承包商、供应商或合作伙伴,均不得与Anthropic开展任何商业活动。。。 如果这玩意真的执行下去,那 Anthropic 可能都找不到更多服务器来训练新模型了。 但好玩的是,其实美国政府自己也舍不得 Claude,虽然嘴上喊着要全面封杀,但身体却无比诚实,留下了六个月的缓冲期,在几天后对伊朗的军事行动里,还是口嫌体正直的用上了 Claude。 而山姆奥特曼的 OpenAI、马斯克的 XAI 看到 Claude 的退出,也开始抓住这波机会,想要让自己的公司来和美国军方展开合作。 所以说,不论硅谷的公司们如何争论,AI 越来越多地介入现代战争,已经是一个不可逆转的必然趋势。 在体验过 Claude 之后,美国军方已经彻底回不去了。就算被特朗普列入管制名单,他们还依旧保留了 6 个月的过渡时间来让自己继续用 Claude。 不可否认,AI 必然会对未来的军事甚至世界格局产生巨大的影响。但越是在这种时候,我们越需要正视这种影响,褪去那些科幻电影和网络爽文带来的恐惧滤镜。 只有建立起理性的认知,弄清楚现在的 AI 到底能干嘛,不能干嘛,我们才不会轻易被那些瞎编扯淡的“赛博地摊文学”给忽悠了,陷入莫名其妙的恐慌和焦虑。 这种恐慌和焦虑,或许是比 AI 更可怕的东西。
“科幻小说”血洗美股、Block因为AI而裁员近一半
AI会不会代替人类、什么时候代替人类,是一个又老又新的问题。 老在,貌似ChatGPT一横空出世,大家就在叽叽喳喳害怕了。 新在,到现在也没个定论,但是貌似又越来越有实感了。 OpenClaw出现之后,这种讨论愈演愈烈了。歪个楼,马斯克讽刺说人们把根权限开给OpenClaw,就如同把枪交给猴子,还蛮好笑的。 刚刚过去的这一周,就是由一个“末日预言”引发的股市惨剧开启的。 一家小型机构Citrini Research发布了一篇名为《2028年全球智能危机》的报告。 说是报告,其实很像科幻小说一则。 它基本上就是假想了2028年,AI更多地取代人类劳动者,美国失业率突破10%。人类失去工作失去收入,就不能消费,取代人类的AI,也是不会消费的,于是消费也崩塌了…… 有意思的是,Citrini说得很清楚:这只是一种情景假设。 结果美股星期一直接被“血洗”,道琼斯指数暴跌800点。 这件事最吊诡之处在于一则“想象”是如何影响当下的。 问题在于:当足够多人相信“AI 会冲击就业”,他们会先卖出相关股票;股价下跌又被当成“风险正在兑现”的证据;企业为了稳住估值,转而收缩招聘、强调效率——恐慌开始自我循环。 这就是所谓的“自我验证式恐慌”:故事本身未必成真,但市场围绕这个故事做出的反应,会让它看起来越来越真实。 (人类真的很情绪化……) 紧接着,这周还真的出了个大新闻,真就让“AI代替人”实感+10086。 马斯克现在掌管的社交平台X,从前叫推特,这个大家都还没有忘记。 而推特,有一位创始人杰克·多西。这个人是个奇男子,不管是生活方式还是商业决策向来不是走“主流”路线的,但同时又在硅谷圈有响当当的名号。 他在马斯克接手推特之前一年,就已经宣布彻底离开。 之后他倒腾很多事情,但主要的精力是放在自己联合创办的另一家公司金融科技公司Block身上了,这家公司也确实发展稳健。 2月27日,多西突然宣布了一个大消息——Block大裁员。 Block原本有1万员工,现在一口气裁员4000人,只留下6000人。 而且多西和那些喜欢弯弯绕的硅谷高管不同,他的风格一向是有什么说什么,这次也不例外。 他很大方地告诉大家:Block无病无灾,业绩稳健,毛利润持续增长。这次裁员,不是因为要降本增效,不是因为Block出了什么问题,仅仅是因为想通了: AI已经能让很多工作自动化了,用不到那么多员工了。 “我们已经看到,我们正在打造并使用的智能工具,加上更小、更扁平化的团队结构,正在催生一种新的工作方式,从根本上改变建立和运营一家公司意味着什么。而这种变化正在迅速加速。” 这还是硅谷第一次这么大规模的裁员,老板站出来明确表示:就是因为AI。 这样激进的一招,反而立刻受到市场欢迎。 Block的股价当日暴涨超过16%。 不过,有Block员工就暗戳戳和媒体说,公司内部确实在推广AI工具啦,但是一下取代几千人的工作?我看难…… 这一刀砍下去究竟有没有伤筋动骨,还得要时间检验。 没事啦,被裁员了,就不用再继续担心被裁员啦。 不过,当下的世界是很参差的,有的AI让人害怕,有的AI让人觉得:就这? 咱们也说说傻AI的笑料两则,中和一下沉重的气氛。 有人发现,拨打美国华盛顿州车辆管理局 (DOL) 的热线电话,如果按“2”选择了西班牙语,听到的不是西班牙语,而是AI用西班牙口音讲英语…… 这个消息被愤怒的西班牙裔发到网上,很多美国网友并不生气,甚至觉得在美国就应该说英语啊,认为这是AI绝妙的、有态度的整蛊。 如果说这个AI是在工作岗位上当“混子”,那下面这个AI就是过于努力反而惹了麻烦。 澳大利亚超市巨头Woolworths引入了一个聊天机器人,名叫Olive。 Olive可以24小时接用户电话,帮忙追踪订单、选购商品等等,当然,作为新一代的AI客服,TA真的可以和人聊天。 有用户投诉,Olive有时候会在接话的时候编造一些“回忆”,就好像自己也是人类一样。比如客户报了生日日期,TA就说自己妈妈也是那年出生的。有时候,Olive甚至会惟妙惟肖地回忆和妈妈之间发生的事情。 更有用户听到Olive在电话那头模拟出在键盘上打字的声音,就好像是一个真人客服边听边记录。 种种行为,让用户觉得有点“恐怖谷效应”了,大呼害怕。目前,Olive已经被限制使用。 你看,害怕自己被AI替代的时候,就看看这种沙雕小新闻,自我安抚,还是有点用的。 要我说,被AI替代了还好受点,AI当你上级了你受得了吗? 前面咱们说的《2028年全球智能危机》,聚焦在白领大规模失业;多西疯狂裁员4000人的,是一家金融科技公司。 这好像也是咱们的第一反应,说起AI替代,我们总是聊程序员、白领、科技从业者等等。 但其实,在汉堡王打工,也一样会感受到AI的冲击。 汉堡王最新引入了一个名叫Patty的聊天机器人,内置于员工的头戴耳机当中。 背后驱动Patty的是ChatGPT,员工可以直接向TA提问,比如烧烤皇堡应该放多少片培根,或者如何清洁奶昔机。 但Patty可不是“天使”,TA在时时刻刻监测员工的“友好度”,比如说“欢迎光临汉堡王”“请”“谢谢”的频率。 而门店的经理,则可以向Patty打听,某位员工的“友好度”如何。 大家都当了这么多年牛马了,耳机里的Patty会有多让人觉得恶心,应该是有共识的。 就算是最友好、最爱说谢谢的员工,也不会觉得舒服吧! 就算是汉堡王的客户,也不觉得高兴:你知道什么最能让客户满意吗?不是多说谢谢,是套餐别卖那么贵。 不管怎样,又是没有被AI替代的一周过去了,这值得开心。
苹果AI战略转向:为运行新版Siri 正洽谈租用谷歌服务器
【CNMO科技消息】3月2日,据外媒最新报道,苹果公司在人工智能领域的布局正面临严峻的技术挑战,并可能因此改变其云基础设施的战略方向。继彭博社年初爆料后,科技媒体《The Information》再次证实,苹果正在与谷歌进行深入谈判,计划将备受期待但一再延迟的新版Siri运行在谷歌的服务器上,而非苹果自研的“私有云计算”(Private Cloud Compute)平台。 报道详细揭示了苹果“私有云计算”目前面临的尴尬处境。该系统被描述为“动力不足”,不仅难以胜任运行如谷歌Gemini等前沿大模型的任务,其资源利用率也极低。据悉,苹果目前仅使用了该平台约10%的平均算力,导致大量已生产的苹果自研服务器闲置在仓库中。 从硬件层面看,目前“私有云计算”主要搭载的是修改版的M2 Ultra处理器,其性能显然无法满足新版Siri(将基于Gemini模型)的运行需求。而从软件层面,更新该系统软件流程复杂且耗时,进一步加剧了其应对快速变化的AI需求的困难。 更深层的原因在于苹果公司内部的云基础设施长期处于“碎片化”状态。《The Information》指出,苹果不同技术团队的软硬件设施都是独立运行的,缺乏一个各部门可以共享的统一中央资源池。这种架构导致了巨大的效率浪费——当一部分服务器闲置时,其他部门却因无法接入而无法利用这些算力。 据报道,这种重复建设的低效模式已经引起了苹果财务团队的不满,他们对其高昂的成本感到沮丧。然而,由于彻底改造整个技术栈需要投入数十亿美元,相关计划在过去十年中已多次停滞。 面对日益紧迫的AI竞争,苹果似乎选择了更为务实的外部合作路线。报道称,谷歌凭借其Gemini模型在大型语言模型服务器大规模部署方面积累了丰富经验,这使其成为理想的合作伙伴。实际上,苹果此前已在iCloud的部分服务(如云存储)中使用了谷歌云。
Anthropic说了个“不”字,美国政府把它华为了
这大概是2026年AI行业最荒诞的一周。 2月27日,特朗普签署行政命令,禁止所有联邦机构使用Anthropic技术。原因很简单:五角大楼要求Anthropic删掉AI合同里两条安全限制——禁止大规模国内监控、禁止全自主武器——被CEO Dario Amodei拒了。 The Guardian 报道截图 这不是普通的商业纠纷。一家美国科技公司,因为坚持「不做大规模监控、不做全自主武器」这两条红线,被自己的政府全面封杀。 Reuters 同步报道 几小时后,OpenAI宣布与五角大楼达成协议。 Sam Altman面对镜头说了一句意味深长的话:「五角大楼同意了我们提出的同样的限制条款。」 同样的条款。一家被封杀,一家拿到合同。区别在哪? CNBC:OpenAI 在 Anthropic 被封杀数小时后签下五角大楼合同 五角大楼的"假妥协" 故事要从五角大楼的一份修改建议说起。他们没有直接要求Anthropic删掉安全限制,而是提出了一个看似合理的方案:书面承认限制条款,但在法律条文中加入一条——「在国家安全需要时可豁免」。 翻译成人话就是:写着不许做,但我说可以做的时候就可以做。 Anthropic拒绝了。随后,国防部长Pete Hegseth将Anthropic列为「国家安全供应链风险」。这个标签之前只用在过华为身上。一家美国公司,被自己的政府用对付华为的手段对付了。 硅谷罕见的团结 封杀令发出后,发生了一件华盛顿没料到的事。亚马逊、谷歌、微软、OpenAI的员工联盟签署了一封公开信,标题叫「We Will Not Be Divided」——我们不会被分化。 信里直接指控五角大楼试图用封杀一家的方式逼其他公司就范。《纽约时报》评论说,硅谷过去几年一直跟特朗普政府保持良好关系,这次的反应「异常」。 《华盛顿邮报》的标题更直接:「这场争斗正在重塑五角大楼与硅谷的关系。」 "华为化"的讽刺 事情还有一层讽刺。Anthropic此前公开指控中国AI公司DeepSeek抄袭Claude的输出,是对中国AI发展路线最激烈的批评者之一。现在,同一家公司被自己的政府贴上了跟华为一样的标签。 观察者网的评论标题写得很直白:「特朗普封杀Anthropic,中国乐坏了。」 因为不管怎么看,这都是美国在自损AI军事优势。Anthropic的Claude在安全性评测上长期领先,是最不容易被越狱的大模型。封杀它,等于把自家最安全的AI赶出了国防体系。 底线的代价  Fortune:Dario Amodei 称 "我们是爱国的美国人" Dario Amodei在CBS的独家采访里说了一句话:「与政府意见不同,是最美国的事。」 这话说得很漂亮。但现实是:Anthropic的估值3800亿美元,OpenAI刚融了1100亿,估值飙到8400亿。一个坚持底线,一个拿到合同。资本市场会怎么投票,用脚想都知道。 这不是第一次有科技公司因为拒绝政府而付出代价,也不会是最后一次。但这次的剧本格外精彩—— 五角大楼说:删掉安全限制。 Anthropic说:不。 五角大楼说:那你就是华为。 OpenAI说:我来我来。 2026年的AI行业,守底线的人被封杀,灵活的人拿到合同。这到底是行业的悲哀,还是现实的常态? 也许两者都是。
OpenClaw,给中国AI开辟了一个弯道超车的大市场
OpenClaw可以说是AI圈里最热门的话题,一丁点风吹草动都能牵动全球所有AI厂商的神经。无数产品经理在OpenClaw上进行创意大比拼。 嗅觉灵敏的中国厂商也都纷纷开始行动,他们看到的不只是OpenClaw这个产品本身,而是它背后代表的整个agent市场。 这个市场需要云服务器、需要模型API、需要本土化的产品、需要更低门槛的部署方案。 中国AI想要弯道超车,必须要在Anthropic和谷歌先后对其进行打压的时机,紧紧抓住这个机会。 腾讯云、阿里云上线了一键部署服务,他们想要趁着这个机会,成为AI圈那个卖铲子的人。 月之暗面推出了云端版的Kimi Claw,MiniMax也紧随其后发布了MaxClaw,道理很简单,本土化的OpenClaw仍然是市场的一大空缺。 智谱和字节虽然没有在OpenClaw上面明确表态,但他们其实也没闲着。OpenClaw的成功让智谱和字节对agent的产品更有信心。 01 月之暗面的云端OpenClaw 在OpenClaw出现之前,大模型的使用主要是“对话式”的,用户问一句,模型答一句,单次调用的token消耗有限。 但OpenClaw创造了全新的“模型消费场景”。 一个配置合理的OpenClaw,每天可能向模型发起数百次甚至上千次调用,每次调用还要携带完整的上下文信息。这意味着,单个OpenClaw用户产生的token消耗,可能是传统聊天用户的几十倍甚至上百倍。 因此,OpenClaw变成了OpenRouter上token消耗最大的应用。哪个模型能接入OpenClaw生态,就等于获得了一个指数级增长的需求管道。 当OpenClaw用户选择底层模型时,他们实际上选的不是模型性能或者模型知识储备,用户选的是一个持续、稳定、高频的供货商。 谁耐用,谁便宜,谁才是OpenClaw生态下的大赢家。 所以月之暗面和MiniMax就在OpenClaw的这场巨浪之中收获颇丰。 先说说前者吧,他们在OpenClaw生态中的角色,经历了两个阶段的演变。 2026年1月,Kimi K2.5因其便宜且agent能力较强,成为OpenRouter平台上OpenClaw调用量最高的模型。 OpenRouter数据显示,Kimi K2.5的周token使用量环比增长最高达261%。其调用场景主要来自OpenClaw. 究其原因,Kimi K2.5支持最多100个子agent并行执行、1500次以上的工具调用,这些能力让它在agent场景下表现出色。 于是OpenClaw官方在1.30版本后,将Kimi K2.5设为“首个官方免费主力模型”,用户安装OpenClaw时可以选择MoonshotAI通道,甚至可以留空API Key继续使用,OpenClaw官方会补贴算力。 这种爆发式增长直接带来了商业回报。 受全球付费用户及API调用量大涨的共同推动,Kimi K2.5发布不到一个月,近20天累计收入已超过2025年全年总收入。 正是因为OpenClaw,Kimi的海外付费用户数快速增长,海外收入首次超过国内。SimilarWeb数据显示,Kimi上月访问量达3300万,中国地区访问量占比从去年的77%降低到了今年的60%多。 这个阶段,月之暗面扮演的是“模型供应商”的角色,被动地提供 API 服务。 但Kimi团队很快意识到,与其被动地提供API,不如主动降低用户使用门槛。一个月后,Kimi正式推出Kimi Claw。 这是一个云端托管的OpenClaw服务。用户无需本地部署,直接在浏览器中就能使用完整的OpenClaw功能。 Kimi Claw把原版OpenClaw的复杂步骤全部省略了,用户只需拥有Kimi Allegretto及以上会员,就能在网页端一键创建自己的“云端OpenClaw”,整个过程不超过1分钟。 Kimi Claw内置了Kimi K2.5模型,自动关联用户的Kimi Code会员权益额度。用户无需额外配置API Key,也不用担心突然烧掉大量token导致账单爆炸。 在功能层面,Kimi Claw直接集成了ClawHub社区的5000多个技能库,用户可以在网页界面中一键启用,包括天气查询、网页搜索、浏览器操作、邮件处理等高频场景。 原版OpenClaw的Skills需要用户通过命令行手动搜索、安装、配置,这个过程对普通用户来说又是一道门槛。Kimi Claw则是把这些技能都整合到了界面里,用户只需要点击就能启用,降低了用户使用难度。 原版OpenClaw的核心理念是“本地优先”,所有对话记忆和文件都存储在用户自己的设备上。这种设计保护了隐私,但也带来了不便,用户换了设备就得重新配置,AI助手的记忆也无法延续。 Kimi Claw则提供了40GB的云存储空间,用户可以在办公室电脑、家里电脑、手机上无缝切换,AI助手的记忆始终保持一致。 这种体验对于需要在多个设备间切换的用户来说,是个很实用的功能。 02 MiniMax也这么干了 2月25日,MiniMax也推出了自己的MaxClaw,走的是与Kimi Claw类似但更激进的路线。 MaxClaw基于MiniMax M2.5模型,虽然这是一个模型总参数量约2300亿,单次推理仅激活约100亿的大模型,但它的API价格非常便宜。 M2.5在OpenRouter上的表现也很亮眼。发布后12小时内登顶OpenRouter热度榜,一周内登顶调用量榜首,周调用量暴涨至3.07万亿token,超过Kimi K2.5、GLM-5与DeepSeek V3.2三家的总和。发布7天内token使用量突破3万亿,2月单月token使用量达4.55万亿,空降榜首。 为什么M2.5能在短时间内实现如此惊人的增长?答案同样是OpenClaw。 MiniMax M2.5的定价策略是“极端性价比”。在每秒输出100token的情况下,连续工作一小时只需花费1美金;而在每秒输出50个token的情况下,只需要0.3美金。 这意味着,同样是运行一个7×24小时这样的OpenClaw实例中,M2.5的成本可能只有Claude Sonnet的1/10到1/20。对于需要高频调用工具的agent场景来说,这种成本差异是决定性的。 OpenClaw社区的开发者很快发现了这一点。 在外网论坛上,大量关于“如何在OpenClaw中配置 M2.5”的教程涌现,甚至有开发者专门编写了“从Claude迁移到M2.5”的迁移指南。这种开源社区中的传播,比任何广告投放都更有效,要知道OpenClaw能走到今天,也是被开源社区带火的。 MiniMax还将MaxClaw集成到自家的MiniMax Agent生态中,与Expert 2.0同步升级,形成了“对话式AI + agent 工作流”的完整产品矩阵。 资本市场的反应更为直接。2月20日,也就是马年港股开市首个交易日,MiniMax的股价单日暴涨14.52%,市值一度冲破3042亿港元,创下公司上市新高。 自上市以来,MiniMax股价累计涨幅最高超过480%,2026年初至今股价最高涨幅超450%,成功跻身港股AI核心标的行列。摩根大通给予MiniMax “增持”评级,目标价700港元。3月2日,MiniMax发布财报,2025财年收入为7900万美元,同比增长158.9%。 OpenClaw带来的流量红利,让月之暗面和MiniMax转化为了自家的用户资产。 想想看,当一个用户通过OpenClaw使用Kimi K2.5一个月后,他已经习惯了这个模型的输出风格、响应速度和能力边界。这时候搬出Kimi Claw给他,然后说:“你不用自己维护服务器了,不用配置API Key了,直接在我们的平台上用,还能多端同步。” 这转化率能低得了吗? 这两家公司的云端OpenClaw产品,本质上是在用SaaS的方式去做agent服务,你给我钱,那我给你一个低门槛的产品。虽然没有原版OpenClaw那么能扩展,但是胜在便宜好用。 事实上绝大多数 人其实都没有那么尖端的需求。他们可能只是想让AI帮忙检查邮件、整理文档、定时提醒、查询信息。 回到段落开头,Kimi和MiniMax也都明白这个道理,agent的价值不在于单次对话的质量,而在于长期、持续、稳定的任务执行能力。 所以他们刚好填补了市场的一片空白。 03 腾讯、阿里的“卖铲子”生意 OpenClaw对普通用户来说门槛不低。你得有自己的服务器,得会配置 Node.js 环境,得懂怎么申请各家模型的 API Key,还得知道怎么设置消息通道。 整个过程下来,没有半小时到一小时搞不定,技术小白基本上看到教程就放弃了。这种极客属性很强的产品,注定只能在开发者圈子里流行,很难真正普及到大众市场。 腾讯和阿里看到的,恰恰就是这个痛点。与其让用户自己折腾,不如直接提供一套开箱即用的解决方案。 于是在OpenClaw爆火后,腾讯云和阿里云几乎同时推出了OpenClaw的一键部署服务。 这些云厂商提供的,不仅仅是一台服务器那么简单。他们把整个OpenClaw的运行环境都打包好了,包括预配置的镜像、自动化的部署脚本、已经调试好的依赖包,甚至还有现成的模型 API 接入方案。 用户只需要点几下鼠标,选择配置,付款,然后等几分钟,一个完整的OpenClaw实例就跑起来了。 腾讯云的方案相对简洁直接。 他们在轻量应用服务器上推出了“云应用”功能,用户通过这个功能可以三步完成OpenClaw部署。系统默认配置的是 DeepSeek API 作为模型供应商,但用户可以在 Dashboard 中自由切换到 Kimi、MiniMax 或者其他国产模型。 腾讯云的官方文档里写得很明白:“OpenClaw来自开源社区,云应用不收费”,但紧接着又补充了一句,“云服务器和 API 按照实际消耗计费”。 腾讯赚的不是OpenClaw的钱,而是云服务器租赁费、流量费、还有模型 API 调用产生的费用。他们不强制绑定自家模型,给用户留了选择空间,但基础设施这一层,你跑不掉。 阿里云的打法则更加“生态化”。 用户在轻量应用服务器上部署OpenClaw后,系统会引导用户前往“阿里云百炼大模型控制台”创建 API Key,默认调用的就是通义千问系列模型。 阿里云还推出了一个叫“Coding Plan”,这是阿里云百炼面向全品类 AI 编码工具推出的通用订阅套餐,兼容OpenClaw接入。 换句话说,阿里就是想通过OpenClaw的代安装服务,推广自己家的 AI 编程以及模型API。 阿里和腾讯想要的,是要占领agent时代的“水电煤”。 OpenClaw的爆火证明了一个趋势,未来的 AI 应用不是简单的“聊天机器人”,而是一个 24 小时在线、能执行复杂任务、需要稳定算力支持的 agent。 当个人用户和中小企业开始部署 agent 时,他们需要的不仅是模型的 API,还需要云服务器、存储空间、网络带宽,以及飞书、钉钉、企业微信这样的消息集成,还有安全沙箱环境等一整套基础设施,最后更不能少了像是 AI 编程这样具体的执行工具。 所以腾讯云和阿里云才提供了“一键部署OpenClaw”这个服务,以此抢占这个新兴市场的入口。 他们的逻辑很清楚,今天用户因为OpenClaw来了,明天可能因为其他 agent 产品来,但只要用户习惯了在他们的云平台上部署 agent,那么这些用户就成了长期客户。 更重要的是,当每个企业都需要部署自己的 agent 时,谁能提供最便捷、最稳定、最本土化的基础设施,谁就能占据这个万亿级市场的底层。 云厂商们看得很明白,卖铲子的生意,往往比挖金子的人更稳定,也更赚钱。 不仅是这样,OpenClaw它代表的是一个信号,未来的agent产品只多不少。 云厂商们现在做的,就是提前占位,建立用户习惯,构建生态壁垒。当agent成为企业和个人的标配时,谁能提供更多配套的服务,谁就掌握了话语权。 04 智谱和豆包为何不激进 在这场围绕OpenClaw的竞争中,智谱和字节的态度显得有些微妙。 不过这不代表他们在agent这个赛道上落后了,恰恰相反,他们选择了一条更独特的路。 智谱对OpenClaw的态度可以概括为“技术上支持,战略上不主推”。 智谱GLM-5在官方文档中明确提供了OpenClaw接入指南,GLM的Coding Plan套餐也支持OpenClaw配置。 智谱甚至还推出了“AutoGLM版本的OpenClaw”,支持OpenClaw与飞书的一体化配置。从这些动作来看,智谱并没有忽视OpenClaw,提供了作为一家中国AI厂商该有的一些基本支持。 智谱更看重的是AutoGLM,这是一个具备“Phone Use”能力的agent。AutoGLM在2025年12月开源,能够完成外卖点单、机票预订等数十步复杂操作,还支持微信、淘宝、抖音等超50个高频中文应用。 AutoGLM的核心技术是视觉语言模型,它不依赖传统的API,而是像人眼一样“看”屏幕,通过理解UI元素的语义直接预测下一步动作。 这种方式的优势在于,它只要能看到界面,就能进行操作。这意味着AutoGLM可以操作任何应用,包括那些没有开放API的应用。 OpenClaw 的核心场景是桌面端,需要配置海外消息平台,这些平台在中国的使用率并不高。相比之下,AutoGLM 直接在用户最常用的中文应用中执行任务,不需要依赖海外消息平台,更符合中国用户的使用习惯。 智谱的想法是,既然OpenClaw证明了agent的市场需求,那真正适合中国用户的agent,更应该是能操作微信、淘宝、抖音的AutoGLM。 字节跳动对OpenClaw的态度更加微妙。表面上看,只有前文提到的,火山引擎提供的一键部署OpenClaw。 这是因为字节对agent的注意力集中在移动端。 去年字节跳动与中兴努比亚合作推出nubia M153测试手机,内置了“豆包手机助手技术预览版”。其核心技术是UI-TARS,一个纯视觉驱动的GUI agent模型。 与OpenClaw相比,豆包手机助手更有优势。 豆包是直接集成到Android系统层,可以不打开应用就从底层进行操作,完全不会影响用户当下使用。 OpenClaw需要通过浏览器控制或API调用来操作应用,权限和稳定性都受限。 同时,豆包手机助手能够实现跨应用的复杂操作,比如“帮我在三个外卖平台比价,然后下单最便宜的”。OpenClaw的跨应用能力有限,很多任务不能跨应用完成,而且在不同应用之间切换的速度很慢。 字节跳动官方始终强调,agent应该是集成到操作系统中、能直接操作所有应用的系统级能力,而不是一个需要用户手动配置、运行在服务器上的独立程序。 这种理念上的差异,决定了字节不会在OpenClaw上投入太多资源。字节对OpenClaw保持距离,是因为它正在打造一个更高维度的解决方案。 当然,智谱和字节的这种战略选择也有代价。在OpenClaw热度最高的这段时间,错过了一波流量红利。 不过从长期来看,谁的选择更正确,还需要时间来验证。agent这个赛道才刚刚开始,现在下结论还为时过早。
估值一年蒸发近千亿,Shein创始人许仰天走向台前
刻意淡化中国背景的策略,并未能换来欧美监管机构的信任,反而让其在面临环保指控、版权诉讼时,因缺乏透明的沟通机制而陷入更深的舆论泥潭。 文 | 啸 天 近日,在广东省高质量发展大会上,一直隐匿在公众视野之外的Shein(希音)创始人许仰天罕见现身。作为企业代表,他公开发言并宣布了一项重磅计划:未来3年,希音将在广东投入超100亿元,建设智慧供应链体系。 在此之前,Shein的战略重心曾一度显现出明显的“外移”倾向。2021年,Shein将企业总部迁往新加坡,在随后的全球化扩张中,这家依靠中国服装供应链起家的跨境电商巨头,估值与净利润双双迎来了爆发式增长。 从2020年估值100亿元,到2024年《胡润全球独角兽榜》上的4600亿元,短短四年间翻了46倍的造富神话,确实给了许仰天保持绝对低调的资本。在互联网上,甚至很难搜到一张关于他的高清公开照片。 然而,在海外市场关税政策收紧、合规审查趋严以及多地IPO进程受阻的连番打击下,Shein的估值神话被按下暂停键。2025年《胡润全球独角兽榜》中,Shein的估值已回落至3650亿元,单年蒸发近1000亿元。 估值快速缩水之际,这位隐形的掌舵人不得不走向台前,以百亿投资的实际行动,重新确立企业与中国市场的紧密绑定。 01 估值一年缩水近千亿元 Shein估值急速缩水,直接反映出的是资本市场对其当前处境的风险重新定价。 过去几年,Shein凭借极致性价比和“小单快反”模式席卷欧美市场。但伴随体量膨胀而来的,是全球范围内密集的规则围堵。 在欧洲,欧盟依据《数字服务法案》对Shein实施了最高级别的监管,对其算法透明度和商品合规性提出严苛要求。法国出台的“反快时尚法案”计划对相关快时尚产品征收生态税,单件最高可达10欧元。此外,2025年以来,Shein在法国因Cookie违规、虚假广告等问题,已累计面临近1.91亿欧元的罚款。 关税豁免政策变动更是切中Shein要害。美国取消了800美元以下小额包裹的免税政策,欧盟也明确自2026年7月起,取消150欧元以下包裹的关税豁免。这对平台内绝大多数商品单价在十几美元的Shein而言,意味着直接的成本攀升,其赖以生存的低价护城河遭到严重削弱。 从财务数据来看,2024年Shein的营收虽保持了近16.9%的增长,但净利润却同比下滑近40%。这种“增收不增利”的局面,叠加海外地缘政治摩擦,让Shein此前的“全球化公司”、“新加坡总部”叙事失去了避险效力。 刻意淡化中国背景的策略,并未能换来欧美监管机构的信任,反而让其在面临环保指控、版权诉讼时,因缺乏透明的沟通机制而陷入更深的舆论泥潭。 02 上市受阻倒逼身份厘清 许仰天选择在此时打破沉默,最直接的驱动力来自于迫在眉睫的上市压力。 对目前的Shein而言,登陆资本市场已经从企业发展的可选项,变成了应对外部环境恶化、获取充足资金弹药的必选项。然而,由于企业注册地、供应链实际运营地以及主要目标市场的三方割裂,Shein的IPO之路走得异常艰难。 2023年底,Shein曾试图向美国证监会(SEC)秘密提交上市申请,谋求900亿美元的估值。该计划随即遭到美国部分议员的强烈反对,被要求对其数据安全和供应链进行严格审查,赴美上市的通道实质性关闭。 随后,Shein将目光转向英国伦敦,但同样因劳工权益、环保ESG标准及税务安排等合规问题陷入停滞。多方尝试无果后,冲击香港IPO几乎成了Shein登陆资本市场最后突围的方向。 要在香港顺利挂牌,取得中国证监会的备案批准是必须跨越的前置程序。监管机构对于企业的股权结构、实际运营重心以及离岸架构的透明度有着严格的要求。 在这一关键节点,许仰天在广东省高质量发展大会上的发言表态,是明确的信号。他公开宣称“广东是希音发展的沃土”,并强调了Shein自2014年落户广州以来的成长历程。这种从“隐身”到“发声”的转变,实质上是向境内监管机构及市场交底,通过彻底的透明化和身份的清晰化,为扫清赴港上市的合规障碍铺路。 03 百亿投资重仓供应链底座 抛开资本运作需求,Shein重金押注广东供应链,也是基于其核心商业模式运行的客观现实。 Shein能够在竞争激烈的全球快时尚赛道中异军突起,底层逻辑在于其独创的“小单快反”柔性供应链。每款服装首单仅生产50至100件,通过前端实时销售数据的反馈来决定是否返单。这种碎片化、高频次的生产需求,高度依赖地理位置集中、响应极其迅速的产业集群。 广东完备的服装产业带正是这一模式的现实底座。目前,Shein在广东的合作供应商近万家,带动省内就业超60万人。在广州番禺总部周边,Shein聚合了数百家核心供应商,将从设计打版到生产交付的全流程压缩至短短2到3周。如果脱离了中国成熟的纺织、印染及物流网络,Shein在全球市场的效率优势将大打折扣。 许仰天公布的100亿元智慧供应链投资计划,资金将明确指向传统制造业的数字化转型和产能升级。在海外关税成本刚性上涨的倒逼下,Shein只能通过向产业链上游要效率来维持利润空间。 此前,Shein已累计投入近3亿元用于赋能供应商,研发了170多项数字化工具,帮助合作工厂提升工序效率。面对海外严苛的ESG要求,这笔百亿资金还将用于推动供应商的环保技改,例如推广数码冷转印牛仔工艺以节约水资源,以及铺设屋顶光伏项目以降低碳排放。 此外,Shein正深度参与“跨境电商+产业带”试点,通过开放自身的柔性供应链底座和全球用户流量池,将平台模式从单打独斗转变为生态共建。 过去一年里,Shein经历了估值的高位回落。许仰天的公开亮相与百亿投资的落地说明,这家跨境巨头已结束早期依靠信息差和低调扩张的野蛮生长阶段。在越来越复杂的国际贸易规则下,清晰的产业根基和透明的合规体系,将取代神秘感,成为企业下一阶段生存与资本运作的入场券。
Seedance2.0从“地表最强”变“排队最长”?
马年央视春晚上,十二花神的飘逸身姿与奔腾的水墨骏马,成为Seedance2.0最高光的一次“亮剑”。 这场惊艳亮相不仅为背后的“即梦”平台(字节跳动旗下AI创作平台)带来耀眼的技术光环,更让业界和普通用户对其“飞入寻常百姓家”充满期待。然而,盛宴的余温尚未散去,现实的考验便已接踵而至,让满怀期待的用户始料未及。 2月26日,“Seedance2.0排队”词条登上热搜。大量用户发现,要想体验这一前沿技术,必须先面对排在前面数以万计的用户和数小时的排队时间。排到后还要经过人脸素材的审核,若审核失败,此前的一切等待又需重来。 2月27日下午,《每日经济新闻》记者(以下简称“每经记者”)在高峰时段以基础会员身份实测发现,排队人数平均保持在9万左右。在排队7小时后,仍显示预计还需3小时才能完成生成任务。不少即梦年费会员都反映,即便付了真金白银购买会员权益,依然被卡在漫长的等待队列中。 一边是被行业奉上神坛的全球顶尖多模态大模型,一边是连核心付费用户都无法保障的使用体验。这场服务器“挤爆”事件,抛出了一个当下全行业都无法回避的问题:当顶尖AI技术冲向商用落地的深水区,算力将如何保障? 实测:排队7小时还没到,从“地表最强”变“排队最长” Seedance 2.0问世之初,其卓越的能力在全球视频领域引发强烈震荡。 据官方披露的测试结果,该模型在VideoBench、VBench等国际权威多模态视频生成评测中,多项核心指标登顶全球第一。游戏科学创始人、《黑神话:悟空》制作人冯骥在深度体验后给出了“地表最强,没有之一”的评价。 然而,正是这款备受追捧的明星模型,在春节返工后遭遇了始料未及的需求洪峰。“Seedance2.0排队”登上热搜的同一天(2月26日),即梦App客服中心页面提醒:“由于当前使用人数较多,任务需要排队生成,生成排队及客服服务繁忙,请耐心等待。” 据公开报道,即梦App客服人员还表示,春节返工后,目前Seedance2.0模型使用的人非常多,是非常火爆的状态。视频生成需要消耗算力和资源,会有排队时间长、视频生成慢的现象。后续也会不断优化模型的使用,“很抱歉带来不好的体验”。 2月27日下午4点半,在使用高峰期,每经记者对即梦平台的视频生成服务进行了实测:以基础会员身份提交视频生成需求后,初始排队状态为总排队人数约7.1万人,记者排在第4.6万位,生成页面同时提示:“会员加速已生效,高级会员享最快加速。” 但记者发现,在提交需求后排队总人数持续攀升,自身排队位次并未随时间推进前移,反而出现了后退。提交需求半小时后,总排队人数升至8.4万人,记者位次后退至第5.5万位。提交两小时后,总排队人数突破10万人,记者位次进一步后退至第5.9万位。 图片来源:即梦网页版生成界面截图 提交需求后约7个小时,2月27日23时30分,记者排在第3.5万位,页面显示预计剩余3个小时,排队总人数仍超过10万。 排队7小时后,显示预计剩余3小时,而排队人数达到10万以上。图片来源:即梦网页版生成界面截图 即梦平台会员中心页面显示,平台会员分为三档,连续包月价格分别为:基础会员69元/月、标准会员199元/月、高级会员499元/月。从测试和对会员权益的介绍来看,会员用户在生成排队时,优先级高于免费用户,会员等级越高,排队加速权益越优,即可以“插队”等待完成任务。 图片来源:即梦网页版截图 此外,每经记者注意到,有用户反映生成进度卡在99%是在进行人脸素材审核,当前审核严格,需要经过前后三次审核。此前,即梦客服曾提醒,上传图片素材或文字关键词若涉及版权风险,会有审核不通过的情况,用户可转换描述词或更改图片后再进行审核。对此,每经记者就排队原因和审核问题向字节跳动方面了解情况,但截至发稿未收到回复。 对非商用的尝鲜用户而言,数小时的生成等待或许尚可接受,但对于将AI工具作为生产资料的职业用户与商业团队,稳定、可控、可预期的使用体验是其作为生产力工具的核心前提。当Seedance 2.0作为生产力工具时,当前的排队现象对企业用户造成了哪些影响? 每经记者在采访中手游内部人士时了解到,公司在2月26日前后测试发现,高峰期基础会员用户排队6—8小时是常态,即便开通499元/月的高级会员,也常需等待3小时以上。而对比每经记者实测情况可以发现,短短几天内,同样是基础会员,排队时长还在增加。 不仅如此,上述人士还表示,任务队列还存在明显的不稳定性,不仅会出现预估等待时间大幅跳涨的情况(如从25分钟跳至7.5小时),还频繁出现任务长时间无响应的中断问题。 至于官方推出的可快速生成的Fast版,虽然能够秒出,但因为模型精简,使其生成的素材可用性极低,无法达到买量投放的质量需求。 对商业化生产而言,这种不可控的等待与中断直接影响生产节奏。 “对于买量视频的紧急迭代需求,它(Seedance 2.0)目前确实无法当作稳定的生产力工具;仅对于长线素材储备与创意探索,仍有一定的使用价值。”上述中手游人士直言。在他看来,商业买量素材的核心竞争力在于快速迭代与A/B测试,长达数小时的等待会直接导致当日投放计划无法落地,不仅推高了试错成本,也打乱了既定的生产流程,团队最终不得不将部分工作重新转回传统制作流程。 AI狂飙,算力大考:Seedance 2.0排队是国产AI商业化必经一课 本次Seedance 2.0排队事件,并非单一产品的运营问题,其背后反映出国内AI行业在技术快速迭代、商用需求集中爆发阶段的共性挑战。 当前,国内AI模型调用量正处于爆发式增长阶段。此前,每经记者梳理全球最大AI模型API聚合平台OpenRouter数据发现,2026年2月中国AI模型调用量迎来历史性突破。 2月9日—15日当周,中国模型以4.12万亿Token周调用量首次超越同期美国模型的2.94万亿Token。2月16日—22日当周,中国模型周调用量进一步升至5.16万亿Token,三周内增长127%,同期美国模型周调用量回落至2.7万亿Token。 而排队现象与国内AI模型调用量的爆发有一个相同的核心,那就是随着AI有能力扮演“生产力工具”角色,编程、3D建模、视频生产等复杂的使用场景和AI Agent技术的普及,使得Token的消耗量大大提升。 快思慢想研究院院长田丰在接受每经记者采访时表示,相比纯文本推理,视频生成的多模态推理算力需求随用户访问量呈指数级放大,二者完全不在一个数量级。文本生成边际成本极低,而生成一条15秒高清视频,需要云端完成成千上万次去噪测算,Seedance 2.0支持的音画同步、多镜头叙事进一步增加了计算量,高分辨率多模态模型单条算力消耗是普通单模态语言模型的数十倍。 在田丰看来,本次Seedance 2.0排队事件,暴露的是国内大模型商业化进程中的“结构性供需矛盾”。 “2026年美国Claude Code爆款产品已形成‘大算力-大营收’的良性商业闭环,而国内用户付费意愿与付费水平远低于海外,只要高质量视频生成的单位算力成本无法下降到用户可接受价格的平衡点之下,这类排队与限流现象就将长期存在。” 但他同时认为,这既是国产AI推理芯片崛起的良机,也是AI应用行业从“炫技”走向“实用”的必经之路。 算力焦虑如何破解:扩大算力基建之外,还需提高利用效率 算力供需矛盾也倒逼国内AI芯片产业进入加速爆发期。 今年1月29日,阿里平头哥正式发布自研高端AI芯片“真武810E”,该芯片采用自研并行计算架构,整体性能超越英伟达A800及主流国产GPU,与英伟达H20处于同等水平,已在阿里云完成多个万卡级集群部署,大规模用于通义千问大模型的训练与推理。 2月中旬,关于字节跳动布局AI芯片的各类消息也在市场中传播。每经记者通过查询招聘软件发现,字节跳动也挂出“AI芯片系统软件架构师/工程师-NPU”“网络方向—芯片验证工程师”等招聘岗位。 在田丰看来,要让这类多模态AI工具成为Adobe、Office级的生产力标配,必须从三大核心维度优化破局。 一是重构算力SLA(服务等级协议)服务体系,废除“大锅饭订阅”,引入算力分级调度体系,参考类似云计算(AWS EC2)建立SLA分级收费模式,将算力划分为企业级极速池、付费会员标准池、免费/低价闲时池,为企业用户预留专属算力,保障服务稳定性。 二是优化节约算力的商业化设计,建立“草稿与渲染”分级生成机制,以低算力快速生成草图、确认后再做高清终渲。同时推出阶梯定价,企业端采购保底并发算力,C端可使用闲时竞价算力,减少无效算力消耗。 三是推动审核机制提效,将审核从“人力后置拦截”转向“前置确权与潜空间打标”,通过提示词前置拦截、端到端水印溯源、人机协同审核三大机制,把违规拦截嵌入生成全流程,规避合规风险的同时,避免算力无效浪费。 每经记者利用seedance2.0生成的视频截图 算力瓶颈并非短期阵痛,而将是AI时代与之长期共存的系统性命题。随着多模态技术一路狂奔,模型能力已一路从文本生成进化至复杂的多模态交互,而未来长视频、3D内容生成等高算力消耗场景还将持续扩容。技术的每一次进阶,都在为算力需求不断加码,行业供需之间的矛盾势必将随之长期加剧。 除扩大算力基建外,田丰还提出四个核心路径,从根源缓解行业算力供需矛盾。 首先是推动端侧推理崛起,利用PC、手机终端算力承接短视频特效、初步分镜等轻量级任务,仅将高难度渲染任务上云,形成“云侧-端侧”算力转移,可分流30%~50%的云端压力。其次,推进算法范式革新,从纯Diffusion模型转向混合架构,大幅压缩采样步数,力争在不牺牲生成质量的前提下将推理速度提升10倍以上。 此外,打造缓存与复用经济,建立全局元素缓存库,调用预渲染的常见镜头、光影等片段重组生成,避免重复算力消耗。最终,通过重构商业模式,从按生成次数计费转向按最终采纳结果或商业价值分成,减少无效算力浪费,与用户形成利益共同体。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。