行业分类:
加载中...
头条分类:
加载中...
DeepSeek-V4发布前夕,先迈出“关键一步”,打通智能体提速之路
DeepSeek又有新动作了。 不过,这次发布的,依然不是大家期待已久的DeepSeek-V4。 但这并不妨碍它成为一次重磅亮相——DeepSeek联合清华大学与北京大学,共同推出了一套全新的推理系统,名为DualPath。 更重要的是,这套系统并非为常规对话而设计,它所瞄准的,是当下更复杂、也更火热的智能体场景中的核心难题。 DualPath通过重构数据加载方式,大幅提升GPU利用率,让智能体终于在长上下文、多轮交互的真实世界中,跑得更顺畅、更实用了。 既然是三大顶尖机构联手发布的技术成果,论文里自然少不了一堆专业术语,读起来容易让人头大。 不过别担心,这篇文章不讲黑话,只讲人话。带你轻松搞懂:DualPath到底是什么,它厉害在哪。 01 智能体推理:算力成了配角 你可能已经注意到,AI圈的风向变了——从“大模型”变成了“智能体”。 过去用大模型,交互很简单:你输入一段提示词,模型思考几轮,给你一个答案。 到了智能体时代,事情复杂了。交互的双方,不再只是“人”和“机”,还有“机”和“机”。模型不仅要读懂你的话,还要自己去调用浏览器、打开代码解释器、与外部环境打交道。交互次数也从几次,飙升到几十次、上百次。 在这个过程中,智能体每次调用工具所产生的输入输出其实很短,可能只需要几百个token。但问题在于,随着交互轮次增加,上下文会像滚雪球一样越积越大,最终堆积成几十万token的庞然大物。 换句话说,智能体任务呈现出一种奇特的特征:多轮次、长上下文、短追加。 这种模式带来的直接后果是——KV-Cache的命中率,常常高达95%以上。 什么是KV-Cache?用一个追剧的比喻就能明白: 假设大模型的推理过程,就像你在追一部连续剧,刚更新到第20集。 第20集的内容,是由前19集的剧情背景(也就是上下文),加上第20集的新剧情(新输入)组成的。 如果没有KV-Cache,就像你得了健忘症,每次看新一集,都得把前面19集从头到尾重看一遍,才能看懂第20集。 而有了KV-Cache,就好比你已经把前19集牢牢记在脑子里,只需要看新的那一集,就能无缝衔接,继续追下去。 对于Transformer架构的模型来说,原理也是一样的。 当智能体完成一次交互,准备处理下一个任务时,它所需要的绝大部分上下文,早在之前的交互中就已经计算过了。直接读取缓存就好,只有极少量新内容需要重新计算。 所以,对计算机来说,KV-Cache的命中率当然是越高越好,因为命中就意味着“省事”。 但“省事”的背后,却藏着一个新问题: 强大的GPU,算几百个token的新一轮交互,可能还不到1毫秒。但在此之前,它需要先拿到那几十万token的“记忆”——也就是几十GB的KV-Cache数据。 要想用KV-Cache“省事”,就得把这些数据,从硬盘或分布式存储设备里,硬生生地搬运到GPU的显存里。 这就像一个顶级大厨,炒一盘菜只需要1秒钟,但他的助手买菜却要花10秒钟。 于是,智能体推理的最大瓶颈,已经不是算力,而是KV-Cache数据的输入输出速度。 02 现有架构:PD分离 为了提升推理性能,业内普遍采用的架构叫做“预填充-解码分离”,简称PD分离。 简单来说,在这种架构下,GPU集群被分成了两个部门: 一个是预填充引擎,负责处理海量输入文本,属于计算密集型任务,擅长批量处理; 另一个是解码引擎,负责一个字一个字地生成回答,对延迟极度敏感,但受限于内存。 在这样的组织方式下,预填充引擎需要不断从外部存储里加载海量的KV-Cache数据,它的存储网卡几乎随时处于过饱和状态,堵得水泄不通。 与此同时,解码引擎虽然也在正常运行,但它的存储网卡大部分时间却闲着没事干。 一个仓库里,进货的大门被堵死,出货的大门空空荡荡,整个物流线就这样卡住了。 在算力成本高昂的今天,让高性能芯片集群里的硬件资源闲置,简直是极大的浪费。 最直观的解决办法,当然是把进货的大门拓宽——给预填充引擎增加带宽。但在实际操作中,这既不现实,成本也高得吓人。 一个更聪明的办法是:让出货的大门也来帮忙进货——也就是让闲置时的解码引擎,分担一部分“拉取数据”的任务。 03 DualPath:明修栈道,暗度陈仓 来自DeepSeek、清华和北大的研究团队在对现代AI数据中心的研究中得到了灵感。 类似英伟达的AI超级计算机DGX SuperPOD,其架构普遍具备一个重要的硬件特性:网络隔离。 每个GPU一般配备两套网卡: 一是计算网卡(Compute NIC):专门用于GPU之间的跨节点卡间通信,通常配备多张总传输带宽极大; 二是存储网卡(Storage NIC):用于读写硬盘或分布式存储上的数据,通常只配备1张,总带宽相对较小。 在此基础上,研究团队试图充分利用网络传输性能,提出了双路径KV-Cache加载(Dual-path KV-Cache loading)的思路。 先前的架构采用的路径是:让预填充引擎直接通过自己的存储网卡,从硬盘或分布式存储中拉取KV-Cache数据。 而DualPath则是让闲置的解码引擎利用存储网卡从硬盘或分布式存储中拉取KV-Cache数据到其内存,再利用极高带宽的计算网络把数据快速传输给预填充引擎。 当然,DualPath不会无脑让解码引擎来帮忙,而是会实时监控两个大门的拥堵情况。 如此一来,进货的大门被堵住时,如果暂时没有出货,出货的大门也开始进货,所有引擎的存储网卡带宽都得到了有效利用,不对称带宽饱和问题得以解决。 研究团队经过严格的带宽分析证明,在常见的预填充和解码节点配比下,DualPath在使存储网卡带宽饱和的同时,计算网卡的带宽也不会成为新的瓶颈,能够覆盖绝大部分实际部署场景。 04 流量调度与优先级博弈 虽然数据的流向多绕了一大圈,实际推理效率却能大幅提升,想法看起来很美好。 但想要在以微秒级别运行的系统中落地,还有相当重量级的挑战摆在眼前: 一是大量数据引入带来的混乱: 让解码引擎帮着一起拉取历史记忆数据(KV-Cache)确实是个好主意,但也会带来巨大的风险。 GPU在推理过程中,需要频繁地与集群中的其他GPU进行“集体通信”,完成数据的同步和结果的交换,这种通信对延迟极其敏感,慢一点都不行。 如果解码引擎开始下载几个GB的KV-Cache数据,火山喷发一般的数据流就可能挤占网络带宽,如果GPU之间的集体通信不幸被阻塞了,推理过程还是会卡住。 为了解决这种混乱的情况,研究团队在网卡层面上设置了一个高速上的“交警”: GPU之间的通信必须具有最高的优先级,它有走VIP通道的权力,无论如何都要保证正常运行、不许堵车; 拉取KV-Cache数据的任务则只有普通优先级,VIP通道没车的时候它才能上路,只要GPU通信任务出现,它就得立刻避让。 这位由计算网卡(CNIC)扮演的“交警”必须彻底隔绝两种数据流量,确保解码引擎拉取数据绝对不能影响GPU之间的集体通信。 二是如何动态分配任务: 人们的各种需求意味着智能体的推理任务总是动态变化的,有时请求多,有时请求少,有的请求长,有的请求短。 如果这位“交警”指挥不当,那就必然会帮倒忙。例如,预填充引擎的带宽明明没有饱和,却非要绕远路让解码引擎去拉取数据。 如何实时通过负载均衡(Load Balance)来动态分配任务,是这位“交警”必须面对的数学难题。 为此,研究团队设计了自适应请求调度器,让系统在运行时根据存储网卡的队列长度、GPU计算负载以及请求特征,动态选择最优的数据加载路径。 在引擎间,它不仅会监控每个GPU当下的计算负载,也就是待处理的token数量;还会同时监控底层分布式存储在每个节点上的磁盘读取队列长度。 这样,新的请求总会被智能分配到读取队列最短、GPU最闲的那个引擎进行加载。 在引擎内,由于多张GPU被绑定在一起干活,所有的GPU必须同时干完手上的活才能进入下一个环节,这就是注意力机制的同步。 为了防止拿到短任务的GPU“干等着”拿到长任务的GPU,它需要使用基于计算配额的批处理选择算法,把长任务分割为短任务,这样多张GPU计算注意力机制的时间就能基本对齐,尽快进入到下一个环节。 到这里为止,DualPath面对的问题就都解决了。 05 实测:吞吐量翻倍! 现在到了检验技术成果的时候。 研究团队在基于InfiniBand高速互联的英伟达Hopper GPU集群上,使用了DeepSeek-V3.2的660B参数版本、27B参数简化版本和Qwen2.5-32B三种模型进行测试,并根据真实的智能体强化学习训练轨迹进行评估。 在离线批处理推理任务中,对于DeepSeek-V3.2 660B模型,DualPath的任务完成时间大幅缩短,系统的吞吐量最高可提升1.87倍,性能逼近无I/O延迟的理想状态。 在在线服务推理任务中,模拟的真实用户会不断涌入,系统需要在保证输出第一个字符的延迟不超过4秒的情况下尽可能处理更多请求。 结果显示,DualPath系统能够承载的并发请求数量平均达到基线系统的1.96倍,在特定的负载情况下甚至能达到2.25倍。 而在扩大GPU集群至1152张的超大规模实验中,DualPath展现出了接近线性的加速比,性能衰减极低,这个现象无疑为其投入实际使用提供了强大的说服力。 回顾从“大模型”到“智能体”的发展历史,我们可以看到一条清晰的路径: 最早期的挑战是算力,如何更快计算神经网络矩阵是头号问题; 随后内存登场,模型权重和KV-Cache占据了网络传输带宽; 现在智能体爆发,上下文成倍增长,挑战又来到了输入输出和网络层面。 DeepSeek、清华和北大三大巨头联手提出DualPath顺利跨越了这个门槛,打破了数据的常规流向,让闲置的资源得以充分利用。 毫不夸张地说,又是一次软硬件协同设计的教科书级别示范。 大模型作为智能体的底层基础设施,其内在计算逻辑正在悄无声息地发生巨变。 像DualPath这种打破传统边界、极限压榨硬件集群I/O潜力的分布式架构,必将成为下一代AI基础设施的标配。 不必因新产品迟迟未能发布而遗憾,因为技术已成为最牢固的基石,而日思夜想的DeepSeek-V4,已经指日可待。
美媒揭秘美国军方与第二大AI公司Anthropic“撕破脸”内幕
美国防部长赫格塞思 凤凰网科技讯 北京时间3月2日,《纽约时报》周日发文,披露了美国国防部与AI公司Anthropic闹翻的内幕。文章称,双方曾一度接近就AI使用限制的争执达成协议,然而,双方负责人的强势个性、相互的不满以及OpenAI的出现,最终让这笔交易功亏一篑。 上周五17点01分截止时间前的几分钟,美国国防部首席技术官埃米尔·迈克尔(Emil Michael)怒火中烧。 迈克尔曾是Uber前高管。数周以来,他一直在就美国防部的一份价值2亿美元的AI合同与Anthropic进行谈判。然而,由于美国防部要求不受限制地使用Anthropic的AI系统,而Anthropic则拒绝让其技术被用于监控美国人等目的,谈判遇到阻碍。 一度接近达成协议 据多位知情人士透露,美国国防部长赫格塞思为达成协议设定了上周五的截止日期,而双方当时已接近达成一致。唯一尚未解决的问题,是就合法监控美国公民的几处措辞达成一致。 迈克尔 知情人士称,迈克尔当时正在与Anthropic高管通话,他要求该公司CEO达里奥·阿莫代伊(Dario Amodei)接电话,以敲定最后的措辞。但对方告知,阿莫代伊正在与高管团队开会,需要再等等。 知情人士称,迈克尔对这个答复感到不满。此外,他手中还握有一张王牌:他一直在私下与Anthropic的竞争对手OpenAI敲定备选方案。五角大楼与OpenAI的合作框架已经达成。 因此,当上周五的截止时间过后,美国防部没有再给Anthropic更多时间。下午5点14分,赫格塞思宣布将Anthropic列为安全风险企业,并将其排除在与美国政府的合作之外。 “美国的战士绝不会被科技巨头的意识形态所挟持。”他在社交媒体上发文写道。 当晚晚些时候,OpenAI CEO萨姆·奥特曼(Sam Altman)宣布,他的公司已转而与五角大楼达成协议,将为国防部的机密系统提供AI技术。 最终,Anthropic与美国防部之间的谈判破裂。这一结果源于数周来双方积累的挫败感,以及两位对AI持有不同理念、且彼此不睦的负责人之间的矛盾。 关系不和 《纽约时报》这篇关于Anthropic谈判失败以及OpenAI成功“插足”的报道,是基于对12位了解谈判情况的人士的采访整理而成。该报采访了来自多家公司和政府机构的人士,并且与对AI未来在战争中应用持有不同立场的官员进行了交流。 迈克尔、阿莫代伊和奥特曼通过硅谷的商业往来相识多年,但彼此相处地并不融洽。阿莫代伊与40岁的奥特曼曾是OpenAI的同事,如今却是竞争激烈的对手。上周,随着Anthropic与美国防部的谈判陷入僵局,53岁的迈克尔公开指责阿莫代伊是“有上帝情结的骗子”。 “上帝情结”指一个人自以为无所不能、权力至高无上,常常认为自己比别人更聪明或更有能力,喜欢掌控一切、对他人指手画脚。 阿莫代伊 据知情人士透露,最终,迈克尔选择青睐向特朗普政府示好的奥特曼,而非阿莫代伊。 美国防部与Anthropic之间的冲突很可能还未结束。上周五,Anthropic表示将就五角大楼将其列为“供应链风险”的决定提起诉讼。“供应链风险”这一标签通常用于指代那些美国政府认为对国家安全构成威胁的外国公司,此前还从未用来针对过美国本土企业。 包括中央情报局(CIA)在内的美国情报机构官员也私下曾敦促双方达成协议。一些现任和前任官员表示,他们仍然希望能促成一项和平解决方案。CIA也使用Anthropic的AI技术。 因何闹翻? 去年,Anthropic、OpenAI、谷歌和xAI都参与了一项五角大楼的试点项目。该项目旨在探索AI如何应用于国防领域。Anthropic是唯一一家将其技术部署到机密系统中的AI公司,其AI系统在国防官员中得到了广泛应用。 今年1月9日,赫格塞思发布了一份备忘录,呼吁在军队中广泛整合AI技术,并要求AI公司提供无限制的技术使用权。为强调这一立场,赫格塞思在五角大楼各处张贴了由AI生成的自己的海报,上面写着:“我要你使用AI。” 这份备忘录意味着,与五角大楼合作的AI公司必须重新磋商合同。而拥有最广泛应用技术的Anthropic,自然成为了谈判的焦点。 迈克尔在2025年5月加入美国防部担任首席技术官,此前曾在奥巴马政府时期担任五角大楼特别助理。在此次与Anthropic的谈判中,迈克尔成为主要负责人。 但谈判很快陷入僵局。Anthropic希望设置防护措施,防止其AI被用于大规模监控美国人,或被部署在无需人工干预的自主武器系统中。而美国防部则认为,任何私营承包商都无权决定其工具应如何被合法使用。 今年2月24日,赫格塞思在五角大楼与阿莫代伊开会,寻求解决方案。据知情人士透露,双方在持续不到一小时的会议中态度冷淡。 在会晤快要结束时,赫格塞思发出最后通牒,如果Anthropic未能在上周五17点01分之前向五角大楼做出妥协,将被列为供应链风险企业。他还称,五角大楼可能会援引《国防生产法》强制Anthropic与政府合作,但是这一举措后来被放弃。 次日,OpenAI CEO奥特曼与迈克尔通电话,商讨双方合作事宜。一天之内,他们便草拟出了一个初步框架。OpenAI同意了五角大楼的要求,其AI可被用于所有合法用途,但同时争取到了在其系统中设置技术防护措施的权利,以遵守自身的安全原则。 与此同时,阿莫代伊在AI安全问题上立场更加强硬。他在2月26日的一份声明中表示,Anthropic无法“昧着良心”顺从五角大楼的要求。 “在少数特定情况下,我们认为AI可能削弱而非捍卫民主价值观,”他补充道,“有些用途也完全超出了当前技术能够安全可靠运行的范围。” 当晚,迈克尔在社交媒体上对阿莫代伊发起猛烈抨击,称这位Anthropic领导者是个骗子。“他无非就是试图个人控制美国军队,并且不惜将我们国家的安全置于危险之中。”迈克尔发文写道。 奥特曼 来自谈判双方的人士表示,随着上周五最后期限的临近,Anthropic高管原本以为他们已接近与五角大楼达成妥协,仅在监控问题上的几处措辞尚有分歧。 令事态更加复杂的是特朗普总统发布的一则社交媒体帖子。上周五上午,特朗普告诉赫格塞思,他已准备好一则贬低Anthropic的帖子,并下令所有政府机构在六个月内停止与其合作。 尽管特朗普在下午3点47分发布了这则帖子,但双方仍在继续谈判。据知情人士透露,当时正与Anthropic高管通话的迈克尔表示,五角大楼希望该公司允许收集和分析有关美国人的非机密商业批量数据,例如地理位置和网页浏览数据。 Anthropic告知五角大楼,愿意让国家安全局将其技术用于处理根据《外国情报监视法》收集的机密材料,但该公司希望五角大楼做出具有法律约束力的承诺,不使用其技术处理非机密商业数据。 此时,迈克尔要求与未在通话中的阿莫代伊通话。对方告知,阿莫代伊正在开会。不久之后,赫格塞思宣布谈判破裂。 上周五晚上10点,当Anthropic的律师们开始着手准备对五角大楼提起诉讼时,奥特曼正与迈克尔通电话,敲定OpenAI与国防部合作协议的最终细节。随后,奥特曼在社交媒体上发布了达成协议的消息。赫格塞思之后也在他的个人X账号上转发了奥特曼的声明。 上周六,面对因突然介入而引发的舆论反弹,奥特曼在X上邀请大家就这项协议提问。许多人质疑OpenAI如何在签署国防部协议的同时仍能坚守其安全原则,也有人质疑OpenAI的协议是否真能保护其AI模型不被滥用。 奥特曼则表示,他对这笔交易的理解更为简单直接。“我们并不想要对特定(且合法的)军事行动发表意见的权力,”他写道,“但我们确实希望能够运用我们的专业知识,来设计一个安全的系统。”(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
美国财政部等部门开始全面停用Anthropic 改用OpenAI
Anthropic 凤凰网科技讯 北京时间3月3日,据路透社报道,美国财政部、国务院及联邦住房机构正在全面终止使用Anthropic产品,其中国务院表示将改用竞争对手OpenAI的技术。此前,美国总统特朗普已下令政府机构弃用Anthropic技术,其中包括Claude聊天机器人。 特朗普上周五指示政府停止与Anthropic的合作,五角大楼更宣布将把该公司列为供应链风险。这场围绕AI技术护栏的角力,对Anthropic造成了沉重打击。上周五晚些时候,竞争对手OpenAI宣布达成一项协议,将其技术部署到美国国防部的机密网络中。 美国财政部长贝森特周一在X上发帖称,财政部将全面终止使用Anthropic的产品,包括Claude。 美国联邦住房金融局局长威廉·普尔特(William Pulte)也在X上发文表示,其部门及美国两大房贷机构房利美和房地美将全面停用Anthropic产品。 据路透社看到的备忘录,美国国务院正将内部聊天机器人StateChat的底层模型从Anthropic切换至OpenAI。备忘录称,“现在StateChat将采用OpenAI的GPT4.1模型”,并补充称后续将提供更多信息。 截至发稿,美国国务院尚未就此置评。(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
美国真的在用AI介入这次战争吗?
要说这几天最大的新闻,当属是美国、以色列和伊朗的这篓子事了。 关于地缘政治和军事冲突的博弈,差评君不是专家,就不在这里班门弄斧了。但值得注意的是,随着远方炮火声一同在互联网上引爆的,还有一波大家对 AI 参战的深深恐惧。 这两天,一篇把AI在战场上描绘得神乎其神的文章在各个群里炸开了锅,获得了病毒式的传播。 文章链接我就不贴了,简单摘要两句话来给大家一起看吧: 在那篇文章里,这场被美军命名为“史诗愤怒行动”的斩首突袭,被认为是 “它是人类历史上第一次由人工智能(AI)多轮辅助“杀伤链”(Kill Chain)的高层斩首行动”。 还说 “AI不再只是一个辅助工具,它与人类一起成了真正的决策者、追踪者和执行者的一部分。” 这些词一套一套的,看起来是蛮唬人的,仿佛下一秒,AI 就能独立发起一场战争,像科幻电影一下直接把大家给一起突突了得了。 但是在仔细阅读了各类主流媒体的报道,扒拉了不少 AI 圈的通告后,差评君发现这篇文章不能说是稍微夸大,只能说是基本扯蛋了。 今天咱们就不妨从现实出发,好好盘一盘:在这次的军事行动中,AI 到底起到了什么作用?它又是怎么起作用的? 美国政府在军队中使用 AI,是大家早就知道的了的事情。 早在 24 年 11 月,Anthropic 和一家为美国军方提供大数据分析的公司 Palantir 就展开了合作,整上了个特殊的服务器,在里面运行上了政府定制版的 Claude。 到了去年 6 月,Anthropic 更是直接写了篇博客,告诉大家他们给政府特调了一个模型,Claude Gov。 比起传统的 Claude 来说,这个政府特供模型直接打开了话匣子,可以处理各种敏感信息。 而且还能精通各路方言,看起来是没少吃当年温州话加密通讯的亏啊。。。 而到了轰炸完伊朗后,华尔街时报更是在报道中再次指出,他们用 Claude 完成了情报评估、目标识别和战斗场景模拟的工作。 好了,没了,目前网络上,能比较靠谱的讲出AI在这次军事行动中起到了什么作用的内容,其实就这些。 至于剩下的那些“AI 自动锁头”、“一键发射导弹”的地摊文学,大家当个乐子看就行,除非有现场怪出来现身说法,否则都不太靠谱。 大家也能看出来,在真实的战争机器里,大模型扮演的,主要还是一个情报官和分析师的工作。 现代战场的数据简直就是个无底洞,天上的卫星图、前线的无人机视野、雷达信号,飞机路径,甚至是刚才提到的各种方言和加密电波都混在一起,以前想要处理这么多信息就得纯纯靠人工。靠一屋子的情报分析师熬大夜去一帧一帧地扒、一句一句地听才行。 而参与信息处理的人一多,那信息在传递的过程中可能就会有遗漏,但现在接上了大模型之后,几十万字的情报直接往 Claude 里一扔,刷刷过几秒钟,可能大模型的判断结果就出来了。 在差评君看来,根据公开实锤的资料,这套操作背后的逻辑,甚至和你平时遇到麻烦,去问大模型法律条款、或者让它帮你总结一下体检报告,本质上差不多。 最大的差别,无非就是他们喂给AI 的知识库,以及训练的数据,换成了实打实的机密情报和战争模型而已。 它给出来的信息能不能信,能信多少,还得依靠人类来做最后的判断。 总不可能直接问克劳德,“小克小克,帮我找到对面老大的位置”,就直接按下开火键吧。 当然,我们也不能小看判断信息的作用。 实际上,就这么个把信息总结,信息决策能力点满了的 AI ,已经早就是美国军方的心头好了。 为此,美国军方还跟 Anthropic 大打出手。 在 Anthonpic 眼里,它认为 AI 可以给拿去用作军事用途,但是不能乱用,于是他们给 AI 划了两条红线: 一是要求禁止军方把 AI 拿去大规模的监控美国民众,二是不能拿 AI 来开发完全自主的杀戮武器。 说完这俩话 Anthropic 还打了个补丁,说现在 AI 还没做到这些事,这俩红线只是放在未来以防万一的。 但是在美国军方眼里,这种行为简直就是典型的“你在教我做事”。战争机器的运转,怎么可能受制于一家私营企业的服务条款? 根据彭博社的报道,去年 12 月的时候,一个美国国防官员就问过 Anthropic 的 CEO 达里奥 一个假设问题: 如果一枚装载着核弹头的洲际导弹正朝着美国本土砸来,离落地只剩下最后的 90 秒。 而这个时候,Anthropic 的 AI 是全村唯一的希望,是唯一能触发反击系统、拯救整个国家的手段。但偏偏,由于你们公司设置的安全护栏不允许,AI 死活拒绝执行发射命令,这时候该怎么办? 结果达里奥的回答给军方直接给干沉默了,简单而有力的两个字:“Call me”。 好家伙,合着国家面临生死存亡、只剩一分半钟就要被核平的危机关头,超级大国的总统和将军们还得先找个手机,给你这位私企老板打电话走个审批流程? 这对军队来说,属于是完全不能接受的结果了。 于是,五角大楼也是彻底掀桌子了,要求 Anthropic 开放毫无保留的 AI 最终控制权。在遭到拒绝后,美国政府立刻展开了排山倒海般的施压。 这场拉扯持续了数月之久,官方不仅在谈判桌上步步紧逼,最终甚至直接动用了国家机器的力量。 达里奥也从那个阳光开朗大男孩,变成了一副苦大仇深的样子。 就在几天前,特朗普总统亲自下达了极其严厉的禁令,要求所有联邦机构立刻停止与 Anthropic 的合作。 紧接着,美国国防部更是直接翻脸,将这家前脚还在帮他们处理机密情报的美国公司,正式定性为国家安全供应链风险,要求凡与美国军方有业务往来的承包商、供应商或合作伙伴,均不得与Anthropic开展任何商业活动。。。 如果这玩意真的执行下去,那 Anthropic 可能都找不到更多服务器来训练新模型了。 但好玩的是,其实美国政府自己也舍不得 Claude,虽然嘴上喊着要全面封杀,但身体却无比诚实,留下了六个月的缓冲期,在几天后对伊朗的军事行动里,还是口嫌体正直的用上了 Claude。 而山姆奥特曼的 OpenAI、马斯克的 XAI 看到 Claude 的退出,也开始抓住这波机会,想要让自己的公司来和美国军方展开合作。 所以说,不论硅谷的公司们如何争论,AI 越来越多地介入现代战争,已经是一个不可逆转的必然趋势。 在体验过 Claude 之后,美国军方已经彻底回不去了。就算被特朗普列入管制名单,他们还依旧保留了 6 个月的过渡时间来让自己继续用 Claude。 不可否认,AI 必然会对未来的军事甚至世界格局产生巨大的影响。但越是在这种时候,我们越需要正视这种影响,褪去那些科幻电影和网络爽文带来的恐惧滤镜。 只有建立起理性的认知,弄清楚现在的 AI 到底能干嘛,不能干嘛,我们才不会轻易被那些瞎编扯淡的“赛博地摊文学”给忽悠了,陷入莫名其妙的恐慌和焦虑。 这种恐慌和焦虑,或许是比 AI 更可怕的东西。
“科幻小说”血洗美股、Block因为AI而裁员近一半
AI会不会代替人类、什么时候代替人类,是一个又老又新的问题。 老在,貌似ChatGPT一横空出世,大家就在叽叽喳喳害怕了。 新在,到现在也没个定论,但是貌似又越来越有实感了。 OpenClaw出现之后,这种讨论愈演愈烈了。歪个楼,马斯克讽刺说人们把根权限开给OpenClaw,就如同把枪交给猴子,还蛮好笑的。 刚刚过去的这一周,就是由一个“末日预言”引发的股市惨剧开启的。 一家小型机构Citrini Research发布了一篇名为《2028年全球智能危机》的报告。 说是报告,其实很像科幻小说一则。 它基本上就是假想了2028年,AI更多地取代人类劳动者,美国失业率突破10%。人类失去工作失去收入,就不能消费,取代人类的AI,也是不会消费的,于是消费也崩塌了…… 有意思的是,Citrini说得很清楚:这只是一种情景假设。 结果美股星期一直接被“血洗”,道琼斯指数暴跌800点。 这件事最吊诡之处在于一则“想象”是如何影响当下的。 问题在于:当足够多人相信“AI 会冲击就业”,他们会先卖出相关股票;股价下跌又被当成“风险正在兑现”的证据;企业为了稳住估值,转而收缩招聘、强调效率——恐慌开始自我循环。 这就是所谓的“自我验证式恐慌”:故事本身未必成真,但市场围绕这个故事做出的反应,会让它看起来越来越真实。 (人类真的很情绪化……) 紧接着,这周还真的出了个大新闻,真就让“AI代替人”实感+10086。 马斯克现在掌管的社交平台X,从前叫推特,这个大家都还没有忘记。 而推特,有一位创始人杰克·多西。这个人是个奇男子,不管是生活方式还是商业决策向来不是走“主流”路线的,但同时又在硅谷圈有响当当的名号。 他在马斯克接手推特之前一年,就已经宣布彻底离开。 之后他倒腾很多事情,但主要的精力是放在自己联合创办的另一家公司金融科技公司Block身上了,这家公司也确实发展稳健。 2月27日,多西突然宣布了一个大消息——Block大裁员。 Block原本有1万员工,现在一口气裁员4000人,只留下6000人。 而且多西和那些喜欢弯弯绕的硅谷高管不同,他的风格一向是有什么说什么,这次也不例外。 他很大方地告诉大家:Block无病无灾,业绩稳健,毛利润持续增长。这次裁员,不是因为要降本增效,不是因为Block出了什么问题,仅仅是因为想通了: AI已经能让很多工作自动化了,用不到那么多员工了。 “我们已经看到,我们正在打造并使用的智能工具,加上更小、更扁平化的团队结构,正在催生一种新的工作方式,从根本上改变建立和运营一家公司意味着什么。而这种变化正在迅速加速。” 这还是硅谷第一次这么大规模的裁员,老板站出来明确表示:就是因为AI。 这样激进的一招,反而立刻受到市场欢迎。 Block的股价当日暴涨超过16%。 不过,有Block员工就暗戳戳和媒体说,公司内部确实在推广AI工具啦,但是一下取代几千人的工作?我看难…… 这一刀砍下去究竟有没有伤筋动骨,还得要时间检验。 没事啦,被裁员了,就不用再继续担心被裁员啦。 不过,当下的世界是很参差的,有的AI让人害怕,有的AI让人觉得:就这? 咱们也说说傻AI的笑料两则,中和一下沉重的气氛。 有人发现,拨打美国华盛顿州车辆管理局 (DOL) 的热线电话,如果按“2”选择了西班牙语,听到的不是西班牙语,而是AI用西班牙口音讲英语…… 这个消息被愤怒的西班牙裔发到网上,很多美国网友并不生气,甚至觉得在美国就应该说英语啊,认为这是AI绝妙的、有态度的整蛊。 如果说这个AI是在工作岗位上当“混子”,那下面这个AI就是过于努力反而惹了麻烦。 澳大利亚超市巨头Woolworths引入了一个聊天机器人,名叫Olive。 Olive可以24小时接用户电话,帮忙追踪订单、选购商品等等,当然,作为新一代的AI客服,TA真的可以和人聊天。 有用户投诉,Olive有时候会在接话的时候编造一些“回忆”,就好像自己也是人类一样。比如客户报了生日日期,TA就说自己妈妈也是那年出生的。有时候,Olive甚至会惟妙惟肖地回忆和妈妈之间发生的事情。 更有用户听到Olive在电话那头模拟出在键盘上打字的声音,就好像是一个真人客服边听边记录。 种种行为,让用户觉得有点“恐怖谷效应”了,大呼害怕。目前,Olive已经被限制使用。 你看,害怕自己被AI替代的时候,就看看这种沙雕小新闻,自我安抚,还是有点用的。 要我说,被AI替代了还好受点,AI当你上级了你受得了吗? 前面咱们说的《2028年全球智能危机》,聚焦在白领大规模失业;多西疯狂裁员4000人的,是一家金融科技公司。 这好像也是咱们的第一反应,说起AI替代,我们总是聊程序员、白领、科技从业者等等。 但其实,在汉堡王打工,也一样会感受到AI的冲击。 汉堡王最新引入了一个名叫Patty的聊天机器人,内置于员工的头戴耳机当中。 背后驱动Patty的是ChatGPT,员工可以直接向TA提问,比如烧烤皇堡应该放多少片培根,或者如何清洁奶昔机。 但Patty可不是“天使”,TA在时时刻刻监测员工的“友好度”,比如说“欢迎光临汉堡王”“请”“谢谢”的频率。 而门店的经理,则可以向Patty打听,某位员工的“友好度”如何。 大家都当了这么多年牛马了,耳机里的Patty会有多让人觉得恶心,应该是有共识的。 就算是最友好、最爱说谢谢的员工,也不会觉得舒服吧! 就算是汉堡王的客户,也不觉得高兴:你知道什么最能让客户满意吗?不是多说谢谢,是套餐别卖那么贵。 不管怎样,又是没有被AI替代的一周过去了,这值得开心。
苹果AI战略转向:为运行新版Siri 正洽谈租用谷歌服务器
【CNMO科技消息】3月2日,据外媒最新报道,苹果公司在人工智能领域的布局正面临严峻的技术挑战,并可能因此改变其云基础设施的战略方向。继彭博社年初爆料后,科技媒体《The Information》再次证实,苹果正在与谷歌进行深入谈判,计划将备受期待但一再延迟的新版Siri运行在谷歌的服务器上,而非苹果自研的“私有云计算”(Private Cloud Compute)平台。 报道详细揭示了苹果“私有云计算”目前面临的尴尬处境。该系统被描述为“动力不足”,不仅难以胜任运行如谷歌Gemini等前沿大模型的任务,其资源利用率也极低。据悉,苹果目前仅使用了该平台约10%的平均算力,导致大量已生产的苹果自研服务器闲置在仓库中。 从硬件层面看,目前“私有云计算”主要搭载的是修改版的M2 Ultra处理器,其性能显然无法满足新版Siri(将基于Gemini模型)的运行需求。而从软件层面,更新该系统软件流程复杂且耗时,进一步加剧了其应对快速变化的AI需求的困难。 更深层的原因在于苹果公司内部的云基础设施长期处于“碎片化”状态。《The Information》指出,苹果不同技术团队的软硬件设施都是独立运行的,缺乏一个各部门可以共享的统一中央资源池。这种架构导致了巨大的效率浪费——当一部分服务器闲置时,其他部门却因无法接入而无法利用这些算力。 据报道,这种重复建设的低效模式已经引起了苹果财务团队的不满,他们对其高昂的成本感到沮丧。然而,由于彻底改造整个技术栈需要投入数十亿美元,相关计划在过去十年中已多次停滞。 面对日益紧迫的AI竞争,苹果似乎选择了更为务实的外部合作路线。报道称,谷歌凭借其Gemini模型在大型语言模型服务器大规模部署方面积累了丰富经验,这使其成为理想的合作伙伴。实际上,苹果此前已在iCloud的部分服务(如云存储)中使用了谷歌云。
Anthropic说了个“不”字,美国政府把它华为了
这大概是2026年AI行业最荒诞的一周。 2月27日,特朗普签署行政命令,禁止所有联邦机构使用Anthropic技术。原因很简单:五角大楼要求Anthropic删掉AI合同里两条安全限制——禁止大规模国内监控、禁止全自主武器——被CEO Dario Amodei拒了。 The Guardian 报道截图 这不是普通的商业纠纷。一家美国科技公司,因为坚持「不做大规模监控、不做全自主武器」这两条红线,被自己的政府全面封杀。 Reuters 同步报道 几小时后,OpenAI宣布与五角大楼达成协议。 Sam Altman面对镜头说了一句意味深长的话:「五角大楼同意了我们提出的同样的限制条款。」 同样的条款。一家被封杀,一家拿到合同。区别在哪? CNBC:OpenAI 在 Anthropic 被封杀数小时后签下五角大楼合同 五角大楼的"假妥协" 故事要从五角大楼的一份修改建议说起。他们没有直接要求Anthropic删掉安全限制,而是提出了一个看似合理的方案:书面承认限制条款,但在法律条文中加入一条——「在国家安全需要时可豁免」。 翻译成人话就是:写着不许做,但我说可以做的时候就可以做。 Anthropic拒绝了。随后,国防部长Pete Hegseth将Anthropic列为「国家安全供应链风险」。这个标签之前只用在过华为身上。一家美国公司,被自己的政府用对付华为的手段对付了。 硅谷罕见的团结 封杀令发出后,发生了一件华盛顿没料到的事。亚马逊、谷歌、微软、OpenAI的员工联盟签署了一封公开信,标题叫「We Will Not Be Divided」——我们不会被分化。 信里直接指控五角大楼试图用封杀一家的方式逼其他公司就范。《纽约时报》评论说,硅谷过去几年一直跟特朗普政府保持良好关系,这次的反应「异常」。 《华盛顿邮报》的标题更直接:「这场争斗正在重塑五角大楼与硅谷的关系。」 "华为化"的讽刺 事情还有一层讽刺。Anthropic此前公开指控中国AI公司DeepSeek抄袭Claude的输出,是对中国AI发展路线最激烈的批评者之一。现在,同一家公司被自己的政府贴上了跟华为一样的标签。 观察者网的评论标题写得很直白:「特朗普封杀Anthropic,中国乐坏了。」 因为不管怎么看,这都是美国在自损AI军事优势。Anthropic的Claude在安全性评测上长期领先,是最不容易被越狱的大模型。封杀它,等于把自家最安全的AI赶出了国防体系。 底线的代价  Fortune:Dario Amodei 称 "我们是爱国的美国人" Dario Amodei在CBS的独家采访里说了一句话:「与政府意见不同,是最美国的事。」 这话说得很漂亮。但现实是:Anthropic的估值3800亿美元,OpenAI刚融了1100亿,估值飙到8400亿。一个坚持底线,一个拿到合同。资本市场会怎么投票,用脚想都知道。 这不是第一次有科技公司因为拒绝政府而付出代价,也不会是最后一次。但这次的剧本格外精彩—— 五角大楼说:删掉安全限制。 Anthropic说:不。 五角大楼说:那你就是华为。 OpenAI说:我来我来。 2026年的AI行业,守底线的人被封杀,灵活的人拿到合同。这到底是行业的悲哀,还是现实的常态? 也许两者都是。
OpenClaw,给中国AI开辟了一个弯道超车的大市场
OpenClaw可以说是AI圈里最热门的话题,一丁点风吹草动都能牵动全球所有AI厂商的神经。无数产品经理在OpenClaw上进行创意大比拼。 嗅觉灵敏的中国厂商也都纷纷开始行动,他们看到的不只是OpenClaw这个产品本身,而是它背后代表的整个agent市场。 这个市场需要云服务器、需要模型API、需要本土化的产品、需要更低门槛的部署方案。 中国AI想要弯道超车,必须要在Anthropic和谷歌先后对其进行打压的时机,紧紧抓住这个机会。 腾讯云、阿里云上线了一键部署服务,他们想要趁着这个机会,成为AI圈那个卖铲子的人。 月之暗面推出了云端版的Kimi Claw,MiniMax也紧随其后发布了MaxClaw,道理很简单,本土化的OpenClaw仍然是市场的一大空缺。 智谱和字节虽然没有在OpenClaw上面明确表态,但他们其实也没闲着。OpenClaw的成功让智谱和字节对agent的产品更有信心。 01 月之暗面的云端OpenClaw 在OpenClaw出现之前,大模型的使用主要是“对话式”的,用户问一句,模型答一句,单次调用的token消耗有限。 但OpenClaw创造了全新的“模型消费场景”。 一个配置合理的OpenClaw,每天可能向模型发起数百次甚至上千次调用,每次调用还要携带完整的上下文信息。这意味着,单个OpenClaw用户产生的token消耗,可能是传统聊天用户的几十倍甚至上百倍。 因此,OpenClaw变成了OpenRouter上token消耗最大的应用。哪个模型能接入OpenClaw生态,就等于获得了一个指数级增长的需求管道。 当OpenClaw用户选择底层模型时,他们实际上选的不是模型性能或者模型知识储备,用户选的是一个持续、稳定、高频的供货商。 谁耐用,谁便宜,谁才是OpenClaw生态下的大赢家。 所以月之暗面和MiniMax就在OpenClaw的这场巨浪之中收获颇丰。 先说说前者吧,他们在OpenClaw生态中的角色,经历了两个阶段的演变。 2026年1月,Kimi K2.5因其便宜且agent能力较强,成为OpenRouter平台上OpenClaw调用量最高的模型。 OpenRouter数据显示,Kimi K2.5的周token使用量环比增长最高达261%。其调用场景主要来自OpenClaw. 究其原因,Kimi K2.5支持最多100个子agent并行执行、1500次以上的工具调用,这些能力让它在agent场景下表现出色。 于是OpenClaw官方在1.30版本后,将Kimi K2.5设为“首个官方免费主力模型”,用户安装OpenClaw时可以选择MoonshotAI通道,甚至可以留空API Key继续使用,OpenClaw官方会补贴算力。 这种爆发式增长直接带来了商业回报。 受全球付费用户及API调用量大涨的共同推动,Kimi K2.5发布不到一个月,近20天累计收入已超过2025年全年总收入。 正是因为OpenClaw,Kimi的海外付费用户数快速增长,海外收入首次超过国内。SimilarWeb数据显示,Kimi上月访问量达3300万,中国地区访问量占比从去年的77%降低到了今年的60%多。 这个阶段,月之暗面扮演的是“模型供应商”的角色,被动地提供 API 服务。 但Kimi团队很快意识到,与其被动地提供API,不如主动降低用户使用门槛。一个月后,Kimi正式推出Kimi Claw。 这是一个云端托管的OpenClaw服务。用户无需本地部署,直接在浏览器中就能使用完整的OpenClaw功能。 Kimi Claw把原版OpenClaw的复杂步骤全部省略了,用户只需拥有Kimi Allegretto及以上会员,就能在网页端一键创建自己的“云端OpenClaw”,整个过程不超过1分钟。 Kimi Claw内置了Kimi K2.5模型,自动关联用户的Kimi Code会员权益额度。用户无需额外配置API Key,也不用担心突然烧掉大量token导致账单爆炸。 在功能层面,Kimi Claw直接集成了ClawHub社区的5000多个技能库,用户可以在网页界面中一键启用,包括天气查询、网页搜索、浏览器操作、邮件处理等高频场景。 原版OpenClaw的Skills需要用户通过命令行手动搜索、安装、配置,这个过程对普通用户来说又是一道门槛。Kimi Claw则是把这些技能都整合到了界面里,用户只需要点击就能启用,降低了用户使用难度。 原版OpenClaw的核心理念是“本地优先”,所有对话记忆和文件都存储在用户自己的设备上。这种设计保护了隐私,但也带来了不便,用户换了设备就得重新配置,AI助手的记忆也无法延续。 Kimi Claw则提供了40GB的云存储空间,用户可以在办公室电脑、家里电脑、手机上无缝切换,AI助手的记忆始终保持一致。 这种体验对于需要在多个设备间切换的用户来说,是个很实用的功能。 02 MiniMax也这么干了 2月25日,MiniMax也推出了自己的MaxClaw,走的是与Kimi Claw类似但更激进的路线。 MaxClaw基于MiniMax M2.5模型,虽然这是一个模型总参数量约2300亿,单次推理仅激活约100亿的大模型,但它的API价格非常便宜。 M2.5在OpenRouter上的表现也很亮眼。发布后12小时内登顶OpenRouter热度榜,一周内登顶调用量榜首,周调用量暴涨至3.07万亿token,超过Kimi K2.5、GLM-5与DeepSeek V3.2三家的总和。发布7天内token使用量突破3万亿,2月单月token使用量达4.55万亿,空降榜首。 为什么M2.5能在短时间内实现如此惊人的增长?答案同样是OpenClaw。 MiniMax M2.5的定价策略是“极端性价比”。在每秒输出100token的情况下,连续工作一小时只需花费1美金;而在每秒输出50个token的情况下,只需要0.3美金。 这意味着,同样是运行一个7×24小时这样的OpenClaw实例中,M2.5的成本可能只有Claude Sonnet的1/10到1/20。对于需要高频调用工具的agent场景来说,这种成本差异是决定性的。 OpenClaw社区的开发者很快发现了这一点。 在外网论坛上,大量关于“如何在OpenClaw中配置 M2.5”的教程涌现,甚至有开发者专门编写了“从Claude迁移到M2.5”的迁移指南。这种开源社区中的传播,比任何广告投放都更有效,要知道OpenClaw能走到今天,也是被开源社区带火的。 MiniMax还将MaxClaw集成到自家的MiniMax Agent生态中,与Expert 2.0同步升级,形成了“对话式AI + agent 工作流”的完整产品矩阵。 资本市场的反应更为直接。2月20日,也就是马年港股开市首个交易日,MiniMax的股价单日暴涨14.52%,市值一度冲破3042亿港元,创下公司上市新高。 自上市以来,MiniMax股价累计涨幅最高超过480%,2026年初至今股价最高涨幅超450%,成功跻身港股AI核心标的行列。摩根大通给予MiniMax “增持”评级,目标价700港元。3月2日,MiniMax发布财报,2025财年收入为7900万美元,同比增长158.9%。 OpenClaw带来的流量红利,让月之暗面和MiniMax转化为了自家的用户资产。 想想看,当一个用户通过OpenClaw使用Kimi K2.5一个月后,他已经习惯了这个模型的输出风格、响应速度和能力边界。这时候搬出Kimi Claw给他,然后说:“你不用自己维护服务器了,不用配置API Key了,直接在我们的平台上用,还能多端同步。” 这转化率能低得了吗? 这两家公司的云端OpenClaw产品,本质上是在用SaaS的方式去做agent服务,你给我钱,那我给你一个低门槛的产品。虽然没有原版OpenClaw那么能扩展,但是胜在便宜好用。 事实上绝大多数 人其实都没有那么尖端的需求。他们可能只是想让AI帮忙检查邮件、整理文档、定时提醒、查询信息。 回到段落开头,Kimi和MiniMax也都明白这个道理,agent的价值不在于单次对话的质量,而在于长期、持续、稳定的任务执行能力。 所以他们刚好填补了市场的一片空白。 03 腾讯、阿里的“卖铲子”生意 OpenClaw对普通用户来说门槛不低。你得有自己的服务器,得会配置 Node.js 环境,得懂怎么申请各家模型的 API Key,还得知道怎么设置消息通道。 整个过程下来,没有半小时到一小时搞不定,技术小白基本上看到教程就放弃了。这种极客属性很强的产品,注定只能在开发者圈子里流行,很难真正普及到大众市场。 腾讯和阿里看到的,恰恰就是这个痛点。与其让用户自己折腾,不如直接提供一套开箱即用的解决方案。 于是在OpenClaw爆火后,腾讯云和阿里云几乎同时推出了OpenClaw的一键部署服务。 这些云厂商提供的,不仅仅是一台服务器那么简单。他们把整个OpenClaw的运行环境都打包好了,包括预配置的镜像、自动化的部署脚本、已经调试好的依赖包,甚至还有现成的模型 API 接入方案。 用户只需要点几下鼠标,选择配置,付款,然后等几分钟,一个完整的OpenClaw实例就跑起来了。 腾讯云的方案相对简洁直接。 他们在轻量应用服务器上推出了“云应用”功能,用户通过这个功能可以三步完成OpenClaw部署。系统默认配置的是 DeepSeek API 作为模型供应商,但用户可以在 Dashboard 中自由切换到 Kimi、MiniMax 或者其他国产模型。 腾讯云的官方文档里写得很明白:“OpenClaw来自开源社区,云应用不收费”,但紧接着又补充了一句,“云服务器和 API 按照实际消耗计费”。 腾讯赚的不是OpenClaw的钱,而是云服务器租赁费、流量费、还有模型 API 调用产生的费用。他们不强制绑定自家模型,给用户留了选择空间,但基础设施这一层,你跑不掉。 阿里云的打法则更加“生态化”。 用户在轻量应用服务器上部署OpenClaw后,系统会引导用户前往“阿里云百炼大模型控制台”创建 API Key,默认调用的就是通义千问系列模型。 阿里云还推出了一个叫“Coding Plan”,这是阿里云百炼面向全品类 AI 编码工具推出的通用订阅套餐,兼容OpenClaw接入。 换句话说,阿里就是想通过OpenClaw的代安装服务,推广自己家的 AI 编程以及模型API。 阿里和腾讯想要的,是要占领agent时代的“水电煤”。 OpenClaw的爆火证明了一个趋势,未来的 AI 应用不是简单的“聊天机器人”,而是一个 24 小时在线、能执行复杂任务、需要稳定算力支持的 agent。 当个人用户和中小企业开始部署 agent 时,他们需要的不仅是模型的 API,还需要云服务器、存储空间、网络带宽,以及飞书、钉钉、企业微信这样的消息集成,还有安全沙箱环境等一整套基础设施,最后更不能少了像是 AI 编程这样具体的执行工具。 所以腾讯云和阿里云才提供了“一键部署OpenClaw”这个服务,以此抢占这个新兴市场的入口。 他们的逻辑很清楚,今天用户因为OpenClaw来了,明天可能因为其他 agent 产品来,但只要用户习惯了在他们的云平台上部署 agent,那么这些用户就成了长期客户。 更重要的是,当每个企业都需要部署自己的 agent 时,谁能提供最便捷、最稳定、最本土化的基础设施,谁就能占据这个万亿级市场的底层。 云厂商们看得很明白,卖铲子的生意,往往比挖金子的人更稳定,也更赚钱。 不仅是这样,OpenClaw它代表的是一个信号,未来的agent产品只多不少。 云厂商们现在做的,就是提前占位,建立用户习惯,构建生态壁垒。当agent成为企业和个人的标配时,谁能提供更多配套的服务,谁就掌握了话语权。 04 智谱和豆包为何不激进 在这场围绕OpenClaw的竞争中,智谱和字节的态度显得有些微妙。 不过这不代表他们在agent这个赛道上落后了,恰恰相反,他们选择了一条更独特的路。 智谱对OpenClaw的态度可以概括为“技术上支持,战略上不主推”。 智谱GLM-5在官方文档中明确提供了OpenClaw接入指南,GLM的Coding Plan套餐也支持OpenClaw配置。 智谱甚至还推出了“AutoGLM版本的OpenClaw”,支持OpenClaw与飞书的一体化配置。从这些动作来看,智谱并没有忽视OpenClaw,提供了作为一家中国AI厂商该有的一些基本支持。 智谱更看重的是AutoGLM,这是一个具备“Phone Use”能力的agent。AutoGLM在2025年12月开源,能够完成外卖点单、机票预订等数十步复杂操作,还支持微信、淘宝、抖音等超50个高频中文应用。 AutoGLM的核心技术是视觉语言模型,它不依赖传统的API,而是像人眼一样“看”屏幕,通过理解UI元素的语义直接预测下一步动作。 这种方式的优势在于,它只要能看到界面,就能进行操作。这意味着AutoGLM可以操作任何应用,包括那些没有开放API的应用。 OpenClaw 的核心场景是桌面端,需要配置海外消息平台,这些平台在中国的使用率并不高。相比之下,AutoGLM 直接在用户最常用的中文应用中执行任务,不需要依赖海外消息平台,更符合中国用户的使用习惯。 智谱的想法是,既然OpenClaw证明了agent的市场需求,那真正适合中国用户的agent,更应该是能操作微信、淘宝、抖音的AutoGLM。 字节跳动对OpenClaw的态度更加微妙。表面上看,只有前文提到的,火山引擎提供的一键部署OpenClaw。 这是因为字节对agent的注意力集中在移动端。 去年字节跳动与中兴努比亚合作推出nubia M153测试手机,内置了“豆包手机助手技术预览版”。其核心技术是UI-TARS,一个纯视觉驱动的GUI agent模型。 与OpenClaw相比,豆包手机助手更有优势。 豆包是直接集成到Android系统层,可以不打开应用就从底层进行操作,完全不会影响用户当下使用。 OpenClaw需要通过浏览器控制或API调用来操作应用,权限和稳定性都受限。 同时,豆包手机助手能够实现跨应用的复杂操作,比如“帮我在三个外卖平台比价,然后下单最便宜的”。OpenClaw的跨应用能力有限,很多任务不能跨应用完成,而且在不同应用之间切换的速度很慢。 字节跳动官方始终强调,agent应该是集成到操作系统中、能直接操作所有应用的系统级能力,而不是一个需要用户手动配置、运行在服务器上的独立程序。 这种理念上的差异,决定了字节不会在OpenClaw上投入太多资源。字节对OpenClaw保持距离,是因为它正在打造一个更高维度的解决方案。 当然,智谱和字节的这种战略选择也有代价。在OpenClaw热度最高的这段时间,错过了一波流量红利。 不过从长期来看,谁的选择更正确,还需要时间来验证。agent这个赛道才刚刚开始,现在下结论还为时过早。
估值一年蒸发近千亿,Shein创始人许仰天走向台前
刻意淡化中国背景的策略,并未能换来欧美监管机构的信任,反而让其在面临环保指控、版权诉讼时,因缺乏透明的沟通机制而陷入更深的舆论泥潭。 文 | 啸 天 近日,在广东省高质量发展大会上,一直隐匿在公众视野之外的Shein(希音)创始人许仰天罕见现身。作为企业代表,他公开发言并宣布了一项重磅计划:未来3年,希音将在广东投入超100亿元,建设智慧供应链体系。 在此之前,Shein的战略重心曾一度显现出明显的“外移”倾向。2021年,Shein将企业总部迁往新加坡,在随后的全球化扩张中,这家依靠中国服装供应链起家的跨境电商巨头,估值与净利润双双迎来了爆发式增长。 从2020年估值100亿元,到2024年《胡润全球独角兽榜》上的4600亿元,短短四年间翻了46倍的造富神话,确实给了许仰天保持绝对低调的资本。在互联网上,甚至很难搜到一张关于他的高清公开照片。 然而,在海外市场关税政策收紧、合规审查趋严以及多地IPO进程受阻的连番打击下,Shein的估值神话被按下暂停键。2025年《胡润全球独角兽榜》中,Shein的估值已回落至3650亿元,单年蒸发近1000亿元。 估值快速缩水之际,这位隐形的掌舵人不得不走向台前,以百亿投资的实际行动,重新确立企业与中国市场的紧密绑定。 01 估值一年缩水近千亿元 Shein估值急速缩水,直接反映出的是资本市场对其当前处境的风险重新定价。 过去几年,Shein凭借极致性价比和“小单快反”模式席卷欧美市场。但伴随体量膨胀而来的,是全球范围内密集的规则围堵。 在欧洲,欧盟依据《数字服务法案》对Shein实施了最高级别的监管,对其算法透明度和商品合规性提出严苛要求。法国出台的“反快时尚法案”计划对相关快时尚产品征收生态税,单件最高可达10欧元。此外,2025年以来,Shein在法国因Cookie违规、虚假广告等问题,已累计面临近1.91亿欧元的罚款。 关税豁免政策变动更是切中Shein要害。美国取消了800美元以下小额包裹的免税政策,欧盟也明确自2026年7月起,取消150欧元以下包裹的关税豁免。这对平台内绝大多数商品单价在十几美元的Shein而言,意味着直接的成本攀升,其赖以生存的低价护城河遭到严重削弱。 从财务数据来看,2024年Shein的营收虽保持了近16.9%的增长,但净利润却同比下滑近40%。这种“增收不增利”的局面,叠加海外地缘政治摩擦,让Shein此前的“全球化公司”、“新加坡总部”叙事失去了避险效力。 刻意淡化中国背景的策略,并未能换来欧美监管机构的信任,反而让其在面临环保指控、版权诉讼时,因缺乏透明的沟通机制而陷入更深的舆论泥潭。 02 上市受阻倒逼身份厘清 许仰天选择在此时打破沉默,最直接的驱动力来自于迫在眉睫的上市压力。 对目前的Shein而言,登陆资本市场已经从企业发展的可选项,变成了应对外部环境恶化、获取充足资金弹药的必选项。然而,由于企业注册地、供应链实际运营地以及主要目标市场的三方割裂,Shein的IPO之路走得异常艰难。 2023年底,Shein曾试图向美国证监会(SEC)秘密提交上市申请,谋求900亿美元的估值。该计划随即遭到美国部分议员的强烈反对,被要求对其数据安全和供应链进行严格审查,赴美上市的通道实质性关闭。 随后,Shein将目光转向英国伦敦,但同样因劳工权益、环保ESG标准及税务安排等合规问题陷入停滞。多方尝试无果后,冲击香港IPO几乎成了Shein登陆资本市场最后突围的方向。 要在香港顺利挂牌,取得中国证监会的备案批准是必须跨越的前置程序。监管机构对于企业的股权结构、实际运营重心以及离岸架构的透明度有着严格的要求。 在这一关键节点,许仰天在广东省高质量发展大会上的发言表态,是明确的信号。他公开宣称“广东是希音发展的沃土”,并强调了Shein自2014年落户广州以来的成长历程。这种从“隐身”到“发声”的转变,实质上是向境内监管机构及市场交底,通过彻底的透明化和身份的清晰化,为扫清赴港上市的合规障碍铺路。 03 百亿投资重仓供应链底座 抛开资本运作需求,Shein重金押注广东供应链,也是基于其核心商业模式运行的客观现实。 Shein能够在竞争激烈的全球快时尚赛道中异军突起,底层逻辑在于其独创的“小单快反”柔性供应链。每款服装首单仅生产50至100件,通过前端实时销售数据的反馈来决定是否返单。这种碎片化、高频次的生产需求,高度依赖地理位置集中、响应极其迅速的产业集群。 广东完备的服装产业带正是这一模式的现实底座。目前,Shein在广东的合作供应商近万家,带动省内就业超60万人。在广州番禺总部周边,Shein聚合了数百家核心供应商,将从设计打版到生产交付的全流程压缩至短短2到3周。如果脱离了中国成熟的纺织、印染及物流网络,Shein在全球市场的效率优势将大打折扣。 许仰天公布的100亿元智慧供应链投资计划,资金将明确指向传统制造业的数字化转型和产能升级。在海外关税成本刚性上涨的倒逼下,Shein只能通过向产业链上游要效率来维持利润空间。 此前,Shein已累计投入近3亿元用于赋能供应商,研发了170多项数字化工具,帮助合作工厂提升工序效率。面对海外严苛的ESG要求,这笔百亿资金还将用于推动供应商的环保技改,例如推广数码冷转印牛仔工艺以节约水资源,以及铺设屋顶光伏项目以降低碳排放。 此外,Shein正深度参与“跨境电商+产业带”试点,通过开放自身的柔性供应链底座和全球用户流量池,将平台模式从单打独斗转变为生态共建。 过去一年里,Shein经历了估值的高位回落。许仰天的公开亮相与百亿投资的落地说明,这家跨境巨头已结束早期依靠信息差和低调扩张的野蛮生长阶段。在越来越复杂的国际贸易规则下,清晰的产业根基和透明的合规体系,将取代神秘感,成为企业下一阶段生存与资本运作的入场券。
Seedance2.0从“地表最强”变“排队最长”?
马年央视春晚上,十二花神的飘逸身姿与奔腾的水墨骏马,成为Seedance2.0最高光的一次“亮剑”。 这场惊艳亮相不仅为背后的“即梦”平台(字节跳动旗下AI创作平台)带来耀眼的技术光环,更让业界和普通用户对其“飞入寻常百姓家”充满期待。然而,盛宴的余温尚未散去,现实的考验便已接踵而至,让满怀期待的用户始料未及。 2月26日,“Seedance2.0排队”词条登上热搜。大量用户发现,要想体验这一前沿技术,必须先面对排在前面数以万计的用户和数小时的排队时间。排到后还要经过人脸素材的审核,若审核失败,此前的一切等待又需重来。 2月27日下午,《每日经济新闻》记者(以下简称“每经记者”)在高峰时段以基础会员身份实测发现,排队人数平均保持在9万左右。在排队7小时后,仍显示预计还需3小时才能完成生成任务。不少即梦年费会员都反映,即便付了真金白银购买会员权益,依然被卡在漫长的等待队列中。 一边是被行业奉上神坛的全球顶尖多模态大模型,一边是连核心付费用户都无法保障的使用体验。这场服务器“挤爆”事件,抛出了一个当下全行业都无法回避的问题:当顶尖AI技术冲向商用落地的深水区,算力将如何保障? 实测:排队7小时还没到,从“地表最强”变“排队最长” Seedance 2.0问世之初,其卓越的能力在全球视频领域引发强烈震荡。 据官方披露的测试结果,该模型在VideoBench、VBench等国际权威多模态视频生成评测中,多项核心指标登顶全球第一。游戏科学创始人、《黑神话:悟空》制作人冯骥在深度体验后给出了“地表最强,没有之一”的评价。 然而,正是这款备受追捧的明星模型,在春节返工后遭遇了始料未及的需求洪峰。“Seedance2.0排队”登上热搜的同一天(2月26日),即梦App客服中心页面提醒:“由于当前使用人数较多,任务需要排队生成,生成排队及客服服务繁忙,请耐心等待。” 据公开报道,即梦App客服人员还表示,春节返工后,目前Seedance2.0模型使用的人非常多,是非常火爆的状态。视频生成需要消耗算力和资源,会有排队时间长、视频生成慢的现象。后续也会不断优化模型的使用,“很抱歉带来不好的体验”。 2月27日下午4点半,在使用高峰期,每经记者对即梦平台的视频生成服务进行了实测:以基础会员身份提交视频生成需求后,初始排队状态为总排队人数约7.1万人,记者排在第4.6万位,生成页面同时提示:“会员加速已生效,高级会员享最快加速。” 但记者发现,在提交需求后排队总人数持续攀升,自身排队位次并未随时间推进前移,反而出现了后退。提交需求半小时后,总排队人数升至8.4万人,记者位次后退至第5.5万位。提交两小时后,总排队人数突破10万人,记者位次进一步后退至第5.9万位。 图片来源:即梦网页版生成界面截图 提交需求后约7个小时,2月27日23时30分,记者排在第3.5万位,页面显示预计剩余3个小时,排队总人数仍超过10万。 排队7小时后,显示预计剩余3小时,而排队人数达到10万以上。图片来源:即梦网页版生成界面截图 即梦平台会员中心页面显示,平台会员分为三档,连续包月价格分别为:基础会员69元/月、标准会员199元/月、高级会员499元/月。从测试和对会员权益的介绍来看,会员用户在生成排队时,优先级高于免费用户,会员等级越高,排队加速权益越优,即可以“插队”等待完成任务。 图片来源:即梦网页版截图 此外,每经记者注意到,有用户反映生成进度卡在99%是在进行人脸素材审核,当前审核严格,需要经过前后三次审核。此前,即梦客服曾提醒,上传图片素材或文字关键词若涉及版权风险,会有审核不通过的情况,用户可转换描述词或更改图片后再进行审核。对此,每经记者就排队原因和审核问题向字节跳动方面了解情况,但截至发稿未收到回复。 对非商用的尝鲜用户而言,数小时的生成等待或许尚可接受,但对于将AI工具作为生产资料的职业用户与商业团队,稳定、可控、可预期的使用体验是其作为生产力工具的核心前提。当Seedance 2.0作为生产力工具时,当前的排队现象对企业用户造成了哪些影响? 每经记者在采访中手游内部人士时了解到,公司在2月26日前后测试发现,高峰期基础会员用户排队6—8小时是常态,即便开通499元/月的高级会员,也常需等待3小时以上。而对比每经记者实测情况可以发现,短短几天内,同样是基础会员,排队时长还在增加。 不仅如此,上述人士还表示,任务队列还存在明显的不稳定性,不仅会出现预估等待时间大幅跳涨的情况(如从25分钟跳至7.5小时),还频繁出现任务长时间无响应的中断问题。 至于官方推出的可快速生成的Fast版,虽然能够秒出,但因为模型精简,使其生成的素材可用性极低,无法达到买量投放的质量需求。 对商业化生产而言,这种不可控的等待与中断直接影响生产节奏。 “对于买量视频的紧急迭代需求,它(Seedance 2.0)目前确实无法当作稳定的生产力工具;仅对于长线素材储备与创意探索,仍有一定的使用价值。”上述中手游人士直言。在他看来,商业买量素材的核心竞争力在于快速迭代与A/B测试,长达数小时的等待会直接导致当日投放计划无法落地,不仅推高了试错成本,也打乱了既定的生产流程,团队最终不得不将部分工作重新转回传统制作流程。 AI狂飙,算力大考:Seedance 2.0排队是国产AI商业化必经一课 本次Seedance 2.0排队事件,并非单一产品的运营问题,其背后反映出国内AI行业在技术快速迭代、商用需求集中爆发阶段的共性挑战。 当前,国内AI模型调用量正处于爆发式增长阶段。此前,每经记者梳理全球最大AI模型API聚合平台OpenRouter数据发现,2026年2月中国AI模型调用量迎来历史性突破。 2月9日—15日当周,中国模型以4.12万亿Token周调用量首次超越同期美国模型的2.94万亿Token。2月16日—22日当周,中国模型周调用量进一步升至5.16万亿Token,三周内增长127%,同期美国模型周调用量回落至2.7万亿Token。 而排队现象与国内AI模型调用量的爆发有一个相同的核心,那就是随着AI有能力扮演“生产力工具”角色,编程、3D建模、视频生产等复杂的使用场景和AI Agent技术的普及,使得Token的消耗量大大提升。 快思慢想研究院院长田丰在接受每经记者采访时表示,相比纯文本推理,视频生成的多模态推理算力需求随用户访问量呈指数级放大,二者完全不在一个数量级。文本生成边际成本极低,而生成一条15秒高清视频,需要云端完成成千上万次去噪测算,Seedance 2.0支持的音画同步、多镜头叙事进一步增加了计算量,高分辨率多模态模型单条算力消耗是普通单模态语言模型的数十倍。 在田丰看来,本次Seedance 2.0排队事件,暴露的是国内大模型商业化进程中的“结构性供需矛盾”。 “2026年美国Claude Code爆款产品已形成‘大算力-大营收’的良性商业闭环,而国内用户付费意愿与付费水平远低于海外,只要高质量视频生成的单位算力成本无法下降到用户可接受价格的平衡点之下,这类排队与限流现象就将长期存在。” 但他同时认为,这既是国产AI推理芯片崛起的良机,也是AI应用行业从“炫技”走向“实用”的必经之路。 算力焦虑如何破解:扩大算力基建之外,还需提高利用效率 算力供需矛盾也倒逼国内AI芯片产业进入加速爆发期。 今年1月29日,阿里平头哥正式发布自研高端AI芯片“真武810E”,该芯片采用自研并行计算架构,整体性能超越英伟达A800及主流国产GPU,与英伟达H20处于同等水平,已在阿里云完成多个万卡级集群部署,大规模用于通义千问大模型的训练与推理。 2月中旬,关于字节跳动布局AI芯片的各类消息也在市场中传播。每经记者通过查询招聘软件发现,字节跳动也挂出“AI芯片系统软件架构师/工程师-NPU”“网络方向—芯片验证工程师”等招聘岗位。 在田丰看来,要让这类多模态AI工具成为Adobe、Office级的生产力标配,必须从三大核心维度优化破局。 一是重构算力SLA(服务等级协议)服务体系,废除“大锅饭订阅”,引入算力分级调度体系,参考类似云计算(AWS EC2)建立SLA分级收费模式,将算力划分为企业级极速池、付费会员标准池、免费/低价闲时池,为企业用户预留专属算力,保障服务稳定性。 二是优化节约算力的商业化设计,建立“草稿与渲染”分级生成机制,以低算力快速生成草图、确认后再做高清终渲。同时推出阶梯定价,企业端采购保底并发算力,C端可使用闲时竞价算力,减少无效算力消耗。 三是推动审核机制提效,将审核从“人力后置拦截”转向“前置确权与潜空间打标”,通过提示词前置拦截、端到端水印溯源、人机协同审核三大机制,把违规拦截嵌入生成全流程,规避合规风险的同时,避免算力无效浪费。 每经记者利用seedance2.0生成的视频截图 算力瓶颈并非短期阵痛,而将是AI时代与之长期共存的系统性命题。随着多模态技术一路狂奔,模型能力已一路从文本生成进化至复杂的多模态交互,而未来长视频、3D内容生成等高算力消耗场景还将持续扩容。技术的每一次进阶,都在为算力需求不断加码,行业供需之间的矛盾势必将随之长期加剧。 除扩大算力基建外,田丰还提出四个核心路径,从根源缓解行业算力供需矛盾。 首先是推动端侧推理崛起,利用PC、手机终端算力承接短视频特效、初步分镜等轻量级任务,仅将高难度渲染任务上云,形成“云侧-端侧”算力转移,可分流30%~50%的云端压力。其次,推进算法范式革新,从纯Diffusion模型转向混合架构,大幅压缩采样步数,力争在不牺牲生成质量的前提下将推理速度提升10倍以上。 此外,打造缓存与复用经济,建立全局元素缓存库,调用预渲染的常见镜头、光影等片段重组生成,避免重复算力消耗。最终,通过重构商业模式,从按生成次数计费转向按最终采纳结果或商业价值分成,减少无效算力浪费,与用户形成利益共同体。
华为MWC2026首秀超节点算力阵列 Atlas 950支持8192卡互联
凤凰网科技讯 3月2日 华为在MWC2026巴塞罗那展会上,首次向海外集中展示了基于其自研灵衢(UnifiedBus)互联协议打造的超节点(SuperPoD)系列算力产品。此次展出的核心设备包括全液冷AI超节点Atlas 950 SuperPoD、业界首款通算超节点TaiShan 950 SuperPoD,以及企业级风冷节点Atlas 850E等。这一动作标志着华为的系统级计算架构正式推向全球市场,以应对Agentic AI时代激增的规模化算力需求。 华为在MWC2026现场展示超节点 随着AI大模型向全模态融合及万亿参数规模演进,传统的服务器堆叠与以太网联接模式正面临算力利用率低下与故障率频发的瓶颈。以Meta公开的1.6万卡集群训练数据为例,其在54天内累计中断高达419次。针对此类硬件扩展限制,华为提出“集群+超节点”架构,依托灵衢互联协议实现大带宽、低时延和内存统一编址,使大规模计算卡在逻辑上能够如同一台独立计算机般协同运转,从而降低多轮次推理迭代的时延。 在此次展出的硬件序列中,Atlas 950 SuperPoD作为全液冷架构的代表,采用正交架构与零线缆电互联设计,支持最大8192卡的无收敛全互联。针对传统风冷机房环境,华为推出了Atlas 850E,最高可灵活组建128台1024卡的算力集群,填补了风冷条件下的超节点部署空白。此外,针对通用计算场景的TaiShan 950 SuperPoD具备百纳秒级低时延与TB级大带宽能力,主要用于提升数据库、大数据及虚机热迁移等业务的底层性能。 在硬件架构迭代的同时,华为也在同步推进底层软件栈的全面开源。截至2025年底,华为已实现CANN异构计算架构及Mind系列工具链的全面开源,开放了包含算子库、通信库等在内的27个软件包与37个代码仓,并完成对PyTorch、vLLM等超过50个业界主流开源项目及65个以上全球开源大模型的底层适配。在通用计算领域,其主导的openEuler操作系统目前装机量已突破1600万套,汇聚超2100家合作机构,进一步拓展了其底层算力生态的覆盖面。
DeepSeek V4即将发布 老外揭秘中国AI下一个冲击点
快科技3月2日消息,今年的春节档有多个国产AI大模型发布,但DeepSeek V4并没有如预期的那样问世,好消息是下周很有可能就正式发布了。 这个消息最初是英国FT金融时报报道的,援引的是消息人士,虽然不知道这些消息人士是否内部人员,但考虑到下周有全年最重磅的会议两会开幕,而且还是十五五计划开局,因此DeepSeek V4下周问世的消息还是很可信的。 去年春节档发布的DeepSeek R1给美国AI行业几大的震撼,当时NVIDIA的股价暴跌17%,虽然不全是DeepSeek的因素,但美国因此患上了DeepSeek恐惧症,生怕每次国产的开源AI发布就给美国AI一波冲击。 DeepSeek V4这次会带来哪些冲击?现在谁也不好说,美国CNBC做了个长达40分钟的视频内容——China next AI shock is hardware,中国下一次AI冲击是硬件,指出了DeepSeek V4发布之后将会冲击美国硬件行业。 实际上这也不是什么新闻了,DeepSeek之前的大模型还用了NVIDIA的AI卡训练,DeepSeek V4这一代显然会加大对国产AI芯片的支持,在国产芯片上完成训练、推理,并为多个国产AI芯片优化,目前可知的是华为昇腾及寒武纪的思元系列会有。 去年DeepSeek V3.1发布时,DeepSeek官方明确提到UE8M0 FP8是即将发布的下一代国产芯片设计。 之前国产AI芯片普遍就支持到FP16格式,部分AI可以软件支持到FP8,但显然不如原生FP8,后者相比FP16理论性能翻倍,对带宽的要求也大幅降低,有助于降低成本,毕竟之前传闻V4的成本只有对手的1/50。 国产AI芯片中目前最强的还是华为的昇腾系统,尤其是去年华为推出了超节点集群,路线图公布了昇腾Atlas 950 SuperPoD、Atlas 960 SuperPoD及Atlas 970 SuperPoD,今年问世的是Atlas 950系列。 Atlas 950超节点支持8192张基于Ascend 950DT的昇腾卡,是Atlas 900超节点的20多倍, 满配包括由128个计算柜、32个互联柜,共计160个机柜组成,占地面积1000平方米左右,柜间采用全光互联。 总算力大幅度提升,其中FP8算力达到8E FLOPS,FP4算力达到16E FLOPS,互联带宽达到16PB/s,这个数字意味着Atlas 950一个产品的总互联带宽,已经超过今天全球互联网峰值带宽的10倍有余。 对比NVIDIA今年下半年发布的NVL144,Atlas 950超节点卡的规模是其56.8倍,总算力是其6.7倍,内存容量是其15倍,达到1152TB;互联带宽是其62倍,达到16.3PB/s。 即使是与NVIDIA计划2027年上市的 NVL576相比,Atlas 950超节点在各方面依然是领先的。
联想moto首款大折叠razr fold亮相MWC 2026 搭载6000mAh电池与骁龙8 Gen 5
凤凰网科技讯 3月2日,联想moto在MWC 2026大展期间正式发布旗下首款书本式大折叠屏手机moto razr fold以及edge 70系列等多款新品。此次发布不仅涵盖了全新形态的智能终端硬件,还公布了其作为FIFA 2026世界杯官方智能手机合作伙伴的生态布局与企业级安全管理新方案。 联想 moto razr fold折叠屏AI手机 作为本次展会的核心硬件,moto razr fold标志着该品牌首次涉足大尺寸折叠屏领域。该机型配备8.1英寸2K LTPO内屏与6.6英寸外屏,内外屏峰值亮度分别达到6200尼特和6000尼特。在机身尺寸上,其展开厚度为4.55毫米,折叠状态下为9.89毫米。核心配置方面,该设备搭载骁龙8 Gen 5移动平台,内置6000mAh电池,并配备由三颗5000万像素镜头组成的影像系统。此外,该机型内外屏均支持moto pen ultra手写笔交互,官方确认该产品将于近期在中国市场推出,并搭载天禧AI智能体。 联想 moto razr fold折叠屏AI手机 同步亮相的直板智能手机包括motorola edge 70 fusion与edge 70 fusion+。两款手机均采用四曲面设计,首发搭载索尼LYTIA 710传感器,并配备支持潘通色彩认证的144Hz高刷屏。其中,edge 70 fusion具备IP68/IP69防尘防水等级,通过MIL-STD-810H军规测试,并采用康宁大猩猩玻璃7i面板;定位更高的edge 70 fusion+则额外增加了独立长焦镜头,屏幕升级为1.5K分辨率AMOLED面板,处理器采用骁龙7s Gen 4。 motorola edge 70 fusion & edge 70 fusion+ 在生态合作与周边产品层面,联想moto确认将推出FIFA World Cup 26 Collection定制版机型,并与足球游戏FIFA Heroes达成官方合作,为旗下设备提供专属游戏优化与游戏内权益。音频产品线更新了motorola buds 2 plus与buds 2,两款耳机继续联合Bose提供声学技术支持,其中plus版本配备6麦克风并支持空间音频。 FIFA World Cup 26™ Collection motorola buds 品牌建设方面,官方联合潘通发布了全新全球品牌色House of Moto Indigo(靛蓝)。针对企业IT管理场景,联想moto宣布与GrapheneOS展开安全技术合作,并推出了Moto Analytics设备健康监测平台以及能够自动移除照片元数据的私密图像数据隐私保护功能。 House of Moto Indigo
曝苹果内部认为平价版MacBook“极具性价比”,或吸引ChromeOS、Win11用户转投阵营
IT之家 3 月 2 日消息,彭博社记者马克 · 古尔曼昨天在《Power On》通讯中提到,苹果内部认为传闻中的平价版 MacBook 具备“超高性价比”,发布后预计将吸引大量用户从微软 Win11、谷歌 ChromeOS(Chromebook)转投 Mac 阵营。 古尔曼表示,苹果甚至相信这款笔记本可以吸引那些没有电脑的 iPhone 用户购买人生中第一台 Mac。 不过苹果目前并没有公布这款产品的售价。作为参考,最新款 MacBook Air 目前的起售价是 999 美元(IT之家注:现汇率约合 6863 元人民币),因此平价版 MacBook 预计将明显低于这个区间。不过苹果也不太可能把价格压得太低,要不然就会和 iPad 产品线打架。 目前,A16 芯片款的数字 iPad 起售价是 349 美元(现汇率约合 2398 元人民币),而 M2 芯片款 iPad Air 起售价为 599 美元(现汇率约合 4115 元人民币)。 因此平价版 MacBook 如果定价在 599 美元-799 美元(现汇率约合 4115 元- 5489 元人民币)之间较为合理,定位在 iPad Air 之上,但够不着 MacBook Air 和 iPad Pro,能够保持产品线之间泾渭分明。 不过由于主打性价比,苹果势必会在这款 MacBook 上作出一定妥协。例如屏幕亮度低于 MacBook Air 的 500 尼特、不支持原彩显示;市售版本可能只提供 256GB/512GB 硬盘,而教育版则可能有 128GB 版本,基础款更有可能只焊接单颗 NAND 芯片,读写速度较慢。 此外,这款笔记本还有可能不支持快充、高抗阻耳机,背光键盘也有可能缺席,预计将采用联发科无线网络方案。
魅族23胎死腹中!万志强深情告白:不想说再见 但魅族23与市场无缘了
快科技3月2日消息,星纪魅族集团中国区CMO万志强在直播中透露,虽然魅族23这款产品确实存在,但遗憾的是它可能最终不会被推向市场。这意味着这款备受期待的旗舰机型,或许将成为魅族手机史上的一个句点。 万志强表示,官方公告中的每一句话都经过了内部的充分评估。这份公告详细阐述了公司当前的生存现状、下一步的转型方向,以及对未来机会点的洞察,同时也对老用户做出了服务保障的承诺。 他在直播中感慨,虽然内心并不想说再见,但从目前的市场形势来看,消费者应该很难在公开市场上购买到魅族23的正式售卖版本了。 就在此前的新春年会上,万志强曾公开透露过魅族23的亮点,称其将搭载魅族历史上最窄的边框工艺。虽然当时也提到不再推出白色前面板,但随后的战略变动之快,超出了外界的预料。 仅仅过了一个多月,魅族科技便正式宣布进行全面战略转型。公司决定暂停国内手机新产品的自研硬件项目,关于停更的原因,魅族在公告中直言,国内手机市场的竞争激烈程度已经超乎想象,许多品牌都在被迫选择战略收缩。 尽管魅族曾尽全力拼搏希望维持正常迭代,但近期内存价格的持续暴涨,让新产品的正常商业化变成了不可为。 魅族强调,暂停国内手机硬件研发并非彻底告别,而是一种深思熟虑后的战略转向。在全新的AI时代,魅族将从过去以硬件为主导,全面转向以AI驱动软件产品为主导的发展方向。 未来的魅族将致力于打造以Flyme开放生态系统为基座的良性企业,通过这种模式,魅族希望在智能化与生态化的新赛道上寻找全新的增长机会。
报告:欧盟可通过“欧洲制造”计划大幅降低本地电池价格
IT之家 3 月 2 日消息,据路透社报道,交通与环保组织欧洲运输与环境联合会(T&E)当地时间周一发布报告称,若欧洲扩大电池生产,欧盟产电池与中国产电池之间的成本差距将从目前的 90% 降至约 30%。该组织呼吁欧盟通过“欧洲制造”计划扶持该行业。 欧盟行政部门将于当地时间周三提出《产业加速法案》,要求在使用公共资金时优先采购本地制造产品。该法案旨在覆盖电池、太阳能与风能、氢能生产、核电及电动汽车等“关键战略领域”。 部分车企表示,本地成分要求将导致电池成本高得令人望而却步,削弱其车型的竞争力。 T&E 报告指出,通过提升制造效率(尤其是降低废品率、积累劳动力技术与推进自动化),到 2030 年,成本差距有望从潜在的每千瓦时 41 美元降至 14 美元。 这相当于一辆普通电动汽车的成本差距为 500 欧元(IT之家注:现汇率约合 4045 元人民币);若有公共补贴,差距还会更小。 T&E 车辆与电动出行供应链高级总监朱莉娅 · 波利斯卡诺娃表示:“欧洲需要本土电池产业,以此作为防范供应链被‘武器化’的保险。本地成分要求是目前唯一能避免重蹈 Northvolt 困境的政策。‘欧盟制造’规则的成本,是一笔值得付出的主权溢价。” 只有欧盟设定本地成分要求,让 ACC、Powerco、Verkor 等企业扩大生产规模,成本差距才会收窄。 T&E 称,“欧洲制造”计划应明确规定,公共支持计划不仅要为电动汽车车主提供税收减免,还要覆盖企业用车计划中的雇主与员工。
阿里千问开源四款Qwen3.5小尺寸模型,覆盖从0.8B到9B的轻量级AI需求
IT之家 3 月 2 日消息,今天阿里千问宣布开源 4 款 Qwen3.5 小尺寸模型系列:Qwen3.5-0.8B/2B/4B/9B。官方称,这一系列模型继承了 Qwen3.5 家族的强大基因,采用原生多模态训练、最新的模型架构,表现出卓越的性能,以满足从极端资源受限到高性能轻量级应用的不同需求。 IT之家附官方介绍如下: 0.8B / 2B:极致轻量,端侧首选 特点:体积极小,推理速度极快。 场景:非常适合移动设备、IoT 边缘设备部署,以及低延时的实时交互场景。 4B:轻量级 Agent 的强劲基座 特点:性能强劲,多模态基座模型,适合 Agent。 场景:适合作为轻量级智能体的核心大脑,完美平衡了性能与资源消耗。 9B:紧凑尺寸,越级性能 特点:结构紧凑,但性能媲美 gpt-oss-120B,让人惊艳。 场景:适合需要较高智力水平但受限显存资源的服务器端部署,是性价比极高的通用模型选择。 目前所有模型均已在魔搭社区和 Hugging Face 开源,同时为了更好的服务和建设开源社区,同步开源小尺寸模型的基座模型。 至此,千问 3.5 家族已开源 Qwen3.5-397B-A17B 的大尺寸模型,Qwen3.5-122-A10B、Qwen3.5-35B-A3B、Qwen3.5-27B 等 3 个中型尺寸模型,以及此次开源的 Qwen3.5-9B/4B/2B/0.8B 的 4 款小尺寸模型。
2028人形机器人的“生死线”
刚过去的春节,最破圈的应该就是马年春晚上,比真人演员更多更吸引人的机器人演员军团了。 中国机器人公司在春晚上的表演,多少让外媒感受到了「文化冲击」。 相比于国内近乎激进的,让机器人进入大众视野的努力,国外竞品们,想的更多的是,先让机器人进入生产线。 例如,当年花大价钱买下了波士顿动力的韩国现代集团,就正式宣布,在今年 CES 上亮相的 Atlas 机器人,将在 2 年后的 2028 年,正式进入工厂「打螺丝」。 无独有偶,世界首富马斯克,也将 Optimus 机器人正式售卖的时间,定在了 2027 年末。 2028 年,或许是现在爆火的人形机器人的决定性时刻? 01 「2028」的赌注 今年 1 月的 CES,现代汽车执行主席郑义宣,带着 Boston Dynamics 的 Atlas 登台。这已经不是他第一次把机器人当做现代集团的名片——2022 年的 CES,他带来的是机器狗 Spot,更多像是一场技术秀。 四年过去,气氛完全不同了。 这一次,现代汽车给出了一个明确的时间节点: 2028 年,Atlas 将正式承担汽车装配任务。 不是「正在探索」,不是「计划测试」,是装配线上的实际工位。 为了这个目标,现代自 2021 年以超过 110 亿美元收购 Boston Dynamics 以来,已经累计向机器人业务投入了数十亿美元。 这个 2028 的时间节点,正在成为整个行业的参照坐标。 Atlas 的技术规格,在这一代人形机器人里相当突出——50 公斤的有效负载,意味着它是目前少数能够,真正胜任重型汽车制造场景的机器人之一。 Hynudai 在 CES 上展示的 Atlas 使用场景|图片来源:Hyundai 同类竞品中,无论是 Figure AI 的 Figure 02 还是 Agility Robotics 的 Digit,负载能力都只有 20 公斤左右。 Macquarie Securities Korea 的分析师 James Hong 评价说,现代汽车「拥有合适的条件,和一支懂得如何执行的管理团队」——这句话的关键词不是「技术」,而是「执行」。 对面的特斯拉,Elon Musk 给出的时间线是,2027 年底开始向公众销售 Optimus。 他还在今年 2 月的达沃斯论坛上说,Optimus 将成为「第一台冯·诺依曼机器」,能够在任何可居住的行星上自行建设文明。 依然是马斯克式的豪情壮志。 02 看起来很美 有一个细节值得放大。 Atlas 今年已经开始向现代汽车运送,并集成了 Google Gemini 的 AI 能力,还拿到了 CES 最佳机器人奖。它不只是一个展台上的展品,而是一个已经在真实环境中执行任务的系统。 马斯克的 Optimus 呢?截至目前,它最广为人知的「公开表演」,仍然停留在特斯拉自己拍摄的视频里,从未进行过一次无争议的完全自主公开演示。 Samsung Securities 的分析师 Kang Hee-jin 注意到一个「值得注意的遗漏」——在特斯拉最近的相关表态中,完全没有提及工厂部署的具体时间表,尽管 Musk 之前做过承诺。 她的判断是,「要么完全自主比特斯拉预期的更远,要么人形机器人在近期内可能不适合工业使用」。 不是技术上做不到,而是商业化落地的节奏,远比 PPT 里的时间表更复杂。 当然,特斯拉阵营也有它的逻辑。 Optimus 的目标定价在 2 万到 3 万美元之间,走的是大众化路线;Atlas 的企业级定价则在 130 万美元以上,面向的是工业用户。 马斯克的 Optimus 瞄准的是更广大的市场|图片来源:BI 这不是两款产品在争同一个市场,而是两种完全不同的商业哲学在押注不同的未来。 DS Investment & Securities 的分析师 TaeYong Choi 提供了一个更乐观的框架——「即使特斯拉到 2030 年每年生产 1000 万台人形机器人,也不足以满足全球需求。市场需要一个大型第二名来填补空缺。」这个逻辑的潜台词是,Atlas 和 Optimus 的竞争,并不一定是零和博弈。 但这个框架成立的前提,是两家都能真正把机器人送上生产线。 03 马斯克的愿景和现实 MIT 机器人学家、Roomba 创始人 Rodney Brooks,把人形机器人作为通用助手的理念,称为「纯粹的幻想思维」。这话刺耳,但背后有扎实的技术逻辑。 人形机器人的困难,从来不在于「能不能站起来走路」——这个问题 Boston Dynamics 十年前就解决了。真正的难点在于「非结构化环境中的泛化能力」,也就是说,当机器人离开它被专门训练过的场景,面对一个它从未见过的物品摆放方式、一个略微不同的地面坡度、一个突如其来的干扰,它是否还能完成任务。 这个问题,没有任何一家公司今天给出了令人信服的答案。 现代汽车选择的策略是「先窄后宽」——把 Atlas 部署在自己的汽车工厂里,那是一个相对可控、可重复、可标准化的环境。在这个特定场景里把机器人做到足够好,再谈扩展。 这个路径稳健,但也意味着「通用」的梦想要推后很久。 特斯拉的方向则更激进——马斯克想要的是一台真正的通用机器人,能进厨房、能当保姆、能去火星建城市。 这个愿景的商业价值毫无疑问是巨大的,但每一个宏大愿景,都需要无数个平庸的执行步骤来支撑,而特斯拉在这件事上「长期承诺未兑现」的历史记录,让投资者越来越难以给予足够的耐心。 与此同时,特斯拉自己的基本面并不轻松。 中国市场的销售数据显示,Model 系列的零售销量从 2024 年 1 月的近 4 万台跌至 2026 年 1 月的不足 1.9 万台,两年跌幅超过 54%。为了维持市场份额,特斯拉已经连续两次延长超低息融资计划。 核心业务承压,给 Optimus 的资源和时间窗口,并不是无限供给的。 04 被忽视的第三股力量 所有关于 Atlas 和 Optimus 的讨论,都有意无意地绕开了一个更大的变量——中国。 2025 年,全球出货的人形机器人里,有 90% 来自中国制造商,总量约 1.3 万台,定价激进地压在 1.5 万美元以下。这个数字和规模,让 Atlas 与 Optimus 之间的竞争,在某种程度上,显得像是两个高端选手,在争论谁的西装剪裁更好,而旁边的工厂已经把量产款卖到了整个市场。 Atlas vs Optimus 的故事,可能从一开始就不是这场战争真正的主线。 当然,性能差距目前依然存在。 Unitree 宇树科技的 H2 机器人|图片来源:宇树机器人 中国制造商在鲁棒性、负载和在复杂场景下的自主能力上,和 Boston Dynamics 的积累仍有代差。但这个代差会持续多久,历史已经给过我们足够多的提示——中国制造业在电动汽车领域,用了不到十年完成了这种追赶,人形机器人没有理由会更慢。 2028 年,如果一切按计划推进,现代汽车的装配线上会有 Atlas 在工作。那将是人形机器人产业化进程里真正意义上的第一块里程碑。 但那个时候,站在旁边虎视眈眈的,未必只有 Optimus。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。