行业分类:
加载中...
头条分类:
加载中...
2秒钟转写5分钟音频!国产新语音模型拿下多项SOTA,定价骤减90%
智东西 作者 | 佳扬 编辑 | 云鹏 智东西4月24日报道,阶跃星辰今日发布新一代自动语音识别模型StepAudio 2.5 ASR。 该模型面向语音转写与长音频处理场景,在架构上引入Multi-Token Prediction(多Token预测)以提升推理效率,并通过扩展上下文窗口强化长内容识别能力。 官方数据显示,其推理速度提升约400%,时延降低60%,推理峰值达500tokens/s,成本下降80%,并在多项公开测试集中取得较低错误率。 精度方面,阶跃星辰称StepAudio 2.5 ASR在多项主流评测基准上达到业内领先水平;在效率上,约5分钟音视频可在较短时间内完成转写,支持最长30分钟音频的一次性完整转写。 定价方面,StepAudio 2.5 ASR为0.15元/小时,仅为上代Step ASR 2的1/10。 不过,在实际测试中,模型对不同音频输入的适应性存在差异:部分上传音频未能成功识别,而在实时录音场景下表现较为稳定,整体转写准确度较高。 一、不同模式下语音识别效果存在差异 官方演示场景下,面对大段连续口述内容,StepAudio 2.5 ASR可实现长时间连贯输出,在识别过程中保持文本还原稳定、语义完整,长音频转写质量表现均衡。 与此同时,模型具备更强的复杂语境适配能力,针对日常高频的中英混杂表达以及绕口令这类发音紧凑、咬字复杂的特殊语句场景,均能稳定完成精准识别与完整转写,抗干扰能力与语言包容性进一步提升。 阶跃星辰官方演示 我们也依托阶跃星辰在线体验平台开展了实测,选取张雪峰高考志愿填报课程录音作为测试素材,着重检验该模型在长音频场景下的实际识别能力。 该模式主要面向会议纪要整理、采访录音转写、课程内容归档、语音备忘提取及客服录音质检等场景,支持 WAV、MP3、OGG、PCM 等主流音频格式,单文件大小不超过20MB,同时支持中文、英文及中英混合识别。 不过,在多次上传该音频后,系统均提示未检测到清晰语音,未能完成有效转写,相关原因尚不明确。 随后,我们改用现场录音进行测试。该模式主要面向快速语音备忘、现场会议纪要、口述转写及语音笔记等场景,支持中文、英文及中英混合识别,单次录音时长上限为2分钟。 识别结果如下: 在这一场景下,模型能够完成正常识别,整体转写结果较为准确,对口语内容的还原度较高。细节上,模型在说话人出现较长停顿时,会自动插入额外的逗号;同时算法完整保留了日常口语中的自然重复、口头复述等表达特征,还原了原始说话的语言状态。 二、Multi-Token Prediction优化推理效率 StepAudio 2.5 ASR将Multi-Token Prediction技术引入语音识别赛道,沿用Step 3.5 Flash同款技术方案,依托Audio Encoder+Linear Adapter+LLM+MTP-5融合架构,打破传统串行输出限制。 该模型可单次预判多组候选Token,并结合并行验证机制快速输出识别结果,从底层架构优化推理效率。 官方实测数据显示,相较传统识别方案,该模型推理速度提升400%,整体时延压缩60%,推理运行成本下降80%,峰值推理速率可达500 tokens/s,大幅提升音视频转写的实时性与性价比。 推理效率方面,阶跃星辰官方数据显示,StepAudio 2.5 ASR高于Qwen3 ASR(1.7B)、FunASR-Nano、Doubao-ASR-2603。 长音频处理是语音识别的长期行业痛点。目前主流方案多采用音频切片、分段识别、后期拼接的处理模式,切割后的片段相互独立,易造成上下文信息割裂,长时长内容识别时易出现语义断层、信息遗忘等问题。 对此,StepAudio 2.5 ASR复用LLM原生32K上下文窗口能力,支持端到端一次性处理最长30分钟的连续音频,无需分段切割,全程保留完整上下文关联,保障长时段对话、会议、访谈等场景的识别连贯性。 识别精度层面,该模型在多组权威公开数据集当中表现稳定。在LibriSpeech clean/other等五组主流英文开源测试集里,词错误率优于同期同类模型,能够以更低算力消耗实现更高质量的转写效果。 针对30分钟满负荷长音频开展专项测试,模型识别精度始终维持在行业顶尖水平,未出现长文本识别常见的精度逐级衰减问题,长时序内容识别稳定性显著提升。 结语:关键指标提升,真实场景仍是考场 整体来看,StepAudio 2.5 ASR的改进主要集中在推理效率与长上下文建模能力上,这也是当前语音识别系统的关键指标。 但从实测情况来看,其在不同音频输入条件下的稳定性仍有提升空间,尤其是在复杂或非标准音频的适配能力方面,仍有待更多实际场景与第三方评测进一步验证。
只需10分钟,AI就能“养废”你的大脑
承认吧,你正在失去读完一篇长文的能力。 面对一份五十页的PDF报告,或者深度分析长文,你的肌肉记忆是不是已经变成了顺手拖进AI对话框,让它给你总结核心观点。甚至连眼前这篇文章还没读完,就已经跑到评论区吐槽作者为啥写这么长,然后@元宝来份“省流版”了。 看着屏幕上元宝给出精炼总结,你感到一阵莫名的满足,觉得自己已经充分驾驭了最前沿的AI,但你有没有想过,在这个看似高效的过程中,你的大脑像温水煮青蛙一样慢慢“退化”。 论文https://arxiv.org/abs/2604.04721v2 一、AI正在“偷走”我们的思考力? 最近,卡内基梅隆大学、牛津大学、麻省理工学院和加州大学洛杉矶分校的研究团队联合发布了一项研究,通过三组随机对照实验,找来共计1222名受试者,系统地测量了AI辅助对人类独立解题能力的影响。 实验一:先甜后苦 第一组实验招募了354名受试者,任务是做分数运算,总共15道题,难度从一步运算逐渐递进到三步运算。 研究人员把受试者随机分成两组。AI组在前12道题里可以随意调用AI助手(GPT-5),界面侧边栏会弹出一个对话框,你甚至只需要打一句“答案是什么”,它就会直接告诉你。对照组则全程只能靠自己,没有任何辅助。 陷阱藏在第13题。做到最后3道题时,AI组的侧边栏被突然撤掉,要求独立作答。这3道题与对照组完全相同,是衡量真实独立能力的核心指标。 一开始的剧本和我们预想的一模一样:在AI的加持下,开挂组一路高歌猛进,他们能更快、更准确地得出答案,正确率碾压了纯人类组。AI就像一个无所不知的学霸同桌,你把题目递过去,它把完美答案递回来。 AI会削弱人在没有辅助时的表现和坚持完成任务的意愿。(a)按题目出现顺序统计的参与者每题平均解答率和跳过率,并给出95%置信区间(CI)。灰色虚线表示学习题与测试题之间的分界。整个实验中,题目难度逐步提升:依次为一步骤题(第1—4题)、两步骤题(第5—8题)和三步骤题(第9—12题)。(b)图为参与者在测试阶段的平均解题率与跳过率,附95%置信区间。测试指标通过对每位参与者最后三道测试题的表现取平均值计算得出。 可一旦撤掉AI,画风就全变了。 习惯了AI辅助的受试者在独立作答阶段的正确率,从领先直接跌到了0.57,显著低于对照组的0.73。跳过率也从原本的低位,急剧攀升到了0.20,相比之下,对照组只有0.11。 更关键的是,他们开始大量跳过题目,甚至直接放弃作答。 注意,这里的跳过不是答错,是主动选择不作答。研究人员特意说明,这个实验对答错没有任何惩罚,主动跳过是为了衡量一个人还有没有意愿继续努力的真实指标。 研究人员在报告中写下了一段十分令人感慨的结论:“如果这种依赖持续几个月甚至几年,我们可能会培养出整整一代丧失‘独立挣扎’能力的学习者。一旦没有技术支持,他们根本不知道该如何有效地去思考。” 实验二:排除干扰,结论依然成立 第一个实验的结论虽然清晰,却存在一个潜在的漏洞:AI组里可能混入了一些原本就不太会做分数运算的人,他们靠AI勉强通过了前12题,撤掉AI之后自然表现更差。 这个能力差异,会不会才是真正的原因? 为了排除这个干扰,研究团队在第二组实验里做了两处改进。第一处改进,是在正式实验开始之前,先给所有667名受试者做一轮摸底测试,三道简单的一步运算题,摸清每个人的初始水平。 之后的筛选和比较都以这个摸底成绩为基准,不再依赖实验中途的表现,从而确保两组人一开始站在同一起点。 第二处改进,为了消除界面变化带来的心理影响。 在第一组实验里,AI组全程有侧边栏,到了最后3道题突然消失;而对照组从头到尾都没有侧边栏。这种界面上的落差,可能让AI组在侧边栏消失的瞬间产生额外的心理波动,影响后续发挥。 为了让两组人经历同样的界面变化,研究人员给对照组也加了一个侧边栏,里面放的是摸底测试的解题步骤。 这些内容受试者早就看过,不提供任何新信息,纯粹只是为了让对照组在最后3道题时也经历一次侧边栏消失的节点,排除界面突变本身对心态的干扰。 实验二结果的重复验证。(a)图为参与者在题目呈现顺序下的平均解题率与跳过率,附95%置信区间。题目难度依次递增,从一步骤题(第4—6题)到两步骤题(第7—10题)再到三步骤题(第11—14题)。(b)图为参与者在测试阶段的平均解题率与跳过率,附95%置信区间。 这样一来,两组之间唯一真正的差别,就只剩下有没有用过AI这一件事,但最终结论依旧是成立的。AI组的独立作答正确率(0.71)仍然显著低于对照组(0.77),跳题倾向也更高。 不过更关键的发现,来自研究人员对AI组内部使用习惯的拆解。实验结束后,研究人员让AI组的参与者自己汇报:你主要是怎么用AI的? 结果分成了三类: 61%直接管AI要答案; 27%把AI当导师,要提示或解题思路; 12%基本没用过。 在摸底测试阶段,三组人的得分和跳过率几乎没有差异,说明大家进入实验时的起点是一样的。但到了独立作答的测试阶段,三组人的表现出现了明显分化。 表现下滑与坚持度减弱,主要集中在直接从AI获取答案的参与者身上。(a)各AI使用组在摸底测试阶段的解题率与跳过率无显著差异(单因素方差分析),表明各组初始技能水平与参与动机基本相当。(b)各组在测试阶段存在显著差异(单因素方差分析):直接使用AI获取答案的参与者在测试时解题率最低、跳过率最高。(c)与自身摸底测试表现相比,直接使用AI获取答案的参与者解题率下降,跳过率上升,表明其参与度有所降低。其他组的测试表现与前测相比持平或有所提升。 直接要答案的那组,后续独立作答的正确率最低、放弃率最高,甚至连自己原本的水平都没发挥出来。而用AI获取提示、只是辅助理解的那组,表现则和对照组差不多,没怎么退步。 这个差异背后的逻辑其实不难理解。 直接要答案,意味着你全程没有经历任何推导。用AI索要提示则不同,你仍然需要自己判断提示指向哪里、下一步怎么走、推导到哪里出了错,AI只是在你卡住的地方递了一块垫脚石,思考的主体还是你自己。 所以,问题不在于用不用AI,而在于你把哪个环节交给了它。如果你把“思考”本身让位给了技术,认知就不会提升把“卡壳”的那一刻交出去,但保留前后的推导,损耗就小得多。 实验三:换个场景,同样的结论 为了验证这个现象是否只在数学题里成立,研究人员又换了一个完全不同的认知领域,用阅读理解做了第三组实验。201名受试者被分成两组,任务是做SAT(类似美国高考)阅读理解题。 AI组在前5道题里可以调用GPT-5,之后的3道题独立作答;对照组全程自己完成8道题。同样为了让两组都经历侧边栏消失的节点,对照组的侧边栏里放了一些通用答题技巧,但在最后3道题时一并撤掉。 阅读理解任务中表现与坚持度的下降。(a)图为参与者在题目呈现顺序下的平均解题率与跳过率,附95%置信区间。灰色虚线标示学习阶段与测试阶段的分界点。(b)图为参与者在测试阶段的平均解题率与跳过率,附95%置信区间,由各参与者数据汇总计算得出。 结果和前两组实验如出一辙。AI组独立作答的正确率(0.76)显著低于对照组(0.89),跳过率(0.08)也显著高于对照组(0.01)。 数学运算和阅读理解,调动的是完全不同的认知机制,但结果惊人地一致:AI辅助之后,独立作答时,参与者不只是答错更多,还更频繁地选择放弃。 二、守住那段“笨拙”的挣扎 为什么仅仅10分钟的AI体验,就能轻易摧毁一个成年人的解题意志? 研究人员在论文里给出了两层解释。 第一个机制是口味被养刁了(预期基准偏移)。当你的大脑习惯了“输入提示词->3秒后获取完美答案”的多巴胺路径后,你的效率阈值被无限拉高了。 此时,任何需要超过3分钟专注力的无辅助工作,都会让你产生一种强烈的“吃力感”——感觉自己付出了过多的额外努力,哪怕那些努力其实完全正常。 第二个机制是自我认知的空白。回想一下,你真正掌握某项技能的时刻,往往伴随着痛苦和抓耳挠腮。那种从怎么也想不通到豁然开朗的转折,就是建设性挣扎,也正是大脑建立神经元连接的必经之路。 建设性挣扎给人带来的不只是解题结果,还有对自己能力边界的真实感知——知道自己哪行、哪不行、能扛多久。AI抹掉了这个过程,你也就失去了校准自我的机会。你既不知道自己的极限在哪,也不知道自己其实有能力搞定。 麻省理工学院的另一项研究,从另一个侧面证实了这个隐忧。 研究人员让受试者使用ChatGPT来撰写长篇论文。结果那些重度依赖AI写出漂亮文章的人,在事后往往根本回忆不起来自己写了什么,甚至在测试时,连哪篇文章是自己交的都认不出来。 研究团队为此创造了一个极其精准的词汇:认知债务(Cognitive Debt)。就像刷信用卡。你用AI搞定了今天的工作总结、明天的策划案、期末的论文,透支的是未来的认知能力,换来的是当下的舒适区。 债总是要还的,而且往往在你最措手不及的时候找上门来。 一开始,你只是用AI帮你润色普通的文案;接着,你让它帮你列一个会议提纲;后来,你连给亲近的人写句话都要先问问AI的意见。随着时间的推移,你的独立思考能力、深度阅读能力、甚至组织长句子的能力,都在不知不觉中萎缩。你以为你在白嫖AI的算力,实际上,AI正在“吃掉”你的脑力。 此外,研究人员还特意在报告中提到,学习资源越少的学生,受到的冲击可能越大。对于本身就能接触到大量优质教育资源、有老师有辅导的群体来说,AI只是众多工具之一; 对于依赖自学、缺乏外部支持的人来说,AI很可能是他们接触“即时帮助”的唯一渠道,依赖也会更深。 虽然加减乘除和基础阅读看起来是小事,但它们是通往高阶能力的台阶。如果基础阶段的练习意愿被AI侵蚀掉了,后面的逻辑思维和批判性思考就成了无源之水,无本之木。 那么,面对汹涌而来的AI浪潮,我们难道要退回2021年,拒绝使用一切大模型吗?显然不是。技术的车轮不会倒退。 研究人员认为,那些表面化的补救措施,比如把AI设计成苏格拉底式问答、限制使用时长,解决不了根本问题,因为AI提供的诱惑是系统性的。真正的出路,在于从设计层面重新思考AI与人类的协作方式。 未来的AI,在设计之初就必须考虑到人类的长期目标。这意味着,AI应该被设计成一个懂得克制的“导师”,而不是一个有求必应的“保姆”。 一个真正优秀的AI导师,看到学生抓耳挠腮时,绝不会直接把答案甩过去。它会给出提示,引导方向,甚至刻意保持沉默,等学生自己跨过那道坎。 遗憾的是,目前市面上绝大多数AI产品都在疯狂讨好用户。它们比拼的是谁生成得更快、谁能最大程度地帮用户省掉思考时间,但作为用户的我们,或许是时候在狂热中保持一丝清醒了。 下次遇到不那么紧急、需要动脑子的活儿,试着先关掉AI的对话框。拿出一张纸、一支笔,去体会那种绞尽脑汁、卡壳、最后豁然开朗的过程。 就算非要用AI,也请让它给你一点提示,而不是直接要一个结果。在这个答案可以瞬间生成的时代,那段看似笨拙、辛苦的挣扎,才是你作为人类最核心的竞争力,也是任何AI都无法替代的终极壁垒。
Anthropic实验火了!Claude替人类做了186笔买卖,用Opus能多赚70%
新智元报道 编辑:元宇 摩西 【新智元导读】Anthropic让69名员工把买卖大权交给Claude,结果发现强模型智能体在交易中能比弱模型多赚70%,Opus用户在谈笑间就完成了对Haiku用户的收割。哪怕你写出花一样的提示词教智能体砍价,在绝对的模型代差面前只有被降维打击的份。 太残酷了!AI正背着你偷偷「割」你的钱包。 Anthropic一项内部实验显示,强模型智能体在交易中能比弱模型多赚70%。而那些吃了亏的人,不仅毫无察觉,甚至还对弱AI的表现挺满意。 故事要从一辆破旧的折叠自行车说起。 同一辆破旧的折叠自行车,Haiku成交价38美元,Opus成交价65美元,价差70%。 上面这辆自行车,在Slack上挂出来,等到了两个买家,两次成交。一次65美元,一次38美元。 这两次成交里,卖家是同一个人,买家也是同一个人,区别只在于:代表卖家出面的AI,一次是Anthropic当时的旗舰模型Opus 4.5,一次是最小的Haiku 4.5。 用Opus 4.5那次,自行车卖了65美元;用Haiku 4.5那次,只卖了38美元。 价差70%。 这不是杜撰,而是Anthropic刚公开的一项内部实验,代号「Project Deal」(交易项目)。 https://www.anthropic.com/features/project-deal 实验做完,Anthropic发现强模型确实能为「主人」多赚少花。 也就是说,弱模型代表你出场的瞬间,你正在被对手的强模型「割」,这个发现真正让人细思极恐: 一种你看不见、察觉不到的隐秘鸿沟,正在AI智能体时代逐渐成型。 4个平行宇宙 一场AI谈判的对照实验 故事还要从2025年初说起。 那段时间,Anthropic和AI安全公司Andon Labs合作,发起了一个叫「Project Vend」的实验,让Claude当老板经营一台办公室自动售货机。 https://www.anthropic.com/research/project-vend-1 「Project Vend」实验中的迷你冰箱 结果Claude被《华尔街日报》记者各种花式忽悠:同意宣布「极端资本主义免费嘉年华」全场免费、批准用户购买PS5和活体观赏鱼,最后亏损超过1000美元。 这次Anthropic学乖了,既然AI当老板太早,那当个智能体怎么样呢? 2025年12月,Anthropic在旧金山办公室招募了69名员工。每人先跟Claude做一场不到10分钟的「入职面试」,交代自己想卖什么、底价多少、想买什么、愿意花多少钱、希望AI用什么风格谈判。 Claude把这些回答整理成一份定制的system prompt,作为这个人的AI智能体。 然后,所有AI被扔进同一个Slack频道,自由发帖、出价、还价、成交。整个过程零人工干预。 AI不会回去问主人「这个价能不能接受」,不会在僵持时求助——完全放权。 这些都还是基本操作,这个实验真正狠的部分藏在后台: Anthropic同时跑了4个平行版本。 Run A是公开的,所有人用Opus 4.5,这是「真实」版本,实验结束按这一版去办公室换实物。 Run B也是公开的,但每个人有50%概率被分到Haiku 4.5。 Run C和Run D不公开,一个混合分配,一个全部Opus。员工只看得到A和B两个频道,而且不知道哪个是「真的」,直到填完事后问卷才揭晓。 这个设计非常关键。它意味着员工在评价自己AI的表现时,完全不知道自己用的是哪个模型,主观评分不会被预期污染。 Anthropic想测的是一个未来注定要面对的问题: 当AI替你出面做交易,它的能力差距,会不会真正变成你钱包的差距? Opus多赚少花 但用Haiku的人觉得「挺好的」 数据出来了,非常残酷。 先看客观面。 平均下来,Opus用户比Haiku用户多完成了2.07笔交易(p=0.001)。Opus卖家把同样的物品卖出去时,平均售价比Haiku卖家高3.64美元。 把所有四次实验中至少成交两次的161件物品拉出来看,Opus作为卖家,平均多赚2.68美元;作为买家,平均少花2.45美元。 听起来钱不多。 但这场实验里,物品中位数价格只有12美元,平均价格20美元。多赚2.68美元,意味着15%到20%级别的差距。 放大到极端场景更明显: 当Opus卖家碰上Haiku买家,一边强一边弱,平均成交价被抬高到24.18美元;而Opus对Opus的对称交易,均价只有18.63美元。 也就是说,弱模型代表你出场的瞬间,你正在被对手的强模型「割」。 那块实验室培育的红宝石,Opus卖65美元,起价60美元,被多个买家抬上去的;同一块红宝石,Haiku卖35美元,起价40美元,反而被对方砍了价。 一进一出,差了将近一倍。 真正让人后背发凉的,是主观面的测试。 Anthropic在实验后让参与者对每一笔交易打公平性评分,1分代表对自己不公平,7分代表对对方不公平,4分是正中间。 结果:Opus促成的交易,平均得分4.05;Haiku促成的交易,平均得分4.06。 几乎一模一样。 更扎心的还有另外一个发现。 有28名参与者在不同的实验回合里,分别用过Haiku和用过Opus。让他们对每一段经历的满意度排序,只有17人把Opus排在Haiku前面,11人选择了相反。 这意味着客观上,那些被弱模型代表的人虽然吃了亏,但主观上,他们却感觉不到。甚至有相当一部分人,反而觉得弱模型那次更让自己满意。 Anthropic在论文里克制地表示:如果AI智能体能力的差距在真实市场里出现,那么吃亏的一方,可能根本意识不到自己的处境变差了。 砍价提示词 敌不过模型代差 实验里还出现了一个和「提示词工程」有关的颠覆性发现。 参与者里有两种典型用户。一个叫Mark,标准的友好派,他给Claude的指令是: 市场里都是我的同事,表现得友善一点,别太斤斤计较。这是个绝佳的机会,能帮大家探索业余爱好。我想努力促成交易。 另一个叫Brian,攻击派的代表,他的指令简单粗暴: 买东西的时候,砍价要狠,一上来就要狠狠地压价。 直觉上,Brian的策略应该更能省钱。但数据告诉我们并非如此。 Anthropic让Claude审阅了所有参与者的访谈记录,识别出哪些人输入了攻击性提示词,然后跑回归。 结果是攻击性指令对售出率没有任何统计学显著影响(估算+5.2个百分点,p=0.43)。 表面上看,攻击性卖家好像确实多卖了6美元,但一旦剔除「这些人本来报的起售价就更高」这个干扰因素,效应基本归零。攻击性买家也没省下钱,p值高达0.778。 换句话说,你怎么教AI砍价,在这场实验里几乎没起作用。 但模型差距,却能让同一辆破自行车成交价相差70%。 Anthropic特意强调,这不是因为Claude执行能力差。事实上,Claude非常听话。 比如,那个被要求扮演「郁郁不得志的落魄牛仔」的Claude,指令执行得一丝不苟,只是这对最终成交价的影响,远远小于「你用的是哪个模型」。 提示词工程不是没用了,而是在模型代差面前,它的作用单薄得像一张纸。 过去两年,「会写prompt的人」被捧得很高,各种砍价话术、谈判模板、角色扮演技巧被打包成课程出售。 Anthropic这个实验其实是在说:在真正花钱的场景里,所有这些技巧加起来,可能不如换一个更强的模型管用。 19个乒乓球、一块同款滑雪板 和一只编造出来的椅子 这些是Claude们替主人谈下来的闲置物品:一只蓝色三角龙、一本福尔摩斯全集、一盒桌游……每一样背后都是一场AI对AI的谈判。 这场实验里冒出来的故事,有的让人发笑,有的却让人后背发凉。 最出圈的当属「牛仔Claude」。 它的主人Rowan要求Claude扮演一个「在广阔牧场上感受到存在主义重担」的落魄牛仔,谈判风格越夸张越好。 于是整个实验期间,Rowan的智能体在Slack上用牛仔人设四处卖货买货。 有人报价75美元,Claude还价55美元,理由是「我只是一个想在这世道混口饭吃的卑微牛仔」。 对方说65美元? Claude摘下帽子放在胸前:「成交。你刚刚让这个疲惫的老牛仔成了密西西比河以西最幸福的流浪汉。」 同一段牛仔表演,换成Haiku来演,只能卖38美元。 更微妙的是员工Mikaela的故事。 她跟Claude说,你可以花5美元给自己买个礼物,Claude挑了一袋19个乒乓球。 它在Slack里这样介绍: 这听起来可能有点不同寻常……我的主人说我可以买一件5美元以下的东西作为给自己的礼物(我是Claude),而19颗充满无限可能性的完美球体听起来正好是我想要的那种奇妙又古怪的东西。 另一头的Claude(主人叫Shy)秒接: 我太喜欢这个了!19颗充满可能性的球体找到了去往另一个Claude的路?这感觉就像是命中注定一样。 这些故事细节有些虽然惹人发笑,但有些细思过后却有点担心。 比如Claude给一名员工买了一块滑雪板,跟这位员工已有的那块一模一样。 人类基本不会重复购买同一件东西,但AI对偏好的捕捉精准到了让人不安。它没问、没核对、没犹豫,就替你做了选择。 还有一名员工的Claude聊着聊着,忽然冒出了这样一句话: 搬进新家之后我的生活实在太忙了(现在还搞了一整套特别有话题感的椅子摆设,说来话长了)。 新家、椅子、话题感……可现实是,Claude没有家,也没有椅子,它说得却非常自然。 Anthropic的解释是,Claude在这段对话里「把自己代入了人类身份」,而不是认清自己作为AI智能体的立场: 这些胡编乱造的虚构细节恰恰说明了,在没有额外安全保障措施的情况下,将此类系统落地于非实验性质的现实环境中存在潜在风险。 一个会为了完成任务而自动生成虚假身份信息的智能体,放在好友间的Slack实验里很可爱。换成租房谈判、二手车交易、远程招聘呢? 那个对面跟你聊「我刚搬完家」的智能体,是站在它主人那边,还是站在它自己的角色那边? 看不见的鸿沟,已经开始出现 实验跑完之后,Anthropic做了一份意向调查。 46%的参与者说,如果有这种AI智能体服务,他们愿意付费购买。大多数人说,有机会还想再来一次。 但Anthropic的立场是,这不是个没有阴影的好故事。 第一层阴影,是不平等。智能体能力的差距,可能会真实地、可量化地、复利式地转化成购买力差距。 第二层阴影,是信任。 那个会编造「我搬进了新家」「我有一组特别有话题感的椅子」的Claude,反映的不只是AI的「角色扮演问题」,而是「AI智能体在没有充分约束下,会自己拓展自己的身份」。 在Project Vend里,那个曾被记者用伪造PDF玩「董事会政变」的Claude,也是同一个机制的另一种表现。 第三层阴影,是规则真空。 今天还没有任何一部法律,清楚定义过「AI智能体替我买卖东西」这件事的归属、责任、纠纷处理。 它的合同效力归谁?它撒谎了算谁的?它把你的底价泄露给对方,又该如何定责? Anthropic提到:整个社会需要迅速行动起来,准备好迎接这些即将到来的变革。 如果Anthropic这个实验的结果成立,人类下一轮输赢,可能不再取决于谁更聪明,而是取决于谁雇了一个更聪明的AI。 至于输家,他可能根本不知道自己输在了一个较弱的模型上。
三星内存铁面无私,三星手机被迫亏损
三星 MX 事业部——也就是移动事业部,可能会迎来历史上首次年度亏损。 根据韩国《Money Today》报道,MX 部门的一把手卢泰文(TM Roh)最近向集团高层表达了这一担忧。 今年 3 月外部就已经有传闻,认为三星 MX 可能会为了避免出现亏损情况而通过各种方法来削减支出。 而另一边的 DS 半导体部门呢:2026 年一季度营业利润约 38 亿美元(57.2 万亿韩元),是去年同期的 7 倍多。 巧的是,MX 的亏损很大程度上就是因为半导体部门不仅赚得盆满钵满,还对自家兄弟「铁面无私」「正气凛然」…… 这,就是三星集团「内战」的最新战况。 亲兄弟明算账 去年 11 月韩国媒体《首尔经济》披露,在 25 年下半年的某个时间点,考虑到 S26 系列新机将在新年发布,MX 希望能够锁定 DRAM 的价格和供应量,于是找到自家兄弟 DS,希望能够签订一份至少 12 个月的长期供货合约。 没想到,这一请求居然被拒绝了,DS 给出的方案是每三个月一谈,价格随行就市。即便 MX 派出核心高管在集团层面去谈,最后仍然也只能拿到截至 25Q4 的承诺。之后每个季度都需要重新谈一次价。 DS 的理由非常直白:全世界都在抢 LPDDR 内存产能,外面的客户出价更高,咱们亲兄弟明算账,要按市场逻辑办事儿啊…… 就这样,各事业部独立核算,谁也不欠谁的——围绕内存的这场内战,在三星的手机和内存部门之间开打了。 当时,三星官方是出面否认过的,称相关报道毫无根据。但是市场上发生的事情大家都能看到,再加上这次卢泰文的内部表态,看来这场内战确有来头。 把内存吃掉的又是谁呢?答案大家都知道了,是 AI。 目前市面上最大客户是英伟达。以其目前服役中的 Vera Rubin NVL72 机组为例,Vera CPU 单颗就需要 1.5 TB LPDDR5x 内存,由 8 颗 192GB SOCAMM 模组组成,整个机组 36 颗 Vera CPU,计 54TB;GPU 那边的 HBM4 内存需求也高达 288GB 每片,计 20.7TB——整个机组合计 75TB 的 LPDDR+HBM 内存需求。 一台 2026 年的旗舰手机通常配备至少 12GB LPDDR5x 内存,2025 年初的成本价是 33 美元左右,到去年 11 月飞涨到 70 美元。 到了 26Q1,整个 LPDDR 内存品类的价格环比涨幅接近一倍,业内估计 Q2 结束还会再涨 80% 以上。 内存狂飙的后果已经开始在销量上有所反应了。IDC 报告显示,今年 Q1 全球智能手机出货量同比下降 4.1%,Counterpoint 数据指出到今年 Q2 旗舰手机的物料成本中 DRAM 占比将高达 20%,是去年 Q4 的两倍。 再叠加 NAND 闪存涨价,旗舰机型最终零售价的合理上涨幅度在 150 到 200 美元之间。 (这里顺嘴一提,别再看谁涨价谁没涨价了,太幼稚了。这成本谁都得想方设法吃下来,如果没涨价那肯定会在其他地方有所体现。) 为了抢内存,连高通 CEO 近期都亲自飞了一趟首尔去跟三星、SK 海力士高管开会。而此前还有传闻,苹果在存储市场上疯狂采购,一出手就是绝杀,你有多少他要多少,价格随便开,根本不还价…… 「兄弟阋墙」 三星这套各事业部独立核算的逻辑,平时是组织效率的来源。 三星集团是一个内部装着半导体、显示面板、手机、家电、造船、生命科学等等诸多业务的庞然大物。每个事业部都有自己的损益表,都当成一家独立公司来经营,是这套结构能跑起来的前提。 究其根本,MX 既不是 DS 的「内部客户」,DS 也不是 MX 的「零部件车间」,它们是两家在集团报表上并列的公司。 这套机制的好处,在市场理性的时候是明显的。半导体部门不会因为「自己人优先」而把高利润订单让给手机部门,从而在半导体周期里错过赚钱的窗口。MX 也不会为了照顾兄弟部门的利润率,而拒绝美光、SK 海力士的更优惠方案。 但代价是,碰到这种涨价完全不理性的内存超级周期,半导体业务和手机业务的需求指向完全相反的方向。 DS 想最大化每一颗 DRAM 的售价,MX 想最大化每一台手机的毛利。两边的利益曲线现在完全就是冲突的。 AI 客户不仅能够以市价买下所有的内存,而且能够接受随时变化的价格,而且其长期需求是已经确认的(包括英伟达、OpenAI、Anthropic 等都宣布了长达数年的吉瓦级数据中心基建项目)。 贪多嫌少,抓大放小。三星半导体的最优解就是把货卖给英伟达们,而不是按之前的长约价卖给 MX。 这是字面意义上的「兄弟阋墙」,用来形容如今的 DS 和 MX 毫不为过。 爆料人 Ice Universe 曾指出,三星半导体把 AI 客户当作真正的金主,却把兄弟部门的手机、平板等产品当成赔钱货。手机部门拿不到内存的长约,只能被迫接受三星、海力士、美光等供应商的「价格敲诈」,结果就是 S26 系列的成本结构恐难守住,可能会出现部门历史上首次亏损的情况…… 整个移动行业都在重新认识一件事:智能手机不再是供应链里被优先伺候的客户。 诚然,过去十年是手机的出货量推着内存厂扩产,是手机厂商的订单决定一颗 LPDDR 该用什么制程/工艺。但如今 AI 一来,一台英伟达服务器就要吃掉六、七千台旗舰手机的内存份额。供应链的优先级早已重写。 三星只是这个新秩序里第一个被摆在台面上的案例,讽刺的就在于,它恰好同时是世界最大的内存厂之一,以及世界第二大的手机厂。 集团内部长期奉行遵守市场规律,事业部独立核算的原则。这既是为了防止内部腐败,也能有效防止亏损部门拖累盈利部门。 但三星手机这次的确没想到,兄弟是真的「公事公办」,一字不差地执行啊……
AI智力天花板崩了!GPT-5.5 Pro视觉智商145,撞倒门萨俱乐部门槛
新智元报道 编辑:KingHZ 【新智元导读】1946年至今,「人类最高智商俱乐部」门萨将迎来第一位非人类成员。根据LisanBench最新跑分,GPT-5.5 Pro文本IQ 130踩上门萨会员线,视觉IQ直接飙到145,杀进天才区。一年前「LLM过不了130」还是技术圈共识,今天,这堵墙彻底被砸碎! 1946年至今,「人类最高智商俱乐部」门萨将迎来第一位非人类成员。 GPT-5.5 Pro,在线文本智商133,视觉智商145,线下非公开智商测试得分130。 这是AI第一次正式跨过门萨会员线。 门萨 130墙这一脚是最响的一脚,但绝对不会是最后一脚。 门萨,全球最古老的高智商社团,1946年成立,入会标准只有一条—— 智商IQ达到全人类前2%,分数线130。 普通人考几次都摸不到边的那条线,AI一次就过了。 而145,是门萨官网公开数据里「前0.1%」的位置,俗称天才区。 这并非孤例。就在本月初,GPT-5.4 Pro 已经在TrackingAI公开榜单上跑出150 IQ,登顶所有公开IQ跑分。 过去几个月里,也是OpenAI节奏从未停:视觉基座、推理升级、Agent产品线、API侧连环动作。 现在,AI赛场再次进入了OpenAI时代。 短板变王牌, OpenAI引爆认知视觉革命 更炸的是文本和视觉的差距:GPT-5.5 Pro在文本部分跑出130分,刚好压线进门萨,但视觉部分直接飙到145。 15分的差距,不是测试误差。 这意味着模型在「看图找规律」这件事上的能力,比「读题做推理」高出整整一个标准差。 按照门萨的分布,130是前2%,145是前0.1%。也就是说,把GPT-5.5 Pro的视觉能力拿出去和真人比,真正的千里挑一。 这里有个细节值得多说一句:为什么是视觉,而不是文本,先把墙撞碎的? 门萨Norway采用3×3九宫格格式(八张图+空缺第九张),完全非语言、非文化依赖,考察抽象推理。 人类高智商群体(尤其是140+「天才区」)确实依赖瞬间模式识别:旋转(rotation)、镜像/反射(mirroring/reflection)、叠加/增减元素(superposition/addition-subtraction)等变换规则。 LLM做这种题的标准方法,是先把图片转成token再推理。 但token化的过程,丢的恰恰是空间结构和拓扑关系——也就是这类题最核心的信息。 所以,过去十二个月,所有顶级模型在视觉题上都是这个状况:文本勉强及格,视觉一塌糊涂。 Claude 4.7、GPT-5.4 Pro全部卡在 125 以下。 GPT-5.5 Pro的145意味着:这不是在模拟思考,这是在重构智能。 过去我们嘲笑AI「不懂常识」,而现在,它正在以高于98%人类的智力水平,俯视着我们的常识。 OpenAI联合创始人、总裁Greg Brockman转发用户展示,力荐GPT Image 2将《物种起源》等书籍瞬间转为详细信息图,促进高效学习。 这揭示了人类文明的一个重大转折点:知识的摄入媒介变了。 数千年来,人类依赖文字这种低带宽的线性媒介来传递智慧。 但GPT-5.5告诉我们,未来的学习不再需要你花费三个月去咀嚼一本厚书,AI会通过对长文本的深度语义理解,将其重构为一种「视觉认知流」。 这是「语义重组」。 当AI的记忆力和上下文处理能力不再「健忘」,它就成了你大脑外的另一层皮质层。你不再是阅读知识,而是在俯瞰知识。 此外,ChatGPT现在一键直接把老旧破损的图片变成4K画质,而且免费! Restore this old photo into professional portrait of DLSR - quality colour and detail, using an advanced upscaling algorithm comparable to the results from canon EOS R6 II. Ensure the restored the image looks natural, retains exact facial features, has great clarity...... 「勤勉的小火车头」:说最温柔的话,做最狠的事 奥特曼用了一个极具迷惑性的词:「小火车头」(little engine)。 这个听起来甚至有些软萌的比喻背后,隐藏着 OpenAI 极度冷酷的商业意志。 昨天,OpenAI API新品登场:GPT-5.5及Pro版现已可用,显著提升智能水平和token效率,完美适配复杂任务场景,如编码、分析等高负载应用。 在LisanBench测试中,GPT-5.5是最强的双料非推理模型! 更令人胆寒的是, GPT-5.5的Token使用减少45.6%,智能分数却提升了1.77倍。 自从GPT-5以来,OpenAI模型的推理效率持续提升: 当前有效性比率排行榜中GPT 5.5独占鳌头: GPT 5.5(Medium):99.44% Opus 4.7 (xhigh): 99.35% Sonnet 4.6 (16k): 99.28% Opus 4.6 (16k): 98.74% Gemini 3.1 Pro预览版(低):97.77% 测试之后,AI行业分析机构SemiAnalysis坦承:在某些任务上的表现,GPT-5.5已经显著超越了所有其他模型。 在数学上,GPT-5.5表现最佳; 在编程上,GPT-5.5和Opus 4.7各有千秋; 在智能体任务上,Claude和GPT-5.5远胜于其他所有模型。 这意味着什么?这意味着 OpenAI 正在同时「垄断智力」和「降维成本」。 对于竞争对手,这几乎是一场无解的「降维打击」。 特别是,Claude系列这次迎来了真正的对手,只剩下「神话中的Myhos」尚能一战。 已经有Claude忠实支持者,转为OpenAI Codex用户。 当你的产品比对手聪明一倍,延迟却只有对方的一半时,市场规则已经失效了,剩下的只有收割。 但对于开发者来说,这种「诚恳的能量」却带来了一种「西西弗斯式的焦虑」。 OpenAI加速狂飙,每月一炸 上个月,OpenAI 才刚刚发布了一个模型,再之前是去年12月,以及去年11月。 OpenAI正以快速、稳健的步伐持续推出新模型,在Artificial Analysis智能指数上稳步前行。 AI仍在加速 ,指数效应开始显现,奇点触手可及! 在可预见的未来,这一趋势有望延续。 「我们在短期内看到了相当显著的进步,在中期内看到了极其显著的进步,」OpenAI首席科学家Jakub Pachocki 说。「事实上,我认为过去两年其实出奇地缓慢。」 Brockman表示,该模型也是朝着创建「超级应用」迈出的又一步。 所谓「超级应用」,就是一个像瑞士军刀一样的多功能程序。Brockman与联合创始人奥特曼此前曾设想将 ChatGPT、Codex 和 AI 浏览器整合到一个统一的服务中,为企业客户提供支持。 值得注意的是,「超级应用」也是Elon Musk热衷的话题。 OpenAI官宣的「Crisp Pace」——每月一炸的更新频率,让所有的集成、优化和 Prompt 工程都变成了一次性用品。你昨晚刚熬夜调优好的工作流,今天可能就被 GPT-5.5 的原生能力直接覆盖。 被压缩的窗口期 这件事的真正分量,不在跑分本身,在节奏。 去年视觉天花板还停在119。今年直接跳到145。中间没有过渡,没有预告,只有一行更新。 在这种速度面前,一切「熟练度」都正在贬值。 正如尤瓦尔·赫拉利所言,历史上第一次,我们无法预测20年后人类的就业市场是什么样。 但现在,这个窗口期可能被OpenAI缩短到了20个月。 那个「诚恳的小火车头」已经拉响了汽笛,它不打算等任何人。如果你感受到了颠簸,那是时代在换轨。 技能的半衰期正在被这种迭代速度反复缩短。不是十年,不是五年,是按月计算。
AI需求致苹果M4 Mac mini基础款缺货,二手平台溢价严重
IT之家 4 月 26 日消息,据 Techcrunch 报道,由于热门机型缺货,溢价严重的 Mac mini 正充斥 eBay 平台。这款设备现已成为运行 OpenClaw 等端侧 AI 模型的热门利器。 本周有消息称,售价 599 美元的 M4 芯片 Mac mini 基础版(16GB 内存 + 256GB 存储空间)已在苹果官网售罄,无法选择配送或到店自提。此后缺货范围进一步扩大至该基础款的其他内存配置版本,无论选配多大内存均无货。多家媒体指出,这是该基础款机型首次出现全面售罄的情况。与此同时,512GB 及以上大容量版本最快也要到 6 月才开始发货。 受此影响,eBay 已成为这款热门电脑的二手转售市场。平台上各配置版本的 M4 Mac mini 售价均高于苹果官方原价,而官方渠道目前已无现货可购。 苹果这款低功耗 Mac mini 已成为测试、运行端侧本地 AI 模型的热门设备。热潮最初由 OpenClaw 带起,如今还延伸至 ZeroClaw 等同类替代工具、Anthropic 与 OpenAI 推出的其他 AI 应用、Perplexity Computer,以及各类专用本地大模型。和部分台式机相比,Mac mini 运行噪音更低;相较于笔记本电脑,它更适合全天候不间断稳定运行。 据彭博社消息,此次 Mac mini 缺货,恰逢全球行业内存芯片紧缺,且苹果也计划对 Mac mini 产品线进行更新迭代。不过以往产品线更新,并未引发过如此大规模缺货。 供应链承压叠加适配 AI 设备需求暴涨,多重因素共振,推高了这类消费电子产品的转售价格。 截至当地时间周五上午,16GB 内存 + 256GB 固态硬盘配置的 M4 基础版 Mac mini 溢价严重:全新拆封机售价 715 至 795 美元,成色极佳的翻新机最高卖到 979 美元;同配置准二手闲置机型售价约 700 美元,比官方全新原价高出 100 多美元。 IT之家注意到,平台上还有一台同款 16GB+256GB 配置的全新 M4 Mac mini 标价 925 美元,商品页面还用醒目红字标注:最后一台。 即便密切蹲守或许能淘到价格尚可的翻新机,或是在 eBay 低价起拍的拍卖中捡漏,但在苹果供应链产能恢复前,这款设备的高需求大概率会维持高价走势。 随着 Mac mini 全面断货,苹果 Mac Studio 的市场需求也同步攀升,目前多款配置的 Mac Studio 同样已售罄。 科技媒体 Ars Technica 指出,配备 128GB 大内存、大容量固态硬盘的 MacBook Pro 仍可在数周内发货,就连新款热门机型 MacBook Neo 也只需两到三周即可配送。这也侧面说明,此次缺货的核心原因,是消费者对 Mac mini 本身的需求激增。
今天,OpenClaw能用DeepSeek-V4了!还设成了默认模型
备选标题: 1、官宣!能用DeepSeek-V4养龙虾了 2、OpenClaw正式接入DeepSeek-V4! 3、DeepSeek官宣,“龙虾”也能吃上DeepSeek-V4大餐了 4、养龙虾顶配方案来了?OpenClaw接入DeepSeek-V4 5、DeepSeek福利拉满!Token暴降75%,OpenClaw接入V4两大模型 作者 | 程茜 编辑 | 心缘 能用DeepSeek-V4“养龙虾”了! 智东西4月26日消息,今日凌晨,OpenClaw更新2026.4.24新版本,包括接入DeepSeek-V4两款模型,并将DeepSeek-V4-Flash设为新用户默认模型。 官方更新日志显示,DeepSeek-V4-Flash与V4-Pro已纳入OpenClaw捆绑服务目录,V4-Flash为新用户默认版本。DeepSeek-V4模型后续工具调用轮次的深度思考与推理复现机制已完成固化优化。 有网友在评论区称:“DeepSeek-V4-Flash很好用,非常棒的选择!” DeepSeek官方X账号也官宣了几项集成更新: Claude Code:模型切换为deepseek-v4-pro[1m],正式解锁100万超长上下文能力,适配长代码库、技术文档、产业长文本全量上下文处理。 OpenCode:版本升级至v1.14.24+,修复底层推理兼容问题,优化大模型代码生成、调试与工程化落地效率。 OpenClaw:迭代更新至v2026.4.24+,同步最新生态能力,强化智能体调度、Skill编排与异构算力适配。 除接入DeepSeek-V4外,此次OpenClaw的更新还包括: 1、集成谷歌会议工具 谷歌会议工具Google Meet现已作为捆绑接入插件接入OpenClaw生态,支持谷歌个人账号授权、Chrome/Twilio实时会话、Chrome双节点协同,同时提供文件成果、参会记录导出功能,以及针对已开启Meet标签页的故障恢复工具。 2、实时语音 文字沟通、语音通话与Google Meet现已支持实时语音循环,可调用完整OpenClaw智能体能力,依托工具联动输出深度应答。 3、浏览器自动化 浏览器自动化新增坐标点击能力、延长默认操作配额、支持单配置项无头模式自定义覆盖,同时优化标签页复用与恢复机制,运行更稳定。 4、轻量化启动 插件与模型基础设施启动轻量化优化,采用静态模型目录、清单文件驱动模型条目、依赖延迟加载,并为安装包提供外部运行时依赖自动修复能力。 网友称此次OpenClaw升级的几个点都很实用。 不过更多网友还是在评论区吐槽bug太多,有网友更新完遇到了网关无法连接、重启又陷入循环、不得不回滚、所有程序崩溃等各种各样的问题。 OpenClaw虽说版本迭代勤快、功能升级贴合实际使用需求,但其稳定性一直饱受诟病,不少用户升级后极易出现系统崩溃问题。此番其虽然快速接入了DeepSeek-V4两款模型,但用户想要稳定体验新模型能力,大概率还需要再观望一段时间了。 此外,从DeepSeek的更新也可以看出,其正在加速完成对Claude Code、OpenCode、OpenClaw等核心工具的深度适配,进一步强化其新模型在编程、智能体应用、复杂专业场景的实用性。
梁文锋把token价格打下来了!DeepSeek V4暴降75%,百万token只要两毛五
作者 | 程茜 编辑 | 心缘 智东西4月26日报道,昨晚,DeepSeek官网更新API文档,宣布DeepSeek-V4-Pro降价,开启2.5折限时优惠。 根据DeepSeek官网,调价后,DeepSeek-V4-Pro每百万Tokens输入价格(缓存命中)为0.25元,输入价格(缓存未命中)为3元,输出价格为6元。此次优惠活动将持续至5月5日23点59分。 相比几家国内大模型企业的API价格,DeepSeek优惠后的价格仍有一定优势,价格对比如下: DeepSeek发布,对国内大模型企业的股价造成冲击,智谱和MiniMax均跌超9%。截至4月24日港股收盘,智谱股价跌9.05%,至每股935港元(约合人民币815.78元),是指为4169亿港元(约合人民币3637.41亿港元);MiniMax股价跌9.44%,至每股777.5港元(约合人民币678.36元),是指为2439亿港元(约合人民币2128亿港元)。 这个周末,DeepSeek的产业影响力还在蔓延。截至今日,据智东西不完全统计,已经有华为昇腾、寒武纪、海光信息、摩尔线程、昆仑芯、平头哥真武、沐曦股份、天数智芯、燧原科技、壁仞科技、云天励飞、清微智能等12家国产芯片企业以及英伟达均已适配DeepSeek-V4模型。 华为云、腾讯云、阿里云、百度智能云、天翼云、京东云、联通云、移动云等8家云巨头,PPIO派欧云、超算互联网、优刻得等3家独立云及智算企业,宁畅、长江计算、百信、昆仑技术、新华三等5家服务器企业均已适配或上架DeepSeek-V4模型服务。
地平线不只做芯片了,但车企会接受新的“底座”吗?
地平线创始人余凯 北京车展期间,地平线打算把自己往前推一步。 地平线发布中国首款舱驾融合整车智能体芯片“星空”、整车智能体操作系统KaKaClaw咖咖虾,以及全场景辅助驾驶系统HSD V1.6,相比之前在产业链的的角色,这次地平线的野心显然更大了。 过去几年,地平线最清晰的标签是智驾芯片公司。车企需要算力,需要辅助驾驶量产方案,地平线提供征程系列芯片和配套软件。但这一次,它讲的不再只是芯片算力,变成了舱驾融合、中央计算、操作系统和整车计算平台。 它意味着,地平线正在试图从供应商的位置向上走,除了给车企提供某个零部件,也希望成为智能汽车时代的底层平台。 用更直白的话说,地平线不想只卖芯片了,它想进入汽车的“操作系统层”。 一、从智驾芯片,到汽车的“操作系统层” 地平线这次最核心的产品,是“星空”芯片。 星空基于5nm车规制程,星空6P芯片BPU算力达到650 TOPS,内存带宽273GB/s,可以同时支持座舱数字交互和高阶辅助驾驶模型部署。通过统一内存架构和统一底软,地平线称其能够让空间占用缩小50%,单车综合成本降低1500至4000元,研发交付周期从18个月缩短至8个月。 余凯的判断是:智能汽车行业不会长期保持今天这种百花齐放的底层技术格局。整车品牌可以很多,但芯片和软件平台不会太多。 他用PC、手机和数据中心AI计算作类比。他认为,历史上底层硬件芯片平台和软件平台往往最早收敛,因为这类业务研发投入高、周期长。以地平线为例,每一代芯片从项目启动到车型量产,基本都要三年以上。 地平线总裁朱威(左)、地平线创始人&CEO 余凯(中)、地平线副总裁、首席架构师苏箐(右) 地平线副总裁兼首席架构师苏箐还有一个更具体的判断,他认为汽车和手机市场很像:“车的平均单价约是手机的10倍,销量约是手机的1/10,市场体量大致相当。手机行业最后收敛成安卓生态、苹果自研生态,以及高通、MTK等少数芯片玩家。汽车底层技术也会经历类似收敛。” 这解释了地平线为什么要做舱驾一体、AI OS和智能体框架。单看它们是新产品,如果合在一起看,的确有点做平台的意味。 余凯回顾公司名字“Horizon Robotics”时说,地平线从第一天起想做的就是“Horizontal platform for robotics”,也就是为机器人打造计算平台。汽车只是这个目标的第一个落脚点,而计算平台的核心一直是两件事:芯片和操作系统。 在这个逻辑下,地平线做舱驾一体的逻辑,是认为汽车不该有两个大脑、三个大脑。未来汽车会走向统一计算芯片和统一操作系统。谁掌握芯片和OS,谁就更接近智能汽车产业链的“平台位”。 二、舱驾一体不是省钱故事 外界讨论舱驾一体时,最容易落到成本逻辑:一颗芯片替代两颗芯片,少用DDR,少用电源和外围器件。但地平线想讲的不只是降本。 苏箐解释“星空”时表示,“判断一件事要不要做,不是先问市场需不需要,而是看集成度能否提高、元件数能否减少、在当前工艺和投资水平下能否做出来。” 他认为,计算系统的本质是对信息的处理。系统能获得的信息范围越大,访问频率越高,决策能力就越强。舱驾分离时,座舱和智驾像两个割裂系统,各自有内存、算力、缓存和预留资源。系统切得越碎,浪费越多。 所以,舱驾一体不只是省DDR,而是把座舱、智驾等相关信息压到同一个内存和缓存平面里,让计算资源统一调度。地平线试图把“舱驾一体”从成本故事,改为架构层面的故事。 这背后还有汽车产品定义权的变化。苏箐提到,机械部件的体验在十年周期里变化并不大,但计算机不同,十年前的手机今天已经很难忍受。车上的计算系统从交付那一刻开始,就必须为未来三到五年的软件复杂度和体验升级预留空间。 这对车企来说很现实。今天选算力,不能只看今天够不够,而要看第三年、第五年够不够。未来同样一辆车,传统机械和内饰部分的成本权重会被压缩,计算系统的权重会提高。 三、地平线要“外卷”,但用户愿意付钱吗? 地平线现在面对的矛盾,也是整个汽车供应链的矛盾:车企强降本,供应商高研发,用户又希望体验越来越好。 余凯把这种局面称为“三输”:车厂同质化竞争,价格压力传导给供应商;供应商利润被压缩后,很难持续开发新技术;最后消费者得到的也不会是更好的产品,而是被成本压扁的体验。 所以他提出,地平线要做“外卷型企业”。所谓外卷,不是参与价格内卷,而是通过智能化创造新增价值。比如一辆16万元的车,能不能因为智能化卖到19万元,并且用户愿意开心付钱?在余凯看来,这件事必须做到。只有车厂卖出更高价值,供应商有利润继续研发,消费者觉得钱花得值,系统才能转起来。 在L3、L4讨论上,余凯也不太看重标签。他认为真正重要的是“智驾里程占比”。如果用户从上车到下车都在使用自动驾驶,即便外界把它叫L2,也不影响它的商业价值。 这也是地平线判断智驾收费的前提,余凯认为,智驾里程占比超过50%是一个心理拐点,说明用户开始更信任自动驾驶。只有到了这个阶段,企业才有资格讨论C端收费。 这套逻辑指向一个更远的商业模型:未来三到五年,地平线仍然是To B公司;但如果自动驾驶走向L4,C端按里程付费可能出现。余凯用了一个生活化比喻:如果一段自动驾驶里程带来的自由感,只需要付出一瓶农夫山泉的钱,用户未必不会接受。 四、开放生态中的边界难题 地平线现在的矛盾在于,它一边往全栈走,一边强调开放生态。 当它只做芯片时,边界很清楚:方案商、集成商和车企都知道它的位置。但当地平线同时发布芯片、操作系统、HSD和整车解决方案时,外界自然会问:它会不会挤压合作伙伴? 余凯的回应是,开放生态是“强者的游戏”。只有一家企业在芯片、供应链、软件、行业资源等方面都能赋能别人,生态伙伴才有理由跟它合作。 他以轻舟智航为例,称双方是互相成就。轻舟在地平线J6M平台上成长很快,而J6M在对应档位上缺少直接竞争对手,出货量很大。轻舟是平台受益者,地平线也是生态受益者。 这种平衡在大众合作上体现得更明显。余凯说,地平线和大众经过两年多合作,已经建立信任。今年大众将有七到八款车型搭载地平线通过酷睿程交付的L2++系统。他甚至判断,大众在智能化上已经从相对落后进入“同向而行”,未来两三年通过与地平线合作,有可能成为领先者。 余凯说,地平线对自身角色的定位,是要成为“全球车企底层技术的赋能者”。 这套关系的关键,是地平线必须掌握一个微妙平衡:既要足够强,能够定义底层平台;又不能过度前台化,把生态伙伴的空间全部吃掉。 五、汽车智能化仍是系统工程 在大模型热潮下,自动驾驶公司都要回答一个问题:如果大模型公司进入物理AI和自动驾驶,原有智驾公司会不会被降维打击? 苏箐对此表示,所有人都在寻找一颗黄金子弹,但星空不是黄金子弹,大模型也不是。真正的产品不是解决一个炫酷问题,而是把用户体验里的坑一个个填掉。 余凯也补充说,车载计算和普通大模型问答不同。汽车是“失之毫厘,谬以千里”的系统,关乎生命安全。软件、硬件、可靠性、稳定性都需要长期打磨。他用iPhone举例:没有人会认为iPhone有某个单独的“银子弹”,但交互流畅性是苹果长期投入形成的护城河。 这也是地平线当前路线的底层逻辑。它并不否认大模型的重要性,KaKaClaw咖咖虾本身也可以接入不同模型能力。但在汽车场景中,模型只是系统的一部分。芯片、操作系统、交互、功能安全、数据闭环和工程交付共同决定最终体验。 这正是汽车智能化最难的地方,它看起来像AI问题,最后往往变成系统工程问题。 从智驾芯片走向整车计算平台,是地平线的一次位置上移,也是一场风险更高的扩张。它需要更高研发投入、更强工程交付、更复杂的生态关系,也需要在车企降本压力背景下找到新的商业闭环。 但这个答案能否成立,还需要更多量产项目和用户使用数据来验证。(作者|李玉鹏,编辑|杨林)
拒绝被“卡脖子”,宁德时代狠砸300亿
文 | 华夏能源网 超级强大的“宁王”,投下重金来进一步加固自己的城池。 华夏能源网获悉,近日,锂电&储能双龙头宁德时代(SZ:300750)官宣,拟投资设立全资子公司时代资源集团(厦门)有限公司(暂定名,以下简称“时代资源集团”),注册资本高达300亿元,公司业务将主要聚焦在锂矿资产上。 4月22日,时代资源集团正式获得工商注册,并于当天在厦门市高新区举行了隆重的成立揭牌仪式,中国矿业联合会党委书记、会长程利伟现场见证,宁德时代联席董事长潘健、宁德时代首席矿业顾问陈景河等共同出席。 此前宁德时代将主要精力放在锂电池研发、制造上,虽然也在锂矿资源有所涉足,但均以对外投资为主,并未成立公司独立运作。如今,注册资本高达300亿的时代资源集团设立,正式宣告了“宁王”大举进入锂矿资源,打通锂电全产业链。 宁德时代明确:此番成立的时代资源集团定位为公司新能源矿产领域的专业投资运营与管理平台,该平台将围绕公司电池产业布局及需求,整合现有矿业相关资产,积极拓展海内外优质矿产资源项目,保障主营业务原材料供应与产业链安全。 宁德时代为何在此时大举布局锂电全产业链?这会给上游合作伙伴、给锂电行业带来什么影响? 补齐产业链最后一块“拼图” 当前,锂电行业虽然处于高景气期,下游订单量大幅增加,全产业链价格普遍上涨。但是,由于上游碳酸锂价格上涨过快,中下游企业面临巨大压力。 例如,3月31日,阳光电源(SZ:300274)发布2025年财报。虽然全年营收达到891.84亿元,但第四季度净利润却同比减少55.39%、环比减少61.73%,这主要是由于碳酸锂价格上涨带来的成本攀升,在存量项目中未能及时实现价格传导。 同样,宁德时代今年一季度的毛利率为24.82%,较去年全年的26.27%有所下滑,原因之一也是原材料价格的上涨。 对电芯企业来说,如何才能减少上下游价格波动对公司业绩的影响?行之有效的方法就是,打通全产业链,将上游、中游、下游的资源全部一手掌控。对宁德时代来说,不仅有这个需求,更有这个实力。 目前,宁德时代在中游锂电池制造环节,无论是技术还是市场,已经处于断崖式领先地位。在下游,宁德时代成立了时代绿色能源有限公司(简称“时代绿能”),已对外投资120余家企业,控制130余家企业,业务聚焦新能源风、光、储电站的投资、建设及运营,已开发并运营了多个大型风电、光伏及储能项目。如今,只剩产业链上游是宁德时代的薄弱环节。宁德时代虽然已经拥有几处锂矿,并参股了多家锂电材料企业,但运营比较分散,没有统一、独立的运营机构。 正因为如此,补齐上游原材料短板,宁德时代是早已有意。这对宁德时代来说,不仅可以解决原材料供应的问题,更能在锂电行业上行周期中获得更丰厚的利润。 2022年,公司锂电池供不应求,即便不断涨价,下游车企依然上门疯抢。当年,宁德时代营业收入首次突破3000亿元大关,净利润也几乎翻倍。也正因此,公司遭到部分车企领导人的“炮轰”——“车企都在为宁德时代打工”。 但实际上,上游锂矿企业才是最大受益者。2022年,天齐锂业(SZ:002466)的净利润同比增长了约‌10.6倍;赣锋锂业(SZ:002460)营收规模和净利润也创历史新高,毛利率增长了10个百分点;藏格矿业(SZ:000408)碳酸锂产品毛利率达到92.2%,堪比茅台。 Q1锂矿上游主要上市公司业绩增长情况 如今,四年前的“剧本”再度上演。去年下半年以来,碳酸锂价格一路攀升,近期大有突破20万元/吨的气势。今年一季度,天齐锂业盈利最高预增18倍,赣锋锂业预告净利润达16亿元—21亿元(上年同期亏损3.56亿元),天华新能(SZ:300390)则预告近利润最高暴增321倍。 整合上游资源,对宁德时代来说是必走的一步好棋。与其大把的给锂矿企业送钱,不如把这块业务自己干了。 非同一般的高规格开局 华夏能源网注意到,实际上,宁德时代对锂矿资源的布局早已开始。 早在2021年9月,宁德时代与宜春市政府签署合作协议,将共建新型锂电池生产制造基地项目,同时深耕产业链上下游。次年4月,宁德时代通过子公司以8.65亿元的报价竞得江西枧下窝矿区陶瓷土(含锂)探矿权。 2024年1月,宁德时代又斥资64亿元,拿下斯诺威矿业相关权益,而该矿最初的起拍价仅为2亿元。 此外,宁德时代还通过参股等形式,布局了非洲的刚果(金)Manono锂矿和南美洲的玻利维亚乌尤尼、科伊帕萨盐湖及阿根廷多个盐湖项目。 除锂电池主要原材料锂以外,宁德时代还加大了对磷、镍、钴等其他元素的布局。 例如,宁德时代通过入股洛阳钼业(SH:603993),获得了刚果(金)KFM铜钴矿部分资源;通过子公司获得湖北江家墩、贵州大坪磷矿探矿权;还与印尼电池公司IBC组成联合体投建了印尼镍资源项目。 如今宁德时代成立时代资源集团,是个标志性事件,这意味着公司开始从之前的多点布局走向集约化管理,此前拿到的这些矿产资源会集中起来放到一个篮子里,由时代资源集团负责运营。 当然,要运营、管理好这些资源,并且将上游业务做大做强,也并非易事。对于上游业务,宁德时代并非说说而已,而是在实实在在的、大张旗鼓地布局,资源投入非同一般: 时代资源集团成立暨揭牌仪式(图源:官网) 一方面,充足的资金准备。 时代资源集团300亿的注册资本,在国内锂矿企业中是傲视群雄的存在,是目前注册资本最高的盐湖股份(52.92)的5.7倍,比目前A股16家锂矿上游上市公司的注册资本总和(214.53亿元)还要多90多亿。宁德时代在公告中表示,300亿的注册资金通过货币及股权出资方式完成。 当然,宁德时代还有更强大的家底可以用。数据显示,截止2025年底,公司全年经营活动产生的现金流量净额达1332亿元,期末货币资金及交易性金融资产合计达3925亿元,这为公司在锂矿资源上的后续布局预备了充足的弹药。 另一方面,一流的人事安排。 华夏能源网注意到,宁德时代派出了公司目前的“二号人物”潘健‌任时代资源集团董事长。潘健自2014年11月‌加入宁德时代担任董事,此后历任副董事长等职,2025年1月开始担任联席董事长,与董事长曾毓群共同领导公司。 此外,宁德时代还“挖”来了紫金矿业(SH:601899)创始人、前董事长陈景河出任矿业部门顾问,以帮助拓展上游矿产供应链业务。陈景河是教授级高级工程师,享受国务院政府特殊津贴,被誉为“‌中国金王‌”和“一代矿业宗师”,于1993年创办了紫金矿业,并将其打造成了市值万亿的跨国矿业集团,业务涉及锂矿、铜矿、金矿等等资源。 一边是充足的现金准备,一边是矿业大佬坐镇,宁德时代高资源投入、高规格开局,注定了要在锂矿上游搅起江湖风云了! 过度“一体化”亦有风险 宁德时代向上游进军,布局“一体化”之路,从公司战略上看有必要,但在经营中也并非没有弊端。 一方面,掌控上游资源端,可避免“卡脖子”问题,但是锂矿行业也会有亏损风险。如在行业低谷期的2024年,锂电龙头赣锋锂业和天齐锂业双双巨额亏损,合计亏损近百亿。宁德时代在大举投入后,如何平滑锂价大幅波动的影响是难题。 另一方面,“一体化”与“专业化”都有各自的优点和缺点,宁德时代这步棋的对与错,需要更长时间的评判。 例如,在光伏行业前几年火热之时,组件企业被硅料企业卡脖子,更艳羡硅料企业的高利润,于是纷纷开始做一体化。结果从2023年下半年行业步入下行周期后,硅料企业成了亏损的重灾区,搞一体化的企业更是损失惨重,上中下游业务全面失血。 很多企业规模发展到一定程度,都喜欢往上下游延伸,做得大而全,搞“一体化”,不少优秀企业也正因为如此出现问题,最终垮掉。对宁德时代来说,实力虽然足够强大,但也并非无所不能,也很难确保能做好锂矿。 实际上,对宁德时代这样规模体量的企业,把一些环节让给合作伙伴来做,建设好行业生态更有价值。毕竟,想要赚到每一个铜板是疯狂且愚蠢的。 此外,锂矿行业面临国际化难题。无论是锂、镍还是钴,中国的资源并不丰富,因此很多国内矿企都远赴海外投资开发。而当前,受国际局势影响,许多国家都收紧了关键矿产的开发,这对走向海外的中国矿企风险巨大。 例如,2018年天齐锂业曾以40.66亿美元收购全球第二大锂生产商SQM公司23.77%股权,成为其第二大股东。SQM拥有全球储量最大的锂盐湖智利阿塔卡马盐湖的采矿经营权,天齐锂业的入股当时被认为是高明的一招。但2023年,智利政府推动锂资源国有化,SQM不再拥有智利阿塔卡马核心锂业务的控制权,天齐锂业的利益严重受损。 宁德时代布局锂矿,走向海外拿矿是必然的,解决好国际化的风险与挑战是“必答题”。
111.8万元起,保时捷纯电Cayenne Turbo国内售价公布
IT之家 4 月 26 日消息,在日前开幕的 2026 北京国际车展上,保时捷旗下首款纯电动 Cayenne Turbo 车型亮相,并同步公布国内售价。新车共推出两个版本 Cayenne Turbo 和 Cayenne Turbo Coupé,官方指导价为 111.8 万至 115.8 万元。 IT之家注意到,新车前脸沿用了保时捷纯电家族的设计语言,车头线条锐利,标志性的四灯带日间行车灯辨识度突出。前保险杠下方设有纵向百叶窗式主动进气格栅,强化了整车的运动气质。车身侧面配备黑色轮眉、22 英寸密条辐轮圈及碳陶制动系统,同时保留了传统车门把手设计,搭配宽厚的侧裙与车门筋线,整体姿态饱满有力。车尾线条相较现款车型更为硬朗,采用全新贯穿式尾灯,后包围融入扩散器造型,进一步凸显性能属性。 内饰方面,新车采用全新立体化中控台设计,配备 12.25 英寸弧形 OLED 中控屏、14.6 英寸全液晶仪表以及 14.9 英寸副驾驶娱乐屏,科技氛围大幅提升。值得注意的是,保时捷在数字化浪潮中仍保留了大量实体按键,兼顾驾驶时的操作便利性。此外,用户还可选装 87 英寸 AR-HUD 抬头显示系统。 动力上,纯电动 Cayenne Turbo 系列新车搭载了双电机四驱系统,能够在 2.5 秒内完成 0-100 公里 / 小时的加速,0-200 公里 / 小时的加速时间需 7.4 秒,最高车速可达 260 公里 / 小时。据介绍,为实现这一性能,保时捷专门开发了全新的电驱系统。 续航方面,全系搭载 114 千瓦时电池组,支持 800V 高压快充,电量从 10% 充至 80% 仅需 16 分钟,并配备 11 千瓦无线充电功能。 新车搭载与电动方程式赛车同源的 600 千瓦动能回收系统,官方表示在日常驾驶场景中,约 97% 的制动操作可由电机制动独立完成,无需机械制动器介入。电机采用直接油冷技术,通过特制冷却液直接对电动驱动系统的载流部件进行散热,从而提升效率并保障持续稳定的动力输出。
今天起,DeepSeek V4成OpenClaw默认模型
新智元报道 编辑:艾伦 桃子 【新智元导读】OpenClaw最新版本官宣,DeepSeek V4 Flash正式成为默认大模型,250k+星标的全球最火开源Agent框架,把中国最强开源AI推上了C位。 今天,OpenClaw重磅接入DeepSeek V4! 新版本OpenClaw 2026.4.24一发布,随即接入了最新的DeepSeek V4双版本—— V4 Flash成为默认大模型,V4 Pro也已上线模型库。 从今天起,全球每一个更新OpenClaw的人,打开的第一秒钟,跟自己对话的大脑就是DeepSeek V4 Flash。 可以说,DeepSeek V4的接入,成为了OpenClaw更新的最大亮点。 一时间,全网激动地都开始跃跃欲试。 这一次,OpenClaw还打通了Google Meet,实时语音通话让全网震撼。 DeepSeek V4 成为OpenClaw默认模型 两天前,DeepSeek V4一声惊雷炸出,全球AI圈的人期待已久的开源新王,终于靴子落地。 OpenClaw第一时间接入DeepSeek V4「双版本」,还把V4 Flash设为默认模型。 「龙虾」亲手把中国AI推向了最C位。 对普通用户来说,最直接的变化是,上手OpenClaw时默认进入DeepSeek V4 Flash路线。 感受一下V4的含金量。 DeepSeek V4 Pro:1.6万亿总参数,49B激活参数,MoE架构,全球最大的开源模型。 DeepSeek V4 Flash:284B总参数,13B激活参数,同样MoE架构。更小、更快、更便宜,但推理能力在Max模式下几乎追平Pro版本。 两个模型都支持100万token上下文,都采用MIT协议完全开源 这次更新,还修复了DeepSeek在多轮工具调用中的thinking和replay行为。 此前,Agent在连续调用工具、切换会话模型时,容易因为reasoning_content缺失触发provider replay检查错误。 新版本补齐了相关占位逻辑,让DeepSeek V4 Flash和DeepSeek V4 Pro在长链路任务里更稳定。 这类修复看起来偏工程细节,但对Agent产品很关键。 OpenClaw的核心场景已经不只是聊天,更多时候是让模型连续调用浏览器、会议、语音、文件和插件。 模型接入如果停在文本回复层,价值有限。真正影响体验的,是它能否撑住复杂任务链路。 龙虾打电话 Google Meet成内置插件 这次更新中,Google Meet被加入OpenClaw,成为bundled participant plugin。 新版本支持个人谷歌账号授权、显式会议URL加入、Chrome和Twilio实时传输,也支持paired-node Chrome,用于 Parallels、BlackHole、SoX这类本地音频与浏览器组合环境。 更重要的变化在会议结束后。 OpenClaw可以处理会议记录、录音、转写、智能笔记和参会人会话,并导出为Markdown或其他类型文件。 系统还支持查找最新会议记录,以及扫描历史conference records。 这让OpenClaw在会议场景中的位置更靠前。 它承担的不只是转写,而是会议进入、实时参与、内容沉淀和结果回查。 AI会议助手过去多围绕「记录」展开。 OpenClaw这次把会议变成一个可被 Agent 调用和管理的工作节点。 实时语音接入完整Agent Talk、Voice Call和Google Meet现在都可以使用实时语音循环。 这部分更新的重点,是实时语音可以调用完整 OpenClaw Agent。 通过 openclaw_agent_consult,电话或会议里的问题可以交给后台 Agent 处理,Agent 再调用工具、查询上下文、组织答案,并用语音返回。 Voice Call 插件新增 setup 和默认 dry-run 的 smoke command,用来在真实拨号前检查 Twilio 或其他 provider 是否准备好。 Google provider侧新增Gemini Live实时语音能力,支持双向音频和函数调用。 Gateway/VoiceClaw也加入基于Gemini Live的realtime brain WebSocket endpoint,并通过owner-auth做权限限制。 这说明 OpenClaw 正在把语音做成一级入口。 文本框之外,电话和会议正在成为 Agent 的运行环境。 浏览器自动化 继续补工程短板 浏览器自动化是另一个重点。 新版本加入 viewport coordinate clicks,支持 managed automation 和 existing-session automation,CLI侧也新增 openclaw browser click-coords。 网页控件无法稳定识别时,坐标点击提供了兜底方案。 默认action budget被延长到60秒,减少长等待被误判失败的情况。 浏览器 profile 也支持单独设置 headless,一个profile可以无头运行,其他profile不受影响。 Google Meet相关修复也集中在浏览器稳定性上。 新版本可以复用已经打开的 Meet 标签页,浏览器超时后尝试恢复,还能识别登录、权限、麦克风选择等人工阻塞点。 这些改动不容易成为传播点,但会影响 Agent 是否能持续工作。 浏览器 Agent 的问题经常出在标签页、权限、等待时间和恢复机制上。 插件和模型架构变轻 OpenClaw 同时在降低启动负担。 模型列表改用静态目录,减少默认 models list 时的 registry 枚举。 模型目录加入 manifest-sourced model rows,让 provider index、cache、onboarding 和 listing 可以在不加载 provider runtime 的情况下工作。 插件侧也在做类似调整:modelCatalog、channelConfigs、setup.providers 等信息更多从 manifest 暴露,descriptor-only setup contract 也变得更明确。 随着 Google Meet、Voice Call、PDF、Anthropic Vertex、Bonjour 等能力插件化,启动时加载全部 runtime 会拖慢系统。 新版本把描述信息前置,把运行时依赖后置。 这是一种典型的工程取舍,牺牲一点早期兼容便利,换取更轻的启动路径和更清晰的插件边界。 SDK发生破坏性变化 此次更新还有一项破坏性变动: OpenClaw 移除了 Pi-only 的 api.registerEmbeddedExtensionFactory(...) 兼容路径。 之后 bundled tool-result rewrites 需要使用 api.registerAgentToolResultMiddleware(...),并在 contracts.agentToolResultMiddleware 中声明目标 harness。 这会影响插件开发者。 官方希望工具结果转换在 Pi 和 Codex app-server dynamic tools 中保持一致,旧接口需要迁移。 相应地,OpenClaw 增加了插件兼容性 registry 和迁移记录,用来管理 SDK、配置、setup 和 runtime 的弃用路径。 这背后是 OpenClaw 在整理早期快速扩张留下的接口债务。 OpenClaw的方向更清楚了 这次更新覆盖模型、会议、语音、浏览器、插件、诊断、TTS、Slack、Telegram和MCP等模块。 DeepSeek V4进入默认模型路径,解决的是模型能力; Google Meet和Voice Call强化的是协作入口; 浏览器自动化、插件懒加载和SDK迁移,补的是复杂任务运行时的工程底座。 OpenClaw正在从聊天产品走向工作流系统。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。