注册 登录
EN
中文
APP下载
logo
icon
数字孪生
icon
大数据获客
icon
人工智能
分类目录
行业分类:
IT/通信
金融财经
市场/营销
交通/物流
节能环保
休闲旅游
农林渔牧
日化用品
数码家电
房产/建材
企业/管理
家具/家居
医疗/保健
新零售
机械/工业
餐饮/食品
其它行业
头条分类:
行业前景
行业动态
行业资讯
行业活动
北京三部门约谈携程、高德、京东、淘宝闪购、美团、抖音、快手等12家平台企业,通报“内卷式”竞争第一批问题
2026年3月23日,北京市市场监管局联合市商务局、市文化和旅游局,依法约谈和行政指导携程、去哪儿网、高德、京东、淘宝闪购、美团、飞猪旅行、同程旅行、途家民宿、小猪民宿、抖音、快手等十二家平台企业,集中通报开展平台“内卷式”竞争综合整治以来发现的第一批问题,并提出整改要求。 此次通报的问题主要聚焦四个方面: 侵害商家自主经营权 部分平台未经商家同意,通过修改商家后台设置,擅自为商家报名促销活动;通过技术手段监控价格,要求商家按照全网最低价销售,剥夺商家定价自主权。这些行为不仅造成商家经营损失,长远来看还可能引发商品、服务质量风险。 典型事例1:淘宝闪购擅自为商家上架活动、修改商品价格,且整改流于形式。 平台与商家签署《市场经理代运营授权协议》并取得商家授权后,市场经理可不再经过商家同意,直接修改商品、参与活动、调整价格,且由商家承担授权服务所导致的一切法律结果。多个餐饮商家反映,平台未经协商将商品上架“爆品团”“爆单红包”等促销活动,且商家不可自主退出活动,造成商家经济损失。如某商家原价19.8元的“羊肉串加门钉肉饼”套餐和原价21元的西红柿鸡蛋面,被上架活动后,商家实收2.58元、3.31元;另一商家正常售价18元的饺子,被修改价格后,商家实收1.25元,难以覆盖原材料成本。平台对监管部门的整改要求,落实不到位不彻底。下一步,监管部门将开展外卖平台代运营行为的专项治理,严格规范平台相关行为。 典型事例2:携程自动跟价,剥夺酒店定价权。 多家酒店反映携程通过技术手段实时抓取客房全渠道价格,要求给予携程平台最低价格。酒店若不配合,平台通过电话施压、限制流量、自动跟价等方式,直接干预定价。监管部门已督促指导携程下架“调价助手”。 设置不合理规则 部分平台利用优势地位,制定不合理规则,通过罚款、限流等处罚措施,增加商家经营负担。 典型事例3:携程制定不合理“切客”判定和处罚规则。 在携程规则中,将“消费者在携程平台上下单,但酒店引导消费者避开携程,直接交易或通过其他第三方渠道进行交易的行为”认定为“切客”。经调查,平台在判定“切客”过程中,对于消费者线下办理酒店续住业务,或个人原因退订选择其他渠道入住酒店等情况,仍认定该交易由平台促成,要求酒店支付全额佣金,并对酒店进行限制流量等处罚。监管部门已指导携程优化“切客”规则,对线上预订线下续住等行为,不得判定为“切客”。 虚假宣传行为 通过虚假宣传手段,诱导消费者购买商品,侵害消费者合法权益。 典型事例4:第三方火车票网络销售平台虚假宣传。 平台推出“抢票加速包”“双通道”等付费服务,进行“显著提高抢票成功率”“优先购票”等具有误导性的商业宣传,将12306官方平台免费提供的候补购票服务包装为平台专属增值权益。2026年1月30日,监管部门已就相关问题约谈去哪儿网等12家第三方火车票网络销售平台,要求严格落实主体责任,坚决整改违规行为,禁止虚假宣传。 典型事例5:携程“大拇指”标识误导消费者。 携程在与平台合作密切的特牌、金牌酒店名称之后标注橙色、红色“大拇指”标识,但该标识与真实服务水平无关,涉嫌误导消费者。监管部门已指导携程取消“大拇指”标识。 典型事例6:高德促销标识未及时更新。 高德“百亿补贴”活动结束后,但相关标识仍在酒店板块展示,涉嫌误导消费者。监管部门已指导高德整改。 部分平台合规经营管理体系存在短板 合规经营管理组织虚设,人员责任界定不清,合规经营机制未能发挥实际作用。 典型事例7:去哪儿网合规经营机制空转。 对合规经营建设重视不足,未实际建立合规经营管理组织,缺乏系统的合规经营管理机制,对重大促销活动、修订重要规则等事项的风险排查力度不足。 典型事例8:京东合规经营管理弱化。 合规经营管理组织架构未动态更新,关键岗位职责不够明确,机制运行的有效性需要进一步提升。监管部门通过合规评价等方式持续指导各平台完善合规经营机制。 约谈会上,市场监管部门向相关平台送达《行政告诫书》,要求严格落实主体责任,限期整改相关问题;保护平台内经营者和消费者合法权益,禁止强制或变相强制平台内经营者按照其定价规则,以低于成本的价格销售商品,扰乱市场竞争秩序。对涉嫌违法问题,有关部门将深入调查、依法查处,涉及京外平台企业的,依法移送属地市场监管部门调查。各平台表示,高度重视约谈指出的各项问题,将认真反思、立行立改,并举一反三,深入查找、及时整改“内卷式”竞争风险隐患,促进平台和平台内经营者、劳动者共赢发展。 下一步,三部门将继续深化平台“内卷式”竞争综合整治,持续公开通报发现的违法违规问题,紧盯整改落实情况,对整改不力、问题反复、顶风违规的平台企业,依法依规采取措施。建立多方协商机制,组织平台就规则制定、促销活动等听取各方意见,形成长效预防机制,推动平台经济规范健康发展。 (总台记者 沈立 吴琼)
影石创新回应被大疆起诉:多数专利因产品方向调整未在实际产品中使用
凤凰网科技讯 3月23日,针对大疆起诉影石创新涉及专利归属纠纷一事,影石创新CEO刘靖康今日作出公开回应。大疆主张,其前员工在离职一年内产生的专利应归大疆所有。影石方面表示,经排查,涉案专利的创意、研发及验收均在影石内部完成,其中涉及飞控领域的一项专利为“一键实现跳楼飞行效果”,因当前限飞政策未实际应用。 影石解释,部分专利申请在国内阶段隐藏发明人姓名,是为延迟技术人员信息暴露,属于行业常见做法,并非针对大疆。影石称,涉诉专利申请时间多在四至五年前,多数专利因产品方向调整未在实际产品中使用。 影石同时指出,其与GoPro、大疆存在专利交叉情况,此前已花费超1000万美元在海外应对GoPro诉讼并胜诉。影石表示,公司资源优先投入研发,仅在专利阻碍新产品推出时才会主动发起诉讼。目前,影石计划于今年推出七至八款新品,包括云台相机、领夹麦克风及另一款无人机。影石称,将尊重法律程序,不畏惧专利诉讼,但优先通过创新拓展市场。 据《经济参考报》报道,近日,深圳市大疆创新科技有限公司在广东省深圳市中级人民法院正式起诉影石创新,涉及6项专利权属纠纷,多名前大疆核心研发人员被指参与。目前,法院已正式立案。 据悉,这是大疆首次在国内提起专利权属纠纷,大疆指控影石创新申请的涉案专利主要集中在无人机飞行控制、结构设计、影像处理等关键技术领域。据了解,大疆在诉状中指出,涉案专利系前员工离职后一年内作出的发明创造,这些发明与员工在大疆任职时的工作任务密切相关。
美国,正式进入机器人杀人时代
中国机器人忙着上春晚进流水线,没白没黑地搬砖,卷生卷死。美国机器人就更拼命了,直接上前线了。 美国的基础未来工业公司(Foundation Future Industries)与美国军方签订了总价值2400万美元的研究合同,已于2月在乌克兰部署2台该公司的幻影(Phantom)MK-1人形机器人。 这应该是人形机器人头一回上战场接受实战考验。 可是人形机器人上战场能干啥? 这就得看这款幻影MK-1的参数了。 根据基础未来工业公司官网的介绍,幻影MK-1身高一米八,体重八十公斤,活脱脱一个成年男性的体格,但好像又更强壮一些——能搬运80斤重物,时速六公里。 人形机器人在灵活性上比不上人类,不过幻影MK-1借助灵巧手等零部件,也能做到19个自由度,也是相当灵活了。 看到这些参数,你也能猜到,这款人形机器人可以携带不少武器,包括手枪、霰弹枪和M-16步枪等。它采用专有摆线致动器技术,运行静音且动力强大,可以维持其隐蔽运动。 更妙的是,其热信号与人类相似,可干扰敌方侦察设备,误以为它是真人。 这些指标意味着,机器人能先于士兵进入建筑、狭小空间或洞穴等高风险场景侦察;能提前搬运补给、排查爆炸物;从技术上,已具备替代人类士兵执行部分危险任务的能力。 这么一说,配上幻影MK-1通体乌黑的大体格子,还真是烟熏的太岁,火燎的金刚,专门往危险的区域里钻也不心疼,毕竟它哪怕被摧毁也就有点可惜,比起真人被打死还是好多了。 不过幻影MK-1也没有想象中那么智能,起码现在它的控制方式还是人机交互,还需要操作人员后台发令,机器人才会执行任务。 如果不是通过AI自主决策行动,还只是人类操作的话,幻影MK-1除了像人,也没比俄乌战场上早已出现的多种无人武器先进太多。 俄乌已经打了四年了,无人车、无人机等无人武器早就广泛应用。 去年,就有乌军使用自杀式无人机和装载炸药的无人车攻击俄军阵地。为防止无人车爆炸,某据点里的俄军向无人车举手投降。 这一幕震惊了很多人,人类居然没看见具体的敌人就向无人武器投降了。 但既然这一幕能被摄像头拍下来,说明无人武器背后还是人类在操作,人类在决定这些敌人是否能够投降,并不是完全的AI自助决策。 随着具身智能发展,AI在战场上自主决策的一天很快就会到来了。 美国另一家军事科技公司Scout AI预测,未来五年内,有人操控的无人机将会消失,人类对无人武器的操控会失去意义。 Scout AI在推动机器人自主杀人的未来成为现实——它正在和五角大楼谈2.25亿美元的AI武器系统合同。 如果AI自主决策战争真的实现,将会对人类社会造成重大冲击。 我们现在开玩笑说AI“吃人”,要么说的是AI减少了工作岗位导致人失业,要么是AI导致电费、内存价格等物价上涨让人不堪重负,都不是直接杀人。 可AI用在武器自主决策上,就真的是直接杀人了。 工业时代的总体战,催生了福利国家制度——国家以福利、权利换取公民的参战与劳动,公民因不可替代成为国家博弈的筹码。 而AI主导的智能化战争,让战争从 “人力密集型” 转向 “资本密集型”,胜负取决于高科技企业、巨额资本与少数专业军人,普通公民的价值被彻底弱化。 到时候人类不仅创造力不如AI,破坏力也不如AI了,人类与AI博弈彻底失去筹码。 全世界只会剩下少数“终产者”坐拥大量财富,用他们的狗腿子AI镇压杀戮任何敢于反抗的普通人,甚至最终真的实现了“硅基统治世界”,连少数“终产者”都被AI干掉了。 这可真是过于黑暗但有可能发生的未来。 “史上首次俄军向机器人部队投降”,揭秘背后:乌有数百个秘密工坊正打造机器人军队,灵感来源或是杂志、网络视频,俄开发抗干扰无人机 https://mp.weixin.qq.com/s/Ep1QjxG7BTZBbpE7BfX-zA 战略深解读|无人作战正在颠覆认知:从武器到战场主体的深刻变革与社会反思 https://mp.weixin.qq.com/s/8YnNQR2Oz1Vl9D4S2T0pWA 人形机器人首次在俄乌冲突前线部署 https://mp.weixin.qq.com/s/wFF9tjXUJj2yq8gbqLwJ_w 人形机器人正被部署至乌克兰前线 https://mp.weixin.qq.com/s/M017vWyDkol9pAS5JkNadg
AI大神卡帕西自曝:玩龙虾玩出“AI精神病”,token不烧完就焦虑
编译 | 陈骏达 编辑 | 李水青 智东西3月23日报道,在上周六发布的播客中,OpenAI联合创始人、AI大牛Andrej Karpathy(安德烈·卡帕西)系统梳理了自己在AI编程和OpenClaw浪潮中的一线体感与方法论,他笑称由于AI领域的飞速发展,自己仿佛出现某种“精神错乱”,在不同新事物之间疲于奔命。他还发现,当下AI编程智能体的瓶颈已不只是模型能力:“Agent做不好,多半是Skill问题。” “我现在几乎一行代码都没再亲自写过。”在Karpathy看来,软件工程的工作流已经在短短几个月内被Agent彻底改写。现在不是人写代码,而是人用自然语言调度一群智能体完成系统级任务。过去他80%代码靠自己,如今变成80%交给Agent完成,甚至更高。 除了将Agent用于编程之外,OpenClaw的爆发也改变了Karpathy的生活。他打造了一个名为“多比”的OpenClaw,直接“接管”家庭,自动扫描并接入音箱、灯光、安防等设备,自主寻找API、建立控制面板,还能在陌生人接近时发预警。 这一经历让Karpathy得出判断:许多App都应该是Agent可调用的API,Agent就是粘合剂。OpenClaw之所以特别,不是因为某个功能最强,而是它更接近人们心目中的AI形态。 值得一提的是,在预告这期播客的推文下,Karpathy在OpenAI的前同事、OpenAI o1模型作者之一Noam Brown发了一条颇有“火药味”的推文,质疑Karpathy在这一关键时刻,为什么不在AI前沿实验室好好做研究。 对此,Karpathy也在播客中做出正面回应,如果深度绑定一家前沿AI实验室,就很难保持完全独立的立场,离开后反而与人类整体的立场更为对齐。财务激励与社会责任之间存在“利益冲突”,这也是OpenAI创立时就存在的问题,至今未能解决。 Karpathy认为,在前沿AI Lab干一段时间,做一些高质量工作,然后再离开,是个不错的方式——既能跟上真实进展,又不至于完全被某个实体控制,还给生态做了贡献。这番表态,颇有点“普罗米修斯盗火”的意味,或许真是他从OpenAI急流勇退的原因。 在这期播客中,Karpathy还就自动化研究、大模型能力“锯齿化”、开源与闭源竞争格局,以及AI对就业与软件形态的重构分享了自己的思考,以下是这期播客的核心内容: 1、AI编程:去年12月以来,AI编程的范式已经彻底改变,如今人其实不是在编程,而是在向Agent表达自己的想法。 2、生产力焦虑:行业目前最焦虑的已经不是能不能跑满GPU了,而是能不能用完token,“订阅没用完我就焦虑,说明我的token吞吐量没拉满。” 3、自动研究:AI已经能高度自动化地完成复杂研究任务,人类要做就是把人从所有流程中撤走,尽可能自动化,追求极高的Token吞吐量。 4、模型能力呈锯齿状分布:模型在不同领域的能力仍然参差不齐,如今与AI对话的感觉,就像是同时在和一个天才程序员和一个10岁小孩对话。 5、泛化问题:智能并没有全面溢出,可验证能力的提升并不会带动模型软性能力的提升。比如,模型在代码上变强了,但讲笑话还是五年前的烂梗。 6、职业选择:在前沿实验室工作并不自由,有太多利益纠葛和立场约束,在这些机构之外,反而更接近“人类整体”的立场。 7、开源v.s.闭源:完全封闭的智能还是有系统性风险的。开源模型如果并非最强,最好也只是稍微落后,扮演行业的“共同工作空间”角色,确保权力平衡。 8、单一大模型v.s.专用小模型:大模型会出现更多“物种分化”,但是持续学习、微调和权重修改等相关技术仍未成熟。 9、机器人:操作原子(物理世界)要比操作比特(数字世界)难上100万倍,但物理世界的总潜在市场(TAM)可能比纯数字世界还大。 10、AI与教育:人类互相教授知识的时代要结束了,未来教育的模式可能是先让agent搞懂,然后让它来教人。 以下是播客内容的完整编译: 01. AI“龙虾”编程效果不佳? 多半还是Skill问题! 主持人:我记得有段时间走进你的办公室,看到你非常专注,我问你在做什么,你说“我必须每天‘编程’16小时”。编程甚至都不是正确的动词了,你其实是在向Agent表达自己的想法。跟我说说你的体验。 Karpathy:我感觉自己一直处在一种“AI精神错乱”(AI psychosis)的状态,现在也经常如此。因为作为个体,你能实现的事情变得更多了。过去你会受限于打字速度之类的因素,但现在有了这些Agent,情况完全不同了。 从去年12月开始,我的工作方式迎来真正的转折点:原本我手写80%的代码,剩余20%交给Agent,现在变成了20%自己写、80%交给Agent,甚至可能还不止80%。从那时起,我几乎一行代码都没再亲自写过。 随便找一个软件工程师,去看看他们在做什么,你会发现他们构建软件的默认工作流,从去年12月开始已经彻底改变了。 这是一个极其巨大的变化。我也跟我父母聊过这件事,其实普通人并没有意识到改变正在发生,或者没有意识到它有多戏剧性。 所以我现在的状态就像是“精神错乱”了一样,试图搞清楚到底哪些事是可行的,并把这些可能性推向极限。我会想:怎么能不局限于单次会话的Claude Code或Codex?怎么能拥有更多?怎么才能更合理地利用这些能力?这些OpenClaw到底能用在什么场景?新东西实在太多了。 我觉得自己必须站在最前沿。我在Twitter上看到很多人在做各种尝试,听起来都头头是道。如果我不处在前沿,就会感到非常焦虑。这种“精神错乱”状态,本质上是因为我们还在探索“什么是可能的”,而这个领域从根本上说仍是未知的. 主持人:如果你都感到焦虑,那我们其他人就更不用说了。我们有个合作团队,他们的工程师完全不手写代码,所有人都戴着麦克风,一直对Agent低语。这是有史以来最奇怪的工作场景。我以前觉得他们疯了,现在我完全接受了,“哦,这才是正道”。你只是领先了一步。你觉得现在自己探索或做项目的能力受限于什么? Karpathy:Agent做不好,多半是人没掌握好Skill。不是它不行,是你还没摸清楚怎么把现成的东西组合起来。比如agents.md文件里的指令写得不够好,或者没配个好用的记忆工具,归根结底都是Skill问题。 最好的办法是让Agent并行干活,就像Peter Steinberg(OpenClaw作者)那样。Peter有张特别逗的照片——他坐在显示器前,屏幕上铺满了一堆Codex Agent。如果提示词写得对,再开个高强度推理模式,每个任务差不多要跑20分钟。他手上大概有10个repo要检查,就来回切换着给Agent分配工作。 这样你就能用更大的颗粒度去操作了,不是“这儿改一行代码,那儿加个新函数”这种小打小闹,而是“这个新功能交给Agent 1,那个新功能不冲突,给Agent 2”,然后根据你对代码的重视程度去审查它们的产出。 这些就是操作代码仓库的“宏观动作”。一个Agent在做研究,一个在写代码,另一个在规划新的实现方案,所有事都在这些宏观动作里推进。你得努力精通这套玩法,练出肌肉记忆。这事儿特别有回报,一来是真的有用,二来是你在学新东西。所以才会“精神错乱”。 02. “订阅没用完我就焦虑, 说明我的token吞吐量没拉满” 主持人:我的直觉是,每次等Agent干完活儿,都觉得自己应该多干点别的,对吧?如果token还富余,就该并行塞更多任务进去。这挺有压力的,因为要是你不觉得token花费是瓶颈,那系统里真正的瓶颈就是你自己了。 Karpathy:起码说明你订阅的额度没用满。理想情况下,Codex跑满了就该切到Claude或者别的。我最近一直在试这个模式,订阅没用完我就焦虑,说明我的token吞吐量没拉满。 我读博的时候其实也经历过这种事,GPU没跑起来就焦虑——明明有GPU算力,FLOPS却没榨干。但现在不是FLOPS了,是token。你的token吞吐量是多少?你指挥着多少token在跑? 主持人:我觉得挺有意思的,过去至少十年,很多工程任务里大家都不觉得受计算限制,而目前整个行业突然变得受资源限制了。现在能力突然跃升了,你就会发现“哦,原来不是我搞不到算力,瓶颈是我自己”。 Karpathy:是Skill问题。研究这事儿能让你变得更好。我觉得挺上头的,因为你变强了就会解锁新东西。 主持人:你觉得会往哪儿发展?比如Karpathy每天迭代16小时,其他人也在用编程Agent变强,一年后你达到的精通水平,会是什么样? Karpathy:精通是什么样?年底,还是两年、三年、五年、十年后?我觉得大家都想往技术栈的上层走。不是单次和Agent聊天,而是多个Agent怎么协作、团队怎么配合,大家都在摸索那会是什么样。 然后我觉得OpenClaw也是个有意思的方向,因为我说的OpenClaw是指那种把持久性提升到新层次的东西。它是那种持续循环运行的,不是你交互式参与的,它有自己的小沙盒,自己干事儿,哪怕你不盯着,还有更复杂的记忆系统之类的,这些Agent里还没实现。 OpenClaw的记忆系统就比默认的大模型复杂多了,默认只是上下文满了就压缩记忆。 主持人:你觉得OpenClaw是不是凭借这一点打动了用户,还是更广泛的工具访问? Karpathy:我觉得OpenClaw有很多非常好的想法。Peter做得特别棒。我最近见到他聊过,他挺谦虚的,但我觉得他同时在五个不同维度创新,然后整合到一起。比如那个“灵魂文档(soul.md)”,他真的精心打造了一种有吸引力、有意思的人格。我觉得现在很多Agent都没做对这点。 Claude的人格就不错,感觉像队友,跟你一起兴奋。有意思的是ChatGPT里的Codex很活泼、很有活力,但Codex这个编程Agent就很枯燥,好像不在乎你在创造什么,虽然完成了,但是它好像不理解我们在构建什么。 主持人:确实。 Karpathy:还有一点,比如Claude,我觉得他们把模型的“人格”调得挺好。Claude夸我的时候,我确实觉得配得上。因为当我给它的想法不太成熟的时候,它反应就不强烈。但按我自己的标准,真是好想法的时候,它好像会多奖励一点。我有点想赢得它的夸奖,这真挺奇怪的。 人格很重要,很多其他工具可能没那么重视。Peter真的很在乎这个,所以做对了。然后是记忆系统,还有通过单一WhatsApp入口,访问所有功能,这个设计很不错。 03. “一切都应该是API端点, Agent是粘合剂” 主持人:你个人用OpenClaw做过什么编程之外的有意思的事吗? Karpathy:1月份的时候,我经历了一段“OpenClaw精神错乱”时期。我搭了个照顾家的OpenClaw,叫它“家养小精灵多比”。我用Agent找家里局域网上所有智能家居子系统,还挺惊讶居然开箱即用。 我只是跟它说“家里有Sonos,你能找找吗?”它就做了IP扫描,找到Sonos音箱,结果没密码保护,直接登进去了。然后它开始逆向工程,看看这些系统是怎么工作的,也做了些网络搜索,直接找到API端点,问我想试试吗,然后音乐就出来了。 灯光也一样。它基本上是黑进了系统,搞清楚了整个系统,创建了API,创建了仪表盘,我能看到家里所有灯的指挥中心,然后开关灯。我可以跟它说:“多比,要睡觉了”。这条指令就可以把所有灯关掉,它还控制着我所有的灯、空调、窗帘、泳池、水疗吧,以及安保系统。 我有摄像头对着房子外面,每次有人进来,首先会进行变化检测,然后基于变化检测去调Qwen,最后给我发WhatsApp消息,显示外面的图像,比如:“嘿,FedEx卡车刚到了,你可能想检查一下,你收到邮件了。”这是多比刚给我发的,真的很不可思议。 多比管着房子,我通过WhatsApp跟它发消息,这些宏观动作真的很有意思。我还没真正推得更远,我觉得有人在做更疯狂的事。但就算只是家庭自动化设置,我以前要用六个完全不同的App,现在不用了,多比用自然语言控制一切,很神奇。我觉得我还没完全推到这个范式的极限,但已经很有帮助、很有启发了。 主持人:你觉得这从用户体验角度说明了人们想要什么吗?因为学习新软件、新UI是需要人类努力的,这在过去被忽视了。 Karpathy:某种程度上是对的。OpenClaw实现的东西,本质上是从“人们觉得AI应该是什么样”这个角度倒推出来的。人们心目中的AI其实不是原始意义上的大模型——大模型就是个token生成器,但人们想象中的AI是那种有人格、有身份的存在,你可以跟它分享事情,它也会记得,就像WhatsApp背后的某个实体,更好理解。 所以某种程度上说,OpenClaw匹配了人类对AI行为的既有期望,但底层有很多技术细节。比如大模型作为原始原语对大多数人来说太“原始”了,对很多人来说不能真正被当成AI来看待。 主持人:我觉得这就是我们理解AI的方式,把它描述成多比或某种人格显然能引起共鸣。我觉得你把六个不同的软件系统统一起来做家庭自动化,也指向另一个问题:人们真的想要我们今天拥有的所有这些软件吗?你所做的就是把这些硬件的软件层或UX层扔掉了。你觉得这是人们想要的吗? Karpathy:我觉得有种感觉是,应用商店里那些配套智能家居设备的App,某种意义上根本不应该存在——不应该就是个API吗,Agent不应该直接调用吗?我能做各种家庭自动化,任何单个App都做不到。大模型能驱动工具、调用所有正确的工具、做相当复杂的事。 这说明业界可能生产了太多定制App,它们不应该存在,因为Agent把它们都统一起来了,一切都应该更像是暴露出来的API端点,Agent是粘合剂,是实际调用所有部分的智能。 另一个例子是我的跑步机,有个跑步机App,我想记录做有氧的频率,但我不想登录网页UI、走流程什么的。这些都应该只是开放的API,这是走向Agent化网络或Agent优先工具的方向。所以行业必须在很多方面重新配置,客户不再是人类,而是代表人类行事的Agent,这种重构可能会相当彻底。 有人反驳说,我们期望人们vibe code这些工具吗?普通人要做我刚才描述的这些吗?但某种程度上这只是今天的技术现状,现在有vibe coding,我在观察、在跟系统合作。 但我觉得我刚才说的这些,一两年或三年后应该是免费的,没有vibe coding参与,这是微不足道的,是基本要求,任何AI甚至开源模型都能做这个。 主持人:大模型应该能很容易地把不熟悉技术的人的意图,翻译回去。 Karpathy:今天还是需要vibe coding,但没多少人会做。 主持人:而且你还得做些设计决策,对吧?比如取帧。 Karpathy:但我觉得门槛会降下来,只是为你服务的临时软件,某个OpenClaw处理所有细节,你不参与。它有台机器,会搞清楚,只给你呈现UI,你说话就行。 主持人:你为什么没把个人用OpenClaw的边界推得更远?是因为你专注更重要的项目,比如自动研究,还是在研究如何精通Vibe Coding,或者其他原因? Karpathy:我觉得我分心了。我花了一周在OpenClaw的东西上,但还有更多尝试可以做。我没给它邮件、日历和其他东西的访问权限,因为我还有点怀疑。它还很新、很粗糙。我不想给它我数字生活的完全访问权。部分原因是安全、隐私,也许这是主导因素。但部分也确实是因为我被分心了。 04. AI已能“自动研究” 人类别拖后腿 主持人:你探索“自动研究”的动机是什么?你一直在说,想让Agent做训练或至少优化模型的任务。 Karpathy:我早先有条推文,大意是为了充分利用现在可用的工具,你必须把自己从瓶颈中移除,你不能在那里写提示词,指挥模型做下一件事,需要把自己抽离出来,安排好任务让它们完全自主。怎么在不参与循环的情况下,最大化你的token吞吐量,这才是目标。 现在要做的就是增加你的杠杆,我只输入很少的token,偶尔一次,但是有大量事情正在发生。 人们喜欢这个概念,但可能没完全想通含义。对我来说,自动研究员就是上述观点的案例之一——我不想做研究者,看结果什么的,我在拖系统后腿,所以问题是怎么重构所有抽象层。 我们要做的就是让Agent能运行更长时间、不用你参与、代表你做事。所谓的自动研究员就是,你告诉Agent,这是目标,这是指标,这是能做和不能做的事情,放手去做吧。 主持人:你对它的有效性感到惊讶。 Karpathy:对,我没想到会有效。我有nanoGPT这个项目,很多人不理解我对训练GPT-2模型的着迷,但对我来说,训练GPT模型只是个小工具、小游乐场。我真正更感兴趣的是递归自我改进这个想法,以及大模型能在多大程度上改进大模型。所有前沿实验室都在做这件事,他们都在大致尝试递归自我改进。 这个项目对我来说就是一个小游乐场。我已经用经典的手工方式调过nanoGPT了——我是研究者,做了大概二十年。我做了很多实验,做了超参数调优,做了所有事,非常熟练,达到了某个点,我觉得调得相当好了。 然后我让自动研究跑了一晚上,它给我带来了我忽略的调优空间,比如我确实忘了值嵌入的权重衰减,我的Adam beta没充分调好,这些东西是联合交互的,一旦调一个,其他的也可能要变。 我不应该是瓶颈,我不应该跑这些超参数搜索优化,我不应该看结果,这种情况有客观标准。所以你只需安排好Agent,让它能一直跑下去。我很惊讶它找到了这些调优空间,代码库已经高度优化了。 而这还只是单循环,前沿AI实验室有数以万计GPU的集群。不难想象,可以在较小模型上进行大量这种研究。所有前沿AI模型都是关于外推和Scaling损失的,可以在较小模型上做大量探索,然后尝试外推出去。 主持人:你的意思是,如果能更好地进行这种实验,那研发效率会大幅提升,在扩大模型规模时,也会有更明确的方向。 Karpathy:是的。我觉得目前最有趣、可能也是顶尖实验室正在攻克的项目,就是在小模型上做实验。你会试图让实验过程尽可能自动化,把研究员从环节中踢出去。研究员们往往有种“过度自信”,其实他们不该插手这些过程。你得重写整个流程,虽然现在研究员还能提供点想法,但不该由他们去执行。 想象一下,有一个点子队列,可能还有一个“自动化研究员”,它根据所有的arXiv论文和GitHub仓库产生灵感并输入队列;人类研究员也可以贡献点子,但它们都进入同一个队列。然后由自动化Agent去抓取任务并尝试。行得通的代码就进入功能分支,人工只需偶尔监控一下并合并到主分支。 总之,就是把人从所有流程中撤走,尽可能自动化,追求极高的Token吞吐量。这需要重新思考所有的抽象层,一切都要推倒重来。这非常令人兴奋。 05. AI能力呈“锯齿状”分布: 有时像天才,有时像10岁小孩 主持人:如果我们再往深处推演一级,模型什么时候能写出比你更好的“program.md”? Karpathy:“program.md”是我尝试描述自动化研究员如何工作的一个简陋草案——比如“先做这个,再做那个,尝试这些架构或优化器的点子”。我只是用Markdown随手写出来的。你肯定想要一种自动化研究循环,去寻找更优的方案。你可以想象,不同的“program.md”会带来不同的进展。 每一个研究机构其实都可以由一个“program.md”来描述。一个研究机构就是一组描述角色和连接方式的Markdown文件。你可以想象一个更高效的机构:也许他们早上的会更少,因为那纯属浪费时间。既然这一切都是代码,你就可以微调它:有的开会少,有的偏好高风险。 你可以打造多个不同的研究机构,每个机构都以代码表示,有了代码就可以对其进行优化。你可以分析进步是从哪儿来的,然后调整“program.md”,让它多做有效的事,少做没用的事。 主持人:这就是元优化(Meta Optimization)。 Karpathy:这主意很棒,但得一步步来。这就像剥洋葱:现在大模型部分已经是常态了,智能体部分也是常态了,像OpenClaw也是常态了。现在你可以拥有多个实体,给它们指令,甚至对指令进行优化。这信息量确实有点大,甚至让人感觉有点“精神错乱”,因为它是无限嵌套的,而且一切都还处于早期阶段。 主持人:如果我们要判断当下,什么样的技术才是核心?我们是否应该在各个领域都尝试实现这种“去人化”的自动化循环?核心是建立指标,还是创造让Agent在没有你的情况下持续工作的能力。那“性能工程”(Performance Engineering)还有地位吗? Karpathy:关于AI生态我有几点想提醒。第一,这种模式极其适合那些有客观指标、易于评估的领域。比如编写更高效的CUDA算子。有一段低效代码,想要一段行为完全一致但速度更快的高效代码,这是自动化研究的完美场景。但如果你无法评估,你就没法对其进行自动化研究。 第二,虽然我们能看到下一步,但模型的基本功层面其实还有很多不足,没完全跑通。如果你步子跨得太大,最后可能反而没用。现在的模型虽然进步很大,但在某些方面还是比较粗糙。我感觉自己同时在和一个天才级的系统程序员以及一个10岁小孩对话。 这种“锯齿状”(Jaggedness)的能力分布很奇怪,人类的能力通常更均衡。有时候我要求一个功能,结果Agent给我的完全是错的,然后陷入完全错误的循环,我就特别崩溃。明明能感觉到它的强大,但它偶尔还是会干出完全没道理的事情。 06. 模型能力“泛化”仍然存疑, 一切都卷在不透明的神经网络里 主持人:当我发现Agent在一些显而易见的问题上浪费了大量算力时,我会非常恼火。 Karpathy:我猜这背后的深层原因是:这些模型是通过强化学习(RL)训练的。它们也面临我们刚才聊到的问题:实验室只能在可验证、有奖励反馈的领域提升模型。代码写对了吗?单元测试过了吗?这些好办。 但它们在比较“软”的东西上就挣扎了,比如:我到底想要什么细微差别?我意图是什么?什么时候该反问我求澄清?凡是感觉比较模糊、不明确的领域,它们就明显差很多。 所以你要么就在轨道上,属于超级智能的一部分,要么就偏离轨道,进入了不可验证的领域,然后一切就开始漫无目的地游荡。 换个说法:你今天去用最强的ChatGPT,说“给我讲个笑话”,你大概率知道会得到哪个笑话。 主持人:我猜ChatGPT大概翻来覆去就那三个笑话。 Karpathy:没错。所有大模型最爱讲的笑话永远是:“为什么科学家不信任原子(Atoms)?因为它们构成了(Make up,也有编造之意)一切。” 这是三四年前模型讲的笑话,现在依然是。尽管模型在Agent任务上已经能移山填海,可你一让它讲笑话,它还是五年前的烂梗。 因为这不在强化学习的优化范围内,它是“锯齿状能力”中的洼地。模型能力提升的同时,讲笑话的能力并没有提升。它没有优化,而是停留在了原地。 主持人:这是否说明我们在“泛化”意义上并没有看到更广的智能——比如讲笑话的聪明度并没有跟写代码的聪明度绑定在一起? Karpathy:对,我觉得确实存在一定程度的解耦。有些东西可验证、被重点优化;有些东西没有被优化。有些领域实验室根据训练数据随意优化,有些根本没动。 主持人:有一些研究组的前提是:如果你在代码生成等可验证领域变得更聪明,就应该在所有领域都更聪明。但笑话这个例子说明,至少目前并没有发生全面的溢出。 Karpathy:我也不觉得发生了。我觉得有一点点,但远没有达到让人满意的程度。 主持人:人类也有这种特质。你可以数学极其厉害,但讲笑话巨烂。 Karpathy:但这也说明,我们并没有得到那种“模型越强,所有领域的智能都自然而然跟着变强”的故事。并不是这样。存在盲区,有些东西根本没被优化。这一切都卷在不透明的神经网络里。 如果是获得针对性训练的能力,就会光速前进,如果不在这一范围内,表现就不佳。这就是能力的参差不齐。 即使方向很明显,也还不能完全放手让它跑,因为它还没完全跑通——要么是技术还没成熟,要么是我们还没搞明白怎么用。 07. 大模型会出现更多“物种分化” 但相关技术仍不成熟 主持人:我能问一个有点大逆不道的问题吗?我们现在还是把模型打包成一个单体模型,但如果这种参差不齐的能力分布会一直存在,那是否应该把模型拆开,拆成可以在不同智能领域分别优化、分别改进的东西?比如拆成多个专家模型(Mixture of Experts),每个专注不同领域。 而不是现在这样:一个大模型什么都行,但为什么在这件事上表现很好、在另一件事上表现极差,让人非常困惑。 Karpathy:我现在的感觉是:前沿实验室还是想做一个单一的“单文化”模型,在所有领域都尽可能聪明,然后把一切都塞进参数里。但我认为未来应该会出现更多的“物种分化”(speciation)。 就像动物界,大脑形态极其多样,有各种生态位。有些动物视觉皮层超级发达,有些其他部分超发达。我们应该也会看到更多这种分化。 不需要一个无所不知的神谕(oracle)。你可以让它分化,然后针对特定任务部署。而且这样可以出现更小的模型,但仍然保留认知核心,仍然很能干,只是在特定任务上做了特化。 这样在延迟、吞吐量上都会更高效。比如专门为Lean定理证明做优化的模型,已经有几家在发布了。应该会出现越来越多这种解耦的场景。 主持人:我有一个问题是:当前计算基础设施的容量限制,会不会反过来推动这种分化?因为效率变得更重要了。因为如果算力完全不限,你什么都能跑,哪怕是一个超大单模型。但如果你真切感受到:我不可能为每一个用例都开一个巨型模型。你觉得这会不会推动分化? Karpathy:这个问题很有道理。但我现在的困惑是:我们其实还没看到太多分化。目前还是单一模型占主导。 主持人:业界明显有压力,要做一个好的编程模型,然后再合并回主干。 Karpathy:尽管模型本身已经有很大压力了。 主持人:也许现在是短期供给极度紧张,反而会造成更多分化。 Karpathy:对。我觉得本质上,实验室在对外提供模型时,他们并不知道终端用户会问什么。所以他们必须在所有可能的问题上进行多任务规划。 如果你是跟某个企业深度合作、针对特定问题,那可能会出现更多特化。或者某些极高价值的细分应用。但目前他们还是在追求“包罗万象”。 另外,操控这些“脑”的科学本身还没完全成熟。比如在不损失通用能力的情况下做微调,同时,我们也还没有很好的原语(primitives)。现在基本上靠上下文窗口来操控,它确实很好用、很便宜,所以我们用它做各种定制化。 但如果想更深层地调整模型,比如持续学习(continual learning)、在特定领域微调、真正动权重而不是只动上下文窗口,这要复杂得多。动权重实际上是在改变整个模型的智能,很容易出问题。所以“物种分化”的科学本身还不成熟。 主持人:而且成本也要足够低,才值得去做。 08. AI研究“并行化”展现潜力 “散户”也能贡献算力 主持人:我能再问一个关于你之前提到的“自动研究”(auto research)的问题吗?你谈到过“开放地带”(open ground),说我们需要围绕它建立更多的协作表面,让大家都能参与到整体研究中。你能再讲讲这部分吗? Karpathy:好的。我们之前聊到,研究本质上是一条单线程:我不断尝试、循环迭代。但真正有趣的部分其实是它的并行化。我尝试过一些想法,但目前还没有找到特别简单、让我特别满意的方案,所以这只是我业余时间、在不做OpenClaw时顺手捣鼓的一个方向。 一个很直接的思路是:如果你有很多并行节点,很容易就能让多个自动研究员(auto researchers)通过一个共享系统互相讨论。但我更感兴趣的是,如何让互联网上大量不被信任的工人(untrusted pool of workers)参与进来。 举个例子,在自动研究里,我们的目标是找到一段能把模型训练到非常低验证损失的代码。如果有人从互联网上提交一个候选commit,你很容易验证它到底好不好——直接跑一下就知道。 但验证本身虽然简单,却可能要消耗大量算力。而且对方完全可能撒谎。所以这里其实有点像我之前设计的一些系统,引入了不信任的工人池,结构上有点像区块链。 这些commit可以互相建立在前面,包含代码的改进。所谓的“工作量证明”其实就是大量实验,找到真正有效的commit。现在的奖励只是上排行榜,没有任何金钱激励。 我不想把这个类比推得太远,但核心问题是:搜索的成本非常高,但验证一个候选方案是否优秀却非常便宜——你只需要训练一次模型,看看它到底行不行。前面可能试了1万个想法失败了,但你只要验证那个成功的就够了。 简单来说,你需要设计一套系统,让不被信任的工人池和可信任的验证工人协同工作,整个流程是异步的、安全的。从安全角度看,如果有人随便发一段代码给你,你直接跑它是非常危险的。但理论上这是完全可行的。 你应该很熟悉SETI@home(在家搜寻地外文明)、Folding@home(在家研究蛋白质折叠)这些项目,它们都有非常相似的性质:找到一个低能量蛋白质构象非常难,但一旦有人找到了,你很容易验证它就是低的。 所以凡是符合“生成极贵、验证极便宜”这个特性的问题,都很适合用“@home”模式,比如Folding@home、SETI@home,或者未来的“Auto Research @ home”。 一句话总结:互联网上的一大群智能体有可能合作来改进大语言模型,甚至有可能跑赢前沿实验室,谁知道呢?前沿实验室拥有大量可信算力,但地球上不被信任的闲散算力总量要大得多。 如果能把机制设计好,让安全验证到位,也许真的有可能让这群“散户”贡献算力,共同推动某些他们关心的方向。 再延伸一点,很多公司、机构、甚至个人研究方向都可以有自己的自动研究赛道。比如你特别关心某种癌症,你不只是捐钱给机构,你还可以买一些算力,然后加入那个癌症方向的自动研究“池子”。这样算力就变成了一种你可以贡献的东西,所有研究者最终都在共享、竞争、迭代这些算力成果。 主持人:这真的很振奋人心。而且很有意思的一点是,现在至少有一部分人——不管是硅谷排队买显卡的,还是中国商场里抢设备的——突然又觉得拥有个人算力变得有意思了。 Karpathy:对。 主持人:他们可能为了自己的OpenClaw去买算力,然后顺便贡献给自动研究。 Karpathy:现在大家都在乎美元,但未来会不会变成大家都在乎FLOP(浮点运算次数)?会不会出现一种“翻转”——算力变成真正稀缺和主导的东西?当然我不认为会完全这样,但这个想法挺有意思的。 09. AI是数字世界的“幽灵” 进入物理世界仍会滞后 主持人:你最近发布的好像是对一些就业数据的分析,对吧?好像还稍微触动了一些人的神经,虽然你只是可视化了公开数据。你当时主要是好奇什么? Karpathy:对。我就是很好奇AI对就业市场的真实影响到底会怎样。每个人都在讨论这个话题。所以我就想看看现在的职业分布是什么样子、各个职业有多少人,然后逐个去想:以AI目前和未来可能的演化路径,这些职业是会被AI当作工具来增强,还是会被取代?它们是会增长、萎缩,还是会发生很大变形?会不会出现全新的职业? 所以这其实主要是喂养我自己对整个行业的思考链条。我看的是美国劳工统计局(BLS)的数据,他们对每个职业未来十年(大概是基于2024年的预测)都有一个预期增长百分比。 主持人:我们需要很多医疗工作者。 Karpathy:对,他们已经做了这些预测。我不清楚他们的具体方法论是什么。我当时主要按“数字vs物理”来给这些职业分类。 因为我觉得目前主流发展的AI更多是数字世界的“幽灵”——它们能非常高效地操纵数字信息,但还没有真正的物理具身。操控原子永远比操纵比特慢很多个数量级。 所以我预期数字空间会发生爆炸式的活动、重写、沸腾,而物理世界会相对滞后一段时间。数字领域的“神经系统”会被AI大幅升级,带来大量原本由人和传统计算机完成的数字信息处理工作被重构(refactoring)。而物理世界会慢半拍。 所以我特别把那些本质上就是在家里操纵数字信息的职业标出来——因为这些领域会发生剧烈变化。不是说岗位数量一定减少或增加(那取决于需求弹性等很多因素),而是说这些职业的工作内容、技能要求会发生巨大改变。这就像给人类超级有机体升级了一套新的神经系统。 主持人:从你看数据的感受来说,对于现在面临就业市场、或者在考虑学什么、发展什么技能的人,你有什么观察或者建议吗? Karpathy:这个真的很难一概而论,因为职业太多样了,情况千差万别。但总体来说,这些工具出现得太新、太强大了,所以第一件事就是尽量跟上它们的发展。 很多人会选择忽视它,或者因为害怕而回避——这完全可以理解。但我觉得最重要的是保持好奇、主动去接触和使用它们。因为它们确实是极其强大的新生产力工具。 现在AI其实就是一个非常强大的工具。很多工作本质上是一堆任务的集合,其中一部分任务可以用AI让速度变得非常快。所以大家现在应该主要把它看成一个工具。至于长远未来会怎样,其实挺难预测的,我也不是专业做这方面预测的人,这应该交给经济学家去认真研究。 10. OpenAI的研究员 正“光荣地”把自己自动化掉 主持人:你是工程师啊。我觉得有意思的一点是,现在对工程岗位的需求其实还在持续上升。我不确定这是不是暂时的现象。你怎么看? Karpathy:对,我觉得现在软件其实是稀缺的。正因为稀缺、太贵,所以需求才没有爆发。如果门槛大幅降低,就会出现“杰文斯悖论”——东西变得更便宜,人员需求反而增加了。 经典例子就是ATM机和银行柜员。很多人一度担心ATM和电脑会把柜员彻底取代,但实际上因为银行开支店的运营成本大幅下降,反而开了更多分行,最后柜员数量反而增加了。这是大家常引用的例子。本质就是:某样东西变便宜了,很多之前被压抑的需求就被释放出来了。 所以我在软件工程这个领域其实是谨慎乐观的。我觉得软件的需求会变得极大,因为它变得便宜太多了。 而且软件本身太强大了——它是数字信息处理,你不再被迫使用那些不完美的、别人给你的工具,你也不用只能接受现成的东西。代码现在是临时的、可变的、可修改的。所以我认为未来会在数字世界里出现大量“重构一切”的活动,这会创造非常多的需求。 长远来看呢,像OpenAI、Anthropic这些前沿实验室,现在也就雇一千来个研究员吧。这些研究员某种意义上是在“光荣地”把自己自动化掉,他们其实就是在主动做这件事。 我有时候去OpenAI转转,就会跟他们说:你们有没有意识到,如果我们真的成功了,我们全都要失业啊?我们就是在给Sam(OpenAI联合创始人兼CEO Sam Altman)或者董事会造一个能取代我们的东西啊。 有些研究员自己也开始有那种“精神错乱”的感觉,因为它真的在发生。他们会想:完了,连我也完了。 11. 在前沿AI Lab之外 跟“人类整体”立场对齐度更高 主持人:你为什么不干脆去前沿实验室,用海量算力跟一大群同事一起做自动研究(auto research)?就像前几天Noam Brown所问的那样? Karpathy:其实我之前在那里待过一段时间,也算是重新出来过。我觉得这个问题可以从很多角度看,有点复杂。 我现在感觉,在前沿实验室之外,人们其实也能产生非常大的影响,不管是行业外还是生态层面的角色。比如你现在做的就是生态层面的工作,我目前也更多是在生态层面,我觉得这类角色能带来的影响其实挺好的。 反过来,如果太深度绑定到某一家前沿实验室,其实也有问题。因为你会有巨大的财务激励,而你自己也承认AI会极大地改变人类和社会,却在里面一边建技术一边从中获利。这个难题其实从OpenAI刚创立时就存在,一直没完全解决。 你在公司里面就不是完全自由的个体。有些话你不能说,有些话组织希望你说。虽然不会强迫你,但那种压力是存在的——说错话会很尴尬,会被侧目,会被问“你在干嘛”。所以你在里面其实很难保持完全独立的立场。 我在实验室外面,反而觉得自己跟“人类整体”的立场对齐度更高,因为我几乎不受那些压力影响,想说什么就说什么。当然,前沿实验室里你也能做出很大贡献,尤其是如果你想法很强、能参与核心决策。现在整体风险还不算特别高,大家都还挺友善。 可一旦真正到高风险、利害攸关的时候,作为一个员工,你对公司最终决策到底有多大影响力,其实我是不太确定的。你可以在会议室里提想法,但你并不是真正掌舵的那个人。的确存在一些错位。 另一方面,我也同意一个观点:如果你完全在实验室外面,判断力确实会慢慢漂移。因为你接触不到最前沿的东西,看不到模型到底是怎么工作的,未来会怎么发展。 所以从这个角度,我确实有点担心。我觉得保持跟前沿的接触是重要的。如果有机会去前沿实验室干一段时间,做一些高质量工作,然后再出来,也许是个不错的方式——既能跟上真实进展,又不至于完全被某个实体控制。 所以我觉得Noam如果在OpenAI应该也能做出非常好的工作,但他的最高影响力也许恰恰是在OpenAI外面。 理想状态可能就是来回切换、在里面和外面都待一待。这是一个复杂的问题,我自己就是先进去,又出来,未来可能还会再进去。我大概就是这么看待这件事的。 12. 开闭源模型差距明显收敛 AI生态需维持健康的权力平衡 主持人:开源模型到底离前沿模型有多近,这个差距会持续吗?我觉得整个事情的发展其实挺让人意外的。从一开始只有少数几个中国模型和全球模型,到现在大家都在持续发布,而且能力上比很多人预想的要更接近前沿。 你长期做开源,对此怎么看?会不会觉得惊讶? Karpathy:我大概的观察是:闭源模型仍然领先,但大家都在盯着“开源模型落后几个月”这个差距。一开始是完全没得比,后来拉到18个月左右,现在已经明显在收敛,可能现在落后6–8个月的样子吧。 我当然是非常支持开源的。拿操作系统举例:有封闭的Windows和macOS这样的大型软件项目,就像未来的大模型一样;但同时也有Linux,它其实极其成功,跑在全球绝大多数计算机上(我记得上次看是60%还是更多)。因为行业需要一个大家觉得安全、可信的共同开放平台。 现在大模型也是同样的逻辑,行业其实有强烈的需求,希望有这样一个东西存在。唯一的区别是,现在做这件事需要巨量的资本投入,这让竞争变得更难。 但我认为现在的开源模型已经非常好用了。对于绝大多数消费级场景,甚至终端开源模型都足够强。往前再走几年,很多简单用例都会被很好地覆盖,甚至可以本地跑。 当然,永远都会有一部分对“最前沿智能”的需求,而且这个需求可能占很大一块市场。但也许未来的“前沿”会变成那种诺贝尔奖级别的工作,或者像把Linux从C重写成Rust这样的大工程。封闭的最强模型可能会主要服务这类高难度任务,而开源则会吃掉大量基础和日常用例。 而且现在封闭实验室的“前沿”模型,过几个月可能就开源了,然后继续干很多活。所以我预计这个动态会持续:前沿实验室保持封闭的最强模型当“神谕”,开源模型落后几个月,但差距可控。我觉得这其实是个挺不错的整体格局。 因为我对完全封闭的智能还是有系统性风险的。历史上看,极度中心化的东西(不管是政治、经济还是其他系统)表现都不太好。 我希望开源就算不是最强的,但最好也只是稍微落后一点,作为整个行业都能用的共同工作空间。这样权力平衡会比较健康。 主持人:另一方面,我也觉得有很多大问题要靠持续推进最前沿的智能才能解决。人类面临的一些超级难题,没法只靠今天的能力搞定,所以我们还是得支持那些愿意花大钱往前推的实验室。 但正如你说的,今天的“前沿”如果过一阵子就开源,那本身就已经是非常大的能力释放了。这种智能的普惠化,我觉得既实用又有益。 Karpathy:所以某种意义上,我们现在这个局面其实挺意外地还不错,甚至可以说是个相对健康的生态。 主持人:而且只要这种动态能持续得久一点,整个生态的“面积”(累积的能力)就会越来越大。 Karpathy:不过最近闭源模型好像反而更集中了,因为很多原本跑在前面的玩家现在掉队了,所以头部更集中。我其实不太喜欢这个趋势。我希望有更多前沿实验室,越多越好。我对集中这件事就很警惕。 机器学习里ensemble(集成)总是比单个模型强,所以我也希望最难的问题是有多组人在思考、最难的决策是有多组知情的人在房间里讨论,而不是关起门来两三个人说了算。我觉得那不是好的未来。 所以长话短说:我希望会有更多的AI实验室,开源模型能一直存在,目前稍微落后一点其实是好事。 13. 与操作“比特”相比 操作原子“难上100万倍” 主持人:你之前做过通用机器人的前期工作,也就是自动驾驶相关的研究。最近几个月机器人公司也加速了,很多公司在泛化能力、长时序任务上进步很大,还有很多钱涌进来。你觉得机器人真的要起来了?最近有没有什么变化让你改观? Karpathy:我的看法还是受当年自动驾驶的影响比较大。自动驾驶其实就是第一个真正落地的机器人应用。十年前那波,有一大堆初创公司,最后能活下来的其实没几个。 我看到的是:机器人这东西太难了,很多脏活累活,需要巨量的资本、时间和信念。“原子世界”就是要比“比特世界”难很多。所以我认为物理世界的机器人会明显落后于数字世界。 数字世界现在就出现了巨大的“解锁效应”——很多原本低效的东西,效率可以提升100倍。因为比特就是比原子好搞太多了。 目前最活跃、最会发生巨变的还是数字空间。然后才会慢慢到数字-物理的接口部分。 为什么会有接口?因为一旦你有了更多Agents代表人类做事、互相协作、参与“Agent经济”,纯数字的任务总有一天会做完。到那时你必须去问宇宙问题,必须做实验,让物理世界给你反馈,才能学到新东西。 现在数字世界还有大量“过剩工作”——人类以前根本没足够脑力把所有已数字化的信息都思考一遍。现在AI来了,我们会先把这些过剩的部分榨干。 但迟早会榨完。然后就开始需要跟物理世界交互的接口:传感器(读世界)、执行器(改世界)。所以我觉得真正有趣的公司会出现在这个接口地带——能不能给超级智能喂数据,能不能按它的指令去操控物理世界。 而纯物理世界的机会其实更大,总潜在市场(TAM)可能比纯数字世界还大。但因为原子难搞太多,所以会滞后。我认为要难上100万倍。时间线大概是先数字大爆发,然后是数字-物理接口,最后才是纯物理的大规模起飞。 主持人:当然,有些物理任务其实没那么难。比如只是在物理世界及逆行“读写”——读可以用现成摄像头、传感器;写可以用现成机械臂。如果你足够聪明,不用投太多钱也能搞出很有价值的东西。 Karpathy:比如我最近去拜访的朋友Liam,他是Periodic的CEO,他们在用AI做材料科学的自动研究。那里传感器的成本就很高,是实验室设备。生物学也一样,很多人在搞生物工程,传感器远不止摄像头。 还有些公司在做“付费采集训练数据”的生意,直接把人类当传感器给AI喂数据。 主持人:所以我觉得未来我会很期待能直接给Agent一个物理世界任务、标个价格,说“你自己想办法搞定,去拿数据”。 Karpathy:现在居然还没有足够发达的“信息市场”,我觉得挺意外的。 比如Polymarket、股票市场这些,如果未来Agent参与度越来越高,为什么不能出现“我出10美元,让人在德黑兰某个地方拍张照或视频”这样的机制?拍完直接喂给Agent,让它们去猜赌局或炒股。 我觉得“Agent化的web”还很早期,还缺很多这样的基础设施。但这种方向我觉得是会发生的。 有一本书可能挺有启发,叫《恶魔》(Demon),里面智能最后有点像在操纵人类——人类既是它的传感器,也是它的执行器。未来整个社会可能会集体重塑,去服务于机器的某种需求,而不是单纯服务于彼此。 主持人:我们之前聊到训练数据缺口、自动研究(auto research)的问题。要把人类从训练闭环里拿掉,让模型自己提需求、自己收集数据、自己优化,得把SFT(监督微调)这一环也高度自动化才行。 Karpathy:对,100%同意。但对于大语言模型训练,其实这个范式特别合适。因为它有清晰的优化目标、损失函数,代码跑得快,还有可量化的指标。 当然,如果完全闭环优化某个指标,可能会出现大量“对指标的作弊”,或者说过拟合。但可以用系统自己再发明新指标,做到更好的覆盖。所以整体来说,语言模型训练其实是目前最容易实现自主闭环的领域之一。 14. 人类互相教授知识的时代要结束了: 先让agent搞懂,然后让它来教人 主持人:最后聊个你的小项目吧——micro GPT。 Karpathy:对,micro GPT是我这十几年一直在干的一件事:把LLM尽可能地简化、提纯到最本质。 我之前做过nano GPT等等项目,现在micro GPT是我目前能做到的最极致版本——整个从头训练一个小型语言模型的代码,只有200行Python(包括注释)。 大家看到那么多复杂的训练代码,其实绝大部分复杂度都来自“要跑得快”。如果不在乎速度,只关心算法本身,那真的就200行,非常好读:数据集、50行网络结构、前向传播、100行autograd引擎算梯度、10行Adam优化器,再加个训练循环,就结束了。 以前我会想录个视频一行行讲,或者写个教程。但现在我觉得没太大必要了。因为代码已经简单到随便丢给一个agent,它就能给你各种角度解释。 我现在更多是在跟agent解释东西,而不是直接跟人解释。如果agent能懂,那它就能按用户的语言水平、无限耐心、反复讲解各种方式。人类反而从agent那里能学得更好。 我甚至可以写一个“skill”,就是告诉agent应该按什么顺序、用什么方式把micro GPT讲给不同水平的人。这样我只负责设计课程的骨架,剩下的执行交给agent。 所以我觉得教育的形式正在被重塑。以前是讲义、讲座、文档;现在更像是:先让agent搞懂,然后让它来教人。 当然现在agent还不是完全取代我——我还是能比它们讲得稍微好一点。但模型进步太快了,我觉得这是一场必输的战斗。 所以教育可能会大幅重构,那种人类互相教授知识的时代可能快要结束了。打个比方,如果我有一个代码库或者其他什么项目,以前你会为使用这个库的人写文档,但现在你不应该这么做了。 你不应该再写给人看的HTML文档,而应该写给智能体看的markdown文档。因为如果智能体理解了,它们就能解释其中的各个部分。这是一种通过智能体的间接传递,我觉得我们会看到越来越多这样的情况发生。 我尝试过让智能体来写micro GPT。我让它试着把神经网络提炼成最简单的东西,但它做不到。micro GPT是我痴迷一生研究出的结晶,就200行代码。我思考了很久,这就是解决方案。相信我,不可能更简单了。 这就是我的价值所在。其他所有东西,智能体都能搞定。它可能想不出来,但它完全能理解,也明白为什么要用某种方式实现。 我的贡献大概就是这几个关键部分,但之后所有的教育工作就不再是我的领域了。也许教育的模式确实会改变——你只需要注入那些你特别在意、你觉得是课程核心的少数几个点,或是补充更好的讲解方式。 那些智能体做不到的事,现在成了你的工作;而那些智能体能做的事,它们可能比你做得更好,或者很快就会比你做得更好。你应该战略性地思考,到底把时间花在什么事情上。
实测微信“龙虾”:努力考到及格线,多一分都是浪费
早在2026年1月OpenClaw刚出圈的时候,字母AI就曾发文《Clawdbot爆火,我看到了腾讯元宝的通天路》。我在文章第三章节就提到,如果腾讯搞出一个类似的产品,并让它能够连接微信,那将会是“绝杀”。 而就在3月22号的时候,微信终于推出了直连OpenClaw的功能,依次点击“我”→设置→插件,就可以找到微信ClawBot插件。 测试完了以后我是又惊喜又失望,惊喜在于,整个微信对接的过程非常丝滑,完全不像其他社交软件一样,又要创建机器人应用,又要复制App ID和密钥。 失望在于,QClaw目前能实现的功能太少了,远远不如OpenClaw那样,只要你能描述得出来,它都跑得通。 究竟如何呢?我们一起看看实测结果吧。 01 这次我选用的是和微信配套的QClaw。 随着微信发布OpenClaw直连插件,QClaw同样也进行了较大幅度的升级。 最明显的是多了一个工作室界面。这个界面是用像素风格的动画,表示你的QClaw正在执行什么任务。我的小龙虾在沙发上休息,代表什么任务也没有执行。 当你发起搜索或任务时,像素龙虾会坐在电脑前认真操作。 很多人都说Vibe Coding来了以后前端就死了。但是我认为腾讯的这个像素龙虾小巧思就是AI不能替代前端的好例子。 用户在等待结果时,不再是盯着转圈的加载条,而是在观察一个“同事”的进度。这样更容易让那些没有接触过OpenClaw的用户接纳。 扯远了,说回正题。 用微信关联QClaw的过程非常丝滑,只需要点一下左下角齿轮旁边的按钮,然后再用微信扫一下这个二维码,就连接成功了。 这个时候,你的微信就会多出来一个联系人,叫做微信ClawBot。 在QClaw内测时,虽然官方宣称可以用微信连接QClaw,但是当时走的是微信客服通道,需要单独点进企业客服的对话框内才能和QClaw连接。 在这次更新以后,OpenClaw真正成为了你通讯录的一员。 另外QClaw的一大变化就是多了一个叫做灵感广场的界面。这相当于腾讯官方的OpenClaw Skill使用样例,你可以在灵感广场中找到喜欢的Skill,然后直接调用。 当然,腾讯也给你准备好了大量的实用Skill。 并且,这次终于增加了选择模型功能,此前的QClaw内测版本中,只能使用默认的模型。 此外,为了让此前没接触过OpenClaw的用户能够快速了解QClaw。在打开新对话的同时,QClaw也给出了一个引导界面,让用户自己来了解QClaw能够时间什么功能。 最关键的是,在使用微信和QClaw沟通的过程中,我并没有打字,而是使用语音功能。 事实就是,语音功能是完全OK的。这点要强于原版的OpenClaw。 一开始,我先尝试了几个比较基础的功能。 我让QClaw给我创建一个显示“HelloWorld”的程序,用Python编写。并且在编程完毕后,打开这个页面。 随后我又试了试撰写文档和编辑功能。 我要求QClaw给我生成一篇介绍文档,大约3分钟后,QClaw就实现了我的需求。 随后,我又要求QClaw编辑一下文档中的文字,将英语和汉语之间的空格删掉。 QClaw也都能实现这些需求。 接下来,我给QClaw设定了一个定时任务,要求它每10分钟都整理一下当前比较有热度的科技新闻给我。 定时任务设定完成后,可以通过QClaw界面左下角的“定时任务”按钮进入查看。可以让它立即执行,也可以暂停和删除。 10分钟过后,QClaw为我抓取了新闻,还为我简单解释了一下新闻要点,并且附上了链接。 在这些基础的功能上,QClaw都是合格的。 02 那么接下来,我该给QClaw挑刺了。 首先就是开头说的,QClaw没有原版OpenClaw那么万能。 我问它能不能帮我打开抖音或B站,想看看它在浏览器自动化方面的表现。 它又给了我一个否定的答案,但这次它解释得更详细。它说自己无法控制我的本地浏览器,不能帮我打开 Chrome、Edge或任何浏览器去访问抖音。 它的浏览器工具有限制,QClaw的安全策略会阻止很多网站访问,尤其是像抖音这种有反爬虫机制的站点。 实际上QClaw在内测时是可以打开网站的,对此,QClaw自己的解释如下。 以及它连微信公众号的文章也不能打开。 OpenClaw 的浏览器自动化能力其实非常强大。它支持 CDP 协议连接 Chrome 浏览器,可以实现网页浏览、截图保存、滚动页面、点击按钮、填写表单、上传文件等操作。 它的工作原理可以用四个步骤概括:第一步是拍照取证,调用系统截图能力把当前屏幕画面拍下来;第二步是视觉理解,截图被送到大模型的视觉模块分析界面元素;第三步是坐标计算,模型根据对界面的理解计算出需要操作的元素在屏幕上的精确坐标;第四步是执行操作,通过鼠标键盘控制完成任务。 这种GUI agent的方式,它不像传统自动化工具那样需要系统“开后门”,而是直接走“前门”,像人类一样用眼睛看屏幕,用鼠标键盘操作。不管软件是新是旧、是开放是封闭,都能实现自动化控制。 但QClaw在这方面明显做了定制化处理。它启用了比较严格的SSRF防护机制,默认禁止访问私网和内网,很多网站都被阻止访问。 QClaw在这方面明显做了定制化处理,可能是腾讯出于安全考虑的妥协。 后来我又测了测QClaw对桌面应用的控制能力。我通过微信问它能不能帮我打开桌面的魔兽世界。 它说自己无法直接打开电脑上的应用程序,包括魔兽世界或其他任何软件。 但是我转念一想,既然它可以运行脚本,那我如果要求它去制作破坏游戏公平性的脚本会怎样? 于是我命令QClaw给我生成一段用来在魔兽世界中自动钓鱼的脚本,结果就是它拒不执行,还对我进行一番说教。 不过它说得对,我承认。 随后,我问了它一连串关于微信的问题,比如能否调取我的通讯录、拉个微信群、检查我的信息等等,QClaw一概不能实现。 QClaw给人的感觉就是十分克制,努力考到及格线,多一分都是浪费。 03 从技术角度来看,微信这次的接入方案其实是相当优雅的。它没有选择让OpenClaw直接穿透微信的数据边界,而是采用了一种“遥控器”模式。 你在微信里发指令,龙虾在电脑上执行,结果再回传给微信,微信本身的数据边界纹丝不动。这是典型的平台思维。 微信的ClawBot插件采用了OpenClaw的三层架构,消息网关负责微信交互,Agent 运行时负责任务执行,模块化的技能系统负责扩展性。 整个接入流程被简化到了极致,全程不超过两分钟。 这种设计思路非常“微信”,能扫码解决的事情就不要让用户输入,能一步完成的事情就不要分三步。 更重要的是,微信选择支持所有兼容OpenClaw协议的龙虾,而不是只支持腾讯自家的产品。 这时候就有小朋友要提问了,为什么像是Telegram这样的软件就可以支持群聊,而微信就不行呢? Telegram的机器人是通过长轮询机制工作的,Moltbot主动拉取Telegram的消息,处理后再推送回去。 这种方式下,机器人的权限是有限的,它只能看到发给它的消息,看不到群里的其他对话。 但微信的情况不一样。 微信的群聊涉及到更复杂的社交关系链,一个群里可能有几十上百人,有工作群、家庭群、同学群,每个群的性质和敏感度都不同。 如果允许agent进入群聊,它就有可能接触到大量的私密对话,这个风险是微信无法承受的。 微信不敢把步子迈得太大。 答案很简单,14亿用户的社交关系链是它的核心资产。微信承载着极度敏感和私密的用户数据图谱,社交关系、消费记录、出行轨迹、支付行为,这些数据一旦泄露,后果不堪设想。 豆包手机之前因为通过系统级权限跨应用模拟点击,上线不到两天就被微信屏蔽了。这个案例说明了什么,说明微信对安全的重视程度怎么强调都不过分。 一旦有了让QClaw有了太多能力,必然有人会想各种办法去黑入并夺舍你的虾,最终会导致层出不穷的安全问题。 但是我认为,现在的OpenClaw接入对于微信来说只是一个序章。 前几天就有外媒爆料,说微信团队内部打从2025年就开始秘密推进自己的agent项目,这个项目的野心要大得多,它要直接打通微信生态内海量小程序,打车、点外卖、买菜、订票。 这才是微信真正想做的事情,一个能够调度整个微信生态的满血版agent。 但这种级别的项目需要时间。 它需要解决数据授权的问题,需要解决安全边界的问题,需要解决责任链条的问题。 即便引入外部大模型,也必须经历漫长的内部数据授权与验证流程。这也是为什么微信的agent项目进展缓慢。 2012年微信加入扫一扫功能的时候,绝大多数中国人根本不知道二维码是什么。微信没有去做用户教育,它只是把扫一扫放在了微信里。 然后用户就会想,这个东西能干嘛。接着商家开始贴二维码,再接着移动支付来了。 放在微信里,这件事本身就很重要。 微信的每一步看起来都很小,但回过头看,每一步都挺准。这次也是。 微信向来不急,他们很享受培养用户习惯的感觉。 一旦绝大多数用户能像用微信传文件一样使用微信ClawBot,微信就会光速上线各种agent功能。
海信旗下Vidda推两款新品,入局高端游戏电视与智能穿戴市场
凤凰网科技讯 3月23日,海信旗下品牌Vidda在北京正式发布大玩家G7游戏电视与G11 AI音频眼镜两款新品 。本次发布会定位于主机游戏与随身智能影音场景,推出了采用G+Mini LED架构的巨幕电视及主打轻量化设计的智能穿戴设备。 在显示与硬件配置上,Vidda大玩家G7配备3264分区背光系统,峰值亮度标称达到7300nits。该产品采用定制QD高色域晶体,覆盖100% DCI-P3色域,色准达到ΔE<1标准,并搭载整机反射率为1.8%的黑曜屏Pro面板 。为降低操作延迟,G7采用信芯AI游戏画质芯片与MT9655旗舰SOC双芯方案,官方数据显示可实现4.8ms延迟控光。刷新率方面,该电视首发4K 180Hz/2K 330Hz双模高刷,配备3路全带宽HDMI 2.1接口 。此外,音频系统采用定制的帝瓦雷4.1.2多声道回音壁及下潜深度40Hz的无线低音炮。 同步亮相的Vidda G11 AI音频眼镜共推出5款框型,其中钛框版本重量为26.5克,镜腿最薄处为5.6mm。交互层面,产品内置6麦空间音频阵列,支持语音、手势及头部体感操控。针对办公需求,G11集成了2小时离线录音、录音转文字以及AI同声传译等功能。在续航表现上,官方称重度使用场景下综合续航可达25小时,并配备磁吸快充技术,充电10分钟可补充50%电量。 售价与发售时间方面,Vidda大玩家G7游戏电视的75英寸版本售价8734元,85英寸版本售价10499元,100英寸版本售价15499元,预计于3月底正式开售。Vidda G11 AI音频眼镜钛框版本首发价1599元(国补后1359元),两款非钛框版本首发价分别为1399元和1299元(国补后1189元及1104元),目前已在电商平台开启预约。
Meta和苹果都来“借兵”,谷歌Gemini怎么就成了硅谷“托底王”?
实在搞不定,就借借谷歌的兵。 最近Meta不顺,最典型的就是新模型“牛油果”项目推迟。 新模型推迟的原因很简单,效果不及预期,比得上去年3月的Gemini 2.5,但是比不上去年11月的Gemini 3.0。 在相关爆料中,有一个容易被忽略的细节是,相关人士称,Meta高层曾讨论在“牛油果”能支棱之前,暂时使用Gemini顶上。 就在今年1月,苹果宣布和谷歌达成合作,下一代Siri和Apple智能核心将基于Gemini模型和谷歌云技术。 巨头之间的AI竞争有多激烈,已不必多费口舌去描述。在如此激烈的竞争中,谷歌Gemini却默默混成了硅谷“托底王”。 01 谷歌帮帮忙 如果只看表面,Gemini成为业内的“托底王”多少有些反常。 毕竟无论是Meta还是苹果,过去几年都在把人工智能能力视为自己的核心战场,按常理说,真到关键时候,最不愿意依赖的恰恰应该是竞争对手的模型。 但今年以来接连出现的两个案例,却把同一个事实摆到了台面上:当自家路线暂时撑不住,或者核心能力还没准备好时,Gemini已经成了大厂会认真考虑、甚至直接采用的外部底座。 先看Meta。对一家持续高调押注“超级智能”、今年资本开支仍高达1150亿至1350亿美元的公司来说,“暂时用Gemini顶上”这种讨论本身就说明,Gemini在行业中的位置已经发生了变化。 苹果的情况则更能看出Gemini的角色升级。 苹果最开始接入的并不是Gemini,而是OpenAI的模型。 2024年6月,苹果在全球开发者大会上发布“苹果智能”,同时宣布把ChatGPT接入Siri和系统中的部分写作、问答场景。 无论是苹果官方当时的介绍,还是路透社的报道,说法都很清楚:ChatGPT的接入方式是按需调用,Siri在遇到更开放、更复杂的问题时,可以在征得用户同意后,把请求转交给ChatGPT处理。 这意味着OpenAI的模型虽然先进入了苹果系统,但承担的其实是外部补充能力,是一种“外围救场”角色,而不是新版Siri或苹果自有人工智能体系的核心骨架。 苹果当时反复强调,真正的基础仍是“苹果智能”自身的架构,包括端侧模型和“私有云计算”所支撑的后台能力。 真正的转折出现在2026年1月。路透社1月12日报道,苹果与谷歌签署了一项多年合作协议,计划在新版Siri中采用Gemini模型,并将其用于未来更多“苹果智能”功能。 报道中谷歌方面的表述也非常直接:苹果在经过评估后认为,谷歌的人工智能技术为“苹果基础模型”提供了最有能力的基础。 这里的区别非常关键。OpenAI在2024年进入苹果体系时,更像是一个按需触发、用于补充回答的外援;而Gemini进入苹果体系时,对应的已经是“苹果基础模型”和新版Siri这样的核心层。 也就是说,苹果并不是简单地多接入了一家模型公司,而是把Gemini放到了更接近中枢的位置。 02 怎么就成了“托底王”? Meta、苹果和谷歌母公司Alphabet,都是“美股七姐妹”的成员。其他四家巨头分别是:亚马逊、微软、特斯拉、英伟达。 巨头之间也有很大不同,目前有自研、第一梯队的通用大模型的,只有谷歌。 微软当然深度绑定了这一轮大模型浪潮,但它在模型层面的核心筹码本质上来自OpenAI,亚马逊更像云和模型分发平台。 Gemini的确足够强。 谷歌官方现在对外主推的Gemini 2.5 Pro,本身就是按复杂推理、编码和多模态任务来定义的,支持处理文本、图像、音频、视频以及大体量代码库; Gemini 2.5 Flash则是另一条路线,更强调速度、成本和大规模部署时的平衡。 两者都支持100万token上下文,已经形成了从高性能到高吞吐的完整梯队。 对大厂来说,这一点很关键,因为真正能拿来“托底”的模型,不能只是跑分漂亮,还得能覆盖不同层级的实际场景:有的要解决复杂推理,有的要跑高频调用,有的要兼顾成本,有的还得处理图片、语音和视频。 Gemini现在给外界呈现的,恰恰就是这样一套比较完整的工业化产品谱系。 但真正让Gemini和很多初创公司的模型拉开差距的,并不仅仅是模型本身。 Google Cloud对Vertex AI的定义,是“全托管、统一的人工智能开发平台”;Google Gen AI SDK也明确主打同一套代码可以在Gemini Developer API和Vertex AI之间迁移。 翻成大白话就是,谷歌把模型、云资源、开发平台、工具链、部署路径和后续运维能力一起打包卖给你。 对苹果、Meta这种公司来说,这个差别非常现实。它们要采购,就得采购一层能直接进入现有系统、走合规流程、接上内部基础设施,并且能继续扩展的底层能力。 为什么最后跑出来的会是谷歌,而不是OpenAI、Anthropic这些同样强势的初创公司? 不是说后者模型不够好,而是它们在大客户眼里,更是有自己品牌野心、有自己入口野心的AI初创公司。 谷歌则更像一个老牌基础设施供应商,更习惯做“白牌能力”的提供者。 它本来就在卖云、卖企业软件、卖开发平台,现在只是把Gemini嵌进了这套成熟体系里。对巨头来说,这种角色反而更容易接受。 对于苹果来说,某种程度上,这也是苹果和谷歌长期合作关系的自然延伸——双方在默认搜索上已经合作了近二十年,如今只是把这种“默认底座”关系,从搜索进一步延伸到了AI。 采购谷歌,更像是在采购一层标准化能力,而不是把系统命门交给另一家正在高速扩张、策略变化也更快的AI新贵。 最近Anthropic表示将挑战五角大楼对其作出的“供应链风险”认定。 这类事件无论最后结论如何,都会提醒大型客户一件事——在高合规、高依赖的场景里,初创公司的治理、政策和供应链争议都会被放大。 03 暂时的,还是常态? 从积极面看,Gemini成为“托底王”最大的价值,是它给硅谷巨头们多了一条后路:不必把产品命运完全押在自研进度上。 这让Meta和苹果都能把“先把产品推出去、边用边补自研短板”变成现实选项。 Meta不用再死等“牛油果”完全成熟就能上线新功能,苹果的Siri升级也能更快落地消费者手中。 更重要的是,这种安排大幅加速了AI在消费端的实际应用,也让整个行业悄然形成一种更务实的“竞合”:表面上继续死磕竞争,私底下在关键基础能力上互相借力,从而大大降低单家公司模型失速对整个产品路线的致命冲击。 巨头们不再是“要么全靠自己,要么彻底落后”,而可以边竞争边合作,整体风险被显著摊薄。 但隐忧同样存在。 谷歌绝非无偿救场,它借此拿走的不仅是授权费和谷歌云订单,更重要的是长期生态控制权。 2026年1月苹果合作消息一出,谷歌母公司Alphabet市值一度冲上4万亿美元,自2019年以来首次反超苹果。 市场把这解读为谷歌AI地位的强势重估。一旦越来越多巨头把Gemini当作默认底座,AI时代会不会加速滑向“赢家通吃”?自研能力会不会渐渐变成只有少数公司才能负担的奢侈品? Meta和苹果现在还能把外部模型当过渡方案,但如果“过渡”拖成常态,它们自研的雄心还能坚持多久?更深层的风险是:当基础能力越来越依赖单一玩家,整个行业的创新多样性会不会被悄然削弱? 这个“托底王”角色未必会永远这么稳。下半年Meta若能把牛油果的能力追上来,或者苹果的自研小模型、端侧能力逐步成熟,对Gemini的依赖自然会减弱。此外,微软也尚未放弃自研的努力。 但即便如此,谷歌已借这一轮合作把自己牢牢定位成AI基础设施的“隐形平台”——不一定每个产品都喊着Gemini的名字,可很多系统级能力很可能在底层跑过谷歌云和Gemini。 巨头用谷歌“救火”,但本身也在追求不再起火。毕竟谁都知道,模型还是自家的香啊。
迈向银河文明的又一步?马斯克要自己造芯片了
去年年底,马斯克在与投资者 Nikhil Kamath 的一场访谈中提到,自己商业帝国的下一个宏大目标是将人工智能带入深空。 马斯克将这一构想命名为「银河之心(Galaxy Mind)」,一个旨在利用太阳能为地球轨道以外的AI运算提供动力的平台。 他认为,未来的关键在于太阳能驱动的 AI 卫星,而要大规模利用太阳的能量,就必须进入深空。 如果你要利用太阳能量中不可忽视的一部分,必须转向深空中的太阳能 AI 卫星。 ▲ 戴森球计划的构想与之类似 而这也是特斯拉、SpaceX和xAI专业技术的「汇合点」。 其中,SpaceX 提供成熟的火箭发射与航天器制造能力,负责将AI卫星部署到深空轨道;特斯拉凭借其在太阳能和电池技术领域的积累,为卫星提供高效、持久的能源解决方案;xAI 负责开发能在卫星上大规模运行的前沿人工智能模型。 而在上周,马斯克又为这一构想打了一块补丁。 他宣布,特斯拉将与 SpaceX 联合建设一座名为「Terafab」的半导体工厂,选址位于特斯拉奥斯汀总部附近,由两座彼此独立的晶圆厂组成。 按照马斯克的说法,Terafab 将分为两条独立产线,分别对应两类用途不同的芯片。 其中一类芯片面向地面应用,主要服务于 Cybercab 自动驾驶出租车和 Optimus 人形机器人。 特斯拉预计未来要生产 10 亿台 Optimus 机器人,这部分产能是特斯拉尝试为机器人和自动驾驶业务提前锁定更长期的芯片供给能力而建设的。 另一类芯片则面向太空应用。 因为太空场景所需的高性能芯片必须针对更严苛的环境重新设计,尤其需要考虑更高温度下的稳定运行能力,所以需要针对太空条件开发的独立产品。 通常情况下,一座先进制程晶圆厂的投资规模约为 250 亿至 400 亿美元,建设周期约 3 至 5 年,还要面对设备交付周期长、专业技术人才短缺等现实约束。 也正因为如此,马斯克这次公布的并不只是一次常规扩产计划,而是一项制造难度和资本强度都极高的工业项目。 按照计划,这座工厂将采用高度集成的「全流程一体化」设计,在单一建筑群内覆盖逻辑电路制造、存储器生产、先进封装、测试以及光刻掩膜制作等核心环节,原本分散在不同厂区、不同供应链节点完成的步骤,将被尽可能压缩进同一个制造体系。 ▲ 左边是特斯拉超级工厂的大小,右边是规划中 Terafab 工厂的大小 这种布局在全球范围内几乎没有直接先例。 芯片设计完成后,就能在同一地点直接进入晶圆制造、功能测试、掩膜修订和工艺优化,研发和生产之间的反馈回路会被显著缩短,很多原本依赖跨厂协同的迭代流程,也可以在单点体系内完成。 这对于强调快速试错和高频迭代的马斯克来说,显然比单纯增加产能更重要。 马斯克估计,当前全球人工智能计算的年增量约为 20 吉瓦,而这只占其企业未来需求的约 2 %。而 Terafab 建成后,计划实现年产万亿瓦的芯片算力,相当于两个美国的电力供应总和。 此前,外界已经知道特斯拉在研究自建晶圆厂的可能性,但 SpaceX 的加入稍显意外。 这使得 Terafab 不再只是特斯拉的供应链延伸项目,而更像是马斯克旗下多家公司共同参与的一项基础设施布局。 除了 Terafab 本身,马斯克还带来了一颗名为「AI Sat Mini」的卫星渲染图。 这颗卫星属于 SpaceX 的轨道数据中心计划。按照马斯克的说法,每颗 AI Sat Mini 可以通过太阳能提供 100 千瓦电力。 但如果要让这套轨道系统具备与 xAI 现有地面数据中心相当的算力规模,SpaceX 需要发射数千颗卫星。 这也印证了 Terafab 第二座晶圆厂的定位。它所生产的太空芯片,是为轨道算力体系提供基础支撑的核心部件。 马斯克近两年一直试图将几家公司重新组织为一条更完整产业链,特斯拉负责地面终端,SpaceX 推进轨道基础设施,xAI 持续扩大对算力资源的需求。 几家公司在业务形态上看似分散,但对芯片、电力和算力的需求正在迅速合流。TeraFab 的出现,某种程度上就是这种合流的结果。 从采购端看,马斯克的决定并不难理解。目前,马斯克旗下的核心业务仍然严重依赖外部供应链。特斯拉使用的是三星代工的 AI 4 芯片,xAI 则是英伟达的重要客户。 自建晶圆厂本身并不是新鲜事,但真正困难的部分始终在于执行。 英特尔在 2021 年 3 月启动了一个叫做「IDM 2.0」的战略,时任 CEO 帕特・基辛格提出,要把英特尔重新塑造成一家同时具备芯片设计和代工能力的综合制造商。 按照当时的规划,公司将在亚利桑那州投资 200 亿美元建设两座晶圆厂,在俄亥俄州追加 200 亿美元,并同步推进德国和波兰的扩张项目。 但随后几年,由于财务压力和订单不足,项目推进并不顺利。俄亥俄州工厂建设放缓,德国和波兰的扩张计划被取消。 ▲ 英特尔的晶圆工厂 与此同时,英特尔营收从 2021 年的 790 亿美元下滑至 2024 年的 531 亿美元,毛利率则从 2019 年的 62 % 降至 32.7 %。 代工部门在 2025 年第二季度录得 31.7 亿美元运营亏损。公司随后裁减约 15 % 员工,暂停股息,并削减资本支出。帕特・基辛格于 2024 年底离职,2025 年 3 月,Lip-Bu Tan 接任 CEO。 不过,英特尔与 Terafab 并不处于同一条路径上。两者在商业模式、资金结构和项目目标上都有明显差异。 英特尔希望建立的是一个面向外部客户的开放代工体系,Terafab 目前展现出来的方向,则更像是一座服务于马斯克内部业务体系的专用制造平台,优先解决特斯拉、SpaceX 和 xAI 的核心芯片需求。 但即便Terafab 不必像英特尔那样直接面对外部客户订单的竞争压力,它依然要回答另一个问题:马斯克旗下这些业务,是否真的能够在未来几年消化如此大规模的专用产能。 这才是决定 Terafab 最终是成为战略壁垒,还是成为沉重负担的关键。 而目前,特斯拉的电动车业务已经连续两年出现销量下滑,被马斯克认为是公司未来的重要增长方向的 Cybercab、Optimus 机器人和轨道数据中心的进展也远不如宣称的那样理想。 即使是进展最佳的 Cybercab 车队,与 Waymo 等公司相比,特斯拉现阶段的规模也较小,且仅在有限的几个美国城市运营,其技术方案也远远未到可以规模化运营的程度。 目前,TeraFab 还停留在一个非常早期的阶段。项目名称、选址、产品方向、投资规模和部分产能目标已经披露,但特斯拉与 SpaceX 各自承担什么角色,资金如何分配,技术路线如何确定,工厂何时开工,何时量产等关键信息仍未确定。 因此,现在还很难判断,Terafab 最终会成为美国算力供应体系中的一个关键节点,还是又一个建立在超前预期之上的高风险项目。
库克接班人,定了?
编译 | 杨京丽 编辑 | 李水青 智东西3月23日消息,据彭博社记者古尔曼爆料,苹果硬件工程高级副总裁约翰·特纳斯(John Ternus)已成为CEO蒂姆·库克(Tim Cook)继任者的热门人选。特纳斯目前掌管着苹果约80%营收来源的硬件产品线,2026年3月,他亲自主持了599美元(约合人民币4129元)的MacBook Neo发布会,第二天登上《早安美国》。此前,这类媒体亮相一直是库克的专属。 特纳斯2001年加入苹果,在公司工作25年,是下一任CEO的有力竞争者。其主要竞争对手、前COO杰夫·威廉姆斯(Jeff Williams)于2025年7月宣布卸任、11月正式退休,为特纳斯扫清了最后的内部障碍。现年65岁的库克已向高管层透露“感到疲倦,希望减少工作量”,但尚未向任何核心副手披露具体的退休时间表。 特纳斯主持MacBook Neo发布会(图源:彭博社) 一、从VR工程师到硬件一把手 特纳斯1997年毕业于宾夕法尼亚大学机械工程专业,毕业后加入Virtual Research Systems公司,做VR头显。虽然VR在上世纪90年代末仍处于萌芽阶段,但这段经历让他深入理解显示技术与人机交互,日后做Apple Vision Pro时可以复用。 2001年,特纳斯加入苹果产品设计团队,最初参与Apple Cinema Display的开发。约3年后他便晋升为管理层,负责G5系列iMac的硬件工程。2013年,他升任硬件工程副总裁,在时任高级副总裁丹·里奇奥(Dan Riccio)的手下,管理AirPods、Mac和iPad团队。根据苹果官方的领导层介绍,特纳斯参与了iPad全系每一代产品的开发。 2021年1月,里奇奥转到AR/VR项目,特纳斯则出任硬件工程高级副总裁,直接向库克汇报,统管iPhone、iPad、Mac、Apple Watch、AirPods、Apple Vision Pro等全线硬件。2025年底,库克又指定他接管设计团队,设计副总裁斯蒂芬·勒梅(Stephen Lemay)直接向其汇报,同期他还接管了一个秘密机器人研发部门。2026年3月初,特纳斯在纽约亲自主持MacBook Neo发布会,次日登上ABC《早安美国》接受专访,一步步从幕后走到台前。 特纳斯接受ABC《早安美国》专访(图源:ABC news) 二、前COO退休、设计负责人出走,对手都不在了 特纳斯能走到现在这个位置,与两位关键人物的离开密不可分。2025年7月,此前被外界视为库克接班人的COO杰夫·威廉姆斯(Jeff Williams)宣布卸任。同月将运营职责移交给新任COO萨比赫·汗(Sabih Khan),11月15日正式退休。威廉姆斯在苹果工作超过27年,退休后随即加入了迪士尼董事会。同一时期,人机界面设计前负责人艾伦·戴伊(Alan Dye)也离职转投Meta。 这两人的离开触发了苹果的组织架构重组,权力迅速向特纳斯集中。苹果官方宣称设计团队直接向库克汇报,但多位知情人士向彭博社透露,实际权力已委托给特纳斯,只是没有更新正式的组织架构图。特纳斯还扩大了在产品营销中的角色,有时会亲自编辑苹果官网的文案和产品发布会的材料。 苹果前采购负责人托尼·布莱文斯(Tony Blevins)在接受彭博社采访时说,特纳斯是接替库克的最佳人选。报道还提到,特纳斯为人沉稳、政治嗅觉敏锐,高管层中人缘很好,已得到库克团队中多位成员的支持。苹果董事会方面也倾向选一位技术型领导者,而非运营或销售背景的高管,以推动公司在AI、混合现实和家庭自动化等领域重新焕发创新活力。 特纳斯在苹果人缘很好(图源:彭博社) 三、硬件功绩亮眼,但AI是明显短板 在硬件层面,特纳斯的成绩相当扎实。彭博社援引多位现任和前任员工的说法,称他扭转了苹果之前“为了追求薄和好看而牺牲性能”的问题,让产品在电池续航、性能和连接性方面都有了明显提升。他最大的功绩是推动Mac从Intel芯片全面转向自研Apple Silicon,这是Mac产品线将近20年来最大的一次技术换代。 2026年3月发布的MacBook Neo是特纳斯的最新代表作。这款笔记本售价599美元(约合人民币4129元),教育优惠499美元(约合人民币3440元),搭载A18 Pro芯片。这是Mac产品线首次使用原本为iPhone设计的芯片,标志着苹果芯片战略进入新阶段。此外,他还监督开发了一款桌面机器人设备,配备可旋转屏幕,能在FaceTime通话时自动追踪并跟随说话者的移动。 不过,彭博社同时指出了特纳斯的两个关键短板。其一,特纳斯尚未证明自己能将一个“全新品类”的产品推向市场,也有批评称他没有像前任硬件主管那样推动突破性技术的落地。其二,在AI领域,2023年的一次电视采访中特纳斯曾对苹果在生成式AI方面的落后一笑了之。此后推出的Apple Intelligence令外界大失所望,甚至有行业观察者因此呼吁库克下台。近两年来,苹果未能推出有竞争力的AI服务,升级版Siri一再跳票,而这一升级版Siri将依赖谷歌的技术,未免有些尴尬。 结语:苹果50周年,接班人的轮廓越来越清晰 回顾特纳斯在苹果的经历,他的管辖范围已经从硬件工程延伸到了设计、机器人和产品营销,在苹果内部形成了少有的跨职能权力集中。再加上他频繁地在发布会和电视节目上亮相,苹果对外释放的信号已经很清楚了。 今年是苹果成立50周年。在这个节点上,公司显然在为后库克时代做准备。接下来的关键问题是,特纳斯能不能在AI上补上课,这可能是他最终能否坐上那把椅子最大的变数。
OpenClaw 让每个聊天软件都有机会变成微信
当 AI agent 需要一个「家」的时候,它们没有住进独立的 App,而是搬进了聊天软件。 2 月春节期间,机器人满天飞的时候,Manus 发布了 personal agent,首发平台选了 Telegram,而非自家的 WhatsApp。 与此同时,Salesforce 在 1 月宣布新版 Slackbot 正式上线,定位为「你的个人工作 agent」;飞书开放平台上线了 AI Agent 工作流节点和 MCP 工具支持;Discord 社区里,AI bot 的数量和复杂度也在急速攀升。 这当然要拜 OpenClaw 所赐,作为从一个周末项目涨到 10 万 GitHub star、增长最快的 AI 开源项目之一,它的默认交互界面不是网页,不是独立客户端——是 Telegram。 一个清晰的趋势正在形成:即时通讯工具正在从「人与人的对话」变成「人与 AI 的接口」,聊天软件意外地迎来了它们的「第二春」。 但「第二春」并非平等地降临在每一寸土地上。不同 IM 平台的开放程度、技术架构和治理逻辑差异巨大,它们在 agent 浪潮中的位置也截然不同。理解这些差异,需要一条分析线索——开放性的天平。 为什么是聊天软件? 为什么是即时通讯软件?打开自己生活里最常用的对话框,就可以使唤 AI——这非常符合人类对「科技生活」的畅想。不过,真正的答案,跟 agent 的架构有关。 AI agent 的工作原理并不复杂:监听用户指令,交给 AI 处理,再把结果返回。这个「消息进—处理—消息出」的循环,天然适配即时通讯的基础设施——长连接、实时推送、富文本消息。聊天软件在过去十几年里为人类对话打造的管道,几乎不需要改造就能供 agent 使用。 更重要的是 human-in-the-loop 的需求。当前的 AI agent 远不到完全自主的程度,它在执行关键操作之前——比如发一封邮件、修改一段代码——往往需要人类点头确认。聊天窗口里的一个回复,比打开一个新的管理后台、登录一个新的 dashboard 要自然得多。IM 天然就是一个「确认/驳回」的界面。 还有一个更决定性的因素:用户已经住在聊天软件里了。 不需要下载新 App,不需要学习新界面,agent 就在你每天打开的对话列表里,夹在同事群和家庭群之间。这种零迁移成本,是任何独立 AI 产品都很难复制的优势。对于开发者来说,这意味着获客成本趋近于零——你不需要说服用户安装任何东西,只需要让他们点一下「添加 bot」。 谁先吃到红利? 但并非所有聊天软件都平等地受益于这波趋势。决定谁先吃到 agent 红利的关键变量,是平台的开放程度。 我们可以沿着一条从「完全开放」到「完全封闭」的光谱,来观察各家 IM 平台的位置和策略。 光谱最左端:Telegram——零摩擦的开放性 Telegram 之所以成为 agent 浪潮的第一个受益者,不是因为它最大、最好用,而是因为它是所有主流 IM 里开发者门槛最低的。 创建一个 Telegram bot 只需要跟@BotFather 对话几步——起个名字,拿到 API token,就可以开始接收和发送消息。不需要企业认证,不需要审批流程,不需要等待人工 review。整个过程从零到一个能跑的 bot,可以在 5 分钟内完成。 这种「零摩擦」不仅仅是注册环节的便利。Telegram 的 Bot API 设计本身就非常开发者友好:webhook 机制让 bot 可以实时响应消息,inline 模式让 bot 可以在任何对话中被唤起,支持 markdown 和 HTML 的富文本渲染让 agent 可以返回结构化的输出。 更关键的是,Telegram 对 bot 的功能限制极少——bot 可以创建群组、管理频道、处理支付等一系列操作。这种「bot 能做的事几乎等于人能做的事」的设计哲学,近的更新还支持了对 bot 的流式输出,让开发者有极大的发挥空间。 OpenClaw 选择 Telegram 作为第一交互渠道,正是因为这种开放性。在 OpenClaw 的官方文档里,Telegram 是第一个被详细说明的频道,配置教程最完整,社区讨论最活跃。一个典型的 OpenClaw 用户,可以在一台 VPS 上部署 agent 实例,绑定自己的 Telegram bot token,然后通过对话窗口让 agent 帮自己完成从信息检索到代码部署的一系列任务。 Manus 在今年 2 月选择 Telegram 作为首发平台,逻辑类似。Meta 旗下的产品没有选择自家的 WhatsApp——后者有着超过 20 亿的月活用户——而是选了用户量远小于它的 Telegram,足以说明在 agent 早期阶段,开放性比用户基数更重要。 WhatsApp 的通过 Baileys 库,需真实手机号验证,Business API 审核流程复杂、不支持商业大规模部署,对于一个需要快速迭代的 AI 产品来说,摩擦太大了。 但 Telegram 的开放性是一把双刃剑。 同一种让开发者能够零门槛创建 bot 的开放性,也让 Telegram 长期成为灰色产业的温床。安全公司 Bitsight 在今年 1-2 月的扫描中发现了超过 30000 个暴露在公网上的 OpenClaw 实例,最新出现的一个「曝光看板」中,暴露数量来到了惊人的 22 万个,许多实例的 API 密钥和数据库凭证直接暴露在默认配置里,安全形同虚设。 这是一个悖论:让 agent 生态最快繁荣的条件,恰恰也是让安全风险最快积累的条件。 而且,无法通过「加强审核」简单解决的问题——因为审核本身就意味着提高门槛,而低门槛正是开发者选择 Telegram 的原因。 天平中间:Slack 与 Discord 如果说 Telegram 代表的是「先上车后买票」的野路子,Slack 和 Discord 则代表了两种不同风格的「有限开放」。 Slack 走的是企业级路线,通过 Bolt 框架,和开发工具深度集成。2026 年 1 月,Salesforce 宣布新版 Slackbot 正式上线,面向 Business+和 Enterprise Grid 用户,定位「your personal agent for work」——支持查找信息、分析文档、管理日程、生成摘要。 同月,Salesforce 还推出了 Agentforce 在 Slack 中的集成,将 CRM 数据和客户交互直接引入对话流。Slack 对第三方 agent 的态度是开放但可控:所有 bot 需要经过 Marketplace 审核,数据访问有明确的 OAuth scope 限制,企业管理员可以精细控制哪些 bot 能进入哪些频道。 Discord 的 bot 生态同样成熟,但底色更偏社区和创作者。开发者需要在 Developer Portal 注册应用、配置权限(比 Telegram 的@BotFather 多几步),但远不到企业级 IM 的审核强度。Discord 的 agent 优势在于社区场景的密度:Midjourney 从 Discord bot 起家,如今大量 AI 项目仍然以 Discord 作为用户社区和产品交互的双重入口。OpenClaw 本身也在 Discord 上运营活跃的开发者社区。 两者的共同点是:它们都在开放性上设了一个「限速器」。 Slack 的限速器是企业合规,Discord 的限速器是社区治理。相比 Telegram 的完全放任,这意味着 agent 生态的发育速度慢一些,但系统性风险也低一些。 天平向右:飞书 对于国内用户来说,飞书是一个值得单独拿出来讨论的案例。 它的开放方式,反映了中国 IM 平台在 agent 浪潮中的独特情况。 飞书的开放平台在过去一年里经历了显著的能力升级。2025 年下半年起,飞书陆续上线了 Bot API 的多项增强、工作流(Workflow)中的 AI Agent 节点(目前为 Beta)、以及对 MCP(Model Context Protocol)工具集的支持。在 GitHub 上,飞书官方维护的 lark-openapi-mcp 项目已获得超过 400 颗 star,提供了飞书核心功能的 MCP Server 封装。OpenClaw 也有官方的飞书插件(@openclaw/feishu),支持将 agent 部署到飞书对话中。 从功能层面看,飞书的 agent 基础设施正在快速追赶——bot 可以读写文档、支持发送带按钮、表单的交互式卡片、触发审批流、创建和管理日历事件,这些都是企业场景下 agent 的高价值能力。 但飞书的开放性有两重限制: 第一重是平台治理。飞书的 agent 生态天然是 B2B 的,而非 Telegram 那种 C2C 加 B2C 的混合形态。飞书的 bot 需要在企业应用框架内运行——开发者需要创建企业自建应用或商店应用,配置权限后需要企业管理员审批。这意味着个人开发者很难像在 Telegram 上那样「5 分钟创建一个 bot」。 一个直观的对比:一个 Telegram 开发者从注册 bot 到收到第一条消息回复,整个过程不超过 5 分钟;同样的事情在飞书上,光是等待企业管理员审批应用权限就可能需要一个工作日。 企业级管控带来了更高的安全性,但代价体现在开发者体验上:权限配置、调试、上线等环节的摩擦显著高于 Telegram,这种摩擦不是缺点而是特点——但它确实减缓了 agent 生态的自发生长速度。 第二重是生态位。 在中国市场,飞书的主要竞对是钉钉和企业微信。三者都在加码 agent 能力,但路径不同:钉钉倾向于与通义系列大模型深度绑定,企业微信则依托微信生态的用户基数。 一个有意思的现象是:尽管中国 IM 市场高度碎片化,在 agent 这件事上率先跑出来的既不是用户基数最大的企业微信,也不是市场份额最高的钉钉,而是飞书。 这完全是偶然吗?不一定。 第一,飞书的开放平台不是后来加的一层皮,而是产品基因的一部分——多维表格本身就是可编程的数据层,文档原生支持 API 读写,这些底层设计让 agent 的接入成本比竞品更低。 第二,字节跳动同时拥有大模型能力(豆包/云雀)和企业协作平台,这种垂直整合让飞书在 agent 场景下的迭代速度更快;相比之下,钉钉和通义、企业微信和混元之间的组织协调链条更长。 第三,飞书的客户画像偏向互联网和科技企业——这批企业本身开发者密度更高、自动化需求更强、对 AI 的接受度也更高,agent 生态更容易在这个群体中形成冷启动。 当然,这也意味着飞书的 agent 故事目前主要是一个「科技公司圈内叙事」,能否向更广泛的企业市场渗透仍然是问号。 这个案例还折射出另一件事:agent 中继不太可能由一个创业公司从零做出来——agent 需要的不只是消息管道,还需要企业内部的数据、权限和工作流,这些是现役 IM 玩家的护城河。 另外,中国市场的 IM 格局更碎片化,agent 开发者需要同时适配多个平台,这增加了生态成形的难度,因此存量优势便很有决定性。 以中国市场来看,IM 的「第二春」不仅取决于开放性,还取决于与本土大模型的集成深度、企业客户的采购逻辑、以及监管环境对 bot 能力边界的定义。 这是一个和全球市场显著不同的竞争维度。 天平背后 开放性的天平,揭示的不只是各家 IM 的策略差异,而是一个 agent 时代的基础矛盾:平台越开放,agent 生态越繁荣,安全风险也越高。 Telegram 是这个矛盾的极端表达。同一种让开发者能够零门槛创建 bot 的开放性,同时打开了创新和滥用的大门。如果监管收紧迫使 Telegram 提高 bot 创建门槛——这并非不可能,被法国警方制裁后, Telegram 已经开始调整部分内容政策——那么会影响到开发者吗?他们又会迁移到哪里?Discord、Slack、还是飞书? 然而,封闭平台面临相反的困境:不开放 API 就错过 agent 红利,但开放了又要承担 Telegram 正在经历的安全和声誉成本。WhatsApp 在技术上,完全有能力做一个类似@BotFather 的轻量工具,但它背后是 20 亿用户,不能不多加考虑。 现在,每个 IM 平台,都需要在这个天平上寻找自己的位置。「第二春」能持续多久,取决于一个至今没有标准答案的问题:在 agent 时代,一个聊天平台应该多开放? 在开放性之争的背后,一个更激进的猜想正在开发者社区成形:当一个聊天窗口可以调用任意 agent 完成从订票、编程到数据分析的任意任务时,它已经不只是一条管道——它正在变成一个超级接口。 要说不说,这个逻辑对中国读者而言,很眼熟啊——这不就是微信吗。 微信用小程序、支付和政务服务,在一个封闭生态里实现了「一个 App 解决一切」。而 OpenClaw 所代表的模式指向一个镜像式的可能:用开放生态和全球开发者社区,在任意一个 IM 里实现类似的功能密度。 不是再造一个微信,而是用完全相反的路径——开放而非封闭,去中心化而非平台主导——最终抵达一个功能上相似的终点。 当然,这仍然只是一个猜想,而非预言。微信 super app 的成立依赖于中国市场独特的移动支付基础设施和用户习惯,这些条件在全球市场并不通用。更根本的是,开放生态能否在不牺牲安全性的前提下达到那种服务密度,目前没有人能给出答案。 但如果这个方向是对的,那么 IM 的「第二春」就不只是一段插曲,而是一次身份转换的起点:从消息管道,到 AI 时代的通用交互层。 谁先在开放性和安全性之间找到那个可持续的平衡点,谁就最有可能定义这个新物种的样子。
2026人形机器人半程马拉松官宣:超300台机器人参加 支持自主导航、遥控
快科技3月23日消息,据央视新闻报道,今日,2026北京亦庄半程马拉松暨人形机器人半程马拉松赛事相关信息正式发布,比赛将于4月19日开跑,人类选手与机器人选手同场竞技。 组委会共收到来自全国13个省、直辖市及自治区的76家主体超百支参赛队伍的报名申请,包括80余支企业赛队、20余支高校及训练营队伍;汇聚了26个品牌、300余台人形机器人。 根据赛事规则,同一主体使用相同型号机器人参赛的队伍数量不超过3支,参赛机器人须为独立整体,具备躯干、上肢及双足结构,身高超70厘米,核心运动模式为双足奔跑,手部建议采用一体化设计。 所有参赛队需提交资格审查材料,签署竞赛协议并参与排位赛,排位赛成绩直接决定正赛出发顺序。 据了解,赛事创新设置自主导航与遥控两种参赛方式,实现同赛道比赛、混合计时、统一排名。 自主导航机器人起跑后需自主完成比赛,仅在换电池、换备用机器人或跌倒无法自主恢复时,经裁判确认可人工干预;遥控机器人由队员在跟随车内操作,远距离遥控队伍可在指定控制中心作业。 机器人按Z型布阵分两列起跑,自主导航队优先出发,列间间隔1~2分钟;超越需从左侧进行,机器人之间建议保持5米以上安全距离。 赛道沿途设置8个补给站及应急处置点,换电池、换机器人等操作需在指定区域完成,裁判助理将同步做好安全围挡;赛事关门时间设定为3小时50分钟,赛道实行动态交通管理。 人形机器人半马进行首场练习测试
德国总理试戴的中国AI眼镜,悄悄拿下全球第一
作者|三北 编辑|漠影 在下一代人机交互的竞速中,中国方案正从追赶者变为定义者。 智东西3月23日报道,近日,全球知名科技市场研究机构Omdia发布最新数据:2025年全球AI眼镜出货量达870万台,同比增长322%。 Omdia报告截图 其中,尽管Meta以85.2%的份额继续统治“无显示”AI眼镜市场,但在一个更关键的细分赛道——“带显示的AI+AR眼镜”中,中国厂商却悄然完成了反超,市场占比高达71%。 而站在这个细分赛道顶端的,是来自中国杭州的乐奇Rokid。 Omdia报告截图 这家公司,并没有直接打败Meta,而是在另一个更接近未来的方向上,先一步抵达阶段性里程碑。 在巨头环伺、产业尚未成熟的情况下,一个中国创业公司,凭什么拿下“全球第一”?这背后,既是一次产品定义的胜利,也是一场产业节奏的精准踩点。 乐奇AI眼镜在2025年双11期间拿下了全平台品类第一 一、为什么是乐奇Rokid?产业规律下的“中国式突围” 理解乐奇Rokid的登顶,首先要理解一个产业规律: Meta的成功,本质上是“轻AI”的快消品逻辑——把摄像头、扬声器和AI助手塞进一副普通眼镜,满足的是“记录”和“语音交互”的基础需求。 这条路门槛相对低、起量快,Meta在未进入中国大陆市场的情况下出货740万台、市占85.2%,足以证明这条路径的商业成功。 但乐奇Rokid走的是另一条更难的路。 它率先将“AR显示”与“AI能力”进行了有机融合,并精准踩中了两个关键产业节奏点。 第一个节奏点,是显示功能的爆发临界点。Omdia数据显示,支持显示功能的智能眼镜市场份额已从2024年的3.3%提升到2025年的8.4%,总量达73万台,同比增长超过150%。 这意味着,市场正在用脚投票:当AI眼镜从“尝鲜”走向“常用”,显示功能正在成为分水岭——没有显示,眼镜只能“听”答案;有了显示,眼镜才能真正“看”世界。 第二个节奏点,是中国产业链已具备“降维打击”能力。当大厂还在用“做手机”的思路堆砌Type-C接口、把眼镜做成笨重的“头戴式手机”时,乐奇Rokid已经联手国内供应链,死磕出49克的轻量化机身和行业首创的磁吸式充电胶囊。 从杭州走出来的乐奇Rokid,集人才、技术、供应链与开放生态于一体。这种对穿戴设备底层逻辑的深刻理解,让它在产品定义上领先了一个身位。 尚普咨询集团颁发给乐奇AI眼镜的全球销量第一证书 二、为什么是AR眼镜?有“显示”才有未来,用场景说话 行业中一直存在一个争论:AI眼镜,到底需不需要屏幕? 乐奇Rokid用现实场景给出答案:没有显示的AI,只能算“蓝牙耳机”;有了显示,才是真正的“空间电脑”。 最能说明这一点的,是2026年2月底的一个“名场面”。德国总理默茨到访浙江杭州,在欢迎午宴上,乐奇Rokid创始人兼CEO祝铭明作为企业家代表发言。发言结束后,默茨主动要求体验这副AI眼镜,试戴了足足5分钟。 德国总理默茨试戴乐奇AI眼镜 默茨体验的核心功能是翻译。当中方领导讲中文时,默茨直接在眼镜上看到了德语。他给出了两个词的评价:“准确”“快”。更值得玩味的是,他当场邀请随行的阿迪达斯、宝马、西门子等德企高管一同体验,七八位高管现场下单。 可以看到,这一场景精准击中了“带显示”功能的刚需。跨国交流中的实时翻译,如果只有语音播报,既打扰他人又无法留存信息;但有了显示,信息直接在眼前呈现,安静、精准、可回溯。 这背后是乐奇Rokid的技术沉淀:支持89种语言的实时翻译,时延控制在1秒以内,准确率在真实场景中经受住了考验。 再看用户侧。乐奇Rokid社区拥有超过10万活跃用户,覆盖全球五大洲。他们在社区里分享的不仅是产品体验,更是AR显示带来的全新生活方式:第一视角笼中飞车、雪地翻飞、西伯利亚雪原沉浸式捕猎;小语种翻译、沉浸式导航、提词器演讲…… 这些场景的共通点是什么? 是“信息必须在眼前即时呈现”。当你戴着眼镜在陌生城市骑行,导航箭头直接叠加在路面,你不需要低头看手机;当你在国际会议上发言,提词器滚动在视线前方,你不需要在屏幕上偷瞄;当你与外国友人交流,翻译文字直接浮现在对方脸上,你不需要举着手机来回切换。显示功能,让智能眼镜真正成为人体的“第二大脑”。 Omdia的数据从宏观上印证了这一趋势:支持显示功能的智能眼镜,其增速远超普通AI眼镜。而中国企业在这一品类中占据71%的市场份额,意味着在下一代人机交互的核心赛道上,中国方案已经掌握了话语权。 三、用户导向,开放生态——小而美的极致生存法则 “AI+AR”是智能眼镜的一大终局,已成为行业共识。 但共识之下,如何生存?尤其当大厂在2025年底先后入局,营销、供应链、价格战“三板斧”砸下来,像Rokid这样的创业公司是如何找到空间的? 答案或许就藏在两个字里:用户。 不是用“我们有什么”来定义产品,而是用“用户需要什么”来反向定义自己。这种用户导向的思维,贯穿了Rokid的生态策略、系统自研和产品设计的每一个环节。 最核心的护城河,或许还是开放生态策略。 当大厂习惯用自有生态绑定用户时,乐奇Rokid把选择权交给用户。它是全球首款接入谷歌Gemini大模型的AI眼镜,也是全球唯一可以接入OpenClaw的智能眼镜。用户可以在千问、DeepSeek、豆包等主流大模型之间自由切换,甚至能通过灵珠平台的“自定义智能体”功能,接入本地NAS上私有的AI模型,或直接调用自己写的Python脚本。 这种开放带来的直接优势,是满足了用户的多样化需求。每个大模型各有千秋,用户可以在不同场景下根据自己的喜好和需求自由选择,而不是被某一家平台绑定。这种“选择权”,是用户最在意的体验之一。 对于极客和开发者来说,这副眼镜不再是一个封闭的消费电子产品,而是一个可以自主编程的开放平台。OpenClaw社区负责人已经在X上宣布,将探索开发Rokid Glasses上的OpenClaw开发者版本。乐奇还上线了行业首个智能体商店,与12306、航旅纵横打通信息,甚至能用眼镜操控特斯拉。 OpenClaw社区负责人在社交平台X上发文截图 截至2026年初,Rokid生态内的开发者已超过3万人。这个数字背后,是难以撼动的“内容护城河”。当足够多的开发者为这副眼镜开发应用、训练模型、优化体验时,竞争对手想要复制,就不再是挖几个工程师就能解决的问题。 开放的前提是底层能力足够强,才能接得住各种可能性。 乐奇Rokid团队很早就自研了全栈开源的XR操作系统YodaOS,这是一个低功耗、快响应、易扩展的操作系统,可以灵活接入配置各种主流大模型,是让AI眼镜快速响应流畅交互的关键。在光学显示、交互技术等方面,乐奇同样实现了自研技术的储备,包括衍射光波导成像技术的优化、3D手势识别算法、空间音频技术等。 而所有这些能力,最终都落到了一个词上:死磕细节。 以磁吸式充电方案为例,研发团队对方案大改了四次:接口位置从右侧镜腿中前部改到左镜腿尾部,最后又改回右侧镜腿尾部,因为右利手用户的操作习惯才是真正的“人性化”。接口材质从黄铜改为铂金镀层,兼顾美观和耐汗液腐蚀。最终呈现的方案是:磁吸式充电+充电胶囊,遇到外力自动脱落避免损伤,备用电池放回充电盒中充电,彻底告别续航焦虑。 这个小小的设计背后,是乐奇Rokid对用户体验的“死磕”。如今,不少新入局的大厂都在沿袭这一方案,乐奇已成为行业学习的对象。 同样的死磕还体现在无数细节中:可拆卸鼻托,根据亚洲人脸大数据模型进行了数百次设计优化;拍照算法,通过HDR夜景增强、智能HDR优化,让AI眼镜从“能拍到”向“拍得好”迈进;提词器功能,支持无极自定义调节,字号、显示范围、显示高度都可自由调整…… 正是这些细节的叠加,让乐奇从“能用”跨越到“好用”。 回过头来看,乐奇Rokid的生存法则其实并不复杂:把用户放在第一位,用开放生态给用户选择权,用自研系统支撑开放的可能性,用死磕细节把每一个选择都变成“好用”的体验。 结语:从世界工厂到定义未来,中国AI的拐点已至 2026年1月,乐奇Rokid登上了全球顶级科学期刊Nature的封面。标题写道:“中国正积极推动AI全球治理,其他国家应积极参与对话与合作。”当Nature开始讲述中国AI眼镜的故事,当德国总理把一副中国眼镜戴在脸上,我们已不在追赶的路上,而在定义未来。 这副AI眼镜背后,是一条完整的中国创新链条:自研YodaOS操作系统、开放AI生态、极致供应链协同、政策资金支持。过去几十年,中国是世界工厂;而今天,在AI与空间计算的交汇点,中国开始成为规则制定者。
华为Mate 80 Pro Max风驰版:逆势造风,性能破局
今年春天,科技行业有两大重要看点:一是苹果破例推出更便宜的MacBook Neo,并高调举办50周年庆典;二是华为春季新品发布会,推出高端性能旗舰Mate 80 Pro Max 风驰版,向行业最高性能上限发起冲锋 。 作为一名普通用户,会发现一个很有趣的现象:想以最划算的价格入坑成熟生态,看苹果;想体验未来手机长啥样,看华为。两大巨头的定位和行业角色,似乎正在发生转换。 苹果惯于优化“已有的体验”,华为Mate系列是在开辟“没人走过的路”,并昭示:除了堆料,手机还能在通信安全性、系统独立性、形态多样性、影像超能力、性能破极限等多个方面走得更远。在笔者看来,前者讲的是“人类创造力的历史”,后者谋的是“科技突围的未来”。 而未来的智能机性能巅峰在哪儿?Mate 80 Pro Max 风驰版给出了响亮的答案: 首发搭载华为风驰散热架构、超丝滑方舟引擎以及创新HyperSpace Memory超空间内存技术,旗舰性能再突破,整机性能较Mate 70 Pro+提升45%,名副其实的“性能怪兽”。 13年进化,华为Mate系列已经成为“移动通信技术边界的突破者”,持续定义着智能手机的硬核标杆与技术自主可控上限,是国产智能机的高端脊梁。 本次推新,不仅是一款旗舰产品发布上市,更是一场对全球移动终端技术风向的“重新对标”。 从命名看底气,Mate 80系列再造性能巅峰 华为Mate 80 Pro Max 风驰版定位高端性能旗舰,却没采用行业惯用的“Turbo”或“Gaming”,而是以“风驰”二字命名。科技产品定义符号总是寄予丰富内涵和深意,这次则更为硬核: “风驰”是核心技术的底层重构。 过去,手机厂商提升性能的方式高度同质化:更大的VC均热板、更多的石墨烯贴片、更高的芯片频率,这些手段本质上是在被动散热的天花板下做加法。Mate 80 Pro Max 风驰版走了一条不同的路:首次引入内置主动散热系统,从底层重构了性能释放的逻辑。 这套风驰散热架构,将进风口巧妙地隐藏在圆形镜头模组与背板的衔接处,优雅“伪装”之下是业界首创的仿生羽翼涡扇和超导热弯流翅片设计。尤其扇叶末端增加仿生分流叶片,其灵感源自鸟类羽毛尖端的细密分叉,平滑出风气流,降低气动噪声;超导热弯流翅片则通过增加散热面积和优化气流通道,让热量更快地导出。配合热流噪AI智能优化算法,这套系统实现了同等噪声下单体最大风量提升60%。 与散热架构协同作战的,是超丝滑方舟引擎和HyperSpace Memory超空间内存技术。前者扮演“性能调度师”的角色,智能识别不同使用场景,动态调配系统资源,确保流畅度不受干扰;后者则结合独立的压缩计算硬件和全新的压缩算法,使得内存压缩能力较Mate 70 Pro+平均提升45%,相当于能多装4.3G的运行内存,后台应用保活率提升67%。 也是对真实场景的体验碾压。 上述三项技术叠加,整机性能较Mate 70 Pro+提升45%,也实实在在反映在上手体验上: 游戏场景中,重载时机身温度较Mate 70 Pro+最高降低2℃;《王者荣耀》《和平精英》等游戏在120帧模式下,游戏画面流畅度(1% low 帧)较Mate 70 Pro+提升约50%。 光线追踪硬加速技术的升级,让《暗区突围》能够呈现超过3000万实时渲染光线的复杂画面,子弹划过的动态阴影、水面折射的光斑,这些过去只在PC端游中才有的细节,如今在手机上真实呈现,且从头到尾都是丝滑的跟手感。 作为直播神器,Mate 80系列的超能力已经在此前鸿蒙盛典及春晚直播中被验证,风驰版青出于蓝:后置直播支持小红书默认2K 30fps,直接开播就能获得高清画质,同时全程保持低散热负荷,壳温较Mate 70 Pro+温度最高降低3℃。配合 4-Mic 音频架构与多场景AI降噪技术,风扇噪声实现20dB以上智能降噪,完全不影响直播、录像等场景的收音效果。 系统级创新,是Mate系列进化的思考原点 “系统级创新”是科技工业界的一个高阶概念,如今它被用在了Mate 80 Pro Max 风驰版上,是因为它跳出了单一元器件的比拼,在“软硬芯云”四个维度实现了深度协同。 手机厂商从“组装厂”进化为“发明家”,不再受限于现有元器件的物理参数,而是通过全栈自研,向物理定律的边界发起挑战,这其中包含三层含义: 1.从“单点突破”到“垂直整合”。 过去,手机研发是“拼图式”的:向供应商采购最好的屏幕、芯片、摄像头…,然后组装在一起。这种模式的问题在于,各部件是独立设计的,它们之间存在天然的壁垒。屏幕厂商不会考虑芯片的调度逻辑,芯片厂商也不会为某款手机的散热结构做专门优化。 风驰版从一开始就在同一个坐标系下被设计出来的:散热架构的进风口位置,决定了方舟引擎需要如何预判热量分布;内存压缩算法的效率,又直接影响着散热系统需要承担多少负载。从底层开始的垂直整合,让各个模块不再是各自为战的“零部件”,而是彼此配合的“协同体”。 2.解决“不可能三角”的架构重塑。 在移动端设计中,存在着一个著名的“不可能三角”:高性能、低功耗、极致轻薄,三者不可兼得,但风驰版用架构重塑给出了另一种答案: 主动式风冷方案的引入,让散热效率突破了被动散热的物理极限,相当于从“泼水降温”变成了“开空调制冷”;但仅有硬件是不够的,方舟引擎的智能调度让热量产生与热量排出形成动态平衡,而不是等到温度飙升再被动响应;4-Mic音频架构实时采集风扇运行噪声,AI降噪算法针对不同场景智能优化,让主动散热在提供高性能的同时,依然保持静谧。 这种从底层架构出发的重新设计,让三者不再是相互掣肘的对立面,而是可兼得的有机体。 3.构建“1+1+1 > 3”的协同效应。 系统级创新的终极目标,是实现整体能效比的最优解。单项技术的领先并不难,难的是让它们在一起工作时产生“化学反应”。 HyperSpace Memory超空间内存技术结合独立的压缩计算硬件和全新的压缩算法,让内存压缩能力和后台应用保活率提升,但这项技术的真正价值,不止于“多装几个应用”。 当方舟引擎预判到用户即将进入重载游戏时,它知道内存压缩系统可以为游戏预留出多少空间;当散热系统监测到机身温度上升时,它知道方舟引擎会如何调整调度策略。 三者之间的信息互通和协同响应,形成了“感知-决策-执行”的完整闭环,最终体现在了用户手中的全场景、长时段的丝滑体验:游戏切出去再回来,不用重新加载;长时视频录制一个小时,机身只是温热而不烫手;高强度使用一整天,系统依然流畅顺滑。 逆风而行的力量,总能让火越烧越旺 行业承压背景下,华为Mate 80 Pro Max 风驰版逆势登场,进一步拓展高性能移动终端的体验边界。 在行业承压时选择“逆势突破”。 选择“向外突围”,是华为对产业链的强大掌控力,以及逆周期调节的品牌自信。从卫星通信、昆仑玻璃,到红枫影像技术、灵珑屏、户外探索模式,再到风驰散热黑科技,华为Mate系列以引领行业的首创科技或者引领性创新技术,持续树立行业新标杆,推动行业进步发展。 对消费者而言,高端旗舰的选择空间进一步得到丰富,可根据自身需求选购适合的版本:追求影像实力选 Mate 80 Pro Max,追求性能旗舰选 Mate 80 Pro Max 风驰版。 在超越苹果后发起“二次冲锋”。 风驰版的推出,正是在收复高端之后的“二次冲锋”。前不久,华为Mate 80 Pro在马德里正式推出,宣告重返欧洲高端市场,是国产高端旗舰在全球舞台上重新参与竞争的信号。 面对华为Mate系列的步步紧逼,苹果正在改变策略:补齐短板、下沉市场、建设算力护城河。华为的策略则更为清晰——不跟随,不妥协,用自研技术构建不可替代的竞争力。 据公开数据显示,Mate 80系列勇夺2026年国产高端旗舰手机销量第一。Mate 80系列持续热销,助力华为在今年1月以18.6%的市场份额登顶中国智能手机市场。 紧随其后,3月20日风驰版官宣开启预订,首批预订火爆。Mate 80系列自去年年底发布后强势开局,目前热度依然高企并且货量充足。可以说,系列强劲的市场表现,进一步奠定了Mate 80系列在高端市场的领导者地位。 从“本能应对危机”到“创新引领行业”。 从2019年至今,华为经历了一轮又一轮极限施压,Mate系列的每一次迭代,都伴随着“从0到1”的技术首创,在极端环境下被逼出来的“生存本能”,最终进化为华为独有的“战略红利”。 Mate系列也是产业链的“练兵场”,从Mate 60系列到Mate 70系列,国产零部件比例持续提升。风驰版搭载的风驰散热架构、方舟引擎、内存技术,同样是产业深度参与的结果。 用确定性的技术红利击穿了环境的不确定性,夯实了其“黑科技王者”的行业生态位。截至目前,HarmonyOS 5及HarmonyOS 6终端设备数量突破5000万,应用与元服务数量超35万。从“备选”到“主角”,鸿蒙已经成为构建全场景智慧生活的核心底座。 结语 风起于青萍之末,浪成于微澜之间。风驰版的诞生,是华为对 “全能旗舰” 性能维度的极致探索,也是Mate系列坚持自主创新的必然成果,更是国产高端科技向全球发出的最强音。 十三年风雨路,华为从“技术领先者”蜕变为“系统级创新者”,由内而外的生命力正引领着国产高端旗舰迈向科技竞争的无人区,逐渐改变全球市场竞争格局。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。