行业分类:
加载中...
头条分类:
加载中...
一夜之间,全球AI圈都在转发这条告别推文
me stepping down. bye my beloved qwen.(我将卸任。再见了,我深爱的 qwen。) 3 月 4 日凌晨,阿里通义千问(Qwen)技术负责人林俊旸在 X 突然发文,向自己一手带大的开源模型项目告别。 这条推文瞬间引爆了整个在全球 AI 开源社区。就在前一天,他还和团队并肩发布了 Qwen3.5 小尺寸模型系列,马斯克亲自点赞,林俊旸在 X 上礼貌致谢。 没想到,这竟然成了林俊旸在千问的最后一次营业。 多位 Qwen 骨干同时离职,同事留言:我真的心碎了 林俊旸并没透露离职的原因和之后的去向,在他的的推文发出后,同为 Qwen 成员的 Chen Cheng(@cherry_cc12)转发并留下了一段意味深长的评论: 我真的心碎了。我知道离开并非你的选择。就在昨晚,我们还并肩发布 Qwen3.5 小模型。说实话,我无法想象没有你的 Qwen。 这条留言迅速引发外界猜测——「离开并非你的选择」,暗示林俊旸的卸任或许并非出于个人意愿。 与此同时,更多 Qwen 核心团队成员宣布离开: Kaixin Li(@kxli_2000),新加坡国立大学毕业,Qwen3.5、Qwen-VL(视觉语言模型)、Qwen-Coder 的核心贡献者。 他在 X 上发文告别:「Signing off from @Alibaba_Qwen. Grateful for the chance to work with such brilliant minds. Proud of our impact. Onwards and upwards!」 Binyuan Hui(@huybery),阿里高级研究员,OpenDevin 开源项目发起人,Qwen-Coder 系列模型的主要技术负责人。其 X 个人简介已改为 「former MTS at Qwen」。 他在代码生成、自然语言转 SQL 等领域有深厚积累,曾主导推出 Qwen Chat 网页界面,让 Qwen 模型更易用。 Wenting Zhao,Qwen 团队研究科学家,在 X 上称林俊旸的离开是 「the end of an era」(一个时代的结束),感谢他推动 Qwen 在开源 AI 和工程领域的进步。 一夜之间,阿里最核心的开源大模型团队就经历了一场人事地震,而林俊旸的离开也引发了全球 AI 社区的关注。 Hyperbolic Labs 的 CTO Yuchen Jin 回忆与 Qwen 团队在模型发布时的深夜协作,称林俊旸帮助 Qwen 与全球开发者社区建立了紧密联系。 Hugging Face 亚太生态系统负责人 Tiezhen Wang 则 称林俊旸的离开是对 Qwen 来说是「an immense loss」(巨大损失。) 从北大语言学硕士到阿里最年轻 P10 林俊旸的履历,堪称中国 AI 新生代技术人才的典型样本。 1993 年出生的他,本科就读于北京大学计算机科学专业,硕士却选择了外国语学院的语言学与应用语言学——这段「跨界」经历,为他后来在多模态大模型领域的突破埋下了伏笔。 2019 年硕士毕业后,林俊旸以应届生身份加入阿里巴巴达摩院智能计算实验室,成为 M6 多模态预训练模型团队的一员。 2022 年,他主导研发了通用统一多模态预训练模型 OFA 和中文预训练模型 Chinese CLIP,同年被任命为通义千问技术负责人。 2025 年,32 岁的林俊旸晋升为阿里史上最年轻的 P10 级技术专家。 而在林俊旸的带领下,Qwen 系列模型创造了令业界瞩目的成绩。截至目前,Qwen 系列模型全球下载量突破 6 亿次,衍生模型超过 17 万个,超越 Meta 的 Llama 成为全球第一大开源模型家族。 模型即产品 林俊旸不仅是一位技术专家,更是 Qwen 在全球开发者社区的「代言人」。 在 X 上,他定期发布模型更新、分享 benchmark 结果、与全球开发者互动——在 AI 实验室争夺开发者心智的今天,这种活跃的公共形象让 Qwen 在国际舞台上拥有了罕见的「人情味」。 今年 1 月的 AGI-Next 前沿峰会上,他提出了一个颇具前瞻性的观点: 「模型即产品。今天做基础模型本身,其实也就是在做产品,研究人员也需要像产品经理一样,把研究成果做成真实世界可用的系统。」 2025 年 10 月,他还宣布在 Qwen 内部亲手组建机器人和具身智能小组,试图让模型「从虚拟世界走向现实世界」。 千问站到了新的十字路口 林俊旸的离职,只是阿里通义实验室人才流失的冰山一角。 过去两年,通义实验室经历了多轮核心人员离职: 周畅(原通义千问大模型技术负责人):2024 年被字节跳动以千万年薪挖走,阿里随后提起竞业诉讼 鄢志杰(原语音团队负责人):达摩院「扫地僧」之一,2025 年离职 薄列峰(原多模态、视觉负责人):2025 年离职 也难怪有人调侃,阿里在 AI 领域已逐渐成为培养高端人才的黄埔军校。 而就前两天,阿里刚刚宣布将大模型 B 端品牌和 C 端应用品牌统一为「千问」,「通义千问」的名称将不再使用。 千问在刚刚过去的春节 AI 大战,也刚刚打了一场胜仗。 AI 产品榜发布的全球 AI 应用最新数据显示,MAU(月活用户数) 排名前三的 AI 应用分别为 ChatGPT、豆包和千问,其中,千问以 2.03 亿 MAU 成为全球第三大 AI 应用,并以 552% 的增速居全球第一。 今年春节,千问发起「请客活动」,上线买奶茶、点外卖、订票等「办事」功能,吸引 1.3 亿用户在千问「一句话下单」累计超 2 亿次,相当于全国平均每 10 人就有 1 人在千问下单。 QuestMobile 数据披露,该活动前两日即吸引超 3000 万用户参与,将千问 DAU 从 707 万推高至 7352 万,增速高达 940%。春节结束后,千问与豆包 DAU 差距大幅缩小,稳定至 4000 万上下。 对于阿里来说,如何在人才流失与组织调整的双重压力下,继续保持 Qwen 的技术领先和开源影响力,将是一个严峻的考验。 阿里千问正站在一个关键的十字路口。
林俊旸离职背后,是阿里千问最近一年对技术路径的战略误判
昨日凌晨,林俊旸在个人社交平台发布简短声明:me stepping down. bye my beloved qwen. 32岁,阿里曾经最年轻的P10,就这样从自己一手带起来的项目离开了。消息出来的时候,很多人第一反应是意外——两天前阿里刚把AI品牌统一成“千问”,还开源了新模型,马斯克都点了个赞。怎么看都是风头正劲的时候,核心负责人怎么突然就走了? 此次离任虽显突兀,却又暗藏逻辑。林俊旸卸任前两日,阿里刚完成内部 AI 品牌统一为 “千问” 的动作。表面的业务声势之下,他的离开恰似一把手术刀,剖开了阿里过去一年在 AI 战略布局上的隐秘症结。 在我们看来,这远非一次简单的人事调整,而是对阿里 AI 技术路线战略误判的迟来清算。当智能体成为行业核心叙事,过度依赖基础设施(infra)红利的阿里千问,正为自身在浪潮中的 “旁观者” 身份付出代价。 01 智能体浪潮中的“看客”:从 Manus 到 OpenClaw 的战略错失 如果说2024年是大模型参数竞赛的一年,那么2025年无疑是智能体(Agent)全面爆发的一年。从manus开启自主执行任务的先河,到openclaw在年末横空出世重新定义人机交互,行业的主线叙事已经从“模型有多强”转向了“模型能干什么”。 然而,在这一波智能体浪潮中,阿里千问表现得像个局促的看客。 事实上,阿里云本不应缺席这场盛宴。据业内人士透露,阿里云是与manus最早建立关系的巨头之一。然而,面对这家创业公司及其背后代表的“模型即执行”的技术潮流,阿里内部并未给予足够的重视。 彼时,千问的目光仍停留在基础模型的迭代与榜单排名上,认为智能体不过是模型能力的外延,只要底座够强,上层应用可以后来居上。 这种傲慢很快遭到了市场的回击。当manus开始在企业级场景中跑通业务流程,当openclaw凭借极致的交互体验收割开发者口碑时,阿里千问在智能体侧的声量几乎为零。 即便是内部寄予厚望的“自主办事”能力——春节期间的“一句话下单”近2亿次,本质上仍是封闭生态内的API调用,而非具备自主规划、跨系统决策能力的通用智能体。 为什么阿里会错过?表象是对创业公司的忽视,深层原因则是对技术路径的误判:当行业从“对话式AI”向“Agentic Workflow”范式转移时,阿里仍在等待模型自身的进化,而对手已经在用智能体重构业务流程。 2025年下半年企业级大模型调用量的爆发式增长,核心驱动力正是智能体工作流带来的“5-10倍Tokens杠杆效应”。遗憾的是,在这轮由智能体引发的算力消耗盛宴中,阿里千问并未占据主动权。 02 被遮蔽的code基石:路径依赖下的战略盲区 错失智能体主线并非偶然,其背后更深层的原因,是阿里千问对code(代码)技术路径的系统性忽视。 过去两年,阿里云在基础设施(infra)层面的积淀国内无出其右。从算力调度到 MaaS 平台,阿里云搭建起国内体系最完整的 AI 基础设施。依托基础设施红利,千问在基础模型迭代阶段收获了极高行业关注度:Qwen 系列开源模型全球下载量突破 6 亿次,衍生模型超 17 万个,相关数据稳居全球首位。 但这份优势,也成为阿里千问最深的路径依赖。 行业重心聚焦 “如何训练更强模型” 的阶段时,基础设施是核心竞争力;而当模型性能受客观算力限制、缩放定律(scaling law)边际效益递减,基础设施的作用便进入平台期。此时商业模式创新成为核心,而作为行业新主线的智能体,其核心技术基石正是此前被忽视的代码能力。 从技术演进逻辑来看,智能体的本质是“模型+执行”,执行能力的底层支撑,正是模型对代码的理解、生成与调试能力。无论是 Manus 的自主任务拆解,还是 OpenClaw 的多工具协同,核心考验的都是模型的coding能力。 行业技术势能正从基础设施主导的工程优化,回归强化学习与深度学习算法创新区间 —— 这正是谷歌等老牌科技企业的优势领域,也解释了为何 Gemini能在2025年下半年快速建立代码能力壁垒。 反观阿里,在code能力上的跟进显得迟缓。尽管2025年底Qwen Code升级至v0.5.0版本,开始向开发生态平台转型,但此时字节的Seedance已凭借更深的代码理解能力,在开发者社区建立起壁垒。 更关键的是,千问过度强调与阿里自有生态融合,技术资源大量分散至电商、本地生活、文娱等业务反哺类定制化项目中。千问 App 虽成为国民级 AI 助手,DAU 峰值达 7352 万,但其核心能力集中在下单、订票等交易闭环,而非通用代码智能。 当行业进入“code-driven agent”的新阶段,千问的技术重心却难以从业务下沉中抽身,这种战略上的左右互搏,直接导致了其智能体能力的投入不足。 03 即便在infra主场,也未能守住壁垒 如果说错过智能体主线是“战略判断”的失误,那么在自身最擅长的infra领域,阿里千问也正感受到来自字节跳动的凛冽寒意。 2026年年初,字节跳动正式推出Seedance 2.0,这是一个直接剑指阿里云腹地的AI基础设施方案。相比阿里云“全栈自研”的厚重架构,Seedance 2.0凭借字节在推荐算法时代积累的弹性调度能力,以及对推理成本的极致压缩,迅速在中小企业与开发者群体中打开局面。 一组数据足以说明问题:虽然阿里云仍以32.1%的份额位居中国企业级大模型调用市场第一,但字节旗下的豆包在C端的月活已突破1.5亿,是千问App的两倍有余。 更值得警惕的是,豆包已开始将AI能力与抖音电商深度绑定,用户在咨询商品时可直接完成交易——这不仅是一个AI应用,更是一个新的商业入口。而千问App虽然在春节期间凭借红包活动斩获940%的增幅,但其用户心智仍停留在“工具”层面,距离“入口”尚有距离。 字节对阿里的赶超,不仅是产品的胜利,更是技术代际的压制。Seedance 2.0在推理效率、成本控制与代码理解能力上的综合优势,正在改变开发者的选型偏好。 当OpenRouter等平台上的编程模型调用量被Qwen3-Coder短暂带起后又迅速被字节系模型反超,阿里在infra层面的护城河,已然出现了裂缝。 04 结语:警钟已鸣,不必悲观 阿里千问的人事变动,像一声迟到的警钟。 复盘过去一年,阿里千问的确走过战略弯路:智能体成为行业主线时缺席,代码能力成为核心基石时迟钝,即便在最擅长的基础设施领域,也被字节跳动紧追不舍。 这一系列战略误判,固然与组织惯性、业务牵制相关,但本质问题在于:当行业从 “训练时代” 进入 “推理时代”,从 “模型中心” 转向 “智能体中心”,阿里的技术心智并未完成同步切换。 然而,结论也不必过分悲观。阿里的可贵之处在于,它的反应足够敏捷。 2026 年 3 月,阿里快速完成 AI 品牌统一,将千问置于核心位置,明确通义实验室的组织定位;人事层面,吴嘉同时掌舵千问与夸克,为后续资源整合扫清障碍。更重要的是,阿里已经意识到“生态协同”不等于“业务附庸”,千问需要独立的、通用的、面向开发者的技术演进路径,而非仅仅是淘天或饿了么的AI赋能工具。 战略误判的代价已然支付,对阿里而言,接下来的核心命题,是在智能体的赛道上,重新找准位置、果断下注。
马云罕见发声:AI冲击超出想象,教育必须改
编辑 | 李水青 智东西3月4日报道,3月3日,阿里巴巴创始人马云开年首次现身,谈及了AI对社会的巨大冲击以及应对建议。 据云谷教育公众号发文,开学第一日,马云现身杭州云谷学校并分享最新洞察:,AI时代已经快速到来,对社会的冲击超出想象,教育要迅速做出改变,来培养孩子的好奇心、想象力、创造力、判断力等能力。 与之同行的还有阿里董事会主席蔡崇信、CEO吴泳铭、首席风险官邵晓锋、电商事业群CEO蒋凡,蚂蚁集团董事长井贤栋、CEO韩歆毅。 大家在讨论中提到,AI的迭代以周计算,能力还在不断增长,这一次的技术革命对生产效率和社会方方面面带来的变革是历史性的,未来社会物质财富会极大丰富,以后可能一天不用工作八小时,但是很多今天我们熟悉的工作种类都会消失。马云一行人来到云谷,就是想告诉大家,这个变化会来得非常快,教育要迅速做出改变,帮助孩子们从现在开始学会和AI共存,适应这个巨大的变化。 蔡崇信说,AI时代,思辨能力很重要,思辨能力不是会问问题,而是问对问题。未来很多事情机器都可以做,但是人和机器的沟通,人和人的沟通能力可能是以后最重要的能力之一。 吴泳铭提到,未来人和机器的区别在三样东西:好奇心、共情力和体力。好奇心决定了人会自发地去做一件事,而机器是被动的;共情能力是对人的理解;而当脑力被AI替代的时候,体力就非常重要,所以以后体育会越来越重要。 井贤栋谈道,AI应该用来帮人做重复和琐碎的事,让人有更多的时间去发展我们的特质,发展审美、创意和想象力。在用好AI的同时,要避免AI成为扔不掉的拐杖,还是要保留独立思考的能力。 马云说,AI的冲击非常大,但是机会也很大,AI带来了一个让教育回归教育本身的机会。死记硬背的时间,刷题的时间可以释放出来,用来培养创造力和想象力。孩子们可以有更多时间来玩,来学习音乐、绘画、运动,从中学会分享、学会感受和体验,学会倾听、学会理解…… 谈及学校未来如何适应这些变化,马云认为,看一所学校是不是属于AI时代的学校,并不是去看一所学校有多少AI服务器,有多强的AI技能。因为AI拥有的是“芯片”,而人类拥有的是心,AI时代对教育最大的改变,是老师们这次可以完完全全去做“灵魂工程师”,而不是做知识的灌输者。 未来不是让孩子去和AI比拼计算和记忆,而是让孩子保持好奇,学会共情和担当,拥有体验感,因为好奇心、想象力、创造力、判断力还有审美能力才是AI时代教育需要赋予孩子的真正的能力。
全球首款2nm旗舰卖爆!三星Galaxy S26系列销量突破150万台
快科技3月4日消息,据媒体报道,三星Galaxy S26系列在韩国市场的预购量已经突破150万台。这一数字不仅超越了上一代机型130万台的纪录,更是刷新了三星Galaxy S系列旗舰机型的历史最高预购成绩。 本次Galaxy S26系列共推出了三款机型,分别是标准版Galaxy S26、大屏版Galaxy S26+以及顶级旗舰Galaxy S26 Ultra。在韩国本土市场,该系列的起售价为1254000韩元,约合人民币5900元。 在核心配置方面,韩版的Galaxy S26和S26+首发搭载了三星自家的Exynos 2600处理器。这不仅是三星半导体的最新力作,更是全球首款正式投入商用的2纳米工艺手机芯片,标志着移动算力进入了全新时代。 具体来看,Exynos 2600采用了极其先进的核心架构,包含1颗主频高达3.80GHz的C1-Ultra超大核,3颗3.26GHz的C1-Pro大核,以及6颗2.76GHz的C1-Pro效能核心,为手机的高效运转提供了坚实保障。 性能表现上,Exynos 2600相比上一代产品实现了全面跨越。其CPU性能提升了7%,GPU图形处理性能大幅增长29%。而在当前最重要的AI处理能力上,更是实现了40%的爆发式增长,能更流畅地运行各种本地大模型。 至于顶级旗舰Galaxy S26 Ultra,该机在全球范围内均搭载了高通第五代骁龙8至尊版旗舰平台。值得国内消费者关注的是,按照以往惯例,国行版本的Galaxy S26全系三款机型都标配骁龙芯片。 凭借划时代的2纳米工艺和卓越的预售表现,三星Galaxy S26系列再次证明了其在全球安卓旗舰市场的统治力。
阿里千问核心技术团队生变
2026.03.04 本文字数:1599,阅读时长大约3分钟 作者 | 第一财经 陈杨园 千问大模型技术负责人林俊旸自宣卸任。3月3日夜间,他在社交平台写道“me stepping down. bye my beloved qwen.”(我将卸任,再见我亲爱的千问)。 作为阿里千问大模型的技术核心人物,林俊旸或将离开千问团队,目前尚不知他是否会离开阿里巴巴。记者就此消息向阿里巴巴求证,截至发稿暂未获得回复。 林俊旸发帖后,阿里千问大模型的多位技术骨干相继发布告别帖。Qwen Code 负责人惠彬原转发林俊旸发言并写道“bye qwen, me too.”,Qwen3.5/VL/Coder核心贡献者Kaixin Li也在社交平台发帖称即将告别,表达对共事伙伴的感谢并为团队的影响而自豪。 林俊旸离开千问团队的消息十分突然,认证为千问团队成员的Chen Cheng在社交平台表示,“我真的心碎了。我知道离开并非你的选择。就在昨晚,我们还并肩发布了Qwen3.5小尺寸模型。我真的无法想象没有你的Qwen会是什么样子。” 首页信息显示为千问scaling agent团队成员的Tianyi Bai则在社交平台表示,3月2日下午他还在和林俊旸讨论新想法和训练计划,3日上午林俊旸还在帮他处理全职录用事宜,下午林俊旸还信心满满地说团队能打造出最强的计算机操作智能体模型,然后到了晚上,团队却收到了消息…… 记者关注到,仅4天前,林俊旸还在社交媒体为Qwen Coding Agent 发布招聘信息并在评论区介绍相关岗位职能。 Tianyi Bai在发帖中表示,因为有林俊旸的支持,团队才能在一月中旬接到为3.5版本交付的任务后,到二月中旬就圆满完成了目标。他提到林俊旸是实习以来最支持他的导师,操作智能体项目后,团队从零开始搭建强化学习基础设施。“从庞大的工程挑战到资源协调,他(林俊旸)让一切成为可能。” 2月16日除夕夜,阿里开源了新一代千问大模型Qwen3.5,该模型实现了模型架构的创新,3月2日晚,阿里巴巴再开源千问3.5系列模型,引发特斯拉CEO埃隆·马斯克在社交平台对该系列模型评论,称赞其“智能密度令人印象深刻”,值得一提的是,林俊旸自宣卸任的前一条动态便是转发马斯克评论并表示感谢。 多位开发者、AI从业者感谢了林俊旸及其团队为开源作出的贡献。Hperbolicy联合创始人兼首席技术官Yuchen Jin表示,一个时代结束了,Qwen失去了它的技术领军者。他提到,曾和林俊旸及团队合作在Hyperbolic平台上发布Qwen 3 Next终端时,北京时间早上6点他们还在线,感谢他们推动开源AI的发展。部分认证为千问员工的人士则在社交平台转发“Qwen is nothing without its people”。 有消息称,林俊旸及千问团队的离任风波可能与外部技术人才空降、千问的商业目标推进、内部团队调整等相关,截至发稿,阿里巴巴仍未对此作出评论。 阿里前技术副总裁贾扬清也对此事发表了个人观点。他表示,为Qwen的开源努力和林俊旸的绝对贡献点赞,并直言对企业而言,平衡开源与商业确实困难,行业见证过Databricks和Redis Labs的成功,也看到过RethinkDB(开源数据库)失败这样的警示故事,“开源愿景与商业优先级之间是否存在摩擦?纯属猜测,但如果没有摩擦,那才是例外,而非常态。” 他提到,我们正进入一个人才与影响力比以往任何时候都更重要的时代,能够凝聚社区的技术负责人是不可替代的。无论这些领军人物去向何方,社区追随的是使命,而不仅仅是公司品牌,“对于企业而言,保持创新并留住创新人才不是可选项,而是生存之本。” 微信编辑 | 雨林
科大讯飞AI眼镜开放预约:仅重40克 支持多模态降噪翻译
快科技3月4日消息,科大讯飞近日在世界移动通信大会上发布了一款创新产品——讯飞AI眼镜。这款专为跨语言交流设计的智能设备重量仅40克,目前产品已开启预约通道。 虽然具体售价和正式发售日期尚未公布,但官方透露提前预约可享受299元抵扣优惠。 这款眼镜突破了传统翻译设备的形态限制,通过镜片实时投射翻译字幕,并配合内置扬声器输出语音译文。 当对话双方交流时,系统可同步完成语音识别、文字转换和语音播报,实现“所见即所说”的无障碍沟通体验。 其核心功能覆盖多模态同传翻译、智能降噪和全场景记录三大模块,特别针对跨国商务场景进行了优化设计。 针对展会、酒会等高噪音环境,研发团队首创了唇动识别降噪技术。通过前置摄像头捕捉说话者的唇部运动轨迹,结合骨传导麦克风采集的声波信号,系统将音视频数据进行融合处理。 这一方案使设备在多人交谈场景中能精准锁定目标声源,实测可将语音识别准确率提升超过50%,有效解决了传统设备在复杂环境下的识别误差问题。 产品功能矩阵包含全能翻译系统,支持语音与视觉双重翻译模式,可应对商务洽谈、国际会议等多样化场景需求。 轻量化设计理念贯穿整个研发过程,从镜框材质到电路布局均经过精密计算,最终实现了40克的突破性重量,佩戴舒适度接近普通太阳镜。
一年净赚超3亿!广州Agent公司港股递表,俞永福是股东
编译 | 李水青 编辑 | 心缘 智东西3月3日报道,2月27日,广州营销AI Agent企业钛动科技向港交所递交IPO申请,冲刺“出海营销Agent第一股”。 根据知名行研机构弗若斯特沙利文报告,按2024年收入计算,钛动科技在中国本土出海AI营销科技提供商中排名第一,市场份额8.5%。2025年前九个月,该公司收入同比增长约74.5%,达1.3亿美元(约合8.9亿元人民币),有望继续稳居第一位置。 这是一个阿里系出走人才的创业故事。现年36岁的李述昊毕业于天津大学,于2017年创办了钛动科技,创业前曾任阿里移动事业群国际化业务负责人。公司执行董事兼AI技术副总裁陈德品也是13年的老阿里人,专注于AI及云计算领域。 钛动科技创始人、CEO李述昊近照 不同于众多AI公司,钛动科技已经开始赚钱。2024年全年,其净利润为5100万美元(约合3.5亿元人民币);2025年前九个月,其净利润已达到5568万美元(约合3.8亿元人民币)。该公司前后已获得了IDG、钟鼎资本等领投的6轮数亿元融资。 2025年10月下旬,钛动科技推出全球首批营销多智能体之一的Navos,涵盖市场洞察、内容创作、广告投放与效果优化等多项能力,因此也有媒体称其有望成为“Multi-Agent(多智能体)第一股”。根据招股书,客户反馈其可将以往需要一至三个月的营销周期,缩短至数小时内。 Navos用户界面 背后,其于2026年1月推出的Tec‑Chi‑Think‑1.0模型在SuperCLUE-Mkt榜单中位列全球第一,在市场洞察与文字创意生产方面达到SOTA性能。 陈德品在去年7月接受智东西采访时曾发出犀利论断:“Manus类通用Agent难以解决垂直行业问题,要做到又全知全能又有深度很难,垂直场景还是需要垂直Agent。”其背后底气,来自钛动科技服务8万+企业积累的海量闭环数据——百万级素材库、千万条投放效果数据构成的Agent“养料”。 根据IPO文件,钛动科技到2025年已服务超10万家广告主,代表客户累计管理超过4亿个广告策略及超过140万个SPU。 本次港股募资用途,大部分将用于持续升级钛极多模态大模型体系和打造高兼容性的Navos产品体系。 一、一年净赚超3亿,毛利率超80% 2023年、2024年及2025年前九个月,钛动科技营收为72.82百万美元、102.30百万美元、129.64百万美元,净利润为34.35百万美元、51.00百万美元、55.68百万美元。 同期,其研发开支分别为6.9百万美元、10.8百万美元及16.7百万美元,分别占其同期收入的9.5%、10.6%及12.8%。 2023年、2024年及2025年前九个月,该公司毛利分别为61.6百万美元、84.3百万美元、63.4百万美元及106.5百万美元,毛利率分别为84.6%、82.4%、85.4%及82.2%。 现金流方面,同期钛动科技的年末/期末现金及现金等价物为196.9百万美元、396.24百万美元、441.42百万美元。 二、推出营销多智能体,可将三个月营销周期缩短至数小时 钛动科技的商业模式围绕两大互补的解决方案体系构建:AI营销解决方案及定制化达人营销解决方案。 AI营销解决方案专为开展高频出海营销的广告主打造,该解决方案主要包括Tec‑Ad、Tec‑Creative及Navos。 Tec‑Ad与Tec‑Creative均为广告主的云端营销工具,可将核心营销任务从人工协调转向系统导向流程。Tec‑Ad负责广告投放与全生命周期优化,Tec‑Creative则专注于创意制作。 Tec‑Creative功能模块涉及众多AI能力 Navos于2025年推出,是一体化营销多智能体,能够理解以自然语言表达的营销目标,将复杂任务拆解为可执行步骤,协调跨市场、跨渠道的投放,并基于效果反馈持续优化、动态调整策略。 据悉,Navos深度融合产业大数据及出海场景,接入GPT、Gemini、DeepSeek、Claude、可灵等顶尖大模型,通过一系列AO Agent、AD Agent、AS Agent协同覆盖营销链路中的爆款洞察、素材诊断、素材制作、广告投放监控、广告效果分析等多个环节。 Navos架构 Navos已应用于包括电商、游戏、文娱及本地生活在内的多个行业。根据部分核心客户反馈,以往需要一至三个月的营销周期,现已缩短至数小时内。 背后,该公司还研发了钛极——一组专业多模态大模型,涵盖钛极问答推理模型(Tec‑Chi‑Think‑1.0)、钛极内容理解模型(Tec‑Chi‑VL‑1.0)及钛极视频生成模型(Tec‑Chi‑Video‑1.0)。 定制化达人营销解决方案,主要满足标准化自助式产品无法完全覆盖的营销需求。该方案依托Navos、Tec-Ad及Tec-Creative内置的AI能力,方案可覆盖广告活动策划、内容制作、达人资源协调、直播运营、媒体投放及投后效果复盘等环节。 钛动科技的AI营销解决方案采用基于CPM(千次展示成本)、CPC(单次点击成本)、CPA(单次行动成本)等表现指标的灵活定价,收入源自客户营销支出的服务费及媒体返点,具体视广告活动、渠道和目标而定。 定制化达人营销解决方案采用成本加成或效果导向定价,收入主要来自项目服务费,并视活动条款向第三方达人支付相应款项。 从历年营收情况来看,AI营销解决方案占到钛动科技总营收近九成,定制化达人营销解决方案收入约占一成。 三、阿里系创业,研发团队达415人 这是一个阿里系出走人才的创业故事。 在2017年9月创立钛动公司前,李述昊曾任职于优视科技公司,该公司后被阿里收购,李述昊调任至移动事业群国际业务部的流量业务开发部,主要专注于海外市场拓展。李述昊在2011年9月至2012年8月还曾任职于华为。 钛动科技的的执行董事兼AI技术副总裁陈德品也来自阿里。2010年7月至2023年8月,其就职于阿里巴旗下的淘宝,担任集团客户满意度中心智能研发部门高级算法工程师,专注于AI及云计算领域。而后于2023年8月加入钛动科技。 截至最后实际可行日期,钛动科技公司总人数为1622人。其中业务运营及达人占比最高达34.3%,为557人。 研发人员占比较高为25.6%,达415人。据悉,其研发团队分为云计算与云基础设施、数据和算法、产品研发与工程,以及跨职能支持等多个专业小组。 近几年里,该公司员工成本在研发成本中的占比在逐渐降低,从8成降至6成左右;训练相关云服务成本占比在增多,从1成提升至3成左右。 截至报告期内,团队已在中国注册158项商标、47项专利、217项著作权和7个域名。 四、电商客户创6成收入,前五大客户收入占比不到3成 2025年前9个月,钛动科技总客户数达到5022个,其中重要客户数达到252个,为一整个财政年度收入贡献超过10万美元,或在截至2024年及2025年9月30日止九个月按比例贡献超过7.5万美元的客户;标准客户数达到4770个,为年度支出水平较低的客户。 2023年、2024年及2025年前9个月,钛动来自前五大客户的合计收入分别为2890万美元、3750万美元及3420万美元,分别占其总收入的39.8%、36.7%及26.3%。 在业绩记录期间的同期,其单一最大客户产生的收入分别为1160万美元、1960万美元及1370万美元,分别占其总收入的16.0%、19.1%及10.6%。 来自电商行业的客户收入占钛动年收入多年稳定在6成左右。 来自大中华区域的客户收入占总收入4-5成,来自新加坡的客户收入占总收入3-4成。 钛动的供应商主要包括云服务提供商、人力资源外包服务商及咨询服务商。其通常与云服务提供商订立为期一至三年的协议。 2023年、2024年及2025年前9个月,钛动向前五大供应商的合计采购额分别为300万美元、550万美元及1190万美元,分别占其采购总额的29.8%、29.4%及36.0%。 同期,该公司向单一最大供应商的采购额分别为100万美元、260万美元及560万美元,分别占采购总额的9.5%、13.9%及16.8%。 五、李述昊为实际控制人,阿里合伙人俞永福是股东 聚焦控股股东,截至最后实际可行日期,李述昊、广州爱肆倜悠、广州钛好奇、广州钛有趣及广州钛美丽共同构成该公司控股股东集团。控股股东将有权行使该公司约35.05%的投票权。 阿里巴巴合伙人、高德集团董事长俞永福为公司股东之一,持股约11.27%。 该公司董事成员包括李述昊、陈德品等9人。2023年、2024年及2025年前九个月,公司董事薪酬总额分别为180万美元、190万美元及170万美元。 同期,五名最高薪酬非董事人士的薪酬总额分别为240万美元、130万美元及100万美元。 结语:营销或成AI Agent最先盈利领域 根据弗若斯特沙利文报告,全球AI软件解决方案市场预计将从2024年的617亿美元增至2029年的2413亿美元,2024年至2029年的年复合增长率为31.4%。 在出海浪潮中,钛动科技凭借海量闭环数据训练的垂直Agent,其将营销周期从数月压缩至数小时的能力,揭示了AI在产业端降本增效的巨大潜力。 若成功登陆港股,钛动科技有望成为“出海营销Agent第一股”。其盈利能力的展现,证明了大模型在垂直场景中能够跨越技术尝鲜阶段,激励更多AI从业者聚焦产业落地。
看遍了所有的AI PC,原来 Mac 一直在这里|AI 器物志
年初,Mac Mini 一度缺货,等待时间甚至长达一个半月。 Mac mini 是个好产品,这件事大家一直很清楚。国内渠道价格诚意高,M 芯片性能又好,入门配置不到三千人民币就可拿下,很适合作为创作新手的主力机。 然而最近这次 Mac mini 爆红,跟创作或日常使用没什么关系。 关注科技新闻的朋友们应该知道怎么回事:OpenClaw(前身叫 Clawdbot)突然火了。 OpenClaw 有多种部署方式:你可以装到自己的电脑上,也可以单给它配一台电脑;把它部署在云端的虚拟机/沙箱环境里也没问题;后来,一些主流 AI 服务也推出了云端一键部署的替代方案,显著降低小白玩家的门槛。 但在刚开始的那段时间,最主流的部署方案就是单买一台 Mac mini。 理由肯定不是因为它便宜,更主要在于:要让 OpenClaw 有意义,需要给它一个「肉身」,让它访问文件、操作软件。 云服务器能运行 OpenClaw,但那仍然不是你的电脑,没有你的文件、软件、浏览器上登录的各种账号,没有所谓的「上下文」。Mac mini 放在桌上,7 × 24 小时不用关机,甚至通过聊天机器人远程操控的话都不用单配一台显示器。 给 OpenClaw 一台自己的电脑工作,唯一可观成本是后端接入的大模型 API 的 token 费用,很多早期玩家都在这上面吃过亏。但如果你买一台配置够高的 Mac mini,下载一个尺寸足够大的模型到本地来运行,可以说除了电费和网费之外,简直就像获得了一个免费的劳动力…… MacBook 也行,但是…… 据 Tom’s Hardware 和 TechRadar 等媒体报道,OpenClaw 走红后,Mac mini 24GB 和 32GB 配置的等待期延至 6 天到 6 周不等;更强大的 Mac Studio,交货时间也从两周涨到了近两个月。 这些等待时间,是 OpenClaw 的早期玩家们,用真实购买投出来的票。 (注:部分机型的缺货也和苹果近期推出新款 Mac 台式机电脑有关系,以往每次推出临近新机发布时,老机型都会进入售罄状态。OpenClaw 的爆红并非唯一原因。) 冥冥之中,Mac 成为了 2026 年首选的「AI PC」;反倒是鼓吹了「AI PC」好几年的 Windows PC 行业,一点热乎的都没吃上。 英特尔、AMD、高通等芯片商,以及主流 PC 品牌们,从 2023 年就开始贩卖「AI PC」的概念了。这些最新的 Windows 电脑当中,认证过 Copilot+ PC 的比比皆是,GPU、NPU 性能并不差,有的整机价格比 Mac 对等产品要便宜的多。 但问题是,为什么大家还是一窝蜂地冲向 Mac? 为什么是 Mac? Windows PC 和 Mac 谁更好的争论,永远没有绝对答案。但如果限定在 AI 开发上,Mac 成为了心照不宣的选择。 虽然大模型的「大脑」都在云端服务器,开发者的手却都在 Mac 上。这跟 Mac 电脑的外形和操作体验关系不大:macOS 流着 UNIX 的血液,才是关键。 AI Agent 的核心工作是操作文件、调用命令行工具、调度 API 甚至控制图形界面等。说的更直白一点,Agent 就是一个智能且自动化的「脚本工程师」,只是脚本由大语言模型实时生成。而 macOS 属于类 UNIX 系统,bash、zsh 命令原生支持优秀。 这解决了 AI 开发中最基础的环境搭建。在 Windows 上,你可能得先安装 WSL2 虚拟机。但在 Mac 上,从 Python 环境到复杂的 C++ 编译工具链,基本都是开箱即用。Homebrew 等包管理器,让安装各种工具和依赖通过一行命令就能搞定。 另外,macOS 符合 POSIX 标准,处理文件路径、多线程任务和网络协议时可靠性稍高。Agent 往往需要频繁读写数据、调用 API,系统级的高效调度让 agent 在 Mac 上的节奏更快。 这种原生感和稳定性,让开发者、尝鲜用户可以更快完成入门,把更多时间花在真正的 agent 编排工作上。 Windows 有 WSL、PowerShell,功能上大部分也都能覆盖。但 WSL 是叠加在 Windows 上的兼容层,存在路径约定、注册表机制、权限模型等历史遗留问题。AI 模型和 agent 项目在 Windows 上运行的摩擦,确实会更多一些。 以 Ollama 和 LM Studio 为例,这两个工具让端侧推理大模型变得像「下载、安装、运行」一样简单。Ollama 的 Windows 版比 macOS 晚了半年;LM Studio 虽然从一开始就支持两个平台,但在社区里 Mac 的体验口碑始终更好;OpenClaw 也是如此。 往硬件层面继续深入,内存是大语言模型推理运行的命脉。 还是以 OpenClaw 举例,用户可以通过 token 付费的方式来接入云端模型,但它更擅长的能力是在端侧模型推理驱动。经过普遍调研,想要让 OpenClaw 像个智商合格的人一样工作,后端的模型参数量的底线在 70 亿左右,往往要上到至少 320 亿参数量才能比较稳定地工作。 这么大的模型即便在 4-bit 量化之后,仍然需要大约 20GB 内存(还要留一些给上下文窗口)。 此时,Windows PC 的架构会显得捉襟见肘。CPU 内存和显存之间存在物理隔离,数据经由 PCIe 总线传输,受到带宽瓶颈的影响。频繁的数据搬运,会对推理过程带来速率的影响。 更别提,大模型普遍依赖 GPU 加速推理,显存得足够装得下模型。在英伟达消费级显卡线中,只有 90 后缀的 24GB 显存达到了配置要求,但配出整机(只考虑新机)的话合计成本至少在万元人民币以上,用新卡的话会飙到 4、5 万不等。 而苹果的统一内存架构 (Unified Memory Architecture) ,让 M 系芯片的 Mac 在端侧推理更大规模的模型时游刃有余。 简单来说,统一内存架构的效果,是 CPU、GPU、神经计算引擎能够共享同一个内存池,不再有物理总线搬运的损耗,让 Mac 可以获得极高的内存带宽,并且对于多机串联的扩展性能更好。 以 Mac mini 为例,选择性能更高的 M4 Pro 处理器,搭配 48GB 内存,其它选基础配置,整机价格在 1.3 万元上下,即可达到 OpenClaw 社区普遍推荐的 320 亿参数量模型的配置水平。 当然这还只是对 token 吞吐速度有要求的专业配置。如果你属于爱好者、尝鲜玩一下 OpenClaw,配置下降到常规 M4 芯片和 32GB 内存也是能跑起来的。 当然,这个成本对比还是有前提:专用于端侧推理/跑 OpenClaw,而不是当做主力机。同等价位的 Windows PC 还能打游戏、剪视频,通用性更强。 另外,Mac 的统一内存和 PC 平台独显的显存也不是一回事。统一内存由系统和模型共享,一台 32GB 内存的 Mac mini,macOS 系统和其他软件仍需占据几个 GB。而 RTX 3090 的显存独立,模型可以全部占用,甚至配合 CPU 内存跑更大的量化模型。 如果你只用云端 API 做 OpenClaw 的大脑,不考虑端侧部署,那 Mac 的易用性优势依然在。 另外,CUDA 虽然提供了统一内存编程接口,但物理上 CPU 内存和 GPU 显存依然分离,数据搬运和带宽瓶颈并未消除。 再来看功耗。 Agent 的工作方式是持续循环的:任务触发、思考推理、执行、等待、再触发。前述配置的 Windows PC 会跑到 300-400W 左右(本地部署),散热噪音和电费都不是小数目。 Mac mini 通常稳定功耗在 10-40W 左右,峰值功率 65W(M4)或 155W(M4 Pro),散热可控,几乎没有风扇噪音,运行更安静。这种低延迟、低功耗的持续工作方式,会产生潜移默化的体验差异。 网友 3D 打印的 Mac mini 外壳套件「Clawy MacOpenClawface」 当然我们更多还是围绕 OpenClaw 这个以推理为主的场景进行讨论。如果工作涉及本地微调,并且对于效率有追求的话,那么在 macOS 平台要往往要到 Mac Studio,或至少顶配的 MacBook Pro,才能算摸到门槛。 与此同时,Mac 不支持 CUDA 也是个可能永远都无法改变的事实。不过,CUDA 的真正战场是模型训练,推理场景对它的依赖小得多,毕竟苹果在推理上有 MLX 这张王牌(后面会详述)。 再回到 OpenClaw:它的创造者 Peter Steinberger 曾经公开表示,自己很喜欢 Windows,觉得它的功能更强。他在 Lex Fridman 播客中说,Mac mini 不是唯一的「肉身」选择,通过 WSL2 方式运行 OpenClaw 已经非常成熟了;他甚至公开吐槽苹果在 AI 领域「搞砸了」,并且对苹果生态的封闭性感到不满。 但客观来讲,对于技术小白型用户的部署门槛,Mac mini 确实是最省心、最容易上手的方案。主要原因就是它的功耗、静音、尺寸足够小,像是一个可以插在墙角、24 小时待机且不需要维护的「服务器节点」。 还有一个和功耗有关的例证:前几天有一位工程师 Manjeet Singh 成功实现了对 M4 处理器上「神经引擎」(Neural Engine,简称 ANE)的逆向工程,发现 ANE 的功耗效率极高:算力跑满时的效率高达 6.6 TOPS/W。 对比苹果的 M4 GPU,约合 1TOPS/W;英伟达 H100 大约 0.13,A100 是 0.08 TOPS/W。 折算一下,A100 单卡的吞吐性能是 M4 ANE 的 50 倍,但 M4 ANE 的功耗性能却是 A100 的 80 倍。原作者在文章里写道:对于端侧推理,ANE 的性能是非常出色的。 由神经引擎说开 2011 年,苹果在 A5 处理器的图像处理单元 (ISP) 中首次通过硬写入的方式,实现了人脸实时检测等后来被视为 AI 任务的功能。 2014 年,苹果收购了 PrimeSense 公司,并开始研发一种全新的、专门用于神经网络计算的协处理器。这方面的工作在三年后的 iPhone X 上问世:A11 Bionic 处理器当中加入了前面提到的神经引擎 ANE,算力只有区区 0.6 TOPS,用来驱动 Face ID 和拍照人像模式。 那时 AI 还没到大模型时代,跑的主要是各种机器学习算法。市场对苹果这块协处理器的推出并没什么特别的反应。但苹果从未放弃过,持续加码。 三年后,M1 发布,统一内存架构同时到位, ANE 也进驻了 Mac。桌面平台的功率预算更充足,也让 ANE 的算力跳到 11 TOPS。此后每代更新:M2 是 15.8 TOPS,M3 是 18 TOPS,M4 是 38 TOPS,到了 2025年底的 M5 ,达到了 57 TOPS。从 M1 到 M5,苹果的 ANE 算力涨了超过 5 倍。 这个增长背后的逻辑,其它 PC 厂商不能说不羡慕。苹果为 Mac 加入 AI 加速硬件之前,已经有数千万甚至上亿台 iPhone 在跑同一套 ANE 架构了。功耗表现、稳定性、极端情况下的边缘案例,在市售机型上已经得到验证,再搬到 Mac 上来。 英特尔和 AMD 在移动端几乎没有消费级规模;高通虽然同样把 Snapdragon 芯片放进了数亿台 Android 手机,但它只是芯片供应商。Android 上的 AI 是谷歌 (Gemini) 以及各大手机厂商联合第三方 AI 实验室做的;Windows 的 AI (Copilot) 是微软做的。 苹果的不同在于,它实现了垂直整合,同时掌控硬件和软件。其他芯片厂商没有这种统一控制权。 当然,在 Mac 上推理大语言模型,其实跟 ANE 没什么关系,它更擅长处理 Face ID、人像识别这类固定模式的 AI 任务。真正承担主要计算量的是 GPU。 (注:最近情况发生了细微的变化。首先,M 系列芯片上的 ANE 已经承担提示词注入 prefill 阶段的工作了;以及刚才提过的 M4 ANE 逆向工程:该工程师还实现了跳过 CoreML 直接调用 ANE,吞吐量显著提升。通过这种思路,或许可以找到直接利用 ANE,来加速推理甚至训练的通用方法。) 2023 年底,苹果开源了 MLX,把专门针对 M 系列芯片优化的模型推理框架直接给了开发者。去年,基础模型框架随 Apple 智能发布,App 开发者可以在 iPhone 和 Mac 上调用系统内置的基础模型,无需联网,数据不离开设备。 Apple 智能一再跳票,这件事确实没什么好辩护的。不过,苹果远在 10 年前就开始试水,在多年以前就为桌面级 AI 开发打下了基础,是不争的事实。 而在 Windows 那边,「AI PC」这个词开始出现在英特尔、AMD 和 PC 厂商的新闻稿和 ppt 里,要到 2023 年底了。 AMD 官网 2023 年截图 2024 年 5 月,微软发布 Copilot+ PC 认证体系,旗舰功能名叫「Recall」,大概的逻辑是系统持续对屏幕内容截图,然后 Windows 的系统级 AI 能够帮你回忆过去看到过的东西。 先不说这个功能在发布当时的实际意义是什么,它的安全性首先被发现有严重问题:仅在发布一个月后,研究人员就发现 Recall 功能会把所有截图存在一个未加密的本地明文数据库里。 微软紧急撤下了 Recall 功能。过了半年微软再次推出测试版,结果再次因为新的安全问题而延迟。直到 2025 年 4 月,Recall 才正式上线,但改成了默认关闭,启动后数据改为加密存储。 从发布会宣传到真正能用,将近一年,可以说整个 Windows 生态 AI PC 的旗舰功能,经历了一整次从头重新设计,尴尬程度其实不亚于 Apple 智能/新版 Siri 的一跳再跳,但可能因为 Windows 生态的声量实在太低,AI PC 没多少人关注,很多人都没听说过这回事。 在 Copilot+ PC 这个体系的认证标准方面,微软主要针对的是神经处理引擎 NPU,要求是 40TOPS。不过,这个算力的用途是实时字幕、背景虚化、照片增强,诸如此类的消费端窄任务,大语言模型推理从来不在它的射程里(和苹果 ANE 同理)。 当开发者尝试去做端侧大语言模型推理时,会发现虽然这些电脑名为 AI PC,但并没针对 AI 推理用途做什么优化。微软 Copilot 本身的核心算力来自 Azure 云端,和端侧自身的算力几乎无关。买了一台 Windows AI PC 的用户,最能感知到的 AI 提升,大概是实时字幕和照片自动分类。 说到端侧推理,还有一个关键因素:Windows AI 生态的优化路径是分散的。 NVIDIA GPU 用 CUDA 和 TensorRT,Intel NPU 用 OpenVINO,高通 NPU 用 QNN SDK,AMD NPU 用自家驱动栈。模型存储格式也较为碎片化,有 CPU+GPU 推理的通用格式(GGUF,准确来说是 CPU 推理 + GPU 分层卸载),也有 GPU-only 的格式(EXL2)。 这意味着想让模型以及模型驱动的功能运行在 Windows AI PC 上,在推理后端方面的工作会更加复杂。微软有 ONNX Runtime 和 DirectML(已进入续命状态)作为统一抽象层,但统一的代价是牺牲各厂商的峰值性能。苹果是目前唯一一家为自家 PC 硬件专门开发并持续维护 LLM 推理框架的 PC 厂商,这个框架就是 MLX。 在 Hugging Face 等开源模型平台上,你会很容易找到大量采用 MLX 框架的模型,只要带有 MLX 后缀,并且内存/处理器允许,可以直接「开箱即用」。 不过,这几天 MLX 的主要贡献者之一 Awni Hannun 刚从苹果离职,为该项目的后续发展增添了些许变数。Hannun 也表示 MLX 团队仍有许多优秀员工,可以放心。 我们自己的体验 过去一年,爱范儿自己做了不少端侧部署 AI 模型的测试,也采访过一些相关的外部开发者。有两次值得一提。 去年春节,DeepSeek 横空出世,新款 Mac Studio 也在节后不久面市。 我们用一台售价快到 10 万元人民币的 M3 Ultra Mac Studio(512GB + 16TB)跑了 DeepSeek R1 671B 模型(注:实际上只需要内存,硬盘不用那么大,1TB SSD 售价七万多的型号就够了),以及蒸馏过的 70B 版本。 我们当时得出结论:对于端侧部署对话,日常用 70B 足矣,花大几万买台机器只为了跟 AI 聊天,实在是有钱烧的慌。当时的模型能力确实也就不太行,后来才有新的多模态模型和 agent 能力出来。 但 671B 模型的天量参数模型能够在一台桌面机上端侧推理,仍然是一种奇观。512GB 的统一内存上,671B 模型占用了 400GB,加上上下文、macOS 系统本身以及其他任务占用,基本接近满载,但机器全程运行安静,噪音在正常范围,也没有过热。 这个参数规模,在传统 AI 基础设施逻辑里,属于数据中心级别,消费级硬件理论上不该出现在这个场景里。但那台 M3 Ultra Mac Studio,真就硬生生也静悄悄地出现了。 后来,我们采访过一个英国牛津大学的创业团队 Exo Labs。他们用 4 台 512GB 统一内存的 Mac Studio,通过串联的方式组成了一个 128 核 CPU、320 核 GPU、2TB 统一内存、总内存带宽超过 3TB/s 的算力集群。 团队为这个 Mac 集群开发了调度平台 Exo V2,可以同时加载 2 个 DeepSeek 模型(V3+R1,8-bit 量化)。不但两个模型并行推理,研究人员甚至可以通过 QLoRA 技术来做一些本地微调工作,显著缩短了训练任务的用时。整套系统功耗控制在 400W 以内,运行时同样几乎没有风扇噪音。 同等算力的传统方案,需要大约 20 张 NVIDIA A100,当时的成本超过 200 万人民币;相比之下,Exo Labs 这套方案的总成本才不过 40 万人民币(同理 SSD 严重溢出,其实可以 30 万内就够)。 Exo Labs 创始人当时告诉我们,牛津有自己的 GPU 集群,但申请需要提前几个月排队,而且一次只能申请一张卡。这些桎梏,逼迫他们创新,而他们又正好遇到了趁手的工具:统一内存架构、MLX,以及 Mac 电脑。 我们在当时的文章里写道:「如果说英伟达的 H 系显卡是 AI 开发的金字塔尖,那么 Mac Studio 正在成为中小团队手中的瑞士军刀。」 这件事,苹果其实早就知道。 真正的 AI PC 是什么? 去年苹果发布的基础模型框架,让 iOS 和 macOS 开发者可以调用系统内置的基础模型,零网络延迟,零 API 费用,数据不离开设备。 尽管后来苹果基模团队几近分崩离析,但在迭代方面苹果没有停在原地。它其实一直知道开发者在哪里、想要什么。它的回应,就是将大模型驱动的 AI 能力变成操作系统的基础设施,让开发者更方便调用。 上周,苹果开源了 python-apple-fm-sdk。以往苹果基模的完整测试和调优,需要 Swift 环境完成;现在这套 SDK 让路变宽了,习惯 Python 工作流的开发者也能参与进来。 苹果的隐私设计哲学贯穿始终:python-apple-fm-sdk 调用的基础模型完全在本地运行,数据不离开设备。苹果整套 AI 体系在必须上云的场景里,走的是 Private Cloud Compute,数据处理完即删除,苹果无法访问。 反过来看 Recall,同样是让 AI 访问用户的私人数据,第一版存的是未加密的明文数据库。一个在架构上阻断泄密,一个是出事了再打补丁。 但话说回来,Mac 作为 AI 开发和部署工具的优势,严格来讲更像是一种「适配度优势」,也可以说是后天意外获得的。 意思是:苹果做神经引擎,最初是为了服务 Face ID 和人像模式;做统一内存架构,是摆脱对 Intel 长久依赖的一部分必要工作;开源 MLX,是响应开发者对高效推理工具的需求——AI Agent 场景爆发,Mac 正好赶上,是上述这些以及更多没提到的工程决策的意外收益。 Mac 一开始并没有为 AI 而设计,它始终的产品定位都更接近「创作者工具」。苹果长久以来的目标用户,是视频剪辑师、艺术家、软件工程师。他们需要的是低噪声、持续性能、高内存容量、可以全天候运行的机器。 AI 模型推理,以及时下最火的 Agent 部署,只是恰好需要一模一样的东西。 回头看,十多年前苹果在机器学习上加大投入时,大概率是不会预见到 2025 年 OpenClaw 的爆红的。甚至你可以说,如果放在十年前,苹果大概率是不会喜欢 OpenClaw 这样一个「回报高风向更高」,一旦出现幻觉就把用户隐私、数据安全抛在脑后,无视各种软件工程方面的规章制度的东西的…… 但怎么说呢,如今就算苹果不喜欢它,也由不得了。就像墨菲定律那样,或许冥冥之中有些东西早已注定。多年以来苹果打下的每一张牌,无论有意为之还是出于意外,这些牌在今年这个 Agent 元年(希望这次是真的),成了一套很难不赢的牌组。 2023 年开始力推 AI PC 的 Windows 阵营,其实一直在追赶苹果在 2020 年 M1 推出时就已经定下来的架构优势。当然,25 年苹果在 AI 方面坏消息不断,这个差距是有追上的可能的。但苹果不会停下来等。 就在本周,苹果推出了 M5 Pro 和 M5 Max,芯片采用双芯融合架构 (Fusion Architecture),还在新闻稿中上点名 LM Studio 作为 LLM 性能基准。 苹果过去的硬件新品发布里,不怎么说「大语言模型」,特别是在端侧推理的语境下——现在不一样了。 说在最后 吹了苹果一整篇文章了,我们冷静一下,反问一下文章的标题:今天的 Mac,就是真正的 AI PC 吗? 爱范儿倒觉得,苹果做的还不够。在今天,我们还没有看到一款个人计算产品,可以称之为 AI PC,抑或真正「原生的 AI 硬件」。 还是回到 OpenClaw,从今天的端侧部署 agent 身上,真正的 AI PC 应该长什么样子,其实已经隐约可见。 梗图,AI 生成 在应用层面,面向人类的「应用」概念,可能会部分退化回并无图形界面的状态。毕竟人才需要图形界面,agent 不需要。而且你会发现,最近越来越多人开始习惯基于对话和命令行的互动方式了。 今天 agent 的尝鲜者们,去找工具和技能塞给 agent;未来,agent 会自己去公开代码库拉取新工具和插件来补强自己。 在系统层面,权限体系将为 agent 的工作原理重构,agent 能直接操控各种接口。在底层,会有一套模型的编排调度机制,根据任务随时切换。 本地推理和隐私云端推理也会形成完整、安全、隐私的闭环。数据无论传到哪里,都经过向量化、加密存储,即用即焚…… 换句话说,真正意义上的 AI PC,应该是从底层开始,从设计之初,就把 AI 当作「一等公民」的系统。 梗图,AI 生成 按照这样的衡量标准,Mac 和 Windows 目前都处于过渡阶段。Mac 更接近,因为 Unix 环境、硬件统一、生态成熟,这些条件在 AI agent 的时代到来之前已经达成了。Windows 的历史包袱更重,改起来更难,还在补课。 但我们绕了一大圈,其实还没问到最本质的问题:真正的 AI PC,真的需要是一台「PC」吗? 如果换个思路,所有的 agent 部署和运行全都在云上;与用户有关的数据,也即「上下文」也在云端安全和隐私存储;人类只需要一个终端的设备作为「对话器」(communicator) ,以及传感器 (sensor),拍照和录音来上传所需要的数据给 agent,这台设备甚至不需要太多端侧算力。 Mac 是今天最好的 AI PC,但未来的「AI PC」,却可能更像……iPhone? 文|杜晨
存储芯片短缺冲击!机构预警:2026年智能机出货量将创史上最大跌幅
快科技3月4日消息,一场由人工智能浪潮引发的存储芯片供应紧张,正在对消费电子行业产生连锁反应,智能手机市场首当其冲。 日前,市场调研机构Counterpoint发布预测称,2026年全球智能手机出货量将同比下降12.4%,创下有史以来最大年度跌幅。 报告指出,存储芯片短缺、核心组件价格快速上涨,以及低端OEM厂商结构性脆弱,是拖累市场的三大主因。 这不仅将压低2026年的整体表现,低迷周期还可能延续至2027年。 其中,存储芯片成为关键变量,Counterpoint预计,2026年第二季度移动级LPDDR4/5价格将升至2025年第三季度水平的近三倍,显示出前所未有的供应挤压态势。 新增产能预计要到2027年后期才会逐步释放,市场才有望迎来修复。 在此背景下,低端智能手机受冲击尤为明显,尤其是LPDDR4供应收缩速度快于预期,使入门级产品成本压力进一步加大。 机构同时判断,行业整合将明显提速,小厂商或被迫重新评估长期生存策略,市场集中度有望进一步提升,未来手机行业可能呈现出以下趋势: 市场份额波动放缓; 平均售价(ASP)底部抬高; 产品组合精简; 换机周期延长至四年以上。 整体来看,在AI带动算力需求激增的背景下,存储资源向高利润领域倾斜,或将重塑智能手机产业格局。
比亚迪海洋旗舰轿车海豹08外观预热,明天首秀
IT之家 3 月 4 日消息,今天下午,比亚迪公布了一段海洋旗舰轿车 —— 海豹 08 的预告影像,新车的外观设计和整体轮廓以较清晰的面貌示人。据悉,新车将于 3 月 5 日(IT之家注:明天)全球首秀。 作为比亚迪海洋网的最新旗舰产品,海豹 08 将集成兆瓦闪充、后轮转向、第二代刀片电池等多项前沿技术于一身。海豹 08 在外观设计上延续了比亚迪 Ocean-S 概念车的设计语言。新车采用封闭式前脸造型,搭配纤细修长的大灯组与线条隆起的前舱盖,营造出强烈的运动气息。值得注意的是,车顶配备的激光雷达表明该车将搭载比亚迪最新的智能驾驶辅助系统。 海豹 08 基于 800V 高压平台打造,搭载第二代刀片电池系统。据官方透露,新车在兆瓦闪充技术加持下,充电 5 分钟即可补充 400 公里续航里程,纯电综合续航有望突破 1000 公里。此外,后轮转向系统的配备将显著提升车辆的操控灵活性与驾驶体验。 在 2025 年 12 月的比亚迪海洋四周年 Ocean Day 用户盛典活动中,比亚迪“海洋 8 系双旗舰”车型正式官宣:轿车海豹 08、SUV 海狮 08。据悉,两款新车预计于 2026 年第一季度亮相。从形态来看,海豹 08 预计是一款中大型轿跑,海狮 08 则是一款风格颇为硬朗的中大型 SUV。
越南造车新势力VinFast官宣超豪华旗舰品牌Lac Hong,新车800S/900S两连发
IT之家 3 月 4 日消息,当地时间 3 月 3 日,越南造车新势力 VinFast 旗下超豪华品牌 Lac Hong 发布了两款新车:800S 和 900S。官方尚未公布尺寸,从定位来看,800S 是一款全尺寸 SUV,900S 则是一款全尺寸轿车。 据IT之家了解,两款车型计划在 2027 年上市。Lac Hong 系列将提供最多三电机系统,由前轴一台电机和后轴两台电机组成,综合功率最高可达 460kW。充电时间和续航等信息尚未公布。VinFast 全球汽车销售副总裁杨氏秋庄表示,800S 和 900S 展示了公司“在技术、产品开发以及制造方面的实力”。 两款车型采用统一的设计语言,整体风格锋利而庄重。车头配备大尺寸矩形格栅,下沿呈 V 形,内部竖向格栅灵感来自越南竹子。分体式大灯设计将细长日行灯置于上方,主灯组则布置在保险杠较低位置。发动机盖上还设置了一枚飞鸟造型立标,象征越南神话中的雒鸟。 两款旗舰车型的座舱均采用简洁布局,并大量使用真木饰板和镀金装饰件等高端材料。设计上,新车并未采用双辐方向盘或副驾专属屏等“新势力”常见配置,而是回归更传统的豪华车设计。 配置方面,800S 和 900S 将提供自动车门、零重力座椅以及全新的全主动悬架系统。定位更高的 900S 还配备星空顶、前后排隐私玻璃隔断、投影系统以及后排折叠桌板。 VinFast 尚未公布这两款车型的海外上市计划,初期预计将只在越南本土市场销售。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。