行业分类:
加载中...
头条分类:
加载中...
姚顺雨、杨植麟、林俊旸、唐杰罕见同台,决定中国大模型未来的天才都来了
摘要: 这些清华学子不仅握有核心资源,也帮助中国大模型在全球市场取得了显著的影响力。 凤凰网科技 出品 作者|赵子坤、董雨晴 编辑|董雨晴 2025年,是清华当之无愧的收获年。凤凰网科技不完全统计,目前各大互联网公司、头部大模型创业公司的掌舵者,已多数出自清华,如智谱创始人唐杰、CEO张鹏,月之暗面Kimi创始人兼CEO杨植麟,腾讯CEO/总裁办公室首席AI科学家姚顺雨,他们中智谱刚刚拿下“全球大模型第一股”,Kimi也顺利超额完成C轮融资,27岁的姚顺雨以高光掌舵腾讯核心模型研究任务。 可以说,这些清华学子不仅握有核心资源,在全球市场都具有显著的影响力,都是AGI决赛圈的中国种子选手。 1月10日,凤凰网科技现场参与了由清华大学基础模型北京市重点实验室低调发起的一场名为AGI-Next的前沿峰会,与会人物除了前述提及的三人,还包括Qwen技术负责人林俊旸。他们要探讨的,正是迈向AGI下一阶段的关键路径。 在他们身后,是中国开源大模型力量在全球舞台上的集体崛起。 三个清华学霸顶峰再相见 今天之所以会有这场观点交锋,故事可以追溯到2006年,在获得清华大学计算机科学与技术专业工学博士学位后,唐杰拒绝了诸多大公司伸出的橄榄枝,放弃高薪职位,选择留在清华大学担任老师。 他自小喜欢编程,高中时期物理成绩就非常优秀。2006年,在加入清华后,便投身到了KEG(清华大学计算机系知识工程实验室)。当时,谷歌在学术界硕果累累,唐杰觉得国内缺少一个同等能量的学术引擎,这一年,他和同门师兄弟,开始了AMiner系统的搭建。这是一个汇集了众多研究者档案的平台,当时便为阿里和腾讯等大公司提报了不少线索支持。 一直到2010年,AMiner的系统用户已覆盖180个国家,平台创造了3年52万独立IP访问记录。研究成果还在与IBM、Google、Nokia、搜狐的多个国际合作和企业合作项目中得到推广应用。 这个清华园的技术成果最终转化为了智谱的前身,2019年,在中科创星的早期孵化下,瞄准自然语言处理与知识图谱,智谱华章正式诞生。现如今的智谱CEO张鹏,同样毕业于清华大学,并在2005年加入了清华大学知识工程实验室。 早在OpenAI发布GPT1时,中科创星就敏锐预判到,自然语言处理、知识图谱是机器视觉(CV)之后,AI行业最重要的技术发展方向。 这个早期观点,一直到2021年,GPT3发布才成为行业共识。即便如此,由于当时国内早期主打CV视觉的AI四小龙频频碰壁,使得国内AI赛道正在经历惨淡的低谷期,没有人在其上押注。 2023年前五个月,后来成为中国大模型起跑的关键月份,期间月之暗面Kimi、百川智能、阶跃星辰、零一万物中国大模型六虎终于全数成立完成,掌舵者半数来自清华。2023年7月,梁文锋带领的幻方量化做了一个重要决定,自己下场展开大语言模型研究,此后DeepSeek诞生。 只用了一年半时间,就扭转了全球的竞争赛点,在这种架构创新的氛围下,今天高峰论坛里的各方力量贡献着自己的创新观点。 姚顺雨对模型分化的看法,是AI应用正沿着To B与To C两条路径分化。在消费端,ChatGPT类产品对普通用户更像是“搜索引擎增强版”,体验迭代感知不强;而在企业端,“智能即生产力”的逻辑让客户愿为最强模型支付高溢价。“强的模型和弱的模型分化会越来越明显。” “分化是自然的分化,我更愿意相信AGI,做AGI该做的事情,顺其自然。”阿里千问大模型技术负责人林俊旸则从市场差异切入,指出一个被忽略的事实:在中国,Coding消耗量没有那么大,而美国市场则“基本上全都是Coding”。 在最受关注的“中美竞争”议题上,观点出现微妙分野。 姚顺雨展现乐观,认为中国在技术复现和工程优化上优势明显。关键突破点在于算力自主(光刻机)、To B市场成熟度,以及最重要的——“更多有冒险精神的人去引领范式突破”。 提及中美的研究文化之差异时,姚顺雨说,“在中国,大家更喜欢做更安全的事情。只要这件事情一旦被证明能做出来,我们都很有信心,几个月或者一段时间内就把这个问题搞清楚,但如果这个事情大家不知道怎么做、不知道能不能做起来,还是比较困难的。可能不只是更喜欢做确定性的事情、不太愿意做创新性的事情,很重要的一点是文化的积累或者整体的认知。” 他还提及,中国对刷榜或者数字看得更重一点。“DeepSeek比较好的一点,是没有那么关注榜单的数字,可能会更注重,第一,什么是正确的事情;第二,什么是你自己能体验出好或者不好的……还是需要大家能够走出这些榜单的束缚,能够坚持自己觉得是不是正确的过程。” 面对“三五年后,最领先的那个公司,是一家中国公司的概率”的假设,林俊旸则给出20%的谨慎预估。他观察到核心差异,“美国的Computer可能整体比我们大1-2个数量级”,美国将更多算力投入前沿研究,中国算力则被交付需求占据。 “创新是发生在有钱人手里还是穷人手里?我们虽然是一群穷人,是不是穷则生变,创新的机会会不会发生在这里?”林俊旸说。 唐杰则从代际视角提供新解:“90后、00后这一代企业,远远好过之前。”他强调,中国机会在于敢冒险的聪明人、改善的创新环境,以及“笨笨的坚持”。 四位推动中国大模型开源革命的关键人物落座 2015年,姚顺雨以安徽省理科第三的成绩考入清华姚班。2018年,按姚班传统赴麻省理工学院交流,系统性切入AI研究。2019年,他进入普林斯顿大学,将主攻方向从计算机视觉转为更具通用潜力的自然语言处理与强化学习,并最终以智能体研究闻名。在当时,这就是一种“乖学生”的按部就班。 2024年8月,姚顺雨加入OpenAI担任研究科学家,是OpenAI首批智能体产品 Operator 和 Deep Research的核心贡献者,致力于将大模型从理论研究推向实际应用。在《麻省理工科技评论》“35岁以下科技创新35人”入选评语中写着,姚顺雨为语言智能体方向的开启和发展做出了基础性贡献。他提出了 ReAct 方法,首次引入“推理—行动”结合的智能体范式,为创建具备通用性、可扩展性的语言智能体奠定了基础。 2025年也成为了姚顺雨的转折年,凤凰网科技在当年9月获悉,姚顺雨规划回国,并接触了多家大厂。这个转折直到2025年12月才揭晓,姚顺雨正式加入腾讯并出任首席AI科学家,同时兼任新成立的AI Infra部及大语言模型部负责人,全面负责腾讯大模型研发体系。 姚顺雨加入腾讯后的首次公开露面贡献给了这个重要的场合。席间落座的四位核心人物,各自代表了中国大模型开源革命的不同力量,他们的发展路径与决策正影响着全球AI格局。 唐杰作为清华大学计算机系教授与智谱的创始人,其职业生涯完美体现了清华系“学术研究-技术转化”的模式。 其在现场表示,智谱从2019年研究至今,见证了大模型行业的变化,智能水平已大幅提高,从早期简单问答到如今能处理复杂推理、编程乃至真实世界问题。模型通过知识记忆、推理训练、强化学习等阶段演进,但泛化能力仍需提升。“我们认为当前大模型范式已接近上限,下一步需探索新方向,让模型具备更强的自主交互与复杂任务解决能力。” 在智谱AI上市当日,唐杰曾发布内部信,宣布“很快将推出新一代模型GLM-5”,他也明确表示2026年战略将全面回归基础模型研究,似是为探索超越Transformer的全新模型架构做准备。 颇为巧合的是,2025年末,杨植麟曾宣布月之暗面完成了5亿美元C轮融资,公司估值达43亿美元。他在内部信中毫不掩饰雄心:“接下来公司最重要的目标是超越Anthropic等前沿公司成为世界领先的AGI公司。” 对于下一代K3模型,杨植麟透露将融入重大的架构变革。2025年11月,他在Reddit论坛上表示:“KDA(Kimi Delta Attention,一种线性注意力模块)是我们最新的实验性架构,相关想法很可能会在K3中使用。” 这种线性注意力机制有望带来更长的上下文处理能力,对其社交应用和智能体至关重要。 杨植麟也在此次分享上表示,Kimi的预训练策略围绕两个维度:一是提升数据效率,即用更少数据达到相同效果;二是优化长上下文能力,使模型在更长上下文中损失更低,以支持复杂任务。Kimi采用二阶优化器,相比传统一阶优化器,在达到相同效果时可节省约50%的计算量,等价于提升一倍的训练效率。 在强化学习与模型调优方面,Kimi在多项复杂任务上达到或超越国际先进水平,尤其是在代码生成与长序列任务上表现突出。模型能够进行连续多轮工具调用与推理,完成复杂问题求解。 Kimi认为,模型不仅是工具,更是人类认知的延伸,能够提升文明上限。尽管存在风险,但应继续推进技术发展,因为放弃开发意味着放弃人类进步的可能。 林俊旸及其领导的阿里通义千问团队是兵团式作战,他们早在2023年时训练千问大模型时,就曾尝试改很多东西,但最终发现Transformer确实挺好用的。因此,在此后的一年多时间里,团队都在围绕着共识做动作。一直到2025年,千问团队的注意力转向了非共识,寻找新的架构创新。 这些敢于从0-1探索的态度,既来源于DeepSeek的创新启示,也来自于全球化开源战争格局的变化。 就在2天前,DeepSeek一口气将其核心研究论文从原20页大幅扩展至86页,详细披露了R1模型的技术细节与性能提升。证明了不依赖海量标注数据,通过精心设计的纯强化学习(RL) 也能让模型获得顶尖的推理能力。这为行业提供了一套可复现的“算法驱动”新范式。 此外,在2026年开年第一天,DeepSeek发布了梁文锋参与署名的文章,即全新的流形约束超连接(mHC)架构,它旨在解决当前大模型(尤其是采用“超连接”扩展后)训练不稳定、内存开销大的根本问题。 无论是R1的RL训练配方,还是mHC的稳定架构,都让更多研究机构和公司有望在有限算力下探索前沿模型,可能催生更多创新。 DeepSeek将技术细节公开到教科书级别,树立了开源的新标杆。这种极致透明加速了全球范围内的技术验证与迭代,对闭源模型形成了独特的竞争压力。 2025年,是毫无疑问的中国开源模型的胜利年。 公开数据显示,截至2025年8月,阿里通义已开源200余个模型,全球下载量超3亿次,千问系列衍生模型突破10万个,远超 Meta的Llama系列,更一跃成为全球最大的开源模型家族。甚至,彭博社曾爆出,Meta最新AI模型“牛油果”项目正在秘密使用中国阿里巴巴的千问Qwen开源模型进行蒸馏训练。智谱同样打破了海外模型霸榜的局面,首次杀入top10名单。 站在2026年开局新起点,在中国取得的巨大进展之上,新的范式会不会就此碰撞而来?期待新创新的诞生。 以下是针对本次峰会提炼的现场金句: 主持人拾象科技CEO李广密 ● “2025年是中国开源模型大放异彩的一年,是开源四杰在全球大放异彩的一年,而且是Coding过去一年有10-20倍增长的一年。” ● “硅谷几家明显做分化……专注到了企业,专注到了Coding,专注到了Agent。我也在想接下来中国的模型会分化成自己想要的哪些方向?” ● “Agent今天可以在后台推理3-5个小时,做人类1-2天的工作量,大家期待2026年可以做人类正常工作1-2周的工作量……2026年Agent可能是创造经济价值的关键一年。” 姚顺雨 ● “Coding夸张一点来讲,已经在重塑整个计算机行业做事的方式,人已经不再写代码,而是用英语和电脑去交流。” ● “对于TO B来说,很明显的一点是,智能越高,代表生产力越高,值钱的也越来越多。” ● “很多人愿意花溢价用最好的模型……强模型和稍微差点,或者弱的模型它的分化会越来越明显。” ● “对于To B来说,这个趋势似乎是相反的,模型在变的越来越强、越来越好,但同样会有很多应用层的东西应用好的模型在不同的生产力环节。” ● “这个事情想要变好,不是说你需要更大的模型、更强的预训练、更强的强化学习、更强的Agent环境或者更强的搜索引擎,这个问题可能需要更多额外的输入,把额外的输入用好,反而会给用户带来很多额外的价值。” ● “这个事情已经在发生了,可能效率或者受限制的限制,有各种各样的问题,它更像是一个渐变,不是突变。” ● “很多人说2026年看到(自主学习的)信号,我觉得2025年就看到信号了。” ● “如果2026年或者2027年我们有一个范式的发生……我们应该用什么样的任务,它应该是什么样的效果,你会相信它实现了?我觉得可能需要先想象到它长什么样。” ● “目前看起来,任何一个事情一旦被发现,在中国就能够很快的复现,在很多局部做的更好。” ● “中国想要突破新的范式或者做非常冒险事情的人可能还不够多……我们到底能不能引领新的范式,这可能是今天中国唯一要解决的问题。” 林俊旸 ● “公司也不一定有那么多基因之分,一代一代的人可能就塑造了这些公司。比如说今天顺雨到腾讯之后,可能腾讯变成一个有着顺雨基因的公司。” ● “我更愿意相信AGI,做AGI该做的事情,顺其自然。” ● “今天AI更大的魅力是在长尾……今天所谓的AGI就在解这个问题,你做通用Agent,能不能把长尾的问题给解决,全世界任何一个角落,寻遍各处都找不到,但是你却能帮我解决,这就是AI最大的魅力。” ● “大量的技术所谓的突破性都是一些观测问题,都是在线性发展的,只是人类对它的感受非常强烈而已。” ● “我们的模型为人类社会带来了什么样的价值,只要我相信我这个东西能够为人类社会带来充分的价值,能够帮助人类,就算不是最强的,我也愿意接受。” ● “我非常担心安全的问题,不是担心它今天讲一些不该说的话,最担心的是它做一些不该做的事情……就像培养小孩一样,我们要给它注入一些正确的方向。” 杨强 ● “工业界可能还没来得及解决的一些问题,智能上界在哪里。” ● “哥德尔不完备定理,大概意思是说一个大模型不能自证清白,必定有一些幻觉不可能消灭掉……多少资源能够换取多少幻觉的降低或者错误率的降低,这是有一个平衡点的。” ● “Agent应该是由大模型内生的一个native的系统。” ● “我们可以回顾一下互联网的发展,一开始也是从美国开始,但中国很快就赶上了,而且应用像微信,是世界第一的。” 唐杰 ● “这一仗从DeepSeek出来之后,已经没有了,已经结束了。DeepSeek之后我们应该想的是下一仗是什么东西?” ● “我们对今年会有非常大的范式革新有信心。” ● “之前,工业界有1万片,学校是0片或者1片,倍数是1万次,但是到现在,很多学校已经有很多卡了。” ● “最笨的办法就是Scaling,Scaling我们会有收益,Scaling肯定会带来智能上界的提升。第二个办法是应该定义Intelligence efficiency,也就是智能的效率,我们获得智能的效率,我们用多少投入能获得这个智能的增量。” ● “大模型到现在更多的是在拼速度、拼时间,也许我们代码正确了,就会在这方面走的更远一点,但也许失败,半年就没了。” ● “我们这一代最不幸运……世界已经交给下一代了,已经把我们这一代无缝跳过了。” ● “如果我们笨笨地坚持,也许走到最后的就是我们。”
中国在2000米高空架起移动充电宝!央视报道“会飞的发电站”
快科技1月10日消息,我国在兆瓦级浮空风力发电领域已实现全球领先突破。 去年9月,“全球首台兆瓦级商用浮空风电系统S1500”已在新疆哈密淖毛湖基地成功试飞;本月,“全球首台城市场景兆瓦级浮空风电系统S2000”在四川宜宾成功试飞,这标志着高空风能商业化应用进入新阶段。 据了解,浮空风力发电系统是一种冲氦浮空器携带轻质发电系统升至高空捕获风能,通过系留电缆传输电能至地面的新型发电技术。 其外形酷似巨型飞艇,尺寸达长60米、宽40米、高40米,采用氦气填充的主气囊与环翼构成的涵道结构。 S1500整机重量约50吨,通过三根高强度系留缆绳固定于地面,可在1500米高空稳定运行。 主气囊提供基础浮力,环翼通过气动效应加速气流,形成巨型风力加速器,使风能利用率比传统风机提升超20%。 搭载12组100千瓦轻量化发电机组,总设计功率1兆瓦,年等效满发小时数超过4000小时,是陆上风电的2-3倍。 通过系留缆绳内集成的高压电缆,将电力以66千伏电压稳定输送至地面,传输损耗控制在5%以内。 缆绳同时承担数据传输和结构支撑功能,采用碳纤维复合材质,抗拉强度达3000兆帕,可抵御12级台风。 相比传统陆上风机,S1500无需建造百米级塔筒和混凝土基础,材料用量减少40%,度电成本下降30%,建设成本约为陆上风机的60%(1兆瓦装机容量),且维护成本更低。 而且该系统还采用模块化设计,可在24小时内完成拆解和转场运输,可适用于多种场景。 而此次试飞成功的S2000型更为先进,可升至2000米高空,发电总功率升级为3兆瓦,并优化气动外形与发电系统,噪音低于60分贝,符合城市环境标准,且采用新型复合材料,在保持结构强度的同时降低重量,提升升阻比。
编程表现超越Claude和GPT?DeepSeek准备第二次震惊全世界
去年7月,由于DeepSeek下载量从高峰期的8000多万暴跌至2000多万,下滑72.2%,“DeepSeek跌落神坛”就成为了当时互联网最热门的话题。 但据多位知情人士透露,DeepSeek即将重登王座。他们计划在二月中旬发布新一代模型DeepSeek-V4。 也就是农历2026年新年期间,距离上一代模型DeepSeek-R1的发布正好一年。 这次发布的重点是代码生成和处理能力。 根据DeepSeek内部的基准测试,V4在编程任务上的表现超过了目前市场上的主流竞品,包括Anthropic的Claude和OpenAI的GPT系列。 根据报道,在即将发布的新模型中,DeepSeek团队解决了许多长期困扰AI发展的技术难题。很可能会彻底改变Vibe Coding产业。 01 报道中提到一件事,“DeepSeek-V4模型在整个训练过程中理解数据模式的能力也有所改进,且性能未出现衰减。” 这句话有些难以理解,我们不妨拆开来解读。 首先是前半句,它指的是模型不再只是死记硬背数据,而是能看透数据背后的规律和逻辑。 DeepSeek-R1有个具代表性的例子,就是让模型数strawberry里有几个r。 由于当时的DeepSeek模型并不能理解“数”(count)这个概念,只能根据训练时的数据来输出答案。可这个数据恰好又是错的,所以无论DeepSeek怎么思考,它给出的答案大多数情况都是2,而不是正确的3。 而DeepSeek-V4则会彻底杜绝这个情况,前提是在训练过程中,让模型彻底理解某一件事情。 后半句的性能退化,指的是在AI训练中,随着模型不断学习新东西或训练时间加长,往往会出现“学了新的忘了旧的”或者模型变得不稳定的情况。 这种现象在业内被称为“灾难性遗忘”(Catastrophic Forgetting)或“模型坍塌”(Model Collapse)。 因此,V4在不断变聪明、变复杂的过程中,依然保持了极高的稳定性和原有能力的完整性,没有出现任何“副作用”或能力倒退。 这恰恰是构建编程Agent的前置条件。 在现代软件工程中,一个微小的修改可能波及数个文件、数千行代码的依赖关系。 但是以往的模型往往受限于上下文窗口或注意力机制的衰减,从而没办法对于庞大的项目进行修改。 V4极有可能是一个为“Agent时代”量身定制的模型。 一年前,DeepSeek-R1 的发布确实在行业内引起了不小的波动。那款主打推理能力的模型证明了低成本研发路径的可行性。 然而一年后的今天,人工智能行业的关注焦点已经发生了显著转移。单纯的文本生成或逻辑推理已不再是唯一的竞争高地,代码生成正在演变为大模型能力的“试金石”。 在当前的开发环境中,“Vibe Coding”成为新趋势,要求AI不仅能补全代码,更能理解开发者的意图流(Flow),实现从自然语言到复杂工程逻辑的无缝转化。 DeepSeek似乎已经准备好在新赛道上狂飙了。 02 如果深入梳理DeepSeek团队以及核心人物梁文锋在R1发布之后这一年里的学术轨迹,我们会发现一条清晰且扎实的技术演进路线。 这些公开发表的论文与技术报告,不仅是对过去成果的总结,更是V4强大能力的注脚与预演。 2025年9月,DeepSeek-R1的相关论文成功登上了顶级学术期刊《Nature》的封面,梁文锋署名通讯作者。 面对审稿人关于是否使用了OpenAI模型输出进行蒸馏训练的尖锐质疑,DeepSeek团队在回应中给出了明确的否认,并首次公开了令人咋舌的低成本数据:从V3-Base训练到R1,仅花费了29.4万美元。 当然,这个成本仅指R1的后训练阶段成本,不包含V3-Base基础模型本身约600万美元的训练投入。 数据公开后,以及《Nature》为此专门撰写的社论,标志着DeepSeek在学术严谨性和技术原创性上获得了国际最高认可,彻底洗刷了外界对于中国大模型“套壳”或“跟随”的刻板印象。 不过,真正能佐证DeepSeek-V4在代码方面有大幅突破的证据,是2025年最后一天,DeepSeek团队发表的论文《mHC:流形约束超连接》。 代码生成任务对模型的逻辑深度和上下文跨度有着极高的要求,这通常需要更大规模的模型参数和更深的网络结构。 然而,传统的超连接(Hyper-Connections)架构在模型规模扩大时,会面临严重的信号增益问题,最终导致训练过程极不稳定甚至崩溃。 为了解决这一阻碍模型扩容的根本性物理难题,DeepSeek团队在这篇论文中提出了一种全新的架构mHC。 简单来说,它给狂奔的信号加了一道精密的阀门,将信号增益严格控制在1.6倍左右。 论文数据显示,在3B、9B乃至18B参数规模的模型测试中,应用了mHC架构的模型在BIG-BenchHard推理基准上提升了2.1%。 这项由梁文锋联合署名的研究成果,实际上解决了大模型在“做大”和“做复杂”过程中的稳定性难题。 这意味着V4模型极有可能采用了这种全新的架构,从而在拥有更庞大参数量和更深层推理能力的同时,依然保持了高效的训练效率和极高的稳定性。 不仅如此,在2026年1月初,DeepSeek悄无声息地将arXiV上的R1论文从原本的22页大幅扩充至86页。 这多出来的60多页内容,详尽地披露了R1的完整训练管线,包括冷启动、推理导向的强化学习(RL)、拒绝采样与再微调、以及对齐导向的强化学习这四个关键步骤。 业界普遍推测,这种在春节前夕“清库存”式的技术披露,往往预示着下一代更强大的技术已经成熟。 既然R1的技术细节已经不再是核心壁垒,那么即将到来的V4必然拥有了更高维度的护城河。 03 就在2026年的元旦,另一股来自量化界的力量也加入了战局。 由九坤投资创始团队发起成立的至知创新研究院(IQuestResearch),发布了名为IQuest-Coder-V1的开源代码大模型。我们曾在文章《又是量化基金,第二个DeepSeek时刻到来了?》中对其进行了报道。 这支同样出身于量化背景的团队,他们仅有40B参数的模型,在SWE-benchVerified测试中斩获了81.4%的高分,一举达到了Claude和ChatGPT的水平。 而在Vibe Coding的战场上,国内互联网大厂的动作同样不容小觑。 字节跳动的豆包在2025年初就推出了Trae编程工具,并在AI编程功能上实现了HTML预览、Python运行和完整项目生成等能力,让开发者可以在一个界面内完成从构思到部署的全流程。 阿里的通义千问则在12月26日更新到了Qwen Code v0.5.0版本。 此次更新的最大亮点就是支持在终端窗口中同时运行四个Qwen Code实例,可并行处理智能问答、实时翻译、原型设计、创意绘图等不同任务,实现了AI编程“跳出命令行”的突破。 不过,真正引发行业震动的,是豆包在硬件终端上的突破性尝试。 2025年12月1日,字节跳动与中兴通讯合作推出了搭载豆包手机助手的努比亚M153工程样机,售价3499元,首批约3万台在当天迅速售罄,甚至在二手市场炒出了高价。 这款手机助手的核心能力在于跨应用操作。用户只需用自然语言下达指令,AI就能自动跳转多个应用完成点外卖、订机票、比价购物等复杂任务。 这一系列动作背后,折射出的是AI大模型从云端走向终端、从工具走向入口的战略转型。 说不定DeepSeek手机也不远了。 与此同时,资本市场也迎来了大模型行业的收获季。 曾经历过“百模大战”喧嚣的中国AI行业,正在加速向头部收敛。智谱AI和MiniMax这两家公司均已成功上市。 智谱是1月8日在港交所敲的钟,发行价定在116.2港元/股,上市第一天就给了市场一个惊喜 —— 开盘120港元,收盘131.5港元,第一天就涨了13.17%,市值一下子冲到578.9亿港元,成了 “全球大模型第一股”。 第二天开盘直接137.2港元起,收盘158.6港元,较首日收盘价又涨了20.6%,市值也跟着涨到698.21亿港元,两天下来从发行价算已经涨了快37%,完全没给空头机会。 MiniMax比智谱晚一天,但风头更劲。发行价165港元/股,而且是顶格定价,上市前一天的暗盘就已经涨了25%-29%,报205.60-212.60港元。 上市当天开盘235.4港元,涨了42.7%,之后一路飙升,盘中最高到351.8港元,最终收盘345港元,较发行价暴涨 109.09%,市值来到1054亿港元,成了千亿市值俱乐部新成员。 虽然高额的研发投入使得两家公司目前仍处于亏损状态,但强劲的增长曲线证明了市场对于高质量AI模型的付费意愿正在形成。 中国AI方兴未艾,但当全球目光已经再次聚焦到DeepSeek身上。一年前那个用低成本路径颠覆行业认知的团队,即将在春节期间交出新的答卷。 DeepSeek能否第二次“震惊全世界”,只要再等几天就会知晓。
雷军:会坚持辟谣,让更多人了解小米
IT之家 1 月 11 日消息,2026 年伊始,小米公司创始人、董事长兼 CEO 雷军在直播中对“1300 公里只充一次电”和“200 公里瞬间刹停”等话题进行了辟谣,引发了舆论的显著反转。随着雷军的澄清,公众开始重新审视这些争议话题。 博主 @苏黎世贝勒爷 在社交媒体上分享了自己的观点,他认为小米舆论的反转并非偶然。他指出,在舆论环境较为复杂时,许多人选择保持沉默,而如今随着“潮水退去”,真实的声音开始爆发。 IT之家注意到,在该博主晒出的截图中,评论区的网友们纷纷对“200 公里瞬间刹停”的表述进行了正向解读。有网友并表示:“央视视新闻一样用‘瞬间’来表达速度非常快的意思,也没人会无聊到去质问这瞬间究竟是多久,能不能用瞬间形容,非拿这个表达主观感受的常见用词说事的人,只能说是故意针对小米挑刺找茬了。” “水军抠字眼,他们咋不找淘宝闪购,京东秒送呢?”“形容词也要上纲上线,实在是没办法了”还有网友说道。 对此,雷军表示:“造谣一张嘴,辟谣跑断腿,我们还会坚持辟谣,让更多人了解小米,希望大家理解!” 此前,小米公关总经理徐洁云曾解释称,小米拍摄相关视频的初衷是为了展示小米 SU7 Ultra 的碳陶刹车盘的出色性能,而“200km/h 瞬间刹停”只是雷军在亲自测试后的个人感慨。这种表述在日常生活中十分常见,例如人们会说“看剧一口气看十几集”,而不会有人刻意去质疑其合理性。
美媒炮轰苹果谷歌CEO是“懦夫”:害怕马斯克不敢下架X
库克、皮查伊与马斯克 凤凰网科技讯 北京时间1月11日,美国科技网站TheVerge记者伊丽莎白·洛帕托(Elizabeth Lopatto)周六发文,抨击苹果CEO蒂姆·库克(Tim Cook)、谷歌CEO桑达尔·皮查伊(Sundar Pichai)是“懦夫”。文章称,社交媒体X上的深度伪造色情功能明显违反了苹果、谷歌应用商店指导方针,但是库克和皮查伊却因为害怕埃隆·马斯克(Elon Musk)不敢将X下架。 以下是文章主要内容: 自从X用户开始利用Grok技术,通过深度伪造图像对女性及儿童进行“脱衣”以来,我一直在等待一个自认为必然会发生的结果:X被苹果和谷歌的应用商店下架。但此事至今仍未发生,这让我对硅谷领袖们有了深刻的认识:库克和皮查伊都是没有脊梁的懦夫,他们害怕马斯克。 苹果App Store开发者指导方针中的相关条款规定:“App不应包含具有冒犯性、麻木不仁、令人不适、意图引起厌恶、品味极其低劣,或者纯粹令人毛骨悚然的内容。”呵呵,这可真够讽刺的。 谷歌应用商店也有类似的规定,其立场更为明确:“对于未禁止用户制作、上传或传播助长剥削或虐待儿童内容的应用程序,谷歌将立即从Google Play下架该应用。此规定涵盖所有儿童性虐待材料。” 然而,如果苹果、谷歌因X公然违反政策而将其从应用商店下架,这意味着他们将触怒马斯克及其通过X掌控的整个右翼媒体生态,进而直接得罪当前掌控美国的、追逐流量的“内容吸血鬼”们。库克领导的苹果对中国市场存在巨大依赖,而智能手机、计算机和芯片目前仍享受对华关税豁免。库克可以向特朗普呈上无数黄金厚礼,但这些关税政策随时可能生变。 谷歌的皮查伊同样软弱。特朗普曾多次因其在搜索结果中的排序问题威胁谷歌,而迄今为止YouTube的内容审核政策大多能避开严格审查,正是因为皮查伊乐于用“您的一切行动都是谷歌搜索史上最大事件”这类奉承诺言讨好特朗普。在AI政策仍存深刻争议的当下,谷歌同样不敢冒险得罪特朗普。如果再让一个不高兴的马斯克去影响相关政策,那简直就是一场腐败噩梦。 这就是他们为自己设下的陷阱:为权力出卖原则后,如今他们连自己的公司都无法掌控。欢迎来到黑帮式科技监管时代! 不到五年前,我曾全程旁听那场冗长的Epic诉苹果反垄断案。真正懂行的人都会记得,苹果的律师曾强烈暗示,赤身裸体的Peely香蕉人形象( 《堡垒之夜》中的角色)在法庭上属于不当内容。在此前一周的庭审中,苹果还声称用户可通过Epic安装的独立游戏商店存在风险,理由是平台上含有色情游戏,并指责Itch.io上的游戏“具有冒犯性和性化内容”。 你们知道什么是“具有冒犯性和性化”吗,你们这些不中用的懦夫?是那些未经同意生成的AI图片:穿着比基尼张开双腿的女性,以及面部被AI加上某种性化涂抹物的儿童。顺带一提,这些图片正以每分钟一张的速度被生成。我同样会称其为“具有冒犯性、麻木不仁、令人不安、意图引起厌恶、品味极度低劣”,尤其是“纯粹令人毛骨悚然”!你们是否需要背托才能站直?因为在我看来,你们早就脊梁骨全无了。 还有人记得当年轻博客Tumblr因涉及儿童色情图像被应用商店下架的事吗?我猜真正的问题不是它违反了App Store政策,而是Tumblr不是马斯克的。 这真让我难以置信。我竟然在现实生活中耗费数小时旁听一场法庭案件,而苹果在本案的核心论点竟是:需要完全掌控其应用商店以保护用户。苹果坚称,公司对App Store的垄断控制对用户可安装内容至关重要,只有这样,它才能打造一个“围墙花园”,保护儿童免受不安全内容的侵害。 谷歌应用商店Google Play有没有同样的问题?当然有,而且它也提出了和苹果完全一样的论点,即便Android允许侧载应用。但它仍然没有执行规则,也没有将X推向其他应用商店。为什么?嘿,谷歌,给我看看皮查伊在特朗普就职典礼上和马斯克偷笑的照片吧! 这件事唯一值得安慰的是,Meta CEO马克·扎克伯格(Mark Zuckerberg)现在一定气得七窍生烟。还记得当年苹果因为Meta收集过多数据而吊销其企业证书的事吗?啊,那可真是段“美好”的回忆。现在看来,在法庭上公然作伪证的苹果证人,恐怕不止亚历克斯·罗曼(Alex Roman)一个。 我再也不想听这些家伙满口仁义道德了。下次库克再说“隐私是基本人权”时,唯一的回应就是当面嘲笑他。苹果和谷歌居然心安理得地分发着一个能生成“深度伪造脱衣图像”的App,而受害者雷妮·妮可·古德(Renee Nicole Good)正是那位在明尼阿波利斯被美国移民及海关执法局(ICE)枪杀的母亲。你们一边下架那些抗议ICE的App(比如ICEBlock),一边却允许X肆意生成对这位被ICE杀害女性的侮辱性图像,这到底要怎么自圆其说? 难道除了“股东利益最大化”之外,苹果和谷歌已经找不出其他价值观了吗?你们这场荒唐的戏码,到底打算演到什么地步?(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
马斯克放言:AGI今年将实现 20年内所有商品服务都将接近免费
快科技1月11日消息,据媒体报道,在近期的一次访谈中,马斯克再次对人工智能的发展做出大胆预测,认为通用人工智能(AGI)或将在2026年实现,而到2030年,人工智能的能力将超过全人类智能的总和。 这一判断相较于多数主流机构预测的“2030年后”明显更为激进。马斯克解释称,当前AI正呈现“超音速海啸”般的指数级加速。 他透露,旗下模型Grok?5计划于今年第一季度发布,目前已具备分析照片中电路图错误的能力。他表示:“当前的AI在算法层面仍有巨大的优化空间,我认为在同等硬件条件下,智力密度还能再提升10到100倍。” 马斯克进一步指出,未来20年,底层经济逻辑将发生根本性变化,能源可能取代传统货币成为主要价值衡量标准。随着AI与机器人的普及,商品与服务的生产成本将趋近于零,产能增速有望超过货币供应增速,从而导致价格普遍下降。 马斯克表示:“届时所有东西都会变得极其便宜,人人都能轻松获得所需的商品与服务。” 但马斯克同时警告,这一转变过程并不会一帆风顺。未来几年经济社会将经历一段“颠簸”期,人类将同时面对激进的技术变革、社会动荡与前所未有的繁荣,而这将是迈向新时代不可避免的过渡阶段。
硅谷大空头杀回来了!做空甲骨文,英伟达万亿AI泡沫要崩?
新智元报道 编辑:Aeneas 好困 【新智元导读】预测到次贷危机的「大空头」Michael Burry看到数万亿美元涌入AI基础设施,产生深深的怀疑。他预言:英伟达的优势并不持久,可能很快就会被对手战胜。而且,如今全球AI算力已经达到1500万H100 GPU当量,即将引爆严重能源危机! 最近,一场硅谷激辩刷屏全网。 参与者各个都是实打实的大佬,包括著名「大空头」Michael Burry、Anthropic联创Jack Clark,以及资深观察者Dwarkesh Patel。 Michael Burry,这位曾在2008年精准预测次贷危机的传奇人物,如今正在AI时代的狂欢中,寻找下一个崩盘的裂缝。 这场对话,深刻揭露出当前AI行业面临的万亿级矛盾——尽管Claude Code和Gemini的技术能力突飞猛进,但资本支出与实际收入之间,存在着巨大的鸿沟! 与此同时,Epoch AI最新发布的报告,也揭露了全球算力底牌。 数据显示,全球AI算力总容量已达到1500万个H100 GPU当量! 报告还发现,算力背后存在着严重的能源危机。 仅芯片的运作功耗,就高达10GW,相当于两个纽约市的平均用电量。在这种能耗下,AI未来的发展,还可持续吗? 同时,与这些预测很应景的另一篇新闻,就是大空头最近还公开做空了甲骨文。 他犀利指出:目前甲骨文为了追赶AI而激进扩张业务,导致债务规模已经飙升到了惊人的950亿美元! 相比于Meta谷歌和微软这类拥有「核心科技业务」的巨头,他更倾向于精准打击那些基本面脆弱且估值虚高的「AI泡沫」。 甚至他直言:若是有一天OpenAI估值达到5000亿,他也会毫不犹豫地做空! 硅谷激辩 最近,这篇多位重量级思想者的对谈引发了热议。 当所有人都在追逐次贷危机时,Michael Burry就预言了这场危机。 如今,他眼看着数万亿美元涌入人工智能基础设施,却对此持深深的怀疑态度。 最终,我们需要回答这样一个问题:人工智能真的会带来变革吗?还是我们正在目睹一场历史性的资本错配? Michael Burry表示,如今LLM的根本问题,就是成本太高了。因此很难让人理解它们的盈利模型,也就很难判断任何一种模型的竞争优势在哪里。 或许,谷歌最终会成为运营成本最低的公司,并在这种商品经济格局中胜出。 Patel对此表示同意。在他看来,过去一年来的大部分收益都是推理规模扩张的结果,而这需要可变成本呈指数级增长,才能维持。 钱都花到哪里去了? 从资本周期角度,目前我们处于AI发展历程的哪个阶段? Burry认为,这次的经济繁荣跟以往的不同,最大的区别就在于,资本支出的持续时间极短。 芯片每年都在更新换代;如今的数据中心无法处理几年后的芯片。很多支出,可能两三年内就会折旧完毕。 另一个显著区别在于,私募信贷对这波繁荣的融资作用与公开资本市场不相上下,甚至更大。 要知道,私募信贷情况不明,但其期限错配却尤为突出——很多资产的证券化期限长达二十年,但超大规模企业却每四五年就得退出一次。 这简直是自找麻烦,最终只会导致资产搁浅! 在最近的采访中纳德拉表示,他之所以搁置一些项目、放慢速度,就是因为不想让一代芯片的贬值影响四五年的发展。 显然,我们正处于周期的中期——股票不再会因为进一步扩张而奖励投资者,而真实成本和收入不足开始显现。 英伟达的优势,并不持久! 接着,Michael Burry抛出了令人震惊的观点。 他举例说,沃伦·巴菲特在20世纪60年代末拥有一家百货公司。街对面的百货公司安装自动扶梯时,他也不得不安装。最终,双方都没有从这项昂贵的项目中获益。 在他看来,大多数AI应用,也会面临类似的终局。 所以,他认为市场对AI领域的两大标杆企业——英伟达和Palantir的看法都大错特错了! 这两家公司很幸运,因为开始时,它们并没有设计过AI产品,如今却被广泛应用。 但英伟达的优势,并不持久。 对于大多数AI应用场景而言,SLM和ASIC才是未来发展的方向。如有必要,它们将向下兼容 CUDA。 可以说,英伟达目前的方案耗电量巨大且效率低下,只是暂时守住了阵地。最终,竞争对手会推出完全不同的方案,并战胜英伟达。 Burry还对Panlantir CEO进行了反击:因为我猜有人押注十亿美元做空他的公司,他就把我比作不良分子。这说明,这位CEO缺乏自信,他的公司终究会走向衰落。 Burry判断:如果最终证明(1)人工智能产业链上的任何一方都无法获得巨额利润,并且(2)人工智能仍然至关重要,那么,价值就会流向客户。 就好像自动扶梯大战中,唯一获利的就是顾客。 所以,未来有两种情况—— 要么英伟达的芯片寿命为五到六年,因此人们对它们的需求减少;要么它们的寿命为两到三年,超大规模数据中心运营商的收益将大幅下降,私人信贷将遭到破坏。 大公司应该建小型核反应堆 在对谈最后,Burry表示—— 如果我能影响到高层决策者,我会要求他们拿出万亿美元(毕竟现在万亿美元挥霍起来就跟几百万一样),绕过所有抗议和监管,在美国各地建设小型核反应堆,而且要打造一个全新的先进电网。 而且,还需要最新的物理和网络安全技术让设施免受攻击;甚至还要组建一支联邦政府资助的专门核防御部队,负责保护每个核设施。 在他看来,这是美国能与某个强大国家抗衡的唯一希望,也是他们能发展到足以偿还债务那天的唯一可能。 大空头杀回 疯狂做空甲骨文,下一个瞄准OpenAI 而且就在不久前,Michael Burry还将枪口对准了老牌科技巨头——甲骨文。 甲骨文,这家昔日的数据库王者,为了在云计算的牌桌上抢占一席之地,近年来不惜斥巨资疯狂建设数据中心。 然而,这种激进的转型策略也让公司背上了沉重的债务包袱。 对此,Burry既不买账甲骨文目前的市场定位,更看衰其正在进行的巨额投资。 在他看来,甲骨文这波令人费解的操作背后,恐怕纯粹是管理层的「自负」在作祟—— 因为从基本面看,它根本没必要搞这些高风险的大动作。 Burry发表此番言论时,甲骨文的股价刚经历了一场过山车式的震荡。 去年9月,借着AI需求激增的东风,甲骨文曾发布了一份极其乐观的云业务预测,刺激股价单日暴涨36%。 但好景不长,市场迅速嗅到了危机的气息—— 飙升的资本支出、云交易结构的隐患,以及因扩张数据中心而急剧膨胀的债务,让投资者信心崩塌。 相比9月份的峰值,甲骨文去年的收盘价已回撤约40%。 更令人担忧的是,目前甲骨文背负着高达约950亿美元的未偿债务。 在彭博高评级指数中,除去金融机构,甲骨文已然成为最大的企业债务发行人。 精准狙击「泡沫之王」 值得注意的是,Burry对做空对象的选择有着一套严密的逻辑闭环。 他明确表示,自己会避开那些业务版图远超AI范畴的「全能型」科技巨头,比如Meta、Alphabet(谷歌母公司)和微软。 做空Meta,意味着你在赌社交媒体和广告帝国的崩塌; 做空Alphabet,你是在对抗谷歌搜索、安卓生态和Waymo自动驾驶构筑的护城河; 做空微软,你更是在挑战全球办公SaaS领域的绝对霸主。 在Burry看来,这三家巨头拥有强大的自我调节能力—— 它们可以灵活收紧开支,在内部消化产能过剩,甚至进行资产减记,同时依然靠核心业务维持统治地位。 简而言之,这三座大山是不会轻易倒下的。 排除掉那些「硬骨头」,Burry对所谓的「AI泡沫」态度依然鲜明且犀利。 他甚至放出狠话:如果OpenAI的估值真能达到5000亿美元,他绝对会毫不犹豫地做空它。 而在当下,Burry将英伟达形容为表达对AI交易看跌观点的「最纯粹」标的。 作为当前最受追捧、几乎没有任何质疑声音的公司,英伟达是AI狂热的最佳代名词。 正因为所有人都看多,做空它的逻辑才最为纯粹。 而且,相比其他争议较大的对象,英伟达的看跌期权价格反而显得更为「便宜」。 奇点前夜 奥特曼的预言,「自我进化」的狂想 当Michael Burry在计算债务和市盈率时,硅谷的顶层玩家们正在谈论一件更为玄幻的事情——「起飞」。 2025年6月10日,OpenAI掌门人Sam Altman发布了一篇震动业界的博文「温和的奇点」(The Gentle Singularity)。 他在文中留下了一句令人脊背发凉的判词—— 我们已经跨越了事件视界;起飞已经开始了。 对此,科技博主prinz在其深度分析文章「The Gentle Singularity; The Fast Takeoff」中指出,奥特曼口中的「跨越事件视界」,实则指向了一个具体的战略转折点。 Codex才是开启进化的钥匙 早在2025年3月,Anthropic发布了Claude Code,紧接着在5月16日,OpenAI祭出了反击武器——智能体编码工具 Codex。 虽然当时外界的目光都被o3模型和开源猜测吸引,但Codex才是OpenAI通往终极目标的真正钥匙。 博客地址:https://www.prinzai.com/p/the-gentle-singularity-the-fast-takeoff OpenAI内部将这一战略称为「递归自我改进(RSI)」。 其核心逻辑是:利用AI编写代码,改进AI自身,从而创造出更强的AI,形成指数级的智力飞跃。 根据泄露的路线图,OpenAI的野心极为精确: 2026年9月: 开发出自动化AI研究「实习生」; 2028年3月: 打造出完全自动化的AI研究员。 这意味着,奥特曼预言的那个在数十万个GPU上日夜不休工作的「实习生」,距离我们已不足一年。 赢家通吃,鸿沟无法逾越 如此一来,也就解释了为什么科技巨头们不惜一切代价也要进行疯狂的资本开支。 Anthropic的内部调查显示,其Opus 4.5模型已被部分员工视为「近乎完整的入门级研究员替代品」。 Jack Clark更是直言,他最担心的是各家实验室能否成功造出「能造AI的AI」。 而这,很可能会是一场零和博弈。 如果OpenAI或Anthropic真的实现了AI研究的完全自动化,「复利效应」将导致一条无法逾越的鸿沟出现。 领先的模型将以人类无法理解的速度自我进化,而落后者——即便拥有顶尖的人类科学家团队——也永远无法追赶。 算力真相 通往天堂的燃料,还是地狱的泡沫? 如今,Michael Burry看到的「泡沫」与Sam Altman许诺的「未来」,在产业数据层面交汇成了一种令人窒息的疯狂—— AI算力的增长,每7个月就能翻一番! 对此,顶级研究机构Epoch AI追踪了全球各大主流芯片设计厂商每个季度的AI加速芯片产量,揭示了这场军备竞赛的底牌。 1500万H100当量的洪流 数据告诉我们: 从2022年开始,全球AI总算力每年都在以约3.3倍的速度狂飙。 正是这种指数级的增长,硬生生地把更大规模模型的开发和应用推向了现实。 截至目前,全球AI总算力已经突破了惊人的1500万片H100当量。 B300登基,H100退位 在这场算力军备竞赛中,英伟达的迭代速度令人咋舌。 数据显示,老黄的B300 GPU已经杀出重围,占据了其AI芯片营收的大头。 相比之下,昔日的王者H100市场占比已大幅萎缩至不足10%。 此外,Epoch AI综合了财报、公司公告以及各路分析师和媒体的报道,估算出了芯片层面真金白银的流向。 结果显示,在这场烧钱游戏中,目前新增的AI算力中,有超过60%依然姓「黄」。 不过,市场并非铁板一块。 谷歌和亚马逊正凭借自家的TPU和Trainium芯片,在剩余的市场份额中通过自研杀出了一条血路,试图在英伟达的统治下撕开一道缺口。 缺电的「热壳」,闲置的GPU 然而,这路狂飙的算力大军,正面临一个物理世界的尴尬现实——插座不够用了。 微软CEO纳德拉最近在采访中直言,微软已经没有足够的电力来喂饱所有的GPU了。 在纳德拉看来,目前的核心瓶颈不在于缺少芯片供应,而是缺少「热壳」—— 即那些靠近大型电力线路、基础设施完备的已完工数据中心。 这导致了一个致命的「时间差错配」—— 电力输送和建设,往往需要长达数年的周期;而GPU的供应量,却是按季度在指数级递增。 如果不解决这个问题,最终的结果就是一堆昂贵的芯片只能闲置在仓库里积灰。 在等待建筑物、变电站和输电线路准备就绪的漫长窗口期内,这些耗资巨大的GPU资产将面临严重的闲置与贬值。 金融、物理、奇点 一场极限博弈 这就是当下的科技世界。 Michael Burry站在地面上,指着摇摇欲坠的资产负债表,豪赌债务高塔的崩塌; 奥特曼则坐在火箭上,试图试图用「递归进化」的加速度冲出地心引力,到达那个名为「奇点」的彼岸。 而「电力缺口」却像是一道无形的墙,横亘在梦想与现实之间。 究竟是「奇点」先至,还是「电闸」先拉,亦或是「泡沫」先破? 甲骨文的股价,或许就是这场对决的第一个注脚。
消息称OpenAI要求外包人员上传真实工作成果,律师警告称风险极高
IT之家 1 月 11 日消息,据 Wired 报道,OpenAI 正要求外包人员上传过往工作中的真实成果。 据报道,OpenAI 正联合训练数据公司 Handshake AI,要求第三方外包人员上传其在过往及当前工作中完成的真实工作内容。 据IT之家了解,此举似乎是人工智能行业内企业的一项共性战略布局,各大公司纷纷聘请外包人员生成高质量训练数据,以期最终实现旗下模型对更多白领工作的自动化处理。 具体到 OpenAI 方面,报道称该公司的一份演示文稿要求外包人员描述自己在其他工作中执行过的任务,并上传“实际完成的真实职场工作成果”案例。这些案例需为“具体产出物(非文件摘要,而是文件本身),例如 Word 文档、PDF、演示文稿、Excel 表格、图片、代码仓库”。 报道指出,OpenAI 要求外包人员在上传前删除其中的专有信息及个人身份信息,并向他们推荐了一款名为 ChatGPT “超级清洗工具(Superstar Scrubbing)”的应用来完成此项操作。 尽管如此,知识产权律师埃文・布朗在接受采访时表示,任何采用这种数据收集方式的人工智能实验室都“正将自身置于极高风险之中”,因为这种模式“高度依赖外包人员自行判断信息是否属于机密”。 OpenAI 发言人对此事拒绝置评。
CES最值得关注的技术变量:TCL SQD-Mini LED如何改写全球大尺寸显示格局?
摘要: 这场由一块屏幕掀起的浪潮,或许才刚刚开始。 凤凰网科技 出品 CES,这场被誉为“全球科技春晚”的盛会,今年再次成为各大厂商秀肌肉的主战场。而在熙攘的展馆中,TCL以本届CES中国品牌中最大的参展面积,搭建起一座名为“屏宇宙”的沉浸式体验空间。 这不是简单的布展升级,而是一次战略姿态的宣示。穿过人流抬头望向 TCL 巨大的 Logo,镜头扫过 AI 眼镜、车载屏、电竞屏等全场景产品,最终定格在被人群围住的 X11L 电视前。这台被称作 “2026 画质天花板” 的旗舰产品,正以 10000 尼特的 XDR 峰值亮度和超 20000 个背光分区,无声宣告着一场显示技术话语权的转移,值得一提的是,凭借领先的 SQD-Mini LED 显示技术,X11L 一举斩获本届 CES “创新显示技术金奖” 及多项 Best of CES 电视奖。 过去十年,中国消费电子企业多以性价比、快速迭代立足海外。但如今,在 Mini LED 进入深水区的关键节点,TCL 选择在 CES 这个全球最高舞台上,不再只是展示产品,而是试图定义 “什么是好画质”。 数据显示,2024 年 TCL Mini LED 电视出货量全球第一,市占率达 28.8%;98 英寸电视出货量全球第一,市占率 49.6%,在该领域的技术积累与市场地位已形成显著优势。 尤其值得注意的是,2026 年的 Mini LED 市场正陷入路线混乱。RGB Mini LED 等新概念层出不穷,用户面对分区数、亮度、色域等参数堆砌反而陷入认知迷雾。正是在此背景下,TCL 推出 SQD-Mini LED 技术以及高调展示 X11L,意图已超越单纯的新品发布 ,这不仅是屏幕尺寸的较量,更是显示技术底座的正本清源,旨在确立下一代大尺寸显示的行业标准。 SQD vs RGB:一场关于“控光质量”的代际压制 长期以来,高端电视市场深陷单一参数竞赛的怪圈,部分品牌将分区数、色域值等孤立指标作为营销噱头,却忽视了画质体验的本质是系统工程。TCL 基于对显示技术的深刻洞察,提出 “画质铁三角” 评判准则:真正的高端画质,必须实现高色域、高峰值亮度与高对比度的协同统一,三者缺一不可。 这意味着,在Mini LED的深水区,真正的决胜点不再是有多少分区,而是每个分区是否听话。 控光精度的突破,首先根治了 RGB 路线的 “串色” 顽疾。当前部分厂商力推的 RGB Mini LED,因红、绿、蓝三色 LED 芯片物理排列紧密,在高亮和复杂画面下极易产生相邻分区间的 “串色” 干扰 ,让本该纯净的白色边缘泛出彩边,暗部细节被杂光污染。这一由结构决定的物理缺陷,难以通过算法完全弥补。 而 SQD-Mini LED 采用单色蓝光 Mini LED 芯片 + 超级量子点(Super QLED)的组合,每一颗灯珠独立发光,经量子点层精准转换为纯净三原色。正如 TCL 实业泛智屏 BU 副总经理兼全球产品经营中心总经理左波所说:“让这 10000 尼特的光,每一束都听指挥,指哪打哪。” 这种 “一颗灯就是一个万象分区” 的设计,实现了近乎像素级的控光精度,98 英寸版本的 X11L 搭载 20736个万象分区,80 万:1的超高对比度,从根本上杜绝了串色问题。色彩稳定性的升级,则让高色域从“局部表现” 变为 “全局常态”。传统显示技术常在高亮场景下出现色域压缩、偏色,或在极暗画面中丢失色彩层次。SQD 方案通过超级量子点材料提纯光线,配合晶粹高色阻技术使色域提升 33%,最终实现 100% BT.2020 全局覆盖。无论画面是阳光刺眼的沙漠,还是深夜烛光下的特写,色彩始终精准、一致、不漂移。 显示系统的协同优化,构成了技术护城河的核心。SQD-Mini LED 并非孤立存在,而是与 TCL华星自研的“超级蝶翼华曜屏”(基于 HVA 面板)深度耦合 ,后者具备超高对比度与广视角特性,能最大化发挥背光系统的动态范围。这种集成背光、面板、算法三位一体的系统工程,让 SQD 跳出了参数内卷的陷阱,实现了逻辑上的升维,为大尺寸高端显示提供了一条可持续、可量产、可普及的新路径。 从卖产品到造生态,TCL的全球化新范式 技术领先如果不能转化为市场认同,终将沦为实验室里的孤芳自赏。北美作为全球高端显示竞争最激烈的市场,既是检验品牌技术实力与价值的核心区域,也是 TCL 全球化布局的重点。经过多年深耕,2024 年 TCL 电视在美国市场出货量排名第二,市占率 13.5%;2025 年前三季度,TCL 电视全球出货量市占率 14.3%,Mini LED 电视全球出货量同比增长 153.3%,市占率 29.4%,正处于冲击榜首的关键阶段。在 CES 这个全球科技风向标上展示顶尖技术,无疑是向市场释放的明确信号。 TCL 的高端化突围,并非单纯提升产品定价,而是基于技术、生产与营销的全链条升级。TCL创始人、董事长李东生曾多次强调,全球化不是简单的产品出口,而是建立本地化的经营实体。如今,TCL在北美已构建起本土研发、本土生产、本土营销的完整闭环。这种在地化运营,让TCL的高端产品既保持技术领先,又能精准契合北美消费者的使用习惯,成为其在市场中脱颖而出的关键。回溯发展历程,TCL自1999年出海后持续推进全球化战略,近几年更在本土化基础上进一步深化,将海外业务划分为北美、拉美、欧洲、亚太、中东非五个区域经营中心,形成更精细的全球布局。截至 2025 年,TCL 在全球布局 47 个研发中心和 39 个制造基地,业务遍及 160 多个国家和地区,全球累计服务用户超 13 亿。 发布 X11L 这样的技术旗舰,本质上是 TCL 在打破海外市场对 “中国屏” 的固有认知,将 SQD-Mini LED 等自主核心技术打造成高端标签。过去,中国品牌在全球市场多以性价比为标签,而 TCL 通过持续技术投入证明,中国企业不仅能扩大生产规模,更能打造高端产品。数据显示,2024 年 TCL 整体营收达 3126 亿元,其中海外营收超过 1400 亿元,过去五年海外营收年均增长超 19%,在北美这个高端市场核心战场,用技术实力获得认可,比单纯的市场份额增长更具战略价值,这也标志着中国品牌在全球价值链上游站稳了脚跟。 值得关注的是,TCL 并未将 SQD 技术束之高阁。左波在采访中表示,TCL 将在国内同步推动 SQD-Mini LED 技术普惠化,让更多普通用户享受到尖端成果。这种高端引领、大众普及的双轮驱动策略,既巩固了技术领导地位,又加速了市场教育,形成良性循环。 当中国品牌开始定义“好画质” 2026 年,恰逢 TCL 成立 45 周年。回望发展轨迹,从 CRT 时代的追赶者,到液晶时代的参与者,再到如今 Mini LED 时代的定义者,TCL 的成长之路,正是中国制造业向全球价值链上游迁徙的缩影。2019-2024 年六年间,TCL 累计研发投入超过 600 亿元,截至 2025 年 11 月 30 日,累计申请专利 119352 件,其中 PCT 专利 19190 件,在量子点电致发光显示领域申请专利数量达 3274 件,居全球第二,深厚的技术沉淀成为其全球竞争的核心底气。 CES 2026 现场,TCL X11L 的 10000 尼特亮度固然耀眼,但更耀眼的是其背后的技术自信与标准意识。当一家中国企业不再满足于符合国际标准,而是敢于在世界舞台提出 “这就是下一代标准” 时,全球化的故事便翻开了全新篇章。迈入 Mini LED 的深水区,注定只有真正掌握底层逻辑的企业才能穿越迷雾。TCL 用 SQD-Mini LED 证明,参数可以卷,但体验骗不了人,市场可以抢,但标准必须自己立。 TCL 的实践清晰表明,中国企业的全球化已从产品输出、资本输出,进入技术输出、标准输出的新阶段;中国品牌的竞争力,也从成本与规模优势,转向技术厚度与生态构建能力的竞争。随着 SQD-Mini LED 技术的普及与全球化布局的加快,TCL “在海外再造五个 TCL” 的目标正在逐步推进,而这场由中国品牌引领的显示技术变革,也将重塑全球消费电子产业的竞争格局。 这场由一块屏幕掀起的浪潮,或许才刚刚开始。
2026十大AI趋势发布,背后暗藏三条主线
开年的动向仿佛是一个预演,2026,AI注定迎来波澜壮阔的一年。 文|任晓渔 周享玥 编|徐鑫 AI的世界从来不缺新闻。岁末年初,科技圈最大热点当属Meta的天价收购案以及科技春晚CES2026。 扎克伯格花数十亿美元收购一家成立不到一年的 AI 公司 ,规模仅次于收购WhatsApp 和 Scale AI。世界震惊于Meta愿意为智能体时代行动指令分发入口所支付价码的同时,也意识到具备处理复杂工作流的多智能体应用已是大势所趋。 而在CES上,物理AI、具身智能以及AI落地与变现的各种讨论层出不穷。不论是黄教主带着新一代架构Rubin以及Alpamayo无人驾驶AI模型断言物理 AI 的 ChatGPT 时刻已到来,还是具身智能、自动驾驶和各种搭载了AI的设备进入到生活及生产场景,都在向外界传递一个信号,AI已经在冲破云端的数字世界,正切实影响物理世界。 这些看起来纷繁的动向,开启了AI世界的2026,恰恰也与北京智源人工智能研究院(以下简称“智源研究院”)日前发布的年度报告《2026十大AI技术趋势》(下称“趋势报告”)所提及的大趋势相吻合。 趋势报告指出,2026年将是AI从数字世界迈入物理世界、从技术演示走向规模价值的关键分水岭。三大主线驱动了AI发展进入新周期。同时,报告也提出,AI的发展路径日益清晰,真正在融入实体世界,也需解决系统性挑战。 01 三条主线,驱动AI范式变革 如果你关注刚刚过去的CES,可能会对去年下半年以来AI圈的一个热门话题“AI是否是一场泡沫”形成更全面的认知。 这场CES向外界全面展示了AI如何从云端幻象落地为物理现实。 英伟达、AMD和高通等算力巨头在CES上的新品都在强调AI从虚拟训练向物理世界如机器人、自动驾驶、工业应用的实际部署;苏姿丰与李飞飞畅谈空间智能、世界模型和AI从云端计算向边缘的落地,现代则发布人工智能机器人战略,与波士顿动力大秀Atlas走出实验室进入工业环境的能力……形形色色的硬件层出不穷,AI都是最亮眼的标签。 某种程度而言,CES的主题,也是对过去一年AI圈经常提及的“智能体落地元年”的延续和呼应。 年初,DeepSeek-R1开源模型横空出世可以算是AI落地的巨大催化剂。强大的推理模型开源,降低了开发门槛,吸引了更多开发者参与,加速AI Agent从实验室研究向工业级应用的转变。之后无论是Manus刷屏、具身智能浪潮火爆,还是Token调用量大战、个人助手、垂直智能体领域的角逐,以及年底Meta的天价收购案都成了“落地元年”的注脚。 到年末,相比2025年初提“落地元年”,智能和AI已经不再停留在产业界人士的嘴边,也不局限在数字世界,而是朝着融入实体世界转变。并且业界已有共识,越来越多场景AI正有望实现价值兑现。某种意义上,你很难再说AI只是一场泡沫。 智源的趋势报告也关注到了这些产业端的巨变。就像去年的趋势报告里关注到了世界模型范式迁移、Agent广泛应用并被验证一样,今年的趋势报告也重点刻画了这一变化趋势,并认为这是一场巨大的范式变革。 报告认为,人工智能正从追求参数规模的语言学习,迈向对物理世界底层秩序的深刻理解与建模,从技术演示走向规模价值,行业技术范式迎来重塑。 其中,有三条清晰的主线驱动着这场变革。 在模型即应用的时代,基础模型的能力演化不可不提。过去一年行业内经常有“Scaling law”撞墙的疑虑,但报告中认为,实际上OpenAI和Google Gemini3的等模型的发布向业界展示了预训练和后训练阶段Scaling Law依然奏效。 强大的基模演化仍在持续中,并且认知层面还在升维。从预测下一个token,向“next-state prediction”(NSP)跨越。这为AI学习物理规律,最终为自动驾驶仿真、机器人训练等复杂任务提供全新的“认知”大脑奠定了基础。 其次是AI落地的形态正朝“实体化”、“社会化”演化。 过去一年被视作智能体落地元年,AI代码、智能客服、数字员工等诸多赛道里Agent的应用已经是普遍趋势。根据Langchain发布的一份报告显示,客服、代码生成和内容生成等单智能体系统仍然占据AI形态的主流,而研究和数据分析、内部生产力等多智能体应用则不到五成。 但Meta并购案对多智能体系统的重视以及CES上全面铺开的物理AI、具身智能等都表明,新的一年,智能形态将持续演化。智源的趋势报告认为,2026年,智能正从软件走向实体,从单体走向协同,同时主流Agent通信协议的标准化,也让多智能体有望攻克更复杂任务流。 再次,AI应用在消费端和企业端都逐渐呈现出了更清晰的落地路径,逐渐走向价值兑现。报告认为,在消费端,一个“All in One”的超级应用入口正在形成,国内外科技巨头基于各自生态积极构建一体化AI门户。在企业端,经历早期概念验证的“幻灭期”后,AI正凭借更好的数据治理与行业标准接口,在垂直领域孕育出真正可衡量商业价值的产品。 这也使得2026年成为了AI从数字世界迈入物理世界、从技术演示走向规模价值的关键分水岭。 随着AI从技术演示走向规模价值,整个AI产业生态也随着这一脉络而动态演进和调整。智源的趋势报告从十个层面系统审视了整个AI产业生态在2026年即将迎来的变化。无论是基础模型、落地形态还是商业变现以及底层基础设施等都在迎来新的发展周期。 不过,能力和风险是硬币的两面。趋势报告也清晰提示,AI安全关乎落地最后一公里,产业界需要共同探讨构建一套可审计、可回溯、具备强对抗能力的安全方式体系,才能真正打通AGI之路。 02 超级应用初现,AI落地路径逐渐明晰 “大模型时代的超级应用是什么?”过去三年AI行业里不断被提及的天问,2026年岁初,有了相对确定的答案。 智源在报告中认为,目前海外厂商如ChatGPT、Gemini等头部模型构建的App已初步具备了超级APP的必要条件,功能设计上呈现为All in One特征。基于高性能基础模型完成产品化,一个入口可实现从信息获取到任务规划、问题解决的闭环。 这一断言既与当下现实吻合,它的演进历程也从过去大半年巨头竞争中有迹可循。 在海外,OpenAI与Google的角逐已呈白热化趋势。去年8月问世的Nano Banana以刷屏级表现驱动了Gemini的用户规模增长,同时,Gemini与Android生态及Workspace的深度集成,使得其月活跃用户规模快速追赶OpenAI。 行业正从OpenAI的一枝独秀向双强及多强演变,也让AI超级应用领域的竞争浮出水面。Meta的岁末溢价收购案某种程度也可以视作是其在超级入口战场上打出的一张牌——虽然此前通过开源Llama模型赢得了口碑但后续乏力,Meta在应用端始终缺乏能与ChatGPT或Gemini正面抗衡的“超级入口”。 而谷歌和OpenAI双方都在快速围绕着场景、数据和庞大的用户来快速完成智能的飞轮迭代,路径却不太一致。 比如,ChatGPT与多家电商平台、支付平台系统级打通,用户可以在同一个流完成下单流程,同时OpenAI还推出了AI浏览器,接管浏览器执行权,打通超级应用的手-脑通路。这更偏向一种基于Computer Use的AI原生探索。 而谷歌此前就有强大应用生态,一直在打通各类入口,随着谷歌将Gemini集成到已有产品里,它也实现了AI时代快速的用户规模扩张。 从这个意义看,AI新王和旧王之战,本质是一场生态竞争。智源在报告中就指出,AI超级应用范式为基础模型直接产品化实现的用户截流聚集,这场竞争不仅需要极高的算力成本支撑,更依赖庞大的存量用户进行模型数据的飞轮迭代。 这一背景下,国内的头部应用大战的路径也随之清晰。趋势报告中认为,科技巨头都基于各自生态积极构建一体化AI门户。同时,AI超级应用的机会点集中在头部大厂,巨头基于移动互联网时代的入口、技术和用户积累,具备了打造AI超级入口的实力。 目前大众也能从产品形态和竞争动态里印证上述判断。国内头部AI应用如豆包、夸克、百度网盘呈现All in One特征,而豆包与抖音的联动打法,阿里的高德地图接入千问,都体现了体系化生态竞争的特性。 智源行业研究中心高级研究院靳虹博认为,相比Copmuter Use来探索AI原生应用,通过多行业接口直接接入的路径,是一种相对稳健的改良主义路线,继承了移动互联网巨头的优势,可操作性更强。 不得不提的是,对超级入口的争夺始终没有停息,始终还有新的玩家以新的应用形态在发起挑战。 比如蚂蚁集团在11月推出灵光,把Vibe coding能力搬到手机端,快速生成多模态闪应用,很快因新颖玩法领跑全球AI产品下载增速。蚂蚁百灵大语言模型负责人张志强介绍,在模型即应用的时代,基模的架构和能力需要持续探索,才能确保在应用大战里做到性能更好、输出更快和更多的能力创新。 体系化生态竞争的内核下,头部大厂的优势在垂直赛道也快速显现。12月蚂蚁旗下AI健康应用蚂蚁阿福全面升级,很快就在AI健康管理赛道登顶,月活跃用户数一个月翻倍达3000万。外界分析蚂蚁阿福的能力时认为,蚂蚁集团此前在医疗健康等场景的生态联动和协同是快速破局的关键之一。 阿福在C端覆盖了日常健康问答等焦点需求,并打通与苹果、华为、VIVO、鱼跃、欧姆龙等设备的健康信息,成为个人健康管理新入口。同时,B端串联起蚂蚁围绕医疗场景的生态资源和服务能力,如全国5000家医院和30万真人医生,需要就医时能链接医生在线问诊,也能打通线下挂号、陪诊、医保支付等医疗机构服务能力,规模化应用路径有望在这里实现闭环。 值得一提的是,在超级应用大战里,豆包手机的出现也让外界关注到智能体行业未来可能不止在大厂封闭生态内的互通,还包括更广阔生态的链接。 智源在趋势报告里也认为,随着MCP、A2A等通信协议趋于标准化,智能体间才有通用“语言”,协议是AI在消费侧应用落地非常重要的基础设施。 03 打通最后一公里 安全是AI落地的最后一公里,也是终极 “生死线”。 全球AI安全风险高发态势已为行业敲响警钟。智源研究院院长王仲远指出,截至2025年12月初,AI Incident数据库收录的AI安全风险事件已达330起,远超2024年的233起,涵盖幻觉、深度伪造、诱导危险行为等多种类型。智源大模型安全中心负责人杨耀东亦直言:“模型能力越强,风险越是硬币的另一面。” 他们两年前划定的AI安全“五大红线”,正逐一被逾越。 当前,AI安全风险呈多维度爆发。 一方面,AI自身风险持续升级,已从早期的“幻觉”演进为更隐蔽的“系统性欺骗”,并呈现“莫比乌斯锁定”效应——模型能力越强,抗对齐与欺骗能力越高。相关数据显示,8家头部企业大模型在防范灾难性滥用或失控上均未达理想水准,o1等推理模型还会“有意藏拙”甚至关闭安全守护进程。 另外,几乎所有大模型企业都遭遇过攻击,既有通过精心设计的提示词消耗算力、干扰业务的情况,也存在用户隐私泄露的隐忧。而基于大模型构建的Agent系统,除了继承来自模型的风险,还会叠加记忆等外部模块与通信环节的安全漏洞,让风险传导链条进一步拉长。 另一方面,AI“武器化”趋势正加速凸显,攻击精准度与规模化飙升。 2024年初,某跨国企业香港分公司就曾因诈骗团伙利用AI伪造高管音视频,诱使财务人员多次转账,损失高达2亿港元。 2025年8月,Anthropic报告也显示,Claude已成黑客滥用重灾区,至少17家机构遭遇数据盗窃与勒索。同年12月,有报道称,黑客开始利用AI生成的提示在谷歌搜索里投放恶意指令,用户搜索相关词汇即可触发,仅凭对平台的信任便可能中招。在具身智能领域,风险更延伸至物理空间,GeekCon 2025大赛中,曾有白帽黑客利用系统漏洞三分钟内劫持机器人并操控其实施物理攻击;AI for Science领域则因大模型降低有害物合成门槛,埋下新的安全隐患。 这些风险已带来切实的经济损失。数据显示,全球大模型安全事件损失从2023年的85亿美元剧增至2024年的143亿美元,预计2025年将突破235亿美元。这倒逼产业端强化安全准入,德勤与思科调研显示,超70%的大型企业在引进大模型时,将数据主权与抗注入攻击能力列为“一票否决项”,要求供应商提供针对性的红队测试报告与隐私计算合规证明。 业界认为,2026年,随着智能体在更多业务场景的渗透率提升,安全问题会更加尖锐,驱动AI安全需在技术和产业上加速演变。智能体安全风险更具动态性与隐蔽性,需重点检测四类行为:恶意意图诱导、意图偏离有害行为、设备高敏操作、外部风险输入与模型异常行为。 对此,产业界已形成共识,需构建“意图—行为—环境”的全链路监测体系,强化意图对齐、行为授权与动态阻断能力,应对开放环境下的复杂安全挑战,并已展开多维度行动。 技术层面,防御正从“被动应对”转向“主动防控”。外部安全领域,传统自动化测试升级为基于多智能体系统的自演化攻防演练,通过红蓝智能体集群在虚拟环境中的持续博弈,覆盖人类难以触及的风险区域;内生安全领域,从单纯依赖外部控制AI,转向主动从内部“读懂AI”,如Anthropic推进回路追踪研究,从内部理解模型机理,OpenAI推出自动化安全研究员Aardvark,自动挖掘代码漏洞并生成补丁,“以AI治AI”成为行业常态。 产业层面,以蚂蚁、360为代表的企业正将安全防线嵌入具体应用场景。 如蚂蚁构建了“线上服务攻防对抗,线下终端安全加固”的技术体系,线上通过大模型安全一体化解决方案“蚁天鉴”的“对齐-扫描-防御”技术栈实现全流程防护,线下发布全球首个智能终端可信连接技术框架gPass,通过“安全、交互、互连”三大核心能力,实现AI眼镜与智能体之间安全、可信、即时信息交互。360则基于自研大模型构建类脑分区协同安全架构,依托EB级安全数据预训练识别威胁,结合专用工具实现攻击链还原与处置建议输出。 这些实践,在“安全必须内化为AI系统免疫基因” 的当下,正为行业提供可供借鉴的安全解法。 2026年,被视作AI从数字世界到物理世界,从技术演示到产业价值兑现的关键之年,智源的趋势报告也为未来一年的技术探索与产业布局提供了清晰锚点。
马斯克AI百科Grokipedia条目数突破600万,已达英文维基百科86%
IT之家 1 月 11 日消息,截至目前,埃隆・马斯克旗下的 Grokipedia 条目数量已增至惊人的 6,092,140 条,相当于英文维基百科现有 7,120,114 条条目的近 86%。 这一爆发式增长,标志着这款由马斯克旗下人工智能公司 xAI 在数月前才推出的人工智能驱动在线百科全书,迎来了重要里程碑。xAI 为 Grokipedia 设定的核心愿景是坚守中立性,同时借助旗下人工智能模型 Grok 的推理能力,实现条目内容的快速撰写与事实核查。2025 年 9 月末,马斯克宣布这一项目时强调,Grokipedia 将对维基百科实现优化升级,其核心优势在于从设计之初就致力于规避内容偏见。 马斯克当时还指出:“Grokipedia 是 xAI 实现‘理解宇宙’这一终极目标的关键一步。” 据IT之家了解,2025 年 10 月末,Grokipedia 正式上线,xAI 当时谨慎地将其版本定为 0.1。凭借 6,092,140 条的条目规模,Grokipedia 目前已达到英文维基百科条目总量的近 86%,发展速度堪称迅猛。不过,Grokipedia 现阶段仍仅支持纯文本形式。xAI 方面已将这款百科全书的版本迭代至 0.2 版。 马斯克为 Grokipedia 描绘了一幅雄心勃勃的发展蓝图,其中包括一项计划:将完整的知识库数据送入太空,以此践行 xAI “传承并拓展人类认知边界”的使命。他明确表示,Grokipedia 未来将正式更名为“银河百科全书”(Encyclopedia Galactica),并被发射至宇宙空间。 马斯克写道:“当 Grokipedia 发展到足够完善的阶段(这还有很长的路要走),我们将把它更名为银河百科全书。它将成为一部囊括文本、音频、图像与视频的开源知识宝库。加入 xAI,助力我们打造科幻版的亚历山大图书馆吧!” 在后续的推文里,他进一步补充:“我们将把这部百科全书的内容刻在石质载体上,送往月球、火星乃至更遥远的宇宙深处。这一次,人类的知识瑰宝绝不会再被遗失。”
熬了8年,中国存储芯片厂商,赚大钱的机会终于来了
熟悉中国存储芯片发展史的人应该清楚,在2017年之前,中国没有能够制造NAND\DRAM这两种存储芯片的厂商,我们100%依赖进口。 但也在2017年前后,国内成立了两大存储芯片企业,长江存储于2016年成立,长鑫是2017年成立。 这两家公司,一家主攻NAND闪存,一家主攻DRAM内存,因为大家都清楚,中国是全球电子产品制造中心,对DRAM、NAND需求太大了,如果一直靠进口,除了需要花费大量的金钱之外,还有被卡脖子的风险。 大家都清楚,芯片行业本来就是门槛高,投入大,周期长,见效慢的行业。 在存储芯片领域更是如此,更何况当时三星、SK海力士、美光等美日韩企业已经形成了垄断之势,它们拿下了全球95%以上的份额。 更加不会愿意看到中国存储芯片崛起,来抢自己的市场,分走自己碗里的蛋糕,所以是各种阴谋阳谋一起上,想方设计进行打压,阻挡中国存储芯片的崛起。比如国内有一家与长鑫、长存差不多同时成立的存储芯片企业,就被美光各种手段陷入停滞状态了。 所以,大家从我说的这些,应该能够判断出存储芯片江湖这些年以来的刀光剑影。 而从2017年到2025年,长鑫也好,长存也好,真正是熬了8年,这中间的苦楚,真的没法说,告诉大家一个数字,应该就明白了,长鑫截止至2025年9月份,这8年多亏了400多亿元,一直没有赚过钱。 但是在2025年四季度长鑫终于赚钱了,按照长鑫自己官方的数据,最高可能赚到95亿净利润。 为何会这样呢,原因非常简单,那就是存储芯片终于等来了最大的机会。 2025年,全球的存储芯片都在涨价,不管是NAND闪存,还是DRAM内存,其中像DRAM内存最高的涨了10多倍,长鑫作为中国内存厂商,虽然全球的份额还只有5%,排在全球第四名,但这么上涨,不赚钱才怪呢。 长存虽然没有公布数据,但我觉得肯定也是赚钱的,因为NAND闪存也在涨价啊,按照机构的说法,2025年NAND闪存平均涨价幅度也超过了100%。 而2026年,存储芯片还在涨,按照机构的数据,2026年第一季度,DRAM合约价预计环比上涨55%到60%,NAND涨价幅度则在33%到38%之间。并且整个2026年,价格只会上涨,不会回落。 所以很明显,中国存储芯片在熬了这么多年之后,终于迎来了最大的赚钱机会,并且这一波肯定会大赚特赚,将以前亏掉的全部赚回来,也不是没有可能。 同时随着赚钱效应增加后,产能持续扩大,市场份额提升,中国存储芯片终于坐上牌桌,与美日韩厂商同PK了,这个比赚钱本身更有意义。
小模型层数好玄学:12/32/64层效果好,16/24/48/层效果糟
一水 发自 凹非寺 量子位 | 公众号 QbitAI 小模型身上的“秘密”这下算是被扒光了! 知名开源项目OpenEvolve作者,刚刚用一篇长文揭示了70M小模型的几个重要发现: 其一,架构的重要性远低于大家的想象。相比之下,模型“形状”(深度-宽度比)更重要。 其二,小模型层数也存在“玄学”,12/32/64层效果好,16/24/48/层效果糟,而且最佳层数为32。 当然了,作者还解密了这一“层数玄学”的背后原因——“隐藏维度”是否大于等于512。 上述结论一出,社区里迅速刮起了一股讨论之风,大家还与作者进行了各种互动: 别急,咱这就详细看看—— 发现小模型层数存在“玄学” 开始之前,简单介绍下作者Asankhaya Sharma。 他最为人熟知的成就主要包括:1)在很多人还主要围绕模型规模、参数量和训练方法打转时,他率先关注到了大语言模型的“推理时计算”,并以唯一作者的身份发表了一篇论文进行详细叙述;2)开源了OptiLLM、OpenEvolve、Adaptive Classifier等一众知名项目。 在本次研究之前,他和团队已经发现—— 「50% FinePDFs+30% DCLM+20% FineWeb-Edu」是训练小模型GPT-2的最佳数据集组合,使用标准的12层架构,其平均准确率可以达到38.50%。 于是他们想接着探讨:模型架构是否和数据组成一样重要? 标准的GPT-2使用12层和768隐藏维度。但这设计于2019年,适用于约1.24亿参数。对于一个用10亿tokens训练的70M参数模型,这仍然是最优的吗? 为了弄清这个问题,他们着手开始了一系列实验。 实验第一步——确保除了模型架构,其他因素保持一致,包括模型参数、训练数据、训练时间和硬件配置等。 然后通过改变7种GPT-2变体的“形状”(即深度和宽度的变化),来对比同一架构内不同“深度-宽度配比”对性能的影响。 结果发现,从4层→64层,模型性能并未如预想那般,随着层数增加或减少而平滑变化,而是清晰分裂成了两个阵营: “好”的层级:包括12L、32L、64L,平均得分在约38%左右; “糟”的层级:包括16L、24L、48L,平均得分在约32%左右。 作者表示,两个层级之间平均相差超过6个百分点,且每个层级内部的差异极小(约0.5%),出现了明显的两极分化。 原因出在“隐藏维度”上 进一步分析表明,这一现象背后的关键因素是隐藏维度(hidden dimension)。 隐藏维度可理解为神经网络的宽度,每个词经由模型转换后都会变成一个数字列表。假设“人工智能”这个词的隐藏维度是768,它就代表这个词在模型内部会被表示成一个由768个数字构成的向量。 作者发现,模型的“隐藏维度”必须大于等于512,这是一个基础门槛。 当模型处于12层时,其隐藏维度恰好为512,所以表现出色。 至于宽度更窄的32层和64层模型也能成为“优等生”的原因,主要是它们通过特殊的深度配置进行了“补偿”—— 前者属于“黄金补偿点”,在宽度为384的情况下,32层这个特定的深度能最高效地弥补宽度的不足,取得了所有配置中的最高分;而后者属于“暴力补偿”,虽然宽度只有256,但凭借极深的层数强行拉高了性能。 16L、24L和48L处于“死角”,它们的隐藏维度太窄,深度又不在可以弥补的最佳位置。 由此,作者也总结出了一套规则—— 模型要想性能好,必须满足三种条件之一。1)隐藏维度大于等于512;2)正好处于32层;3)位于64层以上的极深层,以进行补偿。 而且必须再次提醒,32层属于全场最佳。当隐藏维度=384时,32层配置获得了38.50%的最佳总体得分,甚至略胜于标准的12层设计。 进一步发现:“形状”比架构选择更重要 在确定了“32层”这个最佳深度后,作者又比较了12种不同架构的表现,包括LLaMA3、Qwen3、Gemma3等模型。 结果发现,在70M模型范围内,所有现代架构的表现都惊人地相似,平均差异不到2%。 自回归模型:包括GPT-2、LLaMA3、Qwen3、Gemma3、MoE等,平均性能集中在32%到33%之间; 扩散模型:包括dLLM、Dhara等,平均性能集中在31%到32%之间。 作者表示,现代架构改进(RMSNorm、RoPE、GQA)是为70亿以上参数的模型设计的,在70M参数的情况下无法带来可衡量的优势。 完整测试结果be like: 这也意味着,对小模型来说,精心调整的“形状”可能比选择哪个具体的“架构变体”更重要。 意外之喜:扩散模型有自己的独特优势 此外,虽然扩散模型的平均准确率略低于自回归模型,但研究认为这点“缺陷”完全可以通过其他方面弥补。 这主要体现在两大方面:推理速度和幻觉率。 和传统自回归模型相比,扩散模型的推理速度要快上3.8倍,非常适合处理批量任务。 且在所有测试架构中,扩散模型在衡量真实性的TruthfulQA基准上得分最高(达49.27%),表明其“幻觉”更少。 作者还顺带解释了这背后的原因,核心有三个: 双向注意力机制允许模型在做预测时考虑完整上下文。 迭代改进使模型能够在多个去噪步骤中“重新评估”其原始预测结果。 非自回归生成模型或许能够减少“滚雪球效应”,即早期幻觉累积成更大的误差。 不过,无论是自回归还是扩散模型,都可以用一个小技巧来增加事实准确性—— 作者表示,通过在模型里加入一种叫“Canon层”的特殊结构(本质是一种精心设计的卷积层),普通模型能让事实性得分提升1%,扩散模型效果更明显,能提升超过2%。 而且增加的“Canon层”仅增加了0.13%的参数开销,性价比极高。 而更更重要的是,通过使用LLaDA 2.0论文中的Warmup-Stable-Decay方法,可以将现有的自回归模型高效转换为扩散模型。 划重点,需要的数据量、成本、训练时间通通仅为原来的1/10。而且作者发现: WSD转换不仅与从头训练的结果相当,而且在几项基准测试上超越了后者。 推出集大成者: Dhara-70M模型 基于所有发现,作者和团队最后推出了Dhara-70M这个模型。 其构建方法为:首先采用最佳的自回归架构(LLaMA3-Canon),然后使用WSD方法将其转换为扩散模型。 如此一来,Dhara-70M也就具备了两者的优势—— 既有自回归模型的知识储备,又有扩散模型带来的吞吐量和事实性优势。 作者表示,这项工作最大的意义或许在于提醒大家—— 对于资源有限的小语言模型构建者,不应盲目追求最新的架构魔法。首先应关注基础的“深度-宽度配比”,确保模型不落入“死亡区域”;其次,如果应用场景需要高速处理且对事实准确性要求高,那么扩散模型是一个极具竞争力的选择。
全球开发者狂喜!Claude Code史上最大更新,一次性1096次提交
编辑:定慧 【新智元导读】全球程序员最喜欢的工具迎来最大更新。Boris老哥不仅靠自造的Claude Code年入10亿美金,现在更是玩起了极致「套娃」,用Claud Code开发Claude Code,疯狂迭代1096次提交! Boris Cherny现在不写代码了。 作为Claude Code的创造者,这位Anthropic的工程师用自己造的AI工具来写代码——Claude Code去年斩获超过10亿美金的收入。 这大概是AI时代最讽刺又最美妙的事情:一个人自己不写代码,却创造了一个能替所有人写代码的工具。 而现在,这个工具刚刚迎来了史上最大的一次更新。 Claude Code2.1发布了,这不是一次小修小补——1096次提交,版本从2.0.76直接跳到2.1.1。 Anthropic团队疯了吗? 不,他们只是在用Claude Code开发Claude Code。 这就是AI加速AI的正反馈循环。 Claude Code2.1更新了什么? 1. Shift+Enter终于好用了 这是用户抱怨最多的问题,现在彻底解决了。 在iTerm2、Kitty、Ghostty、WezTerm这些终端里,Shift+Enter多行输入开箱即用。 不需要改配置文件,不需要找变通方案。 想换行就按Shift+Enter,就这么简单。 如果用的是其他终端,运行/terminal-setup就能自动配置。 这个改进看起来很小,但用过CC的人都知道,没有多行输入有多痛苦。 2. Skills系统全面升级 Skills是Claude Code最近推出的重磅功能,可以把它理解成「前人验证好的工作流」。 这次更新,Skills成了一等公民: 热重载:修改`~/.claude/skills`目录下的技能文件,改完立刻生效,不用重启。 这对开发者来说太重要了。之前调试一个Skill,改一次重启一次,效率极低。现在改完就能看效果,开发体验直接起飞。 分叉上下文:在Skills配置里加上`context:fork`,就能让技能在独立的「子环境」里运行。 这解决了什么问题? 之前执行复杂的Skills,中间产生的大量信息会污染主对话。问完一个问题,上下文就被塞满了乱七八糟的东西。 现在有了分叉,主对话保持干净,技能在旁边安静地干活。 生命周期钩子:Skills现在支持`PreToolUse`、`PostToolUse`和`Stop`钩子。 翻译成人话就是:可以在Claude调用工具之前、之后插入自定义逻辑。 比如每次写文件之前自动备份,或者每次执行命令之后记录日志。 这已经是中间件级别的能力了。 3. 会话传送功能 这个功能必须单独拿出来说,因为它太酷了。 场景是这样的:在claude.ai网页上开始了一个项目,聊到一半,发现需要在本地继续。 以前怎么办?把对话复制粘贴过来?重新描述一遍需求? 现在只需要一个命令:/teleport 它会自动: 验证是不是在正确的代码仓库 拉取并切换到对应的分支 加载完整的对话历史 网页端的工作,无缝传送到终端。 反过来也行,终端里的会话可以传送到claude.ai/code继续。 这意味着什么? 可以在任何设备上开始工作,在任何设备上继续工作。 在公司用网页版起草,回家在终端里深度开发,第二天在咖啡厅用手机回顾进度。 Claude Code变成了一个真正意义上的「云端大脑」。 4. 更智能的权限管理 之前一个让人烦躁的问题是:工具调用被拒绝的时候,整个智能体就停了。 现在不会了。被拒绝之后,Claude会尝试其他方法继续推进。 另外,工具权限现在支持通配符。 比如想允许所有带-h参数的命令,可以写Bash(*-h*)。 不用一个一个地配置权限了。 5. 多语言响应 可以配置Claude用母语来回复。 日语、西班牙语、中文,都可以。 对于非英语母语的开发者来说,这个功能太贴心了。 为什么全球程序员都爱Claude Code? 说完更新内容,来聊聊一个更本质的问题: Claude Code为什么能火成这样? 一年收入10亿美金,连著名的OpenAI研究员卡帕西都说自己落伍了。 这背后是什么逻辑? 1. 它是真正的通用Agent 虽然叫Claude Code,但它的能力远不止写代码。 问答、写作、写网页、开发软件、数据分析,甚至拆分工资条,它都能干。 它能把音频和图片快速合成视频。 可以把它理解成一个能操控电脑的智能代理。 它能看到文件系统,读取文件、分析文件、修改文件、输出文件。 而沟通方式,就是自然对话。 不需要写代码,不需要学命令,说人话就行。 2. 文件夹思维 Claude Code最棒的设计理念是「文件夹」。 每次启动的时候,给它指定一个文件夹,这个文件夹就是这次任务的上下文。 很多CC重度用户都有专门的Claude Code文件夹,里面分成很多子文件夹:笔记、数据分析、深度阅读、软件开发…… 每个任务一个文件夹,互不干扰。 这种设计让工作天然有组织性。 不像其他AI工具,聊着聊着就乱了,不知道在做什么。 3. 危险模式带来的效率飞跃 什么是危险模式? 开启之后,Claude Code可以全自动操控电脑,不需要一次次确认。 听起来很危险,但不开的话,每个操作都要点确认,效率根本起不来。 当然,一定要做好备份。 4. Skill生态 Skills是Claude Code的杀手锏。 不需要从零开始,直接用前人验证好的工作流就行。 比如前端设计Skill,一句话就能重新设计网站首页。 这是真正的「站在巨人肩膀上」。 聊聊Boris这个人 说到这里,不得不聊聊Claude Code背后的男人——Boris Cherny。 Boris的履历很简单:前Meta高级工程师,现在是Anthropic的Staff Engineer,负责Claude Code。 但他最有意思的地方在于:Claude Code100%的代码,都是用Claude Code写的。 没错,他自己不写代码,他用自己造的AI来写代码。 这听起来像个悖论,但这恰恰证明了Claude Code的能力——如果连它的创造者都信任它到这种程度,还有什么理由怀疑呢? Boris的工作方式也很疯狂。 他日常会同时开10-15个Claude Code会话,有的在终端里,有的在网页上,每个会话当作一个独立的「工人」来用。 他坚持用最慢但最聪明的模型,比如Opus4.5,因为他相信:更高质量的输出最终会加速整个开发过程。 这个理念很反直觉。 大多数人追求速度,想要更快的响应。但Boris认为,如果AI能一次做对,就不需要反复修改,总时间反而更短。 还有一个细节:Claude Code的诞生其实是个「意外」。 它最初只是Anthropic Labs团队的一个原型实验,用来探索AI模型的能力边界。没想到效果太好,直接变成了正式产品。 2025年2月发布,不到一年,年收入就突破了10亿美金。 这大概就是硅谷最经典的故事模板:一个工程师的「玩具项目」,最后变成了改变行业的产品。 Boris还有一个习惯:他会维护一个CLAUDE.md文件,把它当作「团队记忆」。 每次Claude犯了错误或者做对了什么,他都会记录下来。这样下次遇到类似场景,Claude就能直接使用这些经验。 这个习惯后来变成了Claude Code的核心功能之一。 你看,好的产品经理不需要做用户调研,因为他自己就是最苛刻的用户。 Claude Code使用技巧 最后分享几个实用技巧: 1. 善用Claude.md Claude.md是Claude Code的核心配置文件,相当于它的「宪法」。 每次启动,Claude都会自动加载这个文件。 可以在里面写: 这个项目是做什么的 偏好规则 需要注意的事项 这样Claude每次都能快速进入状态,不用反复解释。 2. 拖拽文件 这是最简单但很多人不知道的技巧: 直接把文件或文件夹拖到Claude Code窗口里。 它会自动读取内容。 不需要复制粘贴,不需要输入路径。 3. 粘贴图片 因为Claude Code运行在终端里,粘贴快捷键不是Cmd+V,而是Control+V。 遇到需要图片的问题,截图后用Control+V粘贴进去,Claude就能看到了。 4. 用/teleport无缝切换 在网页端聊到一半,需要本地继续? 直接/teleport,整个对话历史都带过来。 5. 安装实用的Skills 推荐去官方的Skills仓库看看:https://github.com/anthropics/skills 安装方式也很简单,然后跟Claude说「使用xxx skill,帮我做xxx」就行了。 「编程」的终局 Claude Code2.1 的 1096 次提交,背后是一个团队对「AI 辅助编程」这件事的极致追求。 但如果只把它当成一个「更好用的编程工具」,就太小看它了。 Claude Code真正预示的,是编程这件事本身的终局。 程序员会消失吗? 这是每次AI编程工具更新时都会被问到的问题。 答案是:不会消失,但会彻底改变。 Claude Code让每个人都能「写代码」,但不是每个人都能「定义问题」。 未来的程序员,不再是敲键盘的人,而是能把模糊的需求翻译成精确任务的人。 这个角色更像产品经理,又像架构师,又像项目经理。 代码变成了思想的副产品,而不是目的本身。 自指性AI的哲学意义 Boris用Claude Code来开发Claude Code,这不仅仅是一个有趣的花絮。 这是AI发展史上的一个里程碑:工具开始制造自己。 想想看,人类发明了锤子,但锤子不能制造锤子。人类发明了车床,车床可以加工零件,但不能完整地复制自己。 但Claude Code可以。 它可以理解自己的代码,修改自己的功能,优化自己的性能。 这是一个自我迭代的系统。每一次更新,都让它更有能力进行下一次更新。 1096次提交,很多都是Claude自己写的。 这种正反馈循环会加速到什么程度?没人知道。 从Vibe Coding到Vibe Everything Claude Code的成功证明了一件事:自然语言是最好的编程语言。 不是Python,不是JavaScript,而是人话。 这个逻辑可以延伸到所有领域。 设计?让AI渲染。 写作?让AI起草。 分析?让AI处理。 我们正在进入一个「Vibe Everything」的时代。 不需要学习专业软件,不需要掌握复杂工具,只需要能清晰表达自己想要什么。 这是真正意义上的「技术平权」。 一个没学过编程的小商贩,可以用Claude Code做一个库存管理系统。 一个不会Photoshop的创业者,可以让AI生成完整的品牌视觉。 技能不再是壁垒,想法才是。 开源生态的意义 更重要的是,现在国产开源模型也跟上来了。 GLM 4.7、MiniMax M2.1、Kimi K2,都能在Claude Code里用起来。 不再需要担心封号,不再需要承受官方订阅的高昂费用。 之前Claude Code一年十亿美金的收入,都被Anthropic一家吃掉。 现在开源生态繁荣起来,每个云厂商都可以部署、售卖、盈利。 而用户得到的,是只需要百分之一的价格,就能享受到同样的智能。 这不只是商业模式的变化,而是权力结构的变化。 AI 的能力不再被几家巨头垄断,而是变成了像水电一样的基础设施。 代码是新的文字, 而这次,每个人都可以执笔。
可靠本应是汽车标配,却成了最昂贵的旗舰配置
不知道从什么时候开始,一款新车的发布已不再让人满怀期待。 往往发布会还没开始,只要透露出价格区间,人们就能大致猜出它的配置清单。 比如一款售价 30 万元以上的纯电 SUV,几乎必然配备 100 度左右的大电池、双电机甚至三电机系统、4 秒左右的零百加速;底盘采用前双叉臂+后五连杆结构,再配上空气悬挂和 CDC 电磁减振;车顶装激光雷达,车内塞进冰箱、彩电、大沙发…… 冰箱彩电大沙发一应俱全 2025 年第一次看到这些配置时,或许还会「Wow」一声;但如今看多了,只觉索然无味。 在经过 24、25 年这一轮配置膨胀后,主流品牌的车型在同价位下,硬件层面已经很难区分出高下了。 车企们看着也有点迷茫,其中的一部分试图继续向上堆砌配置,空气悬挂从双腔卷到三腔,零百加速从 4 秒卷到 3 秒,激光雷达从 120 线卷到 500 线,各种精心包装的新名词更是层出不穷。 激光雷达从 1 颗增加到 5 颗 但一个尴尬的事实是,用户已经很难感知到这些差异了,并且也不太买账。 真正带来体验跃升的,反而是那些看似「传统」的指标,比如纯电续航,卷出了不少电池容量比几年前特斯拉还大的增程车。 而能真正重塑行业竞争逻辑的技术,如固态电池和 L3 级自动驾驶,恐怕要等到 2027 年之后才会真正落地。 从「创新产品」到「大众消费品」 为什么 「堆料」 不灵了?因为坐在桌对面买车的人,换了一拨。 营销学上有个著名的 「技术采纳生命周期」 理论——任何创新产品的普及都会经历几个阶段:从热衷尝鲜的 「创新者」,到具备前瞻眼光的 「早期使用者」,再到务实的 「晚期大众」。 2026 年的新能源车市,就已经是 「晚期大众」 的天下了。 如果说曾经的用户(创新者+早期采用者+早期大众)愿意为了激光雷达的先进性而容忍车机偶尔的死机,或者为了极致的加速而忽略售后的不便,那么目前的晚期大众们,则是一群截然不同的消费者。 他们的特征鲜明且「难搞」,他们对技术参数不感兴趣,对风险极度厌恶,购买决策高度依赖他人的推荐和品牌的背书。他们不想要一台 「很酷」 的车,他们只想要一台 「没错」 的车。 数据的变化佐证了这一趋势。 杰兰路最新发布的 NPS 调研数据显示,近几年,用户推荐或劝退一款车的逻辑发生了根本性重构。 两年前,一个极客用户可能仅仅因为 「这辆车的语音助手做得不错」 这一个理由,就向周围人疯狂安利。 但现在,用户在表达推荐意愿时,列举出的理由数量显著增加。 他们不再仅围绕单一因素做判断,而是开始综合考量产品体验、服务表现、外部口碑和价格管理。 「智能化好」已经不足以支撑一个购买建议了。现在的用户推荐逻辑变得立体且苛刻:产品体验是基础,售后服务必须跟上,外部口碑不能有污点,以及更重要的,价格管理要跟上。 杰兰路报告中展示的近几年「推荐理由」的变动 自 2023 年以来,「是否背刺用户」已连续多期位居用户推荐顾虑的首位。 极氪或许是新势力中在「价格管理」上吃过最大亏、也最有切肤之痛的车企。 2021 年横空出世的极氪 001,在当时同价位国产新能源车普遍扎堆豪华 SUV 赛道的背景下,另辟蹊径打出了一张强调「性能、底盘与操控」的差异化王牌,其独特的猎装轿跑造型,也成功吸引了一批追求个性与驾驶乐趣的年轻用户。 然而 5 年过去,极氪 001 的月销量已从高峰期的稳定过万,滑落至如今的 3000 辆左右。即便最新款 001 几乎将当下所有顶级硬件,包括高阶智驾芯片、双腔空悬、800V 高压平台等悉数标配,市场反应依然冷淡。 「一年磨三剑」的历史举动,严重透支了用户信任。 即便高管在发布会上反复强调「今年没有改款计划」,各大社交平台的评论区仍充斥着「不信」「再等等」的声音。 极氪官方明确表示 26 年 001 没有改款计划 信任一旦崩塌,再想重建就很困难了。 现在的消费者不需要你教育他们什么是 Orin-X 芯片,他们更在意的是:买了你的车,会不会降价?售后网点远不远?二手车残值会不会崩? 这就解释了为什么会有 「参数没输过,销量没赢过」 的现象。 高合的黯然退场,就是一个极具代表性的反面教材。 单论 HiPhi X 和 HiPhi Z 等几款车的长板,它们几乎触碰到了当时的技术天花板,展翼门和 ISD 智能交互灯光系统足够炫酷、好看,底盘和操控素质在媒体测评中也是一片赞誉。 高合的展翼门 但当高合试图用这些「极客向」的硬核配置,去打动 50 万–80 万元价格带更广泛的用户时,却遭遇了市场的冷遇。 在这些客群看来,NT 展翼门更像是「维修贵、开门难」的隐患;复杂的灯光系统也不过是一个华而不实的噱头。 更致命的是,后期频传的「资金链紧张」「融资受阻」等消息,进一步放大了消费者的不信任感。 高合试图用 「早期大众」 喜欢的硬件参数,去打动 「晚期大众」 极其看重的综合体验与品牌势能,结果出现了错位。 相比之下,零跑则提供了一个更具启发性的正面案例。 零跑做的第一款车 S01,是一款两门智能纯电动轿跑,受限于外观争议大、细分市场小,几乎是上市即暴死,让零跑首年就亏了 9 亿元。 零跑 S01 但创始人朱江明的调整速度极快。在经历这次挫折后,零跑果断转向主流家用市场,从 T03 开始,坚定聚焦「便宜又精致」的家庭用车定位,并持续投入「全域自研」以夯实技术底座。 随后 C11、C10、C16 一步一个脚印,产品矩阵清晰、定价务实、体验可靠,最终助力零跑成长为了 2025 年新势力的销量冠军。 零跑 C11 所以 2026 年的竞争,不再是比拼谁的长板更长,而是比拼谁没有短板,从 「解决某一个技术痛点」,变成了 「降低多维不确定性」。 「信任代理」 当这一波消费者面对令人眼花缭乱的参数表感到眩晕时,他们迫切需要一个简化的决策依据——品牌。 对于晚期大众来说,品牌就是一个 「傻瓜式」 的筛选器,是产品、技术、渠道一揽子解决方案的信用背书。 小米汽车最近的起起伏伏就都源于这份力量。 有调研显示,在 SU7 刚上市时,如果抹去 「小米」 的品牌,67% 的锁单用户表示不会购买,80% 的锁单用户自认是米粉。 他们买的不是一辆车,而是「小米」这个名字所承载的一整套承诺:体面的设计、可靠的生态、不会跑路的售后,以及开出去有面子的社交属性。 这种信任甚至延续到了尚未亮相的新车。YU7 在发布后仅 1 小时大定订单便突破 28.9 万台,很大程度上正是得益于 SU7 在市场上积累的良好口碑。 但后来小米在机盖设计、多起安全事故应对,以及最近 KOL 营销投放事件中的处理失当,直接动摇了消费者的信任根基,随之而来就是铺天盖地的质疑。 小米公司对最近风波的回应 或许也可以拿车圈之外事物举个例子。 关注音乐圈的朋友近几年都有种感受。《凤凰传奇》这个组合怎么越来越火了,不仅演唱会一票难求,咖位似乎也越来越高。 要知道,这只成立于 1998 年的内地音乐组合,一度被认为是广场舞专属歌曲。 但现在,谁到了 KTV 还不点一首奢香夫人呢。 曾经对凤凰传奇最为鄙视的 90 后们,反而成了最忠实的支持者。 凤凰传奇的成功很难复制,但其逻辑可以借鉴:常年稳定的高质量输出、面对时代变迁的韧性,以及持续与不同时代受众产生「同频共振」的能力。 这就是车企们苦苦追寻的,穿越周期的品牌力。 理想汽车的品牌使命 真正的品牌力,不是靠一两款爆款车型的参数碾压建立的,而是像凤凰传奇一样,在漫长的周期里,通过稳定的输出和价值观的传递,让用户从 「质疑」 到 「理解」 再到 「成为铁粉」。 对于 2026 年的车企来说,能否像凤凰传奇一样提供 「穿越周期」 的陪伴感,比多加一颗激光雷达重要得多。 「鞋底的沙子」 如果说品牌是宏观的灯塔,那么微观的体验就是脚下的路。 有句谚语不是说,在登山路上,往往最让人疲倦的不是远处的高山,而是鞋底里的一粒沙子。 最近车圈关于小鹏新车为什么销量后劲不足讨论很多,如果总结成一点,就是鞋底里有太多沙子了。 在智能化下半场,小鹏依然是技术最激进的玩家之一,但如果把将视角移向「用户体验」、「品控」、「售后」等维度,就会发现一种撕裂感。 比如最近的年度用车报告,有不少车主反映,小鹏的统计口径十分奇怪,对于拥有两辆小鹏的车主,数据一会统计两台车,一会只统计一台,一张图里的数据逻辑甚至相互打架。这种粗糙感,会让用户在潜意识里对品牌的严谨性打上问号。 再比如产品定义上犯的错,在性价比和技术迭代的双重压力下,小鹏曾出现过功能配置的 「断层」。比如,为了推新车的卖点,某个新功能在旗舰车型上缺席,却在更低价位的车型上首发;或者新版本的 OTA 让旧车型的功能体验反而下降。 社媒上对小鹏混乱配置的吐槽 对今天的消费者而言,这是不可接受的,他们希望看到的是 「平台化」 的功能下放——旗舰车型定义标准,主流车型继承功能,新老车型在软件体验上尽可能同权。 减少对用户的 「说教」,维护大众的普遍认知,扫除那些让用户体验不适的 「沙子」,不仅是小鹏,也是所有技术型新势力必须补上的一课。 总结一下,在下一个技术奇点到来之前,汽车行业将进入一个相对沉闷但极其考验内功的 「耕耘期」。 蔚来官网的用户口碑专区 在这个时间节点,不犯错,或许是成功的关键要素。 在主流价位段,将曾经专属旗舰的高级配置(如高阶智驾、舒适座舱)稳定下放,同时确保质量、售后、交付不出纰漏;维护产品保值率与价格体系的稳定性;坚定守护核心用户群体的信任——这些看似平凡的动作,恰恰构成了最坚固的护城河。 毕竟,在这个卷到极致的市场里,「靠谱」才是最昂贵的旗舰配置。 文|芥末
追觅CES 2026展示全屋智能生态系统,覆盖智能家电、清洁等多场景
凤凰网科技讯 1月11日,国际消费类电子产品展览会(CES 2026)于1月9日在美国拉斯维加斯落下帷幕。中国科技企业追觅科技在本届展会上展示了其全屋智能生态系统及多款具身智能产品,包括首次面向全球发布的具身智能割草机器人、泳池机器人及AI洗护机器人等。 追觅在LVCC与Venetian Expo两大展馆设立了总面积近2000平方米的展区,呈现涵盖智能大家电、智能清洁、智能厨电、个人护理、智能庭院及智能影音等类别的产品矩阵。该公司表示,首次面向全球发布的具身智能新物种、具身智能割草机器人、具身智能泳池机器人、AI具身智能洗护机器人均深度融合追觅在具身智能技术方面的最新成果,旨在实现从“被动响应”到“主动理解”的功能演进。 展会期间,追觅宣布其产品共获得超过50项国际奖项,其中包括CES“最佳创新奖”以及多家科技媒体评选的Best of CES奖项。多家外媒对其技术进展进行了报道,认为具身智能方向可能为智能家居行业带来新的发展路径。 NBA退役球星德里克·罗斯也现身追觅展台体验其产品,并与观众互动,吸引大量现场关注。此外,追觅在展会期间举办了多场发布会、合作签约及交流活动,进一步推进其全球化战略。 追觅表示,未来将继续探索具身智能等前沿技术,致力于为家庭场景提供综合型智能解决方案。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。