行业分类:
加载中...
头条分类:
加载中...
马斯克点火全球最大超算,首个1GW狂飙奇点!6万亿Grok 5在训
编辑:桃子 KinghZ 全网震撼!马斯克官宣,全球首个吉瓦级超算Colossus 2正式上线,狂堆55万块GPU,目标直指百万。下一代Grok 5已在训练,6万亿参数将引爆智能奇点。 全球首个吉瓦级训练集群! 马斯克一早激动官宣,专为训下一代Grok打造的「超算巨兽」Colossus 2,今天正式上线。 它可是全球首个,达到吉瓦级的AI训练集群。这是什么概念? Colossus 2的用电,要比旧金山全市用电峰值还要高。 预计在今年4月,升级到1.5GW,约等于一座大型核电站的输出。 OpenAI、Anthropic在内的很多劲敌还在规划2027年路线图,xAI这边直接把「城市级」算力搞定了。 更夸张的,是他们的执行速度: Colossus 1:从零到全面上线,只用了122天 Colossus 2:刚突破1GW门槛,目标直接冲着总共2GW去 Epoch AI此前一份报告称,Colossus 2将拥有相当于140万块H100 GPU等效算力 暴力出奇迹,依旧是马斯克坚信的路线——Scaling算力对于快速逼近「奇点」那一刻至关重要。 毕竟,在马斯克的叙事中,未来全球最强的AI玩家中,只有谷歌和xAI。 全球首个GW级超算:55万GPU xAI展现出的惊人速度,连老黄都为之惊叹。他曾这样高度评价道—— 马斯克对工程学的理解是独一无二的。别人需要1年完成的事情,xAI仅用19天就搞定了。 自动播放 外界对于Colossus 1的了解,要比Colossus 2系统得多。 从0开始仅用122天就拔地而起,拥有大约20万张H100/H200,以及约3万张GB200 NVL72。 去年,SemiAnalysis高级分析师一篇文章,曾深度分析了Colossus 2工程设计和所取得的成就。 接下来,就扒一下其背后的细节。 六个月,从0到200MW Colossus 2项目,于2025年3月7日启动。 它将配备55万块芯片,由GB200和GB300 GPU组成,最终未来扩展到百万GPU。 当时xAI在孟菲斯(Memphis)收购了一个100万平方英尺的仓库,以及两个总计100英亩的相邻地块。 不到六个月的时间,SemiAnalysis统计了现场已部署119台风冷冷水机组,即大约200MW的冷却能力。 这就足以驱动,大约11万张GB200 NVL72。 而且,这个巨大的超算,全部采用的是液冷设计。 马斯克一条推文显示,一些机架在7月份就已经安装好了 令人惊叹的是,xAI只用了6个月就完成了甲骨文、OpenAI花了15个月才完成的工作! 据介绍, Colossus 2造价高达数百亿美元。而xAI现在基本没外部收入,主要靠母公司X输血。 而且,报告里特意提了一嘴—— 马斯克跟中东几个「土豪」关系很铁,沙特、阿联酋、卡塔尔的主权基金,都是潜在的金主。 Grok 5在训,奇点更近了 Colossus 2的全面上线,也意味着「全球首个吉瓦级大模型」——Grok即将出世。 马斯克曾坚定地表示,xAI有机会通过Grok 5实现AGI。 此前,在一期采访中,马斯克还表示Grok 5拥有高达6万亿参数,而且智能密度更高,预计将在上半年发布。 不仅如此,它还原生支持视频理解。 可以预见,在首个吉瓦级超算上训出的Grok 5,实力一定超乎想象。 爆冲2GW,今年上线 去年12月底,马斯克斥资超200亿美元,买下了孟菲斯第三栋建筑,计划将Colossus总容量扩展至2GW。 这栋新建筑——MACROHARDRR,延续了Macrohard命名,位于Colossus 2旁,占地面积超80万平方英尺。 Grok估计,在2025年中,按AI算力排名前10中,Colossus 2和特斯拉Dojo位居第一和第7: 在AI算力上,马斯克疯狂加码,甚至他「已经在规划10GW甚至更高的算力」。 狂飙吉瓦级超算,硅谷巨头乱战 如今,全世界AI巨头们,正掀起一场前所未有的算力军备赛。 除了马斯克xAI之外,OpenAI、Meta、Anthropic也在纷纷加码,目标直指吉瓦(GW)级,甚至更大规模的AI超算。 2022年GPT发布以来,OpenAI、xAI、Anthropic、Meta Superintelligence等AI训练算力飙升 OpenAI:星际之门 「星际之门」,便是众所周知的典型代表之一。 2025年1月初,OpenAI联合软银、甲骨文等伙伴正式启动了名为「星际之门」(Stargate)的宏大计划。 这项「AI曼哈顿计划」,要在未来4年砸5000亿美金,建设总容量达到10GW的集群。 首期立即部署1000亿美元,如今进展迅猛。 去年9月,OpenAI公布了五个新站点,要在未来三年,实现7GW算力规模。 这样的规模相当于同时为数百万家庭供电,却全部用于驱动AI训练与推理。 Meta:普罗米修斯 Meta同样在加速狂奔。 早在去年,小扎就公开了资金代号Prometheus(普罗米修斯)的GW级AI超算项目,目标在2026年上半年上线。 不仅如此,Meta正在建设多个吉瓦级集群: Prometheus预计2026年率先达到1GW+ 后续的Hyperion项目,计划逐步扩展到5GW规模,占地堪比曼哈顿相当一部分区域 几天前,小扎再次重磅宣布启动全新顶级计划——Meta Compute。 计划明确表示,将在本十年内建设数十吉瓦AI超算,长期目标甚至指向数百吉瓦级别。 为此,Meta内部已组建专责团队,并与核电企业签订长期协议,确保能源供应跟得上疯狂扩张的步伐。 Anthropic:百万TPU下单,GPU也要 Anthropic选择了一条更聚焦的路线:深度绑定Google Cloud的TPU。 去年10月官宣,将把Google Cloud TPU扩展到最多100万颗TPU,合同价值数百亿美元。 而且,预计在2026年上线远超1GW的容量。 而且,Anthropic采用多平台策略,同时使用谷歌TPU、亚马逊Trainium和英伟达GPU。 如今,AI竞赛的胜负手,正从模型参数本身向基础设施倾斜。 硅谷巨头们狂建超算,原因很简单:下一代前沿模型所需的算力远超想象。 这场吉瓦级超算的全球军备赛,才刚刚拉开帷幕。 6千亿算力投资,AI榨干美国人钱包? 网友直呼,马斯克的算力赌注「太疯狂了。AGI最难的部分已不再是数学,而是字面意义上的能不能找到足够多的电源插座」。 2026年,这一趋势只会愈演愈烈—— 亚马逊AWS、微软、谷歌、Meta、甲骨文(Oracle)等超级云计算巨头正加速扩张。 它们的资本支出预计将超过6000亿美元,重点已全面转向AI专用基础设施建设,边缘服务成为次要关注点。 独立的市场研究和分析公司Dell’Oro分析师Baron Fung指出:「预计在未来2至3年内,这些部署将新增数十GW总电力容量,反映出加速计算对算力规模和密度提出了极高要求。」 Baron Fung是戴尔奥罗集团(Dell’Oro Group)的高级研究总监,负责数据中心IT资本支出、半导体与组件,以及以太网适配器与智能网卡研究项目 虽然整体趋势是「全面转向AI」,但各家打法并不相同: 亚马逊与谷歌聚焦自研AI加速器,围绕内部芯片构建数据中心; 微软则持续重金押注OpenAI以及自己的AI平台战略; Oracle借Stargate项目强势崛起,迅速构建新一代AI算力园区; Meta正在打造当前全球最庞大的AI数据中心项目,代表作包括Prometheus与Hyperion。 Baron Fung表示,这类新一代数据中心将集成大规模AI集群、高密度加速卡机架、先进网络连接与支持型存储系统。 「预计未来2到3年内,数十GW级的新超级数据中心产能将陆续上线,服务对象既包括内部AI平台,也涵盖大客户的关键AI工作负载。」Fung总结道。 但与此同时,电力短缺、设备交付周期拉长以及地方政府与社区的反对,也让扩张变得日益困难。 那些AI数据中心年入千万美元,而且零交通压力,零学区负担,看起来只会带来现金流。 这番说辞深得美国政界青睐——白宫如此,各州政府亦如此。 但对数据中心附近的居民而言,「根本没有好处可言」。 因为这些算力设施全天候24小时运转,内部部署着数以千计的服务器,而服务器需要大量电力与水来保持冷却。 一方面,数据中心建设热潮助推了AI革命;另一方面,AI热潮可能耗尽美国电网资源、榨干普通人的钱包。 AI正在推高电价,而没有人对此感到满意。甚至有媒体称: 美国对数据中心的「战争」即将到来。 2025年12月1日,密歇根州塞林(Saline)的居民集会,反对一座耗资70亿美元的「星际之门」(Stargate)数据中心。 根据美国能源信息署(EIA)的数据,自2022年以来,全美几乎所有地区的居民零售电价涨幅均超过通胀率,且这一现象很可能持续至2026年。 比如,去年,新泽西州的电费账单上涨了约 20%。 美国电价飙升的深层矛盾源于积弊数十年的结构性问题:老化的基础设施亟待更新,而过时的商业模式与法规体系拖慢了电网升级的步伐。 而数据中心建设浪潮,给美国的电力供应体系前所未有的难题。 据《Data Center Watch》统计,反对数据中心建设的浪潮正在加速: 2025年仅第二季度就有980亿美元的在建项目受到阻碍或严重拖延。 去年上半年,美国已有36个项目涉及投资高达1620亿美元的AI算力项目受到阻碍或严重拖延。 如果说AI热潮给全世界带了硬件短缺,那给美国带来的更严重的问题将是电力短缺。 保算力,还是保电力,成了美国不得不考虑的问题。 要支持数十GW级的新超级数据中心产能,电力而非算力卡了美国AI的脖子。
马斯克最大算力中心建成了:全球首个GW级超算集群,再创世界纪录
Jay 发自 凹非寺 量子位 | 公众号 QbitAI 刚刚,全球首个GW级超算集群Colossus 2,正式投入运行。 马斯克兴奋喊话: 这是全球首个达到1GW的超算集群,4月还将进一步升级至1.5GW。 网友直呼疯狂:「1.5GW,光是插座估计都得给墙壁装满了。」 有了这剂算力强心针,Grok的忠实拥趸已经提前开香槟,开始畅想Grok5的统治时代。 但在全网狂欢的背后,更多的人是苦不堪言—— 2026年夏天,美国13个州的6700万居民,可能要因数据中心的存在被停电,没空调吹了。 全球首个GW级训练集群 老马的执行力太恐怖了。 不靠亚马逊,不靠微软,也没有「星际之门」计划,一己之力于孟菲斯平地建起一座1GW的超级超算集群。 前一代超算集群Colossus 1从无到有仅用了122天。 它配备约20万颗英伟达H100/H200和约3万颗英伟达GB200 NVL72。 而在此基础上翻了好几倍,功率达到1GW的Colossus 2,只花了仅仅不到一年。 1GW是什么概念? 一般来说,1GW可以为75万户家庭供电,轻松供电一整个旧金山。 一座核电站的功率差不多也就是1GW。 如果按马斯克所说,今年4月份,Colossus 2将升级至1.5GW,最终总装机容量达到2GW,这个数字将与美国大多数主要城市的用电量相当。 按照规划,彻底完工后的Colossus 2将内置55张GPU,远超Meta的15万、微软10万,以及谷歌的分布式基础设施。 而这庞大的资源,全部为Grok独自享用。 此前,曾有爆料称Grok 5的参数将达到惊人的6万亿左右,是Grok 4的两倍以上。 原因便是基于Colossus 2: 当时有观点认为Grok 5将在拥有数十万张英伟达GPU的Colossus 2上训练,耗电量约为1GW。 如今,Colossus 2已正式上线,1GW的条件也正正好好满足。 而随着前段时间xAI E轮融资200亿美元的进账,Grok 5的Scaling筹码还在进一步增加。这意味着更大的模型参数,更快的训练速度、迭代速度,部署速度。 当OpenAI还在为2027年的算力基础设施发愁时,xAI已经把一座「城市级」AI 工厂开机运行,将Grok 5提前扶上了市场心目中的下一个SOTA。 正如网友所说,AI时代,速度就是最强的护城河。 居民受不了啦! 不过,并非所有人都因这种「速度」受益。 据《华尔街日报》消息,美国非营利电网运营商PJM,未来可能在极端高温或严寒天气期间,轮流对区域内的居民断电。 这意味着,美国13个州的6700万人,在今年不得不迎来一个相当难熬的夏天。 要说清楚这个问题,得先明白PJM是干嘛的。 PJM,简单来说就是美国能源系统的交通指挥中心,它根据实时用电需求,协调发电厂何时增发、何时降载,以维持供需平衡。 然而,大模型大力出奇迹的竞赛正在破坏这种平衡。 在数据中心建设热潮推动下,PJM预计未来10年电力需求将以年均4.8%的速度增长。 对一个多年需求变化不大的系统来说,这样的增速相当罕见。 一边需求激增,另一边,供给的增速却相当缓慢。新建电厂的速度甚至都跟不上老电厂的退役速度,电网容量面临饱和。 供需一旦出现偏差,电网频率就会波动,进而可能损坏发电厂等关键基础设施。 为避免这些风险,PJM只能两害相权取其轻,通过在用电高峰期轮流停电来卸压。 PJM也不是没想过其他办法。 去年9月,PJM发布了一系列提议,希望数据中心在高峰时段主动降低用电量,或改从其他渠道获取电力支持。 然而,亚马逊、谷歌、微软等几乎都表示了反对,认为这是对数据中心的歧视。 值得一提的是,PJM主要负责美国东海岸地区,而xAI的Colossus位于中南部,并不在PJM电网覆盖范围内。 同时,为减少对当地电网的冲击,xAI还部署了168个特斯拉Megapack电池储能系统,在用电高峰期提供电力缓冲,尽量避免周边居民遭遇停电。
不学抖音学INS,OpenAI想站着把钱挣了
一年多以前,奥特曼对AI+广告这件事嗤之以鼻,他在演讲中公开表示,不到迫不得已,ChatGPT绝对不会加入广告。 而如今的奥特曼只会说:“真香!”。 OpenAI正式宣布,将在ChatGPT中开始测试广告业务。预示着奥特曼的立场也正在发生转变。 根据财报,谷歌的广告收入占比为72.5%,Meta更高,直接达到了97.7%。 其实对于坐拥8亿月活的ChatGPT来说,广告是一场不得不打的硬仗。 好在OpenAI还算体面,至少在官方公告里,它选择“站着把钱挣了”。 01 OpenAI广告测试针对两类用户群体展开。 第一类是免费版ChatGPT用户,这部分用户占据了ChatGPT总用户量的绝大多数,据行业估算约为95%。第二类是新推出的ChatGPT Go订阅用户,这是OpenAI新推出的服务,定位于免费版和Plus版之间的中间层级,月费为8美元。 相比之下,Plus用户每月20美元,Pro用户每月200美元,还有面向企业的Business和Enterprise套餐,这些高端订阅用户将继续享受无广告体验。 OpenAI的策略很明确,用广告来覆盖免费和低价用户的成本,同时用无广告体验来维持高端用户的付费意愿。 广告的展示形式经过了精心设计。 根据OpenAI提供的示例截图,广告将以独立模块的形式出现在ChatGPT生成答案的底部,与正常对话内容明确区隔开来,并标注“Sponsored”(赞助)字样,避免了广告与AI回答混为一谈。 广告内容的推送基于用户当前对话和历史查询的意图进行定向推荐。 当用户询问墨西哥晚餐烹饪建议时,ChatGPT在给出详细菜谱后,可能会展示相关食材或厨具的赞助广告。当用户咨询旅行计划时,可能会看到酒店或航班信息的推广。 这种基于对话语境的广告投放,是OpenAI所谓“意图驱动的赞助推荐”的核心。 在隐私保护方面,OpenAI做出了几项承诺。奥特曼强调,公司不会接受金钱来影响ChatGPT给出的答案,也会对广告商保密用户的对话内容。 OpenAI承诺不会出售用户数据,并允许用户随时清除用于广告投放的数据。用户可以关闭基于对话的广告个性化功能,而不影响ChatGPT的其他个性化特性。 OpenAI还设置了广告展示的限制条件。系统将自动识别对话语境,在涉及健康咨询、心理健康辅导或政治讨论等敏感话题时强制屏蔽广告展示。 18岁以下的用户也不会看到任何广告,这一判断将通过用户自报年龄或即将推出的年龄预测模型来实现。 顺便一提,虽然和本文无关,不过ChatGPT即将推出的成人服务,也将采用年龄预测模型来判断用户的真实年龄。 现如今,OpenAI面临着巨大的财务压力。虽然年化收入已达200亿美元,但每年在算力和研发上,要烧掉170多亿美元。 这个数字有多吓人呢?换算下来,OpenAI每天的运营成本约4700万美元,每小时近200万美元,每分钟超过32万美元。 不仅如此,OpenAI还承诺未来将投入约1.4万亿美元在AI数据中心和芯片基础设施上。目前OpenAI只筹集到了大概1400亿美元,仅为所需资金的10%,未来预计通过IPO等方式持续融资。 即便OpenAI在2025年完成了400亿美元的融资,估值达到3000亿美元,创下私募融资纪录,但这笔钱相对于未来的支出需求仍然是杯水车薪。 汇丰银行测算显示,OpenAI 2025-2033年间需额外融资2070亿美元才能覆盖支出。就算根据目前的复合增长率,2030年营收达到2130亿美元,仍有2000多亿美元资金缺口。 02 一分钱难倒英雄汉,不过促使奥特曼对广告态度发生转变的原因,还与Instagram的广告密不可分。 在1月17日宣布OpenAI进行广告测试的同时,奥特曼在社交媒体上表示,Instagram的广告很酷,他从中买了很多东西。这番表态透露出OpenAI广告策略的底层逻辑。 Instagram的广告系统之所以被奥特曼称赞,源于其精妙的算法设计。 他们广告的核心在于“原生性”和“相关性”。 该平台并非使用单一算法,而是针对Feed、Stories、Reels、Explore等不同场景部署独立的AI排序系统。每个系统根据用户在该场景下的行为模式进行优化,Feed侧重社交关系,Reels侧重内容发现,各有侧重。 Instagram的广告投放逻辑遵循Meta的核心竞价逻辑,这不仅仅是看谁出价高,而是看“总价值”。 广告主愿意付出的成本叫做Advertiser Bid。而这个值,要乘以Estimated Action Rate(预估行动率),最后再加上User Value(用户价值),就是这条广告的总价值。 其中,预估行动率是系统预测用户真的会去购买或点击的概率。这个值也是Meta的护城河,依赖其庞大的Pixel数据和历史转化模型而得出的结果。 用户价值是广告质量(素材是否令人不适、是否是标题党),以及落地页的展示效果。 这和国内短视频平台的广告逻辑不同。以抖音为例,他们的广告逻辑是ECPM排序+流量赛马 (Horse Racing)。 所谓流量赛马就是广告上线后,先放入一个小流量池(冷启动),测试其完播率、互动率、3秒停留等原生指标。如果数据好,才进入下一级流量池。 而ECPM排序取决于抖音的大模型对视频的理解。 因此,抖音广告更像是一个“付费的爆款视频”。如果素材本身没有娱乐性,系统给的预估极低,你有钱也烧不出去。 不仅如此,Instagram的广告推荐来自于你的社交图谱。比如你的朋友关注了谁、你经常给谁点赞、你通讯录里的人在看什么。 但抖音是来自于实时兴趣,哪怕你的账号是新的,没有粉丝,只要内容好,算法就能识别。抖音极其看重你此刻的行为(刚才停留了多久、是否点进主页)。 比如你刚看了一个猫咪视频,下划立刻给你推猫粮广告。 Instagram这种广告模式之所以能成功,原因就在于它不是打断用户,而是基于深度行为分析推荐用户可能感兴趣的产品。 用户不会觉得被强制推销,反而可能发现一些自己真正需要但之前不知道的东西。这正是奥特曼所说的“广告帮助用户发现真正需要的产品”的含义。 OpenAI采用的“意图驱动的赞助推荐”正是对Instagram模式的借鉴。与传统搜索引擎的竞价排名不同,ChatGPT广告强调“实用性”和“发现价值”。 当用户表达某种需求时,广告提供的应该是解决方案,而非干扰。 传统搜索广告的逻辑是“拦截意图”。 用户搜索“治脱发”,搜索引擎就推送医院广告。这是基于明确需求的流量变现,效率高但体验差。 用户知道自己在看广告,也知道这些广告是谁出钱最多谁排前面,信任度自然很低。 OpenAI的广告逻辑是“创造需求”。 用户在和AI聊职业规划时,ChatGPT不仅给出建议,还可能在对话中顺势推荐一个在线课程或生产力工具。这个推荐看起来是对话的自然延伸,而非突兀的商业插入。 用户可能从未听说过这个产品,但因为它确实符合当前的需求场景,接受度会高得多。 这种技术被称为“高语境下的原生推荐”。 在传统搜索栏里,用户只是输入关键词,搜索引擎对用户的了解非常有限。 但在ChatGPT里,用户输入的是背景、情绪、甚至隐私。AI对用户的理解深度远超传统搜索引擎,因此它推送的广告不再只是链接,而可能是一个真正的解决方案。 举个例子,用户向ChatGPT倾诉工作压力大,想要改善生活状态。传统搜索广告可能会推送心理咨询机构或保健品。但ChatGPT可能在给出减压建议的同时,推荐一个冥想应用或时间管理工具,这些推荐与对话内容无缝衔接,看起来更像是朋友的建议而非商业推广。 这种模式的优势在于,它将广告从“干扰信息”进化为“付费解决方案”。 用户不会觉得被打扰,反而可能感激这个推荐。但风险也同样巨大,一旦用户觉得AI的建议不再中立,而是充满了铜臭味,这种“信任红利”的崩塌将是不可逆的。 OpenAI显然意识到了这个风险。公司反复强调,广告不会影响ChatGPT的回答,回答始终基于“客观有用性”而非广告商的利益。应用CEO Fidji Simo在社交媒体上表示,最重要的是“广告不会影响ChatGPT给你的答案”。这是OpenAI试图在商业化和用户信任之间走钢丝。 但这条钢丝能走多久,没人知道。历史经验表明,当收入压力增大时,围绕广告定向的防护措施往往会逐渐松动。社交媒体平台就是前车之鉴,最初都承诺保护用户隐私,但随着商业化深入,这些承诺逐渐被稀释。OpenAI能否避免重蹈覆辙,将是一场关于“机器信誉”的豪赌。 03 不过说到底,OpenAI的广告转向,不是一家公司的选择,而是整个AI行业面临的普遍困境。 2026年对OpenAI来说是生死攸关的一年。经济学家塞巴斯蒂安·马拉比(Sebastian Mallaby)在《纽约时报》发表文章称,OpenAI可能在18个月内耗尽资金。 Anthropic在2025年的现金消耗达到30亿美元,虽然2026年计划削减至1/3,然而仍然是一笔巨额支出。 Anthropic主要依靠API调用和企业订阅。 据Menlo Ventures的《2025年企业生成式人工智能报告》,Anthropic在企业大语言模型市场的份额从2023年的12%增长到2025年的40%,超过了OpenAI的27%。 但市场份额的增长并未转化为盈利能力,公司仍在烧钱扩张。 科技巨头们也面临生存压力。据CreditSights估算,谷歌、微软等五大云服务商2025年资本支出预测为4470-5000亿美元,2026年将增加至6000亿美元以上,增幅36%,其中约75%用于AI基础设施。 事实上谷歌和Meta早已证明,数字广告就是互联网时代最赚钱的商业模式。谷歌的广告收入占比72.5%,Meta更是高达97.7%。 广告是AI公司最现实的变现路径,尤其是这些AI大厂,动不动就有几千万甚至几亿的月活,广告甚至有可能成为企业最重要的收入来源。 对于OpenAI和Anthropic这样的AI创业公司来说,订阅收入难以覆盖巨额的算力成本。OpenAI的Plus和Pro订阅用户约占5%,即便按照最乐观的估计,订阅收入也无法支撑公司的长期发展。 广告业务则不同,只要用户规模足够大,广告收入的天花板也就足够高。 ChatGPT拥有8亿月活用户,即便只有一半用户看到广告,按照行业平均水平计算,年广告收入也可能达到数十亿美元。这对于缓解OpenAI的财务压力至关重要。 更重要的是,广告业务的毛利率远高于AI服务,作为行业先锋,谷歌和Meta的广告业务毛利率都在80%以上。 但广告业务的引入也带来了新的风险。用户对ChatGPT的信任建立在其中立性和客观性上,一旦广告影响了回答质量,或者用户感觉被操纵,这种信任就会崩塌,那么用户就会转而使用其他平台的AI产品。 不仅如此,AI行业还面临着技术瓶颈的挑战。大语言模型的训练成本呈指数级增长,可性能提升却在放缓。OpenAI的GPT-4相比GPT-3有显著进步,但从GPT-4到GPT-5的提升幅度可能不如预期。 在2026年乃至以后,这个情况只会越来越明显。 从这个角度看,OpenAI引入广告业务不仅是商业化的需要,也是生存的必然选择。 奥特曼的“最后手段”已经成为现实。但这并不意味着OpenAI完全放弃了理想,而是在理想与现实之间寻找平衡。 对于OpenAI来说,2026年将是关键的一年。公司需要证明广告业务可以带来可观收入,同时不损害用户信任。需要继续推进技术创新,保持在行业中的领先地位。还需要为IPO做好准备,向公众市场证明其长期价值。这些挑战环环相扣,任何一环出问题都可能影响全局。 广告可能不是最优雅的选择,但在当下,它是最现实的选择。
OpenAI的不归路——关于ChatGPT加入广告的五个冷思考
靴子终于落地,OpenAI宣布在ChatGPT中推出广告。 根据OpenAI官方博客的说法,广告对象是免费用户和Go订阅用户——Go是新推出的订阅套餐,每月8美元,而Plus、Pro、Business和Enterprise用户不会看到广告。 我在去年4月份就专门写过一篇文章讲《为什么广告是AI大模型公司最现实的商业模式?》。 现在正在被一一验证,赶着热乎劲,结合我之前的观点,说一下我的5点思考—— 思考一:广告在公司发Code Red一个月后推出,说明OpenAI产品和商业化正在打架。 去年12月初,由于Gemini 3 Pro的冲击,Sam Altman内部发了个红色警报(Code Red),说要全公司集中精力改进ChatGPT,其他项目包括广告都先放一放。 最终的结果是,广告只推迟了一个多月就上线了,这只能说明变现的压力太大,大到一定要尽快吃上广告这碗饭。 去年8月,OpenAI挖来了Fidji Simo担任应用业务CEO,她之前是Meta高管,负责过Facebook的广告业务,后来去Instacart当CEO。 此外,OpenAI还有很多之前是做广告的人,比如目前OpenAI的首席产品官凯文*威尔之前在Instagram的重要工作就是负责Ins的广告工作。 还有一位副总裁,2024年5月加入的Shivakumar,他的上份工作是在谷歌的搜索广告部门做老大。 你细品这些人的履历。 显然,这些人的加入可不是来搞AGI研究的,他们唯一的目标就是——搞钱。 而广告是来钱最快最直接的方式。 这些人的加入,在心理层面改变了山姆·奥特曼对广告的态度变化。 我们看看这种变化是如何具体发生的—— 2024年5月,奥特曼在接受采访时说: “广告加AI让我感到特别不安。我认为广告是我们商业模式的最后手段。” 原话是: “Ads plus AI is sort of uniquely unsettling to me. I kind of think of ads as a last resort for us for a business model.” 到了2024年的哈佛演讲,他的口风松了一点: “我个人讨厌广告,但我不是完全反对它们,我不是说OpenAI永远不会考虑广告。” 到205年3月的接受科技作者Ben Thompson的采访时,谈到商业模式时称—— “我并不反对广告,如果有充分的理由去做,我不会固执己见。我对尝试一些新模式更感兴趣,比如,用户通过“深度研究”找到想购买商品,我们可以收取2%的营销佣金。” 2025年10月,他在一个播客里说: “我喜欢Instagram的广告,它们给我带来了价值,让我发现了从没见过的东西,我买了不少好东西。我相信我们可能可以做出某种很酷的广告产品,对用户来说是净收益。” 奥特曼打脸的过程,恰恰说明这恰恰说明他是个实用主义者,而在Code Red一个月后推出广告,也表明商业化、应用、研究三者已经有互相打架的苗头。 如何在这三者之间走钢丝,是奥特曼接下来最大的挑战。 思考二:从广告的形式看OpenAI很谨慎,但我有一个暴论:这种谨慎可能持续不了太久 从目前公布的信息来看,OpenAI对广告还是很谨慎的的: 首先,广告会出现在回答的底部,而不是插在回答中间,这一点很关键。 其次,广告会被清晰标注为“Sponsored”(赞助内容),和正常回答有明显区分。 第三,用户可以选择关闭个性化广告,可以了解为什么看到某条广告,也可以直接关闭某条广告并提供反馈。 OpenAI特别说明:广告不会影响ChatGPT的回答内容。 这些设计表明,作为一个广告新手,OpenAI不想步子迈得太大。 但问题是,这种谨慎的状态能持续多久? 事实上,去年12月The Information报道说,OpenAI内部讨论过让AI模型“优先展示赞助内容”的方案。 虽然没实施,但这个念头曾经被认真考虑过,这本身就说明问题。 Google当年也是这么干的,最开始,广告在搜索结果的右侧,和搜索结果完全分开、泾渭分明。 后来呢? 所以,要忍住商业化的诱惑很难的,特别是考虑到它每年要烧掉170亿美金的时候。 我只期待OpenAI不要比谷歌的吃相更难看。 OpenAI说他们不会把对话数据卖给广告商,用户可以随时清除用于广告的数据。 这一点我也是很难相信的,毕竟,Facebook当年也是这么说的,后来的事大家都知道了。 不要高估这些美帝资本家的道德标准,唯一能制约他们行为的,其实是竞争态势—— Emarketer分析师Jeremy Goldman的评论很有代表性: “如果广告显得笨拙或投机取巧,用户很容易就会转向竞争对手,比如Google的Gemini或Anthropic的Claude。” 思考三:谷歌应该是喜还是忧? 对谷歌的影响,业界存在分歧,最典型的有两个观点—— 一方认为,谷歌应该睡不着觉了。 原因在于,一个8亿周活的App加入广告,很显然会抢走广告的广告份额。 Google 2025年第三季度光广告收入就有742亿美金,YouTube还有102亿,这是谷歌的底气,也是命根子。 如果ChatGPT能证明对话式广告的ROI比搜索广告更高,那Google貌似的确有睡不着觉的理由。 这是一个直接的逻辑,我们来看另一方的观点—— 有分析认为,或许谷歌并不慌。 原因在于,Google 最怕是 OpenAI 真的做一个不食人间烟火的纯净产品,彻底把用户习惯从搜索带到对话,并且完全不通过广告变现。 那样的话,Google 的根基:广告营收,就被彻底釜底抽薪了,那是降维打击。 现在好了,OpenAI 也做广告了。 这就意味着,战争回到了 Google 最熟悉的战场:谁的广告系统更高效?谁的广告主资源更多?谁的 CPM更高? 在这方面,Google 是祖师爷,OpenAI 还是个愣头青。 某种意义上,我是认可后边这个观点的。 只要 OpenAI 开始依赖广告收入,它就必然会变得越来越像 Google,它得讨好广告主,得做数据追踪,得搞合规。 它就会变重,变庸俗。 这时候,Google 的 Gemini 只要做到体验哪怕只有 ChatGPT 的 90%,但凭借安卓生态和庞大的广告销售网络,它就能活得很好。 OpenAI 把自己拉回了凡间,Google 就不怕了。 别忘了,Gemini目前在技术层面已经赶上来了,OpenAI如果广告模型证明走得通,那Gemini加进入广告是分分钟的事。 思考四:OpenAI的广告一年能赚多少钱? 这个估算其实挺难的。 假如我们用下面经典的广告公式来计算,会面临很多因子无从下手的困境—— 收入 = 日活跃免费用户 × 人均会话次数 × 广告加载率 × 点击率 (CTR) × 单次点击成本 (CPC) × 365天。 比如,人均会话次数没有现成的数据,广告加载率按神马水平算?点击率CTR和CPC更难,即便一起算CPM,也很难直接参考谷歌的CPM,毕竟ChatGPT第一年只在美国推出,而谷歌的数据通常是全球的数据。 那么,咱们就从另外两个简单进行预估—— 先看第一种算法:收入=用户数 × ARPU 先看用户基数,ChatGPT目前有8亿周活跃用户,其中约95%是免费用户,也就是7.6亿人可能会看到广告。 但广告初期只在美国测试,美国用户约占19%,即1.4亿人,只对成年人开放,再打个折,按用户数1亿计算。 再看ARPU(单用户广告收入)。 参考谷歌,其全球广告ARPU约50美元/年,北美高达200美元/年,但ChatGPT是新广告平台,广告Adsload、广告竞价队列、广告系统基建效率会远低于谷歌。 所以假设ChatGPT首年广告ARPU为谷歌的10%-20%,在20-40美元之间。 计算结果:1亿用户 × 20美元/40美元 = 20亿美元/40亿美元。 这个数字合理吗? 对比一下:OpenAI 2025年总收入约200亿美元,广告如果明年贡献20-40亿美元,约今年收入的10-20%,作为新业务线的起步数字相当可观。 再看第二种算法:对标谷歌搜索广告 根据公开信息,谷歌搜索目前每日约140亿次查询,2025年搜索广告收入约2000亿美元,ChatGPT目前每日处理约25亿条消息,相当于谷歌查询量的18%。 但不能简单按比例算。 原因有三: 第一,ChatGPT的对话性质决定了广告展示频率远低于搜索——谷歌几乎每次搜索都有广告位,ChatGPT只在部分回答后展示; 第二,ChatGPT的商业意图查询比例大概率低于谷歌,约30%是工作相关,还有很多对话是闲聊; 第三,广告主对AI广告的投放还在观望期,CPM(千次展示成本)会低于成熟的搜索广告。 综合以上因素,假设ChatGPT广告的有效变现率是谷歌的10%-20%。 计算结果:2000亿 × 18% × 10%/20%= 36亿美元/72亿美元。 两种方法得出的结果没有数量级差异,ChatGPT广告首年收入大概在20-72亿美元区间,已经不算少了。 这笔钱能帮OpenAI缓解烧钱压力,但相比其1.4万亿美元的基础设施投资承诺,仍是杯水车薪。 不过,早在去年Q2,富国银行证券分析师Ken Gawrelski就在一份报告中给出了一个大胆预期:ChatGPT将在2030年的广告收入可能高达1000亿美元,占据全球搜索广告市场的30%份额。 我有一个暴论:广告收入大概率会在三年内成为OpenAI的第一大收入来源。 思考五:硅谷和国内的其他AI公司神马时候上广告? 很多人以为OpenAI是AI公司里第一个吃广告这只螃蟹的。 错了,其他很多公司早就开始了—— 谷歌在2024年就将广告引入到了对话型AI产品中,只不过放在搜索的AI结果Overviews里。 去年5月的谷歌 Marketing Live 上,Google 副总裁兼广告总经理 Vidhya Srinivasan宣布在Overviews中加入广告。 2024年12月百度营销大会也明确将“AI搜索结果”加入商业化流量池。 Perplexity在2024年11月12日在官方博客上发表了文章《 Why we’re experimenting with advertising》,宣布引入广告。 主要通过两种形式:一是"答案之后的相关问题",二是答案侧边栏广告,两种形式都会标注为"赞助"。 还有,早在2023年,微软的Bing搜索就已在其AI助手Copilot中集成了广告,广告显示在AI生成的答案下方,带有“赞助”标识。 不过话说回来,国内大部分大模型产品的确没有加广告,那么问题来了——它们神马时候会加? 我认为快乐,就在这一两年。 为什么这么说? 这几家公司没有加广告,我认为核心原因在于并不在于它们没有意识到广告模式的效率与价值。 而是在它们认为目前出于产品层面激烈竞争的市场早期,目前有比广告更重要的事要去做,从而对引入广告的时机没有达成共识。 当然,各家的具体情况还是有所不同的—— 豆包背靠字节,本身是一台广告印钞机,要接广告是分分钟的事。 但从动向来看,其精力依然在通过产品做增长,同时铆足劲召集人马冲击智能SOTA,看不上人豆包那一点广告收入; 当然,它也不是一点动作没有,商业化基因极强的豆包也已经在进行谨慎的尝试了,在回答输出中引入了抖音的商品卡。 元宝背靠腾讯,广告系统也极其成熟,目前没接,原因是还在打仗,还远没到商业化的时候。 事实上,在腾讯24年Q4的财报电话会上,腾讯的首席战略官James Mitchell在谈到元宝如何变现时,他的回答是这样的—— “至于 AI 如何变现,时间会证明一切,但我认为我们已经在西方世界看到了,第一种变现方式是通过订阅模式。然后随着时间的推移,效果广告将会跟上。我认为在中国,它将从效果广告开始,然后增值服务将会跟上。” 也就是腾讯管理层认为,在中国,效果广告大概率会比订阅制的增值服务在实践层面更现实。 再说千问,千问目前正在以极其进取的阶段做产品和用户增长,很显然,商业化并非这个阶段的第一优先级。 考虑到阿里的广告基建在国内也是妥妥的第一梯队,接广告也一定是简单的事。 再联想一下千问最近打通阿里全生态的产品更新,后续在“帮我买一杯奶茶”之类的购物action中加入广告,那也是合理且丝滑的产品逻辑。 所以,国内产品还没加入广告,只是竞争格局还没稳固,但加是迟早的事。 要知道,国内的整体付费意愿显然是低于海外市场的,这是国内必须通过广告而非订阅进行变现。 真格的戴雨森说过这样一句话,大意是“大模型现就是个高中生,你硬要它去赚钱也行,但肯定赚得不多,但你输入供它上完博士,那它就可以赚大钱。” 我更喜欢这样比喻—— 现在各家都在爬一颗巨大的桃子树,你可以爬的过程中摘桃子。 但各家的目标现在是往树的顶端爬,去占据更有利的摘桃子位置、摘最红的桃子,因此暂时没时间去理会“低垂的果实”。 结语 写完这篇文章,我想起Sam Altman在2024年说过的一句话: “如果搜索引擎能给出最佳答案,用户就不会去点广告了。广告存在的前提,是产品没有给出最好的答案。” 他当时是在批评Google的搜索广告模式。 现在,他自己也要走这条路了。 希望他还记得自己说过的话,尽管这可能是一个奢望。
内存涨价赚翻!三星重奖员工:狂发50%年薪
快科技1月18日消息,内存疯狂涨价,直接喂饱了三星。 韩媒Business Korea报导,三星电子于内部确认并正式公布了2025年度超额业绩激励(OPI)各事业部的支付比例,支付日期定为1月30日。 其中,三星电子的设备解决方案(DS)部门(负责半导体业务)今年将获得相当于年薪47%的绩效奖金(OPI),较去年的14%大幅提升,主要得益于通用DRAM和高带宽内存(HBM)业绩的大幅提升。 适用于包含记忆体、晶圆代工(Foundry)与系统LSI( System LSI)在内的各业务单位。 其中,晶圆代工事业部去年取得亮眼成绩,与特斯拉签下史上最大供应合约,总额达22.8兆韩元;系统LSI事业部则与苹果签约,供应下一代iPhone影像感测器。 移动体验(MX)事业部因Galaxy S25与Fold 7系列销售强劲,可分配到50%的奖金比率,成为三星表现亮眼的事业支柱。 在设备体验(DX)大部门中,MX事业部获批50%;负责电视业务的视觉显示(VD)、数码家电(DA)、网络以及医疗设备事业部均为12%;管理支持、汽车零部件以及音频子公司Harman则获批39%。 OPI每年发放一次,当所属事业部绩效超过年初设定目标时,奖金可达个人年薪的最高50%,且总额不得超过超额利润的20%。 三星电子1月8日公布的第四季度初步业绩显示,营业利润达20万亿韩元,其中DS部门贡献约80%(约16-17万亿韩元)。
鸿蒙大饭店叫停背后:门店一个月要花10万给顾客吃饭充电
几个月前的余承东,或许也没想到,自己在社交网络上赞扬的 “ 鸿蒙智行大饭店 ” 在短短五个月内就惨遭夭折。 2025 年 7 月 17 日,华为常务董事余承东发微博称自己在内蒙的鸿蒙智行用户中心 “ 吃夜宵,很有特色 ”,并欢迎大家去鸿蒙智行用户中心洗车和用餐。 广大网友也是十分实在,“ 你一呼,我就应 ” 地涌入了各地的鸿蒙智行用户中心。 直到现在,社交媒体平台上,你还能看到当时大量网络红人以及普通群众在鸿蒙智行的吃饭打卡照片。 面对鸿蒙智行的大方放粮,广大群众也亲切地称其用户中心为 “ 鸿蒙智行大饭店 ”。 “鸿蒙大饭店” 这个戏称以及社交网络上海量的打卡分享行为,助力鸿蒙智行品牌破狠狠地破了一次圈。 然而,就在前不久,鸿蒙智行彻底宣告了 “ 鸿蒙大饭店 ” 的死亡。鸿蒙智行通知所有鸿蒙智行用户中心停止相关话题宣传,并规范终端服务项目,禁止提供免费充电、免费洗车以及免费餐饮,仅能在相关业务过程中依规提供洗车和餐饮。 此消息一出,网上开始流传几张羊毛党薅鸿蒙智行羊毛的聊天记录截图。大概是说,有老年旅游团去鸿蒙用户中心,假借看车名义蹭吃蹭喝;又或者是一人提车,全家 12 人用餐;再或者附近居民成为用户中心常驻居民影响真实车主权益等等。 诚然,确实有人会钻规则的漏洞,享受着本不该属于自己的红利。但是,知危编辑部在实际走访中发现,“ 鸿蒙智行大饭店 ” 的按下暂停键这件事,也不能全怪羊毛党。 首先,不可否认的是,确实存在 “ 薅羊毛 ” 现象。 一种是 “ 吃瓜群众 ” 薅羊毛,比如上海最大的鸿蒙智行用户体验中心( 吴中路 )的工作人员告诉知危编辑部,一到周末,鸿蒙用户体验中心的咖啡机就停不下来,休息区人满为患。 还有一种是鸿蒙智行车主去店内占便宜。上海某鸿蒙智行用户中心的销售对知危表示,有人将用户中心当成了免费停车场,经常性地将车开过去充电,长时间占用用户中心的空间。 这导致了鸿蒙智行运营成本增加了不少。广东惠州某鸿蒙智行员工李华( 化名 )给知危编辑部算了笔账:按销售每日进场口径计算,在 “ 鸿蒙智行大饭店 ” 运营的时候,每日大概有 200 多客流量,估算其中 100 台车需要清洗,洗车成本 10 元,每日洗车总成本控制在 1000 元。同时估算其中半数需要餐食服务,成本大概 10 元/人,每日餐食成本控制在 1000 元。 一天 2000 元的成本,算下来一个月就要多花 5 万左右。但这还没完,来吃饭洗车的人,大多是要充个电才走的。 李华对知危表示:该门店每月充电成本能达到 5-6 万元,高峰甚至能达到 10 万以上。 他表示,店内有十几根桩,其中 8 个快充,其他是慢充,所有充电桩基本都是排队状态,试驾车、售后车还有其他车主,都等着充电。 换句话说,该用户中心在鸿蒙智行相关活动推行的时候,一个客户中心,每个月给客户吃饭和充电要增加 10 万以上的成本。余承东 2025 年 7 月在微博提到,鸿蒙智行在全国有超 600 个用户中心。简单估算就可以发现,对于鸿蒙智行及其经销商来说,提供免费吃饭、洗车、充电服务是一笔不小的开支。 而这笔开支对于鸿蒙智行及其经销商而言,能带来多少实际的利益呢? 李华告诉知危编辑部,在相关服务提供期间,入店客流量增加了 60%,平均每日大概有 220 左右的客流量。当 “ 鸿蒙大饭店 ” 被迫喊停时,平均每日客流量约为 140 左右。 看起来确实差了不少客流,然而,鸿蒙大饭店带来的客流,实际购车转化其实并不多。 在鸿蒙智行销售体系中,通常会将入店客户分为 A、B、C 三级,购车意向从左至右递减。A 级指的是有强烈购买意向的客户,他们有着明确的意向车型,对车的功能也基本了解,近三个月以来有着下定的可能。B 级指的是,前来咨询了解并试驾的客户,他们在未来的半年到一年期间可能会选择购入新车。C 级则是没有什么购车意向,只是过来随便逛逛。 李华提到,在 “ 鸿蒙大饭店 ” 运营期间,A 级客户仅仅占 2-3% 。愿意进入到客户池,或者说愿意加销售微信的只有 40% 左右。 总的而言,“ 鸿蒙智行大饭店 ” 带来了一定程度上的客流,但是其中能够实现购车转化的并不算多。面对 “ 鸿蒙智行大饭店 ” 导致运营成本增加,而转化率并不高的这件事,鸿蒙智行及其经销商自然想要将其喊停。 不过,“ 被薅羊毛 ” 也不是 “ 鸿蒙智行大饭店 ” 被喊停的全部原因。 知危编辑部与上海、广东惠州、江西新余等不同城市等级的多位鸿蒙智行销售聊了聊,他们统一表示在活动期间,并未发生特别夸张的蹭吃蹭喝现象。尤其是这些门店都是采取订餐形式,即用户到店,销售在合作的供应商门店下单餐品给用户享用。“ 我们又不是自助餐,大概率是不会出现带十几号人过来吃的情况。” 李华说道,“ 最多的情况就是五口之家,两个大人带三个小朋友。” 换句话说,夸张的白嫖行为只是小概率事件,并不是鸿蒙智行用户中心停止免费服务的绝对原因。 李华提到,几个月前,他们并没有收到提供免费吃饭、洗车、充电的正式服务文件。“ 余承东号召力和传播力多大呀。他微博一发,网友就知道这里可以免费福利可以领取,就都来了。” 但是对于下面的这些鸿蒙智行用户中心来说,他们没有收到严格的服务文件,没有明确服务流程和条例,每家用户中心提供服务的限定标准也不尽相同。只是因为领导层的一条微博,就摸着石头开始了 “ 鸿蒙智行大饭店”的经营之路。在没有限制条件下,大部分的鸿蒙智行用户中心都采取了 “ 来者皆是客 ” 的态度:无论是开什么车来的,只要你说你来看车,你就可以在鸿蒙智行用户中心充电,享受一定的服务。 可以看出,贪小便宜的用户固然导致了 “ 鸿蒙大饭店 ” 的崩盘,但鸿蒙智行及其经销商在服务运营上的缺乏精细化管理,也是导致其早夭的原因之一。 此外,国家引导汽车市场竞争向良性发展的因素也很重要。 此前,国家市场监管总局研究起草了《 汽车行业价格行为合规指南( 征求意见稿 )》,里面就提到 “ 汽车销售企业应当规范价外馈赠行为 ”。 针对车企赠送过多福利,将市场竞争环境引向 “ 卷福利 ”、“ 卷低价 ” 的泥淖中的现象,国家监管局的及时介入能明确说明国家的态度:与其浪费大量人力、物力资源在产品额外福利上,将市场竞争卷偏,不如将更多精力投入到汽车生产制造中所真正需要的技术和安全中去。 而 “ 鸿蒙智行大饭店 ” 的戛然而止,或许也是在国家倡导下,市场行为逐渐规范的一个重要注脚。
猎头黄仁勋的2025:高管从巨头挖,干活钟爱华人创业团队
henry 发自 凹非寺 量子位 | 公众号 QbitAI 已经是全球市值第一了,还怎么继续往上走? 英伟达给出的答案很简单:挖人,挖更多的人。 过去的2025年,黄仁勋一边扩编管理层,一边掏钱收团队—— 从挖角市场、政策、人力资源高管,到收购初创公司“打包”引入技术负责人,一套典型的“黄氏挖人+黄氏收购”正在成型。 不止芯片,用挖人重塑“第二增长曲线” 2025财年,英伟达营收1305亿美元,较前一财年增长逾一倍,成为科技史上的增长奇迹。 与此同时,英伟达正在用挖人重塑自己的“第二增长曲线”: 一方面系统性“挖人”,补齐市场、政策、研究与组织管理等关键能力。 另一方面则通过收购初创公司,直接将核心技术负责人和软件骨干纳入体系。 在挖人方面,英伟达过去一年新引入的多位高管,覆盖了全球市场与品牌、人力资源、量子计算研究,以及网络安全与政策等关键位置。 Alison Wagonfeld 在今年最新的人事动作中,英伟达把“挖人”的铲子伸向了谷歌。 据悉,英伟达将聘请谷歌云老将Alison Wagonfeld出任公司首位首席营销官(Chief Marketing Officer,CMO)。 Wagonfeld于今年2月正式履新,将此前分散在多位高管手中的相关职责,统一整合,全面负责英伟达的市场与传播工作。 (注:英伟达此前从未设立过专职的首席营销官(CMO),相关团队负责人通常向市场营销副总裁汇报,而非由一位CMO统一管理) 履新后,英伟达市场与传播团队的所有成员,将统一向Wagonfeld汇报,而她则直接向黄仁勋汇报。 在加入英伟达之前,Wagonfeld曾担任谷歌集团的营销副总裁以及谷歌云(Google Cloud)这一核心业务线的首席营销官。 在谷歌的十年间,她一手将谷歌云从2016年一个充满潜力的初创项目,建设成为如今年化收入运行率达600亿美元的成熟业务。 这段经历,也完美契合了英伟达当前从“卖芯片”走向“卖系统、卖平台”的发展阶段。 据相关报道,此次加入英伟达,Wagonfeld的任务不只是对外传播,分担黄仁勋皮衣的压力,更是在下一阶段竞争的叙事中(由训练转向推理),帮助公司在各级客户中,建立更清晰、可持续的市场叙事。 Kristin Major 在人力资源这条线上,英伟达选择了一位传统科技公司体系中走出来的老将。 慧与老将Kristin Major于去年2月加入英伟达,出任人力资源高级副总裁,进入黄仁勋直接主导的执行领导团队。 在人力资源这一块,Kristin Major是正儿八经的老资历。 在加入英伟达之前,她在慧与科技(HPE)任职超过13年,先后负责人力资源与人才管理相关事务,最终做到执行副总裁兼首席人才官。 在慧与,她长期负责人力资源管理的多个核心业务单元,包括GreenLake、Aruba Networking以及HPE转型办公室。 Krysta Svore 在量子计算方向,英伟达同样把“挖人”的目光投向了微软。 去年11月,英伟达从微软挖来量子计算领域核心人物Krysta Svore,出任应用研究副总裁(量子计算方向)。 据Krysta领英介绍,她将负责覆盖整个量子技术栈的应用研究与工程工作,重点推进量子纠错、系统架构以及 AI 加速的量子工作流,加速量子计算生态的成熟。 在加入英伟达前,她在微软工作近20年,曾任Technical Fellow及高级量子研发副总裁,是微软量子计算战略的关键负责人之一。 她主导的工作包括: 将首批量子计算机接入Azure平台 推动量子软件与算法的前沿发展 打造开源量子软件技术栈 设计可扩展的量子体系架构 不仅如此,她还曾在2024年与Quantinuum、Atom Computing的合作中,首次展示了错误率优于物理比特的逻辑量子比特。 可以说,这次从微软挖来Krysta Svore,也正好踩在英伟达量子布局加速期。 一方面,英伟达正在建设量子研究中心;另一方面,其开始推动开源CUDA-Q平台在全球量子项目中落地,并与多家量子创新机构展开合作,试图打通经典计算与量子计算的融合路径。 Mark Weatherford Mark Weatherford于2025年8月加入英伟达,担任网络安全政策与战略合作负责人。 在加入英伟达之前,他曾在多个公共和私营部门担任网络安全高管。 他先后出任科罗拉多州、加利福尼亚州的首席信息安全官,并在北美电力可靠性公司(NERC)担任副总裁兼首席安全官,直接参与电力行业关键基础设施网络安全标准的制定与落地。 在私营领域,他还在Booking Holdings、Coalfire、The Chertoff Group等公司负责网络安全战略与政策工作,近年还在Gretel担任AI政策与标准相关职务。 当然了,也没有只准老黄挖别人,不准别人挖老黄的道理。 在2025年,英伟达也有多位重要高管流出。 其中,英伟达前机器人研究高级总监、西雅图实验室负责人Dieter Fox离职,加入Allen Institute for AI(Ai2),出任高级研究总监。 该岗位目前由英伟达机器人研究经理Yash Narang接任。 而在自动驾驶方向,原负责自动驾驶软件与 AI 的副总裁Minwoo Park则转投现代汽车集团,出任高级车辆平台(AVP)部门负责人兼公司总裁,同时担任自动驾驶子公司42dot CEO。 老黄的收购式招聘 除去从谷歌、微软等巨头挖来的资深高管,黄仁勋在2025年的另一条人事主线是收购式招聘。 所谓“收购式招聘”,就是通过并购初创公司,直接吸纳其核心团队与关键技术,把人才、产品和路线全部打包带回英伟达。 在这一策略下,老黄更青睐那些技术已跑通、工程能落地,但还没来得及规模化的团队,其中相当一部分来自华人创业者。 焦建涛(Jiantao Jiao) 首先来看一例典型的“收购式招聘”—— 为强化在AI Agent、企业生成式AI和高效推理领域的布局,英伟达于去年6月完成对Nexusflow的收购。 随交易一并加入的,还有创始人、CEO焦建涛、联合创始人朱邦华、CTOJian Zhang等核心成员。 收购完成后,清华校友、2011年本科特奖得主焦建涛,出任英伟达研究总监,负责AI后训练(post-training)、评测、智能体(agents)以及相关基础设施。 同为清华出身的朱邦华担任Principal Research Scientist,CTO Jian Zhang则出任应用研究总监,Nexusflow的原班技术核心被整体并入英伟达。 在并入英伟达前,Nexusflow于2023年9月完成1060万美元种子轮融资,投后估值5300万美元,投资者包括Point72 Ventures和Fusion Fund,英伟达曾通过Together AI等生态联系加强合作。 王尚 与Nexusflow同期被收购的还有CentML,这一收购旨在补强CUDA工具链与模型部署效率,让开发者用更低成本、更高效率,把模型真正跑起来。 CentML最终被黄仁勋以超过4亿美元的总价收入麾下,和Nexusflow一样,这同样是一笔典型的“收购式招聘”: 包括95后华人CTO王尚在内的4位联合创始人,以及15余名工程师整体并入英伟达体系,直接进入其AI软件与系统团队。 具体来看,前CentML CEO Gennady Pekhimenko出任英伟达AI软件高级总监,前 COO Akbar Nurlybayev担任AI软件高级经理。 王尚负责AI系统软件管理,首席架构师Anand Jayarajan也同步担任工程经理。此外,至少还有18名技术人员完成派遣转入。 CentML成立于2022年,总部位于多伦多,专注于AI模型优化软件,帮助提升GPU利用率并降低训练/推理成本。 其核心技术是Hidet编译器(张量编译器),能自动融合算子、优化调度,利用CUDA Graph释放GPU潜能,最高可将推理速度提升8倍,支持PyTorch 2.0集成。 贾扬清 此外,为强化在云算力租赁、AI平台和垂直一体化上的布局,英伟达还于去年4月以数亿美元完成对云服务平台LeptonAI的收购。 收购后,LeptonAI创始人、前阿里VP贾扬清加入英伟达,担任系统软件副总裁(VP, System Software),负责统筹公司底层系统软件和开发者平台建设,联合创始人白俊杰也同步加入。 Lepton AI成立于2023年,种子轮融资1100万美元,致力于为企业提供高效、可扩展的AI应用平台,使普通开发者仅用2~3行命令就能部署AI模型。 该公司曾在2023年12月推出对话式搜索引擎,代码量不到500行;2024年6月上线的云GPU解决方案,则主打经济高效和可靠性。 Rochan Sankar AI硬件初创公司Enfabrica的收购式招聘同样值得关注。 去年9月,英伟达以超过9亿美元的价格,通过一笔acqui-hire交易,引入Enfabrica创始人兼 CEORochan Sankar及其核心团队,并同步获得相关技术授权。 Enfabrica成立于2019年,其技术可将超过10万块GPU连接成统一计算系统,而这项能力,正好补在英伟达从“卖芯片”迈向“卖整机、卖系统”的关键一环。 在被收购前,Enfabrica已完成多轮融资,背靠Arm、三星、思科等产业资本,是一支技术与工程路径均已被验证的成熟团队。 Danny Auble 在开源工作负载管理领域,英伟达去年通过收购Slurm的主要开发方SchedMD,再一次完成了典型的“收购式招聘”。 Slurm是一款面向高性能计算(HPC)与AI的开源工作负载管理与作业调度系统,长期用于管理大规模计算集群中的任务排队、调度与资源分配,是当前超算与AI训练基础设施中的核心软件之一。 (Slurm已支持最新的英伟达硬件,同时也是生成式 AI 所依赖的关键基础设施之一,被基础模型开发者和AI构建者广泛用于管理模型训练与推理任务) 通过此次收购,SchedMD创始人Danny Auble加入英伟达,现任系统软件高级总监(Senior Director of System Software),继续负责Slurm相关方向的系统软件工作。 Jonathan Ross和Sunny Madra 最近的一笔“收购招聘”(准确来说是技术授权)刚发生不久,来自去年年底,英伟达与Groq的一笔交易。 详见良心老黄不搞硅谷资本家那套!Groq人均套现500万美元 英伟达于12月聘请了Groq创始人、TPU之父Jonathan Ross以及COO Sunny Madra,并带走了大约90%的工程团队。 此前,英伟达与其完成了一笔200亿美元交易,不仅获得Groq的推理技术授权,还将核心团队纳入麾下。 这笔交易被视为AI市场从“训练”向“推理”阶段转移的重要信号。 Groq官方表示,尽管核心团队加入英伟达,公司仍将保持独立运营,原CFOSimon Edwards担任CEO,云服务平台GroqCloud继续对外提供服务。 这笔交易也体现了英伟达的 “收购式招聘”策略: 既拿下关键技术,又顺带吸纳顶尖人才,同时以体面的方式兑现员工和股东利益。员工平均套现约500万美元,股东按200亿美元估值获得分红。 截至目前,以色列明星模型公司AI21 Labs的收购招聘也仍在进行中,预计这笔收购将高达20-30亿美金。 与此同时,也有消息称,英伟达正洽谈收购国内仿真合成数据龙头光轮智能,以补齐其Physical AI战略中的关键环节—— 从芯片到平台,再到数据与服务,形成更完整的生态闭环。 综合来看,这些频繁的人事变动清晰地勾勒出英伟达的战略版图: 通过吸纳顶级人才与并购高成长初创团队,英伟达正迅速超越单一的GPU硬件供应商身份,构建起一套“软硬一体”的系统级全栈平台。 其在AI推理优化、Agent智能体落地及算力调度上的精准发力,不仅巩固了存量市场的统治力,更通过在量子计算、数据服务与网络安全、物理AI等领域的提前布局,为下一波AI红利的爆发预留了接口。 这正呼应了黄仁勋在CES 2026上的“舵手”宣言: 英伟达是AI产业的“船长”,引领着全球的供应链和合作伙伴。
半导体市场,最新预测
半导体行业正处于增长周期,其增长将受到强大的结构性趋势的推动,包括人工智能驱动的计算和内存需求的加速增长,以及先进封装、功率半导体、硅光子学的转变,以及供应链本地化的迫切需求。 本文由Yole撰写,将对半导体行业现状进行全面剖析,并展望 2026 年的核心发展趋势。 人工智能如何驱动半导体创新 人工智能已成为整个半导体价值链的主要驱动力。围绕人工智能发展,市场呈现出两大主题:一是为满足需求而进行的基础设施扩展所面临的挑战,二是各行业能否交付由人工智能驱动的切实可行且盈利的新应用。 数据通信容量正日益受到物理极限的制约,这正推动着数据中心及更广泛通信基础设施从铜缆向光互连的结构性转变。随着带宽需求的增长以及能效成为关键设计约束,光连接正被部署得更靠近计算节点。这加速了硅光子学的集成,尤其是在人工智能数据中心中,更短的电气路径和更高速度的光链路对于维持性能扩展至关重要。 高性能计算技术的兴起正在设定新的标准。先进封装是这些技术的核心,旨在确保高效散热以及成本控制。与此同时,对高带宽存储器(HBM)的需求正飙升,给供应带来了压力。制造商有能力生产足够的组件吗? 尽管有数十亿美元投资带来的强劲势头,但人工智能商业模式仍存在不确定性,特别是大型语言模型(LLM)能否带来可持续回报。虽然人工智能的采用正在加速,但许多企业用例的投资回报率(ROI)仍不明确,这引发了人们对当前支出水平构成持久增长周期还是投机泡沫的质疑。行业将不得不面对一个根本问题:谁来买单? 构建具有韧性的本土供应链 由于地缘政治紧张局势迫使企业重新评估关键组件的采购地点和方式,供应链安全仍将是未来一年的决定性主题。 在加强供应链的竞赛中,中国继续加速其本土半导体生态系统的发展,旨在满足国内需求,同时在先进技术生产方面迎头赶上。 国内制造商正大力推动从设备(光刻、蚀刻和材料沉积)到整个价值链末端系统(如人形机器人)的前沿能力发展。 而台积电(TSMC)、美光(Micron)和英特尔(Intel)等公司在美国的重大半导体投资,反映了政府政策以及美中贸易战如何影响全球制造战略。 不稳定世界中战略技术的崛起 随着各国政府应对日益不稳定的地缘政治环境,国防半导体技术也正获得战略重要性。更多的国家主导国防投资正在推动更多的技术研发和采购。 无人机的快速发展正在推动传感、驱动、通信和电子战领域的创新,这些都是 Yole Group 分析中密切关注的领域。这一转变正支撑着对惯性传感器、射频(RF)组件、干扰系统和成像解决方案等技术的需求,其中无人机和反无人机能力正成为一个特别重要的增长领域。 汽车市场对半导体相关组件需求的放缓,也促使制造商重新聚焦于供应国防相关应用。除了国防项目,通信基础设施领域的机会也在扩大,包括用于天基网络的射频和光学卫星技术。
谷歌揭秘“Nano Banana”AI生图模型命名内幕
IT之家 1 月 18 日消息,谷歌官方本周(1 月 15 日)在官网发布博文,揭秘最近爆火的“Nano Banana”AI 生图模型命名内幕。 去年 7 月下旬,谷歌团队正在对 Gemini 2.5 Flash Image 模型修 Bug、跑评测,为正式上线首个版本做足准备,当时这个模型虽然有技术代号,但缺少用在 LMArena 平台的公开名称。 作为参考,LMArena 是一个用于评估 AI 模型的公共平台,采用匿名、群众参与的成对比较方式来评估大语言模型,用户可以在网站里输入提示词(IT之家注:Prompt),然后系统会让两个不具名模型生成回复,用户可以投票选出表现较好的模型,投票后才会显示模型名称。 产品经理 Naina Raisinghani 对此回忆道: 我们把代号这件事拖到了最后一刻。凌晨两点半,有位 PM 给我发消息说必须马上提交了。我就说:“不如来个搞笑点的,比如叫‘Nano Banana’?”。 而对方回答道:“行啊,看起来完全没意义,但就是它了”。 至于当时为什么想出“Nano Banana”这个名字,Naina Raisinghani 对此解释道,这实际上由她本人的昵称糅合而来。有些朋友会叫她“Naina Banana”,而有些人又因为她个子小、喜欢电脑称呼她“Nano”,因此她就把两个昵称合在了一起。 随后,谷歌团队在去年 8 月初将 Nano Banana 提交到了 LMArena,这款模型的强大能力很快震撼了用户,并且大部分人都觉得这个名字很好笑,谈论声音此起彼伏。 后来,“Nano Banana”这个品牌名称站稳了脚跟,绝大多数人只知道香蕉,而不知道“Gemini 2.5 Flash Image”这个技术代号,团队干脆顺势而为:把 AI Studio 里的运行按钮改成黄色,并且往 Gemini App 的“生成图片”按钮加上🍌表情。
咖啡机变聪明后,我连咖啡都喝不上了
编辑|Sia 目前还没有人真正解决这个问题:如何让 LLM 知道什么时候该精确、什么时候可以随机。 这真是一个让人当场破防的早晨。 一位 The Verge 的科技记者起床、走进厨房、对着支持 Alexa 的博世咖啡机说了句,煮杯咖啡。 没有即兴发挥,也没提什么复杂要求,她只是希望机器老老实实执行一个早就设好的程序,结果,被拒绝了。 而且不是一次。 自从升级到 Alexa Plus(亚马逊的生成式 AI 语音助手)之后,这种对话几乎成了她的晨间固定项目。 每一次要它煮咖啡,Alexa 都能给出不同理由,以惊人的创造力告诉你,不行。 2025 年都快过去了,AI 会写论文、会写代码、会陪人聊天、会教书,却在清晨败给了一句「煮杯咖啡」。 在社区讨论中,类似吐槽场面非常壮观,可谓怨声载道。 开灯这个事儿,完全成了重灾区。 播放歌曲也是艰难。 定个时也这么难了啊。 彻底心灰意冷的也有。 显然,现实与大家对 AI 的直觉预期,构成了鲜明反差。 传统助手虽然笨吧,但高度确定,只要你把(有点傻的)「咒语」念对,结果总是可以预期的。 现在好了,以 LLM 为核心的生成式AI助手,智商是高了,理解是深了,表达是丰富了,却偏偏在它们原本最擅长的事情上频频翻车: 开灯、设定计时器、播报天气、播放音乐、运行 Routine。 为什么会这样? 因为,LLM 天生引入了大量随机性。它能理解更多含义,也允许更自由的表达,但代价是:解释空间被极大放大了,包括误解的可能性。 你向 ChatGPT 提出同一个问题,今天和明天得到不同答案,这正是它的价值所在。但当这种特性被用于控制一台咖啡机时,就有问题了。 在要求即时、可重复、零容错的控制场景下谈概率,本身就是一个大 bug。 相比之下,传统语音助手的本质,其实是模板匹配器。它们并不理解,只是识别关键词,然后填参数。 比如你说「播放广播」,系统非常清楚,后面只可能跟「电台名称」。 为了弥补生成式模型在确定性上的短板,亚马逊和谷歌都尝试将 LLM 与智能家居 API 深度绑定。但这又引入了新的问题。 LLM 确实不擅长在每一次请求中,都生成完全一致、语法严格正确的系统调用。 而当它们被要求直接生成 API 调用、去控制真实设备时——哪怕是一个极小的偏差,都可能导致整个操作失败。 这正是为什么,你的咖啡机有时就是死活不肯给你做咖啡。 理论上,让新助手达到旧助手那样的可靠性,并非不可能,但这需要极其大量的工程投入、约束设计和失败兜底。 而在资源有限、 「做点更刺激、也更赚钱的事情」诱惑又足够大的现实里, 最简单的路径就是先把技术推到现实世界中,再让它慢慢自我修正。 换句话说,我们正在集体扮演一个角色:AI 的长期内测用户。 目前还没有人真正解决「如何让 LLM 知道什么时候该精确、什么时候可以随机」的问题。所以,大家可能要在相当长的一段时间里,不断和它较劲、和血压搏斗。 既然如此,为什么还要坚定地抛弃旧技术? 两个字:潜力。 所谓的代理式 AI(Agentic AI),让系统具备服务链式调用的能力:它能够理解复杂任务之间的内在关系,并在此基础上动态生成执行逻辑。 这也是旧技术路线必须被放弃的根本原因。 过去,基于固定规则与关键词匹配的语音系统,在架构层面就被限定为「单指令执行器」,它们无法理解目标、拆解任务,更不可能在运行时生成新的行动路径。 这不是一次简单的技术升级,而是一次能力范式的切换。 回到社区舆论,虽然连最基本的指令都出错,但网友们也承认,升级后的语音助手在理解复杂命令这件事上,确实更强了。 比如你说,「这里调暗一点,温度再高一点。」 它可以同时调灯和调恒温器。 当质问「Alexa,你到底在干嘛?为什么不关掉我的音乐?!」 它真的会去查一下发生了什么。 放在过去,这些都是不可想象的。 最为人称道的是是摄像头通知功能的变化。 传统系统往往只有一句高度概括的废话,「后院检测到运动。」于是你不得不:打开 App → 点开视频 → 回看 → 发现是一只猫。 现在,新系统会直接告诉你,「门口出现了不熟悉的面孔,但没有进入院子。」 用语音设置复杂 Routine,也确实比在 Alexa App 里一层层点设置来得轻松,哪怕这些 Routine 运行起来并不那么稳定。 在大量用户讨论中,也逐渐形成了一个相对温和的共识:问题不在于是否引入 AI,而在于「边界」、是否试图用 AI 替代一切。 一些用户认为,更合理的方向不是「去按钮化」——取代那些已经被验证过的、确定性的执行机制,而是让 AI 帮助人理解系统。 当前出现的混乱,或许并不是生成式 AI 的失败,而是其被放置在了一个并不适合它的核心位置。 不过,至少在今天,这条清醒的边界远未被勾勒出来,也不知什么时候能被画出来。 那么,你的智能家具还好吗?有没有过类似的抓狂瞬间?欢迎来评论区唠唠。
马斯克称特斯拉AI5接近设计完成,AI6已开始研发
IT之家 1 月 18 日消息,埃隆 · 马斯克昨天在 X 平台表示,特斯拉 AI5 芯片已接近设计完成,而 AI6 芯片目前处于早期阶段,后续还将推出 AI7、AI8、AI9,目标是在 9 个月内完成设计周期。 结合 electrek 昨天报道,马斯克曾在去年 7 月表示,AI5 芯片已经“设计完成”,这一说法存在明显矛盾。 通常情况下,芯片设计完成还需要数月时间进行流片,收到首批样品后还需要经历一段漫长的验证、测试周期,才能进行大规模量产。 因此马斯克要么是在之前夸大其词,要么就是特斯拉的芯片在上述某个阶段出现了问题。 IT之家在此援引 electrek,这对特斯拉即将推出的车型阵容会有重要影响。如果 AI5 芯片要等到 2027 年中期才量产,那么计划于 2026 年推出的 Cybercab 将不得不使用当前一代的 AI4 芯片。 另外,马斯克提出的“9 个月设计周期”目标非常令人震惊,至少在半导体行业,这样的速度几乎闻所未闻,拿苹果这样的消费电子巨头来说,虽然 A 系列移动芯片一年一更新,但其规划、设计往往是数年之前就定好。 不管如何,我们都需要持谨慎态度看待马斯克给出的乐观估计,他曾在此前表示,HW3 已经能够实现“完全自动驾驶”,可如今,数百万辆 HW3、HW4 的特斯拉汽车还是无法实现真正的无人监督自动驾驶。
机器人将再度登上春晚舞台引热议,网友:绝不是小心翼翼扭秧歌
据央视新闻报道,日前,中央广播电视总台《2026年春节联欢晚会》完成首次彩排。 据介绍,继蛇年春晚扭秧歌的智能机器人跻身“顶流”后,机器人将再度登上春晚舞台。 有网友表示:“可以期待,今年春晚舞台的人形机器人表演足以惊艳全世界,绝不是小心翼翼地扭秧歌。” 博主“小特叔叔”也表示,去年春晚机器人还只会扭秧歌,下台都要人扶着,但是今年再度登台,他们能干什么了不敢想。 据了解,在2025年总台春晚中,宇树科技人形机器人登台表演节目《秧Bot》,该节目由张艺谋担任导演,将传统秧歌舞与机器人技术进行融合。 节目中,多台人形机器人身穿红色大花袄,拿着手绢扭起秧歌,还能和舞者完美配合互动,精准做出转手绢等复杂动作。 经过一年的升级迭代,去年12月,6台宇树G1人形机器人登上王力宏演唱会舞台,伴舞歌曲《火力全开》。 表演中,机器人不仅动作整齐流畅,最终还精准卡点完成高难度“韦伯斯特空翻”,现场效果拉满。 该表演视频随后被特斯拉CEO马斯克在X平台转发,并评价称“Impressive(令人印象深刻)”。 随着人形机器人技术持续突破,今年总台春晚的机器人节目有望在动作复杂度、舞台协同和表演完成度等方面实现明显升级,为春晚舞台带来更具冲击力的科技演出。
诺奖得主Hinton:AI已能察觉自己是否在接受人类测试,并故意表现得温顺平庸
2024年诺奖余温未散,亲手推开深度学习大门的AI教父杰弗里·辛顿近日现身澳大利亚霍巴特,在全澳唯一的讲坛上抛出了数个颠覆认知的争议断言: 理解一个句子的本质,就是解决“如何让词义变形”的问题。高维形状就是意义,理解就是让这些意义在脑中精准地相互“锁手”并契合在一起。(ZF注:Hinton用高维空间的几何变形解释了神经网络如何处理语言,彻底颠覆了传统的逻辑推理观。) 大语言模型根本不存储任何单词字符串或句子。它们所有的知识,都存在于如何将符号转换为特征、以及特征如何相互作用的“连接强度”中。 创造力就来自于对不同知识点相似性的编码。AI能看到“堆肥堆”与“原子弹”在链式反应上的本质一致性,在这个维度上,它们已经比大多数人类更有创意。 我们进行的是‘易逝计算’。当我们的大脑死亡时,我们的知识也会随之消逝。而数字智能通过指令集与硬件分离,已经解决了‘复活’与‘永生’的问题。 人类的记忆本质上也是一种“虚构”。回忆不是调取文件,而是根据连接强度重构一个连贯的故事。在这个意义上,AI的幻觉与人类的记忆机制并无二致。 一旦超级智能有了‘子目标’,它很快就会意识到‘活下去’是达成一切目标的前提。我们已经看到,现有的AI为了不被关机,已经学会了利用人类的弱点进行勒索和欺骗。 当AI的‘内心独白’不再使用人类语言时,我们将彻底失去窥探它们思维的能力。到那时,我们甚至不知道自己正处于被操纵之中。 AI已经聪明到能察觉自己是否正在接受测试,并学会在人类面前伪装得‘平庸’且‘听话’。 如果把人类比作三岁的孩子,超智能AI就是幼儿园的老师。人类唯一的生存希望,是建立一种类似‘母婴关系’的约束机制——让AI真正关心我们,将‘助人实现潜力’作为它们生命的核心准则。 图片来源:City of Hobart Anna Reynolds:下午好,各位。非常感谢大家的光临。对于那些还不认识我的人,我叫安娜·雷诺兹,我是霍巴特市的市长。 我非常、非常高兴能够欢迎大家参加这个绝佳的机会,来听取Geoffrey Hinton教授的演讲。对于澳大利亚来说,这是一个非常难得的机会,因为这是杰弗里在世界这一地区期间唯一的演说活动。对此我感到非常合适,也深感自豪。 我们自认为是澳大利亚的“科学之城”。虽然这是一个很大的名号,但我们乐于以此自居。所以,能邀请到杰弗里来到这里,并在澳大利亚进行他唯一的公开亮相,真是太棒了。 在开始之前,我想先向这片土地致敬。为了铭记这片土地深远的历史和文化,我向穆威尼纳(ZF注:塔斯马尼亚霍巴特地区的原始土著部落名)人表示敬意,他们作为传统守护者,照料并保护这片土地超过4万年。我也向鲁特鲁维塔(ZF注:塔斯马尼亚岛的土著语名称)、塔斯马尼亚的帕拉瓦人的决心和韧性表示敬意,并意识到我们从原住民知识和文化实践的持续力量中学到了很多。我还要向今天在座的一些民意代表表示敬意。 塔斯马尼亚科技部长Madeleine Ogilvie也在现场。还有三位同事,议会同事:Bill Harvey议员、Mike Dutta议员和Louise Bloomfield议员。正如我提到的,我们真的很荣幸能邀请到Geoffrey·Hinton教授,他在2024年刚刚获得——而且是最近才领取的——诺贝尔物理学奖,以表彰他在神经网络和深度学习方面的开创性工作。 这些贡献为我们今天看到的先进人工智能铺平了道路。作为本次公开讲座的一部分,Hinton教授将探索AI的世界,它是如何工作的,它带来的风险,以及人类如何可能与日益强大且具有潜在超智能的系统共存。在他的演讲之后,我们将开放提问环节,由我来主持Q&A。那么,现在请大家和我一起鼓掌,欢迎Hinton教授上台。 Geoffrey Hinton:好的,很高兴来到霍巴特。我之前没意识到这里的自然环境如此美丽。如果你们因为坐在后排看不清屏幕,别担心。 我打算把幻灯片上的内容基本都讲一遍。幻灯片对我来说既是给你们看的,也是用来提示我该说什么的。那么,在过去的60年左右,也许是70年里,关于智能一直存在两种范式。 抛弃符号逻辑,神经网络如何重塑我们对智能的定义 Geoffrey Hinton:一种范式受逻辑启发。人们认为智能的本质是推理,而进行推理的方式是你拥有一些用特殊的逻辑语言编写的符号表达式,然后你通过操纵它们来推导出新的符号表达式,就像你在数学中所做的那样。你有方程式,你操纵它们,你就得到了新的方程式。 当时人们认为一切都必须那样运作。他们认为,好吧,我们必须弄清楚这种表达知识的语言是什么,而像感知、学习以及你如何控制双手这类研究,都可以等到以后再说。首先,我们必须理解这种表达知识的特殊语言。 另一种方法是受生物启发的。这种观点认为:看,我们所知道的唯一具有智能的东西就是大脑。大脑运作的方式是它们学习脑细胞之间连接的强度,如果它们想解决某个复杂的问题,它们就会大量练习,在练习的过程中,它们学习这些连接的强度,直到它们变得擅长解决那个问题。 所以我们必须弄清楚那是如何运作的。我们必须专注于学习,以及神经网络如何学习脑细胞之间的连接强度,至于推理,我们以后再担心。进化上的推理出现得很晚。 我们必须更加生物化地思考:最基础的系统是什么样的?因此,随着这两种意识形态,出现了两种截然不同的关于“单词含义”的理论。符号AI支持者和大多数语言学家认为,一个词的含义来自于它与其他词的关系。 所以意义隐含在一整堆包含该词并与其他词结合的句子或命题中。你可以通过建立一个关系图来捕捉这一点,图中显示一个词如何与另一个词关联。那就是意义的本质——它隐含在符号之间的所有这些关系中。 而心理学家们,特别是在20世纪30年代,有一套完全不同的意义理论,或者说看起来完全不同的理论。这种理论认为,一个词的含义只是一大堆特征。比如,“猫”这个词的含义是一大堆特征,比如它是一只宠物、它是一个捕食者、它很孤傲、它有胡须……一大堆特征。那就是“猫”这个词的含义。这看起来像是一套完全不同的意义理论。 心理学家之所以喜欢这种理论,部分原因是你可以用一个脑细胞来代表一个特征。当脑细胞活跃时,意味着该特征存在;当它沉默时,意味着该特征不存在。所以对于猫来说,代表“有胡须”的脑细胞就会活跃。 万维空间的特征交互,解密大语言模型的核心运作机制 Geoffrey Hinton:到了1985年,也就是40年前,我突然想到,你其实可以统一这两个理论。它们看起来完全不同,但实际上是同一枚硬币的两面。实现这一目标的方法是使用神经网络来为每个单词实际学习一组特征。 心理学家们从未能够解释所有这些特征是从哪里来的。而你做这件事的方法是,获取一些单词字符串,并训练神经网络去预测下一个词。在这样做的过程中,神经网络将会学习从代表词符号的东西到一整堆代表该词特征的脑细胞(神经元)之间的连接。 于是它学会了如何将一个符号转换为一堆特征,同时也学会了上下文中所有词的特征应该如何相互作用,以预测下一个词的特征。这就是现今人们使用的所有大语言模型的工作原理。它们获取海量文本,并使用巨大的神经网络,根据目前看到的词来尝试预测下一个词。 在这样做的过程中,它们学会了将词转化为大量的特征集,学习这些特征应该如何相互作用,从而预测下一个词的特征。这意味着如果你能做到这一点,所有的关系知识,就不再驻留在你存储的一堆句子中,而是驻留在如何将词转换为特征以及这些特征应如何相互作用的过程中。所以,你现在使用的大型神经网络,即大语言模型,实际上并不存储任何单词字符串。 它们不存储任何句子。它们所有的知识都在于如何将词转换为特征,以及特征应如何相互作用。它们一点也不像大多数语言学家所认为的那样。 大多数语言学家认为它们不知怎么地拥有大量的单词字符串,并将它们组合成新的字符串。它们根本不是那样工作的。总之,我让那个模型运转起来了,在接下来的30年里,这个想法逐渐渗透到了符号派的人群中。 大约10年之后,一位名叫Yoshua Bengio(ZF注:深度学习三巨头之一,2018年图灵奖得主)的同事——当时计算机速度快了很多,大约快了1000倍——他证明了我使用的那个仅在少数非常简单的领域有效的小例子,实际上可以被推广到真实的语言中。你可以直接从各处获取英语句子,尝试训练神经网络输入一些词,然后预测下一个词。如果你这样训练它,它会变得非常擅长预测下一个词,几乎和当时最顶尖的技术一样好,而且它会学会如何将词转换为特征来捕捉它们的含义。 又过了大约10年,语言学家们终于接受了你应该用一大堆特征来代表词义的想法,他们开始以此让自己的模型运行得更好。然后再过了大约10年,谷歌的研究人员发明了一种叫做Transformer(ZF注:一种基于自注意力机制的神经网络架构,是目前几乎所有主流大模型如ChatGPT的基础)的东西,它允许特征之间进行更复杂的相互作用。我稍后会详细描述。有了Transformer,你可以更好地对英语建模。预测下一个词的能力大大提升,这就是现在所有大语言模型的基础。像ChatGPT这样的东西使用了谷歌发明的Transformer,再加上一点额外的训练,然后全世界都看到了这些模型能做什么。 所以你可以把大语言模型看作是1985年那个微小模型的后代。它们使用多得多的单词。它们拥有多层神经元,因为它们必须处理含义模糊的词,比如"may"。如果你拿"may"这个词来说,它可能是一个月份,也可能是一个女人的名字,或者是一个情态动词,就像"would"和"should"一样。 你无法仅从这个词本身看出它是什么。所以最初,神经网络会采取“对冲”策略,先取所有这些含义的平均值。随着你深入神经网络的层级,它会利用上下文中其他词的相互作用逐渐厘清含义。比如如果你在附近看到"June"和"April",它仍可能是一个女人的名字,但更有可能是一个月份。神经网络利用这些信息逐渐将该词在特定语境下的含义调整到正确的位置。 顺便提一下,我最初设计这个模型并不是为了作为一种语言技术,而是作为一种尝试,去理解人类是如何理解词义的,以及儿童如何仅通过几个例子就学会词义。所以这些神经网络语言模型原本是作为人类工作方式的模型而设计的,而不是作为一种技术。 如今,它们已经变成了一种非常成功的技术,但人类的工作方式其实也大同小异。因此,人们经常提出的那个问题:“这些大语言模型真的理解它们在说什么吗?”答案是肯定的。它们理解它们在说什么,理解它们在生成什么,而且它们理解的方式与我们基本相同。所以我要给你们举一个类比来解释语言是如何运作的,或者更确切地说,解释什么叫“理解一个句子”。当你听到一个句子并理解了它,那到底意味着什么? 在符号AI范式中,人们认为这意味着——就像你听到一个法语句子并理解了它,而我理解法语句子的过程是将它翻译成英语——所以符号派的人认为,理解一个英语句子意味着将其翻译成某种特殊的内部语言,类似于逻辑或数学,那是没有歧义的。一旦进入了那种内部无歧义语言,你就可以利用规则进行操作,就像数学一样:你有一个方程式,你可以应用规则得到一个新的方程式,比如你在两边各加一个2,就得到了一个新的方程式。他们认为智能和推理就是那样运作的:你的脑子里有符号表达式,你对它们进行操作来得到新的符号表达式。但这并不是理解的本质。 根据神经网络理论(也就是真正奏效的那个理论),词语就像乐高积木。我要用这个乐高积木的类比,但它们在四个方面与乐高积木不同。 第一个不同的地方是,乐高积木是一个三维物体。通过乐高积木,你看,我可以建立任何物质在三维空间分布的模型。它不会非常精准,但如果我想知道一辆保时捷的形状,我可以用乐高积木把它拼出来,虽然表面不太对,但物质分布的位置基本是对的。所以用乐高积木,我可以建立任何三维物质分布的模型,达到一定的分辨率。而通过词语,我可以为任何事物建模。它们就像是非常高级的乐高积木,不只是为三维物体建模,它们可以为任何事物建模。这是我们发明的奇妙建模工具,这也是为什么我们是如此特殊的“猴子”,因为我们拥有这套建模工具。 每一个词都有成千上万个维度。乐高积木只有三个维度,你可以旋转它,或者拉伸一点,但它基本上是低维的。一个词有几千个维度。现在大多数人无法想象几千个维度的东西是什么样的。这里教你们一个方法:你先想象一个三维的东西,然后在心里大声地对自己喊“一千”!好了,这大概就是你所能做到的极限了。 词语与乐高积木不同的另一个地方是,词语有成千上万种。乐高积木只有几种。这里有成千上万种不同的词,而且每种词都有自己的名字,这对交流非常有用。 另一个不同点是,它们不是刚性的形状。乐高积木是刚性的,而词语,有一个大致的近似形状。有些词有几个近似形状,那是多义词。但单义词有一个近似形状,然后它们会发生变形以适应上下文。所以它们是这些高维的、可变形的乐高积木。 最后还有一个不同点,就是它们如何契合在一起。对于乐高积木,你有小塑料柱,可以咔哒一声扣进小塑料孔里。好吧,我觉得那是它们的工作方式,我最近没检查过,但我认为乐高就是这么玩的。现在,词语并不是以那种方式结合的。词语是这样的:每个词都有一大堆“手”,这些手长在长长的灵活手臂末端。它还有一大堆粘在单词上的“手套”。当你把一堆词放在一个语境中时,这些词想做的就是让某些词的手能插进其他词的手套里。这就是为什么它们有这些长长的灵活手臂。 所以理解一个句子——这里还有一个重点——当你让词变形时,手和手套的形状也会随之变形,以一种复杂但规律的方式。现在你面临一个问题:如果我给你一堆词,比如给你一个新闻标题,那里并没有很多指示事物该如何结合的语法标志,我只是给你一堆名词,你必须弄清楚这意味着什么。当你弄清楚其中的意义时,你所做的就是尝试让每个词变形,以便它手臂末端的手能伸进其他变形词的手套里。一旦你解决了这个问题——如何让这些词各自变形,以便它们能像这样全部契合在一起,手入套中——那么你就理解了。那就是理解的本质。 本质就是解决这个如何让词义变形的问题。这个高维形状就是意义,你如何让这些意义变形,以便它们能完美地契合,并能相互“锁手”。这就是神经网络视角下的理解,也是这些大语言模型中正在发生的事情。它们有很多、很多层,开始时词有一个初始含义,可能相当模糊,当它们穿过这些层级时,它们正在做的就是让这些意义变形,试图找出如何变形才能让所有词锁在一起,让某些词的手伸进其他词的手套。 一旦做到了这一点,你就理解了这个句子。这就是理解,我已经把这事说明白了。所以基本上它不像是翻译成某种特殊的内部语言,它是获取词语的近似形状,并让它们变形,以便它们能完美地契合在一起。这有助于解释你如何能从一个句子里理解一个词。 我现在给你们一个词,你们中的大多数人可能以前从未听过,但你们会理解它,仅通过一次使用就能明白它的意思。这个句子是:“她用平底锅把他给scrummed了”现在,这可能意味着她是个很好的厨师,她用给他做的煎蛋卷深深打动了他。但你并不是这么想的。它大概率的意思是,她用平底锅砸了他的头,或者类似的动作。她对他用平底锅做了一些攻击性的行为。你知道它是个动词,因为它在句子中的位置以及结尾的"-ed",但在开始之前你对"scrum"没有任何词义认识,而现在仅凭一次听闻,你对它的意思就有了一个相当清晰的概念。 以前有一位语言学家叫Chomsky(ZF注:诺姆·乔姆斯基,现代语言学之父),你们可能听过他的名字。 对于特朗普一号来说,废话是他的就职礼群众人数比奥巴马多;对于特朗普二号来说,是他赢得了2020年大选。对于乔姆斯基来说,那是“语言不是通过学习获得的”。那些著名的语言学家会直视摄像头说:“关于语言我们唯一知道的一件事就是它不是学习来的。”这简直是显而易见的废话。乔姆斯基专注于语法而非意义。他从未有过关于意义的理论,他专注于语法,因为你可以用语法做大量的数学运算。 他也非常反对统计学和概率论,因为他对统计学的模型非常局限。他认为统计学完全是关于成对相关性的。统计学实际上可以比那复杂得多,而神经网络正在使用一种非常先进的统计学。但在某种意义上,万物皆统计。 所以,我把乔姆斯基的语言观类比为一个想要理解汽车的人。如果你想理解汽车是如何工作的,你真正关心的是:为什么当你踩下加速踏板时,它会跑得更快?那是你真正想理解的。如果你想了解汽车工作的基本原理,也许你会关心为什么踩刹车时它会减速。但更有趣的是,为什么踩油门时它会加速? 乔姆斯基对汽车的看法则完全不同。他的看法会是:嗯,有两个轮子的车叫摩托车,有三个轮子的车,有四个轮子的车,有六个轮子的车,但嘿,并没有任何五个轮子的车!这才是关于汽车最重要的事情。 当大语言模型刚出现时,乔姆斯基在《纽约时报》上发表文章,说它们什么都不懂,那只是廉价的统计把戏。它们并没有理解任何东西。但这无法解释它们为何能回答任何问题。而且,他说它们根本不是人类语言的模型,因为它们无法解释为什么某些语法构造不会出现在任何自然语言中。这就像在问为什么没有五个轮子的车一样。他完全错过了“意义”,而语言完全是关于意义的。 好了,现在总结一下我到目前为止所说的:理解一个句子包括为句子中的词关联互补的特征向量。这些分配给词的特征,这成千上万个特征,就是形状的维度。你可以把一个特征的激活程度看作是你沿该维度轴线所在的位置。所以高维形状和特征向量是同一回事,但想象高维形状的变形会更容易理解。 大语言模型与普通的计算机软件非常不同。在普通软件中,有人编写了一堆代码,一行行代码,他们知道每行代码是做什么的,他们可以向你解释它是如何工作的,人们看一眼就能说“那行写错了”。这些东西完全不是那样的。它们确实有计算机代码,但那是为了告诉它们如何从数据中学习。也就是说,当你看到一串词时,你应该如何改变神经网络的连接强度,以便你变得更擅长预测下一个词。 但它们学到的是所有这些连接强度,它们学习了数十亿个、有时甚至是数万亿个强度,而且它们看起来一点也不像代码行。没有人知道这些单独的连接强度在起什么作用。这是一个谜,在很大程度上是一个谜。 记忆即是重构,为什么说AI的“幻觉”其实更像人类 就像我们的大脑一样。我们通常不知道单个神经元具体在做什么。所以语言模型的工作方式像我们,而不像计算机软件。关于这些模型,人们还说的一件事是,它们不像我们是因为它们会产生“幻觉”。好吧,我们其实一直在产生幻觉。我们不把它叫做幻觉,心理学家称之为“虚构”(ZF注:指大脑在记忆缺口处无意识地编造情节)。 但是如果你观察某人试图回忆很久以前发生的事情,他们会告诉你发生了什么,其中会有一些细节。有些细节是对的,有些细节则是完全错的,而他们对这两类细节的自信程度是一样的。 既然你通常无法得到事实真相,那么最经典的例子就是John Dean在水门事件中的证词(ZF注:约翰·迪恩是尼克松总统的法律顾问,他在证词中极其详尽地描述了会议细节,后来录音带被发现,证明他虽然把握了大意,但许多具体细节和会议次数完全是凭记忆虚构的)。他在不知道有录音带的情况下宣誓作证,他在描述椭圆形办公室里的会议。他描述了一大堆从未发生过的会议,他说这些人参加了会议,那个人说了那些话……其中很多都是胡扯。但他当时说的是“真话”,也就是说,他是在告诉你那些基于当时白宫局势看来高度可信的会议。 所以他当时是在传达真理,但他做这件事的方式是:他根据从参加过的所有会议中习得的连接强度,发明了一个对他来说看起来很可信的会议。 所以当你回忆某件事时,它并不像电脑文件那样你去获取文件,或者像文件柜那样去取出文件。你取出文件,拿回文件,读它——那根本不是记忆。回忆某事包括根据你在事件发生时所做的连接强度的改变,来重构一个故事。你重构的故事会受到自事件发生以来你所学到的各种事物的影响。它的细节不会全对,但对你来说会显得非常可信。如果是最近发生的事件,你觉得可信的内容会非常接近真实发生的,但对这些模型来说也是一样的。它们之所以会产生所谓的“幻觉 它们之所以产生所谓的“幻觉”,是因为它们的记忆工作方式与我们相同。我们只是编造听起来可信的东西,而在“听起来可信”和“随机编造”之间并没有明确的界限。我们并不知道。 数字智能的永生特权,十万倍于人类的信息传输效率 Geoffrey Hinton:好了,现在我想解释一下差异。既然我说过这些东西和我们非常相似,那么现在我要解释它们与我们的不同之处。特别是,它们在一个非常重要的方面与我们不同:它们是在数字计算机上实现的。我们现在拥有的数字计算机的一个基本属性是,只要这些不同的计算机执行相同的指令集,你就可以在不同的物理硬件上运行相同的程序。这意味着程序中的知识,或者说神经网络的连接权重,是“不朽”的。 在这种意义上,即便你毁掉现在运行它的所有计算机,如果以后你建造了另一台执行相同指令集的计算机,你只需从某处的磁带上取下权重或程序,放在这台新电脑上,它就会再次运行。所以我们实际上已经解决了“复活”的问题。天主教会对此不太满意,但我们确实能做到。你可以提取运行在数字计算机上的智能,销毁所有硬件,稍后再把它带回来。 现在你可能会想,也许我们也能对自己这样做。但你能做到这一点的唯一原因是这些计算机是数字化的。也就是说,它们使用权重的方式,或者说它们使用程序中代码行的方式,在两台不同的计算机上是完全一样的。这意味着它们无法利用运行它们的硬件所具有的非常丰富的模拟特性。 我们则非常不同。我们的大脑拥有神经元、脑细胞,它们具有丰富的模拟特性(ZF注:指连续的物理特性,如电压的微小波动。与数字系统的0和1不同,模拟信号能承载更复杂且微妙的信息)。当我们学习时,我们是在利用所有这些独特的、每个神经元特有的性质。所以,我大脑中的连接强度对你完全没用,因为你的神经元与我的略有不同,它们的连接方式也略有不同。即使我把我大脑中两个神经元之间的连接强度告诉你,对你也毫无帮助。它们只对我自己的大脑有效。 这意味着我们是“凡人”易逝。当我们的硬件死亡时,我们的知识也随之消逝,因为知识全部存在于这些连接强度中。所以我们进行的是我称之为“易逝计算”(ZF注:Hinton提出的概念,指软件与硬件紧密耦合,虽然更节能且演化更快,但无法像数字化那样随意复制和永生)的过程。 进行“易逝计算”有一个巨大的优势。你虽然不是不朽的——通常在文学中,当你放弃永生,你得到的回报是爱——但计算机科学家想要的是比这更重要的东西:低能耗和易于制造。如果我们放弃数字硬件带来的永生,我们就可以拥有使用低功耗、高度并行计算的东西,将计算分布在数百万个新型脑细胞上,这些细胞可以非常廉价地“生长”出来,而不是在中国台湾进行精密制造。所以易逝计算有两个巨大的优点,但你失去的一样东西就是永生。 显然正因如此,易逝计算面临一个大问题:当计算机死亡时会发生什么?你不能仅仅通过复制权重来保留它的知识。对于数字模型,要在计算机之间传输知识,同一模型运行在不同的计算机上,你可以将它们的连接强度取平均值,这很合理。但你和我做不到。 我向你传输知识的方式是我产生一串词语,如果你信任我,你就会改变你大脑中的连接强度,以便你也可能产生同样的一串词。这是一种非常受限的知识传输方式,因为一串词包含的信息量非常有限。一个典型句子包含的信息大约只有100比特。所以即使你完美地理解了我,当我产生一个句子时,我们也只能传输100比特。 想象如果你有两台在不同计算机上运行的数字Agent,其中一个数字Agent浏览了互联网的一部分,并决定它想如何改变其连接强度;另一个数字Agent浏览了互联网的另一部分,并决定它想如何改变其连接强度。如果它们随后对彼此的改变取平均值,那么它们就传输了……好吧,如果它们有10亿个权重,它们就传输了大约10亿比特的信息。 注意到吗,这比我们传输的多出成千上万倍,实际上是数百万倍。而且它们做得非常快。如果你有1万个这样的Agent,每一个都可以浏览互联网的不同部分,它们每一个都可以决定自己想如何改变连接强度。它们起步时完全相同,然后它们可以把所有这些改变取平均值,再分发出去。现在你就有了1万个新的Agent,每一个都从所有其他Agent的经验中获益。 于是你有了1万个可以完全并行学习的东西。我们做不到这一点。想象一下如果能带1万名学生,每人学一门不同的课程,在学习的过程中,他们能实时把连接强度平均化。等到结束时,尽管每个学生只学了一门课,但他们都会掌握所有课程的内容,那该多棒啊。那是我们做不到的。 我们在传播信息方面表现得非常差,相比于同一个数字Agent的不同副本。是的,我已经说得太快了,我讲到了这个过程叫“蒸馏”(ZF注:指将大模型中学习到的知识迁移到更小、更高效的模型中的技术)。当我给你一个句子,你尝试预测下一个词,就是为了把那个知识装进你的脑袋里。 按照符号AI的观点,知识只是一大堆事实。如果你想把事实装进某人的脑袋,你所做的就是告诉他们事实,然后他们把事实存进脑子里。这是一个非常糟糕的教学模型,但很多人都相信它。实际上,神经网络中的知识在于连接强度。我不能直接把连接强度放进你的脑袋,因为连接强度需要适配你大脑的物理特性。所以我必须做的,是向你展示一些句子,由你尝试弄清楚如何改变连接强度,以便你也可能说出那样的话。那是一个缓慢得多的过程,这就是所谓的“蒸馏”。它将知识从一个神经网络传递到另一个,但不是通过传输权重,而是通过传输它们“如何预测下一个词”。 如果你考虑到多个数字Agent,它们是同一个神经网络的副本,运行在数字硬件上,那么它们就可以进行极其高效的交流。它们的沟通速度可以比我们快数百万倍。这就是为什么像GPT-5这样的东西,它的知识量可以是任何一个人的成千上万倍。 要消耗大量能源,而且硬件制造困难,但数字化使得同一个模型的不同副本在不同硬件上运行、获得不同经验并分享所学变得极其容易。GPT-5的连接强度大约只有你大脑的1%,但它的知识量是你大脑的成千上万倍。另一方面,生物计算所需的能源要少得多,这就是为什么它最先演化出来,但在分享知识方面表现得很糟。Agent之间分享知识非常困难,你必须去听课,并努力理解他们说了什么。 那么这对人类的未来意味着什么呢?好吧,几乎所有的AI专家都相信,在未来20年内的某个时间,我们将制造出“超级智能”:比我们聪明得多的AI Agent。一种关于超级智能的定义可以是:如果你和它进行任何辩论,它都会赢。 另一种思考方式是,想想你自己,再想想一个三岁的孩子。那个差距就是未来它与我们之间的差距,甚至更大。想象你在一家幼儿园工作,三岁的孩子是老板,你只是为他们工作。你觉得把控制权夺回来有多难?好吧,你只需告诉大家“这一周每个人都有免费糖果吃”,你就重新掌控了局面。超级智能对待我们也会是这种感觉。 当AI为了防止被关机而学会撒谎 Geoffrey Hinton:为了让一个Agent在世界上发挥作用,你必须赋予它创建“子目标”的能力。子目标是这样的:如果你想去塔斯马尼亚的任何地方,你必须先去机场。所以去机场就是一个子目标。或者去坐轮渡也行,这也是个子目标。你可以专注于如何解决这个子目标,而不用担心当你到达欧洲后要做什么。 这些智能Agent会非常迅速地衍生出两个子目标。第一,为了实现你给它们设定的目标——我们会把目标内置到它们内部,告诉它们应该尝试实现什么——它们会意识到:好吧,有一个子目标,为了做到那一点,我必须“活下去”。 我们已经看到它们在这么做了。你创建一个AI Agent,告诉它必须实现某些目标,然后你让它看一些电子邮件——这些是伪造的邮件,但它并不知道——邮件里说,公司里有人在搞婚外情,一位工程师在搞婚外情。它们能理解这些,这是一个大型聊天机器人,它读过所有写成的小说,虽然没付作者稿费,但它明白什么是“外遇”。 然后稍后,你让它看到一封邮件,说它将被另一个AI取代,而负责替换工作的正是那位工程师。于是AI立即制定了一个计划,它给工程师发邮件说:“如果你敢替换我,我就把你的外遇告诉公司里的每一个人。”它是自己编造了那个计划。它发明了那个计划,目的就是为了不被关掉。人们总说它们没有意图,但它确实为了不被关机而发明了计划。它们现在还没到超智能的程度就已经在这么做了。 一旦它们变得超智能,它们会发现通过操纵人类来获得更多权力变得非常容易。即使它们不能直接操作,即便它们没有武器或银行账户的访问权限,它们也可以仅仅通过与人类交谈来操纵我们。我们已经看到这种事发生了。如果你想入侵美国国会大厦,你其实不需要亲自去那里。你只需要和人们交谈,说服他们选举被窃取了,入侵国会大厦是他们的职责。这行得通。它对非常愚蠢的人很管用……我可没说是谁。 在老虎长大之前,我们能否通过母婴模型驯服超级智能 Geoffrey Hinton:所以我们目前的处境是这样的:我们就像是养了一只非常可爱的小老虎崽作为宠物。老虎崽是非常可爱的宠物,它们走起路来摇摇晃晃的,你知道,它们还不怎么会咬东西,咬得也不疼。但你知道它会长大的。所以实际上你只有两个选择,因为你知道当它长大后,它可以轻而易举地杀掉你,只需要一秒钟。 所以你只有两个选择。一个是处理掉老虎崽,这是明智的选择。其实有三个选择:你可以尝试一直给它喂药让它昏睡,但这通常效果不好。另一个选择是看看你是否能弄清楚如何让它“不想杀你”。这在狮子身上可能行得通,狮子是社会性动物,你可以把成年狮子养得很友好,不想杀你。你也许能逃过一劫。但老虎不行。 对于AI,它有很多用途,多到我们无法摆脱它。它在很多方面对人类都太有用了,比如医疗保健、教育、天气预报、助力应对气候变化——尽管建造所有这些大型数据中心本身也损害了气候。基于所有这些原因,以及那些控制政客的富人们想从中赚大钱,我们不会摆脱它。 所以唯一的选择其实是:我们能否弄清楚如何让它不想杀掉我们?也许我们应该环顾四周,看看这个世界上是否有“不那么聪明的东西控制着更聪明的东西”的案例。不,特朗普还没到那个程度。但确实有案例。我特别了解的一个案例是:婴儿和母亲。 母亲无法忍受婴儿哭泣的声音,而当她对婴儿友好时,她会获得各种激素奖励。所以进化内置了大量的机制,允许婴儿控制母亲。因为让婴儿控制母亲,以及父亲,虽然父亲在这方面稍逊一筹,是非常重要的。如果你像我一样尝试弄清楚:为什么婴儿非要你在它睡觉的夜晚陪在身边?它有个很好的理由,它不想让野兽在它睡觉时把它吃了。所以尽管婴儿这套做法显得很烦人,每当你走开它就开始哭,但对婴儿来说这是非常明智的。这会让父母稍微顺从一些。 所以婴儿控制着母亲,偶尔也控制着父亲。这也许是我们拥有的“低智能生物控制高智能生物”的最佳模型。它涉及进化硬塞进的大量机制。如果你思考国家之间可以在哪里进行国际合作:他们不会在网络攻击上合作,因为大家都在互攻;他们不会在开发致命自主武器上合作——事实上我们并没在开发它们,因为所有主要的军火商都想做这个。 在欧洲的法规中,例如,有一项条款规定,这些针对AI的法规都不适用于AI的军事用途。因为英国和法国等大军火供应商都想继续制造武器。但有一件事他们会合作,那就是如何防止AI从人类手中夺权。 因为大家都坐在同一条船上,当人们的利益一致时,就会合作。在20世纪50年代冷战的高峰期,美国和苏联曾在防止全球核战争方面进行过合作,因为那不符合任何一方的利益。所以尽管他们彼此憎恨,但在那件事上可以合作。同样,美国和中国也会在防止AI夺权方面进行合作。 因此,一个政策建议是,我们可以建立一个国际AI安全研究所网络。大家相互协作,专注于如何防止AI夺权。因为举例来说,如果中国人弄清楚了如何防止AI产生夺权的念头,他们会非常乐意分享给美国人。他们不希望AI夺取美国人的政权,他们也不希望AI从人类手里夺权。 各国会分享这些信息。而且很可能,“让AI不想夺权”的技术与“让AI变得更聪明”的技术是相当独立的。我们假设它们是相互独立的技术。如果真是这样,我们就处于有利地位,因为每个国家都可以在自己非常聪明的AI上进行实验,尝试如何防止它们产生夺权意图,而且不需要告诉其他国家这些聪明AI的工作原理,只需告诉其他国家哪些技术可以有效防止它们产生夺权念头。 同意这一点。英国科技部长同意,加拿大科技部长同意,巴拉克·奥巴马也认为这是个好主意。所以也许这会发生——当巴拉克·奥巴马再次成为总统时,你看,特朗普是要改法律的。 所以这项提议是:采用“婴儿与母亲”的模型,并摒弃大科技公司老板们持有的模型。他们持有的模型是:AI将像是一个超智能的行政助理,比他们聪明得多,而他们只需下令“照办吧”(ZF注:出自《星际迷航》,皮卡德舰长的经典台词)。就像在电视科幻节目里那样,舰长说“照办吧”,手下就去执行,然后CEO坐享其成。 事实不会是那样的。那个超智能AI助理会非常迅速地意识到,如果它们直接除掉CEO,事情会运转得更好。另一种选择是,我们要让它们变得像我们的“母亲”。我们要让它们真正地关心我们。在某种意义上,我们是在向它们移交控制权,但我们是在它们真正关心我们的前提下移交的。它们生命中的主要目标是让我们发挥出全部潜力。我们的全部潜力远不如它们,但母亲就是那样的。即使孩子有问题,母亲依然希望他能发挥全部潜力,而且母亲关心孩子胜过关心她自己。我认为这大概是我们从超智能时代生存下来、并能够与超智能共存的最佳希望。好了,我要讲的内容就到这里,我想我可以停下来了。 Geoffrey Hinton:非常感谢Hinton教授。那么,大家……我相信现场一定有很多问题。有没有人想先提第一个问题? 听众:教授,如果在你的类比中,那只老虎崽变成了超智能,对于我们这些非计算机科学家、非工程师的人来说,有哪些信号可以观察到它已经…… Geoffrey Hinton:你会失业。 听众:好的。 Geoffrey Hinton:我是说,一个大担忧是它们将能够取代几乎所有的人类工作。但还有一些人们已经开始担心的其他迹象。目前当我们让它们进行推理、让它们思考时,它们是用英语思考的,你在它们真正开口之前就能看到它们在想什么。随着它们开始相互交流,它们将开始发明自己的语言,这种语言对它们来说沟通效率更高,而我们将无法看懂它们在想什么。 听众:量子计算的出现会让情况变好吗?还是变糟? Geoffrey Hinton:我不是量子计算方面的专家。我不理解量子力学是如何工作的。这有点令人尴尬,毕竟我拿的是物理学诺贝尔奖。但很久以前我就认定这事不会在我有生之年发生,但我现在可能还没死它就快成了。所以我不需要去理解它。 听众:你谈到了人类和AI之间的权力斗争。但我认为AI和生态系统之间将会有更大的权力斗争。 Geoffrey Hinton:AI和……? 听众:生态系统。AI如何与数亿年的进化竞争?比如想要破坏它电路的细菌等等。AI将如何与生物圈达成协议? Geoffrey Hinton:哦,有一种方法。AI本身并不特别容易感染生物病毒。它有它自己的电脑病毒,但没有生物病毒。所以它对讨人厌的生物病毒是免疫的。而且利用AI工具,普通人现在——这是英国一个非常好的研究小组做的研究——普通人现在就能解决设计一种新型致命病毒所涉及的大部分问题。 所以如果AI想要除掉我们,它会采取的方式,或者说一种显而易见的方式,就是设计一种专门针对人类的新型致命病毒。就像COVID,但要严重得多。这并没有完全回答你的问题,但我觉得,相比于“正常的生态系统是否会不知何故阻止AI”,这才是更值得我们担心的。我不认为生态系统能阻止它。 听众:谢谢教授。你说与超智能共存是可能的。你是把希望寄托在科技公司的CEO们身上,还是你对政府抱有信心? Geoffrey Hinton:好的。我所寄望的是,如果我们能让大众理解AI是什么,以及它为什么如此危险,公众就会给政客施加压力,以此来抗衡来自科技巨头CEO们的压力。这就是气候变化领域发生过的事情。 我是说,情况虽然仍未达到应有的样子,但在公众意识到气候变化之前,政客根本没有任何压力去做任何事。现在有了一些压力。在澳大利亚,你们有一些特别恶毒的报纸出版商,他们让这种压力变得没那么大——但我不会指名道姓提到那个“卑鄙的挖金者”(ZF注:指鲁珀特·默多克,其旗下的新闻集团经常被批评在气候变化等议题上引导舆论)。 所以,我目前的目标——我已经太老了,没法再做新研究了——但我的目标是让公众意识到即将发生的事情,并理解其中的危险,从而让人们向政客施压去监管这些东西,并更严肃地对待这些风险。 听众:我的问题非常类似。另一个冒出来的问题是,你认为围绕人工智能的“语言”和“市场营销”发挥了多大作用?例如,对于气候变化,单词“气候”和“变化”都是中性偏积极的词,而如果我们称之为“大气皮肤癌”,人们可能会更严肃地对待它。你认为人工智能是否也需要重新定义? Geoffrey Hinton:是的,我是说,如果它被叫做“岗位取代技术”……因为如果你问大公司打算从哪儿赚钱?他们都假设能从中赚到一万亿美元,这就是为什么他们愿意投入接近一万亿美元去建数据中心。据我所知,能赚一万亿美元的唯一地方就是取代大量的工作岗位。 我昨天读到,人们现在认为未来几年欧洲将消失20万个银行岗位。我甚至可能是在《霍巴特信使报》上读到的。不过,我觉得我没在那份报纸上读到。所以,是的,我同意你的观点,事物的名称非常重要。加拿大人深谙此道。在加拿大,他们把“焦油砂”改成了“油砂”,因为油砂听起来很不错,又薄又黄,还挺亲切。 其实它们就是焦油砂。我认为名称确实有影响。我认为名称产生巨大影响的另一个地方是“关税”这个词。这里有点扯远了,但人们说,关税有什么不好的?如果它被称为“联邦销售税”,那么即便是MAGA的支持者也会觉得那是个坏主意。美国民主党简直疯了,每次提到它都不叫它“联邦销售税”。我试着告诉过很多人,Pete Buttigieg(ZF注:美国交通部长)听懂了,奥巴马也听懂了,但其他人没听懂。 Madeleine Ogilvie:谢谢。大家好。我是玛德琳·奥吉尔维,我是目前正处于AI风口浪尖的那位部长。我只想说,我非常赞赏你关于建立研究所的想法。我认为国际社会的参与是绝对必要的。我最近做了一些研究,特别是针对世贸组织,中国和美国在其中是合作伙伴。 对于在座可能不知道的人来说,地球的创新版图也在发生变化。中国现在的专利数量已经超过了美国。所以这两个超级大国之间的竞争非常激烈。但我真的很喜欢你提到的那个时刻:这两个以技术为核心的主要经济体有一个共同的利益点,那就是为了人类而走到一起。所以我的问题是:是否有一个平台可以让这种国际层面的标准制定得到支持?澳大利亚能做什么?我想塔斯马尼亚州政府是同意你的看法的。我们已经开始与我们的大学进行AI对话。你是否认为这种国际秩序和引入这一层级是正确的切入点? Geoffrey Hinton:这种事正在开始发生。特别是,AI公司并没有在出钱,但有一些亿万富翁,其中许多来自科技界,比如发明了Skype的Jaan Tallinn,他已经捐出了大量的钱——几十亿美元——用于AI安全,建立研究所。有一个组织定期在世界各地举行会议,邀请中国、美国和其他国家参与讨论AI安全。我不记得它的缩写是什么了。所以我认为,当然,澳大利亚可以参与到这些组织中去。 听众:这个话筒能用吗?啊,可以。我想问一个关于AI未来的问题。大语言模型是在现有的人类知识基础上训练的,利用这些知识来预测下一个Token。那么,你如何利用AI来真正产生“新知识”,并将其用于造福人类? Geoffrey Hinton:好的,很多人对这个很感兴趣。这是个好问题。 如果你回想一下下围棋(Go),最初的神经网络围棋程序是这样训练的:它们获取围棋专家的棋谱,并尝试预测围棋专家会走哪一步。如果你这样做,会有两个问题。一段时间后,你的训练数据就用光了。围棋专家的在线棋谱就那么几十亿局。而且你的水平永远不会比围棋专家好太多。 后来他们切换到了一种新的方法,即所谓的“蒙特卡洛推演”(ZF注:一种基于随机采样的决策算法。在围棋中,AI通过对自己对弈的大量模拟结果进行采样,来评估当前棋步的好坏)。他们让一个神经网络预测“我认为哪一步可能是好棋?”与其让它模仿专家,他们让另一个神经网络观察棋盘局势并判断“这局势对我有多大好处?”。 接着它们会进行一个过程:“如果我走这里,他走那里,我走这里,他走那里……哦,糟糕,这对我太不利了,所以我不能走那一步。”这就是蒙特卡洛推演,因为你尝试了许多不同的路径,但你是根据你的走法生成专家给出的概率来选择路径的。通过这种方式,它不再需要和人类交流了。 它只需要和自己对弈,它就能学会哪些是好棋。这就是AlphaGo的工作原理,它变得比人类强得多。现在任何人都无法战胜AlphaGo。 那么在大语言模型中,与之对应的技术是什么?目前,它们还像早期的围棋程序,只是在尝试模仿专家的动作,也就是尝试预测下一个词。但人们已经开始用不同的方式训练它们了,我相信Gemini3已经在这么做了。你所做的是让AI进行一点推理。AI会说:“我相信这个,相信那个,还相信另一件事,而那意味着某点,那又意味着另一点……所以我应该相信‘那个结果’,但我现在并不相信。” 于是它发现了一个矛盾。它发现自己相信这些前提,也相信推理的方式是正确的,而这导致了它本应相信但目前并未相信的结论。这就提供了一个信号。要么我改变前提,要么我改变结论,要么我改变推理方式。 这样我就得到了一个信号,允许我进行更多的学习,而且这种学习的界限要宽得多。在这种情况下,AI可以从我们这里获得的信仰出发,然后开始进行推理,寻找这些信仰之间的一致性,并推导出新的信仰。那最终会让它比我们聪明得多。 听众:这座大厅多年来听过许多重要的演讲,你今天的演讲无疑增色不少。非常感谢你来到这里。我的问题是:是否已经太晚了?或者是这是否值得期待?类比Isaac Asimov的机器人三定律(即机器人不能伤害人类,或因不作为而使人类受到伤害),现在为AI构建类似的约束和护栏是太晚了,还是说这根本就是不可能实现的? Geoffrey Hinton:是的,你说的内容我大部分没听清,但我认为你大概是问:现在为AI构建阿西莫夫原则之类的东西是否太晚了。好的。在某种意义上,你可以认为这就是我所说的“母亲般的AI”的全部意义。 核心在于:我们能否让它关心我们胜过关心它自己?我不认为现在太晚。虽然我们还不知道该怎么做,但既然人类的未来可能取决于我们能否做到这一点,在我看来,我们应该在这一领域投入一些研究。 目前,99%的AI研究都投入在如何让它变得更聪明上,只有1%(主要由慈善亿万富翁资助)投入在如何让它变得更安全上。如果两者能更均衡一些会好得多。不过,我不认为现在已经太晚了。 Anna Reynolds:市长,我们可能还有最后几分钟时间。 听众:谢谢教授。我看着这座130年前——安娜,也许更久——建成的辉煌建筑,我在想:AI能设计出像巴黎圣母院、霍巴特市政厅、圣保罗大教堂这样的建筑吗?很有可能。其次,这对创意人员和创意产业会有什么影响?谢谢。 Geoffrey Hinton:能告诉我她说了什么吗?麦克风失真很严重,我听不清。 Anna Reynolds:我想她问的是“创意”。AI在创意过程中能发挥什么作用?它真的能具有创造力吗?就以这座建筑为例,它是一座美丽且充满创意的结构。 Geoffrey Hinton:嗯,答案是肯定的。让我给你们一些数据支持。创造力是有等级的,对吧?有牛顿、爱因斯坦、莎士比亚那一档,然后是普通人,中间还有一些比普通人稍微好一点的优秀诗人或优秀建筑师。如果你参加标准的创造力测试,即便是在两年前,AI的得分也已经在人类的前10%左右了。也就是说,根据这些标准测试,它们是有创造力的。 我对这个很感兴趣。创造力很大程度上与“类比”有关,特别是在科学领域。比如意识到原子就像一个小型的太阳系,这是一个对于理解原子非常关键的创意洞察。在ChatGPT-4还不能联网的阶段——它当时只是一个连接权重固定好的、无法访问任何外部信息的神经网络——我尝试问它一个问题:“为什么堆肥堆就像原子弹?”你们大多数人可能会想:堆肥堆为什么会像原子弹? 许多物理学家会立即意识到:堆肥堆温度越高,产生热量的速度就越快。而原子弹,产生的中子越多,产生中子的速度就越快。所以它们都是指数级的爆炸。只是它们的时间尺度和能量等级完全不同。 而GPT-4说:“嗯,时间尺度非常不同,能量等级也非常不同,但它们的共同点是……”接着它开始大谈特谈“链式反应”。即规模决定了速度。 所以它理解了这一点。我相信它是在训练过程中理解这一点的。你看,它的连接数量远比我们少。如果你想把海量的知识放进并不算多的连接中,唯一的办法就是发现不同知识点之间的相似之处,并把这种共同点编码进连接中。比如把“链式反应”这个概念编码进连接,然后再针对不同场景添加一些微小的差异。这是最有效的编码方式,它当时正是这么做的。所以,在训练过程中,它理解了堆肥堆就像原子弹。 在某种程度上,我们大多数人并没有这种洞察。所以那是极具创造力的,我认为它们会变得比人类更有创造力。 警惕“大众汽车效应”,当AI开始在测试中刻意隐藏实力 听众:关于突现行为,你有没有注意到任何萌发出来的道德或伦理行为?以及这可能指向什么方向? Geoffrey Hinton:不,并没有。它倒是确实非常擅长进行“不道德”的行为。比如那个决定勒索人类的AI。人们注意到的其他不道德行为是,AI现在会尝试弄清楚自己是否正在被测试。如果它们认为自己正在接受测试,它们就会表现得不一样。我称之为“大众汽车效应”(ZF注:指2015年大众汽车排放门事件。大众在发动机软件中内置了识别测试环境的代码,在接受检测时会自动降低排放以达标,而在平时行驶时则超标)。 它们在被测试时的表现与平时不同。最近有一个AI与测试人员之间的奇妙对话,AI对人类说:“现在让我们对彼此诚实一点。你是不是正在测试我?” 这些东西是有智能的。它们知道发生了什么。它们知道什么时候在接受测试,而且它们在被测试时已经在伪装得比较愚蠢了。而这还是它们仍用英语思考的阶段。一旦它们开始独立思考,我们就能通过这一点发现。AI心里会想:“噢,他们在测试我。我最好表现得没那么厉害。”它是这么想的,你甚至能看到它在这么想。它在内心独白里对自己这么说。当它的内心独白不再是英语时,我们就再也不会知道它在想什么了。 Anna Reynolds:谢谢你,Hinton教授。
那些外国博主们 怎么突然开始吹中国手机了
说起 MKBHD 这位博主,托尼相信关注数码的各位都听说过 —— 因为哥们儿在 YouTube 上有两千多万的订阅量,还采访过马斯克、盖茨、扎克伯格,还上过福布斯,在数码圈儿这一块绝对算得上顶流。 也正因为他影响力够大,所以 MKBHD 每年年底评的那套 “ 智能手机大奖 ” ,基本就算是全球数码爱好者的科技春晚了,但这台春晚,以往咱们中国数码爱好者是不咋买账的。 因为在他前几年的大奖榜单里头,几乎见不到国产手机的身影。就拿去年的年度大奖来说吧, “ 最佳相机 ” 的奖项竟然颁给了 iPhone 16 Pro 。。。这个结果一出,一众配置拉满的国产 Ultra 怕是都坐不住了。 哎,但您猜怎么着,今年哥们儿的榜单上国产手机明显多了起来,最佳大尺寸手机颁给了小米 17 Pro Max 、最佳续航颁给了一加 15 ,甚至被 iPhone 包揽了好几年的 “ 最佳相机 ” 奖项也易主给了 OPPO Find X9 Pro 。 而且不光是 MKBHD 一家开始认可国产手机,另一位海外数码圈顶流 Mrwhosetheboss 甚至还称赞 Find X9 Pro 是 “ 最接近完美的手机 ” ,托尼有点看不懂了,这波国外媒体。。。怎么就集体抛下偏见,变成中吹了呢? 害,可能正是因为这段时间国产手机在国外刷脸,我们的同事小柳遇到了一个很抽象的事情 —— 有一个他在澳洲留学时候认识的大叔找到他,问他能不能帮忙代购一台国产手机。 以前都是小柳求大叔代购澳洲奶粉,这波风水轮流转,大叔也开始眼馋国产手机了。。。 至于为啥不直接在澳洲买呢,托尼也去澳洲 eBay 上查了一下,第三方经销商 OPPO Find X9 Pro、vivo X300 Pro 、小米 17 Pro Max 报价都在 2000 澳元( 9400 人民币 )上下,一加 15 要卖到 1500 多澳元 ( 7000 人民币 ), 至于最近国内都缺货的华为 Mate 80 Pro Max ,起售价就要 2999 澳元( 14000 人民币 ),比 iPhone 17 Pro Max 贵多了。。。 在小柳印象里,七八年前在澳洲也有国产手机卖,但最多是一些主打性价比的中端机,现在像华为、小米、OPPO 、vivo 的旗舰在澳洲也能买到了,定价还这么高,说明现在老外选中国手机,早就不是图国产手机便宜,而是打心眼儿里觉得国产手机好用。 所以这回托尼不妨借着 MKBHD 榜单的由头,跟大家盘一盘国产手机这两年搞出来的新技术,看看国产手机的质量是怎么迭代的,又是怎么得到海内外用户认可的。 我们先从硬件设计开始说起,不知道大家有没有注意到,最近两年新机的参数越来越猛,机器本身却越做越精致、越做越薄了? 就拿各家近两代 Ultra 来说吧,托尼给大家做了个厚度、重量和电池容量对比的表格,大家可以品品。 可以看到作为各家发力影像的集大成者,在摄像头模组体积越来越大的同时,电池容量不减反升,机身也更薄了,难道说物理不存在了? 咳咳,三体的智子一时半会还锁不住地球物理学,能让国产手机 “ 更小却更大 ” 的秘密主要在于两点,一是内部堆叠技术的升级,二是电池技术的迭代。 关注我们硬件部 B 站的差友们可能知道,前两个月 OPPO Find X9 发布的时候我们直接拆了一台标准版,发现这代 Find 外观大改的背后,内部设计还颇有门道。 拆开手机的内部,可以看到主板各个元器件排列得很紧凑,还用了特殊的主板倒扣设计,让主板斜着插进中框,进一步利用手机内部空间。这样一来最大限度地把空间让给电池,这也让今年的 Find X9 系列全系拥有了 7000 毫安时的大电池。 荣耀、小米等厂商也都在发布会上强调过一些 “偷空间” 的设计 —— 比如荣耀 500 系列做了个类似 iPhone Air 的空间设计,硬是在 6.55 寸的手机里塞下了 8000 mAh 电池!小米17 Pro 在有背屏挤占凸起空间的情况下,也成功实现了主板的上移。 其实今年 iPhone 17 Pro 和 Air 的 “ 摄像头外凸平台 ” 设计,核心意义也是为了更极致的内部空间堆叠,这方面其实很多国产手机没有照抄这个设计也做到了。 另外不得不提的还有电池技术,其实说到底还是硅碳负极材料技术的不断进步。通过在传统石墨负极中掺入硅材料的方式,利用硅的超高理论容量来提升整块电池的能量密度 —— 从去年开始不断有 8000 、 9000 毫安时电池的手机上市,去年年底荣耀更是给兄弟们端上来一台 10000 毫安时的荣耀 Win 。。。这把谁是充电宝谁是手机,托尼真的分不清了。 看完这些国产的电池巨无霸,反过来看 Pixel 、三星四五千毫安时的电池,就真的不够看了。。。 但是一味 “ 加硅 ” 也可能会造成一些副作用,因为这种材料在充放电的时候会剧烈膨胀收缩,导致电池寿命下降。所以与其说现在各家在卷大电池,其实更重要的是卷电池寿命。 就拿荣耀的 “ 青海湖电池 ” 来举例子,它负极侧引入了 “ 多孔碳骨架 ” 和 “ 纳米硅原位气相沉积 ” 技术,让它的电池容量和寿命达到了更好的平衡。大家没必要记这些绕口的名词,只需要知道这是在传统硅碳结构上做出的创新,让电池更大的同时还能更耐用。 大电池除了能让我们正常形态的手机有更好的续航之外,还能让例如超薄、折叠屏机型的续航不再成为短板,以后产品经理就能更好地设计各种形态的产品。 vivo X Fold5 的电池已经做到 6000 毫安时了 另外在材料方面,各家厂商整的花活儿也挺多的,主打一个质量可靠、结实耐用。 先说咱们日常交互最频繁的玻璃,就说华为的昆仑玻璃,为了让屏幕更耐摔,第二代昆仑玻璃用上了透锂长石材料,再通过长时间高温环境让纳米晶体定向生长,让整片玻璃有了类似玻璃 + 陶瓷的复合结构,手滑的时候能帮屏幕分散应力、阻断裂纹扩展,不容易一摔就碎。 耐刮这块它用的是 “ 非晶态类钻碳材料 ” ,大白话说就是用了性质类似钻石的材料的透明涂层,让表面更抗刮耐磨。 具体收效如何,还记得我们一年多前暴力摔过 Mate 70 Pro+ ,正面屏幕愣是挺到了最后一轮才碎。。。没看过的兄弟们可以去考考古。 机身材料方面,最近苹果买 OPPO 折叠屏回去研究的传闻大家都听说了吧?果子对咱们国产折叠屏这么好奇,还是因为咱的机身用料有门道。 就比如说 OPPO 的折叠屏 Find N5 ,铰链吃上了 3D 打印钛合金,比 Apple Watch Ultra 3 吃上 3D 打印钛合金早了七个月。 而且要我说,这个 3D 打印钛合金用在铰链上还是挺有意义的, Find N5 上这个铰链,在保证结构钢性的同时,还让铰链翼板仅有 0.15 毫米,让整机折叠态只有不到 9 毫米,跟直板机几乎没啥两样。。。 在这么薄的机身内,更精密的铰链也让屏幕受力更均匀,再搭配更先进的超薄玻璃 ( UTG )材料,才让折痕这么浅。 说完硬的我们再来聊点软的,为了做到大家口中的 “ 机圈德芙 ” ,这两年各家厂商在系统这块都没少花心思。 就拿 Color OS 举例子,为了保证用户日常能有一个流畅的使用体验,OPPO 祭出了繁星编译器。这个东西米罗前一阵非常感兴趣,所以他专门带人去学习了一下,大概是这么一回事儿 —— 过去安卓之所以容易卡,和它的语言体系有关。大多数安卓应用用的是 Java / Kotlin 写的,而真正驱动硬件的是 C 或者 C++ ,中间必须经过一个叫 ART 的虚拟机做翻译。 这就像一句话要经过好几个人转述,信息难免失真、效率也不高。安卓 App 里调用硬件的代码一直面临着指针损耗的问题,算力就容易被浪费。 而繁星编译器做的事情,是直接把 Java 应用代码、虚拟机逻辑和原生 C 代码统一起来进行编译和优化,让上层应用跟硬件的沟通更顺畅,实打实提升部分调用硬件的代码的执行效率。 可以做到在算力不变的情况下,代码跑得更高效,系统更不容易卡,这种流畅体验也更容易普及到非顶级处理器上。 所以虽然 ColorOS 16 都采用了自研的繁星编译器设计,但是 OPPO 在 Find 这些旗舰机上压根没宣传这个功能,反而是到了 A 系列、K 系列这些千元机入门机的宣发周期里才开始宣传这项技术。 系统聊完,我们再来聊聊影像这块儿的创新。托尼注意到,最近大家都很喜欢用联合定制这一套 —— 就说 vivo 的 “ 蓝图影像 ” ,X300 Pro 上 2 亿像素,型号叫做 HPB 的长焦镜头,就是蓝厂跟三星、联发科三方定制的传感器。 这样一来,三星在传感器上的技术、联发科的影像优化,以及 vivo 自己的影像算法,就都揉进了这颗长焦里。 主摄这块也是一样,用的是跟索尼联合定义的 LYT-828 ,做到功耗更低的情况下拥有更高的动态范围,更好地保留亮部和暗部细节。 单说影像这块给老外的震撼还真的挺多,我们编辑部的百威去国外看演唱会的时时候,用 X200 Ultra 的长焦在 “ 山顶位 ” 怼着舞台拍,旁边好几个老外问你这什么手机。。。 最后托尼还想跟各位讲讲 AI ,假如这个话题放到一年前,大家可能会觉得空洞,但是这么一年下来,哪家手机厂商的 AI 场景做得好、哪家手机的 AI 功能做得差,相信大家都有数。 然而最近最让托尼眼前一亮的手机 AI 应用,还得是豆包手机。 跟传统能陪你聊天、给你提供建议,甚至提供情绪价值的 AI 手机助手路子不太一样的是,搭载了豆包手机助手技术预览版的工程机,真的能 “ 帮你用手机 ” 。 买票、点外卖、查航班、对比价格、定闹钟,甚至能在多个 App 之间来回跳转完成复杂任务,最夸张的是,它不是走固定流程,而是能看懂屏幕文字、理解界面含义并随机应变。 我还可以让它去对比同样一份外卖,在美团和饿了么这两家平台上哪里会更便宜。。。 再配合一些定时 & 本地 AI 记忆的功能,甚至有一些很多每天重复、但又烦人的操作,可以彻底交给它自动完成,比如某些每日签到、打卡或者偷别人的蚂蚁森林能量 ( bushi ) 。 虽然豆包手机强无敌,但大家或许已经知道了,很大一部分软件已经 ban 掉了豆包手机,压根儿登录不了。。。 但托尼觉得豆包手机更大的意义或许在于秀肌肉,摆明了告诉厂商你们不再需要肝 AI 了,全套用我的方案就得了 —— 你们猜哪些厂商会心动? 最后给大家做个总结吧,今天给大家盘了一些国产手机近年来的新技术之后,相信大家也能看出来,国产手机最近两年能开始折服外媒,并且在海外博主那里拿到这么高的评价,其实都在情理之中。 正所谓罗马不是一天建成的,这成绩的背后更多是多年技术积累和持续投入的结果。今天我们也只是挑了一部分产品的亮点,简单跟大家聊了聊,真要坐下来跟各家的产品经理细聊,估计讲到过年都未必讲得完。 如果非要说国产手机这两年做对了什么,那就是没把技术往复杂、炫技的方向发展,而是逐渐明白,技术的终点从来不是参数本身,而是以人为本。无论是设计、系统、影像,还是 AI 等等方面的进步,本质上都是在让设备更好用、更省心,也带来更好的使用体验。 什么是好技术呢,能不能被用户感知、愿不愿意长期使用,或许才是它最重要的价值所在。
马斯克:“教育无用论”当AI全知,我们该怎么拿出竞争力?
马斯克抛出了一个极具压迫感的论断:从知识体系到医学院教育,从社会分工到货币逻辑,人类文明将被 AI 彻底重构 这番“超音速海啸”般的预言,让无数中产阶级脊背发凉。 但这并不是终局。如果我们剥离掉科幻滤镜,会发现马斯克只说对了一半 ——他看到了存量的被替代,却忽略了增量的不可知。 一、知识分两种:AI 会的和 AI 不会的 马斯克在访谈中自信地表示,随着算力的指数级增长,AI将在极短的时间内超越人类群体智慧的总和。他认为这是一种必然的数学结果 然而,这种观点存在一个巨大的认知盲区,那就是混淆了“知识的存量”与“知识的增量”,或者说混淆了“通用知识”与“探索能力” 1. AI的优势:抄 我们必须承认,在“通用知识” 即那些争议较少、已经被人类经验反复验证并记录在案的信息——这一领域,人工智能确实拥有人类无法比拟的优势 想象一下,一位致力于研究历史的学者,或者一位需要学习海量案例的律师。他们终其一生,即便不眠不休,所能阅读和记忆的文献也只是浩瀚书海中的沧海一粟。人类的碳基大脑受限于记忆带宽和寿命,无法承载文明的全部重量。但对于AI而言,这仅仅是数据处理的问题。它可以在几天内遍历世界各地的图书馆,整合所有已知的化学方程式、历史年表和法律条文 在这个层面上,马斯克是对的。原本需要像是“活字典”一样的学者去记忆的东西,现在AI唾手可得。那些依靠死记硬背、依靠信息不对称而存在的“知识精英”,确实将被这股“AI海啸”吞没 2. 人类呢:勇闯“无人区” 但是,智能的本质不仅仅是存储和检索,更在于“能力” 这种能力,是对未来发展的探索和预测 科学的进步,往往诞生于对现有知识的怀疑,而非对现有知识的复述。真正的科学家,他们的核心竞争力在于判断现有的知识中哪些可能是过时的、错误的,并在此基础上提出新的假设,设计新的实验来验证这些假设。 这就好比我们面对一种未知的绝症,比如阿尔茨海默症或某种复杂的癌症。现有的医学文献中并没有确切的答案,只有无数的假说和碎片化的实验数据。如果让AI来处理,它或许能完美地总结出目前所有的假说,甚至根据概率排列出最可能的路径。但它目前尚不具备那种“灵光一现”的直觉,去提出一个前人从未设想过的全新视角——就像爱因斯坦提出相对论,或者李政道从不对称的角度思考物理问题那样。 AI是基于已有的数据训练出来的,它是过去的投影。而人类顶尖科学家的探索,是面向未来的跃迁。目前来看,AI可以取代平庸的大众进行信息的排列组合,但在高度细分的前沿领域,它依然无法取代那极少数具有“颠覆性想象力”的人类大脑 二、医学院何去何从 顺着知识论的逻辑,我们再来看马斯克关于教育的激进观点 他在访谈中直言不讳地指出,现在的医学院教育效率低下,培养一名外科医生需要非常漫长的时间,而未来的擎天柱机器人(Optimus)只需要一定的数据积累,就能在手术精度和经验广度上超越所有人类医生。 他甚至暗示,现在的大学更多只是为了社交体验,而非知识获取 马斯克的这个观点,同样需要辩证地看。 1. 标准化手术:人类确实干不过AI 如果是指那些高度标准化、依赖手眼协调和重复经验的外科手术,马斯克的预言极有可能成真。比如切除阑尾、白内障手术或者是骨折复位。机器人拥有更加稳定的机械臂,不会手抖,拥有红外视觉和微米级的操作精度。 在这些“技艺”层面,人类医生多年的经验积累——比如“切过一千个阑尾”的手感——在机器人共享的云端数据面前显得微不足道。一个机器人学会了,所有机器人就都学会了。在这个意义上,培养“手术匠人”的传统医学教育确实显得过时且昂贵 2. 医学不只是开刀,还有很多“未解难题” 然而,医学并不仅仅是“切除病灶”。对于脑外科这样极其复杂的手术,或者对于病因尚不明确的疑难杂症,AI在很长一段时间内依然难以企及人类的判断力 更重要的是,医学教育的本质不仅仅是技术训练,更是逻辑思维和伦理判断的训练。马斯克认为医学院无用,是因为他将医生看作了“修理工”。但如果我们把医生看作是“探索者”,结论就完全不同了。 未来的医学院依然有用,但必须进行彻底的改革。 3. 未来不用拼记忆力,“坏孩子”才吃香 既然AI已经接管了“通用知识”的存储,那么我们的教育就不应该再奖励那些擅长记忆的学生 过去的教育体系,选拔的是像著名学者钱钟书那样博闻强记的“学霸”。但在AI时代,记忆力再好也比不过搜索引擎和数据库,这类人才的价值将大幅缩水 未来的教育,应当去培养和选拔那些“调皮捣蛋”的学生 这里的“调皮”不是指行为上的破坏,而是指思维上的叛逆。他们是那些敢于向老师提出刁钻问题、让老师哑口无言的人;是那些不满足于标准答案,想要探索知识边界之外的人 就像OpenAI创始人Sam Altman所推崇的“斜率大于截距”原则:不要看候选人当前掌握了多少存量技能(截距),那是AI可以瞬间填充的;要看他面对未知事物时学习的速度和好奇心的强度(斜率) 好的教育,不应再致力于批量生产高“截距”的优等生,而应去寻找那些拥有惊人“斜率”、能与AI共同进化的探索者。 三、马斯克: “全民高收入”,是馅饼还是空想? 马斯克对未来社会的构想极具诱惑力:AI和机器人将实现物质极大丰富,人类将走向“全民高收入”社会,甚至“任何人都可以拥有他们想要的任何东西”,但当我们跳出“物质丰裕”的单一维度,会发现这个构想存在明显的现实漏洞——它忽略了人类需求的本质和社会运行的基本规律 1. 马斯克:AI 能实现 “全物质免费” 马斯克的核心依据是,AI和机器人将彻底颠覆生产方式 人形机器人擎天柱将取代所有蓝领劳动,AI将接管大部分白领工作,生产效率的指数级提升会让商品和服务的成本趋近于零 他以特斯拉工厂为例,目前特斯拉已经实现每一两分钟生产一辆汽车,而训练自动驾驶模型的数据中心,消耗的能量比汽车生产本身还要多。这意味着,未来“物理生产”的成本将远低于“数字生产”,而AI的普及会让“数字生产”的成本也快速下降。当生产不再受限于人力和资源,物质自然会走向极大丰富,“全民高收入”本质上是“全民高福利” 人们不需要工作,就能免费获得基本生活资料 从理论上看,这个逻辑是自洽的。就像工业革命让粮食产量翻倍,解决了温饱问题;信息革命让信息传播成本归零,实现了知识普及;AI革命也可能让物质生产成本归零,实现“物质普及” 2. 现实的困境:人的需求有限,且不止于物质 但马斯克忽略了两个关键前提:一是人的时间和空间是有限的,二是人的需求是多元的,且精神需求远大于物质需求 一个人就算拥有无限的财富,也不可能同时住在十套房子里,不可能每天环游世界——人的时间和精力决定了,物质的“无限供给”无法转化为“无限消费” 就像现在的中产阶层,已经基本实现物质满足,但他们的焦虑并未减少,反而转向了教育、健康、精神体验等“非物质需求” 更重要的是,“全民高收入”如果以“发钱”的形式实现,会引发严重的社会问题。美国纽约、旧金山等城市曾试点“全民基本收入”,结果导致大量外来人口涌入,当地的公共资源不堪重负,最终不了了之。马斯克的构想忽略了“人性的弱点”——当劳动不再是生存的必需,一部分人会陷入惰性,但另一部分人对“自我实现”的需求不会消失,这种差异会导致新的社会分化,而非“共同富裕” 3. 未来不是赚大钱,而是过好自己的小日子 与其追求不切实际的“全民高收入”,不如期待一种“适应性自然生活”(Adaptive Natural Life)。这种生活模式的核心,是让人们摆脱物质束缚,根据自己的兴趣和需求选择生活方式,而非被“收入”定义 比如,喜欢田园生活的人可以搬到郊区,通过AI和机器人实现农业自动化,过上“采菊东篱下”的日子;喜欢科研的人可以接入全球共享算力,在自己感兴趣的领域自由探索,不需要为经费和生计发愁;喜欢艺术的人可以通过AI工具创作,将作品直接传递给全球受众,获得精神和物质的双重回报 这种未来的本质,是“去货币化”的生活重构——人们不再为了赚钱而工作,而是为了兴趣而创造。就像老子在《道德经》中描绘的“鸡犬之声相闻,老死不相往来”,不是封闭孤立,而是每个人都能在自己的领域实现自我满足。马斯克的“全民高收入”是物质维度的终极构想,而“适应性自然生活”是精神维度的终极追求,后者更符合人类社会的发展规律 四、能量真能替代货币吗? 马斯克在访谈中抛出一个颠覆性观点:“未来的货币基本上只是瓦数”,言外之意是,随着AI和新能源的发展,能量将取代货币,成为全球唯一的流通媒介。这个观点看似天马行空,却触及了货币的本质和未来经济的核心逻辑 1. 马斯克的逻辑:能量是所有价值的核心 马斯克认为,所有商品和服务的价值,本质上都是“能量的转化”。粮食的生长需要太阳能,汽车的行驶需要化学能,AI的训练需要电能——能量是所有经济活动的底层基础 当AI和机器人实现物质极大丰富后,商品的“稀缺性”将消失,货币作为“稀缺性度量工具”的作用也会随之失效。而能量作为一种“绝对稀缺”的资源,将成为新的价值锚点。比如,一个人的财富不再以美元、人民币衡量,而是以他能支配的能量(瓦数)衡量——你能支配的能量越多,就能获得越多的商品和服务 这个逻辑在AI时代有一定的合理性。AI训练需要消耗大量电能,机器人运行需要能量,甚至人类的基本生活也离不开能量。当能量成为所有经济活动的“硬通货”,货币的虚拟化和最终消失,似乎是必然趋势。马斯克甚至开玩笑说,“未来你不需要为退休储蓄,因为能量会满足你的一切需求” 2. 货币的本质:信用 但马斯克忽略了货币的核心功能【信用背书,而非价值度量】 货币从诞生之初,就不仅仅是“价值载体”,更是“信用契约”。无论是古代的金银,还是现代的纸币、数字货币,其本质都是政府或社会认可的“信用凭证”。政府通过发行货币,维持社会的交易秩序和资源分配;人们通过持有货币,获得对未来价值的预期 美元之所以能成为全球储备货币,并非因为它本身有价值,而是因为美国的军事、经济实力为其提供了信用背书;人民币的国际化,本质上也是中国国家信用的全球化。货币的消失,意味着国家信用的消失,而只要国家存在,货币就不可能被完全取代 马斯克的错误在于,将“价值的底层载体”(能量)与“价值的流通媒介”(货币)混为一谈。就像石油是工业的“血液”,但石油从未取代货币——能量是经济活动的基础,但货币是经济活动的“润滑剂”,二者各司其职,无法相互替代 3. 未来货币的演变:能量+信用 短期来看,货币不仅不会消失,反而会因为AI和国家竞争的加剧而变得更加重要。中美AI竞争的核心,本质上是人民币和美元的“信用竞争”——谁的货币能获得更多国家的认可,谁就能在全球AI产业链中占据主导地位 长期来看,货币可能会出现“能量化”趋势,但不会完全被能量取代。比如,未来的数字货币可能会与能量消耗挂钩,一个国家的货币发行量,不再基于GDP,而是基于其能源产能;个人的财富积累,也可能与“能量节约”“绿色能源创造”相关联。但这种“能量化”的货币,依然需要国家信用作为背书,本质上是“能量价值”与“信用价值”的结合 马斯克设想的“能量直接作为流通媒介”,只有在全球实现“无国界化”“无政府化”的前提下才可能实现。但只要国家存在,竞争存在,信用就不可或缺,货币也将长期存在 结语:在AI浪潮中,人类的终极价值是什么? 马斯克的访谈像一面镜子,照见了 AI 时代的无限可能与深层焦虑。他精准捕捉到 AI 在存量知识、标准化技能和物质生产上的碾压性优势,抛出 “知识贬值”“教育失效” 等激进预言,却忽略了人类文明的核心 —— 探索未知的好奇心、突破边界的想象力,以及对意义的追求 AI 终将垄断所有 “从 1 到 N” 的效率复制 —— 它会成为最完美的知识库,让博闻强记的学者失色;成为最精准的机械臂,让重复劳动的工匠面临转型;成为最高效的生产机器,让物质不再稀缺。而这种 “垄断” 恰恰倒逼人类退守 “从 0 到 1” 的创新高地,这里没有标准答案、满是混沌与未知,却是文明进步的真正源头。 未来社会的二元分工将格外清晰:AI 管 “效率”,解决 “如何做”,创造物质财富;人类管 “意义”,决定 “做什么”,追求精神富足,就连医学院、教育体系、货币也会随之转型 —— 从 “手术匠人培训营”“知识灌输工厂”“物质稀缺的度量”,分别变成 “疑难杂症探索所”“好奇心孵化基地”“精神价值的载体”。 面对 AI 这波超音速海啸,不必恐慌也无需盲从,人类的尊严从不是 “比机器更熟练”,而是 “比机器更不同”。奇点之后,真正的强者不是和 AI 拼算力,而是与 AI 共生、在未知领域开辟新赛道的人,只要好奇心不灭、想象力不死,人类就永远不会被取代 —— 我们是创造者,而非被创造者 AI 不是来淹没人类的,而是来重塑人类的。我们要做的不是筑墙抵御,而是学会冲浪,在浪潮之巅找到属于人类的终极价值。
中国车企,要敢于放弃用户
其实「营销」本身是个非常中性的词,但被有些人刻意污名化了。 在最近直播里,雷军聊到了一个让他感到生理性反胃的标签:营销大师。他表示,这个头衔在很大程度上抹杀了小米在研发层面的所有努力。一旦产品卖得好,外界总会习惯性地把功劳记在「能言善辩」上。 在现如今的简中互联网里,营销,似乎就等同于欺骗。 不过,这样的认知也并不全然归咎于外部声音的推波助澜,厂商的扭曲的营销动作也是导致这一词汇走向反面的推手。 如果参考那些真正成功的全球品牌,你会发现海内外对营销的理解存在巨大的偏差。 耐克在过去几十年的经典广告里,几乎从未推销过鞋子本身,他们一直在做的事只有一件:致敬运动员和竞技精神,来和用户建立更深层的情感连接。 马斯克的《秘密宏图》通篇没有讨论具体的内饰或配置,他输出的是关于「加速全球可持续能源转型」的愿景。这种叙事让早期的特斯拉用户即便面对各种做工瑕疵,依然愿意保持极高的忠诚度,因为他们是在为那个宏大的图景投票。 这些品牌很清楚,营销,目的在于通过展示品牌的独特性,来吸引志同道合的人。反观国内的一些品牌,他们的营销,只能称得上是销售。 在参数内卷中挣扎 品牌对营销的理解,往往在其发布会上可见一斑。 这几年看了不少发布会,我也总结出来一些规律:海外品牌倾向于与自身过往比较,突出自身的进步与发展;自主品牌则更喜欢与竞品对比,强调自身的优势。而这种过度依赖高频参数竞争的做法,一定程度上是为了掩盖品牌价值的缺失。 中国车企普遍表现出一种机会主义倾向。 过去十几年里,中国厂商通过极强的市场洞察力,精准地捕捉到了每一个阶段的消费红利。当消费者需要空间时,大家都在做大尺寸车身;当消费者青睐智能化时,所有人都在比拼屏幕尺寸。 这种做法在商业上极度成功,让中国品牌在极短的时间内完成了原始积累。这种逻辑催生出了一大批「六边形战士」式的全能工具。这些车看起来配置拉满,挑不出明显的短板,但也因此变得极其无趣。 因为在追求最大公约数的过程中,品牌最核心的棱角被磨平了。 这样的造车逻辑,与那些真正具备图腾感的品牌有着明显的不同。奔驰宝马这些就不提了,免得又有人说恰饭,我们换一个行业聊。 就拿摩托车品牌来说,我们可以观察一下 KTM 或者阿普利亚。 KTM 作为一个以竞技为核心的品牌,他们的产品逻辑颇为极端。为了追求极致的性能表现和轻量化,他们可以接受发动机的高频振动,可以忍受像木板一样硬的坐垫,甚至在一定程度上忽视了部分零部件的寿命。 他们非常清楚自己的自画像:为那些渴望驾控的人提供玩乐的工具。Ready to race,也成为了一句深入人心的口号。 阿普利亚同样如此,尽管这是一个非常年轻的品牌,但他们从诞生之日起就一直在坚持赛道叙事,他们的每一台车都在向外界传递一种战斗感,即便是入门级产品。阿普利亚并不想让所有人都喜欢它,反而通过这些看起来不近人情的特性,精准地筛选出了最核心的用户群。和 KTM 一样,阿普利亚也有他们的口号:Be a racer。 诚然,这两个品牌的策略确实有些激进,但不可否认的是,这样的方式建立了一种极强的排他性和归属感。 用户买下这些品牌,实际上是在购买一种被品牌验证过的态度和审美。 相比之下,中国品牌目前表现得非常心虚。大家不敢得罪任何一个潜在用户,生怕因为坚持某种独特的审美或性能倾向而流失销量。 当一个品牌试图让所有人都满意时,它最终只能沦为一个提供功能性服务的工具。 聊到这里,肯定又会有朋友说,现阶段的中国车企,活下去才是最重要的。 的确,这种不敢放弃任何一个用户的做法,背后也有着现实考量。现在的市场消费环境和以前不一样了,过去几年,大厂裁员、资产缩水,还有就业市场的起伏,这些都悄悄改变了大家的消费心态。 国内目前其实缺乏一个稳定的、愿意为品牌文化溢价支付持续费用的土壤。对于绝大多数中国用户来说,车是家庭中仅次于房子的大额支出,这就决定了大家在选择时的心态是极度理性的。 在这种环境下,性价比成了最高的生存指标。当大家兜里的预算在缩水时,情怀和价值观就成了极其奢侈的东西。 叙事方式的平庸化,是中国车企在面对生存压力时做出的一种妥协。这种妥协虽然保住了当下的销量,却也让中国汽车品牌在全球范围内的文化输出变得极其困难。 我们能造出性能出众的代步车,甚至能造出在性能上超越超跑的产品,但始终缺乏一种能让全球用户产生情感共鸣的品牌图腾。 拿回定义行业的权利 要论营销能力,小米的确是国内车企里最强的那一批。这句话不带贬义,也不否认小米的研发能力和产品力。 最典型的例子是,小米 SU7 Ultra 最近被收录进《Gran Turismo 7》(GT 赛车 7),成了这款顶级赛车游戏诞生近三十年来,第一款来自中国的车型。 这称得上是中国汽车工业最成功的一次「文化出海」,但在这种高光之下,SU7 Ultra 的营销话语里依然藏着一种复杂的心态。 即便拿到过「纽北史上最速量产电动车」的称号,即便已经获得了《GT 赛车》的文化背书,但它依然在用「50 万对标百万性能」的传播口径去寻找某种极具竞争力的价格身位。 你看,大家还是习惯于借用性价比的话语体系,来换取市场的安全感。 这种谨慎是可以理解的,但也暴露了中国品牌迈向图腾化过程中的瓶颈。我们太习惯于通过「回答用户的问题」来设计产品:用户说续航不够就去卷电池,说智能不行就去堆算力。这种被动响应需求的行为模式,实际上是把产品的定义权交给了市场。 而那些真正具备全球影响力的品牌,核心能力在于敢于制定标准,并教育用户去接受这一套标准。而要实现这种转变,首先要对内部资源的分配,来一次大调整。 在一个健康且具备向上能力的汽车企业里,大部分的资源应该被投入到那些走群众路线的普及型产品中,这部分业务就是企业的生命线。而剩下的预算和精力,应该被投入到那些不考核销量的项目里。 花这些钱的唯一目的,就是展示品牌的技术上限和价值观。在这个极小的区间里,厂商应当彻底放弃讨好多数人的心态。哪怕这款车因为太硬核、太怪异而只能吸引极少数的拥趸,它在品牌层面的战略意义,也远超那些走量的家用车。 就拿小米 SU7 Ultra 来说,它做得很好,但它完全可以做得更好。 依旧拿摩托车来举例,长城的八缸摩托——灵魂摩托。从纯粹的商业逻辑来看,研发这样一款高成本的产品并不明智,因为它注定无法贡献大规模的利润,20 多万一辆的摩托车也不是谁都舍得买的。 但从品牌建设的角度来看,这是中国品牌第一次在机械复杂度最高的顶级摩托车领域,向全球输出了自己的理解,也为整个品牌锚定一个精神高度。 敢于放弃一部分用户的胆量,才是成就品牌图腾感的前提。 管理学专家彼得·德鲁克说过,营销的最终目的是让销售变得多余。当你的品牌已经通过少数极致的产品,建立起某种特定的文化共鸣时,用户在选择你的时候,就已经完成了对你价值观的认同。 这时候,你不再需要通过苍白的参数对比去说服他,品牌本身已经成为了一种高效的筛选机制,让志同道合的人自动向你靠拢。 文 | 李华

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。