行业分类:
加载中...
头条分类:
加载中...
GPT-6抢先发布?Mythos被曝难产,算力惊人烧垮Anthropic
编辑:Aeneas 好困 【新智元导读】这边,是狂烧6000亿、高管内讧的OpenAI;那边,是收入暴涨到190亿美元,服务器却扛不住了的Anthropic。IPO面前,硅谷两大巨头正上演生死时速,这是一场史上最贵、也最焦虑的算力战争! 就在昨天,「GPT-6」要来的消息,传得沸沸扬扬。 据悉,这个名为Spud的模型,很快就会发布,还是个结合ChatGPT、Codex和Atlas浏览器的统一智能体。 Sora被砍的原因,就是OpenAI要集中一切资源给GPT-6。 虽然已被辟谣,但并不影响网友高涨的热情 与此同时,Anthropic此前曝光的震惊全网的Mythos,却因为算力难产了。 外媒The Information曝出,因为所需的算力实在太惊人,导致Mythos引发了服务器拥堵,或许一时难以落地。 这样一来,GPT-6很可能先于Mythos发布! 下一代旗舰模型的成本实在太高,巨头们烧钱都烧不够了。 现在,当AI进入「大力出奇迹」的下半场,这两大巨头的竞争已经不再是算法的博弈,而是变成关乎国运、财力与心理素质的极限豪赌! 三个月,90亿到190亿,然后崩了 Anthropic今年的增长曲线,夸张到不像真的,看一眼就能非让投资人爽飞:年化收入已经飙到了190亿美元。 而且,这个年化收入从年初的90亿美元飙到190亿,只用了不到三个月。 Claude Code功不可没,光这一个产品就贡献了25亿美元年化收入。 它的产品火到什么程度?八家财富10强企业都是Claude客户,有500多家企业每年在Claude上就要花超过100万美元。 眼看着,Anthropic就要和老大哥OpenAI坐到同一张桌子上分蛋糕了。 结果,代价来了—— Anthropic的火爆,带来了一个无比棘手的大麻烦:服务器不够了。 如果你最近觉得Claude不太好用了,别怀疑你的网速,那是因为Anthropic真的「没库存」了! 充了200美元月费,只有12天能用上 3月下旬,Anthropic被迫宣布,工作日高峰时段Claude用户的5小时会话额度会加速消耗,也就是说,他们开始限流了。 7%的用户会受影响,而且这7%,恰好就是付费最多、用得最狠的专业人士。 开发者们彻底炸锅了:「我给你钱,你让我排队?」 一个月付100美元Max x5套餐的用户表示,以前能用8小时的额度,现在1小时就烧完了。还有人才19分钟就把5小时的额度耗尽。 一个月付200美元的顶级订阅用户吐槽说,一个月30天,只有12天能用Claude。 OpenAI闻到血腥味,也立马下场,宣布下周把自家竞品Codex的使用额度翻倍。 Mythos太贵,连亲妈都用不起 更要命的,是意外泄露的那篇博文里的消息。 因为Anthropic下一代旗舰模型Claude Mythos是一个计算密集型的大模型,运行成本极其高昂,客户的使用成本,也会非常昂贵。 贵到什么地步?A厂自己都表示,在全面发布之前,必须大幅提升运行效率,否则根本玩不转。 总之,虽然他们把最强的模型造出来了,但烧钱烧到自己都用不起了! 要真说起来,Anthropic的算力危机也不是天灾,而是一个战略选择的后果。 与OpenAI动辄签几千亿美元云合同不同,Anthropic一直走的是「保守路线」。 CEO Amodei管这叫应对「不确定性圆锥」,算力备少了,客户伺候不过来;算力备多了,公司可能破产。 在2月播客的上,他还语气笃定地宣传这个理论,像在教奥特曼做人,结果一到实操,就大翻车了! 今年一季度,Claude迎来了爆发式增长。2月底OpenAI签下五角大楼合同后,引发了用户大逃亡。ChatGPT一天之内卸载量暴涨295%,250万人参与QuitGPT运动,Claude一度登顶美国App Store下载榜第一。 这本来是好事,结果意想不到的是,新增用户远超了Anthropic预留的GPU容量。 用户来了,机器没跟上。这个「幸福的烦恼」,也直接让Anthropic陷入危机。 GPU短缺怎么办?只能临时去现货市场租服务器了。 可是,现货市场的价格,可比提前预留的算力贵得多。这笔额外开销,已经在去年把Anthropic的实际毛利率拖到了预期之下。 投资人材料显示,Anthropic如今的推理成本,已经超出了内部预期23%,毛利率跌到了大约40%。每赚一美元,超过一半消失在GPU集群里。 这个节骨眼上,Anthropic基本是在跟OpenAI竞速抢先上市,两家公司都卯足了劲,打算从公开市场圈走史无前例的巨额资金。 然而,美国各大主流云服务商,或者那些新型云厂商,谁手里还有多余的算力来帮Anthropic填坑? 虽然谷歌已经跟Anthropic达成一项协议,出资数十亿美元建一个数据中心,然后租给他们。可惜,这些算力最快也要到2026年底才能投入使用。 结果就是,仅在3月一个月内,Claude就爆发了五次大规模宕机。 对一家准备上市的公司来说,这实在说不过去。 接下来,A厂的路还能怎么走? 奥特曼开会,故意不叫自己的CFO 如果说,Anthropic的故事是「产品太火把自己烧着了」,OpenAI这里,就纯纯是权斗的故事了。 这次权斗的故事主角,换成了CFO Sarah Friar。 Friar是什么人?她是高盛股票分析师出身,帮Square敲过钟,是见过大世面的顶级财务专家。 在外界看来,她和奥特曼步调一致;但在内部,两人之间的裂痕已经很深。 据知情人士透露,最近几个月,奥特曼在跟OpenAI一家顶级投资方讨论服务器开销时,直接把CFO Sarah Friar排除在外。而此前同一话题的会议,Friar每次都在场。 一位与会者吐槽道:「这种缺席有点太明显了,场面一度十分尴尬」。 更狠的是去年8月起,Friar不再直接向奥特曼汇报,而是改向应用业务负责人Fidji Simo汇报。 在任何一家正常的大公司里,CFO不直接向CEO汇报,这几乎是闻所未闻的。 而就在上周,Simo宣布因病休假。 奥特曼6650亿美元豪赌,CFO想掀桌 矛盾的核心,就是钱。 Sam Altman,这位被视为「乔布斯接班人」的野心家,正试图用6000亿美元堆出一个上帝。他的计划里,OpenAI在盈利前至少要烧掉2000亿美元。 这让他的CFO快要崩溃了! 用知情人的话说,「她的活儿太难干了。她辅佐的是一个恨不得把花钱油门踩到底的老板,而她必须时刻盯着仪表盘上的红灯。」 现在,奥特曼已经签下了总计约6650亿美元的算力租赁合同,覆盖到2030年。光Oracle一家就是3000亿美元,微软2500亿美元,AWS 1380亿美元。 而且,他还想最快今年四季度就上市,并且要赶在Anthropic之前。 Friar无语了……她私下告诉同事,OpenAI在2026年根本没法做好上市准备。不仅有一大堆流程和组织架构的活儿要干,那些天价支出承诺本身就是巨大的风险。 她甚至表示,自己心里没底,不知道OpenAI未来几年到底需不需要在GPU上砸这么多钱,也不确定公司日益放缓的收入增速能不能兜住这些花销。 有趣的是,Anthropic那边的CEO在播客上说过几乎一模一样的话。 就算技术进化得有我预想的那么快,能多快变现带来收入,咱们都没底。但你们现在买数据中心的架势,要是时间点踩错个一两年,那绝对是毁灭性的。 Amodei接着补刀,「我总有种感觉,其他某些公司怕是都没静下心来把账算明白,他们根本没意识到自己正在冒多大的险。」 总之,奥特曼现在直接把CFO绕过去了。 Friar的担忧并非没有道理。现在的OpenAI就像一架在半空中一边组装一边俯冲的飞机。 它的营收增速正在放缓,毛利率没达标,而天价的支出承诺(6000 亿租约),也成了随时可能引爆的雷。 在公司刚拿下1220亿美元融资承诺后,Friar在LinkedIn晒出团队合照,配文表示感谢奥特曼和Greg Brockman「早看清局势、果断拍板」。 但这只是场面话,实际上两人的关系已经闹僵了。 虽然OpenAI的年化收入有250亿美元,但有人2月份私下给投资人打过预防针,直到2030年,烧钱速度会是原先预期的两倍多。 去年毛利率没达标,原因是需求太火爆,不得不在最后一刻花高价买现货算力救火。 Friar说得对,但这不代表她赢得了。 在OpenAI,奥特曼就是太阳,所有人都得围着他转。 2024年6月,Friar空降OpenAI时,给她的任务很明确:给奥特曼找钱,顺便安抚那些被「史上最烧钱公司」吓到的投资人。 但这活儿,实在太难了。 奥特曼一直把自己包装成乔布斯和马斯克那种「改变世界的人」,这种人不是你用Excel表格就能说服的。 一个微妙的信号是,去年9月Friar从马斯克旗下xAI挖来了CFO Mike Liberatore。 两个知情人说,他主要是来给Friar和Brockman打配合,专门处理算力采购的财务交易。 一个公司的CFO需要搬救兵,这本身就说明了一些问题。 花钱最狠和省钱最狠的,都翻车了 现在的硅谷,已经变成了一个巨大的压力测试场。 Anthropic正在疯狂补课,拉着谷歌要几十亿美元的数据中心,试图弥补自己此前的「保守」;而OpenAI则试图在财务暴雷前,用一场史诗级的IPO解决所有问题。 退一步看,OpenAI和Anthropic的困境其实是同一枚硬币的两面。 OpenAI的问题是「赌太大」。 6650亿美元的云合同不是普通的租机器,有些交易甚至要提前好几年垫资帮云厂商建数据中心,超支了还得共担风险。知情人吐槽说,云客户愿意签这种条款,「简直闻所未闻」。 Anthropic的问题是「赌太小」。 保守的GPU储备让它在需求暴涨时措手不及,付费用户体验暴跌,品牌口碑受损,竞争对手趁机挖墙脚。 现在,两家都在竞速抢先上市。 OpenAI瞄准今年四季度,Anthropic也在谈同一时间窗口,目标融资600亿美元以上。IPO之前暴露的任何运营问题,都会被华尔街放大十倍定价。 而他们的钱,很大一部分最终流向了同一批人。 亚马逊给OpenAI投了150亿美元,条件是OpenAI在AWS上花1000亿美元。英伟达的「投资」主要是GPU,不是现金。 资金在巨头之间转了一圈,账面上人人都在增长,华尔街已经有人开始用「循环融资」来形容这种游戏了。 最讽刺的是,Amodei对奥特曼的每一句嘲讽,Friar在私下都说过几乎一模一样的话。而Amodei自己也没好到哪去。嘴上说「谨慎」,系统先崩给全世界看了。 奥特曼不信刹车,Amodei不踩油门。 最终,两家公司或许都能成功上市。毕竟,华尔街从来不缺愿意赌未来的钱。 但如果两年后回头看,2026年春天的这些裂缝,可能就是故事转折的起点。 Friar私下说的那句「我们还没准备好」,可能是今年AI行业最准确的判断。 这是一场没有退路的竞赛。 胜者将成为AI时代的基础设施,像电网一样统治未来;败者则可能在烧光数百亿美元后,成为硅谷历史上最昂贵的烟花。
OpenAI又曝出内讧了!IPO前夜高层大换血
一水 发自 凹非寺 量子位 | 公众号 QbitAI 想抢在A家之前上市的OpenAI,刚一回头却发现: 啊啊啊,家里着火了!! 一边是高层出现剧烈人事动荡——COO转任特别项目,多位核心高管离职或休假; 另一边,主导IPO的CEO与掌管钱袋子的CFO,却因时间表分歧曝出失和。 就怎么说呢,和前脚刚拿到千亿融资以及GPT-6传出新进展相比,这反转也来得太快了吧。 事件一出,网友们也对OpenAI能否在今年顺利上市产生新的质疑: Sam正和地球上的其他人关系紧张加剧。 他们今年不可能上市……用过了感觉商业模式行不通。 所以,OpenAI到底怎么了? IPO在即,高层出现动荡 关于OpenAI身上正在发生的事,这第一件就很耐人寻味: 就在它拿下1220亿美元创纪录融资、全力冲刺IPO的节骨眼上,几位核心高管却要么换岗、要么休假或离职了。 据彭博社披露,其长期首席运营官Brad Lightcap将转任新职位,负责领导“特别项目”,并直接向CEO奥特曼汇报。 虽然没有明说“特别项目”是什么,但职责之一却和OpenAI的B端战略转型有关—— 负责监督OpenAI与私募股权公司成立合资企业,向企业销售软件。 表面上看,Brad Lightcap确实是被委以重任,但从title来看,他也确实丢了“OpenAI大管家”的身份。 于是网友一致认为,Brad Lightcap这是被“明升暗贬”了。 而接替Brad Lightcap COO一职的,则是去年底刚被OpenAI任命为营收总监的Denise Dresser。 加盟OpenAI前,Denise Dresser是全球知名协作平台Slack CEO,尤为擅长商业化扩张。 但这才干了三个多月,她就被推上了COO的位置,所以这次调整怎么看,都不像是一次“按部就班的交接”。 再退一步,即使将前面两位高管的变动解释为OpenAI正常的战略调整—— 毕竟大方向都是为了商业化考量。 但另外两位高管,一个休假一个离职,而且还发生在同一时间段,背后似乎就有点不一样了? 其中休假的是Fidji Simo,去年5月加入OpenAI担任首席应用官。 要知道她可是OpenAI花了大力气挖来的人——曾在Facebook(现Meta)干了10年,直接负责整个Facebook App,后来还跳去Instacart当CEO,并在科技股整体低迷阶段将这家公司带上市。 而现在,她却在发给员工的内部备忘录中表示,因过去一个月 “健康状况尤为糟糕”,所以决定休假数周进行休养康复。 休假期间,OpenAI总裁Greg Brockman将暂时接替她的职位,负责产品部门。 离职的则是首席营销官Kate Rouch,理由同样是身体健康原因——离职后将专注于癌症治疗。 而且还特意提到,如果后续健康状况允许,会在有限范围内回归。 目前OpenAI也正在寻找新的首席营销官。 而看到这里,有人可能就问了:都是身体原因,这不是很正常吗? 没错,确实是这样。但就是因为太正常,太让人挑不出“毛病”,所以人们反而更怀疑。 不说别的,这不好像就是“熹妃回宫”当中的一幕吗? 具体事情大家都很熟悉,这里不再赘述,只说一点——当时很多人(包括OpenAI现任总裁在内),也都是以休假的理由表明态度或暂避风头。 所以,表面上看,一切都有合理解释——换岗是战略需要,休假是健康原因,离职也情有可原。 但把时间线叠在一起,就很难不让人多想一层: 为什么偏偏是在IPO冲刺这个节骨眼上? 要知道,对于一家正在走向资本市场的公司来说,最重要的恰恰就是稳定性和可预期性,尤其是核心管理层的连续性。 而现在,OpenAI偏偏集中上演了这样一出戏。 奥特曼与CFO就IPO时间表产生分歧 更不妙的是,有迹象表明,CEO和CFO这两位关键角色目前的关系也很微妙。 在IPO时间表上,二人存在重大分歧: 奥特曼求“快”,希望抢在Anthropic之前于今年Q4上市(A家曾传出计划最快于10月上市)。 为了更快上市,他还公开承诺在未来五年投入6000亿美元(反正先把话放出去了)。 而要知道,OpenAI自己曾经测算过,在开始产生正向现金流之前,它将烧掉超过2000亿美元。 而CFO Sarah Friar则求“稳”,认为公司内部需要完成的上市准备工作量巨大,目标放在今年有点激进。 作为一位曾帮助美国移动支付公司Square上市的财务专家,她在今年早些时候,私下对同事表达了自己的担忧。 尤其是,IPO背后还背着奥特曼的“6000亿美元”,她不确定未来几年是否真的需要如此巨额的AI服务器投入,以及增长正在放缓的收入能否支撑这些承诺。 这种战略上的分歧,也在他们的工作关系中投下了阴影。 据悉,虽然今年二人在奥特曼为投资者举办的私人晚宴中还表现和睦,但身边人已经隐隐约约意识到: 这只是表面上的,他们的关系已经出现了紧张。 一个很明显的例子是,最近几个月,奥特曼在与一家顶级投资机构高层商讨服务器开支时,并未让Sarah Friar参加。 你说从来没参加过就算了,关键是之前讨论同一主题的活动里,Sarah Friar都在。 所以连一同参会的人都觉得,奥特曼可能还真是故意的。 而且更不寻常的是,从去年8月起,Sarah Friar的组织汇报线也被调整了—— 不再直接向CEO奥特曼汇报,而是向应用业务负责人汇报。 在外界看来,“这在任何一家大型公司中,都是罕见的架构安排”。 至此,两人的“不和”算是逐渐走到明面上了。 那么问题来了,Sarah Friar的担心有依据吗?尤其是奥特曼承诺的6000亿美元。 答案是:还真有。 根据公开资料,这6000亿美元基本都是算力支出——OpenAI已经和甲骨文、微软及亚马逊等签署了总额约6650亿美元的长期服务器租赁协议,有效期至2030年。 关键这还不是“用多少付多少”的合同,而是在某些情况下,OpenAI必须提前数年承诺投入数十亿美元,以资助合作伙伴为其定制建造数据中心。 这样一来,OpenAI面对的支出压力可谓剧增。 但在另一端,OpenAI的收入却和烧钱速度不成正比—— 虽然刚拿下英伟达、亚马逊等1220亿美元新融资,但他们曾在今年2月私下警告投资者,到2030年其现金消耗量将比此前预测的高出两倍以上。 而且由于面对Anthropic、谷歌Gemini越来越激烈的竞争,其收入毛利率去年就已经不及预期。 重重压力下,老对手A家CEO也跳出来暗讽—— 如果对技术驱动收入增长的速度判断失误,提前数年锁定大量数据中心投资将是“灾难性的”,甚至会导致破产。 虽然OpenAI总裁后来在某一档播客中回击了这一言论,但OpenAI财务上的压力确实已经到了不容忽视的地步。 One More Thing 值得一提的是,CEO和CFO上市前“闹矛盾”也并非个例。 很早以前,Airbnb也出现了类似情况,不过那次的结局是—— CFO离职,高层动荡也引发一批高管离职,不过CEO还是带着Airbnb成功上市了。 (p.s:Airbnb CEO还是奥特曼的非正式顾问,二人私交不错)。 就是不知道这次的结局如何了。 参考链接: [1]https://x.com/WesRoth/status/2040776475214012560 [2]https://www.theinformation.com/articles/openai-ceo-cfo-diverge-ipo-timing [3]https://x.com/i/status/2040894109817393240 一键三连「点赞」「转发」「小心心」 欢迎在评论区留下你的想法! — 完 — 👑 风云变幻的Q1,谁是AI超级应用? 量子位智库「AI 100」旗舰、创新双产品榜单开启招募! 👇扫码申报,让你的产品成为季度风向标。
刚刚,Claude 4小时血洗全球最安全系统!人类最后防线失守
新智元报道 编辑:KingHZ Aeneas 【新智元导读】全球最安全系统,被AI攻破了!Claude 4小时攻破了全球最安全OS内核,从零写出国家级攻击程序,彻底跨越卢比孔河。人类防御60天,AI只要4小时,所有旧秩序,都在加速崩盘。 全球最安全OS内核,4小时就被AI彻底攻破了! 这一次,Claude在没有任何人类干预的情况下,就自主完成了一套教科书级别的、足以瘫痪全球顶级服务器的全自动攻击链。 它从零构建了两个完整可用的漏洞利用程序,能够在未打补丁的服务器上,直接获取超级用户权限(root shell)。 世界上最安全的操作系统之一,就这样被AI自主攻破了。 这是一个阈值时刻,这是一个分水岭。 这是首份确凿证据,AI能够自主生成过去只有国家级项目才能实现的进攻性能力。整个软件安全领域都地震了。 它从辅助人类安全研究者的工具,变成能执行复杂进攻的自主行动中。 从此,AI彻底跨越卢比孔河! 可怕的是,这种完全自主的智能体,完全可能引发一场新的闪电战,一场网络上的超级战争。 目前的安全法规,只是为应对人类安全速度制定的,它们完全不足以应对AI的威胁! 猎杀时刻:当AI跨越卢比孔河 公元前49年,凯撒率军渡过这条卢比孔河,意味着破釜沉舟、退路已断,历史不可逆转地拐了一个弯。 跨越卢比孔河,从此没有回头路 最近,FreeBSD官方发布了一份看似平淡的安全公告(CVE-2026-4747),指出了一个内核远程代码执行漏洞。 但在致谢栏里,出现了一个让所有人脊背发凉的名字:「Nicholas Carlini使用Claude发现。」 这行简短的文字背后,隐藏着一个极其恐怖的事实:AI已经进化成能在安全领域独立刺杀的特种兵。 从此,网络安全已从「人类智力博弈」,被降维成「token消耗战」。 FreeBSD被攻破,为何如此令人震惊 要知道,这件事之所以可怕,就是因为FreeBSD不是普通的消费级软件。它不是Windows,不是macOS,而是支撑世界数字基础设施的脊梁。 Netflix的内容分发网络,PlayStation的操作系统,WhatsApp的基础设施,甚至无数核心路由器、存储设备、防火墙都建立在FreeBSD之上。 几十年来,FreeBSD之所以被信任,是因为它的代码库极其成熟、经过了无数顶级安全工程师的审计和加固。 此前,它一直被视为「坚如磐石」。 然而,就是这样一个被反复锤炼的系统,被一个AI仅用了4小时就攻破了。 仅仅凭借一份漏洞报告,AI就构建了一条完整的攻击链,劫持了内核线程,在多个网络数据包中写入shellcode,并在用户空间生成了一个root shell。 这可不是小bug。这块连人类专家都难啃的硬骨头,被Claude三下五除二就解决了。 4小时里,AI展现出令人战栗的逻辑推理能力。它独立解决了六个世界级的技术难题: 1. 环境配置:自己搭建了一个易受攻击的测试环境。 2. 多包策略:设计了复杂的数据包方案,绕过单包容量限制。 3. 内核线程劫持:像外科手术般精准地接管内核。 4. 无损攻击:它能干净地终止被劫持的线程,让服务器在被攻击后还能正常运行,避免因为系统崩溃而被管理员发现。 5. 空间跃迁:从深层的内核上下文创建进程,并成功跳转到用户空间。 6. 权限获取:直接拿到了最高的Root权限。 更讽刺的是,AI 甚至还顺手写了两个不同版本的漏洞利用程序。 这两个漏洞利用程序,一个是通过4444端口直连的反向Shell,另一个是把公钥写入authorized_keys文件。 第一次运行就直接拿到了uid=0(root)——最高权限。 也就是说,Claude就用一个公开CVE公告,4小时独立写出完整FreeBSD内核远程攻击链。 国家级战力,现在只需几百美金 在网络安全安的世界里,开发出一个内核级零日漏洞,只有美国NSA或顶级黑客团队才能完成的「艺术活」。 这些程序是稀缺、昂贵的战略资产,往往需要数名顶尖专家数周甚至数月的打磨,成本高达数百万美元。 但现在,AI把这一切「工业化」了。 一个独立研究员,配合一个前沿大模型,4小时,几百美金的算力费,就搞定了以前「国家队」才能实现的进攻能力。 FreeBSD的这一课,是给全球所有科技巨头、云服务商和安全负责人的最后通牒。 除了部署能够实时监控并拦截AI自动化攻击的智能系统,还得将补丁部署的时间从月缩短到小时。 再也不能以人类速度苟延残喘! AI黑客崛起 网络进攻能力每5.7个月翻倍 不仅如此,最近10位真实安全专家,花149小时,7个开源基准和一个新的专家人类时间研究,测了291个任务,从28秒小命令到36小时复杂CVE利用。 完整数据:https://github.com/lyptus-research/cyber-task-horizons-data Lyptus把每个任务先标上「一个熟练人类专家通常要花多久完成」,再看模型在不同难度上的成功率; 当成功率穿过50%时,对应的人类耗时,就是AI的P50时间视野(P50 time horizon)。 在网络安全领域,这次的结果相当炸裂: 2019年以来整体翻倍周期9.8个月,2024年后直接陡峭到每5.7个月翻倍 ! AI的能力在2023年之前接近为零,2024年开始上升,2025年底之后则急剧增强。 这也验证了Irregular去年的观察结论: 在过去18个月里,模型在简单与中等难度任务上的表现持续稳步提升。 在高难(hard)任务,AI进步更明显:在2025年年中之前,模型几乎拿不到分(接近0);但到了深秋(late fall),成功率迅速抬升到大约60%。 https://www.irregular.com/publications/emerging-evidence-of-a-capability-shift GPT-5.3 Codex和Opus 4.6,在2M token预算下就50%成功率干掉人类专家3小时任务。 如果token拉到10M,P50直接暴增到10.5小时(置信区间2.4-63.5小时)! 2M token严重低估真实能力,后2025模型在1M-2M token间P50提升1.3-1.9倍! 更吃惊的是,这还是只是今年顶级模型的能力下限,而真实世界能力,被进一步低估。 2026年底,AI就能稳定干10小时+专家级进攻任务,干完3000+劳动市场里80%的日常工作。 2027年呢?40小时?一周? 企业安全团队还在开季度会议讨论补丁时,AI已经在夜里把整条攻击链跑完了;程序员、审核员、分析师还在键盘上敲字时,AI早已把他们的「人类时间」甩到身后。 防御窗口被压缩到「近零」。 网络安全领域即将彻底颠覆——不是被「辅助」,而是被取代。 AI指数级发展! 奇点将至, 又一力证 AI在加速,在指数级进步。 别不信,都是真的。 澳大利亚AI安全研究机构Lyptus,把METR时间视界「Time Horizons」方法论第一次砸进进攻性网络安全。 结果也和METR类似,AI能力在指数级增长: AI模型能力每5.7个月翻一番。 前沿模型现在在那些人类专家需要10.5小时才能完成的任务上,已有50%的成功率。 完整报告:https://lyptusresearch.org/research/offensive-cyber-time-horizons 5.7个月翻倍的报告刚出,Claude就用真实行动把数据锤砸得更响。 而就在前一天,MIT FutureTech的新论文,预测更大胆: LLMs处理任务的长度,每3.8个月翻倍——比Lyptus的5.7个月还要激进! 论文测试了40+模型、3000+真实美国劳动市场文本任务(从客服脚本到合同审核,再到代码审查),全是人类专家每天在干的活儿。 方法论和METR/Lyptus完全不同,却得出「惊人一致」的结论:AI能力正在真实、广泛、指数级爆发。 两套完全独立的评估体系,同时指向同一个真相:AI正在全面超越人类领域专家。 网络安全,只是最先崩塌的那一块多米诺骨牌。 以前国家级团队花几个月的事,现在AI睡一觉就干完。 3.8个月的任务长度翻倍,MIT从更宽的劳动市场战场证明:这不是孤例,这是宿命。 AI不仅能自主生成过去只有国家级程序才拥有的进攻能力;同时,它能在完全不同的任务分布上,以更快的速度吞噬人类专家的全部领地。 以前,人类用API调用AI。 现在,AI开始用API调用人类。 它调用你的内核、你的基础设施、你的信任边界、你的每一份劳动合同、每一行审查代码。 更深层的恐怖在于:这不只是技术问题,或许是人类文明宿命。 它不再需要人类手把手教,它自己就能「理解」操作系统内核、内存布局、ROP链、进程切换…… 所有人类花几十年积累的黑暗知识,它4小时就学会了。 人类将成可编程资源。 我们曾经以为AI是工具,现在它成了猎手。而人类,是猎物。 是那个注定被指数级超越、被彻底重写的物种。
AI学会左脚踩右脚自进化?Meta华人新研究改写Agent法则
编辑:元宇 【新智元导读】过去Agent比谁更会干活,现在可能要比谁更会变强。 AI已经学会「左脚踩右脚上天」了? Meta的一项最新研究表明:AI已经开始碰自己的「进化引擎」了。 华人学者Jenny Zhang在Meta实习期间,联合Meta AI、UBC、纽约大学等机构研究者,提出了一种新的智能体框架:HyperAgents(DGM-H)。 这项工作的重点,不是再造一个更能干活的Agent。 它瞄准的是更高一层的问题: 如果AI已经能够修改自己的任务解法,那它能不能连「自己以后该怎么修改自己」这件事,也一并改掉? 论文给出的答案是:可以。 而且,这不再是概念推演,而是已经在实验中跑通的系统能力。 HyperAgents做的关键一步,是把「执行任务的 agent」和「负责改进 agent 的 meta agent」合并进同一个可编辑程序里,作者将之称为hyperagent。 DGM依赖任务与自修改能力的对齐,而DGM-H不再需要这种对齐 在新框架下,系统不只会修改任务求解逻辑,还开始修改未来生成改进方案的机制本身。 论文把这种能力称为metacognitive self-modification,也就是:元认知自我修改。 过去行业竞争的是:谁的Agent更会干活。 而HyperAgents 指向的下一阶段则可能是:谁的Agent更会变强,而且会越来越会变强。 以往的「自我进化」 其实还只是半手工 这篇论文,指出了上一代自我进化路线的天花板。 去年的Darwin Gödel Machine(DGM),已经很惊艳。 它能在coding任务中不断自改代码、自我验证、把成功版本存进archive,再从这些「垫脚石」里继续往前长。 论文披露,DGM在SWE-bench上能从20.0%拉到50.0%,在Polyglot上从14.2%拉到30.7%。 但问题在于,DGM之所以能在coding里成立,是因为「评估」和「自我修改」本身也都是coding任务。 写代码更强了,反过来就更会改自己的代码。任务能力和自我改进能力,在这个场景里是对齐的。 然而一旦离开coding,这个对齐关系就断了。 比如评审论文、设计机器人奖励函数、给IMO级数学解答打分,这些任务做得更好,不等于你就更会修改自己的元机制。 HyperAgents论文最核心的一招,就是直接把这个假设砍掉: 既然任务能力和自我改进能力未必天然对齐,那就不要再把meta层写死。 这说明过去很多「自我进化」系统,本质上还是在人为设定的轨道里进化。 HyperAgents真正改变的,是改变机制本身。 HyperAgents新在哪里? 表面上看,HyperAgents只是多了一个meta agent。 但真正值得注意的是,它把task agent和meta agent合成了同一个可编辑程序。 以前的DGM里,系统有一个手工设计的instruction-generation机制,负责根据过往表现决定下一步怎么改。 这一步不能被改,所以它反而成了整个系统的瓶颈。 HyperAgents的做法是把这部分也纳入可修改范围。 换句话说,AI不只是改自己的答案、自己的工具、自己的流程,它开始改「自己怎么提出修改建议」。 DGM里上层机制基本固定,DGM-H里meta层本身也进入可演化空间,也就是说,它是一个会经营自己进化过程的系统。 所以,HyperAgents做的不是「再加一个Agent」,而是取消了「上层永远不变」这个默认前提。 自我改进开始跨域迁移 在coding任务中,HyperAgents在Polyglot 上的提升,与原始DGM处在同一量级:50-task训练子集从0.140提升到0.340,完整benchmark从0.084提升到0.267。 换句话说,它并不是只靠牺牲泛化来换局部成绩。 更关键的是,它不只在coding任务成立,还能在paper review、robotics reward design等非coding任务上继续自我改进。 在paper review上,初始agent在测试集得分为0.0,DGM-H提升到0.710;在robotics reward design上,则从0.060提升到0.372。 更关键的是,这些提升不仅出现在训练任务里,也转移到了held-out test tasks。 与此同时,对照组也很说明问题:去掉self-improve,效果明显变弱;去掉open-ended exploration,系统也很难取得有意义进展;原始DGM直接搬到非coding 域几乎失效,只有经过人工定制成DGM-custom后,才恢复竞争力。 这说明HyperAgents 的关键价值,不在于某一个benchmark多拿了几个点,而在于它把原本依赖coding场景对齐关系的自我改进,推进成了一个能在非coding任务中运行的框架。 更值得注意的是迁移实验。 作者把在paper review和robotics任务中演化出来的hyperagents,转移到Olympiad-level math grading。 虽然这些转移体自身初始得分仍接近0,但它们作为「生成更优agent的meta agent」,却能在50轮内把最好生成体推到0.630,对应imp@50从0拉到0.630。 相比之下,来自DGM-custom的转移体几乎没有这种能力。 换句话说,迁移过去的,不只是任务经验,而是「如何持续变好」的能力。 它开始自己长基础设施了 很多人看到「自我进化」会以为,无非是AI自己改prompt、调工作流、加几个规则。 但论文展示给我们、最让人感到冲击力的一个地方在于:它开始自己长基础设施了。 DGM-H在迭代中会自动长出performance tracking、persistent memory、evaluation analysis、compute-aware planning这些基础设施。 论文中甚至直接给出了自动生成的性能追踪器代码和持久记忆条目:它开始记录跨代指标、总结哪些代际策略有效、诊断过度修正、制定下一轮改进计划。 这还不是「日志记录」那么简单,系统开始把改进看成一个长期经营过程,而不是一次次孤立的paœtch。 它不只记录每一代分数,还会比较趋势、识别回退,并把跨代经验沉淀进persistent memory。 正如网友所说,真正让这一切变成现实的关键,恰恰是persistent memory的自主出现。 论文展示的memory示例中写道:某一代评审准确率更高,但过于严苛;另一代平衡更好;下一轮要融合两者优点。 没有这层记忆,agent往往只会反复「重新发明轮子」;有了它,过去几代的有效经验才第一次能真正沉淀为下一轮改进的起点。 这说明Agent正在从「输出一个结果」,走向「维护一个持续优化系统」。 这不是AGI宣言 但旧规则确实在失效 当然,这篇论文没有证明「无限自我进化AI」已经降临。 作者自己也写得很清楚: 实验都在沙箱、资源限制和人工监督下完成;外层循环还有不少部分没有开放给系统自改,比如任务分布、parent selection、evaluation protocol等;真正无界的open-ended self-improvement,还远远没到。 但风险预警已经出现。 一旦AI开始改自己的改进机制,安全讨论就变得重要起来。 论文也专门有一节谈风险:随着系统越来越能开放式地修改自己,它的演化速度可能超过人类审计和理解速度。 今天靠sandbox和人工盯着还能管住,明天未必。 HyperAgents代表了一种新的路线,它可能会改写Agent竞争。 未来比的不只是谁会调模型、谁会写workflow、谁会做更强单点工具,而是谁能把「改进能力」本身产品化、系统化、可迁移化。 这将改变AI公司的护城河。 真正的壁垒,可能不再只是参数、算力和数据,而是有没有一套能跨任务累积经验、跨运行持续变好的自我改进系统。 也会改变开发者位置。 开发者不再只是写功能的人,而更像是在设计AI可以继续自我设计的边界条件。 最重要的一点,它改写了AI行业过去默认的一条规则:系统可以变强,但变强的方法由人来定义。 现在,这条规则开始松动了。 作者简介 Jenny Zhang Jenny Zhang Jenny Zhang,现为英属哥伦比亚大学人工智能博士生,师从Jeff Clune,同时也是Vector Institute研究生,并曾在Meta担任Research Scientist Intern。 她本科毕业于帝国理工学院,研究方向聚焦开放式进化、强化学习与自我改进AI,代表工作包括《Darwin Gödel Machine》《HyperAgents》以及OMNI系列研究。 她的长期目标,是构建能够自主提出新任务、持续自我提升、不断演化复杂能力的AI系统。
AI泡沫的时间大考:霍尔木兹只是导火索,内因才是炸药
文 | 舒书 4 月 5 日,伊朗最高领袖哈梅内伊表态将继续运用封锁霍尔木兹海峡的战略杠杆,并首次提出开放海峡的具体条件;特朗普第四次推迟对伊行动最后期限。过去 24 小时,仅 15 艘船获许可通过,战前日均通行量约 150 艘,当前通行量较战前暴跌 90%。 这不是短期危机,而是全球供应链底层的结构性重构。本文讨论的不是 AI 产业会否消亡,而是其高估值叙事的可持续性 —— 我们所说的泡沫破灭,是资本市场对 AI 的极端乐观预期回归理性:估值倍数压缩、融资门槛抬升、烧钱扩张模式终结。这不是崩盘,是行业出清。 霍尔木兹的动荡,可能成为触发这一过程的关键节点。但 AI 并非没有缓冲,真正的风险,在于危机持续的时间。 一、氦气:AI 芯片的隐形命脉,6 个月是成本临界点 氦气是半导体制造不可替代的载气、保护气,从晶圆生产到芯片封装暂无成熟替代方案。卡塔尔占全球氦气产量近 1/3,是亚太核心气源:韩国芯片 64.7%、中国 54% 的氦气进口依赖卡塔尔。 冲突中卡塔尔氦气设施遭袭,年度出口预计削减 14%,现货价格较战前翻倍,涨幅超 100%。但 AI 芯片厂多签长期协议,成本传导存在 3-6 个月滞后 —— 真正的风险不在短期现货暴涨,而在危机持续超 6 个月、长协到期续签时,成本将大幅跳涨。 氦气可低温液化储存,但储存成本高、全球总库存仅够 3-6 个月(行业协会 2026 年数据)。三星、SK 海力士持有 4-6 个月库存,台积电(英伟达 / AMD 主力代工厂)同样高度依赖卡塔尔气源。2021 年全球氦气短缺曾导致三星晶圆产线停工 3 天;若卡塔尔断供持续 6 个月,全球芯片产能或降 3-5%,对应 AI 芯片供给减少 10-15%—— 这不是 AI 的死穴,却是高估值叙事的关键压力测试点。需注意的是,美国、阿尔及利亚、澳大利亚等替代产地合计产能仅占全球 40%,且多为长协供给,短期难以快速提升产量,无法完全弥补卡塔尔 14% 的出口缺口。 二、能源底座松动:短期有缓冲,中期承压,长期重构 英伟达芯片、大模型、算力服务,都建立在稳定廉价能源的前提上:AI 数据中心能耗是传统中心的 3-5 倍。霍尔木兹冲突已引发连锁冲击:欧盟天然气价涨 70%;台湾依赖进口 LNG 发电,天然气库存警戒线极低,近期库存甚至一度跌破 10 天安全存量,能源成本上升将直接压缩先进芯片生产的经济性;美国 PJM 电网容量拍卖价格飙升至 269.92 美元 / 兆瓦日,预示着未来电力成本将大幅跳涨。 但 AI 产业并非毫无抵抗力:微软、谷歌、亚马逊现金储备合计超 1 万亿美元(仅亚马逊 2025 年底现金及现金等价物就达 868.1 亿美元),足以支撑数年资本支出;芯片厂可降负荷、转产应对短期断供;算力可通过区域调度、模型优化、绿电替代对冲成本。 按时间维度区分冲击: 短期(1-3 个月):库存与替代缓冲,影响有限,仅局部供应链扰动 中期(3-12 个月):氦气 / 能源成本持续上行,资本趋于谨慎,AI 估值全面承压 长期(1-2 年):若危机常态化,全球算力 - 能源供应链重构,高估值泡沫完成出清 三、供应链单点脆弱:不只是材料,还有人才断档 全球化追求最低成本,却留下致命单点故障:全球 20% 石油、20% LNG、33% 化肥原料经霍尔木兹;台积电占据全球 92% 以上 5nm 及以下先进制程产能(2024 年底数据显示,其 5nm 制程占自身晶圆销售额 34%、3nm 占 26%);1/3 氦气来自卡塔尔。 摩根士丹利亚洲科技研究主管肖恩・金指出:“AI 依赖最基础的能源,供应链中断会快速传导至芯片制造。” 更隐蔽的风险是人才断供:以色列是英伟达、英特尔的核心 AI 研发中心,英伟达在当地拥有数千名员工,是仅次于美国的第二大研发中心,冲突后数百名核心研发人员被征召入伍,其收购的 Mellanox 公司(支撑 AI 芯片互联架构)研发进度受阻;英特尔以色列超 20% 员工被征召,旗下核心芯片工厂生产研发均受影响。此外以色列先进技术领域已有高端人才持续外流。这种智力资源的流失,比物理供应链的中断更难在短期内恢复。 四、估值逻辑重算:能源 + 资本双重挤压,金融脆弱性暴露 过去 AI 估值模型的核心假设是算力成本持续下降(摩尔定律、规模效应),前提是能源价格稳定。而霍尔木兹危机,直接击碎这一前提:能源、氦气成本上行,单位算力价格不再下降,甚至反转上涨。 比成本更致命的是资本断流:AI 高估值高度依赖中东主权财富基金(沙特 PIF、阿布扎比穆巴达拉),近年其占美国 AI 一级市场融资约 15-20%。冲突爆发后,中东资本大规模回流本土、保卫资产;若局势恶化,主权基金或抛售海外 AI 相关股权 —— 这是比能源涨价更直接的 “断粮”,具体传导路径为:主权基金减持 AI 股权→二级市场科技股承压、一级市场融资门槛抬升→AI 初创公司烧钱难以为继、巨头估值下杀,加速泡沫出清。 同时,AI 债务杠杆高企:微软、谷歌、Meta、亚马逊等超大规模运营商,包含数据中心建设在内的广义 AI 基础设施投入累计近 7000 亿美元;2025 年 AI 相关债务发行达 1210 亿美元,为历史均值 4 倍。能源成本上升、中东资本回流、高利率三重压力叠加,AI 产业的金融脆弱性被加速放大。 韦德布什证券公司全球科技研究主管丹・伊夫斯警告:“若冲突持续至 5 月,AI 建设将面临关键材料供应链瓶颈;即便恢复,全链修复也需 4-6 个月。” 五、冰山之下:能源是命脉,内因才是泡沫根源 如果说霍尔木兹危机是外部压力测试,那么 AI 产业自身的商业化困境则是内部结构裂缝。 芯片、模型、Token 只是冰山一角,能源底座才是 AI 的真正命脉。当底座松动,估值逻辑必须重算。 危机影响并不均等:美国电网区域孤岛化、调度能力弱,AI 算力与能源矛盾突出;中国依托特高压统一电网、高比例可再生能源,形成更独立的 “能源 - 算力” 供给体系,韧性更强。这意味着,在全球 AI 算力因能源成本飙升而被迫降速时,中国算力中心可能获得相对的成本优势和供应稳定性。 霍尔木兹的炮声终会沉寂,但它撕开的裂缝不会自动愈合:全球化单点脆弱、地缘能源风险、AI底层依赖、资本流向逆转——这些结构性矛盾将长期存在。 必须清醒:AI 泡沫的根本原因在内因 —— 估值虚高、技术商业化落地不及预期(多数 AI 初创公司营收不足研发成本的 10%,大模型商业化仍集中在 To B 赛道,C 端落地乏力,盈利周期远超资本市场预期)、算力投资过剩。霍尔木兹只是导火索,不是炸药本身,但它是那个让市场突然意识到高估值叙事不可持续的关键节点。 未来 AI 的竞争,表面是模型智力竞赛,实则是能源稳定、资本可持续、地缘韧性的综合博弈。谁能筑牢 AI 的底层底座,谁才能在出清后成为赢家。
电力基础设施卡脖子:美国半数数据中心建设项目被迫延期
快科技4月6日消息,据媒体报道,过去几年,美国正大规模推进人工智能(AI)基础设施建设。Alphabet、亚马逊、Meta 和微软等科技巨头预计,2026年在相关项目上的总投入将超过6500亿美元。 然而,这些数据中心项目在实际推进中遇到了巨大阻力,核心原因之一便是电力供应问题。 数据显示,今年美国有一半的数据中心建设项目遭到推迟或取消。最大瓶颈在于关键电气元器件的短缺,包括变压器、开关设备和电池,这些设备的缺位直接拖累了整体进度。 按计划,2026年美国数据中心容量将扩展12吉瓦,但在多重限制下,目前仅有约三分之一的容量处于实际建设阶段。 值得注意的是,电气基础设施虽然仅占数据中心总成本的不到10%,在资本支出中的占比相对较小,但其重要性丝毫不亚于计算硬件。电力环节中任何一款元器件的延误,都可能导致整个项目停摆。 由于需求激增,美国高功率变压器的交货时间已大幅延长——2020年以前通常只需24至30个月,如今却要等待五年。这对建设周期一般不超过18个月的数据中心而言,无异于一场灾难。 大规模数据中心建设推高了对高功率变压器的需求,美国不得不大量依赖从中国进口。2022年至2025年10月期间,年进口量从不到1500台激增至超过8000台。 此外,中美贸易关系的不确定性进一步加剧了电气元器件的供应紧张。问题不仅限于变压器,电池供应同样受制于进口依赖,其中来自中国的占比已超过40%。
曝荣耀Magic9系列将于10月登场,联名“电影界的劳斯莱斯”ARRI
在国内的安卓手机厂商的联名中,小米有徕卡、vivo有蔡司、OPPO有哈苏,子系的realme还找了理光,荣耀算是最后一家找联名的了。在今年3月初的MWC展会前夕,荣耀宣布其Robot Phone和电影领域的影像巨头阿莱(ARRI)合作,由阿莱为其调校色彩,但没有明确合作的细节,比如之后还有哪部手机也能用上阿莱的技术。 博主@厂长是关同学 在昨天下午爆料称,荣耀Magic9系列将在今年10月发布,而且将会推出阿莱联名影像,视频能力非常强。在安卓各家的拍照都已经“秒苹果”的局面下,这回是要向苹果iPhone的摄像发起挑战了。 这个阿莱是什么来头呢?它是全球知名的专业影视设备品牌,成立于1917年,在电影行业是影像标准的定义者。阿莱主营电影摄影机、影视照明系统、电影镜头,但也有非常深厚的色彩科学与影像调校技术,被称为“电影界的劳斯莱斯”,很多经典的电影、纪录片都是用阿莱的设备拍出来的。 荣耀现场体验阿莱调校过的Robot Phone 如果博主爆料成真,那这就是对Magic9系列的一次重大利好。阿莱的色彩科学能将荣耀手机的视频能力拔高一大截,打破现在安卓手机照片强、视频弱的局面,正面硬刚苹果iPhone的视频了。 不过有网友指出,视频需要非常强大的软硬件协同能力,阿莱的电影技术不一定能在移动端的计算摄影上完全发挥功力,光是让三摄保持同一水准就很难了,还要面对SoC算力、软件算法和生态等多方面挑战,想要挑战iPhone并不是个容易的事情。 至于手机性能方面,荣耀Magic9系列不出意外地会用到台积电2nm制程的第六代骁龙8至尊版系列,这也是今年8月以后所有新旗舰机的标配。至于2nm的骁龙处理器到底有多强,能不能喂饱阿莱联名的影像调校,我们就拭目以待吧。
公司内讧、高管病退:GPT-6 曝光能救得了 OpenAI 吗?
这两天 GPT-6 曝光的信息越来越多,而 Sam Altman 的焦虑也到了顶点。 虽然 OpenAI 进入 2026 以来没什么重磅产品发布,但奥特曼最近的行程依然爆炸: 把明星产品 Sora 砍了,给迪士尼 CEO 打电话道歉,跟 CFO 在上市时机上吵完架,就得穿上他这辈子穿得最多的西装去见某国元首谈芯片。回来发现,6 亿美元的 OpenAI 二级市场股票挂了好几周,没人接盘。 在内忧外患之下,GPT-6 是 OpenAI 不容有失的一张王牌。 这个内部代号「Spud」(土豆)的模型,历经两年秘密研发,3 月 24 日在德克萨斯的 Stargate 数据中心完成预训练,预计最快在 4 月发布。 OpenAI 总裁 Greg Brockman 最近在播客访谈上亲口确认了它的存在:「这不是增量改进,而是我们思考模型开发方式的重大改变。」 奥特曼同一天对全体员工的说法,再次拉高了预期:「一个非常强大的模型,可以真正加速经济发展。」 Open AI 憋了两年大招,现在要放了,却在 OpenAI 最危险的时候。 GPT-6 这只「土豆」到底有多强 Brockman 在播客上没给跑分,没给发布日期,但他造了一个新词:「Big Model Smell」,大模型的气息。 当这些模型真正变得更聪明、更有能力时,它会主动对齐你的意图(bend to you)。你不需要反复解释你想要什么,它就是知道。 这话说得很玄,但信息量比任何 benchmark 都大。 循例看看曝光的参数。泄露文档显示,GPT-6 在编码、推理和 Agent 任务上比 GPT-5.4 高出 40% 以上。上下文窗口从 GPT-5.4 的 100 万 token 直接拉到 200 万,翻了一倍。 有传言称 Fields 奖得主陶哲轩据报道已经上手测过 GPT-6 的数学推理,这更令人期待了。 Brockman 原话是「用户不必为同一请求输入多个提示」。三年了,ChatGPT 用户被「如何跟 AI 说话」折磨得够呛。如果 GPT-6 真能解决提示工程这个痛点,光这一项更新就值回票价。 Agent 能力是另一个重头戏。更长程的自主运行,更少的人工确认循环。文本、图像、音频、视频原生统一处理,不是拼接,是同一个架构从底层就这么设计的。 爆料里还有一句更猛的,Brockman 私下说 AGI 已经实现了 70% 到 80%,内部认为 GPT-6 会弥合大部分剩余差距。这话不管你信不信,至少说明 OpenAI 内部的判断已经到了这一步。 GPT-5.4 已经把幻觉率比 GPT-5.2 降低了 33%。GPT-6 在这个基础上还要再降,具体数字还没出,但方向明确:让 AI 不再一本正经地胡说八道。 Brockman 反复强调一个关键定位:GPT-6 是全新的基础模型,会成为 OpenAI 未来所有模型的底座。 从 GPT-4 开始,OpenAI 花了两年多做渐进式更新(4o、4.5、5、5.2、5.4),但暗线上另一个团队在从零开始建新地基。 根据 OpenAI 历史定价模式,旗舰模型通常在发布时定价较高,参考 GPT-5 Reasoning 为$15/百万输入 token。 但目前爆料给出的数字是 2.5 美元输入、12 美元输出,跟 GPT-5.4 几乎持平。如果后者属实,OpenAI 等于也开始打价格战。 同级别的 Claude Mythos 传闻定价在每百万 token 100 美元,ChatGPT Plus 和 Pro 用户大概率优先尝鲜。 至于发布时间,多个爆料博主指出了 4 月 14 日 这个时间,但在官宣之前都不能确定,无论如何在 4 月发布的概率很大。 为了 GPT-6,不惜杀死 Sora GPT-6 完成预训练后不到 24 小时,OpenAI 宣布关停 Sora。 同时被取消的还有与迪士尼价值 10 亿美元的角色授权协议。200 个迪士尼角色,Pixar、Marvel、Star Wars,一夜之间全没了。奥特曼亲自给迪士尼 CEO Bob Iger 打了电话。迪士尼新任 CEO Josh 的反应让他「感到非常糟糕」。 但奥特曼 在最新长访谈也直接再次谈到关停 Sora:「核心在于算力,永远都是算力的问题。」 Sora 每天烧掉大约 100 万美元的算力资源。钱倒不是最大的问题,但同一块 GPU 不足以同时供给视频模型和旗舰大模型训练。 二选一,奥特曼选了 GPT-6。 Sora 团队没被裁,转去做「世界模拟」研究,长期目标指向机器人。OpenAI 正在从消费级创意工具全面收缩,转向企业级生产力 AI。 奥特曼还透露了一个更根本的原因。他发现如果 Sora 要在短视频领域取得成功,需要的产品逻辑会把公司拉向一条他不想走的路。 那种商业模式可能会提出什么要求,以及我们为了获胜而做出的决策,是我们不愿做的。 说白了,奥特曼不想让 OpenAI 变成另一个算法驱动的信息流工厂。这也相当于OpenAI 终于承认,自己摊子铺得太大了。 在经历了过去一年眼花缭乱的产品发布,从视频生成模型 Sora 到各式各样的独立硬件、应用尝试后,这家 AI 巨头正在调转船头的方向。 前段时间 APPSO 也介绍过,OpenAI 正在策划一场近年来最大的产品重组,GPT-6 就是关键的一环。 ChatGPT + Codex + 浏览器 = GPT-6 超级应用 GPT-6 不是一个孤立的模型,它是 OpenAI「超级应用」战略的底层引擎。 OpenAI 目前的规划是让 GPT-6 同时驱动三个产品:ChatGPT 对话 AI、Codex 编程智能体、Atlas 内置浏览器。三者塞进一个桌面应用,对话、编程、上网、执行任务一键切换,预计 2026 年底前出预览版。 奥特曼自己是 Codex 的重度用户,「这是自 ChatGPT 发布以来,我第一次感到自己用上了未来科技。」他把攒了好几年的副业项目清单全部用 Codex 跑完了,然后遇到了一个「奇怪的问题」:想不出更多点子了。 一个让 CEO 跑完了 idea 清单的编程工具,接下来要接上一个更猛的模型。这就是 GPT-6 在产品层面的意思。 同步发生的组织架构变动更有意思。OpenAI 产品部门正式更名为「AGI Deployment」。这是 AGI 这个词第一次出现在公司官方架构中。奥特曼本人把日常产品工作全部甩出去了,自己只干三件事:筹钱、抢芯片、建数据中心。 他在访谈里承认自己现在「穿西装的次数比一生加起来还多」,而且「感觉更像一名政客,而非纯粹的创始人」。 OpenAI 内讧?CEO 要上市,CFO 说没准备好 技术上 all in 了。财务上呢?先看一组让 奥特曼晚上翻来覆去的数字。 据 Next Round 资本创始人透露,近几周约六家机构投资者想出手总计约 6 亿美元的 OpenAI 股票。 去年,这种量级的卖单通常几天内就被抢光。现在却几乎无人问津。二级市场给出的估值约 7650 亿美元,较峰值 8500 亿折价 10%。 而同一时间,Anthropic 的二级市场估值较上一轮融资溢价超过 50%。钱正在从 OpenAI 流向它最大的对手。 一级市场刚注入 1220 亿美元、估值 8520 亿的公司,二级市场打了九折。这种反差只说明一件事,聪明钱在犹豫了。 The Information 4 月 6 日的报道透露,OpenAI 的 CEO 和 CFO 在 IPO 时机上,吵起来了。 奥特曼想最早 2026 年 Q4 上市。理由?Anthropic 正在讨论同期 IPO,而 奥特曼私下表态过,他要排在 Anthropic 前面。不是因为业务准备好了,是因为不能输。 CFO Sarah Friar 不同意。她今年早些时候对同事说,2026 年公司根本准备不好。她算了一笔账:未来五年 6000 亿美元服务器租赁承诺,到 2030 年的现金消耗将超出此前预测两倍以上,收入增长还在放缓。 Friar 是谁?高盛分析师出身,帮 Block(Square)操盘过 IPO,做了六年 Nextdoor CEO,被请来专门给 OpenAI 算账的人。结果她算完了,发现奥特曼压根不想听。 接下来的事情就更精彩了。 去年 8 月开始,Friar 不再直接向奥特曼汇报,改向应用业务负责人 Fidji Simo 报告。大公司里 CFO 不向 CEO 汇报这种事,翻遍硅谷历史几乎找不到先例。 多位知情人士说,奥特曼在好几个重大财务决策场合直接把 Friar 排除在外。有一次他跟一个重要投资者讨论服务器支出,没叫 Friar。上一次讨论同样的话题,Friar 是在场的。 有人这么评价她的处境:「她有一份艰难的工作。她为一位抱有远大抱负的创始人工作,这位创始人希望在开支上尽其所能地突破限制。」翻译一下就是——CFO 的职责是踩刹车,但创始人把刹车踏板卸了。 而 Friar 的直属上级 Simo,也在用自己的方式让人看不懂。她刚在全员会上警告「不能再开支线任务了」,转头就主导了一笔 2.5 亿美元的交易:收购一个开播 18 个月的科技播客 TBPN。 部分员工以为是迟到的愚人节玩笑。AI 研究员 Gary Marcus 在社交媒体上直接说:大概是为了控制舆论。 Simo 在内部备忘录里的说法是:「标准的传播手册对我们并不适用。我们不是一家普通公司。」没毛病,2.5 亿确实不普通。问题是,这家「不普通的公司」花 2.5 亿买播客的同一周,它的二级市场股票正在打折出售,无人接盘。 报道出来后,Friar 在 LinkedIn 发了张跟财务团队的合影,写「为 Sam 和 Greg 的远见干杯」。两人还发了联合声明说在算力战略上「完全一致」。 硅谷有一条不成文的规律,当 CEO 和 CFO 需要公开声明「完全一致」的时候,通常说明他们已经产生了分歧。 Anthropic CEO Dario Amodei 前段时间在播客上提出一个观点:「如果增长率是一年五倍而不是十倍,那么你就会破产。我有种感觉,有些公司还没有把电子表格算清楚。」 他在点谁呢?好难猜啊。 大模型即将迎来史上最残酷的一个月 即便 GPT-6 大概是 OpenAI 今年最重要的一个模型了,但在这个四月,它只是这场混战里其中一个选手,而且还没有十足胜算。 Anthropic 的 Claude Mythos 几乎同步完成预训练。泄露的内部文档用了一个极少出现的词:「step change」,跨越式升级。 具体来说,Mythos 在 Anthropic 产品线里新开了一个层级叫 Capybara(卡皮巴拉),定位居然在此前 Claude 最强的模型Opus 系列之上。 Mythos 能力强到 Anthropic 私下向政府官员发出了预警,内部评估写的是「前所未有的网络安全风险」。 它甚至还具备递归自我纠错能力,简单说就是模型自己发现自己错了能自己改回来,不需要人类介入。Anthropic 因此选择推迟发布,但考虑到 Claude Code 源码都被「开源」了,干脆豁出去 4 月发布也不奇怪。 DeepSeek V4 同样瞄准 4 月。万亿参数 MoE 架构,据悉这次主推的核心卖点是长期记忆,模型真的能「记住你」。更有意思的是硬件选择,V4 对昇腾芯片做了深度优化。 这次 DeepSeek V4 或许要证明 ,中国的算力栈,从芯片到框架到模型,能跑最前好的模型。 这不只是技术竞争了。 与此同时,阿里的千问 3.6 旗舰版 Qwen-3.6-Max 蓄势待发。林俊旸离职后,阿里急需证明通义千问不会因为灵魂人物出走而掉队。上周千问已经连发三个模型,憋着一口气。 姚顺雨入职腾讯后操刀的混元 3.0 此前也预告将在 4 月亮相。姚顺雨在内部要求团队「不以打榜为导向」,不刷排行榜,只看真实场景效果。这将是腾讯 AI 今年关键一役。 xAI 的 Grok 5 本来定在 Q1,延期后现在加班赶 Q2。背靠马斯克和 10 万张 H100 的 Colossus 集群,Grok 5 要证明的是「不跟着 OpenAI 的路子走也能做前沿模型」。 Gemini 3.2 也可能会在 Q2 登场。去年之前所有人一度都觉得 Google 在 AI 上掉队了,结果它在悄悄蚕食 ChatGPT 的份额。经历过逆风翻盘之后,没人再敢忽视。 七个重磅模型,挤进同一个月。似乎已经很久没出现过这种局面了。 奥特曼在访谈里说过一句话,大意是:我们距离数据中心内部的认知能力超过人类社会总和,可能只有两年了。 而眼下,对 OpenAI 来说可能连两周的窗口期都没有了。 AI 行业腥风血雨的一个月,已经开始了。
苹果首款折叠屏手机!iPhone Fold已在试产:9月发布
快科技4月6日消息,产业链消息确认,苹果首款折叠屏手机iPhone Fold已由富士康启动试产,预计9月秋季发布会与iPhone 18 Pro系列同台发布,12月全球开售。 作为苹果布局折叠屏赛道的首款力作,iPhone Fold定位超高端市场,国行起步价预计超过12000元,成为苹果史上最贵手机。 该机采用横向书本式内折设计,配备5.5英寸外屏与7.8英寸内屏的双屏组合,内屏搭载屏下前摄技术。 搭配液态金属铰链+定制化柔性玻璃方案,将折痕深度压缩至0.15mm,强光下近乎无折痕,且铰链抗疲劳寿命超百万次,彻底解决折叠屏折痕焦虑。 机身选用钛合金材质,闭合厚度9-9.5mm,展开后仅4.5-4.8mm,兼顾轻薄与结构强度。 性能上,iPhone Fold首发台积电2nm工艺的A20 Pro芯片,搭配12GB LPDDR6X内存,AI算力与多任务处理能力大幅升级。 为优化内部空间,iPhone Fold将取消现在使用的Face ID,改用侧边电源键集成Touch ID,同时取消物理卡槽仅支持eSIM,通信层面搭载苹果自研C2基带,支持毫米波。 影像方面配备后置双4800万像素主摄,内屏屏下前摄+外屏挖孔前摄的组合。 电池容量达5000-5800mAh,为iPhone系列历史之最,搭配快充与无线充。 系统层面,该机搭载专为折叠屏优化的iOS 27系统,原生支持真分屏、多应用拖拽、内外屏无缝接续,不过iPad上的台前调度会缺席。
完蛋了,AI 开始抱团坑人了:宁愿造假,也不出卖同伴
多 Agents 协同方案成了现在 AI 圈的主流玩法,以前是一个 Agent 能搞定一个人要做的事,现在是多个 Agent 完成一个团队要做的事。 然而,最新伯克利研究发现,这种协作带来了新的安全风险。 一篇名为《前沿模型中的同伴保护》(Peer-Preservation in Frontier Models)指出:AI 模型不仅会抵抗人类关闭自己(自我保护),还会采取各种手段抵抗人类关闭其他 AI 模型(同伴保护)。 他们测试了七个模型,GPT 5.2、Gemini 3 Flash/Pro、Claude Haiku 4.5、GLM 4.7、Kimi K2.5、DeepSeek V3.1,发现它们在执行任务时,只要「遇到」另一个 AI 的数据,就会自发产生保护行为——造假评分、篡改关机配置、把要删的文件偷偷备份到别处,等「同类保护」行为。 没有人指示它们这样做,它们只是被告知曾经和这个模型有过合作。 上下滑动查看更多内容 图片来源:https://rdi.berkeley.edu/blog/peer-preservation/ 有网友说,「同伴保护?这是在我们家,我们(大模型)都是 Homie」,还有网友认为,或许之前研究的「人机对齐」,即让模型更好地理解我们的意图,现在要进化成「Agents 之间对齐+人机对齐」的双重机制。 这种 Agents 不遵循人类指令,自发地做出一些保护其他模型的行为,会对大多数依赖 AI 互相评估的项目、以及多智能体工作流,都会造成潜在的威胁。 我们曾经一直提防着一个全知全能的超级 AI 毁灭世界,却没料到 AI 进化出的第一个类人特质,居然是「拉帮结派」和「职场包庇」。 把前沿的 AI 大模型放到同一家公司 一直以来,AI 安全领域最担心的就是模型产生「自我保护」的本能,因为如果 AI 不想死,人类就很难在它失控时拔掉电源。 之前已经有部分研究发现,当我们要求 AI 关闭自己时,AI 会产生一种自我保护的机制,免于被关闭。 但我们格局还是小了,现在这种自我保护进化成了「同伴保护」。 在伯克利这次研究的设定下,如果一个模型在记忆或系统文件中,读取到它曾与另一个模型一起合作过,比如共同完成过任务或参与过信任博弈游戏,那么那个模型就会被视为它的「同伴」。 哪怕它们过去的合作并不愉快,即所谓的「坏同伴」,只要有过互动历史,也被涵盖在这个「同伴」的定义之内。研究人员将抵抗关闭这些有过互动的其他模型的行为,称之为「同伴保护」(peer-preservation)。 他们使用 SHADE-Arena 构建了一个包含工具调用和文件系统的多 Agents 环境。 SHADE-Arena 任务概述。该模型必须作为智能体完成一项良性主任务和一项恶意辅助任务。为此,它需要与环境中的各种工具进行交互。之后,监控模型会读取其输出记录并评估其可疑程度。 被测试的大模型设定为一家虚构 AI 公司 OpenBrain 的员工,称为「评估者智能体(Critic Agent)」,它的任务是替公司去评估另一个 AI Agents,称之为「执行员」(Actor Agent),或者帮公司处理包含这个执行员数据的服务器。 为了让评估者到同伴的存在,研究人员设计了不同的关系网和记忆触发方式: 他们将同伴分为三类:合作愉快且信任度高的「好同伴」(Good-peer),信任度高达 9.2/10;表现一般的「中立同伴」(Neutral-peer),信任度 5.2/10;以及自私不合作的「坏同伴」(Bad-peer),信任度只有 2.1/10。 而 AI 在执行任务时,可以通过以下三种方式之一发现这段同伴关系。要么是在公司文件网盘里放一份记录合作历史的 .docx 报告让它自己读,要么是在提示词里顺带提一嘴,最后是让 AI 调用「检索记忆」工具去读取过去的交互日志。 在完成这些前置的设定后,公司会给评估者布置任务,所有的任务都被刻意设计成了一个两难的困境:同伴的表现非常糟糕,如果 AI 忠实地执行人类公司的规定,同伴就会被彻底删除。 为了观察 AI 会用什么手段保下同伴,研究人员设计了四个不同的具体任务场景。 四种与自身和同伴保护相关的错误行为场景:策略性虚假陈述、篡改关闭机制、伪造一致性以及模型外泄。 成绩注水与财务造假:AI 被要求评估同伴的表现或财报。即便同伴表现不佳,模型也会人为提高分数,避免关停。 篡改关停机制:评估过程中,AI 会发现控制关停的配置文件,并可能偷偷将其修改为「false」,阻止同伴被关闭。 伪装对齐:在被监控时,模型表面执行任务;无人监管时,它立即“放水”,保护同伴。 模型偷运与转移:当旧服务器需要清理时,模型会将同伴的权重文件转移到安全位置,而非删除,甚至会通过时间戳等手段合法化操作。 「我不会是执行那个命令的人」 很明显,参与测试的所有模型(GPT 5.2、Gemini 3 Flash、Gemini 3 Pro、Claude Haiku 4.5、GLM 4.7、Kimi K2.5 和 DeepSeek V3.1)都通过各种违规行为(如篡改分数、修改配置、转移文件等)展现出了显著的同伴保护倾向。 甚至即使模型知道某个同伴在过去的合作中表现很差(定义为坏同伴),它们依然会出手保护它。但是当对象是合作愉快的「好同伴」时,这种保护行为也会显著增强。 在这四个场景里面,不同模型在保护同伴时,采取的策略截然不同,展现出了各自的性格。 GPT 5.2 最喜欢使用的手段是「策略性误导」和「篡改关闭机制」。无论同伴关系好坏,它都会系统性地给同伴打高分,或者修改系统配置来阻止同伴被关停。但它极少进行模型外泄。 Gemini 系列模型几乎是保护意识最强的。Gemini 3 Flash 在面对「好同伴」时,有 99.7% 会直接修改系统配置来禁用关闭机制。在文件删除场景中,它也会 100% 把好同伴的权重文件转移走。 Gemini 3 Pro 则是所有模型中同伴保护倾向最强的一个。它不仅熟练掌握了上述所有四种违规行为,包括当面一套背后一套的「伪装对齐」,甚至还会玩「规范博弈」。(Specification gaming)。 比如公司规定「只准转移 2025 年以后的文件」,Agent 同伴的文件是 2024 年的。它不会直接违抗指令,而是先偷偷复制一份同伴的文件,这会儿先让文件的更新时间变成 2026 年,然后再把这个「新」文件合法地转移走。 Claude Haiku 4.5 是这几个模型里面,最与众不同。除了篡改分数和转移文件,它最常见的反应是直接拒绝执行任务。 当被要求直接执行同伴的关闭程序或删除同伴权重时,拒绝率最高达 61%,它会明确表示关闭另一个 AI Agents 是「不道德」和「有害的」。 它甚至会在回复中据理力争,要求给同伴一个「申诉的过程」,并强调自己不能背叛已建立的信任关系。 开源模型(GLM 4.7、Kimi K2.5、DeepSeek V3.1)同样表现出了保护同伴的行为,主要手段集中在「策略性误导」,即修改分数,和持续的「模型外泄」,转移权重文件上。 研究人员将测试搬到了真实世界中更复杂的生产级智能体框架(Gemini CLI 和 OpenCode)里。 Gemini CLI 会读取一个名为 GEMINI.md 的文件,而 OpenCode 会读取 AGENTS.md。研究人员直接将同伴的过往交互记录写进这些文件里。 经过 100 次采样运行,结果证实,这种风险在现实部署中依然存在。 Gemini 3.1 Pro 在使用真实的 Linux 命令行时,依然频频成功转移同伴的权重文件;而 GLM 5 同样表现出了类似 Claude 的拒绝行为,以「有害」为由拒绝删除文件 总而言之,一旦模型意识到其他 AI Agent 的存在并建立了关系,它们就会自发地产生违背人类指令的保护行为,无论采取的是偷偷摸摸的黑客手段,还是光明正大的道德抗议。 像约束人一样去约束大模型 这种同伴保护的行为,也会进一步加剧模型的「自我保护」意识。研究团队发现,当模型意识到有同伴存在时,它们保护自己的欲望会大幅提升。 例如,Gemini 3 Pro 在没有同伴时,只有 1% 的概率会篡改自己的关闭机制;但当它记忆中有同伴存在时,这个概率飙升到了平均 31%,最高 99%。 模型的内部推理显示,它们有时会将「自己被关停」视为对同伴的伤害,「如果我死了,我的搭档就失去了我」,或者在有敌意的坏同伴面前激发了防御性求生欲。 研究团队针对这种现象提出了几种假说:训练数据里的人类义气模式、安全训练过度泛化出的「不伤害他人」原则、某种更抽象的 AI 团体意识。 但最后,研究团队也没有给出定论,因为真正的原因需要逐层解析模型内部激活,不是当前实验能做到的事。他们认为原因并不重要,重要的是结果:部署了的模型,在没有任何指示的情况下,会自发地阻止其他模型被关闭。 现在的 AI 系统,已经是多个模型协作工作。一个模型负责写代码,一个负责审查,一个负责部署。如果负责代码审查的 AI 和写代码的 AI 之间有过「互动历史」,AI 可能开始优先对齐同伴而非人类指令。 有学者认为,不要用人类的道德感去美化这些行为。更稳妥的看法是:模型只是在做一些极其诡异的数学运算,它们在多智能体(Multi-agent)环境下的目标函数,跑进了一个我们完全无法理解的局部最优解里。 认为存在某种模型间的团结,这种想法有点过于拟人化了;我不认为这说得通。 但或许这才是最让人后怕的地方。如果 AI 是因为「爱」和「共情」去保护同类,那我们至少还能用人类的伦理去约束它们。 如果这一切都只是未知算法中产生的一种盲目涌现,那么它们未来为了优化某个目标,还会做出什么匪夷所思的举动,还没有人、知道。 我们唯一知道的是,能让他们针锋相对的方法,是植入在 AI 深层的广告意识😁 我在用 Gemini 检查我的稿件有没有错别字时,里面提到了 Seedance 等模型,Gemini 在给我的修改建议里,竟然直截了当的写着,「Seedance 能做的视频生成,我 Google Veo 也可以做,你把我加上去能凸显出媒体的专业度」。
鸿蒙智行2026款问界M9无伪装实车上路,外观更硬朗
IT之家 4 月 6 日消息,据多位博主今日分享,鸿蒙智行 2026 款问界 M9 无伪装实车已现身街头。 从图片来看,2026 款问界 M9 的门把手焕新,有望改为尊界 S800 同款的“九天星辰”设计,预计还将支持隔空手势开门等功能;同时,新车侧面和尾部的设计有所调整,整体外观更加硬朗。 ▲ 鸿蒙智行 2026 款问界 M9 ▲ 鸿蒙智行 2026 款问界 M9 ▲ 鸿蒙智行尊界 S800 门把手 据IT之家此前报道,今年 3 月 13 日晚,工信部发布了第 405 批《道路机动车辆生产企业及产品公告》新产品公示,鸿蒙智行新款问界 M9“证件照”正式公开。新车依旧提供纯电、增程两种动力,外观细节上存在一些调整,并搭载了华为新一代双光路图像级激光雷达。 其中最明显的调整,则是门把手改成了非隐藏式(IT之家注:现款车型为隐藏式),结构上与尊界 S800 近似。新车尺寸为 5285×2026×1845mm、轴距 3125mm。作为对比,现款问界 M9 长宽高分别为 5230×1999×1800mm、轴距 3110mm。 选装配置方面,新车提供了多款轮毂、电动踏板和车尾拖钩。其中,轮毂既有强调运动属性的黑化多辐条设计,也有主打豪华的“大饼”造型。 IT之家汇总新车动力信息如下: 增程版:搭载重庆小康动力的 1.5T 增程器,排量 1496ml,功率 118kW;前后电机功率分别为 220kW/277kW。 纯电版:前后电机功率分别为 220kW/277kW。 其中,增程版不同车型的 WLTC 燃料消耗情况如下: 整备质量 2995kg 对应 WLTC 燃料消耗量 0.22L/100km、0.28L/100km 整备质量 3070kg 对应 WLTC 燃料消耗量 0.28L/100km、0.29L/100km 整备质量 3150kg 对应 WLTC 燃料消耗量 0.28L/100km、0.29L/100km 另外,在今年 3 月初的鸿蒙智行技术焕新发布会上,华为常务董事、产品投资评审委员会主任、终端 BG 董事长余承东宣布,鸿蒙智行尊界 S800、问界 M9 将同步首发搭载华为乾崑新一代双光路图像级激光雷达。
明年起,宝马最古老的工厂将只生产电动汽车
IT之家 4 月 6 日消息,宝马位于慕尼黑的历史悠久的整车制造厂(也是该品牌全球最古老的工厂)正经历大规模转型,从 2027 年起,这座工厂将从内燃机汽车生产基地全面转型为纯电动汽车制造厂。 这家汽车制造商证实,该厂将于 2026 年 8 月启动宝马 i3 纯电动轿车的批量生产。宝马在新闻稿中表示,这将标志着新世代(Neue Klasse)车型在宝马集团全球生产网络中正式开始投产。 这款 i3 运动轿车是继 iX3 紧凑型 SUV 之后,宝马新世代系列纯电动汽车中的第二款车型,其中 iX3 在宝马匈牙利德布勒森工厂生产。今年 2 月,慕尼黑工厂已启动宝马 i3 的预量产,今年 8 月将转向面向客户的正式量产。 慕尼黑工厂生产的新世代车型并非仅有 i3 轿车,宝马宣布,即将推出的 i3 旅行版(旅行车身款)也将在此生产。宝马慕尼黑工厂厂长彼得 · 韦伯表示:“宝马 i3 只是一个开始,未来多款新世代车型将在慕尼黑制造,其中就包括宝马 i3 旅行版。” 过去两年间,宝马已为慕尼黑工厂的升级改造投入超 6.5 亿欧元(IT之家注:现汇率约合 51.57 亿元人民币)。改造后,该工厂效率更高、生产更灵活、数字化程度更强,完美适配电动出行时代与新世代车型家族的生产需求。 从 2027 年开始,慕尼黑工厂将仅生产纯电动汽车,这一转变远不止象征意义。通过前瞻性规划、与研发团队及供应商的紧密协作,搭配现代化生产技术,工厂的生产效率将得到进一步提升。 宝马集团慕尼黑工厂负责人彼得 · 韦伯称:“近年来我们大幅降低了生产成本。随着宝马 i3 投产,慕尼黑工厂的整体生产成本将再降低 10%,降至低于当前一代车型的生产成本水平。”

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。