行业分类:
加载中...
头条分类:
加载中...
小米具身大模型MiMo-Embodied正式发布:全面开源
快科技11月21日消息,小米今天正式发布具身大模型MiMo-Embodied,并宣布全面开源。 小米介绍,随着具身智能逐步落地家居场景、自动驾驶技术迈向规模化应用,行业内一个关键问题日益凸显:机器人与车辆如何更好地实现认知与能力互通?室内作业智能与室外驾驶智能能否实现相互促进? 小米具身大模型MiMo-Embodied就是为此而生,这是业界首个成功打通自动驾驶与具身智能的跨域具身基座模型,它实现了两大领域任务的统一建模,标志着通用具身智能研究从“垂直领域专用”向“跨域能力协同”迈出关键一步。 它有三大核心技术亮点: 1.跨域能力覆盖:同步支持具身智能三大核心任务(可供性推理、任务规划、空间理解)与自动驾驶三大关键任务(环境感知、状态预测、驾驶规划),形成全场景智能支撑; 2.双向协同赋能:验证了室内交互能力与道路决策能力的知识转移协同效应,为跨场景智能融合提供了新的思路; 3.全链优化可靠:采用“具身/自驾能力学习→CoT推理增强→RL精细强化”多阶段训练策略,有效提升模型在真实环境中的部署可靠性。 在涵盖感知、决策与规划的29项核心基准测试(Benchmarks)中,MiMo-Embodied确立了开源基座模型的性能新标杆,全面优于现有的开源、闭源及专用模型: -具身智能领域:在17个Benchmarks上取得SOTA成绩,重新定义了任务规划、可供性预测及空间理解的能力边界; -自动驾驶领域:在12个Benchmarks上表现卓越,实现了环境感知、状态预测与驾驶规划的全链路性能突破。 -通用视觉语言领域:在夯实通用感知与理解能力的同时,进一步在多项关键基准上实现了显著的性能跃升,展现了卓越的泛化性。
未险先知、有险即控,长安汽车发布天枢智能安全系统,未来全系标配|广州车展
2025 年 11 月 21 日,广州国际车展开幕当天,长安汽车正式发布「天枢智能」系统,并同步推出首款搭载该系统的全新启源 Q05 车型。 此次发布的重心,不止于单一技术或产品,而是一套以「新安全」为核心理念构建的主动安全体系——覆盖行车安全、健康守护、心理舒适与隐私保护四大维度,重新定义智能时代的汽车安全边界。 长安汽车将这一战略转型定义为:从传统「被动安全」向「主动智能泛安全」的范式跃迁。而「天枢智能」,正是这一理念的技术载体,由智能驾驶辅助、智能座舱与智能底盘三大模块协同构成。 据长安汽车集团总经理赵非介绍,该体系旨在应对当前智能电动车在复杂城市道路与高速场景中面临的多重安全挑战,真正实现「未险先知、有险即控」。 在智能驾驶辅助方面,「天枢智能」融合 100 线激光雷达、多模态视觉感知与神经网络模型,精准识别加塞车辆、匝道变道冲突、夜间障碍物等典型高风险场景,并提前介入响应。 为验证系统可靠性,长安在车展前组织了一场从重庆到广州、全程约 1500 公里的实测挑战。三款搭载「天枢激光版」的车型启源 Q07、A06 与 Q05 全程零事故、零剐蹭。 官方数据显示:系统在高速匝道自主上下成功率高达 98%;夜间可在 200 米外识别施工区、故障车等障碍物,并主动减速避让。 依托端到端架构与大规模仿真训练,天枢智能驾驶平台每日仿真里程超 330 万公里,通过高效数据闭环持续优化决策逻辑,真正做到「越开越聪明」。配合厘米级高精定位与多源传感融合技术,车辆即便在曲率复杂的匝道中,也能稳定保持车道居中,显著提升通行安全性与舒适性。 座舱层面,「天枢智能」聚焦交互安全与心理舒适度。系统深度融合 AI 大模型与 App Agent 能力,打通从语义理解到服务执行的完整链路。例如,当用户说出「带孩子看《长安的荔枝》」,系统可自动完成影院筛选、在线购票与导航规划。 高频使用是最好的验证。2025 年前 10 个月,该智能座舱已累计处理语音指令 7250 万次,展现出极强的稳定性与用户依赖度。 底盘控制上,「天枢智能」创新引入「三向六域」控制策略,在极端路况下强化车身动态稳定性。配套技术包括全状态轮胎监控、弹性波 AI 识别,以及电池底部磕碰预警等,构建起从「感知风险」到「主动脱险」的全链路响应机制。 作为首款搭载激光雷达的十万元内纯电 SUV,启源 Q05 售价 7.99 万至 10.99 万元,标志着长安将高阶智驾硬件正式下放至主流市场。 按照长安规划,到 2030 年,将推出超过 50 款新能源车型,全部标配「天枢智能」系统,并力争海外销量占比突破 30%。 其背后,是长安全球化研发布局的强力支撑:覆盖六国十地,拥有 200 多个实验室,其中包括国内唯一的「智能汽车安全技术全国重点实验室」。 在行业普遍追逐「全栈自研」与「城市 NOA」的当下,长安选择以「安全」为差异化切口,试图在智能化竞赛中锚定新的价值坐标。
10 万以内唯一带激光雷达的纯电 SUV!长安启源 Q05 7.99 万元起|广州车展
长安启源在广州车展正式发布全新 Q05,定位「全球都市精品纯电 SUV」,共推出 6 款车型,官方指导价 7.99 万至 10.99 万元。 其中搭载激光雷达的 Ultra 版本起售价为 9.99 万元,将于 12 月 20 日起陆续交付。 在 10 万元价格带内,Q05 是目前唯一配备激光雷达的量产纯电 SUV。 其高配版本配备 1 颗前向激光雷达、3 颗毫米波雷达、12 颗超声波雷达以及 11 个高清摄像头,采用地平线征程 6M 芯片(算力 128TOPS)。 这套系统支持高速/城市快速路领航辅助(NCA)、自动变道、绕障避让、车头泊入等功能,并可通过 OTA 逐步开放遥控泊车、记忆泊车、循迹倒车等进阶能力。 Q05 全系采用前置单电机布局,最大功率 120kW,峰值扭矩 190N·m。电池方面,全系搭载宁德时代电芯,提供 40.29kWh 与 51.91kWh 两种容量,对应 CLTC 续航分别为 405km 和 506km。同时,新车配备「金钟罩 2.0」3C 快充技术,电量从 30% 充至 80% 仅需 15 分钟。官方数据显示,其百公里电耗低至 11.3–11.73kWh,风阻系数更是达到同级领先的 0.265Cd。 长安启源 Q05 车身尺寸为 4435×1855×1600mm,轴距 2735mm,在同级中处于领先水平。后备厢标准容积 540L,后排座椅放倒后可扩展至 1380L,并设有 90L 的下沉式储物舱。 设计上,Q05 延续长安启源「扶光美学」理念,整体风格简洁流畅。前脸采用家族化贯穿式灯组与主动进气格栅,侧面为动感大溜背造型,尾部则以半环形贯穿尾灯收束,视觉重心低而宽,营造出稳重又不失现代感的姿态。新车提供松野绿、流金紫、云影灰、月华银、云锦白五种车色,均采用双涂层或珠光工艺,质感出众。 座舱智能化是 Q05 的核心卖点之一。 新车内饰提供墨玉黑与玉石白两种配色,全系标配 15.6 英寸 2.5K 中控屏与 10.17 英寸液晶仪表,并首发搭载基于台积电 4 纳米工艺打造的天玑 P1 Ultra 车规级芯片,配备 24GB 运行内存与 UFS 4.0 闪存,支持 5G 网络。 车机系统深度融合 AI 大模型,支持连续对话、可见即可说、免唤醒操作等智能交互体验。其中,激光雷达版接入豆包深度学习 AI,普通版则融合 DeepSeek 与通义千问双模型。 舒适性配置同样越级。Q05 前排主副驾均标配通风、加热及 SPA 级 8 点按摩功能,按摩气袋精准对应中医穴位(心俞、肝俞、肾俞),并提供三档力度调节。副驾更支持 165°大角度放倒,搭配电动腿托,打造出 10 万元内罕见的「女王座」。 此外,新车底盘采用前麦弗逊+后扭力梁结构,高配车型额外配备 FSD 可变阻尼减震器,并提供「防晕车模式」与「AI 运动驾驶模式」,兼顾舒适与操控。 安全方面,Q05 车身采用九横五纵笼式结构,高强度钢占比 80.3%,其中 1500MPa 热成型钢用于关键部位。全系标配 6 安全气囊、540°全景影像、哨兵模式及 360°行车记录仪。主动安全功能涵盖 AEB、ELK、RCTB 等 20 余项,覆盖高速、城市及泊车全场景。 长安启源 Q05 的推出,反映出 10 万元级纯电 SUV 正在经历一轮配置升级。 相比同价位车型普遍聚焦基础续航和空间实用性,Q05 在智能驾驶、座舱芯片、电池供应商和座椅功能等方面明显加码,直接拉满产品力,也抬高了这一细分市场的配置基准。
对话杨元庆:AI不存在泡沫,2026年存储芯片价格还会持续上涨
11月20日,联想集团公布了截至2025年9月30日的2025/26财年第二财季业绩。 财报数据显示,联想当季营收同比增长15%至1464亿元,创下财季历史新高;经调整后的净利润同比增长25%,达36.6亿元。 其中,联想的IDG智能设备业务集团实现营收1081亿元,同比增长12%,全球个人电脑市场份额首次超过25%;ISG基础设施方案业务集团实现营收约293亿元,同比提升24%;SSG解决方案与服务业务集团营收同比增长近20%。 此外,第二财季联想AI相关业务营收在总营收中的占比已提升至30%,同比提升13个百分点。 “我们相信不仅仅是上个季度,未来人工智能都会是联想的一个增长动力。” 联想集团董事长兼CEO杨元庆表示,在任何大创新的初期,都会看到比较大的投资以及激烈的竞争,所以有些地方可能产生一些泡沫,比如像大语言模型的泡沫,这是难以避免的。“但从AI总体的方向来看,我们认为它绝对不会是泡沫。现在AI进入到了一个更深入的普惠阶段,大规模的基础设施的投资会催生更多终端设备及应用的发展。” 存储芯片涨势或将长期延续 按照杨元庆的说法,AI的增长是可持续的。当前,这种增长反映在零部件市场时,带来了内存、闪存、固态硬盘等等需求的剧烈增长,也由此带来了存储芯片的价格上升。 摩根士丹利最新的研报数据显示,2025年第四季度的服务器DRAM(内存)报价已飙升近70%,NAND(闪存)合约价也上涨20-30%。三星、SK海力士等原厂甚至一度暂停报价,这直接引发了市场恐慌性采购。 摩根士丹利也发出明确信号:由AI驱动的内存超级周期不仅真实存在,而且其强度和持久性可能远超市场想象。同时,SK海力士、三星等将凭借强大的定价权,迎来利润率扩张和盈利的飙升。相反,下游的PC、手机和消费电子供应链将面临剧烈的成本压力和利润挤压。 “(存储芯片)短缺和价格上涨不会是一个短期的,可能会在明年一年的周期都是这样的现状。” 杨元庆称,零部件供应的短缺或是周期性价格的上涨和下降,对于联想来说也不是什么新鲜的事情,公司有比竞争对手更好的应对能力。联想是这个行业里最大的买家之一,有更好的供应商关系,并且跟主要的关键零部件供应商都签有长期合同。所以,联想能够比竞争对手更好地应对当前供应短缺以及价格上升的情况。 据笔者了解,联想已与核心零部件供应商签订了最优合约,确保明年有足够的供应保障。 “更具体地来说,对于下两个季度我们都是非常有信心的,不会因为零部件价格的上升影响联想的毛利或者是净利。”杨元庆称。 PC市场将持续5%到10%的增长 零部件市场之外,AI带来的终端设备更新也在持续。 IDC数据显示,2025年第三季度全球传统PC市场出货量达到7590万台,同比增长9.4%。同时,由AI引领的下一轮设备更替周期正在加速成型。根据Gartner预测,2025年AI PC将占据全球PC出货量的31%。 行业数据则显示,在AI整合水平提升的背景下,AI PC单位平均售价通常比传统PC高出约5%-10%,从而为硬件厂商带来毛利率大幅提升的结构性机会。 受AI PC需求推动,本财季联想AI终端设备营收在IDG整体营收中的占比提升至36%,同比提升17个百分点。此外,联想在全球Windows AI PC市场份额达到31.1%,位居全球第一。 “全球Windows 10带来的PC更新,还没有完全结束,我们估计至少还要延续几个季度。”杨元庆表示,从市场层面来看,全球PC市场5%到10%的增长是可以期待的。 按照杨元庆的说法,联想会继续围绕个人智能和企业智能两个大方向去开展业务,保持在个人智能领域增长的动能。 在企业智能方面,联想的ISG基础设施方案业务,是混合式基础设施的重要载体。 根据IDC最新预测,2025年全球服务器市场规模将同比增长约44.6%,达到3660亿美元,其中搭载GPU的AI服务器增速更为明显,预计同比增长46.7%,成为推动整体市场扩张的关键力量。 “未来AI的普惠将会是一个大的方向,所以更多的AI基础设施的需求会从训练转向推理,联想也会推出多款推理服务器来驱动整个季度ISG业务的增长。”杨元庆表示。 同时,联想的SSG方案服务的业务,致力于在混合式人工智能的框架下,为企业提供转型的解决方案和服务。 Gartner预测,2026年全球IT支出将达约6.08万亿美元,同比增长约9.8%。其中IT服务支出预计将达到1.87万亿美元,增速达到8.7%,高于2025年的6.5%。(文 | 科技潜线 作者 | 饶翔宇 编辑 | 钟毅)
算力革命:AI将36年的宇宙演化模拟压缩至115天
IT之家 11 月 21 日消息,科技媒体 Space 今天(11 月 20 日)发布博文,报道称日本理化学研究所(RIKEN)的团队近期取得突破,利用人工智能(AI)与超级计算机,成功构建出有史以来最详尽的银河系模拟。 利用深度学习智能体模型模拟 超新星爆发后气体分布的正面和侧面视图。 IT之家援引博文介绍,该模拟包含高达 1000 亿个粒子来代表恒星,其数量级与我们银河系真实的恒星数量相当。由于其运行速度比次一级的模型快 100 倍,因此天文学家现在有机会在短短数月内(而非数十年)就完成对数十亿年星系演化的测绘,这标志着天体物理学研究方法的一次根本性转变。 此前的最高分辨率模拟仅包含十亿个粒子,并且每个粒子代表 100 颗恒星。这种处理方式虽然简化了计算,但也模糊了许多关键细节,例如单个超新星爆发对周围气体环境产生的具体影响。 因此,传统模拟更侧重于长期的宏观演变,而忽略了那些能够影响星系整体发展的短期关键现象,要处理更短时间尺度的模拟,通常需要更强大的算力,而新技术则巧妙地绕开了这一瓶颈。 研究团队为解决上述问题,开发出一种全新方法。他们首先利用一个“深度学习智能体模型”,通过高分辨率的超新星数据对其进行训练,让 AI 学会了精准预测超新星遗迹在 10 万年内如何扩张并与星际介质相互作用。 超新星爆发会吹散周围的气体和尘埃,并用自身产生的新元素丰富星际介质,从而改变其分布和化学成分,这些物质最终又会形成下一代恒星。 研究团队结合 AI 智能体模型与描述银河系整体动态的数值模拟,成功地将超新星爆发等短期事件的影响融入到更大时间尺度的星系演化进程中。新方法的效率也实现了惊人飞跃:模拟一百万年的演化时间仅需 2.78 小时,这意味着模拟十亿年的演化过程只需 115 天,远低于此前所需的 36 年。
价值6万亿美元的对话!马斯克:钱没意义了,黄教主沉默了10秒
老黄和老马半小时对谈,畅聊AI、人形机器人、太空探索。 编译 | 程茜 编辑 | 心缘 智东西11月21日消息,近日,在美国-沙特投资论坛上,特斯拉CEO、xAI创始人兼CEO埃隆·马斯克(Elon Musk)与英伟达创始人兼CEO黄仁勋两位科技圈顶尖大佬展开对谈,马斯克直言AI发展会让货币不再具有实际意义,黄仁勋反击AI泡沫论,称“所有投入的资源都是合理的”。 马斯克已经涉足电动汽车、机器人、太空等诸多领域,他称在这些行业“他不是颠覆,而是创造”,其中人形机器人将成为有史以来规模最大的行业,特斯拉会在这一领域率先突破。 关于AI的发展,马斯克抛出了“当AI发展到一定阶段,货币将不再具有实际意义”的结论,让黄仁勋沉默10秒无言以对,随后两人干了个杯。 随后,马斯克还断言太空AI将在五年内实现,太空AI的成本效益会远比地面AI高得多。 黄仁勋则开启了对马斯克的夸夸模式,他说,技术为人类带来正向价值的关键原因就是像埃隆这样的创新者们总有源源不断的好想法。他还透露,他们经常互发消息。 对于当下AI泡沫论的观点,黄仁勋提到,计算领域正经历一场从通用计算向加速计算的全面转型,摩尔定律几乎到头、生成式AI发展、智能体AI崛起这三大主要趋势证明,为支撑这场革命性智能体AI发展,所有投入的资源都是合理的。 此外,马斯克和黄仁勋官宣了接下来英伟达、xAI的相关合作。 xAI计划与沙特阿拉伯国家支持的AI企业Humain合作,在沙特建设一个总规模500兆瓦的数据中心,第一阶段先启动50兆瓦的建设,并使用英伟达的芯片。 英伟达将与亚马逊云科技合作构建数据中心,项目初期先启动100兆瓦的规模,目标是1000兆瓦;英伟达、亚马逊云科技与Humain,正联手推进Omniverse数字孪生项目。 目前,这两位科技圈大佬所掌舵的企业市值已达近6万亿美元(约合人民币43万亿元),英伟达最新市值已达4.53万亿美元(约合人民币32万亿元),特斯拉为1.27万亿美元(约合人民币10万亿元)。这场约28分钟的对话涉及到太空计划、人形机器人、智能体崛起等诸多行业热门话题。 ▲从左至右:斯瓦哈、马斯克、黄仁勋 本次对话由沙特阿拉伯王国通信和信息技术部部长阿卜杜拉·斯瓦哈(Abdullah Al-Swaha)主持。以下是对访谈全程内容的编译(为优化阅读体验,智东西做了不改变原意的编辑): 01. 坚持第一性原理 人形机器人领域特斯拉会率先突破 斯瓦哈:昨天,美国与沙特阿拉伯签署AI战略合作伙伴关系协议,双方将在半导体供应、AI基础设施建设和高价值投资等领域展开全面合作。我们共同庆祝这一历史性时刻。埃隆,你对第一性原理情有独钟,这一思维方式让你成功将电池成本从每千瓦时1000美元降至100美元以下。而如今,你正将同样的逻辑应用在机器人领域,聚焦于执行器、伺服转子和电机的成本优化。你是如何凭借这种思维去颠覆每一个涉足的行业的? 马斯克:其实这多半算不上颠覆,而是创造。比如SpaceX的可重复使用火箭,当时根本没有可重复使用的火箭,但要彻底变革太空旅行,核心关键就在于可重复使用性。如果每次发射后都把火箭扔掉,进入太空的成本会高得离谱。 再说说电动汽车,我们刚开始造的时候,市面上其实根本没有真正意义上的电动汽车,据我所知,你想买都买不到。所以对特斯拉来说,我们的目标很明确:要造出既有吸引力、又价格亲民的电动汽车。 还有人形机器人,目前还没有真正实用的人形机器人。市面上有些类似噱头的产品,但没有一款是真正能用的。我认为特斯拉会造出第一款真正实用的人形机器人,这将会是一场不小的革命。而且我觉得这会是人人都想要的东西,因为我总在想:谁不想要属于自己的C-3PO或R2-D2(均为《星球大战》中的机器人)呢?到时候,各行各业都会有大量人形机器人提供产品和服务。 这就是为什么我说,人形机器人将成为有史以来规模最大的行业,或是最具影响力的产品,它会比手机乃至其他任何产品都更重要,因为每个人都会想要一台,甚至可能不止一台。 我想说的是,人形机器人会比《星球大战》里的R2-D2和C-3PO加起来还要厉害。人们总是在谈论消除贫困这类话题,相关的论调倒是不少,也有很多非政府组织在努力推进这些事,但实际上都没成功,这是有目共睹的事实。AI和人形机器人才真的能实现消除贫困的目标,而且特斯拉不会是唯一一家生产人形机器人的企业。 我认为特斯拉将在人形机器人领域率先突破,也会有企业纷纷跟进布局这一领域。但从本质上来说,要让所有人都实现富足,只有一条可行路径,那就是依托AI与机器人技术。而机器人技术就绕不开AI工厂。 02. 从推荐系统到生成式计算 需要全球布局AI工厂 斯瓦哈:昨天美国和沙特阿拉伯签署了AI战略伙伴关系协议。基于这一合作声明,你觉得AI工厂接下来会有哪些新动向呢? 黄仁勋:沙特阿拉伯打造AI工厂是一个精彩的故事,沙特阿拉伯正推动AI炼油厂向AI工厂转型,我对此赞叹不已。 我一直认为AI属于一种基础设施,这是有充分理由的。我们能从技术层面看到AI正给各行各业带来颠覆性变革,这种数字智能正应用于各个领域。如此一来,无论是企业、行业,还是各个国家,都会用到这项技术。从这个角度来说,AI具有基础性地位,因此它也是基础设施的重要组成部分。 从计算机科学的角度来看,AI的创新之处在于,过去的计算方式在很大程度上都属于检索式计算,无论是有人撰写的一篇文稿、创作的一件艺术品,还是设计出的数字广告,这些内容都是预先制作完成的。之后系统所要做的,就是为你检索出契合需求的对应版本,这就是检索式计算模式。 像分布式计算框架以及诸多计算框架与操作系统,其设计初衷均是为了帮用户检索到所需的目标信息。 但如今软件已能实现实时生成。现在的计算是生成式的,它会基于具体语境、实际场景、你的身份信息、你提出的问题以及你给出的提示词,为你实时生成专属内容。而且每次生成、面向每个人的内容都是独一无二的。就像使用Grok时,你每次给出的提示词不同、所处场景不同,得到的结果也都会不一样。所以说,过去的计算模式是检索式的,而现在已经转向生成式了。 既然是生成式计算,且每次生成的内容都不相同,就需要在全球范围内布局AI工厂来实时生成这些内容,这也我们需要AI工厂的核心原因。这是一种独特的计算方式,但其优势显而易见:所有内容不再是预先设定好的,而是大多能贴合具体语境、具备合理性,因此也更具智能化水平。 03. 马斯克认为工作将完全自由选择 黄仁勋看好AI会为人类提效 斯瓦哈:聚焦于AI工厂与机器人技术,沙特阿拉伯计划通过引入约数千万台智能机器人来强化劳动力,以此催生下一波生产力增长与社会发展浪潮,但这一点也让不少人对就业的未来忧心忡忡。你们怎么看? 马斯克:如果你问长远来看事情会走向何方,我也说不清长远具体是多久,10年、20年对我来说就算长远了,我的预测是,工作将变成完全可自由选择的。 我的意思是,到时候工作会变得像做运动、玩电子游戏这类事一样。如果你想工作就去做,就好比你可以去商店买蔬菜,也可以在自家后院种菜。在后院种菜要辛苦得多,但有些人还是会做,就因为他们喜欢种菜这件事。未来的工作就会是这样,而从现在到那个阶段,其实还有大量的工作要做。 我一直建议大家去读读艾萨克·阿西莫夫的《基地》系列小说,这样能对一个大概率实现的积极AI未来有个概念。有意思的是,在那些书里,金钱已经不复存在了。如果时间跨度足够长,且人工智能和机器人技术能持续进步,那么金钱在未来的某个时刻将会变得不再重要。当然,能源和物质这类基础物理资源仍会是约束条件,但我认为到了某个阶段,金钱的核心作用会逐渐消失。货币将不再具有实际意义。 顺便说一句,英伟达今天晚些时候会召开财报电话会议。 黄仁勋:顺便说一句,货币已经不复存在了。 我认为看待这件事可以有不同的视角,但有一点是肯定的,每个人的工作都会不一样。学生的学习方式会改变,人们的工作模式也会截然不同。因为现在我们做的很多枯燥乏味、费力耗时或是难度极高的事,未来都会变得非常简单。从这个角度来说,我们的生产力也会大幅提升。 对于大多数人或企业而言,如果生活效率变得更高,那些原本费力难办的事也变得简单易行,你很可能会因为脑海里涌现出更多想法,而有更多时间去追逐自己想做的事。我猜,埃隆会因为AI变得更忙,我也会因为AI变得更忙。我们有太多想实现的想法,公司里还有一大堆待推进的事,现在终于有条件去一一做了。 如果生产力提升了,我们就能更快推进这些事。所以短期来看,所有证据都表明,我们的效率会大幅提高,但同时也会变得更忙,毕竟我们有太多想做的事了。 我可以给大家举个实际例子佐证这一点,我之前也跟埃隆聊过,比如放射科领域,现在已经基本转向AI驱动了,有不少优秀企业都在做这方面的布局。但让人意外的是,之前大家预测放射科医生会是第一批被淘汰的职业,可实际情况却恰恰相反。 如今因为AI的应用,放射科医生的招聘需求反而增加了。背后的原因其实很明确,放射科医生的核心职责从来不是分析影像,而是诊断疾病。现在,影像分析的效率大幅提升,他们能查看更多影像、运用更多检查手段,还能花更多时间与患者沟通。结果就是,他们能接诊更多患者,全球放射科的诊疗量都在增加,疾病诊断的准确率也越来越高。 这大概就是AI与生产力提升在短期内的成果,长远来看会怎样还需拭目以待。埃隆,真到了货币不再重要的那一天,要提前跟我说一声。 马斯克:你会看到的,我会发消息告诉你。 黄仁勋:是的我们经常互发消息。 斯瓦哈:我同意你们俩的观点,所有技术趋势、每一项技术都为全球、为人类带来正向价值。 黄仁勋:我也想补充一点,这背后的关键原因正是,像埃隆这样的创新者们总有源源不断的好想法。 04. xAI、英伟达与沙特阿拉伯创企联手 造500兆瓦规模数据中心 斯瓦哈:今天我们有几项重大消息要在这里宣布。埃隆,跟大家说说我们在xAI方面的合作进展。 马斯克:我们非常兴奋地宣布,xAI计划与沙特阿拉伯国家支持的AI企业Humain合作,在沙特建设一个总规模500兆瓦的数据中心,第一阶段先启动50兆瓦的建设,并使用英伟达的芯片。抱歉刚才差点说成500吉瓦了,要是500吉瓦的话,那成本得高达8万亿美元。 黄仁勋:我们也要宣布一大堆好消息。首先我们和Humane的合作进展得超级顺利,一开始是我们联手帮这家公司起步、落地项目,现在他们拿下了埃隆这么重磅的客户。一家目前营收几乎为0的初创公司,就要为埃隆打造一座500兆瓦的数据中心,这规模简直大到离谱。这家公司马上就起飞了。 此外,我们还在和亚马逊云科技(AWS)展开合作,我们已经和AWS达成了合作,项目初期先启动100兆瓦的规模,目标是1000兆瓦,后续还会持续扩容。所以AWS也加入了与Humane的合作,我们正和Humane联手推进Omniverse数字孪生项目。 想必大家都清楚,AI不只是Agent、聊天机器人这类认知型AI,它的应用场景其实无处不在,比如化工、蛋白质、基因、物理、流体动力学、粒子领域,当然还有机器人技术与实操激活。我们正和Humane合作,把Omniverse的技术应用到各类数字工厂、机器人系统、仓储物流等场景中。 另外,我们还在沙特阿拉伯推进超级计算机的建设,用它来模拟量子计算相关技术,同时借助我们的计算机承担控制与量子纠错任务。量子纠错需要海量的计算资源,所以我们在这一领域也开展了大量工作。 05. 太空AI是必然 五年内能实现 斯瓦哈:我还有最后两个问题。埃隆,太空AI计划可行吗? 马斯克:如果人类文明能持续发展,那么AI在太空的应用是必然的。 不过我得先说明一点,我们不该把文明的存续当作理所当然。我们必须用心守护,确保文明持续发展。任何研究历史的人都知道,文明的发展并非总能一路向上。事实上,文明都有其生命周期。所以希望我们现在正处于一个强劲的上升阶段,我认为目前确实是这样,但我们绝不能掉以轻心,更不能自满。 要理解太空AI的意义,得先从卡尔达肖夫二级文明(Kardashev Scale Type II)的视角来看,如果人类想实现这一文明等级的哪怕万分之一,就必须在深空部署搭载AI的太阳能卫星。 一旦你开始从“文明能将太阳多少能量转化为有用功”这个卡尔达肖夫等级的核心维度思考,就会发现,太空是最重要的。 地球接收的太阳能量,大概只占太阳总辐射量的二百亿分之一,所以要是想获得比地球所能产生的能量多一百万倍的能量,就必须进军太空。 所以拥有一家太空公司确实是很方便的,而且在太空中,芯片的冷却也会容易得多。 黄仁勋:是的,芯片在太空中更容易冷却。 马斯克:没错,太空中确实完全没有水,所以冷却方式肯定不能依赖水,只能另想办法,其实核心就是靠辐射散热。 我估计,太空AI的成本效益会远比地面AI高得多,而且这一天会在地球能源潜力耗尽之前很久就到来。我说的“很久之前”,其实可能就在未来四五年内,到时候,最省钱的AI计算方式,就会是利用太阳能驱动的太空AI卫星。所以我敢说,最多五年内就能实现。 黄仁勋:看看我们现在联手打造的超级计算机,就拿单个机柜来说,重量大概两吨,而这两吨里,可能有1.95吨都是用来冷却的。 试想一下,如果把这些GB300机柜做成太空用的超级计算机,体积会有多小,到时候每个机柜都会变得迷你又精巧。 马斯克:没错,发电现在已经成了难题。而且不管是要扩大发电量,还是增加冷却能力,太空都是极具吸引力的选择。 比如你想实现每年200到300吉瓦的AI计算算力,在地球上很难做到。我记得美国的平均用电量大概是每年460吉瓦左右,这么算下来,要是AI计算要用到300吉瓦,就相当于占了美国全年发电量的2/3。 地球上根本不可能建成那么大规模的发电厂。要是再把算力需求提升到每年1太瓦,那就更没可能了,这种规模只能在太空实现,地球上完全做不到。 而在太空能获得持续不断的太阳能。实际上你都不需要电池,因为太空中永远是晴天,太阳能电池板的成本会更低,毕竟不用装玻璃或框架,冷却也只靠辐射散热就行。这就是我心中的理想方案,也是为什么太空AI是必然趋势。 黄仁勋:这就是理想图景。 06. 解读全球三大AI趋势 目前投入都合理 斯瓦哈:大家都拜托我问问你,AI领域会不会出现泡沫? 黄仁勋:我觉得要回答这个问题,得先看看全球当下的情况,再回归计算机科学和计算领域的根本逻辑。目前主要发生了三件事:第一,我们都知道摩尔定律已经走到尽头了。而现在,计算需求的增长幅度,和通用计算能提供的算力之间存在着巨大的缺口,这确实是个棘手的难题。 全球转向加速计算的趋势其实已经持续一段时间了,我们推动这项技术也有20多年了。 给大家看一组数据吧,六年前的全球超级计算机TOP500榜单里,CPU的占比高达90%,而今年这个比例已经降到不足15%,相当于从90%骤降到了10%左右。加速计算的占比则完全相反,从之前的10%一路飙升到了现在的90%。 所以你能明显看到这个拐点:高性能计算正从通用计算全面转向加速计算。 在云计算中,数据处理是全球最数据密集、计算量最大的应用之一。仅原始数据处理这一项,每年的计算相关投入就高达数千亿美元。这类处理和AI毫无关系,只是单纯的SQL处理、数据框操作,比如每个人的姓名、地址、性别、年龄、居住地、收入水平等等,所有这些信息都会被纳入这个数据框中进行处理。 如今,这个数据框在驱动着整个世界的运转,不管是银行业务、信用卡服务,还是电子商务,再到广告推荐等方方面面,所有这些都依赖这个数据框。而处理这个数据框的计算成本,高达数千亿美元。 这就是第一件关键改变:摩尔定律的终结。 第二件事是生成式AI的崛起。过去15年的主流是推荐系统,比如社交动态里,系统知道该给我们推荐哪些信息,该给某人推荐什么广告、哪本书、哪部电影。 互联网规模大到难以想象,要是没有推荐系统,我们手里这小小的手机,根本没机会接触到真正需要的信息。推荐系统可以说是如今互联网的核心引擎,而它现在正朝着生成式AI演进。过去这类系统都靠CPU运行,现在已经全面转向GPU了。 这就引出了第三点,只要看看这两类应用就知道,很多互联网公司都会大规模部署GPU,自然催生了智能体AI(Agentic AI)。 像Grok、OpenAI、Anthropic、Gemini,都属于智能体AI,它们搭建在前面提到的技术基础之上。但大家别忘了,不要只盯着如今众人所见的AI表象,更要去关注表象之下的底层变革。 计算领域正经历一场从通用计算向加速计算的全面转型。如果把这一趋势纳入考量,你会得出这样的结论,事实上,支撑这场革命性智能体AI发展所需的资源,不仅远比你想象的要少,而且所有投入都是合理的。 斯瓦哈:我们的交流时间也差不多了,埃隆、黄仁勋,真的非常感谢你们。
AI云狂飙持续,百度亮出了全栈 AI Infra底牌
智东西 作者 | 陈骏达 编辑 | 漠影 算力,正成为大模型时代名符其实的“新石油”。 上周三,国际能源署发布的报告为这一观点提供了有力佐证。2025年,全球数据中心的投资预计将达到约5800亿美元,远超今年5400亿美元的全球石油供应投资额。这一400亿美元的投资差额,折射出市场对AI发展潜力的认可。 越来越多的企业开始意识到,算力不仅是支撑AI模型训练和推理的基础资源,更是推动产业创新与智能化升级的核心要素。传统的基础设施体系在模型规模爆炸式增长、推理需求多样化以及实时性要求更高的趋势下,已逐渐显露瓶颈。伴随应用场景的不断丰富与技术体系的快速迭代,以算力为核心的AI Infra(AI基础设施)体系必须顺势升级。 正是在这一大背景下,百度在刚刚落幕的百度世界大会上,系统展示了其在AI Infra上的最新探索。 从今年上半年点亮的昆仑芯P800三万卡集群,到支撑万卡集群实现98%有效训练时长的百舸平台,再到会上最新发布的昆仑芯最新一代产品、天池256/天池512超节点。百度已构建起一个覆盖芯片、集群到平台的全栈式、规模化AI Infra解决方案。 在竞争日益激烈的AI云战场上,谁能率先构建起稳定、可扩展、成本可控的全栈AI Infra体系,谁就有望在未来的竞争中占据更主动的战略高地。而百度在本届百度世界大会展示的全栈AI Infra能力,或许正是其在下一轮AI云竞争中亮出的底牌。 一、AI云建设热潮持续,全栈能力成关键竞争力 构建覆盖芯片、集群、平台等领域的全栈AI Infra能力,正在成为AI行业头部玩家竞相投入的核心方向。 在海外市场,这一趋势尤为明显。谷歌依托长期发展的TPU(张量处理单元),形成了以TPU为核心的高度定制化AI算力体系,使其在大模型训练与推理服务中形成独特的技术优势。 亚马逊AWS多年来持续押注自研芯片,并与其云服务深度绑定,以实现更高能效比和更低成本。 模型厂商OpenAI的动作同样具有标志性,他们联手博通自研AI加速器,还布局独立AI云服务业务。这不仅是为了提升未来模型迭代效率,更是为了减少对外部算力供应链的依赖,确保核心竞争力的可持续性。 与此同时,作为全球AI产业链最关键的算力供应商之一,英伟达也在不断构建自己的AI能力版图。除了不断提升GPU性能外,英伟达还深入高速互联等关键领域,并向云端延伸,推出NIM推理微服务等。英伟达越来越像一家完整的AI基础设施公司,而不仅仅是芯片供应商。 这些案例共同指向一个明确趋势:AI云竞争的本质正在从单一算力供应,转向对底层硬件、系统架构、编译优化、算力调度、模型服务等全链路的深度整合。在这一全栈体系中,芯片提供底层算力支撑,并需与云端的系统设计、模型框架和软件生态保持紧密协同。上下层在架构、调度与优化上的合力,才能让AI云体系在性能、资源利用和扩展性上实现更优的整体表现。 视角转向国内,百度是国内较早开启自研AI芯片的厂商之一。早在2011年,昆仑芯团队便启动了FPGA AI加速器项目,是国内最早源⾃真实业务场景的AI芯⽚研发团队,2018年,百度正式启动昆仑芯研发,并完成了3次迭代。 不仅如此,百度还是国内最早提出AI云概念的厂商之一。早在2020年,百度智能云便开启了“云智一体”战略,将云计算和AI紧密融合。根据IDC今年发布的《中国AI公有云服务市场份额,2024》报告,去年,中国AI公有云服务市场规模达195.9亿元,百度智能云以24.6%的市场份额位居第一,连续六年、累计十次蝉联中国AI公有云市场冠军。 凭借从芯片、集群到平台的全栈布局,百度不仅在算力供给上建立了坚实优势,也在AI云服务中形成了独特的竞争壁垒。 二、新架构新应用层出不穷,百度AI Infra能力如何持续演进? 然而,在快速变化的AI领域,没有玩家能在固守现有技术和模式的情况下持续领先。随着新模型架构和应用不断涌现,算力需求和系统复杂性呈指数级增长,传统技术和算力体系很容易被更灵活、高效、全栈化的竞争者超越。 百度世界大会分论坛上,昆仑芯认为在大模型“新应用”的背景下,越来越多“非计算任务”正被“计算化”,很多AI Agent或应用就是把以前非计算的任务用计算实现。 当前涌现的大量新应用正在改变传统任务的执行方式,从AI编程、智能搜索,到具备规划能力Al Agent,过去依赖人工决策与操作的任务,如今正逐步交由机器自动完成。以往用户需耗费大量时间检索、比较与判断,而现在仅需Agent消耗数万至十万级Token即可自动实现。随着Agent商业化的加速,应用生态规模迅速扩大,最直观的体现是Token消耗量的激增。 未来,Token将像水电一样,作为不可或缺的基础要素,深度融入社会生活的各个领域。百度智能云混合云部总经理杜海认为,未来的算力需求短期内可能达到现有推理算力几十倍甚至百倍的规模。面对这些挑战,国产AI Infra该如何升级? 芯片层面,在百度世界大会上,百度集团执行副总裁、百度智能云事业群总裁沈抖亮出了昆仑芯未来五年的路线图。今年,昆仑芯已实现单集群三万卡点亮,并发布了百度天池32超节点和64超节点;2026年-2027年,两款昆仑芯新品和百度天池256超节点、百度天池512超节点都将陆续上市。 上述硬件的优化方向,与当前AI模型的演进路径高度契合。本次发布的昆仑芯新品重点面向大规模推理以及超大规模多模态训练与推理场景进行优化,而这些正是当下大模型发展的关键方向。天池超节点则专门针对大规模训推场景。 天池256超节点相比其今年4月发布的超节点方案,卡间互联总带宽提升4倍,主流大模型推理任务单卡tokens吞吐提升3.5倍。天池512超节点最高支持512卡极速互联,卡间互联总带宽提升1倍,单节点可完成万亿参数模型训练。 然而,光凭硬件本身,也支撑大规模AI训练需求,配套的计算平台、供应链和团队都需要同步优化,以满足新架构、新应用带来的新需求。 百度已经在打造三万卡集群的过程中,深刻把握到万卡级AI Infra的复杂性。杜海称,这一系统性工程不仅要解决由服务器、光模块到机房节奏在内的超大规模供应链协同,还需依托研发、运维和调度体系的全链路协作与技术优化,确保集群能力的线性提升、稳定性和故障自愈能力。 百度智能云AI计算首席科学家王雁鹏认为,训练和推理的差异,使硬件稳定性成为首要挑战。推理可以容忍单机故障,但训练往往涉及上万块GPU的同步计算。王雁鹏指出:“如果百卡训练的有效计算时间是99%,扩展到万卡,有效训练时间可能归零。”为此,百度智能云建立了全面的故障检测体系,通过通信库实现对慢节点和故障卡的精准定位。 从百卡扩展到千卡乃至万卡,网络拓扑、任务调度和通信策略都需要相应变化。百度智能云的思路是结合自身芯片和网络特点,进行软硬件协同优化。他们提出了XPU驱动的通信模式,实现跳过CPU的高效XPU直通通信,并通过多平面高算出的网络设计和优化的通信策略,实现万卡带宽有效性达95%,几乎接近理想线性扩展。 随着AI模型架构不断迭代,国产AI芯片的生态也面临更高要求。英伟达显卡的CUDA生态支持百种模型架构,形成了国产算力追赶路上难以绕开的“护城河”。王雁鹏认为,国产算力若要在大模型时代迎头赶上,必须建立高泛化算子体系,在小规模验证中确保大规模训练的精度和性能,最终保证算子覆盖度和正确性。 此外,随着上千亿、万亿参数的MoE模型出现,以及多模态模型(视觉、语音等)的引入,系统通信占比上升、显存压力增大、负载高度异构。面对这些挑战,百度智能云团队通过分层存储等方式,让国产集群运行MoE模型的效率接近GPU集群。而异构并行通信策略则将多模态模型算力利用率提升至50%左右,与传统的稠密模型类似。 百度在百舸平台上将上述一整套能力进行了整合。用户可以通过百舸平台以标准化、产品化的方式,使用国产优质算力和上述各种技术手段,建设高效的基础设施、提升模型训练效果,并加速推理性能。 三、自研算力基座支撑文心训推,获行业头部企业采用 这套全栈AI Infra能力,已经广泛应用在百度的内部业务中。经过十余年技术积累和三次迭代,百度的国产化算力底座如今不仅能稳定支持搜索、推荐等百度核心业务,还逐步成为承载百度⼤模型训练与推理的核心算力引擎。 例如,Qianfan 70B VL、Qianfan 30B-A3B-VL这两款主打OCR全场景识别和复杂版面文档理解两大能力的SOTA级模型,正是在5000卡的昆仑芯集群上,利用百度的全栈AI Infra能力训练而来的。支持“无限时长”生成的百度蒸汽机视频生成模型,是全球首个中文音视频一体化生成模型,发布时在权威榜单VBench-12V上位列全球第一。这一模型,是在6000卡的昆仑芯集群上炼成的。 百度蒸汽机生成了今年百度世界大会的开场视频 除了支持百度内部业务之外,百度智能云已经基于百舸平台和昆仑芯,对外规模化提供算力服务。基于“百度百舸AI计算平台+昆仑芯P800”构建的国产万卡集群,率先成为首家通过信通院《面向大规模智算服务集群的稳定运行能力要求》测评的国产万卡级别集群,且在基础设施、集群调度、模型训练保障等核心测评维度上,获得最高等级“五星级”。 在算力规模化应用的过程中,硬件是基础,但远非全部。百度百舸作为软硬一体、全栈优化的计算平台,通过整合AI基础设施、资源管理、工程与模型训推加速等关键服务,帮助企业解决“有硬件却用不好”的痛点,充分释放算力的潜能,将其转化为真实场景中的生产力。 百舸平台不仅适用于昆仑芯,也能帮助广大企业根据自身需求打造稳定、可靠的算力底座。分论坛上,北京人形机器人创新中心大模型负责人鞠笑竹分享了团队在百舸平台上开发机器人大模型的经历。双方合作最初围绕数据展开,随后扩展到VLM等多类大模型的训练,覆盖数据与算力的全链条支持。在构建并开源RoboMind数据集的过程中,创新中心基于百舸平台完成了模型训练与真机部署测试,形成“数据—训练—验证”的完整闭环。 同时,百舸的算力环境不仅加速了“慧思开物具身智能平台”的研发,还支撑创新中心成功训练了72B的开源具身多模态大模型Pelican-VL 1.0,整体训练效率得到显著提升。Pelican-VL 1.0可帮助人形机器人更好地感知空间与时间,实现自然的具身交互,并在训练过程中实现自我纠错与持续迭代,在多项基准测试中达到国际领先水平。 鞠笑竹表示,Pelican-VL在基线基础上性能提升20.3%,超过同级别开源模型10.6%,成为开源具身性能最好的大脑模型。 Pelican-VL开源链接:pelican-vl.github.io 从某种意义上来说,百舸平台让创新中心可以专注科学探索本身,而无需担忧算力基础设施这一老大难问题。百度智能云也是首家全面适配RDT、π0和GR00T N1.5三大主流开源具身VLA模型的云厂商。通过针对性的训推工程优化,世界模型的推理性能可提升超过36%、训练加速20%以上;视觉语言模型(VLM)训练则提超40%。 除此之外,百度智能云还帮助招商银行、国家电网、中国钢研、同济大学、北京大学等头部机构与企业实现国产算力的规模化部署,成为众多⾏业智能化转型的底层算力支撑。 结语:上下游整合成大势所趋,百度抢先交卷全栈方案 在百度世界大会的分论坛上,百度智能云混合云部总经理杜海分享了一个颇为有趣且深刻的观察:与传统CPU时代“层层标准化、相互独立”的技术结构不同,当下的大模型体系从芯片、云基础设施、框架到模型与应用之间存在极强的耦合度——不同厂商的芯片在设计模式、指令和调用方式上差异巨大,要想充分发挥性能,算子、框架乃至模型本身都必须深度感知底层拓扑。 这意味着AI产业正在形成从应用到模型、框架、云基础设施再到芯片的端到端垂直结构,各领域的头部公司为了掌控能力和效率,不可避免地走向上下游深度整合。在新一轮AI云竞争全面打响之时,全栈AI Infra能力的建设,不再是一种可选项,而是面向未来竞争的“必答题”。百度,已经率先交出了自己的答卷。
刚刚,华为AI突破性技术公布!英伟达花50亿才买到“同款”
智东西 作者 | 云鹏 编辑 | 心缘 智东西11月21日报道,刚刚,华为正式发布了Flex:ai,一项能够将智算资源利用率提升30%的AI容器技术。值得一提的是,这项技术并无生态限制,英伟达的GPU和华为昇腾NPU等算力卡都可以用。 具体来看,Flex:ai是基于Kubernetes容器编排平台构建的XPU池化与调度软件,通过对GPU、NPU等智能算力资源的精细化管理与智能调度,实现AI工作负载与算力资源的“精准匹配”,进而提升算力资源利用率。 以软件补硬件提升AI训推效率、通过开放兼容降低软件开发难度,是其主要特点。 此前,英伟达于2024年4月以7亿美元(约合人民币49.7亿元)收购了以色列AI基础设施公司Run:ai,这家公司核心技术和产品就是提升GPU利用率,能够补充英伟达在AI计算资源管理领域的软件能力。 华为的Flex:ai有其“对标”的意味在,填补国内这一领域的空白,但同时开源的更加全面,相比Run:ai的解决方案,在虚拟化、智能调度方面有其独特技术优势。 Flex:ai将在发布后开源在魔擎社区中,与华为此前开源的Nexent智能体框架、AppEngine应用编排、DataMate数据工程、UCM推理记忆数据管理器等AI工具共同组成了完整的ModelEngine开源生态。 华为特别提到,这项技术“从第一天起”就是高校一起合作开发的。在华为看来,开源是非常重要的,算力资源利用率的提升绝非“一概而论”,需要根据实际业务场景来分析,形成一系列算法。因此华为希望更多客户利用开源生态,将技术拿到自身实际业务场景中,共同探索、解决问题。 华为公司副总裁、数据存储产品线总裁周跃峰特别提到,华为更关注的是AI真正的行业化应用,关注tokens实现的价值而非总量。他们希望让更多企业真正用好AI,让AI进入生产流程中,实现增值,进而推动AI的平民化。 魔擎社区地址: https://modelengine-ai.net 一、拆解Flex:ai三个关键能力:一张卡变N张卡、负载算力精准匹配、通算和智算融合 具体来看,Flex:ai主要有三个方面的关键能力: 1、算力资源切分,一卡变N卡服务多个AI工作负载 通过算力切分技术,将单张GPU/NPU算力卡切分为多份虚拟算力单元,切分粒度精准至10%。此技术实现了单卡同时承载多个AI工作负载,在无法充分利用整卡算力的AI工作负载场景下,算力资源平均利用率可提升30%。 2、多级智能调度,实现AI工作负载与算力资源的“精准匹配” 通过全局智能调度器Hi Scheduler,自动感知集群负载与资源状态,结合AI工作负载的优先级、算力需求等多维参数,对本地及远端的虚拟化GPU、NPU资源进行全局最优调度,实现AI工作负载分时复用资源。即便在负载频繁波动的场景下,也能保障任务平稳运行。 3、跨节点算力资源聚合,实现通用算力与智能算力资源融合 聚合集群内各节点的空闲XPU算力聚合形成“共享算力池”,通用服务器通过高速网络将AI工作负载转发至池内GPU/NPU卡执行,实现通用算力与智能算力资源融合。 二、AI大模型时代,AI容器技术升级势在必行 为什么要发布并开源Flex:ai AI容器技术?在华为看来,大模型时代,容器与AI是天然搭档。 容器技术作为一种轻量级虚拟化技术,可以将模型代码、运行环境等打包成一个独立的、轻量级的镜像,实现跨平台无缝迁移,解决模型部署“环境配置不一致”的痛点。容器还可以按需挂载GPU、NPU算力资源,按需分配和回收“资源”,提升集群整体资源利用率。 Gartner的分析师表示,目前AI负载大多都已容器化部署和运行,据预测,到2027年,75%以上的AI工作负载将采用容器技术进行部署和运行。 华为提到,当前传统容器技术已无法完全满足AI工作负载需求,AI时代需要AI容器。 大型语言模型(LLM)的容器镜像轻松突破10GB,多模态模型镜像甚至可达TB级别,传统容器无法支持超大镜像的快速拉起,环境构建时间往往长达数小时。 传统容器主要针对CPU、内存等通用计算资源进行管理与调度,而AI大模型训练与推理还需大幅依赖GPU、NPU等智能算力资源,传统容器无法对异构智算资源做到算力细粒度切分与智能调度,导致即使很小的AI工作负载也独占整张算力卡,且无法进行远程调用。 传统容器的资源调度以固定分配、通用调度为主,而AI工作负载的资源调度需要以保障任务完成效率为目标,对不同任务的SLO特性进行感知,实现动态弹性的资源分配。 三、对标英伟达Run:ai,虚拟化和智能调度是关键优势 AI容器领域业界已经有多家企业推出了不同产品,与英伟达今年年初收购的Run:ai公司的核心产品相比,华为Flex:ai主要在虚拟化和智能调度方面有一定优势。 具体来看,在本地虚拟化技术中,Flex:ai支持把单个物理GPU/NPU算力卡切割为数个虚拟算力单元,并通过弹性灵活的资源隔离技术,可实现算力单元的按需切分。 同时,Flex:ai独有的“拉远虚拟化”技术,可以在不做复杂的分布式任务设置情况下,将集群内各节点的空闲XPU算力聚合形成“共享算力池”,此时不具备智能计算能力的通用服务器通过高速网络,可将AI工作负载转发到远端“资源池”中的GPU/NPU算力卡中执行,实现通用算力与智能算力资源融合。 智能调度方面,Flex:ai智能资源和任务调度技术,可自动感知集群负载与资源状态,结合AI工作负载的优先级、算力需求等多维参数,对本地及远端的虚拟化GPU、NPU资源进行全局最优调度,满足不同AI工作负载对资源的需求。 比如高优先级AI工作负载可以获得更高性能算力资源支持,在出现算力资源已被全部占满的情况下,能直接抢占其他任务资源,确保最重要的任务能够完成。而优先级较低的AI工作负载,则可以在算力闲时如夜间执行,实现分时调度;针对增量训练场景,Flex:ai还可智能感知集群中增量数据的变化,达到一定阈值后,触发数据飞轮。 结语:AI容器技术升级,AI平民化提速 现如今,不同行业、不同场景的AI工作负载差异较大,Flex:ai的开源,可提供提升算力资源利用率的基础能力和部分实践案例,随着更多产业玩家的加入,业界必将完成更多基于这一技术结合场景的落地探索。 与此同时,开源的Flex:ai可以在产学研各界开发者的参与下,共同推动异构算力虚拟化与AI应用平台对接的标准构建,形成算力高效利用的标准化解决方案,进一步加速AI的平民化。
70.99万元,岚图发布了旗下最贵的车型:岚图梦想家山河
岚图汽车在 2025 年下半年的高端化步伐异常迅捷,不管是新款岚图梦想家进一步提升内在产品力和外观竞争力,还是旗舰大六座 SUV 泰山的上市,都证明了这家孕育于央企的新势力品牌不甘陷于价格战,力求以高端化突围。 11 月 21 日,岚图在广州车展上发布了旗下最贵车型:岚图梦想家山河,一款 4 座豪华 MPV,售价 70.99 万元。 汽车行业流行的一句话是「安全才是最大的豪华」,在岚图梦想家山河上,岚图于华为一起,将这款车打造成了「主动安全、被动安全、隐私安全、健康安全」的四大安全集合体,也呼应了车名里「山河永固」的寓意。 主动安全上,新车配备 21 项智能安全辅助功能,华为乾崑智驾 ADS 4 在面对面对雨雪雾尘等极端天气,亦或盲区横穿、车道加塞、路口斜穿的突发状况时,都具有主动避险的能力。岚图董事长卢放透露说,华为乾崑智驾已经为岚图用户避免超 4 万次可能的碰撞风险。 被动安全上,岚图梦想家山河号称是世界上最安全的四座 MPV,采用了 2000MPa 铝硅涂层车门防撞梁以及一体式热成型激光拼焊门环,以及超高强度笼式车身和「七+五」前后舱安全设计。岚图还表示,这款车搭载的自研琥珀电池 2.0,是以全球最高规格的电池安全标准制造,并拥有 1500MPa 超强钢底护板,成为了行业首个通过 6 倍国标托底冲击测试的电池包。 这款车面向的客户群体当然是商界精英,因而隐私安全的重要性,其实不亚于主被动安全,岚图梦想家山河配有全隔断智能云幕,一键启动隐私模式,配合全车自动隐私帘,加厚绒布设计可实现 100% 全车遮蔽。前后舱隔断,依靠双向通话沟通,可以兼顾隐私与沟通效率。在接听电话,或者商务会谈时,可以成为隔音的「私人会客厅」,车内还有保险箱,可存放重要文件或者物件。 健康安全上,岚图梦想家山河的座舱采用 OEKO-TEX 母婴级亲肤面料,另外还有负离子空气管理系统,即使密闭座舱里,空气依旧随时洁净。 追求安全无上限,岚图梦想家山河对健康安全同样精益求精。新车座舱采用OEKO-TEX®母婴级亲肤面料,打造最高标准健康环保座舱,配合负离子空气管理系统,即使密闭座舱里,也能享受大自然般的洁净空气。 岚图梦想家山河的三电系统与新款岚图梦想家系出同源,配备有 62.5 度电池,搭配 5C 超快充技术,从 20% 至 80% 电量补充仅需 12 分钟。 把一款 MPV 卖到 70 多万,硬实力之外,也需要软实力,比如外观的大气,以及内饰与舒适性配置的豪华。 外观上岚图梦想家山河有「皓月紫云」与「拂晓金晖」两款专属车色,20寸高定星漩轮毂搭配悬浮徽标,此外全车还有 66 处鎏金饰件,意思是「六六大顺」。在车门和中控部分,岚图则选用了天然影木,纹理自然生成,且独一无二。 在一款 7 座 MPV 的空间里只放 4 个座位,意味着后排有着巨大的空间可以利用,岚图梦想家山河后排大到什么程度呢?它的「山河云榻」模式,配合中岛式电动鞋履仓,可一键展开,与 166° 躺角的零重力座椅无缝衔接,可以形成超 2 米的大床,坐着谈事有排场,躺着休息够舒畅。 四座豪华 MPV 当然也是观影和听音乐的好场所,岚图梦想家山河配有一块 50 英寸的巨幕,还配有 22 扬声器的丹拿音响,结合 8.1.6 沉浸声场,能够获得剧院感的视听体验。这个时候再从主副双冷暖箱里拿出红酒品一品,成功的人生,就是这么简单。 除此之外,岚图梦想家山河还有劳斯莱斯同款的隐藏式高定雨伞,这也算营造豪华感的一个标志性动作了。 当然,岚图的高端化还不止于此,12 月岚图还将发布他们的旗舰轿车岚图追光 L,进而形成岚图泰山与岚图梦想家、岚图追光 L 的三旗舰布局,目前已经确认的是岚图梦想家的平均售价超过 40 万,岚图泰山的起售价也定在了 37.99 万,平均售价估计也会超过 40 万元,预计岚图追光 L 的平均售价也会超过 30 万元。销量情况上看,岚图梦想家已经站稳高端新能源 MPV 的头把交椅,岚图泰山的初始订单也相当不错,这意味着岚图的高端化建设表现相当不错。 可以这么说,岚图梦想家山河是为少数人准备的豪华车型,但岚图体系里需要这么一款车型,去证明这个品牌有服务精英人群的能力,进而证明他们在 SUV 和轿车上,也能更进一步。
苹果iPhone 17e曝料:配A19、N1芯片、主打出色续航
IT之家 11 月 21 日消息,GF Securities 分析师蒲得宇(Jeff Pu)在最新研究报告中,指出苹果公司计划于 2026 年初发布新款入门机型 iPhone 17e。 这款新机型的核心策略似乎在平衡硬件升级和成本控制,通过复用现有成熟技术来维持其入门级市场的竞争力。 在核心性能方面,研报称苹果 iPhone 17e 将采用苹果 iPhone 17 同款芯片,搭载 A19 芯片。不过参考 iPhone 16e 的 A18 芯片在 GPU 核心数上少于标准版 iPhone 16 的先例,iPhone 17e 的 A19 芯片是否也会有类似差异,仍有待观察。此外,内存预计将保持在 8GB 水平。 研报指出为了严格控制成本,iPhone 17e 将在网络连接方面做出妥协。IT之家援引博文介绍,该机型不会搭载苹果在 iPhone Air 上首发的 C1X 5G 基带,更不会采用正在研发的下一代 C2 基带,而是会继续沿用来自 iPhone 16e 的 C1 基带芯片。 尽管基带技术没有升级,但报告中也存在一个亮点:苹果可能会为 iPhone 17e 配备全新的 N1 无线芯片,用以提升设备能效,并实现更快、更可靠的点对点数据传输。 研报认为 iPhone 17e 主要卖点可能集中在出色的续航表现上。得益于能效更高的 A19 芯片与 N1 无线芯片的潜在加持,其续航能力有望超越前代产品。 在外观设计和影像系统方面,预计 iPhone 17e 将延续 iPhone 16e 的设计语言,并配备 1800 万像素的后置单摄像头。至于售价,分析师认为苹果大概率会维持 599 美元的定价策略,确保其在入门市场的价格优势。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。