行业分类:
加载中...
头条分类:
加载中...
英伟达推出RTX PRO 6000系列Blackwell专业卡:最高24064核心、96GB显存、600W
IT之家 3 月 19 日消息,英伟达在今日举行的在 GTC 2025 大会上正式发布了面向工作站和服务器的 RTX PRO 系列 Blackwell 专业卡。 其中,旗舰级的RTX PRO 6000系列拥有24,064 个CUDA核心、752个Tensor核心、188个RT核心。 IT之家提醒,从数据来看,这并非满血GB202芯片(总共24,576核,少了512核),但要比面向游戏领域的RTX 5090(21,760核)强得多。 RTX PRO 6000全系均配备96GB GDDR7显存(支持ECC校验),具备512 bit显存位宽,这意味着GPU板正反两面都使用了3GB GDDR7显存模块。 英伟达今日共发布12款同架构产品,包含双风扇设计(最高600W TDP)的工作站版、涡轮鼓风式设计的集群工作站版,以及服务器专用版。 其中,Max-Q型号沿用了英伟达曾用于高效能移动版GPU的命名,旨在实现RTX 6000系列最佳能效表现(300W TDP,为工作站/服务器版的一半)。服务器版采用无风扇被动散热设计,形态与Tesla系列相似,主要面向第三方服务器配置销售。 数据中心 NVIDIA RTX PRO 6000 Blackwell服务器版 桌面平台 NVIDIA RTX PRO 6000 Blackwell工作站版 NVIDIA RTX PRO 6000 Blackwell Max-Q工作站版 NVIDIA RTX PRO 5000 Blackwell NVIDIA RTX PRO 4500 Blackwell NVIDIA RTX PRO 4000 Blackwell 移动平台 NVIDIA RTX PRO 5000 Blackwell NVIDIA RTX PRO 4000 Blackwell NVIDIA RTX PRO 3000 Blackwell NVIDIA RTX PRO 2000 Blackwell NVIDIA RTX PRO 1000 Blackwell NVIDIA RTX PRO 500 Blackwell 官方数据显示,RTX 6000工作站版/服务器版单精度计算性能达125 TFLOPS,核心加速频率2.6GHz,Max-Q版则为2.5GHz;全系均搭载28Gbps GDDR7显存(与RTX 5090相同),且支持ECC校验。 RTX PRO 5000搭载GB202 GPU(14,080个CUDA核心,与前代RTX 5880 ADA持平),配备 48GB显存(384 bit位宽),TDP为300W。 4500与4000则基于GB203 GPU,前者拥有10,496 个CUDA核心与32GB显存(256 bit 位宽,200W TDP),后者为8,960核心与24GB显存(192 bit位宽,140W TDP)。 全系型号均配备DisplayPort 2.1b接口,仅RTX 6000采用双循环风道散热设计,其余型号维持标准涡轮散热方案。
英伟达、亚马逊临时关闭迪拜办公室 黄仁勋:正积极支持受影响员工
迪拜遭袭击后产生的浓烟 凤凰网科技讯 北京时间3月4日,据CNBC报道,在美国和以色列上周末联合对伊朗发动空袭后,英伟达、亚马逊和Alphabet等大型科技公司纷纷紧急采取措施,确保其在中东地区出差或常驻员工的安全。 美国和以色列的大规模袭击导致伊朗最高领袖哈梅内伊等人丧生。随后,伊朗对位于海湾地区的以色列和美国基地发动打击以实施报复。这场冲突已对平民生活、伊朗的网络接入、航班航线以及整个地区的能源运输造成干扰。 CNBC看到的一份由英伟达CEO黄仁勋(Jensen Huang)周二清晨发给全体员工的电子邮件,英伟达已暂时关闭其迪拜办公室,并要求当地员工转为远程办公。 黄仁勋在邮件中称,英伟达的危机管理团队一直在“日以继夜地工作,积极为中东受影响的员工及其家属提供支持”,其中包括约6000名常驻以色列的英伟达员工。 2019年,英伟达以约71.3亿美元收购了以色列公司Mellanox,该公司主要生产以太网交换机及其他网络硬件。这是当时英伟达历史上最大的一笔交易。如今,除美国本土外,以色列是英伟达最大的研发基地。 黄仁勋表示,截至周二早晨,所有受冲突影响的英伟达员工及其直系亲属均已确认安全。 “英伟达深深扎根于中东地区。我们有数千名同事生活在那里,全球各地还有更多同事的家人和朋友也受到了这些事件的影响。和大家一样,我也在深切关注着我们英伟达大家庭成员的安全。”黄仁勋称。 美国国务院周一表示,鉴于存在“严重的安全风险”,美国人应利用现有的商业交通工具“立即离开”中东各国。到周二下午,该部门表示,在局势日益动荡的情况下,他们正在努力争取军用飞机和包机,以便从该地区撤离美国公民。 据知情人士透露,由于航空交通中断,数十名谷歌员工在参加完一场销售会议后被困迪拜。 谷歌表示,大多数受影响的员工并非驻美员工,而是中东地区的员工。谷歌称,已为其中东地区的员工制定了相应的安全保障措施,并建议员工听从当地政府的指引。 “中东局势正在迅速演变,我们正在密切关注,”谷歌发言人在一份电邮声明中表示,“我们的重点是确保该地区员工的安全与福祉。” 亚马逊近年来在中东地区不断扩张,也在调整当地业务,以应对该地区不断升级的冲突。该公司已指示所有中东地区的企业员工远程办公,并“遵守当地政府的指引”。 亚马逊发言人在声明中表示:“员工和合作伙伴的安全始终是我们的首要考量,我们正与当地团队及政府密切合作,确保他们得到支持。”(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
不止核弹芯片,黄仁勋发布两台 AI 个人超算,还拿下全球最快 DeepSeek 推理速度
买得越多 省得越多 英伟达 GTC 大会已经成了 AI 界超级碗,没有剧本也没有提词器,中途黄仁勋被线缆卡住,反而是这场高浓度 AI 发布会里最有人味的片段,在当今基本提前彩排或录播的科技发布会里已经很稀缺了。 刚刚,黄仁勋再次发布了全新一代核弹级 AI 芯片,不过这场发布会的还有个隐藏主角——DeepSeek。 由于智能体 AI(Agentic AI)和推理能力的提升,现在所需的计算量至少是去年此时预估的 100 倍。 推理成本效率给 AI 行业带来影响,而不是简单地堆积计算能力,成为贯穿这场发布会的主线。英伟达要变成 AI 工厂,让 AI 以超越人类的速度学习和推理。 推理本质上是一座工厂在生产 token,而工厂的价值取决于能否创造收入和利润。因此,这座工厂必须以极致的效率打造。 黄仁勋掏出的英伟达新「核弹」也在告诉我们,未来的人工智能竞争不在于谁的模型更大,而在于谁的模型具有最低的推理成本和更高推理的效率。 除了全新 Blackwell 芯片,还有两款「真·AI PC」 全新的 Blackwell 芯片代号为「Ultra」,也就是 GB300 AI 芯片,接棒去年的「全球最强 AI 芯片」B200,再一次实现性能上的突破. Blackwell Ultra 将包括英伟达 GB300 NVL72 机架级解决方案,以及英伟达 HGX B300 NVL16 系统。 Blackwell Ultra GB300 NVL72 将于今年下半年发布,参数细节如下: 1.1 EF FP4 Inference:在进行 FP4 精度的推理任务时,能够达到 1.1 ExaFLOPS(每秒百亿亿次浮点运算)。 0.36 EF FP8 Training:在进行 FP8 精度的训练任务时,性能为 1.2 ExaFLOPS。 1.5X GB300 NVL72:与 GB200 NVL72 相比,性能为 1.5 倍。 20 TB HBM3:配备了 20TB HBM 内存,是前代的 1.5 倍 40 TB Fast Memory:拥有 40TB 的快速内存,是前代的 1.5 倍。 14.4 TB/s CX8:支持 CX8,带宽为 14.4 TB/s,是前代的 2 倍。 单个 Blackwell Ultra 芯片将和前代一样提供相同的 20 petaflops(每秒千万亿次浮点运算) AI 性能,但配备更多的 288GB 的 HBM3e 内存。 如果说 H100 更适合大规模模型训练,B200 在推理任务中表现出色,那么 B300 则是一个多功能平台,预训练、后训练和 AI 推理都不在话下。 英伟达还特别指出,Blackwell Ultra 也适用于 AI 智能体,以及用于训练机器人和汽车自动驾驶的「物理 AI」。 为了进一步增强系统性能,Blackwell Ultra 还将与英伟达的 Spectrum-X 以太网和英伟达 Quantum-X800 InfiniBand 平台集成,为系统中的每个 GPU 提供 800Gb/s 的数量吞吐量,帮助 AI 工厂和云数据中心能够更快处理 AI 推理模型。 除了 NVL72 机架,英伟达还推出了包含单个 GB300 Blackwell Ultra 芯片的台式电脑 DGX Station。Blackwell Ultra 之外,这个主机还将配备 784GB 的同一系统内存,内置 800Gbps 英伟达 ConnectX-8 SuperNIC 网络,能够支持 20 petaflops 的 AI 性能。 而之前在 CES 2025 展示的「迷你主机」Project DIGITS 也正式被命名为 DGX Spark,搭载专为桌面优化的 GB10 Grace Blackwell 超级芯片,每秒可提供高达 1000 万亿次 AI 计算操作,用于最新 AI 推理模型的微调和推理,包括 NVIDIA Cosmos Reason 世界基础模型和 NVIDIA GR00T N1 机器人基础模型。 黄仁勋表示,借助 DGX Station 和 DGX Spark,用户可以在本地运行大模型,或者将其部署在 NVIDIA DGX Cloud 等其他加速云或者数据中心基础设施上。 这是 AI 时代的计算机。 DGX Spark 系统现已开放预订,而 DGX Station 预计将由华硕、戴尔、惠普等合作伙伴于今年晚些时候推出。 下一代 AI 芯片 Rubin 官宣,2026 年下半年推出 英伟达一直以科学家的名字为其架构命名,这种命名方式已成为英伟达文化的一部分。这一次,英伟达延续了这一惯例,将下一代 AI 芯片平台命名为「Vera Rubin」,以纪念美国著名天文学家薇拉·鲁宾(Vera Rubin)。 黄仁勋表示,Rubin 的性能将达到 Hopper 的 900 倍,而 Blackwell 相较 Hopper 已实现了 68 倍的提升。 其中,Vera Rubin NVL144 预计将在 2026 年下半年发布。参数信息省流不看版: 3.6 EF FP4 Inference:在进行 FP4 精度的推理任务时,能够达到 3.6 ExaFLOPS(每秒百亿亿次浮点运算)。 1.2 EF FP8 Training:在进行 FP8 精度的训练任务时,性能为 1.2 ExaFLOPS。 3.3X GB300 NVL72:与 GB300 NVL72 相比,性能提升了 3.3 倍。 13 TB/s HBM4:配备了 HBM4,带宽为 13TB/s。 75 TB Fast Memory:拥有 75 TB 的快速内存,是前代的 1.6 倍。 260 TB/s NVLink6:支持 NVLink 6,带宽为 260 TB/s,是前代的 2 倍。 28.8 TB/s CX9:支持 CX9,带宽为 28.8 TB/s,是前代的 2 倍。 标准版 Rubin 将配备 HBM4,性能比当前的 Hopper H100 芯片大幅提升。 Rubin 引入名为 Grace CPU 的继任者——Veru,包含 88 个定制的 Arm 核心,每个核心支持 176 个线程,并通过 NVLink-C2C 实现 1.8 TB/s 的高带宽连接。 英伟达表示,定制的 Vera 设计将比去年 Grace Blackwell 芯片中使用的 CPU 速度提升一倍。 与 Vera CPU 搭配时,Rubin 在推理任务中的算力可达 50 petaflops,是 Blackwell 20 petaflops 的两倍以上。此外,Rubin 还支持高达 288GB 的 HBM4 内存,这也是 AI 开发者关注的核心规格之一。 实际上,Rubin 由两个 GPU 组成,而这一设计理念与当前市场上的 Blackwell GPU 类似——后者也是通过将两个独立芯片组装为一个整体运行。 从 Rubin 开始,英伟达将不再像对待 Blackwell 那样把多 GPU 组件称为单一 GPU,而是更准确地按照实际的 GPU芯 片裸片数量来计数。 互联技术也升级了,Rubin 配备第六代 NVLink,以及支持 1600 Gb/s 的 CX9 网卡,能够加速数据传输并提升连接性。 除了标准版 Rubin,英伟达还计划推出 Rubin Ultra 版本。 Rubin Ultra NVL576 则将于 2027 年下半年推出。参数细节如下: 15 EF FP4 Inference:在 FP4 精度下进行推理任务时,性能达到 15 ExaFLOPS。 5 EF FP8 Training:在 FP8 精度下进行训练任务时,性能为 5 ExaFLOPS。 14X GB300 NVL72:相比 GB300 NVL72,性能提升 14 倍。 4.6 PB/s HBM4e:配备 HBM4e 内存,带宽为 4.6 PB/s。 365 TB Fast Memory:系统拥有 365 TB 的快速内存,是前代的 8 倍。 1.5 PB/s NVLink7:支持 NVLink 7,带宽为 1.5 PB/s,是前代的 12 倍。 115.2 TB/s CX9:支持 CX9,带宽为 115.2 TB/s,是前代的 8 倍。 在硬件配置上,Rubin Ultra 的 Veras 系统延续了 88 个定制 Arm 核心的设计,每个核心支持 176 个线程,并通过 NVLink-C2C 提供 1.8 TB/s 的带宽。 而 GPU 方面,Rubin Ultra 集成了 4 个 Reticle-Sized GPU,每颗 GPU 提供 100 petaflops 的 FP4 计算能力,并配备 1TB 的 HBM4e 内存,在性能和内存容量上都达到了新的高度。 为了在瞬息万变的市场竞争中站稳脚跟,英伟达的产品发布节奏已经缩短至一年一更。发布会上,老黄也正式揭晓下一代 AI 芯片的命名——物理学家费曼(Feynman)。 随着 AI 工厂的规模不断扩大,网络基础设施的重要性愈发凸显。 为此,英伟达推出了 Spectrum-X™ 和 Quantum-X 硅光网络交换机,旨在帮助 AI 工厂实现跨站点连接数百万 GPU,同时显著降低能耗和运营成本。 Spectrum-X Photonics 交换机具有多种配置,包括: 128 端口 800Gb/s或 512 端口 200Gb/s 配置,总带宽达 100Tb/s 512 端口 800Gb/s或 2048 端口200Gb/s配置,总吞吐量达 400Tb/s 与之配套的 Quantum-X Photonics 交换机则基于 200Gb/s SerDes 技术,提供 144 端口 800Gb/s 的 InfiniBand 连接,并采用液冷设计高效冷却板载硅光子组件 与上一代产品相比,Quantum-X Photonics 交换机为 AI 计算架构提供 2 倍速度和 5 倍可扩展性。 Quantum-X Photonics InfiniBand 交换机预计于今年晚些时候上市,而 Spectrum-X Photonics 以太网交换机预计将于 2026 年推出。 随着 AI 的快速发展,对数据中心的带宽、低延迟和高能效需求也急剧增加。 英伟达 Spectrum-X Photonics 交换机采用了一种名为 CPO 的光电子集成技术。其核心是将光引擎(就是能处理光信号的芯片)和普通的电子芯片(比如交换芯片或 ASIC 芯片)放在同一个封装里。 这种技术的好处很多: 传输效率更高:因为距离缩短,信号传输更快。 功耗更低:距离短了,传输信号需要的能量也少了。 体积更小:把光和电的部件集成在一起,整体体积也变小了,空间利用率更高。 AI 工厂的「操作系统」Dynamo 未来将没有数据中心,只有 AI 工厂。 黄仁勋表示,未来,每个行业、每家公司拥有工厂时,都将有两个工厂:一个是他们实际生产的工厂,另一个是 AI 工厂,而 Dynamo 则是专门为「AI 工厂」打造的操作系统。 Dynamo 是一款分布式推理服务库,为需要 token 但又无法获得足够 token 的问题提供开源解决方案。 简单来说,Dynamo 有四个方面的优势: GPU 规划引擎,动态调度 GPU 资源以适应用户需求 智能路由器,减少 GPU 对重复和重叠请求的重新计算,释放更多算力应对新的传入请求 低延迟通信库,加速数据传输 内存管理器,智能在低成本内存和存储设备中的推理数据 人形机器人的露脸环节,永远不会缺席 人形机器人再一次成为了 GTC 大会的压轴节目,这次英伟达带来了 Isaac GR00T N1,全球首款开源人形机器人功能模型。 黄仁勋表示,通用机器人技术的时代已经到来,借助 Isaac GR00T N1 核心的数据生成以及机器人学习框架,全球各地的机器人开发人员将进入 AI 时代的下一个前沿领域。 这个模型采用「双系统」架构,模仿人类的认知原理: 系统 1:快速思考的动作模型,模仿人类的反应或直觉 系统 2:慢思考的模型,用于深思熟虑的决策。 在视觉语言模型的支持下,系统 2 对环境和指令进行推理,然后规划动作,系统 1 将这些规划转化为机器人的的动作。 GR00T N1 的基础模型采用广义类人推理和技能进行了预训练,而开发人员可以通过真实或合成数据进行后训练,满足特定的需求:既可以完成工厂的特定任务,也可以在家里自主完成家务。 黄仁勋还宣布了与 Google DeepMind 和 Disney Research 合作开发的开源物理引擎 Newton。 一台搭载 Newton 平台的机器人也登上了舞台,黄仁勋称之为「Blue」,外观神似《星球大战》中的 BDX 机器人,能够用声音和动作和黄仁勋互动。 8 块 GPU,DeepSeek-R1 推理速度创全球之最 英伟达实现了全球最快的 DeepSeek-R1 推理。 官网显示,一台搭载 8 个 Blackwell GPU 的 DGX 系统,在运行 6710 亿参数的 DeepSeek-R1 模型时,可实现每用户每秒超过 250 个 token 的速度,或达到最高吞吐量每秒超过 30000 个 token。 通过硬件和软件的结合,自今年 1 月以来,英伟达在 DeepSeek-R1 671B 模型上的吞吐量提升了约 36 倍,每 token 的成本效率提高了约 32 倍。 为了实现这一成就,英伟达完整的推理生态系统已针对 Blackwell 架构进行了深度优化,不仅整合 TensorRT-LLM、TensorRT Model Optimizer 等先进工具,还无缝支持 PyTorch、JAX 和 TensorFlow 等主流框架。 在 DeepSeek-R1、Llama 3.1 405B 和 Llama 3.3 70B 等模型上,采用 FP4 精度的 DGX B200 平台相较于 DGX H200 平台,推理吞吐量提升超过 3 倍。 值得注意的是,此次发布会的主题演讲并未提及量子计算,但英伟达特意在这届 GTC 大会设置了量子日,邀请了多家当红量子计算公司的 CEO 出席。 要知道黄仁勋年初一句「量子计算还需 20 年才实用」的论断犹在耳畔。 一改口风的背后,离不开微软耗时 17 年研发的拓扑量子芯片 Majorana 1 实现 8 个拓扑量子比特集成,离不开 Google Willow 芯片宣称用 5 分钟完成经典计算机需 10^25 年处理的任务,推动了量子计算的热潮。 芯片无疑是重头戏,但一些软件的亮相同样值得关注。 硅谷著名投资人马克·安德森曾提出软件正在吞噬世界(Software is eating the world)的论断,其核心逻辑在于软件通过虚拟化、抽象化和标准化,正在成为控制物理世界的基础设施。 不满足于做「卖铲人」,英伟达的野心是打造 AI 时代的「生产力操作系统」。从汽车智能驾驶,到制造业的数字孪生工厂,这些贯穿整场发布会的案例都是将 GPU 算力转化为行业生产力的具象化表达。 实际上,无论是发布会上亮相的最新核弹芯片,还是押注战未来的量子计算,黄仁勋在这场发布会上对 AI 未来发展的洞察和布局,都比当下的技术参数与性能指标更具看点。 在介绍 Blackwell 与 Hopper 架构的对比时,黄仁勋还不忘幽默一把。 他以一个 100MW 工厂的对比数据为例,指出采用 Hopper 架构需要 45,000 颗芯片和 400 个机架,而 Blackwell 架构凭借更高的效率显著减少了硬件需求。 于是,黄仁勋那句经典的总结再次抛出,「the more you buy, the more you save」(买得越多,省得越多)。」随后话锋一转,他又补充说,「the more you buy, the more you make」(买得越多,赚得越多)。 随着 AI 领域的重心从训练转向推理,英伟达更需要证明其软硬件生态在推理场景的不可替代性。 一方面,Meta、Google 等巨头自研 AI 芯片,可能分流 GPU 市场需求。 另一方面,英伟达最新 AI 芯片的适时亮相,回应如 DeepSeek 的开源模型对 GPU 需求的冲击,并展示推理领域技术优势,也是为了对冲市场对训练需求见顶的担忧。 最近估值(未来12月市盈率)跌至 10 年低位的英伟达,比以往任何时候都需要一场酣畅淋漓的胜利。
刚刚,黄仁勋甩出三代核弹 AI 芯片!个人超算每秒运算 1000 万亿次,DeepSeek 成最大赢家
英伟达 GTC 大会已经成了 AI 界超级碗,没有剧本也没有提词器,中途黄仁勋被线缆卡住,反而是这场高浓度 AI 发布会里最有人味的片段,在当今提前基本提前彩排或录播的科技发布会里已经很稀缺了。 刚刚,黄仁勋再次发布了全新一代核弹级 AI 芯片,不过这场发布会的还有个隐藏主角——DeepSeek。 由于智能体 AI(Agentic AI)和推理能力的提升,现在所需的计算量至少是去年此时预估的 100 倍。 推理成本效率给 AI 行业带来影响,而不是简单地堆积计算能力,成为贯穿这场发布会的主线。英伟达要变成 AI 工厂,让 AI 以超越人类的速度学习和推理。 推理本质上是一座工厂在生产 token,而工厂的价值取决于能否创造收入和利润。因此,这座工厂必须以极致的效率打造。 黄仁勋掏出的英伟达新「核弹」也在告诉我们,未来的人工智能竞争不在于谁的模型更大,而在于谁的模型具有最低的推理成本和更高推理的效率。 除了全新 Blackwell 芯片,还有两款「真·AI PC」 全新的 Blackwell 芯片代号为「Ultra」,也就是 GB300 AI 芯片,接棒去年的「全球最强 AI 芯片」B200,再一次实现性能上的突破. Blackwell Ultra 将包括英伟达 GB300 NVL72 机架级解决方案,以及英伟达 HGX B300 NVL16 系统。 Blackwell Ultra GB300 NVL72 将于今年下半年发布,参数细节如下: 1.1 EF FP4 Inference:在进行 FP4 精度的推理任务时,能够达到 1.1 ExaFLOPS(每秒百亿亿次浮点运算)。 0.36 EF FP8 Training:在进行 FP8 精度的训练任务时,性能为 1.2 ExaFLOPS。 1.5X GB300 NVL72:与 GB200 NVL72 相比,性能为 1.5 倍。 20 TB HBM3:配备了 20TB HBM 内存,是前代的 1.5 倍 40 TB Fast Memory:拥有 40TB 的快速内存,是前代的 1.5 倍。 14.4 TB/s CX8:支持 CX8,带宽为 14.4 TB/s,是前代的 2 倍。 单个 Blackwell Ultra 芯片将和前代一样提供相同的 20 petaflops(每秒千万亿次浮点运算) AI 性能,但配备更多的 288GB 的 HBM3e 内存。 如果说 H100 更适合大规模模型训练,B200 在推理任务中表现出色,那么 B300 则是一个多功能平台,预训练、后训练和 AI 推理都不在话下。 英伟达还特别指出,Blackwell Ultra 也适用于 AI 智能体,以及用于训练机器人和汽车自动驾驶的「物理 AI」。 为了进一步增强系统性能,Blackwell Ultra 还将与英伟达的 Spectrum-X 以太网和英伟达 Quantum-X800 InfiniBand 平台集成,为系统中的每个 GPU 提供 800Gb/s 的数量吞吐量,帮助 AI 工厂和云数据中心能够更快处理 AI 推理模型。 除了 NVL72 机架,英伟达还推出了包含单个 GB300 Blackwell Ultra 芯片的台式电脑 DGX Station。Blackwell Ultra 之外,这个主机还将配备 784GB 的同一系统内存,内置 800Gbps 英伟达 ConnectX-8 SuperNIC 网络,能够支持 20 petaflops 的 AI 性能。 而之前在 CES 2025 展示的「迷你主机」Project DIGITS 也正式被命名为 DGX Spark,搭载专为桌面优化的 GB10 Grace Blackwell 超级芯片,每秒可提供高达 1000 万亿次 AI 计算操作,用于最新 AI 推理模型的微调和推理,包括 NVIDIA Cosmos Reason 世界基础模型和 NVIDIA GR00T N1 机器人基础模型。 黄仁勋表示,借助 DGX Station 和 DGX Spark,用户可以在本地运行大模型,或者将其部署在 NVIDIA DGX Cloud 等其他加速云或者数据中心基础设施上。 这是 AI 时代的计算机。 DGX Spark 系统现已开放预订,而 DGX Station 预计将由华硕、戴尔、惠普等合作伙伴于今年晚些时候推出。 下一代 AI 芯片 Rubin 官宣,2026 年下半年推出 英伟达一直以科学家的名字为其架构命名,这种命名方式已成为英伟达文化的一部分。这一次,英伟达延续了这一惯例,将下一代 AI 芯片平台命名为「Vera Rubin」,以纪念美国著名天文学家薇拉·鲁宾(Vera Rubin)。 黄仁勋表示,Rubin 的性能将达到 Hopper 的 900 倍,而 Blackwell 相较 Hopper 已实现了 68 倍的提升。 其中,Vera Rubin NVL144 预计将在 2026 年下半年发布。参数信息省流不看版: 3.6 EF FP4 Inference:在进行 FP4 精度的推理任务时,能够达到 3.6 ExaFLOPS(每秒百亿亿次浮点运算)。 1.2 EF FP8 Training:在进行 FP8 精度的训练任务时,性能为 1.2 ExaFLOPS。 3.3X GB300 NVL72:与 GB300 NVL72 相比,性能提升了 3.3 倍。 13 TB/s HBM4:配备了 HBM4,带宽为 13TB/s。 75 TB Fast Memory:拥有 75 TB 的快速内存,是前代的 1.6 倍。 260 TB/s NVLink6:支持 NVLink 6,带宽为 260 TB/s,是前代的 2 倍。 28.8 TB/s CX9:支持 CX9,带宽为 28.8 TB/s,是前代的 2 倍。 标准版 Rubin 将配备 HBM4,性能比当前的 Hopper H100 芯片大幅提升。 Rubin 引入名为 Grace CPU 的继任者——Veru,包含 88 个定制的 Arm 核心,每个核心支持 176 个线程,并通过 NVLink-C2C 实现 1.8 TB/s 的高带宽连接。 英伟达表示,定制的 Vera 设计将比去年 Grace Blackwell 芯片中使用的 CPU 速度提升一倍。 与 Vera CPU 搭配时,Rubin 在推理任务中的算力可达 50 petaflops,是 Blackwell 20 petaflops 的两倍以上。此外,Rubin 还支持高达 288GB 的 HBM4 内存,这也是 AI 开发者关注的核心规格之一。 实际上,Rubin 由两个 GPU 组成,而这一设计理念与当前市场上的 Blackwell GPU 类似——后者也是通过将两个独立芯片组装为一个整体运行。 从 Rubin 开始,英伟达将不再像对待 Blackwell 那样把多 GPU 组件称为单一 GPU,而是更准确地按照实际的 GPU芯 片裸片数量来计数。 互联技术也升级了,Rubin 配备第六代 NVLink,以及支持 1600 Gb/s 的 CX9 网卡,能够加速数据传输并提升连接性。 除了标准版 Rubin,英伟达还计划推出 Rubin Ultra 版本。 Rubin Ultra NVL576 则将于 2027 年下半年推出。参数细节如下: 15 EF FP4 Inference:在 FP4 精度下进行推理任务时,性能达到 15 ExaFLOPS。 5 EF FP8 Training:在 FP8 精度下进行训练任务时,性能为 5 ExaFLOPS。 14X GB300 NVL72:相比 GB300 NVL72,性能提升 14 倍。 4.6 PB/s HBM4e:配备 HBM4e 内存,带宽为 4.6 PB/s。 365 TB Fast Memory:系统拥有 365 TB 的快速内存,是前代的 8 倍。 1.5 PB/s NVLink7:支持 NVLink 7,带宽为 1.5 PB/s,是前代的 12 倍。 115.2 TB/s CX9:支持 CX9,带宽为 115.2 TB/s,是前代的 8 倍。 在硬件配置上,Rubin Ultra 的 Veras 系统延续了 88 个定制 Arm 核心的设计,每个核心支持 176 个线程,并通过 NVLink-C2C 提供 1.8 TB/s 的带宽。 而 GPU 方面,Rubin Ultra 集成了 4 个 Reticle-Sized GPU,每颗 GPU 提供 100 petaflops 的 FP4 计算能力,并配备 1TB 的 HBM4e 内存,在性能和内存容量上都达到了新的高度。 为了在瞬息万变的市场竞争中站稳脚跟,英伟达的产品发布节奏已经缩短至一年一更。发布会上,老黄也正式揭晓下一代 AI 芯片的命名——物理学家费曼(Feynman)。 随着 AI 工厂的规模不断扩大,网络基础设施的重要性愈发凸显。 为此,英伟达推出了 Spectrum-X 和 Quantum-X 硅光网络交换机,旨在帮助 AI 工厂实现跨站点连接数百万 GPU,同时显著降低能耗和运营成本。 Spectrum-X Photonics 交换机具有多种配置,包括: 128 端口 800Gb/s或 512 端口 200Gb/s 配置,总带宽达 100Tb/s 512 端口 800Gb/s或 2048 端口200Gb/s配置,总吞吐量达 400Tb/s 与之配套的 Quantum-X Photonics 交换机则基于 200Gb/s SerDes 技术,提供 144 端口 800Gb/s 的 InfiniBand 连接,并采用液冷设计高效冷却板载硅光子组件 与上一代产品相比,Quantum-X Photonics 交换机为 AI 计算架构提供 2 倍速度和 5 倍可扩展性。 Quantum-X Photonics InfiniBand 交换机预计于今年晚些时候上市,而 Spectrum-X Photonics 以太网交换机预计将于 2026 年推出。 随着 AI 的快速发展,对数据中心的带宽、低延迟和高能效需求也急剧增加。 英伟达 Spectrum-X Photonics 交换机采用了一种名为 CPO 的光电子集成技术。其核心是将光引擎(就是能处理光信号的芯片)和普通的电子芯片(比如交换芯片或 ASIC 芯片)放在同一个封装里。 这种技术的好处很多: 传输效率更高:因为距离缩短,信号传输更快。 功耗更低:距离短了,传输信号需要的能量也少了。 体积更小:把光和电的部件集成在一起,整体体积也变小了,空间利用率更高。 AI 工厂的「操作系统」Dynamo 未来将没有数据中心,只有 AI 工厂。 黄仁勋表示,未来,每个行业、每家公司拥有工厂时,都将有两个工厂:一个是他们实际生产的工厂,另一个是 AI 工厂,而 Dynamo 则是专门为「AI 工厂」打造的操作系统。 Dynamo 是一款分布式推理服务库,为需要 token 但又无法获得足够 token 的问题提供开源解决方案。 简单来说,Dynamo 有四个方面的优势: GPU 规划引擎,动态调度 GPU 资源以适应用户需求 智能路由器,减少 GPU 对重复和重叠请求的重新计算,释放更多算力应对新的传入请求 低延迟通信库,加速数据传输 内存管理器,智能在低成本内存和存储设备中的推理数据 人形机器人的露脸环节,永远不会缺席 人形机器人再一次成为了 GTC 大会的压轴节目,这次英伟达带来了 Isaac GR00T N1,全球首款开源人形机器人功能模型。 黄仁勋表示,通用机器人技术的时代已经到来,借助 Isaac GR00T N1 核心的数据生成以及机器人学习框架,全球各地的机器人开发人员将进入 AI 时代的下一个前沿领域。 这个模型采用「双系统」架构,模仿人类的认知原理: 系统 1:快速思考的动作模型,模仿人类的反应或直觉 系统 2:慢思考的模型,用于深思熟虑的决策。 在视觉语言模型的支持下,系统 2 对环境和指令进行推理,然后规划动作,系统 1 将这些规划转化为机器人的的动作。 GR00T N1 的基础模型采用广义类人推理和技能进行了预训练,而开发人员可以通过真实或合成数据进行后训练,满足特定的需求:既可以完成工厂的特定任务,也可以在家里自主完成家务。 黄仁勋还宣布了与 Google DeepMind 和 Disney Research 合作开发的开源物理引擎 Newton。 一台搭载 Newton 平台的机器人也登上了舞台,黄仁勋称之为「Blue」,外观神似《星球大战》中的 BDX 机器人,能够用声音和动作和黄仁勋互动。 8 块 GPU,DeepSeek-R1 推理速度创全球之最 英伟达实现了全球最快的 DeepSeek-R1 推理。 官网显示,一台搭载 8 个 Blackwell GPU 的 DGX 系统,在运行 6710 亿参数的 DeepSeek-R1 模型时,可实现每用户每秒超过 250 个 token 的速度,或达到最高吞吐量每秒超过 30000 个 token。 通过硬件和软件的结合,自今年 1 月以来,英伟达在 DeepSeek-R1 671B 模型上的吞吐量提升了约 36 倍,每 token 的成本效率提高了约 32 倍。 为了实现这一成就,英伟达完整的推理生态系统已针对 Blackwell 架构进行了深度优化,不仅整合 TensorRT-LLM、TensorRT Model Optimizer 等先进工具,还无缝支持 PyTorch、JAX 和 TensorFlow 等主流框架。 在 DeepSeek-R1、Llama 3.1 405B 和 Llama 3.3 70B 等模型上,采用 FP4 精度的 DGX B200 平台相较于 DGX H200 平台,推理吞吐量提升超过 3 倍。 值得注意的是,此次发布会的主题演讲并未提及量子计算,但英伟达特意在这届 GTC 大会设置了量子日,邀请了多家当红量子计算公司的 CEO 出席。 要知道黄仁勋年初一句「量子计算还需 20 年才实用」的论断犹在耳畔。 一改口风的背后,离不开微软耗时 17年研发的拓扑量子芯片 Majorana 1 实现 8 个拓扑量子比特集成,离不开 Google Willow 芯片宣称用 5 分钟完成经典计算机需 10^25 年处理的任务,推动了量子计算的热潮。 芯片无疑是重头戏,但一些软件的亮相同样值得关注。 硅谷著名投资人马克·安德森曾提出软件正在吞噬世界(Software is eating the world)的论断,其核心逻辑在于软件通过虚拟化、抽象化和标准化,正在成为控制物理世界的基础设施。 不满足于做「卖铲人」,英伟达的野心是打造 AI 时代的「生产力操作系统」。从汽车智能驾驶,到制造业的数字孪生工厂,这些贯穿整场发布会的案例都是将 GPU 算力转化为行业生产力的具象化表达。 实际上,无论是发布会上亮相的最新核弹芯片,还是押注战未来的量子计算,黄仁勋在这场发布会上对 AI 未来发展的洞察和布局,都比当下的技术参数与性能指标更具看点。 在介绍 Blackwell 与 Hopper 架构的对比时,黄仁勋还不忘幽默一把。 他以一个 100MW 工厂的对比数据为例,指出采用 Hopper 架构需要 45,000 颗芯片和 400 个机架,而 Blackwell 架构凭借更高的效率显著减少了硬件需求。 于是,黄仁勋那句经典的总结再次抛出,「the more you buy, the more you save」(买得越多,省得越多)。」随后话锋一转,他又补充说,「the more you buy, the more you make」(买得越多,赚得越多)。 随着 AI 领域的重心从训练转向推理,英伟达更需要证明其软硬件生态在推理场景的不可替代性。 一方面,Meta、Google 等巨头自研 AI 芯片,可能分流 GPU 市场需求。 另一方面,英伟达最新 AI 芯片的适时亮相,回应如 DeepSeek 的开源模型对 GPU 需求的冲击,并展示推理领域技术优势,也是为了对冲市场对训练需求见顶的担忧。 最近估值跌至 10 年低位的英伟达,比以往任何时候都需要一场酣畅淋漓的胜利。
加纳首个5G网络启动运营,力争年内实现全国70%覆盖率
IT之家 3 月 4 日消息,今天晚间,据彭博社报道,加纳部分城市正式启动该国首个 5G 网络,为当地运营商推出超高速移动通信服务奠定基础。 成立于 2024 年的共享网络运营商 Next Gen InfraCo(IT之家注:下称 NGIC)拥有在加纳建设和提供 5G 网络的独家许可。公司周二表示,已获得监管批准,可在首都阿克拉部分地区以及库马西和塔马利启动 5G 网络。 第一阶段网络建设由诺基亚提供技术支持。NGIC 首席运营官内尼 · 乔治 · 安达表示,公司目前正与印度信实工业集团旗下的 Radisys 洽谈下一阶段扩展计划。 这一项目是加纳政府推动 5G 普及的重要一步,政府计划在未来一年内实现 70% 的 5G 覆盖率。加纳人口约 3500 万,目前主要由三家运营商提供服务:拥有约 80% 数据用户的 MTN Ghana、2023 年收购沃达丰当地业务的 Telecel Ghana,以及经营状况不佳的国有运营商 AT。 在共享网络模式下(该模式同样适用于 4G),只有获得监管批准并与 NGIC 签署“网络即服务”协议的运营商,才能使用这套基础设施。目前 Telecel 和 AT 已经签署协议,可以开始向用户推出 5G 服务,而 MTN 尚未签约,对相关询问也未作回应。 NGIC 首席执行官特努 · 阿沃诺表示,将网络基础设施与终端服务运营分离,是一项战略安排,这种模式可以更快实现全国网络覆盖,同时提高资本投入效率。
日本游戏行业的“隐形裁员”:劳动法限制下,企业转向“不招人”策略
IT之家 3 月 4 日消息,据 VideogamesChronicle 报道,多家日本游戏开发商发出警示:尽管日本尚未出现西方那样的大规模裁员潮,但行业仍在以不那么显眼的方式进行人员缩减。 过去几年,西方游戏行业频发大规模裁员事件,而日本此类案例明显偏少,这也引发了外界对两地差异原因的猜测。 IT之家注意到,世嘉制作人中村泰(Taira Nakamura)在 X 平台发表了对此现状的看法。他认为,日本游戏行业并未出现大范围大规模裁员,原因在于日本劳动法让企业难以实施这类操作。中村表示,企业转而通过减少新员工招聘来控制成本。 我认为,即便面临相似的成本压力,日本企业看上去公开裁员更少,原因之一就是日本的劳动法规。然而,‘难以辞退员工’,直接变成了‘从一开始就不招人’。应届毕业生招聘名额在缩水,社招通道也在收窄。未来,进入日本游戏公司的难度可能会比现在还要大。 这一观点得到了 Crescent Tower 社长、《Ooo》发行商 Amata Games 代表高桥博道(Hiromichi Takahashi)的支持。他指出,受企业降本措施影响,外包协作工作室的业务量也在减少。 虽然日本游戏行业没有公布公开裁员,但过去两年左右,很多大型游戏公司都大幅削减了外包给外部开发商的项目量。 结果就是,开发者依旧处境艰难。所以说,日本同样在经历开发者数量缩减,只是方式没有摆在台面上。 由游戏开发者法尔汉 · 努尔(Farhan Noor)维护的游戏行业裁员追踪器数据显示: 2026 年至今已有 13 家工作室关闭,预计裁员约 1500 人 2023 年:裁员约 10500 人 2024 年:裁员约 14600 人 2025 年:再裁员约 5300 人 今年面向全球超 2300 名游戏行业从业者的《游戏行业现状年度调查》显示,28% 的受访者表示在过去 24 个月内被裁员,其中 48% 的人表示至今仍未找到新工作。
美国AI被电力卡脖子:进口依赖度高达80% 恰好是中国强项
快科技3月4日消息,当前AI领域,美国企业强大的地方在于芯片算力充足,然而AI基建上却被电力卡脖子,这一点反而成为中国科技公司的强项。 AI数据中心最主要的运营成本就是电力消耗,美国科技公司也为此头疼,而电力公司也同样面临挑战,美国三大区域电力公司宣布了750亿美元的电力投资计划,要建设765千伏的超高压线路以满足美国AI的电力需求。 这批线路将成为美国史上规模最大、输电能力最强的电力线路,但是还是不能彻底解决美国AI缺电的问题。 不仅如此,微软、谷歌、亚马逊等公司面临的第二个难题就是电费涨价的问题,由于需求旺盛,美国电力公司已经上调了电费价格,这又引发了美国民众的不满。 日前美国总统召集了上述多家科技公司的CEO/高管开会,最终让这些公司签署文件,承诺自行供应或者购买AI所需的电力,不把涨价转移到普通人身上。 但这样做无疑又会提高美国AI数据中心的运营成本,问题的本质还是美国电力建设已经落后,而且核心电力设备成本高,又太依赖进口。 在这方面,国内研报认为美国的变压器供应缺口高达30%,而且80%都依赖进口,这也成为中国企业的机会。 在电力设备上,中国公司不仅拥有全球最大的电网规模,同时也拥有最完整的产业链,并且可以快速交付。 即便是在技术上,中国企业的技术专利也是全球最多的,美国IFI Claims公司去年公布的全球专利TOO250排行榜中,国家电网以12.7万项活跃专利位列第一。
携程升级中东旅行保障:延长期限、更新范围,已为用户挽损超2亿元
凤凰网科技讯 3月4日,携程宣布持续升级并严格实施中东地区旅行保障机制,全方位守护用户出行安全、降低出行损失,各项保障举措已全面落地见效。 截至2026年3月4日18:00,携程机票、酒店、旅游度假等相关部门第一时间更新航空公司等相关方退订政策,积极协助用户处理各类旅行订单合计4万余单,累计为用户挽回经济损失超2亿元。与此同时,携程商旅同步启动应急干预机制,在1.5小时内通过境内外6个服务站点,精准触达超3万笔差旅订单,为1640家企业客户提供高效退改支持,最大限度降低企业差旅损失。 为精准适配中东局势变化,保障国家范围同步调整,经综合核查中东地区局势,确认土耳其未受本次相关局势影响、出行环境平稳有序,因此土耳其相关旅行订单不再纳入本次应急保障范畴,恢复平台常规退改及服务规则。本次应急保障国家更新为伊拉克、约旦、黎巴嫩、阿联酋、叙利亚、科威特、卡塔尔、沙特阿拉伯、巴林、伊朗、以色列、阿曼、也门、埃及共14国。 携程动态更新应急保障范围,涵盖酒店、机票、旅游度假、商旅四大板块,并调整保障国家范围。其中,酒店保障针对2月28日17时前预订、且出行日期在2月28日之后的订单,将兜底保障期限从3月5日延长至3月15日,保障范围内订单可继续享受平台退改、兜底等相关权益。 机票保障方面,携程将持续第一时间同步国内外航司最新退改政策,安排专人协助旅客办理退改手续,确保服务高效响应。 旅游度假产品方面,出发日期在2月28日至3月15日期间,因中东局势影响、航班取消等原因无法出行或行程中滞留(含行程约定转机地)的用户,均纳入“重大灾害旅游体验保障金”保障范围,平台将对无法出行订单的最终退订损失予以保障,并按保障金约定补贴游客滞留期间的住宿费用。 商旅保障与携程主站机票、酒店保障政策一致,同时开通退改绿色通道,高效满足用户出行安全及行程调整需求。 目前,携程应急响应渠道保持畅通,用户如遇紧急情况,可随时拨打携程客服热线95010,或在携程APP搜索“SOS”选择相关支援服务,平台将安排专人24小时响应,全力提供应急支援。后续,携程将密切关注中东局势进展,动态调整保障举措、更新保障范围,及时向广大用户同步相关信息。
贵了但值!字节Seedance2.0公布定价标准:平均1秒钟1块钱
快科技3月4日消息,据媒体报道,今日,Seedance2.0价格公布,包含视频输入是28元/百万tokens,不含视频输入的价格是46元/百万 tokens。 在即梦生成15秒视频,是2.5元。同样,在Seedance2.0生成15秒视频,需要消耗30.888万tokens。这里要提到含视频输入和不含视频输入两种价格下,服务内容的区别。 前者指视频编辑,后者指纯生视频,会消耗更多算力,自然价格更高。那么,按照46元单价计算,单条15秒视频价格为15元。也就是,一秒1块钱。 从行业成本来看,这个价格不算低。不过,Seedance2.0的画质,内容准确度都很高,一定程度上节省了抽卡试错成本,可以节省人力成本。 据了解,目前Seedance2.0已接入第一批公司,某家头部漫剧公司确认已接入。 据相关人士提到,“Seedance2.0暂不会对工具方开放,仅限于自用。”不过,相关信息并未最终确认。 2026年开年,字节跳动内测的AI视频模型Seedance2.0引爆全球关注,其“文本生成多镜头电影级视频”的能力被业界称为“导演级AI”。 曾有一位制作者站在成本角度观察视频生成模型评价,“一个3秒480P的视频,大概3毛钱。720P的3秒视频快1元,视频模型发展非常快,应该算是除了语言模型外,用量最大的模型了”。 在此之前,Seedance 2.0 一直处于内测阶段,并未公布收费标准。 回顾上一代产品:2025年6月推出的Seedance 1.0 Pro定价为10元 / 百万 tokens,生成一条5秒1080P 视频约需3.67元。
消息称红果短剧砍掉中小承制方的保底,只保留头部精品项目
IT之家 3 月 4 日消息,据蓝鲸新闻 3 月 3 日报道,红果短剧砍掉了中小承制方的保底,只保留头部精品项目。业内称,过去一年真人短剧“野蛮增长”,但收益不及预期。 多名短剧承制方表示,红果短剧近日已经取消了部分承制方的保底机制,受影响的主要是一些中小承制方,头部精品项目保留。另有市场消息称,红果短剧此举是压缩真人短剧,押注 AI 真人短剧。 报道提到,一不愿具名的知情业内人士透露,红果短剧并非因为要发展 AI 真人短剧才做出此番调整,“内容展现上应是互相补充不是相斥状态,只有各体裁同时发展,短剧市场才能长期繁荣。”该人士表示。另外,调整承制方的保底机制还因为短剧行业已逐渐成熟,市场上涌现了很多优秀的短剧公司,各方可以直接促成合作。 据 Tech 星球报道,2026 年 1 月,字节跳动旗下红果短剧 App 日活已经过亿,成为继今日头条、抖音、豆包、番茄小说之后,字节第五款日活过亿的独立 App。 报道称,红果短剧自 2023 年 4 年上线,不到 3 年的时间,日活过亿,月活近 3 亿,断层式优势稳居行业第一。 IT之家从公开资料获悉,红果短剧平台以提供海量免费短剧资源为主,同时包含电影、电视剧、小说、有声书、漫画等多元内容,涵盖都市热血、甜宠言情、职场婚恋、逆袭反转、玄幻仙侠等多种类型,满足不同用户的多样化娱乐需求。
TrendForce:亚洲半导体巨头今年瞄准1360亿美元投资规模,同比增长25%
IT之家 3 月 4 日消息,AI 芯片、存储芯片和逻辑处理器需求持续飙升,正在推动亚洲半导体企业大幅提高投资规模。今天晚间,集邦咨询 TrendForce 数据显示,亚洲多家主要芯片厂商今年资本支出预计将超过 1360 亿美元(IT之家注:现汇率约合 9404.47 亿元人民币),比 2025 年增长约 25%,其中台积电、三星电子和 SK 海力士是扩产的核心力量。 亚洲晶圆代工龙头和存储厂商正在显著增加 2026 年投资规模。譬如,台积电今年资本支出将达到 520 亿至 560 亿美元(现汇率约合 3595.83 亿至 3872.43 亿元人民币)的历史新高,同比增长 27% 至 37%。其中约 70% 至 80% 用于先进制程,其余用于特殊制程和先进封装。 中芯国际也保持高水平投资,其资本支出规模几乎与全年营收相当,重点用于本土产能建设。预计该公司 2026 年的资本支出将与 2025 年基本持平,仍将保持在 80 亿美元(现汇率约合 553.2 亿元人民币)以上。 与此同时,三星电子和 SK 海力士也在加大投资力度。TrendForce 预计,三星电子 2026 年资本支出将同比增长约 3.7%,SK 海力士可能提高约 24%。两家公司都在扩大产能,新增产能主要用于 HBM 高带宽存储。 三星计划在 2026 年将 DRAM 产量提高约 20%,重点依托平泽 P4 工厂,并主要生产 10nm 级第六代(1C)DRAM,以配合 HBM4 需求。 SK 海力士方面,EBN 称其清州 M15X 工厂已完成准备,大部分新增产能预计将用于 HBM 生产。 消息称 SK 海力士已经上调 1C DRAM 扩产计划。业内预计到 2027 年第一季度末,其月产能可能达到 17 万至 20 万片,接近原定目标的两倍。 NAND 领域,铠侠与闪迪的联盟也成为扩产最激进的力量之一。预计该合资项目 2026 年资本支出增长约 40%。 值得注意的是,这轮投资潮也蔓延到二线存储厂商。例如,华邦电子计划在 2026 年投入 421 亿新台币(现汇率约合 93 亿元人民币),接近去年的八倍。 华邦电子主要生产用于各类设备存储源代码 NOR 闪存芯片,以及定制化旧制程 DRAM,预计 2026 年第一季度平均售价将上涨 30% 以上。 全球第五大 DRAM 厂商南亚科技也宣布大幅提高投资规模。在经历近三年的行业低迷后,其将 2026 年资本支出提高到此前水平的两倍以上。据悉,南亚科技已经公布 500 亿新台币的资本支出预算,新工厂预计将在 2028 年上半年达到每月 2 万片晶圆产能。
荣耀前CEO赵明正式出任千里科技联席董事长
凤凰科技讯 3月4日,千里科技发布公告,称召开第六届董事会第三十一次会议。在此次会议上,同意选举荣耀前CEO赵明为公司第六届董事会联席董事长,任期自本次董事会审议通过之日起至第六届董事会届满之日止。 据了解,今年2月,赵明通过微博宣布加入千里科技。他表示:“非常荣幸有缘际会千里科技,一个可以奋斗十年的事业,期待与印奇兄弟携手一起打造AI商业闭环,助力千里腾飞。” 赵明于2015年出任华为荣耀业务总裁,2020年主导荣耀从华为独立,完成供应链重组与渠道重建,带领荣耀在2022-2023年间多次登顶国内手机市场份额第一。任职期间,他提出“聚焦端侧AI、以AI重构操作系统”的技术路径,为荣耀在AI手机领域奠定早期布局基础。凤凰网科技了解到,2023年底卸任后,赵明进入为期一年的休整期。 千里科技现由AI领域的连续创业者印奇掌舵,此前已确立“AI+车”战略,下设终端与科技两大业务板块。公司目前仍处于AI业务高投入期,尚未形成规模化盈利。凤凰网科技了解到,赵明加入后,将侧重商业模式构建与市场化战略,印奇则继续把控公司整体战略和AI技术方向。此次分工也反映出千里科技要加速把AI技术推向大规模市场应用。 业内分析认为,手机行业核心管理者密集“上车”,并非简单跨界造车,而是智能汽车作为下一代智能终端,竞争维度已从机械性能延伸至芯片、操作系统、软件生态及用户体验。消费电子领域积累的商业化与规模化能力,正成为车圈争夺的关键资源。
雷军回应春晚宇树机器人印象:全行业都欣欣向荣 小米机器人6年了
快科技3月4日消息,今日,全国两会拉开帷幕启幕。参加今天上午举行的十四届全国人大四次会议预备会议前,全国人大代表,小米集团创始人、董事长兼CEO雷军接受了采访。 他表示,我们小米的机器人已经做了6年,2021年就发布了第一代机器人。 谈及对春晚宇树机器人的印象,雷军称:我觉得我们整个国家的机器人领域发展都日新月异,全行业目前都欣欣向荣。 谈到小米机器人,此前在3月初,小米官方公布了多段视频,展示了小米机器人在小米汽车工厂“实习”工作的画面。 视频显示,在真实汽车工厂里,小米机器人在自攻螺母上件工站中连续自主运行3小时,双侧同时安装成功率为 90.2%,同时满足了最快76秒的产线生产节拍要求。 从画面来看,小米机器人拿起车标之后,还会先撕掉保护膜,然后精准将徽标安装到车头徽标位上,整个过程行云流水,一气呵成。 小米表示,这些只是小米人形机器人迈出在汽车制造场景规模化应用的第一步。 然而,面向更大范围的产业化部署,仍需系统性突破“生产节拍和合格率”这一核心瓶颈,包括移动操作任务中的全身高效协同,以及借助灵巧手提升作业效率等关键技术挑战。 为此,小米还在其他很多典型工站开展了实际部署与验证工作,目前正稳步推进中,相关进展将在后续向大家汇报。 同日,雷军也在社交平台发声“我预计,未来5年会有大批量人形机器人进入小米工厂干活。”
松下拟投资75亿日元在华新建Megtron电路板材料生产线,应对AI服务器需求
IT之家 3 月 4 日消息,今天下午,松下工业宣布,将向松下工业元器件材料(广州)有限公司追加约 75 亿日元(现汇率约合 3.29 亿元人民币)投资,用于新增一条 Megtron 多层电路板材料生产线。 据IT之家了解,此类材料广泛用于 AI 服务器等高速网络系统。 广州工厂目前生产 Megtron6 至 Megtron8 等产品。其中,Megtron6 面向信息与通信技术(ICT)基础设施设备,是业内较早推出的高性能多层电路板材料;Megtron8 则能够满足 AI 服务器所需的高速数据传输需求。未来,广州工厂将承担更重要的角色,成为生产下一代 AI 服务器关键材料的重要基地。 据悉,广州新增生产线将主要服务中国 PCB 客户。松下方面在新闻稿提到,中国市场规模庞大,长期增长潜力显著。该生产线预计 2027 年 4 月启动试生产,并在同一财年内实现量产。 随着生成式 AI 持续发展并加速普及,AI 服务器等 ICT 基础设施需求不断扩大,数据处理规模预计将出现指数级增长。这一趋势推动服务器、交换机和路由器等设备需求提升,同时也对电路板材料提出更高要求,需要更低传输损耗以确保信号稳定、高效传输。 松下工业表示,公司将依托自主材料和加工技术持续扩大 Megtron 系列电路板材料的全球产能,未来五年计划将 Megtron 系列产品总产能提升至目前的两倍,以支持 AI 服务器等 ICT 基础设施市场的发展,并推动 AI 技术持续进步。
投资人开抢林俊旸
离职风暴。 作者/周佳丽 报道/投资界PEdaily “你认识林俊旸吗?求对接。” 今天(3月4日),短短一句话让AI圈震动:“me stepping down. bye my beloved qwen。”(我卸任了,再见了,我亲爱的千问。) 发出这条消息的是林俊旸。出生于1993年,他2019年从北京大学语言学与应用语言学硕士毕业后便加入阿里,是全球最强开源模型之一——千问(Qwen)的核心缔造者,不久前刚刚发布新一代大模型Qwen3.5,千问App月活正跃居全球第三。 一切看起来正往上走,负责人林俊旸却突然宣布告别。下一站去哪里?AI投资圈瞬间躁动起来,“无论创不创业,先抢到他再说。” 千问90后大牛 宣布离开 年仅32岁,林俊旸是阿里巴巴最年轻的P10。 放在中国AI圈,并非海归出身的林俊旸,履历显得有些特别:2019年,从北京大学语言学与应用语言学硕士毕业后,以应届生身份加入阿里达摩院,从高级算法工程师做起,聚焦于搜索与推荐场景下自然语言处理及多模态建模的研究。 此后的几年,他投身大规模预训练模型的研究与部署工作,深度参与了M6、OFA等一系列超大规模预训练模型的研发。2022年底,阿里重组AI团队成立通义实验室,林俊旸被任命为通义千问系列大模型的技术负责人。 可以说,林俊旸是千问大模型背后的关键人士,带领其成为全球最强开源模型。但令所有人错愕的是,他就这样离开了自己一手搭建的团队。 而就在去年10月,他在X上宣布自己在千问内部组建了一支机器人与具身智能团队,并且上周还在朋友圈分享了Qwen Coding Agent相关的招聘信息。 事情发生得太快。简介为魔搭社区维护者、千问贡献者的Chen Cheng评论道,“昨晚我们还并肩发布模型,无法想象没有他的千问会是什么样。”她在转发中写道,“leaving wasn't your choice(离开不是你的选择)。” 为何突然卸任?各界猜测指向阿里内部的组织变化。千问App对于这一问题的答案是:“这波人事变动背后,似乎是大厂技术理想与组织架构调整之间的张力。” 林俊旸不是唯一一个离开的人。 同一天,千问后训练负责人郁博文也正式离职。此前,Qwen Code负责人惠彬原已在2026年1月加入Meta。紧随其后,Qwen3.5、Qwen VL、Qwen Coder的核心贡献者Kaixin Li也发文告别阿里千问。 这群人有一个共同点:他们都是阿里一手培养起来的技术骨干,是千问从0到1的亲历者。 消息一出,AI圈炸开了锅。据说,已有不少投资人和头部大厂在尝试接触林俊旸,“已有硅谷大佬托人在联系”。 也许很快,又有一家AI创业公司诞生了。AI社群内,投资人也开始行动起来,纷纷打听林俊旸,生怕错过其创业的第一张门票。关注AI的投资人庄明浩感慨:“哪怕他要创业,这个级别的人才肯定第一圈就被吃掉了。” 也许是联系他的人太多,刚刚林俊旸在朋友圈表示:“今天不回复消息和电话了,我真的需要休息。” 告别千问,林俊旸接下来去向哪里?答案很快就会揭晓。 千问狂飙 林俊旸率队千问的这几年,正是中国大模型竞争最激烈的时期。 2023年初,当OpenAI的GPT-4震惊世界时,国内大厂的大模型项目大多还处于追赶阶段。阿里达摩院内部,由林俊旸等年轻人组成的团队正在默默推进“通义千问”。这年8月,千问系列首发开源模型。 此后,阿里以惊人的节奏持续开源。到2026年1月,千问衍生模型数突破20万款,成为全球首个达成此目标的开源大模型;全球下载量突破10亿次,平均每天被下载110万次,稳居开源模型榜首。在开源社区,千问已经成为中国大模型的一张名片。 今年2月除夕夜,千问发布全新一代大模型Qwen3.5-Plus,百万Tokens输入低至0.8元。3月2日深夜——林俊旸官宣离职的前一晚,千问又开源了Qwen3.5小尺寸模型系列(0.8B、2B、4B、9B),引得埃隆·马斯克关注。后者在社交媒体上盛赞其“具备令人印象深刻的智能密度”,林俊旸还转发并致意。 与此同时,千问在C端也开始真正走进普通用户的生活里。 去年11月,千问App正式上线。随后的春节AI大战中,千问发起“请客活动”,上线买奶茶、点外卖、订票等“办事”功能,率先打响全民AI生活与AI购物的普及之战。活动期间,累计1.3亿用户在千问“一句话下单”超2亿次——相当于全国平均每10人中就有1人在千问下过单。 成效迅速显现。全球AI应用最新数据显示,千问以2.03亿月活用户跃居全球第三大AI应用,仅次于ChatGPT和豆包,552%的增速居全球第一。从去年11月上线到用户量突破2亿,千问只用了3个月。 变化随之而来。为避免千问、通义千问、Qwen等多个名称导致的混淆问题,阿里将AI的总称和核心品牌统一为“千问”:阿里大模型品牌中文为”千问大模型”,英文为“Qwen”,“通义实验室”则为阿里旗下AI机构的组织名称。 AI大牛抢夺战 放眼望去,从大厂离职投身创业的AI技术领袖,正掀起一轮又一轮融资狂潮。 曾任阿里技术副总裁的贾扬清便是一个典型。贾扬清,浙江绍兴人,本科和研究生阶段就读于清华大学,后赴加州大学伯克利分校攻读计算机科学博士。2019年,阿里达摩院宣布贾扬清的加入。 后来,贾扬清离职创业,创立了人工智能基础设施公司Lepton AI,成立后不久就从CRV、红杉中国和Fusion Fund筹集了1100万美元的天使轮融资。2025年,Lepton AI被英伟达以数亿美元收购。 百度系也出走了一位AI大牛——景鲲。先后于武汉大学、浙江大学获得本硕学位,景鲲是对话式AI机器人微软“小冰”的联合创造者。他于2014年加入百度,担任大搜索任总产品架构师,一度被业界称为“中国AGI产品经理第一人”。 2020年9月,小度科技正式成立,由景鲲担任CEO,收获一众头部基金的注资。三年后,景鲲从百度离开,投身于大模型方向创业——AI智能体平台Genspark,创办仅一年半便融资3轮,跻身全球独角兽俱乐部。 争抢大厂技术大牛,已成为诸多AI投资人的必修课。其中,字节系尤为瞩目,正如我们所见: ·比特智路,这家由前字节跳动AI Lab高管郭传雄创立的公司身后站着红杉中国、真格基金、奇绩创坛等知名机构; ·字节最年轻高管之一——陈冕创办的LiblibAI,收获红杉中国、CMC资本、顺为资本、源码资本、明势创投、渶策资本、蚂蚁集团、联想创投等一众投资方; ·还有融资不断的AI视频企业爱诗科技,身后掌门人同样是字节老兵,曾主导字节视觉大模型从0到1的建设。 据不完全统计,已经有超20名来自字节、阿里、百度等大厂的前高管投身AI创业。他们都有相似的特质:曾在大厂技术部门担任重要角色,手握顶尖技术声望,积累了大量的资源和经验。 这也使他们成为理想的VC投资对象——一旦开启创业,身后往往站着排成长队的投资人。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。