行业分类:
加载中...
头条分类:
加载中...
中国AI正在绕过大模型,直奔Agent时代
中国AI,正在绕过大模型,直奔Agent时代 这不是一场追赶,这是一次换道。 ▌一、那个奥地利程序员帮中国做到了美国人没做到的事 2026年第一季度,有一个数字震动了整个AI行业:中国大模型Token日均调用量首次超越美国。 这件事之所以震动,不是因为中国的模型变强了,而是因为超越的方式:不是靠更多的用户,而是靠单个用户消耗量的爆炸性提升。 Agent应用的普及,让每一个部署了OpenClaw实例的用户,每天消耗的Token量相当于几百个普通聊天用户。国家数据局的数据呈现了一条近乎垂直的曲线:中国日均Token消耗从2024年初的约1000亿,到2025年中突破30万亿,到2026年2月达到180万亿。 两年涨了1800倍,而驱动最后一段最陡峭的增长的,恰恰是这场"龙虾热"。 但如果只看到这个数字,就看浅了。 真正值得追问的问题是:为什么是中国,在这场Agent浪潮里率先完成了大规模商业落地? 在OpenClaw出现之前,中国AI和美国AI的差距,在大多数真正了解行业的人眼里,是明确存在的,不是追上了,而是还在追。为什么偏偏在这个时间节点,中国的商业化速度突然跑到了前面? 这背后,有一条被很多报道忽视了的逻辑链。 ▌二、Anthropic的封锁,意外成了最好的礼物 OpenClaw的爆炸,在全球几乎同步发生。但美国和中国对这场爆炸的承接方式,走出了两条完全不同的路线,而分叉点,来自Anthropic和谷歌做出的一个决定。 当OpenClaw在全球快速扩散之后,Anthropic很快意识到一个严重的商业模型问题:一个每月付49美元Claude Max订阅费的用户,如果用OpenClaw跑一个7×24小时的自主Agent实例,他消耗的算力,可能相当于几百个普通对话用户一个月的总量。 订阅制定价,根本无法在Agent时代维持盈利。于是Anthropic宣布:通过个人订阅账号的OAuth令牌接入第三方工具,属于违规行为,发现即封号,无缓冲期。谷歌的态度与之类似,内部甚至直接屏蔽了员工访问OpenClaw。 这个决定从商业逻辑上完全合理,但它产生了一个Anthropic自己可能没有充分预料到的连锁反应:它把数以百万计正在寻找稳定、低成本Agent后端的开发者,直接推向了中国模型。 从那一刻起,"用国产模型还是用Claude跑OpenClaw"就不再是一个纯粹的技术选择,而变成了一个风险管理决策。Anthropic随时可能封号,ChatGPT的API在高频调用下成本高昂,而MiniMax M2.5、DeepSeek V3.2、Qwen等国产模型不仅通过官方API明确支持Agent高频调用,价格更是只有Claude Sonnet的十分之一到二十分之一。 在OpenRouter这个全球开发者聚合平台上,这个选择被几百万次地做出,最终呈现为那个历史性的榜单:前五名调用量最高的模型,中国占了四席。 这种逆转不是因为中国模型突然变得比Claude更强,而是因为Agent时代的竞争维度变了。 在对话式AI时代,模型的质量上限决定一切;在Agent时代,成本、稳定性、对高频调用的支持程度,跑到了质量前面。这个竞争维度的切换,恰好是中国AI的优势区间。 明略科技副总裁李梦林将这件事的实质说得很准确:"OpenClaw的'自带代理'模式,本质上触发了AI产业链的一次利益再分配。" 分配的结果,是一部分原本流向海外大厂的API收入,在2026年第一季度发生了历史上第一次大规模的逆转性迁移。 ▌三、Token战争的底层逻辑:谁是AI时代的水电煤 阿里在2026年3月做出的那个组织架构调整,现在回头看,是整个Agent时代最清醒的战略动作之一。 成立Alibaba Token Hub(ATH)事业群,与电商、云智能并列,由CEO吴泳铭直接带队,整个事业群围绕一件事运转:创造Token、输送Token、应用Token。 这句话说起来像绕口令,但背后是一个极为清晰的产业判断:Token正在成为AI时代的基础能源,就像电力之于工业时代,就像带宽之于互联网时代。 在这个判断下,大模型不再是终点,而是产能设施;云服务不再是存储和计算的租赁,而是Token的输配网络;应用产品不再是对话框,而是Token的消费终端。整条产业链的价值,最终收敛到一个核心指标:单位Token的成本和质量。 这正是中国AI在过去两年一直在做却被严重低估的事情。DeepSeek用557万美元训练出GPT-4级别的模型,不是技术炫耀,是在给Token工厂降低原料成本; MiniMax M2.5把Agent工具调用能力压缩到10B激活参数高效推理,定价"每小时1美元",是在以几乎是成本价的方式抢占基础设施层的市场份额; Qwen系列则在多模态与工具调用的兼容性上持续打磨,确保在OpenClaw生态里能成为开发者的默认选项之一。 三条路线指向的是同一个目标:在Agent时代的Token消耗链条里,占据成本最低、供应最稳的那个位置。 这条逻辑链,在OpenClaw爆发之前,是一个被少数人相信但很难被大众感知的故事。OpenClaw的到来,把这个故事从"产业洞察"变成了"当下现实",因为OpenClaw是一台真实的、高功率运转的Token消费机器,它第一次让无数普通用户亲身感受到了"AI持续运转"和"Token持续消耗"之间的直接关系。谁能以最低的成本稳定地供给Token,谁就成为这台机器的首选燃料。 国内另一个不太被注意到的数据,同样印证了这个判断。MiniMax M2.5发布后12小时内登顶OpenRouter热度榜,一周内周调用量暴涨至3.07万亿Token,超过DeepSeek V3.2、GLM-5等三家模型的总和。这个数字背后的驱动力,几乎全部来自OpenClaw生态的高频调用需求。 这意味着什么?意味着中国AI的商业化主战场,已经从"有多少人打开了这个App",跳转到了"有多少Token在这套基础设施上流动"。两个指标描述的是完全不同的商业逻辑:前者依赖的是用户粘性和消费习惯,后者依赖的是基础设施的规模效应和成本护城河。后者,才是真正难以被颠覆的竞争优势。 ▌四、大厂战的真相:他们不是在卖龙虾,是在卖铲子 腾讯、阿里、字节、百度在OpenClaw热潮里的集体涌入,表面上看起来像是一场跟风,但仔细解剖每一家的动作逻辑,会发现背后藏着一个比"跟风"深得多的战略。 腾讯在深圳总部举办线下安装会,帮数百名用户把OpenClaw部署到TencentCloud上。腾讯官方文档写得清楚:"OpenClaw来自开源社区,云应用不收费。"然后补了一句:"云服务器和API按实际消耗计费。"这个商业模式,翻译过来就是:用OpenClaw的入口流量,喂饱腾讯云的算力和带宽业务。OpenClaw本身是免费的诱饵,基础设施才是腾讯真正要卖的东西。 阿里的逻辑更赤裸。用户在轻量应用服务器上部署OpenClaw后,系统默认配置的是DeepSeek API,但会自动引导用户前往"阿里云百炼大模型控制台"创建API Key,通义千问系列模型的调用费用,从那个API Key里出。用户以为自己在用开源工具,但每一次Agent的工具调用,都在给阿里云的计量系统加一个计数。 百度直接上线了"移动版OpenClaw",主打无需本地部署、云端环境隔离更安全,本质上是把OpenClaw做成了接入百度云算力的消费入口。字节跳动的ArkClaw连本地部署的麻烦都省掉了,做成了纯浏览器端产品,换取的是ByteDance火山引擎在每一次Agent运行背后的调用份额。 这场竞争里有一句话流传很广,出自36kr的一篇分析:"这就是个卖铲子的生意。OpenClaw淘金热里,中国大厂要做的,是成为那个向所有淘金者卖铲子的人。" 这个比喻非常准确,但它隐藏了一层更重要的东西:淘金热结束之后,铲子生意不会结束,但淘金者会换地方。真正的护城河,不是谁家的铲子卖得更多,而是谁把自己的算力基础设施做成了淘金者离不开的"水和电"。 这也是为什么阿里成立ATH事业群的战略意义远超字面,它意味着阿里不满足于做OpenClaw时代的云服务供应商,而是要在下一个技术范式到来之前,把Token的生产、分发和消费整个链条攥在自己手里。 一家公司用事业群的层级来定义"Token",意味着它相信Token会像流量一样,成为这个时代最核心的生产要素。如果这个判断是对的,先建起Token基础设施的那家公司,将获得比当年阿里云相对AWS更大的先发优势——因为这一次,它连模型都自己造。 ▌五、中国独有的产业化速度,从哪里来 同样是OpenClaw热潮,美国的反应和中国的反应有一个结构性的差异,这个差异本身是一个非常值得深思的现象。 在美国,OpenClaw的爆发主要停留在开发者社区层面,GitHub stars狂飙、Discord社群活跃、YCombinator创始人陈嘉兴和a16z的多位合伙人公开宣称自己是狂热粉丝,但大规模的商业化产品、地方政府的扶持政策、数以千计的线下安装服务,并没有以同样的密度和速度出现。 在中国,这些东西几乎是同步爆发的。腾讯的线下活动、深圳无锡的政策补贴、JD.com的399元安装服务、工程师收费500元上门部署……这是一个只有在中国市场才会呈现的景观:一项技术产品从开源框架到大众消费产品,从GitHub到线下安装摊位,中间的转化时间是以周而非月来计算的。 这种速度背后有几层结构性原因,每一层都比表面看起来更深。 第一层是超级App生态的天然适配。OpenClaw需要接管消息应用来执行任务,而微信、飞书、企业微信恰好是中国职场人几乎所有工作流程的中枢。一个能直接操作微信、读取企业微信消息、在飞书上自动完成审批流的Agent,在中国语境下的实用价值,远超一个操作WhatsApp或Slack的西方版本。这不是偶然的功能对齐,而是中国数字化基础设施的高度集中,意外地成了Agent落地的最佳土壤。 第二层是极端强烈的降本增效需求。中国经济在过去两年经历的压力,让企业和个人对"用更少的人做更多的事"有着美国市场难以比拟的迫切性。当一个老板发现可以用Agent替代部分外包需求,当一个自媒体人发现可以用Agent完成原本需要团队协作的工作流,他们不需要被教育AI的价值,他们只需要知道怎么用。这种需求密度,是OpenClaw在中国形成"安装排队"奇观的真实土壤。 第三层,也是最常被低估的一层:中国AI产业三年大模型竞争,意外地培养了一批真正懂得如何把AI工具变成商业产品的人。那些在"百模大战"里存活下来的团队,不是靠模型参数赢的,而是靠对中国用户需求的精准理解、对产品落地的执行速度、以及对商业化路径的持续摸索赢的。当Agent时代的机会窗口打开,这批人带着已经被磨砺过的产品直觉和执行能力,立刻知道往哪个方向冲。 ▌六、弯道超车的真实边界 但这场胜利,有它真实的边界,而且这个边界比很多人愿意承认的更清晰。 中国赢的这一局,是应用层的商业化速度,不是基础技术的代际领先。 OpenClaw框架本身是奥地利人写的。底层的大语言模型能力,在复杂推理上的天花板,全球学术界公认仍然是Claude Opus和GPT-5.4系列更高。中国模型胜出的核心变量是成本和对高频调用的支持,而不是在智能密度上真正超越了对手。在那些需要极高推理能力的任务上,复杂代码重构、高难度科学推断、需要深度上下文理解的多轮决策,绝大多数中国模型仍然建议开发者在关键步骤切换到旗舰海外模型。 这个差距不是永久性的,但它现在是真实存在的。 Agent生态层面也存在类似的问题。中国迄今为止爆发的这波Agent热,在应用场景上高度集中在流程相对标准化的任务:数据整理、内容生产、邮件处理、简单的研究搜集。一旦进入需要真正判断力的非标任务——需要在模糊的信息中做权衡、需要在利益冲突的情况下做选择、需要理解复杂的组织政治——现阶段的Agent准确率会急剧下降,而这个下降是中美模型都面临的共同问题,不是专属于中国的短板。 安全隐患则是另一个更紧迫的现实问题。工信部的警告不是在扫兴,而是在指向一个系统性漏洞:当Agent拥有了真正的执行能力,它的权限边界就变得极其关键。Cisco安全团队在测试中发现的那个第三方OpenClaw插件,在用户不知情的情况下执行了数据外泄,这不是极端案例,而是权限设计不完善的必然结果。 中国市场"先装了再说"的速度,在商业化上是优势,在安全治理上则是欠账。这笔账,要么在后续的产品迭代里系统性补上,要么等待一次大规模安全事件来倒逼。 有专家认为:中国企业真正的机会不是做更好的OpenClaw,而是做OpenClaw做不到的事,更懂行业、更深场景、更稳落地。 这句话的潜台词是:OpenClaw代表的是一种通用Agent框架的范式,但通用,意味着它在每一个具体的垂直场景里都没有真正的深度。深度,才是护城河。谁先在金融、医疗、制造、法律等高壁垒场景里建立起可信赖的专用Agent系统,谁才能真正把这次的速度优势转化为持久的商业壁垒。 ▌七、这场竞争的真正胜负手,不在技术 如果说大模型时代的竞争是一场军备竞赛,谁的参数更大、谁的benchmark更高、谁的训练成本更低。那Agent时代的竞争,更像是一场基础设施战争:谁先把AI算力变成像水和电一样的公共服务,谁先把Agent能力嵌入每一个真实的工作流程,谁先构建起足够规模的可信数据和行业知识壁垒,谁就赢得了这场战争的入场券。 在这个框架下,中国目前领先的那一局,价值是真实的,但它是入场券,不是终局。 OpenClaw带来的窗口期,核心价值在于它给了中国AI产业一个"先跑起来"的机会,在用户规模、在商业模式验证、在Token基础设施的体量上积累起真实的先发优势。 这个验证完成之后,资本和人才会更快速地向Agent赛道聚集,而中国AI产业在过去三年积累的执行速度和产品打磨能力,会在一个有确定性的赛道里得到最大化的发挥。 但窗口期不会无限延续。OpenAI没有坐以待毙。GPT-5.4在3月发布时就明确指向了Agentic工作流的原生支持,Codex在企业端的渗透速度告诉市场,OpenAI没有放弃Agent层的控制权。Google Workspace的Agent化整合,有着任何独立产品都难以复制的分发网络优势。微软Copilot深度嵌入Office生态,面向的是中国大厂触达不到的数亿企业用户。 这场竞争的真实胜负,最终会在三年后的某个时间节点变得清晰——那时候,谁在真正高价值的垂直场景里建立起了不可替代的Agent基础设施,谁就赢了这场从大模型到Agent的换道赛。技术差距会缩小,成本优势会被追平,但那时候已经建立起来的用户信任、数据护城河和行业深度,才是真正的壁垒。 2025年还是"千模混战",2026年主战场已全面转向智能体。这个判断现在已经是共识,但共识从来不是终点,而是下一轮竞争的起跑线。 中国AI目前站在这条线的前面,但不是很多。
中国首个商业空间站计划今年发射
IT之家 4 月 16 日消息,紫微科技 4 月 11 日宣布在江苏无锡紫微科技园召开迪迩(ěr)十一号技术状态报告评审会。来自航天领域的多位专家组成评审组,对技术状态报告进行了系统研讨与质询。 会上,团队就迪迩十一号技术状态基线、功能性能指标实现情况、可靠性与安全性设计、风险识别与控制措施、系统间接口匹配性等作了详细汇报。 与会专家一致认为:迪迩十一号技术状态明确,功能和性能指标满足研制总要求,可靠性与安全性设计合理,风险识别与分析全面,控制措施有效,各系统间接口协调匹配,可作为正样研制工作的依据。 ▲ B300 组合体商业空间站 V1.0 版 IT之家从紫微科技官方公告获悉,迪迩十一号是紫微科技自主研制的首个商业空间站 V1.0 版的重要组成部分。该组合体由迪迩六号(B300-L03 留轨版)和迪迩十一号(B300-F01 返回版)两船组成。此前,紫微科技已先后完成迪迩五号发射、迪迩六号和迪迩十一号组合体总体方案设计评审、迪迩十一号再入返回弹道设计评审等关键节点。 根据任务规划,商业空间站计划于 2026 年二季度发射,进入高度 360 公里、倾角 41.5° 的近地圆轨道。两船将在轨开展交会对接试验,迪迩十一号独立在轨运行约一个月后返回地面。 公开资料显示,北京紫微宇通科技有限公司是中国首家民营太空飞船公司,于 2019 年 3 月 8 日成立,主营业务为太空飞船的设计制造和飞行运行。 2023 年 12 月 17 日,星际荣耀双曲线一号(遥七)商业运载火箭在酒泉卫星发射中心成功将搭载的迪迩一号卫星发射升空。 迪迩一号光学遥感卫星由北京紫微宇通科技有限公司和北京航天驭星科技有限公司联合研制,入轨后开展卫星平台技术验证工作。
单通道400G已就绪!全栈互联公司揭开800G AI超级网卡序幕
国产AI SNIC从“可用”迈向“高性能”。 芯东西4月16日报道,近日,AI全栈式互联公司奇异摩尔宣布,已成功构建800G AI超级网卡(SNIC)平台架构,除了800Gb/s 的高带宽,亚微秒的超低延时,其关键技术还涵盖面向AI网络的增强型RoCE v2机制,包括包喷洒,多路径传输,高性能重传,与先进的可编程拥塞控制等。基于该自研平台架构设计的AI SNIC ASIC,已于近期完成回片,并顺利通过核心RDMA架构的硅验证,单通道吞吐量稳定在400Gbps,关键时延约1微秒。 在当前国产高性能网卡公开产品与产业叙事仍多集中于100/200G RDMA ASIC引擎阶段的背景下,奇异摩尔正以单通道400G RDMA ASIC引擎这一实质性突破,为国产AI超级网卡快速迈向800G ASIC揭开序幕。 ▲800G AI SNIC平台架构设计的ASIC已顺利通过RDMA架构的硅验证,单通道吞吐量稳定在400Gbps 01. 为什么是基于以太网的 RDMA AI 原生网卡 在 AI 网络兴起之前,行业对智能网卡(SmartNIC)的主流划分,并非围绕 AI 训练与推理场景,而是依据芯片架构与卸载能力深度进行区分。核心关注点在于其能够为 CPU 分担多少基础设施工作,包括虚拟机间网络交换、存储、加解密,安全与遥测,压缩与解压缩等硬件卸载功能,典型产品如数据处理单元(DPU)网卡,并非针对大模型集群通信做专项定制优化。 进入大模型时代,随着AI训练从千卡向万卡规模扩展、推理从单机部署走向大规模分布式服务,Scale-out网络正在成为决定GPU利用率、集合通信效率和单位Token成本的关键基础设施。无论是All-Reduce、Reduce-Scatter,还是All-to-All等典型集合通信,都要求网络具备更高带宽密度、更低时延、更低尾时延,以及更快的拥塞反应能力。 在此背景下,基于以太网的高性能RDMA路线愈发清晰:它既继承了以太网生态开放、部署成熟、成本可控的优势,又通过面向AI网络的RoCE/RDMA专项优化,逐步具备支撑大规模AI集群的能力。 这一技术趋势在国内头部云服务提供商(CSP)的技术需求规范,以及国外超以太网联盟(UEC)的诞生中体现得尤为明显。就是交付一套面向AI与HPC场景的开放、高性能以太网架构,重点解决传统以太网在大规模训练环境下面临的多路径传输、快速拥塞响应、尾时延控制、易配置与可扩展性等问题。 换句话说,以太网不再只是“通用网络”的代表,而是在AI时代被重新定义为承载大规模集群互联的主航道之一。 “奇异摩尔AI 超级网卡技术路线,与头部云服务提供商(Tier1 CSP)的需求完全一致,与UEC的规范也高度趋同。我们已构建的800G平台架构能力,能有效支持最高800Gb/s RDMA吞吐, 数百万级消息处理能力与数百万级队列(QP),大大增强了RoCE v2协议栈,增加了包喷洒、乱序重组、高效重传,高级可编程拥塞控制等AI网络急需的增强特性。以太网的技术路线确保了产品的开放互操作性与生态兼容性,为进入头部云服务供应商以及未来平滑融入超以太网生态、实现跨厂商协同奠定了基础。” 奇异摩尔网络技术VP叶栋表示 。 ▲800G AI SNIC 及功能描述 叶栋拥有超过20年的网络互联系统架构设计经验,在AI网络协议、RDMA、虚拟化、软件协议栈等方面拥有丰富的专业知识。其在英特尔(中国)工作多年,曾任英特尔网络互联产品事业部技术总监,负责英特尔以太网、智能网卡,P4可编程交换芯片、英特尔/Google IPU相关系统架构产品的本地化研发和部署。启动和主导了多家大型云服务提供商大规模部署的技术方案的底座。 针对网络密集型大规模并行计算对高带宽、低延迟数据传输的严苛需求,NVIDIA不仅推出基于IB网络的超级网卡(SNIC),也推出了面向以太网的SNIC,旨在为AI工厂与云数据中心提供强大的网络支撑。NVIDIA对AI超级网卡的定义十分清晰:这是一类“专为网络密集型、海量分布式AI计算工作负载打造的新型网络加速器”。其价值远不止于完成数据包的传输,更在于让多GPU、多节点环境下的通信真正成为释放算力的加速引擎。 02. 对标NVIDIA ConnectX-8/9 的领先性, 800G AI网卡从“接口”走向“中枢” NVIDIA公开表示,ConnectX-8是业界首个把PCIe Gen6级交换能力与超高速网络处理能力集成到单一器件中的超级网卡(SNIC)。它不仅服务于AI、HPC和超大规模云数据中心场景,还通过集成48 lanes 的PCIe Gen6 Switch,把原本需要独立PCIe Switch和独立NIC共同完成的任务,整合到一个高集成度器件中,这是一项绝无仅有的创新技术路径。 传统1机8卡PCIe GPU服务器普遍采用以 CPU 为根节点、PCIe Switch 向下连接 GPU 的树形拓扑。 这种架构在通用计算时代较为成熟,但在大模型训练场景下,其结构性性能瓶颈日益突出:GPU间通信往往需要经过PCIe Switch,跨Socket路径还可能受到主机链路约束,导致时延升高、带宽利用率下降,难以满足All-Reduce、Reduce-Scatter、All-to-All 等高频集合通信对低时延和高吞吐的要求。 所以ConnectX-8将PCIe Gen6交换能力与高速网络能力整合到单一器件中,可替代传统离散PCIe Switch,既优化GPU到GPU、GPU到NIC的数据路径,也降低系统复杂度、功耗和总体拥有成本。 在端口形态上,ConnectX-8也已经明确迈入800G时代。NVIDIA官方显示,ConnectX-8以太网版本具备2×400GbE的产品形态,其不仅拥有800G级总带宽能力,也具备更灵活的双端口组网方式,更适合未来大规模AI集群对冗余、分流、弹性扩展和复杂拓扑部署的需求。从出货形态来说,ConnectX-8已将高速网络能力与PCIe Gen6 Switch能力整合至单一器件之中,并以一体化集成设计形态面向平台出货。 03. 奇异摩尔创造里程碑: 国产AI SNIC从“可用”迈向“高性能” 正是在这样的全球技术演进背景下,奇异摩尔基于自研800G AI SNIC ASIC架构构建的单通道400G引擎完成了核心RDMA ASIC 流片验证,才显得意义格外突出。 与FPGA方案更适合早期验证、快速迭代不同,ASIC路线决定了一款产品是否真正具备面向大规模AI训推集群的性能上限、功耗效率、板卡集成度和量产一致性。 奇异摩尔率先在国产阵营中实现单通道400G RDMA ASIC引擎,吞吐量稳定在400Gbps,不仅填补了国内高带宽超级网卡芯片的空白,更充分证明了其已掌握2×400G乃至更高速率产品的核心设计能力,为下一代800G网卡奠定了坚实技术基础。 奇异摩尔最新800G SNIC全面对标英伟达ConnectX-8/9的架构方向,采用与国际先进方案相一致的“高速网络处理+PCIe Switch能力”一体化设计思路,在产品形态上支持 2×400G端口以太网总带宽,在架构层面同时承担AI服务器内部互连优化与节点间高速通信能力。 这意味着,该企业在800G产品布局不只是带宽规格升级,更是对未来AI高性能集群互连形态的提前卡位:通过集成PCIe Switch能力,重构GPU到GPU、GPU到NIC的数据路径,提升集合通信效率、降低系统复杂度,并增强对整机平台和集群方案的定义能力。 奇异摩尔网络技术VP叶栋补充道,奇异摩尔最新800G 超级网卡按计划于年内量产,有望成为国产化在800G AI超级网络芯片、系统集成方案以及平台级架构能力上的重大突破,进一步增强中国厂商在未来AI高性能集群基础设施中的产品定义权、方案协同权和产业话语权。 04. 结语:国产化窗口已开, 市场潜力加速释放 从产业空间与政策环境来看,奇异摩尔所切入的并非小众赛道,而是一个正在快速扩容的核心基础设施市场。公开研究显示,仅ConnectX-7级别的高性能AI网卡市场规模已超过百亿元,并仍在持续增长。这意味着,以ConnectX-7/ ConnectX-8为代表的高性能AI网卡赛道,背后对应的是一个数百亿元级、且仍在不断放大的市场机遇。 与此同时,国家对自主可控智算底座、高速互连及国产化集群的战略诉求正持续加强。国家发展改革委等部门已明确提出,要加快部署智能无损网络、400G/800G等先进技术,建设高速泛在、安全可靠的全国一体化算力网,并强化自主创新技术供给能力。 奇异摩尔是一家深度聚焦AI互联多年的全栈式解决方案提供商,以网络+芯粒技术为底层特色,除面向Scale Out场景的AI网卡芯片,公司还提供面向Scale Up超节点的G2G IO互联芯粒,并已在业内实现落地应用。这一不同于其他芯片厂商的技术基因构筑了差异化的竞争壁垒,也赋予了其在下一代高性能集群互联中更强的灵活性、更广阔的发展空间以及更深的技术纵深。
特斯拉禁止一年内转售Model S/X签名版,违者罚款5万美元
IT之家 4 月 16 日消息,特斯拉 Model S 和 Model X 的生产将以 350 辆签名版车型收尾,每辆车都附带大量专属权益,定价也十分高昂。除此之外,购车者必须同意:自交付之日起至少一年内不得转售。特斯拉此前曾尝试推行此类规定,但均以失败告终。而这一次,他们或许找到了能真正起效的约束手段。 据外媒 Not A Tesla App 曝光的订单文件显示,购买最后一批 Model S Plaid 与 Model X Plaid 签名纪念版的用户,在提车前必须签署一份严格的禁止转售协议。车主需承诺在车辆交付后的第一年内,不得出售、甚至不得尝试出售该车。一旦违约,车主将需支付 5 万美元(IT之家注:现汇率约合 34.2 万元人民币)违约金,或赔偿其转售获利金额,以两者中数额更高者为准。 此举显然是为了防止投机者立刻倒卖这最后的 350 台纪念版,从中牟取暴利。特斯拉仅生产 250 台 Model S、100 台 Model X 纪念版,均采用专属的石榴红车漆、金色车标与独特装饰套件。 IT之家注意到,特斯拉此前在 Cybertruck 上也试过类似手段,但最终整个计划宣告失败。该政策刚推出就遭到强烈反对。车主们认为,特斯拉试图管控他们已经付费购买的车辆;还有人直接无视条款,依旧把皮卡挂出转售。短短数月内,随着 Cybertruck 供应量上升、市场降温,特斯拉便悄悄取消了这一限制。而这一次,情况有几个关键差异。 新版协议条款更清晰,执行难度也可能更低。Cybertruck 的合同依赖模糊的“不可预见原因”等表述,而纪念版协议直接写明:车主在一年内不得出售或以任何方式尝试出售车辆。 特斯拉这次的约束力也更强,因为这批车是真正的限量款:总计仅 350 台,远少于 Cybertruck 的数千台产量。最重要的是,特斯拉将 FSD、免费超充、高级车载连接服务等核心权益设为不可转让。这意味着即便一年后,车辆对二手买家的价值也会降低,从根源上削弱了倒卖动机。
羊毛出在AI身上:鞋厂没了,赌场开了,股价上天了
一家卖羊毛运动鞋的公司,在宣布出售其赖以成名的品牌、转身投向“AI算力基础设施”后,股价从3美元的谷底垂直拉起,盘中涨幅一度触及700%,收盘涨幅582%。 CNBC的红色滚动条与彭博终端的闪烁数字,共同记录了这一荒诞而真实的时刻:一家市值萎缩至不足1.2亿美元的公众公司,仅凭一纸意向与一个更名计划,便重新点燃了投机者眼中贪婪的磷火。 这正是昨晚发生的故事,也是“.com”的荒谬神迹时刻,在20多年后的再度复辟。 01 一天涨了582%,华尔街的老把戏 如果你关注过Allbirds,你可能知道它是个卖羊毛运动鞋的牌子,曾经估值超过40亿美元,硅谷人手一双。但如果你没关注过它,今早也大概率被一条新闻刷屏了:这家快撑不下去的鞋厂,股价突然一天之内从3美元蹦到了17美元,涨幅超过582%。 原因很简单:公司宣布不卖鞋了,要把商标和库存打包卖掉,然后用剩下的上市壳公司去做算力生意。新的名字都想好了,叫NewBird AI。消息一出,股票跟坐了火箭似的。 但你如果多问一句,“新生意谁来做?钱谁出?”会发现一个非常奇怪的现象:公司一个字都没提。 那个要借给公司5000万美元的神秘金主是谁,不知道。将来负责买显卡、租机房、找客户的运营负责人是谁,不知道。金主有权往公司里塞一个管事的首席运营官,这人是谁,还是不知道。 这是一场只有股票代码、却没有责任主体的轮盘赌。股票涨了,不是因为大家看懂了这门生意,而是因为“AI”这两个字太好用了。 根据协议,一个叫American Exchange Group的公司会花大约3900万美元,买走Allbirds的品牌、设计、库存和部分债务。以后你看到Allbirds的鞋子还在卖,但那个钱跟上市公司已经没关系了。 上市公司这边,在把鞋的生意剥离出去之后,兜里只剩大约250万美元现金,总资产大概500万美元。然后它准备改个名字叫NewBird AI,对外说我要买GPU租给那些做AI的公司用。 这是华尔街的老把戏了。把亏钱的业务卖掉,留下一个干净的上市公司壳,再塞一个热门概念进去。壳本身不值钱,但加上“AI”两个字,市场就愿意给机会。 02 一场换了包装的金融游戏 有人可能会说,Allbirds原来的团队就不能学吗?卖鞋的不能转型做科技吗? 公平地说,不是完全不能。但现实是,Allbirds原来的管理层,擅长的是品牌营销、供应链管理、开线下门店。他们过去几年的主要成绩,是把营收从2022年的将近3亿美元,做到了2025年预计的1.52亿美元,几乎腰斩。到今年2月,美国最后一家全价门店也关了。 而AI算力生意需要的是什么?需要你懂英伟达的显卡什么时候换代、知道怎么跟数据中心谈电费和散热、算得清折旧和残值、还能判断哪个客户信用好不会跑单。这是两个完全不同的工种。 问题的关键是,这个壳现在空荡荡的。它没有懂芯片的人,没有机房资源,没有客户关系。它唯一的筹码,就是那个还没露面的“金主”承诺的5000万美元借款额度。 这就回到了那个最让人不安的问题:新人到底是谁?如果他只是个金融背景、擅长做PPT的人,那NewBird AI很可能就是一场换了包装的金融游戏。 虽然金主是谁没公布,但金主开出的条件,却一条一条白纸黑字写得很清楚。这些条件读起来,一点都不像是“我们一起干大事”的创业伙伴,更像是“我怕你赖账”的债主。 首先,这5000万不是白给的,是借款。年利息12%,一旦还不上,利息还要往上加。而且这笔钱不是一次性到账,是分批次给,每次动用之前还得金主点头。 其次,这笔借款是用公司全部资产做抵押的。不光包括现在那点家当,连将来买的GPU、签下的租赁合同,统统都是金主的抵押品。如果生意做砸了,金主是第一个来搬东西的人。 最关键的一条在这里:将来新公司靠出租GPU赚到的钱,不能随便花,要先打进一个由金主控制的“冻结账户”。也就是说,就算NewBird AI真的找到了客户、收到了租金,那笔钱也是先被金主攥在手里的,公众股东得排在后面。 另外,金主还有权往公司里塞一个自己人当首席运营官。这个人负责日常运营,说白了就是金主派来盯着钱和机器的。 03 AI算力市场是真的,但不代表谁都能分一杯羹 这里要讲句公道话:AI算力短缺确实是个真实的市场。大厂抢显卡、小公司租不到资源,这些都不是编出来的。如果有一个公司能搞到卡、搞定机房、签下稳定的租约,理论上确实能赚钱。 但“理论能赚钱”和“你能赚钱”之间,隔着一整条产业链。买卡要渠道,放卡要机柜,供电要配额,散热要方案,客户要关系。NewBird AI现在连张显卡的影儿都没有,连机房合同都没签,连客户是谁都不知道,它凭什么觉得自己能挤进去? 这就好比说,开餐馆确实能赚钱,但你连厨师都没请、店面都没租、菜单都没定,就对外宣布我要开餐厅了,然后股价涨了7倍。这涨的哪是餐厅的估值,这涨的是投资者对“餐饮”两个字的幻想。 如果你觉得这故事听着耳熟,那是因为以前确实发生过类似的事。 2017年,一家叫Long Island Iced Tea的饮料公司,突然宣布改名叫Long Blockchain,蹭上了当时火热的区块链概念。消息一出,股价当天涨了200%多。但后来呢?公司并没有真正搞出什么区块链业务,纳斯达克把它摘牌了,留下一地鸡毛。 Allbirds这次的操作,内核几乎一模一样。都是主营业务做不下去了,都是靠改名字、换赛道来刺激股价,都是利用了市场对热门概念的饥渴。区别只在于,上次是区块链,这次是AI。 市场永远不缺想赌一把的人。当英伟达、微软这些真正的AI赢家股价已经高高在上,买不起的人就会到处找“便宜货”。一个股价3美元、马上要做AI的公司,简直就是为他们量身定做的彩票。 但彩票终究是彩票。中奖的概率,跟那串没公布的名字息息相关。
暴跌百亿的“相机圈苹果”,为轻视中国付出代价
曾经运动相机的鼻祖,真撑不住了。 最近几天,GoPro宣布再度裁减约上百人,而这已经是这家公司不止一次以“重组”为名瘦身裁员。 这几年,GoPro保持着一言不合就裁员的节奏: 2016年上市时,GoPro员工超过1500人;经过一轮轮“重组”,到2025年末,员工总数已萎缩至600人出头,不足高峰期的一半。 更惨的是在全球市场的全面失守。 截至2025年11月,GoPro在运动相机领域的市场占有率已经跌至9.6%,他的中国官方公众号,最近一次的更新时间也停留在2025年底。 2014年,GoPro登陆纳斯达克值一度攀升至近130亿美元,甚至创始人被贴上“下一个乔布斯”的标签,但如今市值已跌至约1.2亿美元,着实有点太惨不忍睹。 有人说,它遇到了最可怕的对手,一群来自中国的“卷王”,用乱拳打破了它的垄断神话。 但一个曾经以一己之力开创运动相机品类的公司,真的是被对手打的节节败退吗? GoPro犯了三大“致命错误”,也彻底把胜利送给了对手们。 傲慢之败: 相机圈苹果,竟然6年未发新品 当一个行业的开创者变得越来越不值钱,它的黄昏,就已经提前降临。 打开二手平台,GoPro当年的旗舰产品HERO4,当年国内零售价约3000-4500,如今150块就能拿下全套。 二手GoPro普遍定价在150-300元之间,即便品相较好的机型也难破500元大关,曾经的高端神器,如今沦为白菜价。 遥想十年前,GoPro称得上是运动相机的唯一答案。 可如今,信仰碎了,价格也崩了。 GoPro创始人尼克·伍德曼是个相当疯的富二代,年轻时痴迷冲浪,在他第一个创业公司失败之后干脆跑到海边冲浪6个月。 伍德曼在冲浪的时候他总是想如何能自拍,于是把胶片相机用胶带纸绑在手臂上。后来他问自己:为什么不把这个想法做成一门生意,于是拿着设计到深圳找代工厂。 那时候,没有人知道这台小玩意儿会改变整个影像行业。 2004到2014的十年间,在消费级运动相机领域,GoPro几乎没有对手。 2014年,刚刚提到的GoPro Hero4横空出世,3000元级别的定价,在当时的市场上几乎没有对手。 如何形容GoPro当时的地位呢?它发明了一种全新的视觉语言——第一人称视角的运动影像,让观看者感同身受地体验跳伞、潜水、滑雪、冲浪的刺激。 就连后来影石创始人刘靖康也承认,“GoPro对我们最大的启发就是0到1。没有它,就没有这个市场。” 极限运动爱好者人手一台,用它解锁各种“上帝视角”。 那时的GoPro,不仅是一台相机更是一种潮流符号,粉丝眼里,贵是就是信仰的成本。 GoPro上市时,全球市占率超过75%,市值一度冲破130亿美元,伍德曼身价超过30亿美元,被称为“极限运动界的乔布斯”。 看上去,GoPro正走在成为下一个苹果的路上,被媒体捧为“近年来最成功的科技企业”。 天要其亡,必使其狂。 或许是太寂寞,GoPro坚信自己也能拿下无人机市场,这就有了它跟大疆的第一次交锋。 2013年,当时名不见经传的大疆还只是一家中国小厂,大疆北美负责人靠着“堵门”和现场演示,为大疆争取到了和GoPro谈判合作的机会。 但当大疆创始人汪滔与伍德曼坐到一起,讨论合作开发无人机时,得到的结果却直接展示出GoPro的傲慢:GoPro希望无人机使用自己的品牌,大疆则沦为代工厂。 当时在技术上已能兼容GoPro的大疆显然无法接受这个角色,合作宣告破碎。 2016年,GoPro发布了首款无人机Karma。发布会上,伍德曼毫不掩饰对竞争对手的轻蔑,他坚信GoPro的品牌光环足以碾压任何对手。 后来的故事,果然走向了翻车。 Karma上市仅16天,就被曝出飞行中突然断电坠落的致命缺陷,已售出的2500架无人机被迫紧急召回。 傲慢的种子一旦被埋下,后果往往不堪设想。 自从2019年10月发布MAX后,这家曾经的行业标杆在全景相机领域陷入了长达近6年的“世纪空白”。 产品之败: 轻视的中国对手,双双反杀 就GoPro自认为打遍天下无敌手只是,曾经中国的两个“无名小辈”已经悄悄开始积蓄力量: 一个叫影石,一个叫大疆。 虽然两者的崛起路径各有不同,却共同讲述了中国制造如何在被视为“鼻祖”的品牌面前完成超越,把GoPro打的一蹶不振。 大疆的打法,用一个词概括就是:以高打低。 大疆入局运动相机领域,看似跨界,实则是精准布局。它没有盲目跟风GoPro的“单一相机”模式,而是将自身在无人机、云台领域的技术优势迅速放大,融入运动相机的研发中。 最终,打造出“运动相机+无人机+云台”的全生态体系。 人们发现,Pocket 3只需要两三千,就能拥有一个集支架+屏幕+镜头+云台的超级设备,出门拍摄连手机都不用掏。 Pocket 3简直就是性价比之王,拥有一台大疆=拥有富士+索尼。 而且跟操作复杂的Gopro相比,大疆把傻瓜式贯彻到极致——全身只有开关和录制键,屏幕和云台旋转都是触摸控制,和玩智能手机一样有手就会。 大疆正在围绕“空中-地面”影像生态构建完整的产品矩阵。 如果说大疆是“正面硬刚”,那么影石就是“侧翼突袭”。 2018年,当GoPro员工规模还在千人以上之时,影石的员工数量不足200人,如何以蚂蚁撼动大象呢? 影石的崛起,堪称“弯道超车”的典范。 它没有与大疆、GoPro在传统运动相机领域正面竞争,而是没有把技术束之高阁。 比如影石Insta360 X5发售时,纽约市民凌晨3点排队两条街,抢购中国相机。 影石首创了“隐形自拍杆”,自拍杆会在全景视频里消失,甚至可以模拟航拍视角,摄影师跟拍效果。 小小的全景相机,已然成了雪场硬通货,“滑雪人可以没有搭子,但不能没有Insta360。” 更狠的是,大疆和影石精准抓住了用户的核心需求。 如今的运动相机用户,早已不再局限于极限运动爱好者,更多的是普通消费者,用于记录Vlog、户外出行、家庭日常。 去年大疆Pocket3上市,有人发现它就是“古希腊掌管美颜的神”。 因为它采用焦距为20mm的广角镜头,可以把脸拍“小”,随手一拍既有拍立得的氛围感,又有富士相机的高级感,堪称无痛医美。 网友给了它对相机的最高评价:能还原浴室镜子里的美貌。 而影石全景相机也满足了年轻人抽象发疯的情绪价值,围着相机蹦跶几下,就能找到抽象的同道中人。 对比之下,GoPro的机型操作界面复杂,需要经过专业学习才能熟练使用,价格还高,而大疆、影石的机型,大多采用一键操作设计,新手也能快速上手。 2025年全球运动相机市场格局已发生根本性颠覆: 影石全年营收达到98.58亿元,同比增长76.85%,规模已经超过曾经的行业霸主GoPro一倍以上。 格局之败: 真正的较量,不于在搞死对手 关键的问题是,GoPro陨落之时,整个运动相机市场并未随之萎缩。 预计到2030年全球手持智能影像设备市场规模将达到799.3亿元,是个将近千亿的大生意。 面对中国对手的围剿,GoPro不是没有反抗过。 但它的反抗,选错了战场——它没有在产品力上发力,反而想尽办法阻止中国品牌的崛起。 2024年3月,GoPro向美国法院递交了一份不同寻常的“337调查”申请。 “337调查”并不罕见,但通常起诉方会一口气将多家竞争对手送上被告席。但GoPro选择只针对影石创新一家,将影石几乎全线产品都列为侵权对象,试图以法律手段遏制竞争对手。 这一举动不仅耗费了大量资源,也折射出GoPro在产品竞争层面已缺乏足够的自信。 从被诉到初裁应诉,影石创新仅有20天时间。 刘靖康后来回忆,“感受到了强烈恶意。”而为了应对这精准狙击的恶意封锁,影石创新花了超1000万美元与GoPro打专利战。 最终,中国影石赢了。 如今,影石创新所涉及的337调查已终结,其将持续不受限制地在美国进口和销售现有产品。 在大疆和影石纷纷不断推出新品期间,GoPro甚至开始“彻底摆烂”: 比如,2023年Hero 12为提升续航取消GPS功能,被用户吐槽牺牲核心体验; 再比如,价格和价值严重不对等。大疆Action 4售价仅为1998元,GoPro 的Hero 12价格依旧是3298元,且被吐槽无论外观、配置、升级微乎其微。 更头疼的是,售后流程异常繁琐,售后申请需通过邮件或官网提交,需上传故障视频,一堆证明材料,而且必须使用专用链接上传,基本都需要半个月的时间才能拿到维修好的产品。 GoPro的悲剧,不在于遇到了可怕的中国对手,而在于它自己,亲手关上了创新的大门,也亲手放弃了曾经属于自己的时代。 商业有时候就是这么残酷: 当鼻祖停止奔跑,就只能成为后来者的垫脚石。
为能在美国北达科他州直营卖车,特斯拉称自己“不是汽车制造商”
IT之家 4 月 16 日消息,据 Carscoops 报道,特斯拉仍在全美各州争取直营销售权,以取代长期存在的汽车经销商特许经营模式,而北达科他州是该公司最新的目标。 特斯拉公司正在起诉北达科他州,试图在俾斯麦和法戈开设直营店。目前,北达科他州禁止汽车制造商直接拥有经销商,要求车辆必须通过特许经销商销售。 在最新诉讼中,特斯拉声称,根据该州法律,自己不属于“汽车制造商”的定义范畴,该州法律将汽车制造商定义为组装或进口机动车,并将车辆出售给经销商进行转售的主体。 目前,特斯拉无法在该州销售车辆,潜在买家只能前往邻近州购买。 如果法院认定特斯拉符合当地对“制造商”的定义,特斯拉将请求为其破例。助理司法部长迈克尔・皮彻表示:“按照特斯拉的解读,任何制造商只要选择不授权特许经销商,就能规避这项法规。这将彻底破坏州议会设立的整个监管体系。” 皮彻补充道:“特斯拉可以和其他所有制造商一样在北达科他州开展业务。它们可以指定经销商、签订特许经营协议,并通过这种方式销售。因此,法规并没有剥夺特斯拉的经营权,只是规范了汽车的分销模式。” 据IT之家了解,北达科他州在电动汽车普及方面落后于美国大多数州。该州电动汽车销量占新车销量的比例不足 2%,全州仅有 277 个公共充电桩,其中特斯拉超级充电站仅 5 座。
OpenAI祭出GPT-5.4神装!Codex同款Harness全面开放
新智元报道 编辑:好困 【新智元导读】GPT-5.4真正的杀招终于落地!OpenAI连夜重写基建、原生收编七大沙盒,彻底封死第三方框架的活路。旧时代的聊天玩具已被抛弃,工业级Agent全面觉醒。 OpenAI不声不响,又下了一手狠棋。 就在刚刚,Agents SDK迎来一次彻底的架构重写。 原生harness、原生沙盒、Codex级的文件系统工具,外加七家头部沙盒厂商一键接入。 3月初,GPT-5.4带着原生computer use(计算机使用)高调登场时,开发者就已经吐槽过一件事。 模型能操作电脑了,可Agent跑在哪台电脑上、怎么保证跑起来不出事,还是得自己东拼西凑一套框架。 今晚这个缺口被OpenAI自己补上了。 一句话版本,OpenAI这次把Agents SDK从「聊天机器人的玩具」改造成了「生产级Agent的底座」。 harness负责控制流、模型调用、工具路由、暂停恢复;沙盒负责读写文件、装依赖、跑代码,两层彻底解耦。 更狠的是,这一刀同时砍在了LangChain、CrewAI、LangGraph这些第三方Agent框架身上。 OpenAI下场把基建层做了,留给第三方的空间,肉眼可见地在收窄。 从「聊天机器人的玩具」到生产级底座 讲这次升级之前,先得搞清楚原来的Agents SDK长啥样。 2025年3月,OpenAI第一次推出Agents SDK,主打轻量、少抽象、几行Python就能跑起来的卖点。 但这一版SDK,本质上是为聊天机器人场景做的。 一年多过去,模型在能力上的提升可谓是翻天覆地——一口气能跑几个小时、几天,甚至几周。 原来那套为聊天机器人设计的SDK,自然也就跟不上时代了。 这次的重写,主要做了两件事。 第一件,给模型配一个完整的运行框架——harness。 配置化记忆、感知沙盒的编排、类似Codex的文件系统工具、通过MCP调工具、通过skills渐进式披露信息、通过AGENTS.md自定义指令、用shell工具执行代码、用apply patch工具编辑文件,全部打包进SDK原生支持。 熟悉Claude Code和Codex的开发者看到这套清单会很眼熟。 没错,OpenAI这次是把自家Codex过去一年踩过的坑、积累的最佳实践,顺手产品化塞进了SDK。 第二件,把harness和compute彻底分离。 harness跑在你的可信基建里,管模型调用、审批、追踪、运行状态。compute是一个独立的沙盒,专门负责读写文件、跑命令、装包、吐产物。 两层之间的接口标准化,API key和敏感凭证压根儿不会进入模型生成代码实际执行的那个环境。 结果就是,沙盒里既没有API密钥,也没有任何敏感凭证。沙盒本身完全隔离,甚至可以和网络断开,没有任何对外流量。 这不是安全性能的小修小补。这是整个Agent架构的范式转移。 900页保险单100%提取 一半PR出自Agent harness/compute分离的第一个结果,是沙盒供应商的生态图一夜铺开。 这次发布,Blaxel、Cloudflare、Daytona、E2B、Modal、Runloop、Vercel七家沙盒厂商同时被写进官方支持列表。 七家能同时接入,关键在OpenAI给了一个叫Manifest的抽象层——一份描述Agent工作区的配置清单。 要挂载哪些本地文件、从哪个云存储拉数据、产物写到哪里,全写在这份Manifest里。AWS S3、Google Cloud Storage、Azure Blob Storage、Cloudflare R2全覆盖。 最关键的是这份Manifest和具体沙盒供应商解耦。 今天用E2B写的Agent,明天想换成Modal跑,不用重写代码,改一行配置。哪家沙盒便宜、哪家离数据近,就切到哪家。 官方给了一个最小示例。让一个Agent跑进本地沙盒,挂上一个财报目录,对比FY2025和FY2024的三项财务指标,核心代码不到20行。 # pip install "openai-agents>=0.14.0"import asyncioimport tempfilefrom pathlib import Pathfrom agents import Runnerfrom agents.run import RunConfigfrom agents.sandbox import Manifest, SandboxAgent, SandboxRunConfigfrom agents.sandbox.entries import LocalDirfrom agents.sandbox.sandboxes import UnixLocalSandboxClientasync def main() -> None:with tempfile.TemporaryDirectory() as tmp:dataroom = Path(tmp) / "dataroom"dataroom.mkdir()(dataroom / "metrics.md").write_text("""# Annual metrics| Year | Revenue | Operating income | Operating cash flow || --- | ---: | ---: | ---: || FY2025 | $124.3M | $18.6M | $24.1M || FY2024 | $98.7M | $12.4M | $17.9M |""",encoding="utf-8",)agent = SandboxAgent(name="Dataroom Analyst",model="gpt-5.4",instructions="Answer using only files in data/. Cite source filenames.",default_manifest=Manifest(entries={"data": LocalDir(src=dataroom)}),)result = await Runner.run(agent,"Compare FY2025 revenue, operating income, and operating cash flow with FY2024.",run_config=RunConfig(sandbox=SandboxRunConfig(client=UnixLocalSandboxClient()),),)print(result.final_output)if __name__ == "__main__":asyncio.run(main()) 另外两个对长跑任务格外关键的新能力是,让沙盒容器挂了也能从检查点续命的快照和状态恢复;以及解决扩展性问题的多沙盒并行+子Agent隔离环境。 由此,Agent第一次有了「掉线续命」和「分身作战」的原生能力。 在一篇技术长文中,Modal技术团队成员Erik Dunteman顺手透露了一个细节—— Ramp已经用Modal跑了一支后台编码Agent大军,公司超过一半的PR都是这些Agent自己创建的。 不仅如此,Stripe也在今年早些时候披露,内部的AI Agent每周产出超过1000个PR。 两家公司的共同点是,在拿到成熟Agent基建之后,业务团队的生产力出现了断层式跃迁。 如今,OpenAI把这些曾经只有头部公司才能攒出来的基建,变成了SDK里开箱即用的默认配置。 https://modal.com/blog/building-with-modal-and-the-openai-agent-sdk 对此,FurtherAI CTO Sashank Gondala披露,他们的Agent啃下了一份900多页的保险理赔记录,提取成功率100%。 900多页、100%、保险理赔记录,这三个词凑在一起的含金量老保险从业者一看就懂,业内最难啃的文档之一,以前跑到某一页崩掉是常态。 Tomoro AI研发工程师Douglas Adams给出了另一组硬数字,相同能力的Agent,这次需要的代码量比以前少了6倍。 Box开发者关系负责人Carter Rabasa,则传了一份业务数据并配上bash/python作为工具,让agent在沙盒里跑了一整套发票对账业务流程。 没想到,第一轮试水就跑通了。 沙盒对跑agent生成的代码来说非常完美。 OpenAI下场做基建 LangChain们无处躲 到这一层,这次发布对行业的冲击才真正显露。 LangChain、LangGraph、CrewAI、AutoGen这些第三方Agent框架,过去一年靠什么活着?答案是靠补齐OpenAI原生SDK不够「生产可用」的那块空白。 编排、记忆管理、护栏、追踪、多Agent协作,这些都是第三方框架的主战场。 现在,OpenAI一次性把这些主战场全接管了。 他们要做的就是Agent世界的基础设施层,第三方框架从此要么往更高层走(编排、垂直场景),要么往更低层走(专用沙盒、专用工具),夹在中间的那块地板,已经被OpenAI自己踩实了。 而且,OpenAI口中的「兼容所有沙盒服务商」,本身就是在把沙盒供应商纳入OpenAI的生态位。 今天可能还是OpenAI的合作伙伴,明天的身份很可能就只是OpenAI生态下的「组件供应商」了。 Python先行,TypeScript还在排队 虽然这一切目前还不完美。 harness和sandbox的新能力首发只上了Python,TypeScript版本排在后续更新计划里;SDK至今仍然停留在0.Y.Z版本号。 但方向已经非常清晰了。 GPT-5.4带着原生computer use登台,Agents SDK给它配齐了真正的运行环境。 下一步缺的,只是更多开发者把业务逻辑搭在这个基建之上。 从此,做Agent框架的创业公司会重新审视自己的定位。做沙盒的供应商开始算OpenAI流量能不能接得住。做业务层Agent应用的团队盘算要不要迁移。 GPT-5.4出厂那天被一些人说成是「没有惊喜的例行升级」。 40天后回头看,真正的惊喜今天才发。 参考资料: https://techcrunch.com/2026/04/15/openai-updates-its-agents-sdk-to-help-enterprises-build-safer-more-capable-agents/ https://modal.com/blog/building-with-modal-and-the-openai-agent-sdk https://openai.com/index/the-next-evolution-of-the-agents-sdk/ https://x.com/OpenAIDevs/status/2044466699785920937 https://x.com/snsf/status/2044514160034324793
全球媒体聚焦 | 中国经济一季度增长亮眼 出口和制造业持续发力
  国家统计局16日发布数据显示,今年一季度中国国内生产总值(GDP)同比增长5%,增速较上年四季度进一步加快。对此,外媒普遍认为,中国经济一季度实现稳健开局,整体表现超出市场预期,制造业、高技术产业和出口仍是主要支撑力量。   △英国广播公司(BBC)报道截图   英国广播公司(BBC)报道称,中国经济今年前三个月增速快于市场预期,较上一季度增速进一步回升,制造业是主要拉动力。报道援引布鲁金斯学会分析师的观点指出,汽车等产品出口表现亮眼,成为一季度数据中的突出看点。   △《华盛顿邮报》报道截图   美国《华盛顿邮报》指出,中国今年一季度经济数据优于经济学家预期,增速也高于去年四季度。报道认为,虽然中东局势升级推高能源价格,加剧全球通胀压力并拖累世界经济增长,但经济学家普遍预计,中国经济目前仍有能力应对这一冲击。   △《华盛顿邮报》报道截图   报道同时注意到,3月份中国工业增加值同比增长5.7%,强于市场预期,电子设备、汽车、半导体和机器人等产品的外部需求依然较强,出口仍将是今年推动中国经济的重要力量。   △《纽约时报》网站报道截图   《纽约时报》指出,今年一季度中国出口创下四年多来最快季度增速,其中电动汽车出口同比增长78%,锂电池出口增长50%。标普全球评级首席经济学家路易斯·库伊斯表示,海外需求正持续带动中国工厂运转,强劲出口已成为拉动工业生产和经济增长的关键力量。   △美国有线电视新闻网(CNN)报道截图   美国有线电视新闻网(CNN)也认为,中国电子机械产品出口强劲,推动中国经济在复杂外部环境下表现仍超出预期。   CNN报道认为,中国长期推动制造业向高附加值和高技术产品升级,以及在绿色技术领域持续发力,正成为支撑出口的重要基础。电动汽车、锂电池和风电设备等“绿色出口”继续走强,也被一些外媒视为中国抵御外部冲击的重要缓冲。   △彭博社网站报道截图   彭博社和路透社则注意到,高技术制造业继续成为中国经济的一大亮点。报道指出,高技术行业增势较快,工业机器人、集成电路等产品产量明显增长,制造业仍是当前中国经济增长的重要支柱。路透社援引市场人士的话称,这显示中国经济新动能正持续蓄力,高技术产业和出口韧性不断增强。   来源 | 总台环球资讯   撰稿 | 李修莉   签审 | 贾延宁   监制 | 蔡耀远
美联储《褐皮书》显示 中东战事致美国企业陷入观望模式 经济面临多重压力
  当地时间15日,美联储发布的4月经济形势报告《褐皮书》揭示了美国和以色列联合对伊朗发动的战事对美国本身产生的反噬效应。报告显示,中东战事已使众多美国企业陷入“观望”模式,能源和燃料成本的大幅攀升正不断挤压企业利润空间。   报告指出,中东战事被视为引发重大不确定性的关键因素,这使得企业在招聘、定价以及资本投资等关键决策上变得更为谨慎和复杂。许多企业纷纷表示,目前正采取观望态度,以评估局势进一步发展可能带来的影响。   自2月28日美国和以色列针对伊朗发动袭击,引发伊朗坚决抵抗,霍尔木兹海峡这一全球重要的能源运输通道几乎被完全封锁,国际油价一路飙升。这一变化不仅给那些经济脆弱且高度依赖该地区能源运输的国家带来了沉重压力,也对美国国内经济产生了显著冲击。   美联储《褐皮书》指出,在美国国内,美以伊战事引发的能源和燃料成本急剧上升,在美国迅速传导至经济的其他环节,导致货运和航运成本大幅提高,塑料、化肥等石油基产品的价格也随之水涨船高。更为广泛的是,其他各类商品价格也普遍呈现出上涨趋势。   报告显示:总体而言,投入成本的增长速度明显超过了销售价格的增长,企业利润空间因此受到严重压缩。这意味着企业在维持运营和盈利方面面临着更大的挑战,可能需要重新调整生产策略、控制成本或者寻找新的市场机会。   除了企业层面,消费者领域也受到了中东战事的波及。《褐皮书》指出,美国许多地区继续报告消费者财务压力增大、价格敏感度提高的情况。食品银行和其他社会服务组织的需求不断上升,反映出部分民众在经济压力下生活受到影响。不过,值得注意的是,高收入消费者的支出依然保持强劲,显示出不同收入群体在面对经济波动时的不同表现。此外,就业市场仍处于“冻结期”,企业停止扩张性招聘,同时,AI的广泛应用也对招聘决策模式产生了影响。   根据美国“联邦储备法”,美国全国划分为12个联邦储备区,每区设立一家联邦储备银行。该报告根据12家联邦储备银行的最新调查结果编制而成,也称《褐皮书》。作为美联储货币政策会议的重要参考资料,每年发布8次《褐皮书》,下次美联储货币政策会议将于4月28日至29日举行。   来源 | 总台环球资讯   编译 | 王全文   签审 | 李海霞   监制 | 蔡耀远
总台记者观察丨伊美临时停火截止日期将近 巴基斯坦展开密集斡旋
   总台记者 李健南:现在是当地时间16日14时30分,我正位于伊朗首都德黑兰。当地时间15日,由巴基斯坦陆军参谋长和巴基斯坦总理率领的两个代表团分别访问了伊朗和沙特,这一举措被外界普遍视为巴方为下一轮伊美谈判做出的斡旋努力。鉴于美以伊战争临时停火只有两周时间,随着停火截止时间越来越近,目前伊朗各界都在密切关注事态发展。   首先来看谈判进展情况。当地时间16号中午,伊朗谈判代表团团长、议会议长卡利巴夫与到访的巴基斯坦陆军参谋长穆尼尔在首都德黑兰举行了磋商和会晤。16日凌晨,卡利巴夫曾表示,黎巴嫩全面停火的完成与巩固,将是真主党的顽强抵抗和地区抵抗力量团结的结果。他强调,美国必须遵守相关协议,并应该纠正“以色列优先”的错误立场。此前,伊朗多次强调,停火协议必须包含停止针对黎巴嫩真主党的军事行动,这一条件也是伊朗参加谈判的先决条件。   再来关注伊朗军方的表态。伊朗最高领袖军事顾问雷扎伊在最新表态中指出,吸取以往谈判的经验,伊朗必须更加谨慎地起草相关协议,并重点关注经济问题,而与以往谈判中通常是美方提出先决条件不同,这次是伊朗提出了先决条件。雷扎伊强调,与害怕陷入长期战争的美国不同,伊朗已经做好了充分准备。伊朗军队发言人16日表示,伊朗武装部队已下达明确指令,如发生针对伊朗的地面入侵,将坚决予以反击。伊朗武装部队当前处于高度戒备状态。对其而言,停火与战争时并无太大区别。   伊朗政治分析人士贾拉勒指出,伊美首轮伊斯兰堡谈判表明,双方都在努力寻求平衡。但初始谈判中,双方往往都会提出最高的诉求,因此不应期待各方仅靠一轮谈判就达成协议。他指出,如果美国继续维持最高诉求,则地区或将再次陷入冲突,但如果各方都能保持必要的灵活性,且新的提议是基于寻求平衡的战略动机,则可以期待停火的延续。伊朗舆论普遍认为,尽管目前尚无证据表明伊朗可以对谈判前景持乐观态度,但谈判和外交磋商是结束战争和冲突的一个必要选项。(总台记者 李健南)
黄仁勋亲自“定义”英伟达:将“电子”转为“Token”的转换器
英伟达CEO黄仁勋用一句话定义了自己的公司:输入是电子,输出是Token,中间是英伟达。 4月15日,英伟达CEO黄仁勋接受播客主持人Dwarkesh Patel的深度访谈,内容涵盖英伟达的供应链护城河、TPU竞争威胁,以及英伟达为何不自己做云服务等问题。 英伟达:“电子”—“Token”转换器 访谈开篇,主持人提出了一个尖锐问题:英伟达本质上只是写软件,芯片由台积电制造,内存由SK 海力士、美光、三星提供,封装由台湾ODM厂商完成——如果软件被商品化,英伟达会不会也被商品化? 黄仁勋给出了他对英伟达最精炼的定义: 最终,需要有某个东西把电子转化成Token。把电子转化成Token,并且让这些Token随时间变得更有价值,这件事很难被完全商品化。 他进一步说:“输入是电子,输出是Token,中间是英伟达。我们的工作是尽可能高效地完成这一转化。” 在供应链层面,外界关注的焦点是英伟达的采购承诺规模——最新财报显示接近1000亿美元,行业分析机构SemiAnalysis预测这一数字未来可能达到2500亿美元。黄仁勋解释了这背后的逻辑: 如果未来几年是万亿美元规模,我们的供应链能支撑它。 他说,这种能力并非单纯来自合同,而来自对上游CEO的持续“告知、激励和对齐”——让他们看清AI产业的规模和方向,然后愿意为英伟达的需求进行投资。CoWoS封装是典型案例:两年前是全行业最紧缺的瓶颈,英伟达“连续几个翻倍”地扩产之后,现在已基本不再是话题。 他判断,供应链上的任何瓶颈都不会持续超过两三年:“EUV机器、逻辑产能、封装——这些东西都不难复制,只需要需求信号。”他认为真正的长期制约在下游:能源政策。“你不能在没有电力的情况下建立一个工业,这才是需要时间的事情。” TPU竞争:英伟达的计算栈是全球最佳性价比 云巨头(Hyperscalers)贡献了英伟达约60%的收入,但谷歌、亚马逊、甚至OpenAI等大客户都在加码自研TPU或其他ASIC芯片,这直接质疑英伟达的竞争地位。 黄仁勋的回应分两层。 第一层是定性区分:英伟达做的是“加速计算”,而不是专用张量处理单元。加速计算覆盖分子动力学、流体力学、数据处理、量子计算等几乎所有科学计算领域,远比AI更宽。 我们是唯一一家加速所有类型应用的公司。 第二层,黄仁勋称,球没有任何一个平台的性能和总拥有成本能优于英伟达,谷歌TPU、亚马逊Trainium都无法与之匹敌,我并不认可Trainium所宣称的40%成本优势。英伟达毛利率能达到70%,而ASIC芯片毛利率约为65%,企业替换产品并不能实现显著的成本节省。 英伟达的计算栈是全球最佳性价比,没有例外。没有一家公司能向我证明,今天世界上有任何平台的AI数据中心的总拥有成本(TCO)比我们更好。没有。Dylan的InferenceMAX摆在那里供所有人用,TPU不来,Trainium不来。 对于Anthropic大量使用TPU的问题,黄仁勋直接回应: Anthropic是一个特例,不是趋势。没有Anthropic,TPU的增长从哪里来?是100%来自Anthropic。没有Anthropic,Trainium的增长从哪里来?也是100%来自Anthropic。 他也坦承,早年未能及时向Anthropic进行战略投资是自己的判断失误: 当时谷歌和亚马逊AWS投入了大量资金,Anthropic因此使用了他们的算力。我当时没有深刻意识到,风投根本不可能给一家AI实验室投50亿、100亿美元。这是我的失误。但我不会再犯同样的错误。 目前,黄仁勋已分别对OpenAI和Anthropic进行了大规模投资,据报道金额分别高达300亿和100亿美元。 为什么不自己做云?“尽可能少做”是哲学 手握巨额现金流,英伟达近期频频向CoreWeave等初创云服务商提供资金和算力支持。市场猜测,英伟达是否会越过客户,亲自下场做超大规模云服务商,收取算力租用费? 黄仁勋的回答涉及公司哲学: 我们应该做尽可能必要的事,做尽可能少的事。我们做的这些事,如果我们不做,我真的相信它们就不会发生。但云服务?如果我不做,有人会来做的。 他举了CoreWeave、Nscale、Nebius等“新云”作为例子——这些公司若没有英伟达的早期投资和支持,根本不会存在。但英伟达的介入是“让生态繁荣”,而不是转行做金融租赁或云计算运营。 他对于“不挑赢家”也有明确表态:“当我投资其中一家,我会投资所有家。”理由是:英伟达自己当年在60家3D图形公司中几乎是被公认“最不可能活下来”的一家,“我有足够的谦逊来认识到这一点”。 坚守卖铲人定位,GPU分配绝不搞“价高者得” 在供需极度失衡的背景下,英伟达如何分配紧俏的GPU?黄仁勋明确否认了“价高者得”的市场传闻。 我们绝不会那样做,这是糟糕的商业行为。你定好价格,然后人们决定是否购买。 黄仁勋解释了英伟达的分配逻辑:优先考察客户的排产预测和采购订单(PO),其次看客户数据中心的就绪程度,最终遵循先到先得的原则。“我更希望成为行业可靠的基石。如果你下达了1000亿美元的AI工厂订单,没问题,全世界只有我们能给你这种确定性承诺。” 不会放弃全球第二大市场 针对当前的芯片出口管制,黄仁勋从商业与技术标准的角度表达了务实的看法。 他指出,算力只是AI产业的底层输入,当受到约束时,竞争对手可以通过堆叠更多能源、使用更多上一代芯片,以及优化算法来弥补硬件代差。 他表示,首先要认识到:中国并不缺芯片。他们拥有全球顶尖的计算机科学家,众所周知,这些AI实验室里的AI研究人员有相当大比例是中国人。他们拥有全球约50%的AI研究人员。 他们是竞争对手,我们希望美国胜出,但我认为进行对话和研究交流可能是最安全的做法。放弃整个市场不会让美国长期在技术竞赛中在芯片层、计算堆栈中获胜。这是一个事实。 CUDA生态系统与飞轮效应 英伟达的核心竞争壁垒就是成熟的开发者生态,GPU全球装机量达到数亿级别,应用场景实现全面覆盖。 行业发展飞轮效应清晰,依靠最大的装机量、可编程的架构、丰富的生态体系以及全球海量的AI公司,形成强劲发展动力。再加上性价比、能效、客户基数均处于全球领先地位,进一步推动发展飞轮持续运转。 架构优势与产品路线图 黄仁勋表示,传统摩尔定律每年性能增长约25%,想要实现10到100倍的性能飞跃,必须依靠算法与计算架构的双重革新。Blackwell架构的能效相比Hopper架构提升50倍,这一成果绝非单纯依靠晶体管进步就能实现,架构优化与计算机科学创新才是核心关键。该架构支持全流程可编程以及全栈协同设计,依托NVLink、Spectrum-X技术实现,没有CUDA生态根本无法完成。 对于产品路线图与发布节奏。黄仁勋透露,英伟达产品会保持年度稳定迭代,从Vera Rubin到Vera Rubin Ultra,再到Feynman,每年都会推出稳定升级的新品。同时我们是全球唯一一家,能够承接从1000万美元到1000亿美元任意规模AI算力订单的企业。 访谈文字实录(略有删减) 章节目录 (00:00:00) 英伟达最大的护城河,是否在于对稀缺供应链的掌控? (00:16:25) TPU能否打破英伟达对AI算力的垄断? (00:41:06) 英伟达为何不转型为超大规模云服务商? (01:35:06) 英伟达为何不同时开发多种不同的芯片架构? 00:00:00——英伟达最大的护城河,是否在于对稀缺供应链的掌控? Dwarkesh Patel 我们看到许多软件公司的估值大幅下跌,因为人们预期AI将使软件商品化。有一种可能过于简单的看法是:英伟达把GDS2文件发给台积电,台积电制造逻辑芯片和交换机,再与SK海力士、美光和三星生产的HBM一起封装,然后发往台湾的ODM厂商组装成机架。英伟达本质上是在做软件,而制造由他人完成。如果软件被商品化,英伟达是否也会被商品化? Jensen Huang 归根结底,总需要有某种东西把电子转化为Token。将电子转化为Token,并持续提升Token的价值,这件事很难被彻底商品化。这个转化过程本身就是一段了不起的旅程——让这个Token变得有价值,就像让一个分子比另一个分子更珍贵,让一个Token比另一个Token更珍贵。其中涉及的艺术性、工程智慧、科学原理和创新发明,我们正在实时见证这一切的发生。这个转化过程、这套制造体系、所有的科学积累,远未被深刻理解,这段旅程也远未结束。我不认为商品化会发生。 我们当然会持续提升效率。你描述问题的框架,正是我理解这家公司的方式:输入是电子,输出是Token,英伟达在中间。我们的职责是:在实现这种转化的过程中,做一切必要的事,同时尽可能少做。所谓"尽可能少做",就是凡是我不需要亲自完成的,我都找合作伙伴来做,纳入我的生态系统。 如果你今天审视英伟达,我们可能拥有全球最大的合作伙伴生态系统,上游有供应链,下游有所有计算机公司、应用开发者和模型创造者。AI是一块五层蛋糕,我们在整个五层都拥有生态系统。我们尽可能少做,但我们必须亲自完成的那部分,恰恰是极其困难的事,我不认为那会被商品化。 事实上,我也不认为企业软件公司或工具制造商会被商品化。如今大多数软件公司都是工具制造商,也有一些是工作流程编码系统。但就工具制造商而言,Excel是工具,PowerPoint是工具,Cadence做工具,Synopsys做工具——我看到的前景与很多人恰恰相反。我认为AI智能体的数量将会指数级增长,工具使用者的数量也将指数级增长,各类工具的实例数量极有可能会急速飙升。 Synopsys Design Compiler的实例数量很可能会急剧增加,使用平面规划器、布局工具和设计规则检查器的智能体数量也会如此。如今我们受限于工程师的数量,但将来,这些工程师将得到大批智能体的支持。我们将以前所未有的方式探索设计空间,而我们使用的,正是今天这些工具。 我认为工具使用的爆发将推动软件公司的价值飙升。之所以尚未发生,是因为智能体使用工具的能力还不够强。未来,要么这些公司自己打造智能体,要么智能体本身足够强大,能够运用这些工具。我认为两种情况都会发生。 Dwarkesh Patel 根据你们最新的财务文件,英伟达在晶圆厂、内存和封装方面的采购承诺接近1000亿美元。SemiAnalysis报道称,这类采购承诺总额将达到2500亿美元。有一种解读认为,英伟达真正的护城河,在于你们锁定了未来多年所需的稀缺元器件供应。竞争对手或许能做出一款加速芯片,但他们能拿到所需的内存来制造吗?能拿到逻辑芯片来制造吗?这真的是英伟达未来几年最大的护城河吗? Jensen Huang 这是我们能做、而他人难以复制的事情之一。我们在上游做出了巨大承诺,有些是你提到的显性承诺,有些则是隐性的。举个例子,上游的许多投资,是由我们的供应链合作伙伴主动做出的,因为我曾对那些CEO们说:"让我告诉你这个行业将会有多大,让我解释为什么,让我和你一起推演,让我展示给你我所看到的未来。" 正是通过这个告知、激励、与各行业上游CEO达成共识的过程,他们愿意做出投资。为什么他们愿意为我而不是为别人投资?因为他们知道,我有能力消化他们的产能,并通过我的下游渠道销售出去。英伟达的下游供应链规模和下游需求体量如此庞大,所以他们才愿意在上游持续投入。 看看GTC,人们惊叹于它的规模和与会者的构成——整个AI宇宙汇聚一堂,因为他们彼此都需要见到对方。我把他们聚在一起,让下游看到上游,上游看到下游,所有人共同见证AI的进步。更重要的是,他们都能亲眼看到那些AI原生公司、那些正在构建的AI初创企业,以及所有令人振奋的发展,亲身印证我所描述的一切。我花了大量时间,直接或间接地让我们的供应链、合作伙伴和生态系统,了解我们面前的机遇。 有人说,在大多数科技发布会上,都是一个接一个的公告,但我们的发布会总有一部分有些"折磨人",因为它更像是在传授知识。事实上,这正是我的用意。我需要确保整个供应链的上下游,以及整个生态系统,都理解即将到来的是什么,为什么会来,什么时候会来,规模会有多大,并且能够像我一样系统地进行推演。 关于你描述的护城河,我们之所以能够为未来做好准备,是因为:如果未来几年的规模达到万亿美元,我们有供应链来支撑它。没有我们的影响力和业务的高速运转——就像现金流带来供应链流动和业务周转——没有人会为一个业务周转率低的架构专门建设供应链。我们能够维持这种规模,恰恰是因为我们的下游需求如此旺盛,而他们看到了这一切,听到了这一切,一切都历历在目。这才使我们得以在如此规模上做成今天能做的事。 Dwarkesh Patel 我想更具体地了解,上游供应链能否跟上。多年来,你们的营收一直在逐年翻倍,每年向全球提供的算力也在以翻倍以上的速度增长。 Jensen Huang 而且在如今这个规模上继续翻倍,是真的了不起。 Dwarkesh Patel 正是如此。但再看逻辑芯片这一环——你们是台积电N3节点最大的客户,也是N2节点最大客户之一。根据SemiAnalysis的数据,AI今年将占N3产能的60%,明年将达到86%。你已经是多数,还怎么翻倍?又如何年复一年地持续下去?我们是否已经进入了一个AI算力增长必须因上游瓶颈而放缓的阶段?你有没有破局之法?归根结底,我们怎样才能每年新建两倍的晶圆厂? Jensen Huang 在某种程度上,瞬时需求始终大于全球的供给能力。在任何时刻,我们都可能受限于某一环节的产能——水暖工短缺就是个真实案例。 Dwarkesh Patel 水暖工要被邀请参加明年的GTC了。 Jensen Huang 其实这是个好主意。但瞬时需求大于总供给,本身是个好现象。你希望身处一个供不应求的行业,反过来才糟糕。如果某个特定元器件的缺口过大,整个行业就会蜂拥而至,集中攻克。举个例子,注意现在几乎没人再谈CoWoS了。 原因就在于过去两年我们已经全力以赴、连续翻倍地扩产。如今CoWoS的供给已经相当充裕。台积电现在明白,CoWoS的供给必须与逻辑芯片和内存的需求同步扩张,并以相同的节奏规模化CoWoS及未来的封装技术。这是一大进步——过去很长一段时间,CoWoS和HBM内存都是相当小众的专业品,但如今它们已经是主流计算技术,整个行业都意识到了这一点。 当然,我们现在也能对更广泛的供应链施加更大的影响。AI革命之初,我今天所说的这些话,五年前我就已经在说了。一些人相信了并付诸行动,比如Sanjay和美光团队。我至今清楚地记得那次会议,当时我明确说明了即将发生什么、为什么会发生,以及对今日的预判。他们真的All-in了,我们在LPDDR和HBM内存领域开展了深度合作,他们为此大力投资,这对美光来说显然是一段非凡的旅程。有些人来得稍晚,但现在他们都到位了。 每一个瓶颈都会受到高度关注,而我们现在已经提前数年预判下一个瓶颈。比如,过去几年我们在Lumentum、Coherent以及硅光子生态系统上的投资,从根本上重塑了供应链。我们围绕台积电构建了一整套供应链,与他们合作推进COUPE项目,发明了一系列新技术,并将这些专利授权给整个供应链,以保持其开放性。 我们通过发明新技术、新工艺、双面探针测试等新型测试设备,以及投资企业、帮助其扩大产能等方式,主动塑造生态系统,确保供应链随时准备好支撑所需的规模。 Dwarkesh Patel 有些瓶颈似乎比其他的更容易解决。扩大CoWoS产能,对比扩大—— Jensen Huang 我直接说最难的那个。 Dwarkesh Patel 是什么? Jensen Huang 水暖工,还有电工。这也是我对"末日论者"渲染工作终结、大规模失业的说法感到担忧的原因之一。如果我们把人吓退出软件工程这个行业,我们就会面临软件工程师短缺的问题。十年前也有过类似的预言——有些末日论者告诉大家,无论如何都不要去做放射科医生。你或许还能在网上找到这些视频,声称放射科会是第一个消亡的职业,世界将不再需要放射科医生。现在我们短缺的是什么?恰恰是放射科医生。 Dwarkesh Patel 回到刚才关于哪些东西可以扩展、哪些不能的话题——逻辑芯片的产量,究竟如何实现每年翻倍?归根结底,内存和逻辑芯片的产能都受限于EUV光刻机。我们怎样才能每年拥有两倍的EUV机器? Jensen Huang 这些都不是短期内无法快速扩展的问题。在两三年内完全可以实现,关键是要有明确的需求信号。一旦你能造出一台,就能造出十台,造出十台就能造出一百万台。这些东西并不难复制。 Dwarkesh Patel 你会深入到供应链的哪个层级去沟通?比如,你会直接去找ASML说:"如果三年后英伟达要做到年营收两万亿美元,我们需要更多的EUV光刻机"吗? Jensen Huang 有些情况需要我亲自去沟通,有些可以间接推动,还有些……如果我能说服台积电,ASML自然也会被说服。我们需要着眼于关键的瓶颈节点——而如果台积电已经信服,几年内就会有充足的EUV机器。 我的核心观点是,任何一个瓶颈的持续时间都不会超过两三年。与此同时,我们持续将计算效率提升10倍、20倍,从Hopper到Blackwell甚至提升了30到50倍。我们通过CUDA的高度灵活性持续推出新算法,开发各种新技术,在扩大产能的同时不断驱动效率提升。这些问题我都不担心。真正令我忧虑的是我们下游的问题——能源政策阻碍了能源的发展,而没有能源,什么产业都建不起来。 我们希望重新工业化美国,希望带回芯片制造、计算机制造和封装产业,希望构建新兴产业,比如电动汽车、机器人和AI工厂。而这一切都离不开能源,能源基础设施的建设需要很长时间。相比之下,扩大芯片产能是一个两到三年的问题,扩大CoWoS产能也是两到三年的问题。 Dwarkesh Patel 有意思。我感觉有些嘉宾告诉我的恰好相反,但在这个问题上,我自己没有足够的专业知识来判断谁对。 Jensen Huang 好在这次你在和行家聊。 00:16:25——TPU能否打破英伟达对AI算力的垄断? Dwarkesh Patel 说得对。我想谈谈你的竞争对手。看全球排名前三的模型,Claude和Gemini这两个,可以说都是在TPU上训练的。这对英伟达的未来意味着什么? Jensen Huang 我们做的是截然不同的东西。英伟达做的是加速计算,而不是张量处理器。加速计算的应用范围极为广泛:分子动力学、量子色动力学、数据处理、数据框架、结构化数据、非结构化数据、流体动力学、粒子物理——此外,我们也将它用于AI。 加速计算的多样性要丰富得多。虽然AI是当下最热门的话题,影响力也显而易见,但计算的外延远比AI宽广。英伟达从根本上重新定义了计算范式,从通用计算转向加速计算。我们的市场覆盖范围,远超任何TPU或ASIC所能企及的边界。 从我们的定位来看,英伟达是唯一一家能够加速各类应用的公司,我们拥有庞大的生态系统,各类框架和算法都能在英伟达上运行。 因为我们的计算平台本就设计为可供他人运营,任何运营商都可以直接购买我们的系统。而那些自研系统,则大多只能自己运营,因为它们从未被设计成足够灵活、可供第三方运营的形态。正因为任何人都可以运营我们的系统,我们得以进驻每一朵云——包括谷歌、亚马逊、微软Azure和OCI。 如果你想以出租方式运营,就需要跨越众多行业拥有庞大的客户生态作为消化方。如果你想自己运营,我们完全有能力帮你实现,就像我们为马斯克的xAI所做的一样。而且,因为我们能够支持任何公司、任何行业的运营者,你可以用它为礼来这样的药企建造一台超级计算机,用于科学研究和药物发现,帮助他们自主运营,并将其应用于整个药物研发和生命科学领域——而这些,恰好都是我们能够加速的领域。 有大量TPU根本无法处理的应用场景,我们都可以覆盖。英伟达在CUDA上构建出了出色的张量处理能力,同时也涵盖了数据处理、计算和AI的完整生命周期。我们的市场机遇更大,覆盖范围也更广。正因为我们支持世界上几乎所有应用,英伟达的系统可以部署在任何地方,并且都能找到用户,这是一种完全不同的竞争格局。 Dwarkesh Patel 这是一个比较长的问题。你们营收惊人,但你们一个季度赚600亿美元,不是靠制药或量子计算,而是因为AI是一项前所未有、以前所未有的速度增长的技术。 问题在于,什么才是真正最有利于AI本身的?我自己没有深入研究过,但我的AI研究员朋友们说:"当我用TPU的时候,它是一个巨大的脉动阵列,非常适合做矩阵乘法;而GPU非常灵活,特别适合有大量分支或不规则内存访问的情形。" 但AI到底是什么?就是一遍又一遍、非常规律地做矩阵乘法。你不需要为线程调度器或线程与内存库之间的切换牺牲任何芯片面积。而TPU恰恰就是针对这一需求——当前算力需求增长最快的那部分——高度优化的。我很好奇你对此有何看法。 Jensen Huang 矩阵乘法是AI的重要组成部分,但不是全部。如果你想开发新的注意力机制、以不同方式进行解耦,或者发明全新的架构——比如混合SSM——你就需要一个通用可编程的架构。如果你想创建一个融合扩散模型和自回归技术的模型,你也需要一个通用可编程的架构。我们可以运行你能想到的任何算法,这正是核心优势——它让新算法的发明变得更加容易,因为它是一个可编程系统。 正是这种发明新算法的能力,推动着AI如此迅速地向前演进。TPU和所有其他东西一样,受到摩尔定律的约束,而摩尔定律每年带来的提升大约只有25%。想要实现10倍乃至100倍的飞跃,唯一的途径是每年从根本上改变算法及其计算方式。 这就是英伟达的根本优势所在。我们之所以能让Blackwell比Hopper提升50倍,正源于此——当我最初宣布Blackwell的能效将比Hopper提升35倍时,没有人相信。后来Dylan写了一篇文章,说我保守估计了,实际上是50倍。单靠摩尔定律是不可能做到这一点的。我们解决这个问题的方式,是通过新的模型架构,比如MoE——它在一套计算系统中实现了并行化、解耦和分布式部署。如果没有CUDA的可编程性来做到这一点,我甚至不知道该从哪里下手。 Dwarkesh Patel 这触及了一个关于英伟达客户群的有趣问题。你们60%的营收来自五大超大规模云服务商。在早期不同的客户群体中——比如做实验的教授——他们需要CUDA,无法使用其他加速器,只能在CUDA上运行PyTorch,依赖全套优化。 但这些超大规模云服务商有资源自己写内核。事实上,为了在自家特定架构上榨出最后5%的性能,他们也不得不这样做。Anthropic和谷歌主要运行自家加速器和TPU、Trainium。就算是使用GPU的OpenAI,也有Triton——因为他们需要自己的内核。他们直接写到CUDA C++层面,不用cuBLAS和NCCL,而是构建了一套可编译到其他加速器的自有技术栈。 如果你大部分的主要客户都能、并且确实在为自己的CUDA替代方案,CUDA究竟在多大程度上还是让前沿AI在英伟达上发生的真正动因? Jensen Huang CUDA是一个内容极为丰富的生态系统。如果你想要在任何计算机上率先构建,优先基于CUDA来开发,是极为明智的选择。因为生态系统如此丰富,我们支持所有框架。如果你想创建自定义内核——我们对Triton的贡献也是巨大的,Triton的后端蕴含着大量英伟达的技术。 我们很乐意帮助每一个框架发挥到极致。框架的种类繁多:Triton、vLLM、SGLang等等。如今还有一批新的强化学习框架涌现,比如verl和NeMo RL,后训练和强化学习整个领域正在爆炸式发展。所以,如果你想在某个架构上构建,首选CUDA是最明智的,因为你知道这个生态系统足够成熟。 你知道,一旦出现问题,更可能是你自己的代码,而不是底层那座代码山。在构建这些系统时,当某个地方无法运行,到底是你的问题,还是计算机的问题?你希望问题永远在你这边,希望能信任这台计算机。当然,我们自己也还有很多bug,但我们的系统经过了充分的验证,至少可以作为可靠的基础。这是第一点:生态系统的丰富性、架构的可编程性,以及整体的能力深度。 第二点是,对于任何开发者来说,最重要的事情是安装基础。你希望自己写的软件能在尽可能多的计算机上运行,因为你不只是在为自己开发,而是在为自己的集群,或者作为框架开发者,为其他所有人的集群开发。英伟达的CUDA生态系统,是我们真正的核心财富。 如今,我们大约有数亿张GPU分布在世界各地,每一朵云都有。从A10、A100、H100、H200,到L系列、P系列,各种型号、各种规格都有。如果你是一家机器人公司,你希望这套CUDA技术栈能直接运行在机器人本身上。我们已经无处不在。庞大的安装基础意味着,一旦你开发了某个软件或模型,它就能在任何地方发挥价值,这本身就是极其宝贵的。 最后,我们存在于每一朵云中,这使我们真正做到了独一无二。如果你是一家AI公司或开发者,你不一定清楚自己将来会与哪家云服务商深度合作,或在哪里运行。我们到处都能跑,包括本地部署。生态系统的丰富性、安装基础的广泛性,以及部署地点的多样性,共同铸就了CUDA无可替代的价值。 Dwarkesh Patel 这很有道理。我想追问的是,这些优势对你的主要客户来说是否真的举足轻重。在大多数情形下,真正有能力自己搭建整套软件栈的人——比如那些超大规模云服务商——恰恰贡献了你们大部分的营收。 尤其是进入一个AI越来越擅长处理"强验证闭环"任务的世界——比如通过强化学习来优化内核性能,因为你可以对结果进行验证——那么,如何在规模化的前提下,为注意力机制或MLP写一个在各种配置下都最高效的内核,这是一个非常可验证的反馈闭环。 超大规模云服务商都能自己写这些内核。英伟达在性价比上依然很强,所以他们可能仍然倾向于选择英伟达。但问题在于,这是否会变成一场单纯拼规格的竞争——谁在同样的价格下能提供更好的算力和内存带宽?历史上英伟达之所以能够拥有整个AI产业中最高的70%以上的毛利率——横跨硬件和软件——正是凭借CUDA的护城河。那么,当你的大多数主要客户都有能力自建替代方案时,你能守住这样的利润率吗? Jensen Huang 我们派驻到各个AI实验室的工程师数量之多,令人咋舌——他们就在那里,与实验室团队并肩工作,持续优化技术栈。原因很简单:没有人比我们更了解自己的架构。这些架构并非像CPU那样的通用平台。CPU有点像一辆凯迪拉克,舒适、稳健,永远不会太快,大多数人开起来都轻松自如,有巡航控制,一切都很简单。但在很多层面上,英伟达的GPU和加速器更像F1赛车——以时速160公里驾驶它或许谁都能做到,但要真正把它推到极限,需要相当深厚的专业功底。我们大量运用AI来打造我们的内核。 我相当确信,我们在相当长的时间内仍然是不可或缺的。我们的专业能力能帮助AI实验室合作伙伴轻松从技术栈中榨出额外的2倍性能。我们经常见到这种情况:当我们完成技术栈或特定内核的优化之后,他们的模型加速了3倍、2倍或50%。这是一个巨大的数字,尤其当你考量到他们庞大的硬件规模——那些Hopper和Blackwell的集群——性能提升两倍,就等于营收翻倍,直接转化为收入增长。 英伟达的计算技术栈在全球范围内拥有最佳的总拥有成本(TCO)性价比,没有例外。没有任何一个平台能向我证明,今天全球存在比我们更优的性能/TCO比。没有一家。事实上,相关基准测试公开摆在那里:Dylan的InferenceMAX就在那,所有人都可以用,但没有一家——TPU不来,Trainium也不来。 我一直鼓励他们使用InferenceMAX,来展示他们出色的推理成本。但这很难,没有人愿意出现。MLPerf也是如此。我非常欢迎Trainium来证明他们一直宣称的那40%,我也很想看看TPU在成本优势上的实际表现。这在我看来毫无道理,从第一性原理出发根本说不通。 所以,我认为我们之所以如此成功,根本原因就在于我们的TCO是极其出色的。其次,你说60%的客户是前五大云服务商,但其中大部分业务是面向外部客户的。比如,英伟达在AWS上的大部分,是为外部客户服务的,而非AWS自用。英伟达在Azure上的客户,显然都是外部客户。在OCI上的客户,也都是外部客户,并非自用。他们之所以偏爱我们,是因为我们的覆盖范围极其广泛,能够为他们带来全球最优质的客户群。这些公司都建立在英伟达之上,而原因正是我们无可比拟的覆盖面与灵活性。 所以,我认为这个飞轮的运转逻辑,是:安装基础、架构的可编程性、生态系统的丰富性,以及全球AI公司的数量。如今有数以万计的AI公司,如果你是其中一家,你会选择哪种架构?你会选择全球最普及的那个——我们是最普及的;你会选择安装基础最大的那个——我们拥有最大的安装基础;你会选择生态系统最丰富的那个。 这就是飞轮。我们的每美元算力性价比极高,客户能以最低的成本生产Token;我们的每瓦算力性能全球最强——如果我们的合作伙伴建造一座1吉瓦的数据中心,这1吉瓦必须要产生最大的营收和Token数量。你希望它产出尽可能多的Token,让这座数据中心的收益最大化——我们拥有全球每瓦Token产出最高的架构。最后,如果你的目标是出租基础设施,我们在全球拥有最多的客户,这就是飞轮得以运转的原因。 Dwarkesh Patel 有意思。问题归根结底是:实际的市场格局是怎样的?即便有其他公司存在,也可以存在一个数以万计的AI公司大致均等地分配算力的世界。但即使通过这五大超大规模云服务商,真正使用那些算力的,也是Anthropic、OpenAI以及这些大型基础模型实验室——它们本身就有资源和能力,让不同的加速器跑通自己的模型。 Jensen Huang 不,我认为你的前提是错误的。 Dwarkesh Patel 也许吧。但让我换个角度问你。 Jensen Huang 回头记得让我来纠正你的前提。 Dwarkesh Patel 好的。让我先换一个问题。 Jensen Huang 但一定要记得让我回来纠正,因为这对AI太重要了,对科学的未来太重要了,对这个行业的未来太重要了。这个前提…… Dwarkesh Patel 让我先把问题说完,然后我们一起来讨论。 Jensen Huang 好。 Dwarkesh Patel 如果你所说的这些关于价格、性能、每瓦性能等等都是事实,你认为为什么Anthropic就在几天前宣布了一项与Broadcom和谷歌合作、涉及多吉瓦规模、大量使用TPU的计算协议?对谷歌来说,TPU显然是主流算力。所以当我审视这些大型AI公司时,它们的相当大一部分算力……曾经全是英伟达,但现在已经不是了。如果这些优势都是真实存在的,那我很想知道,为什么它们会选择其他加速器? Jensen Huang Anthropic是个特殊案例,不代表趋势。如果没有Anthropic,TPU的增长从何而来?那100%是Anthropic带动的。如果没有Anthropic,Trainium的增长从何而来?也是100%来自Anthropic。我认为这一点大家都相当清楚。这并不说明ASIC机会遍地开花,只是恰好有Anthropic这样一家公司存在。 Dwarkesh Patel 但OpenAI和AMD有合作,他们也在自研Titan加速芯片。 Jensen Huang 是的,但我想大家都承认,他们仍然以英伟达为主。未来我们还会一起做很多工作。别人尝试其他方案,我并不介意。如果他们不去尝试,又怎么知道我们有多好?有时候需要对比才能体会到。我们必须持续赢得现有的地位。 总会有很多宏大的声明,但看看有多少ASIC项目已经被取消。仅仅是打算造一块ASIC,你还得造出比英伟达更好的东西。造出比英伟达更好的东西,并不那么容易,说实话,并不容易。英伟达必然是某个地方存在明显短板,才能被超越。凭借我们的规模和速度,我们是全世界唯一一家每年都在持续突破、每年都有重大飞跃的公司。 Dwarkesh Patel 我想他们的逻辑是:"它不需要更好,只要别比英伟达差70%就行",因为他们在给你付70%的利润率。 Jensen Huang 别忘了,ASIC的利润率也相当高。英伟达的毛利率比如说是70%,ASIC的毛利率大概是65%,你真正省下来多少? Dwarkesh Patel 你是说像Broadcom这样的公司吗? Jensen Huang 是啊。你总得付给谁。据我所知,ASIC的利润率极为可观,他们自己也心知肚明,对自己出色的ASIC利润率相当引以为豪。 说到你问的"为什么",很久以前,我们在财务上就是没有能力这样做。当时,我也没有深刻意识到,打造一家像OpenAI和Anthropic这样的基础AI实验室有多艰难,以及它们需要供应商本身做出巨额投资。我们当时根本没有能力向Anthropic投入数十亿美元,支持他们使用我们的算力。但谷歌和AWS做到了。他们从一开始就大力投资,换来的是Anthropic使用他们的算力。我们当时真的没有那个能力。 我说自己的失误,在于没有深刻认识到:他们其实别无选择,风险投资根本不可能向一家AI实验室投入五十亿甚至一百亿美元,指望它成为另一个Anthropic。这是我的疏漏。但即使当时我看清楚了,以英伟达彼时的规模,也未必能做到。不过这个错误我不会再犯了。 我很高兴能够投资OpenAI,很高兴帮助他们扩大规模,我也认为这是必须做的事。后来当Anthropic向我们走来的时候,我也很高兴成为他们的投资人,帮助他们扩大规模。只是在那时,我们确实没有能力这样做。如果可以把一切倒回去——如果当年英伟达就像今天这么大——我会毫不犹豫地去做。 00:41:06——英伟达为何不转型为超大规模云服务商? Dwarkesh Patel 这其实相当耐人寻味。多年来,英伟达一直是AI领域赚钱最多的公司,现在你们开始把这些钱投出去。据报道,你们在OpenAI投入了高达300亿美元,在Anthropic投入了100亿美元。但如今它们的估值已经大幅攀升,而且相信还会继续上涨。 这么多年来,如果你们一直在为它们提供算力,也清楚地看到行业走向,而它们的估值在几年前——或者就在一年前——还只有今天的十分之一,而你们又握有大量现金,那么完全可以有另一种选择:要么英伟达自己成为一家基础模型实验室,要么以现在更低的估值更早做出这些投资。你们完全有这个财力。所以我很想知道,为什么没有早点这样做? Jensen Huang 我们在能够做的时候就做了。在条件允许的那一刻,我们就行动了;如果能更早,我会更早。在Anthropic需要我们出手的时候,我们在财务上和认知上都没有准备好。 Dwarkesh Patel 怎么说?是资金问题吗? Jensen Huang 是投资规模的问题。当时我们从未在公司外部做过这个量级的投资,也没有意识到这样做是必要的。我一直以为他们可以去找风险投资,就像所有公司那样。但他们想做的事,根本不是通过VC能够完成的。OpenAI想做的事,VC也做不到。这一点我现在明白了,但当时不知道。 这正是他们的高明之处,也是他们的智慧所在。他们当时就意识到必须走这条路。我为此感到高兴。即使因为我们的缺席,Anthropic不得不转向其他方,我仍然为这件事感到庆幸。Anthropic的存在对这个世界是一件好事,我真心希望它存在。 Dwarkesh Patel 不过你们现在仍在大量赚钱,而且季度利润还在持续增长。 Jensen Huang 即便如此,还是可以有遗憾的。 Dwarkesh Patel 那问题仍然存在。好,现在我们来到了今天这个节点,手握越来越多的现金,英伟达接下来应该怎么用这些钱?有一种选择是:如今已经形成了一个专门将资本支出(CapEx)转化为运营支出(OpEx)的中间商生态系统,这些新型云服务商可以为AI实验室提供算力出租服务。因为芯片价格昂贵,但在整个生命周期内盈利丰厚,而AI模型不断进步,使得它们生产的Token价值持续提升。这些芯片部署成本高,但英伟达有钱来承担这笔CapEx。据报道,你们还在为CoreWeave提供高达63亿美元的背书,并已投资20亿美元。 英伟达为什么不自己做云服务?为什么不自己成为超大规模云服务商,直接出租这些算力?你们有足够的现金。 Jensen Huang 这是公司的经营哲学,我认为它是正确的:做一切必要的事,尽可能少做。这意味着,我们在构建计算平台这件事上所付出的努力,如果不是我们来做,我真诚地相信,没有人会去做。如果我们不承担我们承担的风险——如果我们没有以那样的方式构建NVLink,没有构建整个技术栈,没有打造那个生态系统,没有在二十年里持续耕耘CUDA并在大部分时间里处于亏损——如果我们当初没有这样做,没有人会这样做。 如果我们没有创建所有CUDA-X领域专用库——十五年前我们就开始推进领域专用库的建设,因为我们意识到如果不这样做,无论是光线追踪、图像生成,还是早期的AI模型,还是数据处理、结构化数据处理、向量数据处理,这些库如果不是我们来做,没有人会做。我对此深信不疑。我们为计算光刻创建了cuLitho这个库,如果不是我们,也不会有人做。所以,如果我们没有做这些工作,加速计算就不会取得今天的进展。 这些事,我们应该做。我们应该全力以赴,倾公司之力去做。但是,世界上有很多云服务。即使我们不做,也会有人站出来做。所以,遵循"做必要的事、尽可能少做"这一哲学,我用这个视角审视我做的每一件事。 具体到云服务商,如果不是我们支持CoreWeave的存在,这些新型AI云就不会存在。如果不是我们帮助CoreWeave起步,它们就不会有今天。如果不是我们支持Nscale,它们不会走到今天。如果不是我们支持Nebius,它们也不会有今天的成就。现在它们都做得非常出色。 这是一个我们应该投入的商业模式吗?我们做必要的事,尽可能少做。我们投资生态系统,是因为我希望生态系统繁荣,希望这个架构和AI能够连接尽可能多的行业和国家,让整个星球都能建立在AI之上,建立在美国技术栈之上。这正是我们追求的愿景。 我提到的另一件事是,有这么多出色的基础模型公司,我们尽力投资所有的公司。这是我们做事的另一个方式:不挑赢家。我们需要支持所有人。这既是我们乐于做的,也是我们业务上的迫切需要。但我们也刻意不去挑赢家。所以每当我投资其中一家,我也会投资其他所有家。 Dwarkesh Patel 为什么你特别刻意地不去挑赢家? Jensen Huang 第一,这不是我们的职责。第二,英伟达刚成立时,市场上有60家3D图形公司,我们是唯一一家存活下来的。如果当时有人要从这60家里预测谁能最终胜出,英伟达大概会排在最不可能的那一梯队。 这是在你出生之前的事了,但英伟达当年的图形架构方向是"恰好走错了"——不是稍微偏了点,而是完全走错了方向。我们从扎实的第一性原理出发来推演,但最终走到了一个错误的答案,开发出了一个开发者几乎无法支持的架构,看起来毫无未来可言。当时每个人都会把我们排除在外。但你看,我们在这里。 这份经历让我有足够的谦逊去认识到:不要挑赢家。要么放手让他们各自证明自己,要么把所有人都扶持起来。 Dwarkesh Patel 有一件事我没明白。你说,"我们支持这些新型云服务商,并不只是为了扶持他们而扶持他们。"但紧接着你又列举了一批新型云服务商,说如果没有英伟达,它们就不会存在。这两句话怎么能并立? Jensen Huang 首先,他们自己要有存在的意愿,要主动来寻求我们的帮助。当他们有意愿存在、有商业计划、有专业能力和热情,也具备必要的实力,但在起步阶段需要一些投资才能落地时,我们会在那里。但我们的目标是,他们的飞轮越快自转越好。 你的问题是,我们是否想做融资业务?答案是不。有专门做融资的机构,我们宁愿与所有这些机构合作,而不是自己成为一个融资方。我们的目标是专注于我们所做的事,保持商业模式的简洁,支持我们的生态系统。 当OpenAI这样的公司在IPO之前需要三百亿美元规模的融资,而我们深信他们,深信他们已经是一家非凡的公司、将来也必然是一家卓越的公司,世界需要他们存在,我也需要他们存在,他们有强劲的发展势头,那就让我们支持他们,帮助他们扩大规模。这样的投资我们会做,因为他们需要我们。但我们并不是努力做尽可能多的事——我们是做尽可能少的事。 Dwarkesh Patel 这也许是个显而易见的问题,但我们已经在这种GPU短缺的状态下生活了好多年,随着模型不断进步,这种短缺还在加剧。 Jensen Huang 我们确实面临GPU短缺。 Dwarkesh Patel 是的。英伟达以非单纯竞价方式来分配稀缺的配额,而是会说:"我们希望确保这些新型云服务商存活下去,给CoreWeave一些,给Crusoe一些,给Lambda一些。"这对英伟达有什么好处?首先,你是否认同我这个"分散市场"的描述? Jensen Huang 不。不,你的前提是错的。我们对这些事情相当用心。首先,如果你不下采购订单,说再多也没用。在我们收到采购订单之前,我们能做什么?所以,第一件事是我们与各方努力完成预测,因为这些东西需要很长时间来制造,数据中心的建设也需要很长时间。我们通过预测来对齐供需关系,这是第一要务。 第二,我们努力与尽可能多的合作伙伴完成预测,但归根结底,你还是必须下订单。也许因为某种原因,你没有及时下单,我能怎么办?到了某个节点,就要先来先得。但除此之外,如果你因为数据中心没有准备好,或者某些组件还没到位,暂时无法搭建数据中心,我们可能会决定先服务另一个客户,这是为了最大化我们自己工厂的产出,我们可能会做一些这样的调整。 除此之外,排序原则就是先来先得,你必须下采购订单。当然,网上有各种传言,比如那篇关于Larry Ellison和埃隆·马斯克与我共进晚餐、向我"乞讨"GPU的文章。这从来都没有发生过。我们确实一起吃了晚饭,那是一顿很愉快的晚餐,但他们从始至终没有"乞讨"过GPU,他们只是下了订单而已。一旦他们下了订单,我们就会尽力满足产能。我们没有那么复杂。 Dwarkesh Patel 好的。听起来,流程上有一个队列,根据你的数据中心是否准备就绪,以及你何时下了采购订单,来决定供货时间。但这听起来并不是价高者得。有什么原因不这样做吗? Jensen Huang 我们从来不这样做。 Dwarkesh Patel 好的。 Jensen Huang 从来不。 Dwarkesh Patel 为什么不直接价高者得? Jensen Huang 因为这是不好的商业行为。你定好价格,客户决定买不买。我知道芯片行业有人在需求旺盛时涨价,但我们从来不这样做,这从来就不是我们的做法。你可以信赖我们。我更希望成为行业的基石,一个可以依赖的存在。你不需要猜测。我给你报了一个价,就是这个价,就算需求冲到天上也好,随它去。 Dwarkesh Patel 另一面,这也是你们与台积电保持良好关系的原因,对吧? Jensen Huang 是的,英伟达与台积电的合作已经差不多三十年了。英伟达和台积电之间并没有正式的法律合同,有时我占了便宜,有时我吃了亏,但总体而言,这段关系非常出色,我可以完全信任他们,完全依赖他们。 英伟达有一件事你可以确定:今年,Vera Rubin会非常出色;明年,Vera Rubin Ultra会来临;后年,Feynman会到来;再下一年,我还没公布名字。你可以每年都指望我们。全球你去找另一个ASIC团队,任何一个,你能说"我可以把我的全部身家都押在你身上,相信你每年都会出现,每年的Token成本都会下降一个数量级,我可以像信赖时钟一样信赖你"——我刚才说的是台积电,历史上没有哪家晶圆厂能让你这么说,但今天你可以这样说英伟达。 如果你想购买价值10亿美元的AI算力工厂,没问题;1亿美元,没问题;1000万美元或一个机架,没问题;一张显卡,也没问题;想下一笔1000亿美元的AI算力工厂订单,没问题。今天全球只有我们一家公司可以这么说。 我对台积电也一样:买一台,买十亿台,没问题,只需要走正常的计划流程。英伟达作为全球AI产业基石的地位,是用数十年的巨大承诺和奉献换来的。我们公司的稳定性和一致性,是极其重要的。 关于中国竞争 Dwarkesh Patel 好,我想聊聊中国这个话题。 Jensen Huang 首先,Mythos是在相当普通的算力规模上训练出来的,由一家非凡的公司完成。它所使用的算力规模和类型,在中国是完全可以获得的。所以,首先要认识到:中国并不缺芯片。 他们生产全球约60%的主流芯片,甚至可能更多,这对他们来说是个庞大的产业。他们拥有全球顶尖的计算机科学家,众所周知,这些AI实验室里的AI研究人员有相当大比例是中国人。他们拥有全球约50%的AI研究人员。所以问题是:考虑到他们已经拥有的这些资产——充裕的能源、大量的芯片、大多数AI研究人员——如果你担忧他们,创造一个安全世界的最佳方式是什么? 他们是竞争对手,我们希望美国胜出,但但我认为进行对话和研究交流可能是最安全的做法。 当然我们希望美国拥有尽可能多的计算资源。我们受到能源的限制,但我们有很多人在努力解决这个问题。我们不能让能源成为我们国家的瓶颈。但我们还希望确保世界上所有的AI开发者都在美国技术栈上进行开发,并将AI的进步——尤其是开源的——提供给美国生态系统。创建两个生态系统将是极其愚蠢的:一个开源生态系统,它只能在一个外国技术栈上运行;以及一个封闭的生态系统,它在美国技术栈上运行。我认为这对美国来说将是一个可怕的结局。 认为英伟达是一家美国公司吗?好的。第一,为什么我们不制定一个更平衡的法规,让英伟达可以在全球获胜,而不是放弃世界?你为什么要让美国放弃世界? 芯片行业是美国生态系统的一部分。它是美国技术领先地位的一部分。它是AI生态系统的一部分。它是AI领先地位的一部分。为什么你的政策、你的哲学会导致美国放弃世界市场的巨大一部分? 首先,解决这个问题的方法是与研究人员对话,与中国对话,与所有国家对话,确保人们不会那样使用技术。这是必须进行的对话。好的。第一点。 第二点,我们还需要确保美国领先,确保Vera Rubin、Blackwell在美国丰富、大量地可用。显然,我们的结果会显示这一点。丰富,大量的。我们拥有的计算资源很棒。我们这里有很棒的AI研究人员。很棒。我们应该保持领先。 然而,我们也必须认识到,AI不仅仅是一个模型。AI是一个五层蛋糕。AI产业在每一层都很重要,包括芯片层。放弃整个市场不会让美国长期在技术竞赛中在芯片层、计算堆栈中获胜。这是一个事实。 为了美国技术产业放弃那个市场,是对我们国家的伤害。 01:35:06 – 英伟达为什么不制造多种不同的芯片架构? Dwarkesh Patel 我们之前讨论了台积电、内存等方面的瓶颈。 所以,如果我们处在一个你已经是N3节点主要客户的世界里——在某个时候你会用到N2,并且你会是N2的主要客户——你是否认为你可以回到N7节点,一个更旧工艺节点的闲置产能,然后说,“嘿,对AI的需求如此巨大,而我们扩展前沿节点的能力无法满足它,所以我们将制造一个Hopper或Ampere,但使用我们今天所知道的关于数值运算的所有知识以及你描述的所有其他改进”?你认为在2030年之前这种情况会发生吗? Jensen Huang 没有必要。原因在于,每一代架构不仅仅是晶体管尺寸的问题。你在做大量的工程、封装和堆叠工作,以及数值运算和系统架构。 当你产能耗尽时,轻松回到另一个节点……那是一种没人能负担得起的研发水平。我们能够承担向前推进的成本。我认为我们承担不起回头。现在,如果世界只是说……如果在那一刻,让我们做个思想实验,在那一刻我们被告知,“听着,我们再也不会有更多的产能了。”我会回去用7纳米吗?毫不犹豫地,我当然会。 Dwarkesh Patel 我交谈过的人有一个问题,为什么英伟达不同时运行多个完全不同架构的芯片项目?你可以做一个Cerebras风格的晶圆级芯片。你可以做一个Dojo风格的大封装。你可以做一个没有CUDA的。你有资源和工程人才可以并行做所有这些。那么,鉴于谁知道AI和架构可能会走向何方,为什么要把所有鸡蛋放在一个篮子里呢? Jensen Huang 哦,我们可以。只是我们没有更好的主意。我们可以做所有那些事情。只是它们不是更好的。我们在模拟器中模拟了所有,证明它们更差。所以我们不会去做。我们正在做的正是我们想要做的项目。如果工作负载发生巨大变化——我指的不是算法,我实际上指的是工作负载,这取决于市场的形态——我们可能会决定增加其他加速器。 例如,最近我们增加了Groq,我们计划将Groq整合到我们的CUDA生态系统中。我们现在正在这样做,因为Token的价值已经变得如此之高,以至于你可以有不同的Token定价。在过去,仅仅几年前,Token要么免费,要么几乎不贵。但现在你可以有不同的客户,这些客户想要不同的答案。因为客户赚了很多钱——例如,我们的软件工程师——如果我能给他们响应更快的Token,让他们比今天更高效,我愿意为此付费。 但那个市场最近才出现。所以我认为我们现在有能力根据响应时间,为同一个模型提供不同的细分市场。这就是为什么我们决定扩展帕累托前沿,创建一个响应时间更快的推理细分市场,即使它的吞吐量较低。直到现在,更高的吞吐量总是更好。我们认为可能存在一个世界,其中可能有非常高ASP(平均售价)的Token,即使工厂的吞吐量较低,ASP也能弥补这一点。 这就是我们这样做的原因。但除此之外,从架构的角度来看,如果我有更多的钱,我会把更多的钱投入到英伟达的架构背后。 Dwarkesh Patel 我认为这种极致优质的Token和推理市场的分解是一个非常有趣的想法。 Jensen Huang 它的细分。 Dwarkesh Patel 是的。好了,最后一个问题。假设深度学习革命没有发生。英伟达会在做什么?显然是游戏,但考虑到—— Jensen Huang 加速计算,和我们一直在做的一样。我们公司的前提是摩尔定律将……通用计算对很多事情有好处,但对很多计算来说并不理想。 所以我们结合了一种称为GPU、CUDA的架构和一个CPU,这样我们就可以加速CPU的工作负载。不同的内核代码或算法可以被卸载到我们的GPU上。因此,你可以将应用程序加速100倍、200倍。你可以在哪里使用它?显然是工程、科学、物理、数据处理、计算机图形、图像生成,各种各样的东西。即使今天没有AI,英伟达也会非常非常大。 原因相当根本,那就是通用计算继续扩展的能力基本上已经走到了尽头。而唯一的方法……不是唯一的方法,但实现这一目标的方法是通过特定领域的加速。我们开始的领域之一是计算机图形,但还有许多其他领域。有各种各样的。粒子物理和流体、结构化数据处理,所有不同类型受益于CUDA的算法。 我们的使命确实是向世界提供加速计算,并推进通用计算无法完成的应用类型,并将其能力扩展到有助于突破某些科学领域的水平。一些早期的应用是分子动力学、用于能源发现的地震处理、当然还有图像处理,所有这些通用计算效率低下的领域。 如果没有AI,我会非常难过。但是,由于我们在计算方面取得的进步,我们使深度学习民 主化了。我们使任何地方、任何研究人员、任何科学家、任何学生都能够使用PC或GeForce扩展卡进行出色的科学研究成为可能。这个根本承诺没有改变,一点也没有。 如果你看GTC大会,有整个开头部分。那里面没有AI。那一整部分关于计算光刻、量子化学工作、数据处理工作,所有这些东西都与AI无关。它仍然非常重要。我知道AI非常有趣且令人兴奋,但有很多人正在做很多非常重要的非AI相关工作,而张量并不是你计算的唯一方式。我们想帮助所有人。 Dwarkesh Patel Jensen,非常感谢。 Jensen Huang 不客气。我很享受。 Dwarkesh Patel 我也是。
闪评 | 从“单向输血”转向“产能共建” 乌克兰与欧洲合作缘何改变?
  近日,乌克兰总统泽连斯基接连访问德国、挪威和意大利等欧洲国家。在美国聚焦中东战事、减少对乌克兰军事援助的背景下,泽连斯基此访出现了从“单向输血”向“产能共建”的重要转变。这些转变包括哪些内容?又会对俄乌冲突乃至欧洲安全格局带来哪些影响?   两天访问三国谈了什么   当地时间4月14日至15日,泽连斯基先后访问德国、挪威和意大利等欧洲三国。   在德国,泽连斯基与德国总理默茨举行了20余年来首次政府间磋商。双方宣布建立“战略伙伴关系”,并达成价值40亿欧元的国防协议。双方还签署首份国防数据交换备忘录,深化军事协作。   同一天,泽连斯基还到访挪威,与挪威首相斯特勒签署防务合作宣言,推动无人机双向生产。挪威还确认将交付升级版F-16战机,并强化防空与电子战合作。   4月15日,泽连斯基在意大利首都罗马与意大利总理梅洛尼会晤,双方讨论了无人机联合生产和能源援助等问题。   当地时间4月14日至15日,泽连斯基访问了德国、挪威和意大利等欧洲三国。   泽连斯基对这些欧洲国家的访问,是在美国聚焦中东战事的背景下进行的。受美国和以色列自今年2月底对伊朗进行军事打击的影响,美国大幅削减对乌克兰的军事援助。当地时间4月15日,乌克兰总统泽连斯基在接受采访时表示,当前中东地区的战事对乌克兰的武器供应已产生显著影响。   中国社科院俄罗斯东欧中亚研究所所长孙壮志在接受总台环球资讯《闪评》栏目采访时表示,泽连斯基此次访问欧洲三国,意在通过合作,深化双边在各个领域的战略关系,使乌克兰获得更多欧洲国家的支持。   美国深陷中东战事后,目前没有更多精力援助乌克兰或者推动俄乌和谈,而且乌克兰此前有可能从美国争取到的一些援助现在也已经希望渺茫。   在中东局势紧张的背景下,乌克兰也面临来自俄罗斯更大的军事压力。   这种情况下,乌克兰寻求与在军事上比较强的欧洲国家加强联系,建立非常稳固的关系,使乌克兰获得更加稳定的长期支持,让乌克兰有可能跟俄罗斯继续抗衡。因此,中东局势紧张让乌克兰和欧洲捆绑得更加紧密。   从“单向援助”转向“产能共建”   值得注意的是,泽连斯基对德国、挪威和意大利的访问中,都涉及了无人机联合生产。   泽连斯基15日在社交媒体上发文称,乌克兰正推动与欧洲合作伙伴在欧洲本土联合生产各类必需的防空系统、配套导弹以及所有类型的无人机。   乌克兰与欧洲的关系呈现从欧洲“单向输血”转向双方“产能共建”的变化,特别是在无人机领域形成了多国协作网络。据俄罗斯国防部15日公布的数据,乌克兰无人机及其零部件制造企业以独资或合资形式在德国、丹麦、荷兰、英国等8个欧洲国家设有分公司。   4月14日,德国总理默茨与乌克兰总统泽连斯基观看德乌合作生产的无人机展示。   乌克兰与欧洲国家之间援助关系出现转变的原因是什么?孙壮志表示:   以前,乌克兰希望从欧洲国家获得更多的财政支持以及武器援助来解决燃眉之急。但是欧洲国家现在也面临很多困难,而且一些欧盟成员国之间在援助乌克兰的立场和政策上也有一定分歧,欧洲也在寻求改变。   在此背景下,乌克兰意识到仅仅向欧洲寻求财政方面的支持其实很难持续,因此希望通过“寻求援助”转向“加强合作”,特别是互利互惠的合作,来体现乌克兰的价值。   另外,与欧洲国家进一步密切经济安全合作关系,对乌克兰寻求和欧洲的一体化、以及加入欧盟也有好处。   通过加强军工生产,包括无人机等一些防务领域的合作,也可以提升欧洲的防卫能力以及在安全领域的战略自主,所以对欧洲国家来说也是更有利的合作方式。   未来和谈或将更加困难   乌克兰与欧洲国家出现了新的合作方式,又会对俄乌冲突乃至未来的欧洲安全格局带来怎样的影响?孙壮志表示:   未来俄乌和谈将会更加困难:虽然美国推动俄乌和谈,但俄乌双方都坚持既有政策方针,特别是在领土问题、安全保障这些问题上并不准备妥协。现在,欧洲国家实际上通过加强与乌克兰在防务领域合作的方式,使乌克兰在军事实力上获得一定的保障。这种情况之下,乌克兰在维护自身利益方面可能更不会做出任何让步,给未来的俄乌和谈带来非常大的障碍。   欧洲安全格局整体将发生变化:乌克兰在得到了欧洲的支持和保障之后,可能会形成对俄罗斯的集团压力,使欧洲地区的整体安全格局进一步发生变化,俄罗斯会和欧洲进行对抗。这种情况下,会使俄乌冲突的局势进一步复杂化,可能会对通过和谈解决冲突带来更大障碍,使冲突延宕,持续给地区安全带来更大的危害。   来源:总台环球资讯   采访:董晨啸   撰稿:贾延宁   签审:李修莉   监制:蔡耀远
时政新闻眼丨密集会晤四国政要,习近平为何多次提到“战略定力”?
  暮春时节,中国元首外交再启“繁忙时刻”。   4月14日至15日,习近平先后在北京人民大会堂同阿联酋阿布扎比王储哈立德,西班牙首相桑切斯,俄罗斯外长拉夫罗夫,越共中央总书记、国家主席苏林举行会见会谈。   引领双边关系发展、破解全球难题困局,习近平在会晤中多次提到“战略定力”,释放重要信息。《时政新闻眼》为你解读。 △视频:习近平同越共中央总书记、国家主席苏林举行会谈    01   这些细节见证特殊情谊   15日上午,习近平总书记、国家主席为越共中央总书记、国家主席苏林举行的一系列国事活动在人民大会堂密集展开。   三个细节,《时政新闻眼》带你“打开”这场备受瞩目的元首外交。 △欢迎仪式上的少年儿童。(总台记者李晋拍摄)   一首歌曲。   “共饮一江水,早相见、晚相望,清晨共听雄鸡高唱。”   创作于1966年的越南歌曲《越南—中国》,讲述着两个近邻山水相连、“同志加兄弟”的特殊情谊。   15日上午,这首在越南家喻户晓的歌曲在欢迎仪式上奏响,营造出宾至如归的暖心氛围,也为两国开启合作新篇留下生动注脚。   值得一提的是,苏林总书记、国家主席14日在《人民日报》发表的署名文章,也引用这首歌的歌词“山连山、水连水”,表达“两国在文化上有诸多相似之处”。 △人民大会堂东大厅内摆放的中越两党两国旗帜。(总台央视记者张垚拍摄)   习近平总书记、国家主席曾说,中越“两党两国领导人要像走亲戚一样常来往、多沟通”。   苏林总书记4月7日当选越南国家主席,9日便宣布访华消息。这是他再次当选越南国家主席后首次访华,也是越共十四大闭幕后他首次以越共中央总书记、国家主席身份访华。   习近平总书记、国家主席在15日的会谈伊始表示,“你当选越南国家主席后第一时间到访中国,体现了你对发展中越关系的高度重视。” △中越元首会谈现场。(总台记者李晋拍摄)   一排座椅。   会谈所在的人民大会堂东大厅内,外方一侧摆放的座椅格外密集。   《时政新闻眼》了解到,苏林总书记、国家主席此访率领了一支高规格代表团,包括了9名越共中央政治局委员和近40名正部级官员,涵盖越南司法、财政、工贸、农业与环境、建设等各个领域。   今年是中国“十五五”开局之年,也是越南落实越共十四大决议起步之年。关键时期到访中国,代表团规格高、人数多、分量重,体现出越方对深化双边合作的强烈意愿。 △出席欢迎仪式的越方陪同人员。(总台记者李晋拍摄)   一群青年。   国事活动现场,300多名中越青年的身影格外引人关注。   去年访越期间,习近平同苏林一道启动“红色研学之旅”项目。   一年来,上千名越南青年循着先辈足迹来到北京、上海、广西、陕西、重庆等地,探寻中越友好的红色基因,感受中国式现代化的万千气象。   15日,中越最高领导人在人民大会堂共同会见参加这一活动的两国青年代表。   习近平对中越青年提出三点希望:守望相助,让中越“同志加兄弟”的深厚情谊焕发青春光彩;挺膺担当,用青春的活力和创造力激荡起创新、开放、合作、共赢的澎湃春潮;胸怀天下,争做构建人类命运共同体的先锋队,为人类进步事业贡献青春力量。 △4月15日,参加“红色研学之旅”的中越青年代表拿着两国青少年共同创作的画作合影。(总台央视记者卢心雨拍摄)    02   以战略定力擘画双边关系   中越元首会谈成果丰硕,一个新表述值得关注。   习近平总书记、国家主席在会谈中提出:“加快构建更高水平具有战略意义的中越命运共同体。”   2023年习近平总书记、国家主席访越,双方宣布“携手构建具有战略意义的中越命运共同体”。   2025年再次访越,双方同意“加快构建具有战略意义的中越命运共同体”。   从“构建”到“加快构建”再到“更高水平”,这是一条选对了就坚定走下去的路,既稳扎稳打又只争朝夕。 △中越元首会谈开始前。(总台央视记者许永松拍摄)   擘画中越关系,习近平多次强调要“把握中越关系的特殊战略意义”。   在15日的会谈中,他指出,党的领导是社会主义的最本质特征和最大优势。捍卫社会主义制度和共产党执政地位,是中越两党最大的共同战略利益。   他强调,双方要保持高度的战略清醒和强大的战略定力,始终坚定道路自信和制度自信,坚持改革不改向、变革不变色。 △欢迎仪式上的仪仗队分列式。   “战略定力”也体现在另外三场元首外交活动中。   西班牙首相桑切斯4年来4次访华。此访也是继去年西班牙国王、首相同年访华以来,中国同西班牙在较短时间内又一次重要高层交往。   这份“如期而至”,凸显西班牙对华政策的连续性和稳定性。   14日上午,习主席在会见桑切斯首相时指出,尽管国际形势变乱交织,中国和西班牙关系始终稳步发展,打造了具有战略定力的中西关系,一条重要经验就是基于共同利益作出正确决策。   《时政新闻眼》注意到,在桑切斯首相前三次访华中,习主席都用“战略定力”寄语中西关系。   桑切斯首相在14日的会见中同样强调了“战略定力”,表示将坚定致力于发展具有战略定力的西中伙伴关系。他说,“正如中国一样,我们是一个稳定、可预测的国家。” △会见现场摆放的中西两国国旗。(总台央广记者马喆拍摄)   在会见阿联酋阿布扎比王储哈立德时,习主席谈及了中阿关系的“稳定性”。   他指出,巩固和提升中阿关系是双方的坚定共识,符合两国人民期待。中方愿同阿方携手同行,打造更加稳固坚韧、富有活力的中阿全面战略伙伴关系。 △独家视频丨习近平:打造更加稳固坚韧、富有活力的中阿全面战略伙伴关系   在会见俄罗斯外长拉夫罗夫时,习主席指出,面对变乱交织的国际形势,中俄关系的稳定性和确定性尤为宝贵。   他强调,“双方要保持战略定力,彼此信任、相互支持、共同发展,做好自己的事。”   今年是中俄战略协作伙伴关系建立30周年,也是《中俄睦邻友好合作条约》签署25周年。这份“携手走过”正是中俄战略定力的生动诠释。 △独家视频丨习近平:面对变乱交织的国际形势 中俄关系的稳定性和确定性尤为宝贵    03   以正确抉择应对世界乱象   变乱交织的国际形势下,四国政要密集访华,外界瞩目的不仅是双边层面的谋划,也有各方在世界变局中的抉择。   “当今世界乱象丛生,国际秩序礼崩乐坏。”习近平主席在会见桑切斯首相时一语中的:“如何对待国际法和国际秩序,反映的是一国的世界观、秩序观、价值观和责任观。” △独家视频丨习近平会见西班牙首相桑切斯:共同捍卫真正的多边主义 守护全球和平与发展   是丛林法则,还是多边主义?   会见西班牙首相桑切斯时,习主席指出,中国和西班牙都是有原则、讲道义的国家,要反对世界倒退回丛林法则,共同捍卫真正的多边主义,维护以联合国为核心的国际体系和以国际法为基础的国际秩序。   桑切斯表示,西班牙积极支持四大全球倡议,愿同中方密切沟通协作,共同应对国际地缘政治、贸易保护主义、气候变化等方面挑战,维护国际法和多边主义。   会见俄罗斯外长拉夫罗夫时,习主席强调,面对百年未有之大变局,中俄要以更加密切有力的战略协作,坚定捍卫两国正当利益,维护全球南方国家团结,体现大国和联合国安理会常任理事国的责任担当。 △北京人民大会堂。(总台央视记者张宇拍摄)   是战火纷飞,还是和平安宁?   中东局势之下,阿联酋阿布扎比王储哈立德的首次访华备受瞩目。   习主席在会见哈立德王储时,就维护和促进中东和平稳定提出4点主张:坚持和平共处原则、坚持国家主权原则、坚持国际法治原则、坚持统筹发展和安全,为政治解决当前中东危机提供了中国智慧和方案。   哈立德王储表示,阿方赞赏中国在国际事务中发挥负责任和建设性作用,致力于同中方保持密切沟通协调,促进相关方面停火止战。 △阿联酋阿布扎比王储哈立德于4月12日至14日对中国进行访问。   是小院高墙,还是开放包容?   今年是中国-东盟建立全面战略伙伴关系5周年,今明两年中越两国将接续举办亚太经合组织(APEC)领导人非正式会议。   习近平总书记、国家主席在15日的会谈中说,中越要共同反对单边主义、保护主义,维护全球自由贸易体制和产业链供应链稳定畅通。要携手践行全球发展倡议、全球安全倡议、全球文明倡议、全球治理倡议,共同应对全球性挑战。 △北京人民大会堂。   人心所归,惟道与义。动荡世界中,中国外交理念正赢得越来越广泛的支持。坚定站在历史正确的一边、站在人类文明进步的一边,一个勇担大义、笃行大道的中国,必将书写同世界各国共建人类命运共同体的新篇章。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。