行业分类:
加载中...
头条分类:
加载中...
OpenAI董事会主席Bret Taylor:AI“很可能”是泡沫
IT之家 1 月 23 日消息,据外媒 CNBC 昨天报道,OpenAI 董事会主席、AI 初创公司 Sierra 联合创始人 Bret Taylor 表示,AI“很可能”是泡沫,这场泡沫正在不断膨胀,促使“聪明钱”和“盲目资金”在每一层技术栈为竞争对手提供资金。 Taylor 强调,自由市场最终自然会做出决策,判断哪些领域真正具有价值、哪些 AI 企业拥有最优秀产品,他表示自己仍然对 AI 的长期前景保持乐观。 谈到资金为何流向 AI 时,Taylor 回答道:“当所有人都知道 AI 会对经济、行业和工作流产生巨大影响时,资金自然会大量涌入。我认为未来几年内,你会看到一次市场回调,也会看到行业整合,但真正的创新必须要在这种混乱而激烈的竞争中产生”。 作为参考,Bret Taylor 在 2023 年创立 Sierra,该公司专门为大企业等客户构建、部署 AI 智能体,去年 9 月完成 3.5 亿美元(IT之家注:现汇率约合 24.43 亿元人民币)的新一轮融资,目前公司估值达 100 亿美元(现汇率约合 697.99 亿元人民币)。 并且,Bret Taylor 的履职经历非常丰富,曾在推特(现 X 平台)担任董事会主席、在 Facebook(现 Meta)担任首席技术官,还曾经参与构建谷歌地图。 Taylor 补充道,AI 将在电商、企业服务、搜索引擎、支付系统等领域产生重大影响,不过这一过程并非一帆风顺,基础设施完善、企业接受新技术、监管环境转变都需要时间。
英伟达和谷歌,美国AI棋局的楚河汉界
最近,OpenAI又传出购买芯片的消息,但采购对象却并非英伟达或谷歌。 据了解,这笔订单落在了晶圆级芯片公司Cerebras身上,协议总金额超过100亿美元、对应最高约750兆瓦算力容量,并将分阶段在2026—2028年落地。 众所周知,长期以来,OpenAI的核心训练体系一直建立在英伟达GPU之上。但最近一段时间里,OpenAI一直在尝试把算力“鸡蛋”放进多个篮子里。 去年6月,有媒体披露称OpenAI计划通过Google Cloud租用芯片,为包括ChatGPT在内的产品提供部分推理算力。 这一算力供应策略上发生变化背后,是美国AI产业的两大阵营相互作用下的结果:一边是以英伟达为核心的GPU生态,另一边是近年来崛起的谷歌阵营TPU(谷歌自研的AI专用加速芯片)生态。 在大模型爆发初期,英伟达几乎是算力的唯一中心:从训练到推理,从芯片到CUDA生态,行业别无其他选择。 但在过去两年,这种“绝对核心”地位开始松动。一方面GPU供给长期紧张、价格高企;另一方面超大模型推理负载激增,催生对专用加速器与替代架构的现实需求,也为其他算力路线留下切口。 在这一背景下,谷歌的TPU路线逐渐成型。通过把TPU与Gemini、VertexAI的节奏深度绑定,谷歌逐步搭建起一套“从芯片到模型、云服务”的一体化供给体系。 Cerebras则是OpenAI在两大阵营之外插入的一枚筹码:它主打晶圆级芯片的技术路线,主打低延迟推理与特定负载的吞吐优势。这家公司也一直被各路机构视为美股潜在IPO标的。 在英伟达和谷歌两大阵营的“楚河汉界”之间,头部AI企业们在“站队”与“合作”间不断交错。 01 两大基座阵营,既要“合纵”也要“连横” 尽管在AI算力版图出现了“两大阵营”分化的现象,但在过去一年里,英伟达仍是市场的绝对主力:IDC在2025年二季度的统计显示,英伟达在AI算力厂商份额占比约85.2%。 只是在AI产业中,“盟友”与“敌人”的界限往往并不清晰,但仍能在头部企业身上,窥探到一丝生态上的偏好。 英伟达的主力合作伙伴中,微软和AWS(亚马逊云服务)持续把英伟达新品作为云端算力主力;与此同时,谷歌也在加速把TPU打造成更“可迁移”的选项,并通过改进对PyTorch等主流框架的支持、与包括Meta在内的企业/开发者社区协作,降低外部使用门槛。 以微软为例,根据Omdia的估算,2024年微软采购了约48.5万块英伟达Hopper系列GPU,几乎是其竞争对手的两倍之多,显示出它在AI基建领域与英伟达的紧密关系。 2025年11月,微软与数据中心运营商IREN签署了一份约97亿美元的合同,其中包括大约58亿美元的英伟达GB300芯片与相关设备,用于进一步扩展Azure的AI计算能力。 不止云厂商,一众大模型企业也是英伟达的基本盘,马斯克此前曾表示xAI的Colossus超算在2025年已部署约20万块英伟达GPU,用于训练Grok系列模型,并计划进一步扩容。 不过,尽管英伟达的GPU体系虽然市场份额高达八成以上,但其高成本与软件生态锁定,也让一些头部用户开始寻求新的供应链渠道。 另一边,谷歌TPU在某些推理与训练场景上拥有更低成本的优势,并且与云服务深度整合,这使得市场近年来对其兴趣不断增长。 几周前,曾有媒体披露Meta正在评估在2027年后引入谷歌自研芯片的可能性,相关合作规模或达数十亿美元,这使TPU有机会成为英伟达之外的一个重要替代样本。 类似的选择也出现在Anthropic身上。去年10月,Anthropic宣布将大幅扩大与Google Cloud的合作,计划利用多达一百万颗TPU芯片、总价值达到数十亿美元的算力资源,来训练和服务下一代Claude模型,并预计在今年实现超过1吉瓦的计算能力上线。 Google Cloud CEO库里安称,“Anthropic大幅扩大使用TPU,反映了团队多年来在使用TPU时观察到的强劲价格性能比和效率。” 不过,Anthropic和谷歌的合作离不开资本面背景。谷歌既是Anthropic的早期投资者,也是其最重要的云算力提供方之一。公开信息显示,谷歌已累计向Anthropic投资超过30亿美元,持有约14%股权。 Anthropic CFO Krishna Rao此前曾表示:“Anthropic与Google有长期伙伴关系,这次扩展有助于持续增长定义前沿AI所需的算力。” 通过加大对TPU的使用,Anthropic在成本与算力供给上获得更高确定性,同时也加深了与谷歌在云基础设施层面的长期合作关系。 不过,AI产业版图中,即使是资本合作伙伴之间,也可能出现产品和业务上的竞争。字母AI在近期的《争夺AI制高点,谷歌和Anthropic必有一战》一文中曾总结,“如果Anthropic利用谷歌的TPU训练出了远超Gemini的模型,那谷歌在应用层的竞争将变得更加困难。” 正是在这一现实之下,“合纵连横”开始成为AI基建格局中的关键逻辑。算力层面,面对英伟达在GPU与生态上的长期主导,谷歌以TPU、云服务和资本关系拉起稳定合作网络,模型公司也借此获得更可控的算力与成本,此为“合纵”。 但这种结盟并不会延伸到产品前台。进入模型与应用层,竞争重新回到零和博弈:Gemini、Claude、ChatGPT在前端要面临正面厮杀,“连横”随之出现,即在基础设施上交错合作,但在产品上又各自为战。 英伟达与谷歌两大阵营并存,恰恰放大了这种合纵连横的结构。不过,说起这一版图的形成以及两条路径之争的起源,还要追溯到AI爆发前的10年。 02 GPU与TPU之争,源自“前AI时代” 在生成式AI成为全球焦点之前,英伟达已提前十余年布局算力生态。 2006年CUDA发布,使GPU首次成为可被通用编程调用的并行计算平台,开发者得以绕开硬件细节直接释放算力潜能。随后,PyTorch、TensorFlow等主流框架相继围绕CUDA构建,GPU也从图形加速器演变为AI训练与推理的事实标准底座。 CUDA的价值不止“让GPU可编程”,更在于打造了独家软件生态这一壁垒。 英特尔前CEO帕特·基辛格,在去年接受采访时直言,英伟达真正的护城河在于“CUDA以及NVLink这样的软件和互连体系”,而不仅仅是单一代GPU的性能优势。 这一体系优势在2012年迎来爆发点,多伦多大学的Alex Krizhevsky等人利用两块英伟达GPU在ImageNet挑战赛上训练出AlexNet并一举夺魁,展示了大规模神经网络与GPU并行计算结合的巨大潜力,成为行业关注的里程碑事件。 但在深度学习浪潮爆发的同时,大规模神经网络对算力效率和能耗也提出新要求。此时,谷歌意识到,依赖通用GPU在大规模推理和训练时,存在着成本高且功耗大等问题。 于是,从2015年起,谷歌开始研发TPU——一种面向神经网络推理负载的定制芯片。彼时的目标还不是今天的通用AI计算,而是支撑搜索、翻译和广告等核心业务中的深度学习模型,在数据中心内以更低能耗、更稳定时延完成大规模推理任务。 2018年,谷歌将TPU正式引入Google Cloud,对外开放使用,试图证明TPU在云端的现实价值。ResNet-50等模型的测试数据显示,TPU上训练可显著缩短时间并降低成本,使原本需要数天的任务在更短周期内完成。 不过,在几年后的生成式AI爆发初期,英伟达迅速成为了那个最大赢家。2020—2022年,大模型训练从研究走向工程化,A100等GPU凭借成熟的软件生态和稳定供给,成为各大云厂商和模型公司的默认选择。 TPU的转折点,出现在算力需求持续放大之后。2023年起,随着大模型推理负载激增、电力与成本压力上升,谷歌TPU因在单位能耗和价格性能比上的优势开始受到行业重视,逐步获得更广泛采用。 字母AI在此前的报道《AI在美国“与民争电”》中曾披露,AI数据中心的惊人能耗,已经迫使美国AI企业亲自下场,投身能源基础设施建设。因此,TPU的能耗和成本优势,无疑是吸引诸多AI企业用户的重要因素。 另一方面,为降低开发者迁移门槛,谷歌近年明显加大了TPU的软件生态投入。去年,曾有多家外媒披露,谷歌正推进代号为TorchTPU的内部项目,核心目标是提升TPU对PyTorch的原生支持能力。 据了解,该项目与Meta的需求密切相关,部分软件组件可能开源,以缩小TPU与英伟达GPU在主流开发环境中的使用差距。 事实上,以谷歌为代表的TPU生态的发展,一定程度上也宏观层面,对冲了英伟达一直占据绝对主导地位的担忧。 “让一家企业成为全球AI未来的守门人是危险的,会带来严重的经济风险。”美国参议员伊丽莎白·沃伦,曾这样呼吁美国司法部启动对英伟达反垄断调查。 尤其对于OpenAI这样的头部模型公司而言,“合纵联横”的算力格局,无疑比依赖单一技术路线更具战略弹性。 03 OpenAI的“摇摆”和“押注” 在大模型爆发期,OpenAI就与对英伟达的算力体系紧紧捆绑在一起。公开信息显示,在GPT-3时代,OpenAI曾动用约3,600台HGXA100服务器、近3万块英伟达GPU进行训练。 这种紧密的关系一直持续到今天,去年年底,OpenAI宣布和英伟达展开新一轮合作,计划部署至少10吉瓦的英伟达算力系统,这些系统将包括数百万块英伟达GPU,用于训练并运行下一代模型。首批算力预计将在今年下半年上线。 不过,这种紧密捆绑背后,OpenAI也在探索“去中心化”的举措。尤其是随着近年来模型规模与推理负载急剧上升,新的算力供给路径迫在眉睫。 去年6月,有媒体披露称OpenAI开始通过Google Cloud租用TPU,为包括ChatGPT在内的产品提供部分推理算力,希望借此降低推理成本。这是OpenAI首次计划批量使用非英伟达芯片。 OpenAI发言人随后称“公司目前仅处于对部分谷歌TPU的早期测试阶段,尚无计划进行大规模部署。” 但这份相对克制的回应,仍难以掩盖OpenAI寻求供应链平衡的意图。Forrester高级分析师Charlie Dai此前指出,OpenAI开始测试TPU,反映出“随着推理成本不断上升,AI提供商正尝试在英伟达GPU之外,寻找更具成本控制能力的专用方案”。 而在几个月后,OpenAI在10月宣布与AMD签署协议,将在未来几年部署最高6吉瓦的AMD GPU资源,计划从今年下半年开始落地,进一步做实了上述观点。 时间来到2026年初,近期,Cerebras也被纳入OpenAI的算力“鸡蛋篮”。外媒报道称,双方签署了一项多年期协议,总额超过100亿美元,对应最高750兆瓦算力,并将分阶段交付至2028年。 OpenAI在公告中由高管Sachin Katti发言,称其算力策略是构建一个“Resilient Portfolio”(有韧性、抗风险的算力组合),按不同负载匹配不同系统;在这一组合中,Cerebras以“低时延推理”能力发挥补位作用。 值得关注的是,在技术路线上,Cerebras走的是另一条路:把整片硅晶圆直接做成一颗“晶圆级芯片”(WSE-3)。 Cerebras一颗芯片面积约4.6万平方毫米,是英伟达主流数据中心GPU(约800平方毫米)的数十倍,集成约4万亿晶体管和90万个核心,并将计算与存储高度集中在同一器件内,从而减少GPU集群中常见的跨卡通信瓶颈。 而在资本层面,这桩合作背后有一个无法忽视的背景:OpenAI首席执行官奥特曼,此前以个人身份投资过Cerebras。 另一边,OpenAI的布局并未止步于引入外部算力替代方案。去年以来,多家外媒披露OpenAI已在内部组建芯片团队,并与博通展开合作,推进自研AI加速器芯片,研发重点是围绕自身模型体系,优化推理负载与系统级效率。 奥特曼曾在和博通的合作公告中表示:“通过开发我们自己的加速器(芯片),可以将我们在最前沿模型和产品设计中学到的经验直接嵌入硬件,从而释放更强大的能力。” 而在谷歌TPU和其他供应商之间的摇摆,一定程度上也映射出OpenAI对于谷歌这位竞争对手态势的警惕。 苹果在近期宣布与谷歌达成多年合作,将用Gemini模型升级Siri与Apple Intelligence。毫无疑问,这一合作将强化谷歌在与OpenAI竞赛中的位置,巩固其在移动端AI入口的生态影响力。 更长远地看,美国AI算力产业格局并非单纯的阵营间的商战,而是一条可跨越的“楚河汉界”。在基础设施层,英伟达与谷歌分别构筑起两套稳定运转的算力基座,成为企业绕不开的长期投入方向。 但这条“界线”并不意味着割裂。对模型公司而言,算力是必须“合纵”的底座,而产品与模型竞争才是真正的战场。越是头部玩家,越需要在底层结盟、在上层博弈。 作为模型侧的头部玩家,OpenAI的多路径布局,正是这一现状的缩影:既要依托英伟达的强大生态,但也不能持续单点依赖。同时开始布局自研算力,为下一轮算力与模型竞赛预留空间。 2026年,美国AI产业的“楚河汉界”之间,“合纵连横”的戏码仍将继续上演。
阿里投的语音AI“小巨人”重启IPO!创业14年未脱亏损
智东西 作者 | 王涵 编辑 | 李水青 智东西1月23日报道,1月22日,证监会官网披露,苏州AI语音交互解决方案企业思必驰科技股份有限公司在上海证监局办理上市辅导备案登记,重新启动A股IPO进程,辅导机构是东吴证券。 思必驰成立于2007年10月,注册资本为3.9亿元,法定代表人为董事长兼CEO高始兴,实际控制人为高始兴和联合创始人兼首席科学家俞凯,二人合计控制公司33.6177%的股份。 此前,上海证券交易所曾于2022年7月受理了思必驰提交的“首次公开发行股票并在科创板上市申请文件”,并经2023年第34次上市审核委员会审议会议审议。 2023年5月,该公司“首次公开发行股票并在科创板上市申请”被上交所终止审核,终止原因为公司的信息披露未能充分说明未来四年营业收入复合增长率的预测合理性,未能充分揭示上市前净资产为负的风险。 据天眼查2024年12月31日数据,思必驰14年间共完成14轮融资,总金额近20亿,最近一次是2025年1月,其完成了5亿元的融资。阿里持有思必驰9.112%的股份,联想持股4.888%。 近三年之后,思必驰再度寻求在A股上市,是出于什么样的考量?面对日益激烈的AI语音赛道,思必驰要如何应对?资本市场又是否会买账? 一、五年亏超11亿,阿里、联想持股 思必驰是聚焦对话式AI的平台型企业,自研DUI全链路智能对话系统定制开发平台以及AI语音芯片,核心业务有对话式AI技术服务、智能人机交互软件产品及软硬一体化AI产品,重点落地智慧汽车、智慧物联、智慧办公等场景。 据其2023年更新的招股书数据显示,2019年、2020年、2021年、2022年、2023年第一季度,思必驰营收分别为1.15亿、2.37亿元、3.07亿元、4.23亿元、0.94亿元,净利润分别为-2.83亿、-2.15亿元、-3.35亿元、-2.97亿元、-0.78亿元。2019年、2020年、2021年、2022年,其研发费用分别为1.99亿、2.04亿元、2.87亿元、3.13亿元,2023年数据未披露。 思必驰营收、净利润和研发支出(智东西制图) 2019年、2020年、2021年、2022年,其综合毛利率分别为72.17%、69.74%、58.15%和57.91%。 思必驰于2007年在英国剑桥成立,2012年,其正式进入资本市场,最初拿到了联想之星、荷塘创投的数千万元A轮投资。2020年8月,思必驰完成数亿元Pre-IPO轮融资,随后完成股份制改造,开始为上市做准备。2022年,其获国家科技部批准建设“语言计算国家新一代人工智能开放创新平台”。 2023-2025年间,思必驰又接连完成多轮融资。其中,2024年1月,思必驰完成新一轮首期2亿元融资,投资方包括国资基金及其他风险投资基金;2025年1月,思必驰又完成5亿元融资,资方包括知名产业基金、国资平台、私募基金等多家机构。 天眼查App信息显示,思必驰在14年间共完成14轮融资,总额近20亿元,投资方包括阿里巴巴、富士康、北汽产投、美的资本、深创投、元璟资本等一线大厂和明星资本。 截至2023年3月,阿里巴巴持有思必驰4759万股,持股比例约13.22%;联想持股5.21%。 据天眼查2024年12月31日数据,阿里持有思必驰9.112%的股份,联想持股则4.888%,均有所减持。 公司主营业务收入按产品构成情况如下: 截至2023年3月,思必驰主要产品及服务结构图如下: 二、增长预测与净资产风险两大硬伤,2023年“闯关”科创板失败 IPO进程显示,早在2022年7月,思必驰科创板IPO申请获受理。但经过问询后,未通过上市委会议,最终于2023年5月终止上市申请,终止原因为公司的信息披露未能充分说明未来四年营业收入复合增长率的预测合理性,未能充分揭示上市前净资产为负的风险。 据悉,上市审核委员会会议现场问询思必驰的主要问题有两个: 一、结合核心业务的市场竞争格局、核心产品的差异化竞争布局、核心技术的科技创新体现、核心技术与主要产品的升级迭代周期和研发储备等,对比同行业可比公司,说明公司核心技术的硬科技属性、差异化竞争的有效性。 二、结合行业竞争格局、龙头企业近三年经营情况,进一步说明公司预测未来四年营业收入复合增长率的合理性和审慎性;以及同时结合公司报告期持续亏损、净资产大幅下降等情况,说明公司经营能力的可持续性。 简单来说,思必驰的IPO申请被否是因为其对未来四年营收增长的预测“站不住脚”,也没讲清“上市前净资产为负”的风险,信息披露不达标。 三、发布自研行业语言大模型,硬件产品亮相CES 2026 在2023年冲刺科创板IPO失败后,思必驰近两年在大模型研发方面动作频频。 2023年7月,思必驰发布了自研行业语言大模型DFM-2,定位“通用对话基础模型”,主要面向智能汽车、智能家居、消费电子、数字政企等行业。 2024年,思必驰自研DUI平台升级至2.0版本,确立了“1个中枢大模型+N个垂域模型+全链路交互组件”的技术路线。同年5月,思必驰入驻国家超算互联网平台。 2025年2月,思必驰“1+N”中枢大模型帮助上汽通用五菱搭载DeepSeek大模型,宝骏享境成为行业首个实车装载车型,车载天琴语音助手的语音交互、智能推荐等功能升级。2024年至2025年,DFM-2累计完成5项国家网信办相关备案,为江苏省备案最多,覆盖20个专业垂直领域。 2026年1月7日,思必驰携其AI办公本等系列产品亮相CES 2026。 截至目前,思必驰拥有近100项全球独创技术,已授权知识产权1700余件,其中已授权发明专利近700项,软件著作近500项。 如此来看,思必驰试图通过押注大模型和垂直应用领域,来讲一个新故事。 但这个新故事不好讲。近年来,AI行业发展迅速,在智能语音语言领域,国内主要企业除思必驰外还包括科大讯飞、云知声等,百度、阿里等互联网企业也纷纷涉足。 据艾瑞咨询数据,2025年中国智能语音市场规模将达563亿元,年复合增长率25%。据胡润研究院发布的《2024胡润中国人工智能企业50强》,思必驰位列智能语音语义领域第四,仅次于科大讯飞、阿里、百度。其中阿里、百度等互联网巨头凭借自身用户流量和多年积累的技术优势抢占市场份额,竞争十分激烈。 面对市场竞争,思必驰在近年来大热的具身智能领域已找到一席之地。其推出了软硬一体化的工业级语音交互解决方案,还与智元机器人展开了合作,为智元机器人全线产品提供全链路语音交互技术底座,集成于智元自研的“灵渠 OS”具身智能操作系统。 结语:思必驰押宝具身智能,能否改写战局? 经过一轮失败后,思必驰试图通过押注大模型和垂直应用领域,打开新局面。 在科大讯飞等智能语音赛道龙头,以及阿里、腾讯、字节等互联网大厂的围攻下,思必驰选择向具身智能靠拢。 过去两年,其自研大模型DFM-2实现多项备案与落地,技术布局与产品能力均有所增强,与智元机器人的深度合作,也打开了思必驰的业务范围。 但据此前披露的数据显示,思必驰连年持续亏损,其在具身智能上的动作效果如何,能否获得资本的青睐,还要看其新的产品竞争力和财报数据。
“AI教母”李飞飞初创公司World Labs拟融资5亿美元:估值50亿美元,核心投资者均由她亲自挑选
IT之家 1 月 23 日消息,据彭博社今日报道,“AI 教母”李飞飞正在就其创办的初创公司 World Labs 进行新一轮融资洽谈,目标估值约为 50 亿美元(现汇率约合 349 亿元人民币)。 World Labs 于 2024 年结束隐身并完成 2.3 亿美元(IT之家注:现汇率约合 16.05 亿元人民币)融资,当时估值约为 10 亿美元(现汇率约合 69.8 亿元人民币)。 World Labs 现有投资方包括 Andreessen Horowitz、NEA 以及 Radical Ventures(李飞飞本人在 Radical Ventures 担任科学合伙人),而英伟达旗下的风险投资部门也已参与投资。 知情人士称,本轮融资预计将为 World Labs 带来约 5 亿美元(现汇率约合 34.9 亿元人民币)的新增资金,但交易尚未最终敲定,相关条款仍可能发生变化。 World Labs 主要致力于开发能够理解、导航并对三维世界进行决策的 AI 工具,其技术方向被公司称为“大型世界模型(Large World Models)”。2024 年晚些时候,World Labs 推出了首款产品 Marble,该模型可根据图像或文本提示生成三维世界。 随着投资者开始寻求超越大语言模型(LLM)的下一代 AI 技术突破,世界模型等相对尚处早期阶段的方向正受到更多关注。当前主流的大语言模型主要为 ChatGPT 等聊天机器人提供支持。 彭博社本周早些时候还报道称,由前 Meta 研究员杨立昆(Yann LeCun)创办的世界模型初创公司 AMI Labs 正吸引包括凯辉创新(Cathay Innovation)在内的潜在投资者,其融资轮估值可能达到 35 亿美元(现汇率约合 244.3 亿元人民币)。 李飞飞因在人工智能领域的贡献,被外界称为“AI 教母”。她于 2006 年主导创建了 ImageNet 项目,该视觉数据库包含超过 1500 万张图像,使计算机具备更接近人类的视觉识别能力,并推动了随后一波人工智能技术发展。 除创业外,李飞飞目前还是斯坦福大学教授,并担任斯坦福以人为本人工智能研究院(Stanford Institute for Human-Centered AI)的联合创始主任。 World Labs 的其他投资方还包括沙特阿拉伯的 Sanabil Investments 以及新加坡主权投资机构淡马锡控股(Temasek Holdings)。参与公司 2024 年融资轮的个人投资者包括谷歌 DeepMind 首席科学家 Jeff Dean、演员兼投资人阿什顿 · 库彻(Ashton Kutcher),以及因机器学习研究而知名的前谷歌人工智能研究员杰弗里 · 辛顿(Geoffrey Hinton)。辛顿同时也是 Radical Ventures 的投资人之一。 李飞飞曾在去年 12 月的一次采访中表示:“我的核心投资人都是我亲自挑选的。”她本人及 World Labs 均未就最新融资进展作出回应。
IDC:2025年全球人形机器人出货约1.8万台,中国厂商主导
IT之家 1 月 23 日消息,当地时间 1 月 22 日,IDC 发布《全球人形机器人市场分析》报告指出,2025 年全球人形机器人市场快速增长,出货量约 1.8 万台,销售额约 4.4 亿美元(IT之家注:现汇率约合 30.71 亿元人民币),同比增长约 508%,中国厂商占主导。 智元机器人与宇树科技出货量约 5000 台,位居头部;乐聚机器人、加速进化、松延动力等厂商出货约千台量级,国际厂商仍处试点阶段。全尺寸双足机器人贡献最大销售额,智元机器人为行业领先者。 从应用来看,文娱商演、教育科研、数据采集和导览导购是 2025 年主要落地场景;商业模式正由一次性硬件销售向 RaaS、运维服务和平台化生态演进,实现“产品 + 服务 + 生态”并行发展。 报告指出,人形机器人正由实验室验证向工程化落地过渡。本体、小脑(运动控制)、大脑(认知与决策)协同发展,上肢系统的精细灵活性是核心突破点,下肢系统在通用能力与工程效率间寻求平衡。模块化、轻量化设计提升系统稳定性与可部署性。大小脑融合的端到端具身智能大模型,实现多模态感知、任务理解与动作执行闭环,推动复杂场景自主作业与人机协同。人形机器人是具身智能通用机器人的高阶形态,代表了机器人技术在形态通用性、任务泛化能力以及人机协同水平上的最高追求。
最强大模型的视觉能力不如6岁小孩
谁敢想? 视觉推理这一块,大模型现在还嫩得像个3岁小孩。 来自UniPat AI、xbench、阿里、月之暗面、阶跃星辰等多家研究机构的最新研究显示: 在BabyVision视觉推理benchmark上,当前表现最强的Gemini 3 Pro Preview也只是小胜三岁儿童,跟六岁儿童仍有20%的差距。 与成年人94.1的水平相比,更是天壤之别。 更关键的是,Gemini 3 Pro Preview已经是当前一众模型中的“天花板”。 其他前沿模型,包括GPT-5.2、Claude 4.5 Opus、Grok-4等,整体表现甚至不如三岁小孩。 这一扎心结论,无疑又给当前基于VLA(M)的具身智能泼了盆冷水。 毕竟,一个视觉能力尚未达到三岁儿童水平的AI,很难被指望在真实物理世界中稳定、安全地协助人类。 也正是在这个意义上,BabyVision还给出了另一种视角: 要真正推进多模态智能,未来的模型必须从底层重建视觉能力,而不是继续依赖将视觉问题翻译成语言来“绕行”。 视觉推理的语言化瓶颈 在完整的评估中,研究对比了开源和闭源模型的表现: 在闭源模型中: Gemini 3-Pro-Preview以49.7%的得分领跑,随后是GPT-5.2 (34.4%) 和豆包-Seed-1.8 (30.2%)。 其余模型表现则不尽人意:Qwen3-VL-Plus 19.2%,Grok-4 16.2%,Claude-4.5-Opus 14.2%。 在开源模型中,表现最好的是Qwen3VL-235B-Thinking,总分达到22.2%。 其中,Qwen3VL的Thinking版本优于Instruct版本,这表明显示显式推理能减轻视觉不确定性。 此外,即使是最大的开源模型,仍无法与顶尖闭源系统匹敌。 那么,问题来了。 为什么在HLE、IMO等高难度任务中展现出博士级“智商”、甚至能解数学难题的大模型,却会在一些看似简单的“找不同”任务中频频翻车? 先说结论:当前的多模态大模型,通常是在推理前,先将视觉输入转化为语言表征来处理。 这种做法充分利用了大型语言模型强大的推理能力,但也引入了一个根本性的限制: 凡是无法被语言准确表达的视觉信息,都会在这一过程中被丢失。 例如,图像中“一辆红色的汽车”可以被轻松转写为文字;但更细粒度的几何信息,如边界的精确曲率、交叉点的具体位置、相对空间关系的微小变化,却很难被语言忠实描述。 而正是这些“不可描述”的视觉特征,构成了BABYVISION任务的核心难点,也因此成为当前顶尖多模态模型普遍折戟的地方。 具体来说,BabyVision将视觉推理拆解为4个核心能力维度: 细粒度辨别(Fine-grained Discrimination):检测细微的视觉差异 视觉追踪(Visual Tracking):追踪路径、线条和运动轨迹 空间感知(Spatial Perception):理解三维结构与空间关系 视觉模式识别(Visual Pattern Recognition):识别视觉中的逻辑与几何规律 基于上述能力维度,研究总结出当前MLLM面临的四个经典视觉核心挑战,具体如下: 非言语性精细细节的缺失 首先是非言语性精细细节的缺失,这些精细细节往往难以被语言精准地描述。 比如在面对一个小的偏移、特定的边界曲线,或者仅仅是一个像素的差异时,多模态大模型(MLLMs)往往会把这些截然不同的选项当作差不多的来处理。 以表现最好的Gemini 3 Pro Preview为例,在下面的找拼图任务中,它就错误地选择了D选项。 (正确答案:B) 在Gemini的推理过程中,它首先将形状转化为文字描述,再简化为粗略特征(如数量、拓扑结构),然后在语言空间中对比候选选项。 相比之下,人类直接通过形状匹配瞬间完成任务。人类的大脑会对每个候选选项进行平移和旋转,检查边界是否对齐,整个过程无需借道文字,直接由几何驱动。 所以,这里的关键不在于逻辑的难度,而在于高保真感知的缺失。 流形一致性(Manifold Identity)的丢失 此外,研究还发现,多模态大模型难以在长距离空间中,可靠地维持感知的一致性。 比如,在下面的连线任务中,Gemini 3 Pro Preview再度失败,错误地将塑料瓶连在了绿色垃圾桶中,以及将苹果核连在了蓝色垃圾桶中, (正确答案:塑料瓶-蓝、试卷-黄,苹果核-绿) 研究发现,Gemini在解题时,通常会把一条连续的曲线拆解成一连串简单指令,比如向左、向右、向上、向下。 但问题在于,一旦出现交叉点,这种拆解方式就会让路径变得模糊,很容易走岔。 由于模型并没有在脑子里“真正记住”那条曲线的样子,它在经过交叉点后就可能无意中换到另一条线上。 这种错误对人类来说几乎一眼就能看出来,但当信息被压缩成文字后,反而很难察觉。 相比之下,人类一般会直接盯住一条线,一路跟到终点。而这种能力在人类幼儿时期就已经很自然地具备了。 空间想象力 研究发现的第三个普遍挑战是“空间想象力”,也就是从二维图像中构建稳定的三维内部表征,并在保持结构不变的前提下,对其进行心理变换—— 比如切换视角、投影轮廓,或推断被遮挡的体积。 举例来说:给你一个视图,让你想象如果从侧面看,它应该是什么样子。 在这一任务中,Gemini 3 Pro Preview仍然选择了错误的C选项。 (正确答案:A) 在 Gemini 的推理过程中,模型会先将视觉场景转化为语言摘要,用文字描述物体,再基于这些文字去“猜测”二维特征。 但问题也正出在这里——文字叙述并不能忠实地表示空间状态。 一旦精确的图像被压缩成模糊的文本摘要,模型就很容易犯下可预期的错误:漏掉被遮挡的积木、数错层数,或使用了错误的三维投影关系。 相比之下,人类可以直接在脑海中从指定方向“转动”物体并进行对比,整个过程几乎不需要语言的参与。 视觉模式归纳 第四个挑战是视觉模式归纳:也就是从少量视觉示例中,总结出通用的变化规则,并把它应用到新的输入上。 在下面这个找规律的问题中,QWEN3-VL-PLUS选择了错误的B选项。 (正确答案:C) 模型在这类任务中常见的做法,并不是理解“发生了什么变化”,而是去数属性。 比如,颜色有多少、形状有几个、元素是否相似。它会描述源图像、描述目标图像,然后试图在文本层面把两者“对上”。 相较之下,人类在处理这类问题时,通常会直接对比前后的视觉示例,在脑中形成一个简单的“因果图”: 哪个形状包含哪个形状?谁是框架,谁是内容?这些角色在从输入到输出的过程中是如何被重新分配的? 正是这种对视觉关系进行抽象推理的能力——而非简单的识别——构成了当前模型架构仍难以跨越的一道门槛。 基于RLVR与生成式建模的视觉推理 那么, 既然基于文本的视觉推理(如 VLM)存在天然局限,那么有没有办法对这一点加以改善? 对此,研究给出了两个方向:基于可验证奖励的强化学习(Reinforcement Learning with Verifiable Rewards ,RLVR)以及基于生成模型的视觉推理。 首先来看RLVR。 具体而言,研究以Qwen3-VL-8B-Thinking作为基座模型,并在其上进行RLVR微调。 实验表明,在完成RLVR微调后,模型整体准确率提升了约4.8个百分点。从任务子类分布来看,大多数类别均出现不同程度的提升。 这和在Qwen推理模型中得到的洞见一致:一旦提取出视觉信号,显式的中间推理可以部分抵消视觉上的不确定性。 接下来是生成模型方法。 既然以语言承载视觉推理存在天然的“信息失真”,模型能否效仿人类,通过“视觉重构”—— 即在像素空间内直接演算(如绘制连线或补全图案)来完成推理。 基于这一认识,研究推出了BabyVision-Gen,评估了3种前沿视觉生成模型:NanoBanana-Pro、GPT-Image-1.5和Qwen-Image-Edit在其之上的表现。 (注:BabyVision-Gen从全量基准中筛选出280道适合生成式交互的题目,要求模型直接输出图像或视频流来表达解题过程) 实验结果显示:NanoBanana-Pro表现最优,准确率达18.3%;而GPT-Image-1.5与Qwen-Image-Edit分别为9.8%和4.8%。 虽然成功率仍然不高,但研究认为,NanoBanana-Pro与Sora-2等模型展现出了显式视觉思维,能够沿逻辑路径生成物理轨迹。 此外,在相似的字母中找不同的任务里,基于生成式的方法也表现出了一定的视觉思维能力。 这里的失误也表明:单纯的生成能力并不等同于严密的推理,生成过程还必须由稳健的视觉语义理解(Visual Understanding)进行引导。 由此,研究绕过“语言瓶颈”的统一架构,揭示了一个关键的研究趋势:将生成模型转化为原生多模态推理器。 相比于传统的MLLM强行将视觉信号压缩成文本,像Bagel这样的统一架构,能够在推理过程中保留高保真的视觉表征。 这种架构允许模型在视觉空间内进行“显式思考”——通过勾勒中间步骤、突出关键区域或实时绘制轨迹来解析问题。 同时,像Sora 2和Veo 3等模型在建模物理动力学与空间关系的能力上,进一步支持了“生成本身即是推理的一种高级形式”这一观点。 参考链接 [1]https://unipat.ai/blog/BabyVision [2]https://arxiv.org/abs/2601.06521v1
黄仁勋一句话,全球芯片股集体涨停
智东西 编译|万贵霞 编辑|云鹏 智东西1月23日消息,据《彭博社》昨日报道,本周三,英伟达CEO黄仁勋在瑞士达沃斯举行的世界经济论坛(World Economic Forum)上提到,未来几年,全球AI基础设施建设将需要数万亿美元规模的新增投资。 受这一表态提振,全球半导体板块集体走强。存储芯片制造商三星电子昨天股价一度上涨5%,创下历史新高,并推动韩国综合股价指数KOSPI首次突破5000点,费城半导体指数周三已上涨超过3%,再创历史新高。 全球AI股票攀升(图源:彭博社) 此前,美国总统特朗普撤回了针对部分欧洲国家、因格陵兰问题而考虑加征关税的威胁,为全球股市提供了额外支撑。黄仁勋在达沃斯论坛上的发言,则进一步强化了投资者对AI长期增长前景的信心。 一、AI热潮至少延续到2026年,财报与业绩成关键验证 Wedbush Securities分析师丹·艾夫斯(Dan Ives)一份报告中写道,本届达沃斯论坛的核心主题正是AI革命。多位市场人士认为,AI热潮至少将持续至2026年,投资者对高估值和国际紧张局势的担忧暂未动摇整体趋势。 据英特尔昨天公布的财报显示,第四季度营收为137亿美元(约合人民币954.3亿元),同比下降4%。全年营收为529亿美元(约合人民币3684.7亿元),与上年持平。全年来看,该公司通过经营活动产生了97亿美元(约合人民币675.7亿元)的现金流。 英特尔2025年第四季度财报(图源:英特尔官网) 英特尔CEO陈立武(Lip-Bu Tan)说,“CPU在人工智能时代扮演着至关重要的角色,其首批采用英特尔18A工艺的产品,标志着一个重要的里程碑。” 同时,英特尔CFO大卫·辛斯纳(David Zinsner)补充道,“x86生态系统作为全球应用最广泛的高性能计算架构的重要性日益凸显。” 下周苹果、Meta等科技巨头将公布业绩,可能会为行业资本开支计划提供更多线索。 二、基础设施与资本同时加速,算力供给仍在收紧 韩国资产管理的公司Eugene Asset Management首席投资官Ha Seok-Keun说,AI基础设施扩张和数据存储需求的快速增长,正在进一步收紧芯片与相关资源的供应,“市场正越来越多地将这些强化的行业基本面反映到股价中”。 Eugene Asset Management的首席投资官Ha Seok-Keun(图源:领英) 昨天,芯片设备制造商Disco Corp公布的业绩好于预期,股价在东京市场大涨17%。受北京大力推进科技自力更生政策的推动,中国科技股近期大幅上涨,但昨日涨跌互现。黄仁勋预计将于1月下旬访问中国,试图重新拓展英伟达芯片的重要市场。 尽管AI公司的资金需求巨大,但似乎并不缺少愿意通过私募交易和公开市场涌入的投资者。 《彭博社》在报道中提到,OpenAI的CEO萨姆·阿尔特曼(Sam Altman)正与中东多家顶级投资机构接触,筹备规模至少500亿美元(约合人民币3482.8亿元)的新一轮融资,公司估值可能达到7500亿美元(约合人民币52241.3亿元)至8300亿美元(约合人民币57813.7亿元)。 结语:AI竞赛进入“重资产阶段” 从黄仁勋在达沃斯释放的信号,到半导体板块的集体走强,再到英特尔、OpenAI等公司在产业与资本层面的最新动向,市场正在逐步形成共识:AI的竞争重心,已从模型能力本身,转向更底层、更长期的基础设施投入。 无论是芯片、先进制程,还是算力、数据中心和能源配套,未来几年都将成为决定行业格局的关键变量。 对此,哪些公司能够率先兑现产能、稳住供应链,并持续获得资本支持,将直接影响这轮AI浪潮的最终走向。
苹果软件负责人费德里吉接管AI 推动Siri向外部技术提速
【CNMO科技消息】当地时间1月22日,据The Information详细报道,苹果公司的人工智能战略在过去一年发生了重大转变。公司软件主管克雷格·费德里吉成为此次调整的核心人物,他已直接接管苹果AI部门的监督工作,并正在主导决定Siri及苹果全线产品中其他“苹果智能”功能未来的决策。 去年秋天,费德里吉在一次软件与AI团队的联合会议上发表讲话,表达了对更紧密协作的热情,同时也暗示了对公司在人工智能领域进展速度的不满。苹果基础模型团队的某些成员将此解读为对他们工作的批评。 去年12月,苹果将AI领导权整合至费德里吉麾下,完成了一个始于年初的过渡——当时Siri的管理职责已从AI团队剥离,并入费德里吉领导的软件部门。今年1月,苹果宣布计划使用谷歌的Gemini AI模型来支持未来的AI升级,包括一个改进版的Siri。在费德里吉看来,整合第三方模型将使苹果能够在今年晚些时候最终推出一个革新的Siri,此前该更新颇具争议地被推迟到了2025年。 然而,报道也概述了内部对将AI置于费德里吉控制下的担忧。与其共事过的人形容他高度关注成本,并对回报不确定的投资持怀疑态度。这种做法与OpenAI、Meta Platforms和谷歌等竞争对手形成鲜明对比,后者在数据中心、芯片和AI研究人员上投入了数百亿美元。 苹果试图通过强调设备端处理及其使用苹果芯片的“私有云计算”系统来限制基础设施支出。据悉,公司一直在等待AI计算成本和人才费用下降,押注大多数消费者用例最终将在设备本地处理。 据称,费德里吉曾视AI为不可预测且难以控制,更偏好那些在设计评审阶段就能清晰明确的确定性软件行为。他拒绝了使用AI动态重组iPhone主屏幕的提议,认为这种变化会使用户感到困惑。 围绕AI战略的紧张关系此前已在内部浮现。据报道,大约在2019年,当时负责Vision Pro头显开发的迈克·罗克韦尔曾提议一种AI驱动的界面。他批评费德里吉的软件方法过于保守,从而引发了一场争论。罗克韦尔后来于2025年初被任命负责Siri,并直接向费德里吉汇报。 尽管早期持怀疑态度,但在2022年底ChatGPT发布后,费德里吉的立场发生了转变。接近他的人士表示,在亲自尝试该技术后,他确信了大型语言模型的潜力,并指示其团队探索将类似能力整合到苹果产品中的方法。据报道,费德里吉得出结论认为,苹果的内部模型在设备上的表现不够好,而基础模型团队的成员则认为,他们正因模型优化相关的挑战而受到指责,而这些挑战本属于软件部门的职责范围。 一些团队成员抱怨,他们未能获得关于其模型将如何被最终使用的充分指导,这限制了其与外部替代方案竞争的能力。大约在苹果将Siri的监督权从约翰·詹南德雷亚处移除并指派给罗克韦尔(费德里吉指导更广泛的工作)时,费德里吉指示团队评估深度整合第三方模型的方案。
OpenAI“急着”为ChatGPT引入广告,谷歌DeepMind CEO哈萨比斯表示惊讶
IT之家 1 月 23 日消息,当地时间 1 月 22 日,据外媒 TechCrunch 报道,谷歌 DeepMind 首席执行官德米斯 · 哈萨比斯对 OpenAI 这么早就在 AI 聊天机器人中引入广告表示意外。 他认为,如何通过广告实现 AI 服务变现,一直是谷歌内部“非常谨慎”讨论的话题。目前,广告是谷歌最核心的业务来源之一,但 DeepMind 并未承受来自内部要求“就广告问题仓促决策”的压力。 哈萨比斯表示,考虑到基础设施和能源成本持续上升,OpenAI 可能“被迫”认真考虑广告方案,但这一选择势必会影响用户对服务本身的认知。“我确实有点意外他们这么早就走到这一步。广告本身没有问题,支撑了大量面向消费者的互联网服务。如果方式得当,广告也可以有价值。” 不过,哈萨比斯随即指出,在作为“AI 助手”的使用场景中,问题就会复杂。“如果把聊天机器人视为一种帮助型助手,而且随着能力增强,最终会成为真正为个人服务的技术,那么广告该如何融入这种模式,就值得认真思考。你希望能够信任你的助手,那么(广告)又该怎么运作呢?” 哈萨比斯重申,谷歌目前并无在 AI 聊天机器人中引入广告的计划,而是会观察用户反馈再作决定。 用户此前已经对广告进入 AI 对话场景表现出明显反感。据IT之家了解,OpenAI 上个月曾尝试在聊天过程中推荐应用,部分用户认为这种体验与侵入式广告无异。随后,OpenAI 关闭该功能,并强调这次的推荐“不涉及金钱”。 哈萨比斯认为,聊天机器人与搜索产品存在根本差异。搜索场景下,用户意图清晰,展示相关广告相对自然;而聊天机器人则被设计为了解用户、协助处理生活中多种事务的数字助手。“这与搜索场景完全不同,因此必须非常慎重。” 报道提到,DeepMind 并未承受来自管理层的广告压力,未来则“不排除”会存在合适的实现方式。“我们不会因为短期压力就作出下意识决定。DeepMind 一直坚持以科学、严谨和审慎的方式推进每一步,无论是技术,还是产品。”
九骏踏浪,海淀这片“创新深海”做了啥?
当九家科技企业一年内鱼贯登陆全球资本市场,人们意识到,海淀的奇迹,不是造出了几艘快船,而是它本身就是一片能托举任何航船的深海。 2025年末,随着五一视界在港交所鸣锣,海淀区年内第九家科技企业成功上市,为这波澜壮阔的一年画上句号。从赛目科技年初启航,到摩尔线程、云知声、一亩田等企业接连亮相,这九家企业驰骋全球资本市场,以平均首日涨幅超160%、募资总额逾130亿元的亮眼成绩,印证了这片土地澎湃的创新活力。 人们不禁追问:海淀何以孕育出这样一片“创新深海”,吸引人才汇聚、企业扎根、资本青睐,最终成就“九骏踏浪”的盛景?答案,深藏在这片海域的生态密码之中。 创新的深度,源自长期的知识积淀与人才储备。海淀的“深”,始于清华园、燕园的学术底蕴,成于产学研深度融合的生态闭环。 1996年,清华大学知识工程实验室(KEG)成立,为二十年后“大模型第一股”智谱AI的诞生埋下伏笔。 海博思创创始人张剑辉在清华大学电机系取得博士学位后,带着储能技术研究成果扎根海淀。从实验室原型到“储能第一股”,海博思创上市首日涨幅达229%,正是“知识-人才-产业”无缝衔接的生动体现。 一亩田创始人邓锦宏在北京邮电大学萌生农产品电商构想,在海淀的智力网络中持续打磨,终成农业互联网第一股。 量化派创始人周灏凭借北京大学物理学的理性思维,在此找到技术落地的土壤,深耕消费科技赛道并获得资本认可。 数据为证:北京约四成顶尖人工智能人才汇聚于此,其中超八成扎根海淀;区内集聚37所高校及中国科学院等国家级科研机构,构建起“基础研究-人才培养-成果转化”的完整链条。这片海的深度,非一日之功,而是数十年如一日深耕知识与人才的结果,让每次技术突破有源可溯,每位创业者有基可依。 深度决定创新底蕴,广度则定义成长空间。海淀的“广”,体现在全产业链的协同、资本的多维赋能以及面向未来的前瞻布局。 “在海淀,寻找上下游合作伙伴无需跨城,一小时车程内就能完成技术对接与客户验证。”摩尔线程创始人张建中的感慨,道出了产业集群的地理优势。 作为“国产GPU第一股”,摩尔线程攻克核心技术背后,是海淀集成电路产业“一区一带”的体系化支撑——学院路沿线高校与科研机构助力技术攻关,北清路IC PARK园区提供产业配套,而下游企业如五一视界既成为其客户,也通过数字孪生等场景反哺其产品优化,形成“算力-应用-迭代”的良性闭环。 这种协同效应,不仅推动摩尔线程上市首日涨幅425.46%总市值超3000亿元,更助力海淀集成电路产业链汇聚超过240家企业,覆盖设计、制造、封装测试等全环节。 资本的广度让创新免于资金之困。海淀不仅拥有规模达200亿元的中关村科学城科技成长基金作为牵引,还汇聚了超过3200家金融机构,形成覆盖企业全生命周期的融资服务体系。滴普科技凭借其技术双底座,在港股创下超7500倍的认购纪录,背后既有红杉中国、高瓴创投等顶级资本加持,也得益于海淀“创融海淀”系列投融资对接活动的桥梁作用——全年近百场对接,帮助上千家企业与资本精准匹配。 更具战略意义的是布局未来的广度。当不少地区仍在追逐成熟赛道时,海淀已瞄准具身智能、量子信息、脑机接口等20余个前沿领域,并出台专项政策予以培育。 算力补贴额度从2023年的1000万元提升至2025年2000万元,北京人工智能公共算力平台积极融入“东数西算”体系,夯实未来产业的算力基础;概念验证支持计划已联合清华、北大等7所高校成立概念验证中心,截至目前累计立项188个项目、落地37家企业,加速“从0到1”的突破。 这片海的辽阔,让企业既能驰骋于当下主航道,亦能启航于未来新蓝海。 真正的创新生态,绝非人工构建的“静水小池”,而是自由生长的“活力海洋”。海淀的“包容”,体现在适宜的“政策盐度”、丰富的“营养供给”,以及让各类创新生命都能找到生态位的“水体环境”。 “在海淀创业,最安心的是不用应付琐碎行政事务。”这是一亩田负责人的心声,也代表了许多创业者的体验。 海淀的政策支持不搞“大水漫灌”,而是“精准滴灌”:面向科技企业的“一站式服务”,实现工商注册、人才落户、政策申报全程网办;科技金融服务驿站入驻园区,让企业“足不出园”对接资本;针对细分领域的隐形冠军,提供量身定制的扶持方案——昂瑞微从2G向5G射频芯片的突围之路,便受益于海淀区专项流片补贴与市场对接支持,最终以160.11%的首日涨幅登陆科创板。 包容更体现为生态的开放性与流动性。海淀的创新水体始终与全球创新洋流联通:DeepSeek虽总部设于杭州,仍将核心研发团队布局海淀,看中的是“顶尖人才与前沿技术的触达效率”;红杉中国、启明创投等外资机构长期深耕于此,看重的是“公平透明的市场环境与持续迭代的创新土壤”。 这种开放,让奇绩创坛、创新工场等市场化孵化器与高校创业社群和谐共生,让产业资本、国有平台与一线投资机构同台共舞,形成“多元参与、良性竞合”的生态氛围。 奇绩创坛2025年春季创业营路演日活动展区 尤为可贵的是“反哺式”包容。当智谱、寒武纪等企业成长为行业标杆后,纷纷通过投资、孵化回馈生态——智谱发起的“Z计划”已投资数十家上下游企业,其中半数将研发中心设于海淀;寒武纪的芯片技术为区域内AI企业提供底层支撑。 这种“大鱼育幼、生生不息”的循环,让海淀生态持续繁荣。正如一位创业者所言:“在这里,你从不孤单,整个生态都在为你赋能。” 2026年的晨光洒落中关村大街,海淀的“创新深海”依旧奔流不息。九骏上市前浪奔腾,更多“独角兽”蓄势待发——超过百家后备上市企业整装待发,四百余家国家级专精特新“小巨人”茁壮成长,具身智能、量子计算等新赛道已现晨光。 这片海的未来,蕴藏于持续进化的生态之中:万P级别智算集群将注入更强算力,万台级具身机器人规模化落地场景正在酝酿;量子产业园的崛起、脑机接口产业联盟的实体化,将持续催生未来经济增长点;日益开放的全球合作网络,将助推海淀创新成果走向世界。 “创新的本质,是让生态的力量超越个体的奋斗。”海淀的成功,并非源于政策的强力驱动,而是得益于生态的自我演化;不依靠短期的冲刺,而在于长期的坚守。 它以海的深度筑牢根基,以海的广度拓展航道,以海的包容涵养活力,终让“九骏踏浪”成为必然,让创新奔涌成为常态。 新的一年,这片“创新海”将以更辽阔的胸怀、更澎湃的动能,托起更多逐浪者的梦想。九骏在前,万马奔腾正当时——海淀的科创企业正逐浪而行,勇立潮头,不断续写中国科技创新的新篇章。
7999元起荣耀Magic 8 RSR保时捷手机开售:第五代骁龙8至尊版
IT之家 1 月 23 日消息,荣耀手机官方刚刚宣布,荣耀 Magic8 RSR 保时捷设计今日 10:08 正式开售: 16GB+512GB:7999 元 24GB+1TB:8999 元 新机在外观设计上融合了保时捷汽车的经典元素,其后盖采用了超微晶纳米陶瓷材质,提供了板岩灰与月光石两种配色选择,机身设计包含被称为“保时捷流光飞线”的装饰线条。 在核心配置方面,这款手机搭载了高通第五代骁龙 8 至尊版移动平台,其顶配版本配备了 24GB 运行内存。手机正面覆盖有荣耀巨犀玻璃,并支持 IP68 与 IP69K 级别的防尘抗水能力。通信方面,该机支持天通卫星通信和北斗卫星消息功能。 影像系统是此次产品的重点之一。IT之家从官方获悉,其后置摄像头模组包含一颗 5000 万像素主摄、一颗 5000 万像素超广角镜头,以及一颗支持 3.7 倍光学变焦的 2 亿像素长焦镜头。 该机支持安装名为“专业影像套装”的附加配件,其中包含一个磁吸式摄影手柄、滤镜转接环以及一个 200mm 长焦增距镜,旨在改善拍摄握持感并拓展远摄能力。此外,手机搭载了名为 AiMAGE 的原色引擎和经过认证的防抖技术。 其他方面,该机配备了超声波屏下指纹与 3D 人脸识别功能,内置 7200mAh 容量电池,支持 120W 有线快充和 80W 无线快充,并运行MagicOS 10 操作系统。
中国游戏电视3.0标准正式发布 京东联合奥维云网编制
【CNMO科技消息】近日,“京东电视影音行业交流会暨游戏电视标准发布”活动在北京京东MALL(双井店)举行,TCL、海信、创维、长虹、康佳、三星、索尼、海尔、LG、小米、华为等主流电视品牌代表齐聚一堂,共同见证《2026游戏电视3.0标准白皮书》的正式发布。该标准由奥维云网(AVC)、京东与哔哩哔哩联合编制,旨在从硬件性能、生态协同与使用场景三大维度建立统一评价体系,推动游戏电视从参数竞争转向真实用户体验导向。 奥维云网总裁助理兼消费电子事业部总经理翁振华在会上发布了《2025年中国彩电行业总结报告》。他指出,当前中国彩电市场已进入典型的存量阶段,若继续沿用增量市场的打法,将导致行业内耗加剧。未来增长需依托五大核心趋势:大屏化、艺术化、高刷率、AI能力与显示技术升级。值得注意的是,游戏已成为电视第二大使用场景,叠加2026“游戏大年”的全球热度,游戏电视正迎来关键发展机遇期。 京东家电家居事业群黑电业务部负责人雷志强回顾了2025年合作成果,并提出2026年将深化“推高卖新”战略,重点聚焦四大方向:百吋大屏电视、游戏电视、艺术电视及自研的京东OS系统。在渠道层面,京东计划进一步整合线上线下资源,推进全渠道一体化运营,通过全域营销联动与送装一体服务,提升用户从选购到安装的全流程体验。 此次发布的《游戏电视3.0标准白皮书》融合了奥维云网的零售数据、京东的用户行为洞察以及哔哩哔哩对Z世代群体的内容生态理解,首次在行业内构建起涵盖硬件配置(如144Hz及以上刷新率、VRR可变刷新率、ALLM自动低延迟模式)、跨设备互联能力(手机/PC/主机无缝投屏)、游戏内容适配(专属UI、帧率匹配、音效优化)及场景化交互(语音控制、多任务分屏)的综合评估框架。标准强调,真正的游戏电视不应仅堆砌高参数,而需实现“开机即玩、画面不撕裂、操作零迟滞、生态可扩展”的完整体验闭环。
美国冬季风暴将至,苹果iPhone“天气”因预测不准而备受质疑
IT之家 1 月 23 日消息,本周末,美国大部分地区预计将迎来一场大规模冬季风暴。在风暴来临之前,许多用户严重依赖 iPhone 自带的“天气”App 查看天气预报。 《纽约时报》当地时间 1 月 22 日报道称,苹果“天气”App 并非 100% 准确,例如部分地区范围内降雪量显示可达 17 英寸(IT之家注:约 43.2 厘米)甚至更多。 类似的情形也出现在美国多地,随着时间推移,天气预报看起来愈发“严峻”,甚至让人产生天气应用是否“反应过度”的疑问。《纽约时报》对此解释称,从专业气象工作的角度看,这些夸张的预报既不完全错误,也并非完全可靠。关键差异在于预报方法。 美国国家气象局的预报员在制作官方预报时,会综合多个气象模型的数据,并由数十次模拟而组成“预报”。然而,这些模型通常每天更新数次,同时参考美国国家气象局(NWS)的指导。雪量预测通常会在接近事件发生时才制作,因为早期模型显示的迹象与实际天气系统可能存在较大差异。 目前,美国气象部门还在尝试引入 AI 模型作为辅助工具。地方电视台气象员通常也会在国家气象局指导的基础上,加上预报员自身的经验判断进行修正。 相比之下,手机上天气 App 往往只展示单一数值模型的结果。应用直接调用原始模型数据并推送给用户,但缺乏对其他可能情景的背景说明。单一模型有时会给出较准确的结果,但在上述复杂天气形势下很容易显得偏激,从而呈现出明显夸张的“极端天气”。 更何况,苹果“天气”往往会提前长达 10 天雪量预报,但天气模型无法在如此早的阶段准确预测天气情况,而苹果本身也缺乏人为修正和解释的能力。 另外一项增加不确定性的因素,是降水到达地面的具体形态。气象学中通常会依据经验公式,将高空的降水量转换为地面可能出现的降雪、冻雨或降雨量。但在温度结构复杂、冷暖空气交汇明显的风暴中,这种转换尤其难以提前精确判断,这也是为何降雪预报常以“区间值”呈现的原因。 在上述风暴中,美国 GFS 模型和欧洲 ECMWF 模型给出的预报路径和强度存在明显差异:美国模型显示风暴将偏南运行,给美国南部带来冰冻降水;欧洲模型则给出更偏北、但强度较弱的方案。对纽约而言,前者意味着几乎无雪,后者则暗示周日可能出现降雪。 随着时间推进,两种模型预测逐渐趋同。到周三下午,美国模型明显北移,与欧洲模型在风暴初期路径上达成一致,这也让气象部门首次认真讨论东北地区可能出现半英尺以上降雪的情形。 到周四,模型整体保持一致,但最终的降雪量仍取决于风暴路径的细微变化,这些变化往往要等到风暴来临时才能最终确定。 苹果官网支持页面显示,苹果“天气”的主要数据来源包括美国国家气象局、The Weather Channel 和 NOAA。然而,这些信息在应用中大多未经语境加工便呈现出来。肯塔基州路易斯维尔 WDRB 电视台气象学家 Marc Weinberg 在社交媒体表示:“95% 以上的气象界人士都希望苹果天气消失。这个应用对整个气象行业来说是一场灾难。” 尽管苹果天气在短期预报和重大天气警报上仍有参考价值,但在极端天气情况下,建议用户参考多个气象来源。当地气象台提供的手工制作的预报往往更具准确性。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。