行业分类:
加载中...
头条分类:
加载中...
古尔曼:苹果正研发MacBook Ultra,外观重大升级、首搭OLED屏幕
IT之家 4 月 25 日消息,彭博社的马克 · 古尔曼(Mark Gurman)昨日(4 月 24 日)发布博文,报道称苹果公司内部正在酝酿 MacBook Ultra 旗舰笔记本,定位高于现有的 MacBook Pro,预估会在 2027 年年初发布。 消息称这款旗舰笔记本有望 2027 年年初发布,上市后可能名为 MacBook Ultra,并且在外观方面会有重大调整,是苹果 2021 年推出 M1 Pro / Max 芯片 MacBook Pro 后首次重大重新设计。 显示技术方面,MacBook Ultra 有望成为首款搭载 OLED 屏幕的 MacBook,相比现款 Mini LED 背光 LCD 屏幕,新技术将带来更鲜艳的色彩、更高的对比度及纯粹的黑色显示效果。 细节方面,IT之家援引博文介绍,屏幕顶部刘海设计可能被灵动岛取代,采用挖孔式摄像头,进一步缩窄边框,并在低电量提醒、耳机连接等交互场景中提供更优体验。 交互方式也将发生变革。苹果计划为 MacBook Ultra 加入触控屏功能,打破乔布斯曾提出的“手臂疲劳”质疑。用户将能通过手指直接操控屏幕,配合键盘和触控板使用。 此外,机身设计将更加轻薄,OLED 面板的应用有助于降低厚度,但目前暂无消息称苹果会移除 HDMI、MagSafe 或 SD 卡槽等接口。 核心性能方面,新品将搭载采用台积电 2nm 工艺打造的 M6 Pro 和 M6 Max 芯片。相比现款 M5 系列使用的 3nm 工艺,新工艺预计带来更大幅度的性能与能效提升。网络连接方面,MacBook Ultra 有望内置苹果自研 C1X 或 C2 基带,支持 5G 和 LTE 网络。
梁朝伟谈出演《寂静的朋友》:与导演同频 与孤独共生
     《寂静的朋友》剧照。资料图片   由匈牙利导演伊尔蒂科·茵叶蒂编剧并执导,德国、匈牙利、法国、中国4国合拍的影片《寂静的朋友》于4月25日全国公映。在日前的上海发布会上,主演梁朝伟谈及这部与自己过往作品截然不同的电影时表示,接下王教授这一角色的原因无关情节,主要是与导演跨越东西方的灵魂同频。   “我挑合作对象,导演永远是第一位的。”梁朝伟坦言,看到剧本前,他已被导演伊尔蒂科·茵叶蒂的前作打动。第一次线上会议,两人未聊《寂静的朋友》剧本,而是着眼其中的东西方哲学观点,他瞬间认定导演是能同频的人。见面后,导演的自信与接地气更让他笃定彼此可以合作。   为演好王教授这位神经科学家,梁朝伟做足功课,翻阅大量脑科学专业书籍,全力代入学者身份。“那场教学的戏,我必须真的明白自己在讲什么,不然观众会从我的眼睛里看出空洞。”即便影片杀青后,他仍会不自觉翻看科学类文章。   与有“全世界最孤独的植物”之称的银杏树搭戏,梁朝伟并未觉得困难。他提前飞赴德国小镇,独自生活、闲逛,体会异乡的疏离感;拍摄时,他遵从导演“不要表演,只要真实自然反应”的要求,放下演员身份,凭内心感受与银杏树建立连接。   梁朝伟坦言自己本就偏爱独处,周末常关掉电子设备“闭关”。在他看来,孤独不是痛苦,而是与自己对话的契机。这也让他读懂王教授雨中与树通感的戏里想要达到的“天人合一”——那是东方人刻在骨子里的人和自然融为一体的渴望。这次合作过程中,小而温暖的团队给了梁朝伟足够安全的空间。他笑称自己像家里种的夜来香,白天收起来做个普通人,只有在工作时才会悄悄绽放,给观众带来一点惊喜。   “我希望大家能以平常心看这部电影。”梁朝伟说,这不是难懂的艺术片,只是一次安静的、人和自然的对话。就像他和那棵银杏树的相遇,慢一点,静一点,就能听见彼此的心跳和呼吸。
收入超837亿元 中国演出市场活力强劲
  好戏连台、业态焕新、产业融合,中国演出行业交出一份亮眼成绩单。   全国演出市场总体收入达837.22亿元,同比增长5.19%;全国营业性演出(不含娱乐场所演出)场次为64.04万场,观众人数为1.94亿人次。   由中国演出行业协会主办的2026中国演出交易会4月21日至23日在内蒙古呼和浩特举办,会上发布了2025年演出市场数据和专项报告。一项项数据、一场场洽谈,折射出市场的火热。   “演出市场已进入从内容供给到场景体验、从单一票房到生态经济的新阶段。”中国演出行业协会会长刘克智表示。   演员在原创民族舞剧《红楼梦》第300场演出中表演。新华社记者 李博 摄   好戏连台,回应人民群众期待——   数据显示,在舞台艺术演出领域,市场化程度较高的艺术门类演出保持上升态势。   以音乐剧为例,2025年音乐剧票房、观众人次同比分别增长7.55%、10.41%,成为演出市场一大亮点。   主旋律题材创作踊跃,《寻找李二狗》《风声》等用细腻表演、精美制作彰显家国情怀,滋养精神家园。本土音乐剧活力凸显,《锦衣卫之刀与花》《大状王》等植根传统文化沃土,让古韵国风成为“顶流审美”。   舞剧市场同样精彩纷呈。《牡丹亭》《龟兹》等新作融合传统文化与地域特色,颇受观众青睐。《红楼梦》《只此青绿》等经典剧目常演不衰,保持头部地位。   “我们围绕选题、解题、创作三个环节发力,不断提升作品的思想内涵和艺术品质。”中国东方演艺集团党委书记、董事长景小勇说。   舞台剧目百花齐放,满足了人民群众日益增长的文化需求,彰显了人民文艺的鲜明底色。   业态焕新,培育消费新增长点——   今年2月,音乐剧《夜幕下的哈尔滨》在哈尔滨大剧院完成驻场演出,共吸引1.5万人次观演。剧院配套推出“夜哈号”旅游观光巴士,让观剧体验从剧场舞台延伸至城市空间。   策划艺术市集、关联研学项目、开发多元业态,多地专业剧场拆掉“围墙”,把单一的演出场所变成城市文化会客厅。   与此同时,“小而美”的演艺新空间渐成集群发展态势。小剧场演出安排灵活、票价定位亲民,近年来吸引不少年轻人专程打卡。   上海亚洲大厦汇集19个演艺小剧场,每周上演数十场演出;长沙部分小剧场融入街区和商圈,与餐饮住宿业态联动……小剧场释放“大能量”,成为城市文化消费新引擎。   线下与线上的边界也在消融。许多剧场开启“第二现场”直播,为无法到场的观众打开一扇窗。一张票根,既通往一出好戏,又开启融合购物与社交的新体验。   过去一年,演出经营主体配套服务收入、演出衍生品收入实现双增长。从大场馆到小空间,从线下“流量”到线上“增量”,新场景新业态助力培育消费新增长点。   游客在甘肃敦煌观看大型洞窟沉浸式体验剧《乐动敦煌》。新华社发(张晓亮摄)   产业融合,赋能经济社会发展——   一场演唱会能拉动多少消费?数据给出答案:大型演出对其他消费的平均带动系数为1:6.85,2025年大型演出带动交通、住宿、旅游等关联消费超2200亿元。   “多地构建起以‘歌迷专列’为代表的交通网络、以‘票根经济’为核心的消费生态和以‘一站式服务’为基础的保障体系,实现‘3小时演出撬动72小时消费’。”刘克智介绍。   南京去年共举办61场万人演唱会,吸引近八成外地观众跨城观演;贵阳孵化本地音乐与艺术节,打造区域特色名片……“为一场演出赴一座城”渐成消费新常态。   “打通文旅体融合链条,把服务延伸至观众抵达前的每一公里,必将不断激发消费潜力,为经济社会发展注入动能。”大麦总裁沈严说。   演出市场火热,离不开政策引领。国务院办公厅印发《加快培育服务消费新增长点工作方案》,明确支持发展“演出服务”;商务部等九部门发文,提出围绕体育健康、演出服务等领域打造消费新场景……今年以来,一系列政策举措密集出台,为行业发展保驾护航。   我们期待,在政策和市场驱动下,文艺精品持续涌现,演出市场热气腾腾。
奥特曼就大规模枪击案道歉:OpenAI未及时向警方举报嫌犯
奥特曼 凤凰网科技讯 北京时间4月25日,据《华尔街日报》报道,OpenAI CEO萨姆·奥特曼(Sam Altman)就未及时向警方通报杰西·范·鲁特塞拉尔(Jesse Van Rootselaar)的活动,向加拿大塔布勒岭镇‌致歉。范·鲁特塞拉尔是今年2月一起导致8人死亡的大规模枪击案的嫌疑人。 奥特曼在一封日期为4月23日的信中表示,他对OpenAI未就范·鲁特塞拉尔的情况联系执法部门感到抱歉。该嫌疑人的ChatGPT账户已于去年6月被公司停用。 “我谨向整个社区表达最深切的哀悼。任何人都不应承受这样的悲剧。”奥特曼写道。 此前,OpenAI的自动审核系统在内部标记了范·鲁特塞拉尔描述暴力场景的消息,随后将其账户封禁。据《华尔街日报》报道,部分员工将其文字解读为可能发生现实暴力事件的信号,并敦促领导层提醒加拿大执法部门,但OpenAI高管最终决定不联系当局。 奥特曼在信中重申了对塔布勒岭镇镇长及不列颠哥伦比亚省省长的承诺,将寻求方法避免类似悲剧在未来重演。 他写道:“今后,我们将继续专注于与各级政府合作,协助确保此类事件永不再发生。”(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
阿维塔06T正式上市:搭载太行智控2.0技术,售价21.99万元起
凤凰网科技讯 4月25日,阿维塔科技宣布智美全场景运动轿车阿维塔06T于4月22日正式上市。新车共推出纯电、增程两种动力五款车型,官方售价区间为21.99万元至27.99万元,限时权益后到手价为21.59万元至27.59万元。即日起用户可通过阿维塔App、阿维塔官网、阿维塔小程序以及全国门店等官方渠道进行订购,并同步开启交付。 阿维塔06T全系标配太行分布式电驱,提供双电机后驱与三电机四驱两种方案,最快零百加速2.78秒,可通过主动独立调节左右扭矩,实现车身主动控制,同时,新车还具备抬升通行功能,可主动升高底盘。 新车搭载华为乾崑ADS辅助驾驶系统,配备896线激光雷达,将成为首批搭载华为乾崑ADS 5的车型。智能座舱采用鸿蒙座舱HarmonySpace 5,集成MoLA混合大模型Agent架构。Elite版车型额外搭载华为乾崑Limera舱内激光视觉传感器,标配23项主动安全能力并支持城区NCA功能(需订阅)。 车身尺寸方面,轴距达到2940mm。动力方面,新车提供纯电与增程双动力选择,支持5C超充。安全方面,新车搭载华为乾崑全维防碰撞系统CAS 4.0、笼式车身及全车9安全气囊,电池全系标配宁德时代电池。 此外,阿维塔科技公布了限时购车政策:2026年5月31日(含)前下定可享至高价值6.9万元权益,包括:4000元限时现金权益、10000元限时老车主升级礼遇、20000元主副驾双零重力座椅免费升级、3000元外饰色限时折扣、12000元个性化选配基金、20000元ADS高阶功能包等额抵扣券、6000元ADS Pro增强版高阶功能包等额抵扣券、贷5年首2年0息限时金融购车礼遇、首任车主终身三电质保。2026年5月10日(含)前下定,额外可享5000元保险补贴权益。
最挤五一档,期待“电影+”释放新动能
           作为上半年仅次于春节档的核心观影窗口期,五一档凭借五天假期优势,成为各类影片角逐市场的重要舞台。   倒计时开启,电影五一档蓄势待发。档期内,家庭温情、国风动画、重磅IP续集、主旋律战争片、经典港片4K修复版重映、犯罪悬疑……不同类型、不同风格,多样化选择是市场供给的一大特色。   作为上半年仅次于春节档的核心观影窗口期,五一档凭借五天假期优势,成为各类影片角逐市场的重要舞台。从4月28日在全国艺联专线上映的《燃比娃》到5月4日公映的《浴血困牛山》,共计18部影片将陆续在假期前后与观众见面,其中5月1日当天将迎来约10部新片集中上映。不同题材、不同风格的作品精准覆盖全年龄段观众,满足多样化观影需求。不过,相较于“最挤五一档”的定位,业界更关注,丰富供给如何借黄金长假激活乘数效应,释放“电影+”新动能。   “无对标”成为电影核心竞争力   近年来,随着游戏、微短剧等文娱内容迅速崛起,传统电影面临前所未有的注意力分流。清华大学教授尹鸿指出:“每一次新媒介形态出现,都会冲击原有形态的生存方式,电影要做的,就是找到独特的媒体差异性。”在他看来,影片的必看性和独特性,是如今吸引人们走进电影院的核心竞争力。“近年来真正火的电影几乎找不到对标品,全是独特的、创新的。”   从《大闹天宫》的恢宏激昂到《山水情》的诗意留白,上美影用一笔一画勾勒出几代中国人的共同回忆。如今,中国动画学派又上新。作为首部宣纸手绘动画长片,《燃比娃》的故事扎根于古老的羌族神话,讲述了少年“燃比娃”与伙伴“狗狗”踏上艰险征途,前往神山探寻温暖真谛、夺取火种,最终揭开自身身世之谜的冒险历程。影片导演李文愉师从著名动画导演马克宣——后者正是经典水墨动画《山水情》的联合导演之一。李文愉介绍,影片全程采用宣纸手绘,累计创作画稿超五万张,“宣纸渗化、吸墨、留白带来的‘不可预期’,成就了影片的独特表达”。自从第75届柏林国际电影节全球首映以来,该片可谓一路累积影迷期待,曾获得海内外多项重磅荣誉,并入围三大国际A类电影节。   同样“无对标”,潮语电影《给阿嬷的情书》在近日点映后凭口碑出圈,被看好为档期黑马。新片聚焦广东人真实经历的“下南洋”历史,用镜头勾勒出大时代背景下小家庭的悲欢离合。导演蓝鸿春希望,通过影片传递中国人传统的美好品质和至真至善的情感。该片主演阵容值得一提。2024年,泰国电影《姥姥的外孙》在内地上映,片中饰演“姥姥”的乌萨奶奶获得不少中国观众的关注。此次她在《给阿嬷的情书》中饰演老年南枝,不仅契合了影片“下南洋”的历史背景,也通过两国演员的对手戏,展现跨越山海的动人情谊。而饰演青年南枝的李思潼与饰演木生的王彦桐等都是“素人上阵”,以生活化的演技诠释潮汕家庭内部的细腻情感。   今年是红军长征胜利90周年。作为档期内唯一的主旋律战争片,《浴血困牛山》以红军长征时期的真实故事为蓝本。1934年,红六军团十八师52团百余名战士,为掩护主力突围,主动诱敌至困牛山绝境。当国民党反动派挟持老百姓当人肉盾牌,年轻的红军战士“宁死不伤百姓,宁死不当俘虏”,全部跳崖牺牲。影片主创用四年打磨剧本,终以影像还原英雄壮举。   导演陈思诚携新作《10间敢死队》也将登场五一档。这部由蒋龙、齐溪、杨超越等主演的轻喜剧,是陈思诚在“唐人街”IP和悬疑题材后的全新尝试,讲述了绝症患者病房里一段病友互助的故事。该片在北京国际电影节的首映现场获得不少好评。   假日档推动“电影+”消费场景落地   经典IP回归、商业类型丰富,也是本次五一档的鲜明看点。港产续集《寒战1994》由吴彦祖、周润发、郭富城、梁家辉、古天乐五位明星演员联袂主演。主创将故事拉回1994年,揭开系列故事起源,展现警界多方势力的权力博弈。   悬疑剧情题材持续发力,扎堆抢占市场成为热门赛道。《消失的人》讲述离奇失踪案件,以密闭空间强设定打造烧脑剧情,郑恺、刘浩存等主演带来高能悬疑体验;《非常证人》《一只绣花鞋》等悬疑惊悚影片同步上线,凭借层层反转的剧情,满足悬疑爱好者的观影需求。改编自郑执同名小说的《森中有林》由于和伟、高圆圆等领衔主演,围绕一桩跨越40年的悬案,讲述两组家庭的命运纠葛。该片的公映期虽延至一个月后,但此次假期也会以大规模点映争取口碑先行。   此外,国民动画IP《猪猪侠大电影之竞速小英雄》和国风神话动画《红孩儿火焰山之王》齐聚五一档,前者主打热血竞速与友情守护,后者以西游IP为基底讲述少年成长故事,成为亲子家庭观影的首选。时隔20年回归的《穿普拉达的女王2》定档4月30日,梅丽尔·斯特里普、安妮·海瑟薇等原班人马悉数回归,影片聚焦时尚杂志的生存困境,上演主角身份反转的全新故事。   如今,电影经济生态扩容已成业界共识。今年,国家电影局启动“2026电影经济促进年”,并联合各地推出“跟着电影去旅游”“跟着电影品美食”“跟着电影赏非遗”“跟着电影逛市集”等系列活动。包括上海在内,全国多地推动“电影+”消费场景落地,让电影流量转化为消费增量。   “最挤五一档”开幕在即,各地纷纷推出“票根经济”等举措。借力假日档期,在这场以电影为媒、以文化为核的消费升级中,业界期待,各地能将电影元素融入城乡街巷、植入日常生活,推动“电影+”成为拉动消费的新动能。(王彦)
亚沙会全天综合:四海宾朋相聚三亚 中国健儿圆梦首金
  新华社三亚4月23日电(记者郑直 胡佳丽)23日是第六届亚洲沙滩运动会开幕后的首个比赛日,在前一晚开幕式上共赴“天海之约”的四海宾朋,当日现身这座海滨城市的各个赛场。当日率先结束的游跑两项男子个人赛中,东道主选手范俊杰带伤作战,获得本届赛事首金。 4月23日,中国选手范俊杰在比赛中。新华社记者 朱峥 摄   “亚沙会开幕式传递了一个非常积极的信号,强调国家和地区之间的和谐、友谊与和平,即使在如今这个充满挑战的时代。”国际龙舟联合会主席克劳迪奥·舍米心有所感。当日在三亚河竞赛场馆观看了各支队伍赛前训练后,他表示:“我很高兴看到本届亚沙会龙舟比赛组织得非常好。龙舟运动正在世界范围内不断普及,在亚沙会获得奖牌,将对推动各地龙舟运动发展起到重要作用。”   国际奥委会终身名誉主席巴赫则现身男子沙滩排球比赛观众席,如今正享受“退休生活”的他观看了中国队与斯里兰卡队的下半场比赛,也在上午关注了其他一些项目的角逐。   4月23日,国际奥委会终身名誉主席巴赫(前右)在沙滩排球场地观赛。新华社记者 晋美多吉 摄   “他们来到了一个美丽的岛屿,这为本次赛事提供了绝佳的背景。”巴赫说,“他们可以在这里全力以赴,享受运动、享受海南的热情好客,并在这个对于亚洲和世界来说都非常特殊的时刻,享受整个亚洲的团结一心。”   在这个特殊时刻,伊朗代表团克服种种困难,如约而至。他们先坐车从德黑兰前往伊朗与土库曼斯坦边境,然后从土库曼斯坦首都阿什哈巴德飞到北京,再飞来三亚,用了两天多时间。   “通过参赛,我们想传递的信息是,伊朗人民支持和平、遵守规则、支持亚洲的团结。”伊朗奥委会秘书长迈赫迪·阿里内贾德说,“我们来了,向大家展示伊朗还活着,我们的运动员依然能比赛。”   “伊朗队是一支强大的队伍,我们就是为夺冠而来的。”伊朗队球员阿米尔·巴尔托尔克说。当天的沙滩足球小组赛中,伊朗队以5:2战胜阿联酋队。 4月23日,伊朗队选手在比赛中庆祝得分。新华社记者 胡竞文 摄   当日共有两个项目产生奖牌,游跑两项男子个人赛是本届赛事首个结束的小项。顶着伤势,中国队选手范俊杰率先冲过终点。范俊杰说,他一直用“铁人百炼成钢,首战为国争光”的口号来激励自己。最后1.25公里腿已经快撑不住,全靠咬牙顶住。最终他圆梦金牌,也为东道主取得“开门红”。   范俊杰当日的幸福不止于此,在游跑两项女子个人赛中,他的妻子林鑫瑜同样率先冲线,夫妻二人包揽该项目当日的两枚金牌。 4月23日,冠军中国选手林鑫瑜在颁奖仪式上。新华社记者 潘昱龙 摄   “刚才看到他拿金牌了,我也很开心。这也是我们第一次分别拿到金牌。”林鑫瑜说,“日常生活中我们也是互相激励、鼓励,分享比赛心得,一起为国争光。”   柔术项目当日产生三枚金牌,其中两枚由阿联酋选手获得,哈立德·阿尔谢希和阿斯玛·胡萨尼分获男子62公斤级、女子52公斤级金牌,菲律宾选手亚历山德里亚·恩里克斯拿下女子63公斤级金牌。 4月23日,阿斯玛·胡萨尼在赛后庆祝胜利。新华社记者 贝赫 摄   本届亚沙会增设女子水球项目,中国队与哈萨克斯坦队同取两连胜,锁定该项目亚沙会历史首金争夺战席位,冠军将于24日产生。同日,产生金牌的项目还有柔术、沙滩田径与龙舟。
汤尤杯前瞻:国羽冲击双冠再拼硬仗
  新华社丹麦霍森斯4月23日电(记者周欣、张玉亮)2026年汤姆斯杯暨尤伯杯决赛圈比赛将于4月24日至5月3日在丹麦霍森斯举行。两年前,中国队在成都包揽双冠;两年后,世界羽坛竞争更加激烈,呈群雄竞逐态势。随着洛杉矶奥运周期开启,国羽在延续此前主力框架的同时注重新老交替,整体实力依然处于第一梯队,但在客场作战背景下,本届赛事能否再攀高峰,取决于队伍的稳定性与关键分把控能力。   2024年5月5日,中国羽毛球队成员在2024年汤姆斯杯暨尤伯杯颁奖仪式后合影。新华社记者 江宏景 摄   从阵容结构看,中国队延续“以老带新”的思路,年龄结构较为均衡。男队在单打之外能否找到稳定的得分点,将成为左右胜负的关键;相比之下,女队具备更强大的整体实力和阵容厚度,在冠军争夺中占据一定主动。   男队:稳定决定上限   中国队在汤姆斯杯历史上11次夺冠。本届比赛,石宇奇、李诗沣、翁泓阳、陆光祖、梁伟铿、王昶、陈柏阳、刘毅、何济霆、任翔宇组成参赛阵容,其中陈柏阳、刘毅为首次参赛,其余8人均参加了上届汤杯。   从结构上看,中国男队的核心竞争力在于单打。世界冠军石宇奇作为“一单”是最关键的得分点,其发挥将在很大程度上影响比赛走势。好在他在团体赛中表现向来不俗,具备丰富经验。李诗沣、翁泓阳、陆光祖的临场状态则是决定队伍成绩上限的重要变量。   双打方面,梁伟铿/王昶目前世界排名第五,具备与世界顶尖组合抗衡的实力,但表现不够稳定;何济霆/任翔宇回归国家队不久,尚待继续提升状态;陈柏阳/刘毅的加入则提升了阵容轮换空间。   小组赛阶段,中国队前两场将对阵澳大利亚和加拿大队,整体实力占优,重在调整状态、磨合阵容;末战对阵印度队是小组赛关键一役,对手在单双打项目上均具备冲击力,或将直接影响小组头名归属。   进入淘汰赛后,竞争强度将显著提升。韩国、印尼队男双实力突出、经验丰富;丹麦名将安赛龙已官宣退役,但队伍主场作战仍具冲击力;法国队近年来快速崛起;马来西亚、中国台北等队同样具备竞争力。   整体来看,本届汤姆斯杯呈现多强争霸格局。对中国队而言,进入淘汰赛后,每一场比赛都将是硬仗。   女队:整体优势仍在   中国队在尤伯杯历史上16次夺冠。王祉怡、陈雨菲、韩悦、徐文婧、谭宁、刘圣书、贾一凡、张殊贤、李怡婧、罗徐敏组成参赛阵容,其中7人为世界冠军,3人为首次参加该赛事。   从整体实力、阵容厚度与均衡性来讲,中国女队在世界范围内依然处于领先地位。   单打方面,王祉怡、陈雨菲、韩悦构成稳定的主力框架。王祉怡近来状态不俗,曾在全英公开赛上击败实力强劲的韩国名将安洗莹,此次能否承担起“一单”重任是一大看点。奥运冠军陈雨菲则具有丰富经验,在技战术和心理方面都成熟且稳定。   双打方面,“00后”组合刘圣书/谭宁已成长为世界冠军,目前世界排名第一的她们将担纲“一双”重任。此番她们和贾一凡/张殊贤、李怡婧/罗徐敏组成层次分明的双打体系。   小组赛阶段,中国队与印度、丹麦、乌克兰队同组,若正常发挥,晋级不成问题。进入淘汰赛后,最强劲的对手极有可能是韩国队,其在安洗莹的带领下具备极强冲击力。此外,日本、泰国、马来西亚等队也不可小觑。   放下卫冕冠军光环 保持冲击者心态   对中国队而言,本届汤尤杯要想取得佳绩,必须对自身准确定位。   新奥运周期背景下,世界羽坛竞争更加开放,多支队伍具备冲击冠军的能力。中国队若想延续优势,需要在稳定发挥的基础上进一步提升关键分能力,同时通过比赛逐步完成阵容磨合与新老交替。   此外,队伍不久前刚结束亚锦赛征程,在密集赛程和高强度对抗下,球员的体能储备与临场应变能力至关重要。   综合来看,中国队具备冲击双冠的实力,但需卸下卫冕冠军光环,立足每一场比赛全力拼争,才能在本届汤尤杯上走得更远。
亚沙会沙滩排球男子小组赛:中国组合胜斯里兰卡组合
4月23日,中国选手周朝威(前)在比赛中发球。   4月23日,在海南三亚举行的第六届亚洲沙滩运动会沙滩排球男子小组赛中,中国组合张泰/周朝威2比0战胜斯里兰卡组合安贾纳·桑迪帕纳·达尔马帕拉·马尼库赫瓦盖/萨敦·马杜桑卡·费尔南多·安迪布杜盖。   新华社记者 胥冰洁 摄   4月23日,斯里兰卡选手萨敦·马杜桑卡·费尔南多·安迪布杜盖(左)在比赛中扣球。   4月23日,在海南三亚举行的第六届亚洲沙滩运动会沙滩排球男子小组赛中,中国组合张泰/周朝威2比0战胜斯里兰卡组合安贾纳·桑迪帕纳·达尔马帕拉·马尼库赫瓦盖/萨敦·马杜桑卡·费尔南多·安迪布杜盖。   新华社记者 胥冰洁 摄   4月23日,斯里兰卡选手安贾纳·桑迪帕纳·达尔马帕拉·马尼库赫瓦盖(右)在比赛中扣球。   4月23日,在海南三亚举行的第六届亚洲沙滩运动会沙滩排球男子小组赛中,中国组合张泰/周朝威2比0战胜斯里兰卡组合安贾纳·桑迪帕纳·达尔马帕拉·马尼库赫瓦盖/萨敦·马杜桑卡·费尔南多·安迪布杜盖。   新华社记者 胥冰洁 摄 4月23日,中国选手张泰(前)在比赛中拦网。   4月23日,在海南三亚举行的第六届亚洲沙滩运动会沙滩排球男子小组赛中,中国组合张泰/周朝威2比0战胜斯里兰卡组合安贾纳·桑迪帕纳·达尔马帕拉·马尼库赫瓦盖/萨敦·马杜桑卡·费尔南多·安迪布杜盖。   新华社记者 胥冰洁 摄 4月23日,中国选手周朝威在比赛中救球。   4月23日,在海南三亚举行的第六届亚洲沙滩运动会沙滩排球男子小组赛中,中国组合张泰/周朝威2比0战胜斯里兰卡组合安贾纳·桑迪帕纳·达尔马帕拉·马尼库赫瓦盖/萨敦·马杜桑卡·费尔南多·安迪布杜盖。   新华社记者 胥冰洁 摄 4月23日,中国选手张泰(后)在比赛中拦网。   4月23日,在海南三亚举行的第六届亚洲沙滩运动会沙滩排球男子小组赛中,中国组合张泰/周朝威2比0战胜斯里兰卡组合安贾纳·桑迪帕纳·达尔马帕拉·马尼库赫瓦盖/萨敦·马杜桑卡·费尔南多·安迪布杜盖。   新华社记者 胥冰洁 摄 4月23日,中国选手周朝威在比赛中救球。   4月23日,在海南三亚举行的第六届亚洲沙滩运动会沙滩排球男子小组赛中,中国组合张泰/周朝威2比0战胜斯里兰卡组合安贾纳·桑迪帕纳·达尔马帕拉·马尼库赫瓦盖/萨敦·马杜桑卡·费尔南多·安迪布杜盖。   新华社记者 胥冰洁 摄   4月23日,斯里兰卡选手安贾纳·桑迪帕纳·达尔马帕拉·马尼库赫瓦盖(右)在比赛中扣球。   4月23日,在海南三亚举行的第六届亚洲沙滩运动会沙滩排球男子小组赛中,中国组合张泰/周朝威2比0战胜斯里兰卡组合安贾纳·桑迪帕纳·达尔马帕拉·马尼库赫瓦盖/萨敦·马杜桑卡·费尔南多·安迪布杜盖。   新华社记者 胥冰洁 摄 4月23日,中国选手张泰(前)在比赛中拦网。   4月23日,在海南三亚举行的第六届亚洲沙滩运动会沙滩排球男子小组赛中,中国组合张泰/周朝威2比0战胜斯里兰卡组合安贾纳·桑迪帕纳·达尔马帕拉·马尼库赫瓦盖/萨敦·马杜桑卡·费尔南多·安迪布杜盖。   新华社记者 胥冰洁 摄   4月23日,斯里兰卡选手萨敦·马杜桑卡·费尔南多·安迪布杜盖在比赛中向队友示意。   4月23日,在海南三亚举行的第六届亚洲沙滩运动会沙滩排球男子小组赛中,中国组合张泰/周朝威2比0战胜斯里兰卡组合安贾纳·桑迪帕纳·达尔马帕拉·马尼库赫瓦盖/萨敦·马杜桑卡·费尔南多·安迪布杜盖。   新华社记者 胥冰洁 摄
硬刚GPT-Image-2!国产AI生图“天花板”又被捅破了?
允中 发自 凹非寺 量子位 | 公众号 QbitAI 这两天,大家伙朋友圈是不是被GPT-Image-2刷屏了? 文字渲染精准、高密度的信息图,复杂布局和美学UI一次到位,真实感爆棚。 连社交媒体截图、高考试卷都能近乎一比一还原,这完全颠覆了曾经以往的文生图模型,彻底解决了文字、信息图这些长期以来的痛点问题。 大家看完的第一反应,几乎都是:设计师真要失业了…… 而就在刚刚,兔展智能甩出一张王炸:UniWorld-V2.5,居然直接“重现”了GPT-Image-2的某些惊艳Cases。 不废话,咱直接上疗效。 同样一套提示词,我们看看生成结果对比: 提示词:生成一个篆书碑刻拓片,内容是“由兔展智能首席科学家袁粒领导团队研发” △GPT-Image-2生成 △Nano-Banana-2生成 △UniWorld-V2.5生成 可以说,在InfoGraph、文字密集、图文交错等此前被公认为“AI生图天花板”的场景上,UniWorld-V2.5的完成度已经对齐GPT-Image-2,并显著超越其他国内外主流文生图模型。 更重要的是,UniWorld-V2.5需要输入的prompt非常简短,不需要像之前一样提供极其复杂和详细的prompt。 你只需要一句话,即可生成多样、复杂的视觉信息图,背后是一整套完整的视觉生成系统在做支撑。 接下来,我们一起见证更多场景奇迹。 高考数学卷:最难的中文测试,它过了 以前,AI生图最令人崩溃的场景是这样的: 结构化排版+高密度中文+复杂多样数学公式+曲线图+立体图,同时出现在一张图里。 几乎所有文生图模型,在这个场景下表现都很不稳定,甚至根本无从下手。 UniWorld-V2.5则表示:这只是基本功。 直接上地狱级测试,提示词: 生成一张2025年高考数学理科试卷。 △2025年高考数学理科试卷(由UniWorld-V2.5生成) 一张图里同时包含:选择题、填空题、解答题、函数图像、几何证明…… 密密麻麻一整页,格式规范,字迹清晰,连答题线和页码都一个不落。 这已经不是“像不像”的问题,而是“能不能直接拿去给学生考试”的问题。 与此类似的,对中文排布要求很高的场景“简历生成”,效果也同样可圈可点: △马斯克个人中文简历(由UniWorld-V2.5生成) 这种⽂字密集⽣成能⼒,此前的主流模型⼏乎⽆法做到。 在中文密集文字和复杂排版领域,这是前所未有的降维打击。 GUI布局:超真实的APP界面生成,也过了 想要AI生成一个真实感的社交媒体APP界面? 传统模型生成的界面要么布局错乱,要么文字胡言乱语。 给UniWorld-V2.5布置作业,让它一句话生成一套完整、可乱真的社交媒体界面及布局。 1、抖音直播带货 主播、商品弹窗、价格、实时弹幕、打赏特效,细节真实到“细思极恐”。 △马斯克直播卖茅台(由UniWorld-V2.5生成) △直播带货界面生成效果(由UniWorld-V2.5生成) 2、小红书探店 咖啡馆照片、店名、推荐指数、评论、点赞、导航栏,一个不落,调性精准。 △小红书上海咖啡馆探店界面(由UniWorld-V2.5生成) 3、微博热搜 热点头条、热度值、标签、按键等,全都可以直接生成,直接以假乱真。 △微博热搜界面(由UniWorld-V2.5生成) 4、YouTube视频页 博主信息、播放量、推荐列表、评论区,UI细节精准到让人分不清真假。 △YouTube视频页面(由UniWorld-V2.5生成) 这哪里是“生图”啊?这简直是“赛博截图”。 这么看来,UniWorld-V2.5理解的不是像素,而是产品逻辑和用户场景本身。 InfoGraph信息图:AI生图的终极考场,很惊喜 高密集、复杂的信息图是公认的AI生图“无人区”。 它要求模型同时理解数据、图表、文字排版和逻辑关系,信息密度越高,难度越大。 让UniWorld-V2.5尝试露一手,它交出的作业是这样的: 人体前侧解剖系统全图: 太阳系全貌信息图: 绿叶解剖信息图: 肌肉、骨骼、内脏等细节可视化呈现,中英文混排清晰,数据图表严谨。 它不是在“画”一张看起来像的图,而是在理解并构建一个完整的信息体系。 这种能力才是模型真正的技术护城河,标志着它从一个“生图工具”向“会思考、懂设计的视觉生成系统”的跨越。 海报与设计:考察商业级完成度 让它试着画一张Air Jordan 1产品宣传海报。 鞋的质感、中文文案、版式层次、品牌调性……看这商业级完成度: △Air Jordan 1产品宣传海报(由UniWorld-V2.5生成) 来一张苹果手机的宣传海报。 字体、排版、风格,专业摄影风格图片,美学和质感可以说是拉满了: △苹果手机宣传海报(由UniWorld-V2.5生成) 国产视觉AI的突围:在OpenAI与Google的身影前“抢跑” UniWorld-V2.5的横空出世绝非偶然,它背后站着一位视觉AI深水区的“领跑者”: 兔展智能。 深圳兔展智能科技有限公司,由董少灵在北京大学宿舍于2014年发明最早的H5工具而创立。 后来到了2022年,其与北京大学年轻一代视觉AI领军人才袁粒等二次创业。 公司总部位于深圳,已服务超4100万家企业⽤户。 截至目前,兔展智能已获深创投、腾讯、龙岗⾦控、嘉道资本、中国风投、青岛人工智能基金、招商局创投等头部机构投资,完成F轮融资。 它还是国家⾼新技术企业、国家级专精特新“⼩巨⼈”企业、⼤湾区最具潜⼒独角兽、⼴东省⾸个“AI国家级⾼技能⼈才培训基地”。 兔展智能的UniWorld系列模型,为什么能做到“理解即生成”? 因为它的技术底座早已遥遥领先: 自研“兔灵”大模型:广东省首个完成备案的视觉空间智能大模型,在视觉理解、压缩重建等核心领域实现多项SOTA(业界最佳) 技术突破; 开源第一:其开源的Open-Sora Plan是全球最早的开源视频生成模型之一,曾连续多日登顶GitHub全球趋势榜榜首,单模型超过2600万次下载,2024年视觉大模型代码引用量全球第一,被字节、腾讯、华为等大厂广泛采用; 架构创新:UniWorld系列是国内最早实现“理解、生成、编辑”统一架构的视觉空间智能模型。其中,UniWorld-V1早于Nano Banana三个月推出,UniWorld-V2在权威评测(GEdit-Bench)中综合性能超越OpenAI的GPT-Image-1,多项关键指标亦一度优于谷歌的Nano Banana系列模型,并入选2025年西丽湖论坛深圳市七大科技关键成果、广东省人工智能与机器人科技进步一等奖第一名; 国际领跑:其推出的Video LLaVA模型成为Google Gemini Pro技术报告中作为对比基准的视觉理解模型,标志着技术获得国际顶级认可。LLaVA-CoT模型则在行业内首次提出视觉慢思考架构,让模型能够进行自主、系统化地多阶段推理,突破了传统视觉模型单步响应的局限,该研究成果被ICCV 2025会议收录(计算机视觉领域的三大顶会之一),获得同行评审的权威认可; 国产生态:与华为昇腾深度合作,是昇腾910C芯片全球首个大规模用户,打造了行业最早100%基于昇腾架构的视觉生成模型Open-Sora Plan V1.5,突破了算子适配、大规模训练等一系列“卡脖子”问题。这不仅是一次技术胜利,更是为中国AI基础设施的自主可控,提供了一个完整的可行范本。 值得⼀提的,是UniWorld系列发布的历史时间线: UniWorld V1⽐Nano Banana早发布整整3个⽉,且同步开源; UniWorld V2在Nano Banana Pro发布之前,已是⾏业第⼀; UniWorld V2.5,是这条路上的最新⼀站,突破了高密集文字、信息图、图文交错、结构化生成等一系列领域难题。 面向高度结构化且依赖复杂世界知识推理的生成任务,传统的一句话出图范式已难以支撑。 区别于传统prompt-to-image的范式,团队将超过80%的token预算用于意图理解、推理与布局规划,相当于引入资深的“总设计师”来全程指挥和全局控制。 这从源头上保证了生成的质量,也体现了理解与生成统一的多模态范式优势。 其中,兔展智能首席科学家、北京大学袁粒老师,及其博士生晏志远等人,深度参与了核心能力的设计与实现,是V2.5关键突破的重要贡献者。 兔展智能一直围绕着让人类叙事更生动高效的使命,投入到最前沿的视觉智能创新。 据悉,兔展智能也将在不久之后,推出视觉空间智能路线为基础的世界模型。 站在世界舞台的国产模型,等你免费体验 AI生图的上限,远比我们想象的要高。 UniWorld-V2.5的发布,用实力证明了在中文语境和超复杂逻辑场景下,国产模型已经具备了站在世界舞台中央的底气。 设计行业的“一句话出图”,过去是由GPT-Image-2引发的焦虑。 现在,这个能力在国内坚实落地了,而且是以自主可控、可微调、国产算力的形式落地的。 品牌方、内容平台、电商商家、医疗科普机构、教育出版机构,任何需要大规模生产视觉内容的场景,过去需要设计团队花数小时完成的工作,现在仅需要一句自然语言。 更重要的是这件事的示范意义: 在多模态图像生成这条赛道上,中国不再只能是跟跑。 一个从北京大学走出来、深耕视觉大模型4年的团队,今天交出了这份答卷。
量化公司,正在批量生产AI独角兽创始人
鹭羽 发自 凹非寺 量子位 | 公众号 QbitAI 啊?!原来你们这群搞AI的,几年前都在华尔街玩量化……还师出同门。 震惊了,最近𝕏上疯传一份Hudson River Trading首届实习生名单。 人也不多,就10个。但仔细一看吓一跳,个顶个都是老熟人: Alexandr Wang:Scale AI联合创始人/CEO Jesse Zhang:Decagon联合创始人/CEO Scott Wu:Cognition联合创始人/CEO Jeffrey Yan:Hyperliquid创始人/CEO 几乎如今AI初创圈的半壁江山都在这儿了,阵容豪华程度堪比当年的PayPal Mafia。 而如今,真是江山代有才人出,只不过这一届的Godfather变成了量化。 不仅如此,Scott Wu本人还现身评论区,坦言他们这群人其实早在HRT之前就已经因为奥赛结识…… 除了前面提及的四位,还有Perplexity联创Johnny Ho、Pika创始人兼CEO Demi Guo,以及Cognition联创Steven Hao等。 奥赛→量化实习生→AI创业,原来大神都是这样练成的。 也难怪有网友说: 现在就为我未出生的孩子报名所有奥赛。作为一个未婚的亚洲男人,这可以算作提前规划。 妥妥地赢在起跑线~(doge) 华尔街上的硅谷黄埔军校 要不还得说华尔街的眼光毒辣,这招实习生一招一个准。 首批就招10个人,4个已经是硅谷新贵,其余人也是各自行业的佼佼者。 单论这人才转化的爆率,对标谷歌、Meta这些专产AI大神的硅谷公司,都有过之而无不及。 Alexandr Wang 先看最近风头正盛的亚历山大王。 亚历山大王是典型的奥赛天才出身,中学时期就连闯数学、物理、计算机三大领域竞赛。 连续两年入围美国计算机奥林匹克竞赛决赛,并在2013年进入数学奥林匹克夏令营,2014年加入美国物理国家队。 MIT辍学创业Scale AI的同年,他加入HRT负责算法开发。随后在YC扶持下,和Lucy Guo一起联合创立数据标注公司Scale AI。 公司早期专注自动驾驶数据标注,并在后续逐渐扩展到多模态数据处理,并服务OpenAI、Meta等大模型公司。2021年公司估值就已突破73亿美元,也让亚历山大王一举成为最有前景的AI独角兽CEO之一。 在去年6月,Meta完成对Scale AI的收购投资,亚历山大王随即加入Meta领导超级智能实验室,并在几天前刚刚交卷首个大模型——Muse Spark。 Muse Spark主打原生多模态,作为Meta迄今为止最强大的模型,一经发布,就火速拉升Meta股价7%,一度涨幅超过近10%。 在第三方测评中,Muse Spark也同样表现优异,成功带领Meta回到行业第一梯队。 Scott Wu Scott Wu堪称美国信息学奥赛的扛把子。 总共获得过三枚IOI金牌,其中2014年更是以600/600的满分成绩排名全球第一,是IOI历史上极少数获得满分的选手之一。 Scott Wu的商业嗅觉相当敏锐,在哈佛大二期间就参与创办了AI驱动的社交平台Lunchclub,旨在通过算法匹配专业人士进行午餐交流。这也让他入选了2020年福布斯30岁以下精英榜。 2023年,他作为创始人一手建立了Cognition,次年3月发布了世界上第一位AI软件工程师Devin。 不同于GitHub Copilot的编程助手定位,Devin能够自主规划复杂的工程任务,完成代码编写、调试bug、部署等全栈操作。 在SWE-bench上,Devin表现断层领先,能够独立解决13.86%的GitHub真实问题,远超当时最强的顶尖模型GPT-4等。 Devin更是一举将背后的公司Cognition推向了资本市场的巅峰,公司在成立不到一年的时间内,就估值飙升到102亿美元。 目前得益于对Windsurf的战略收购,年化收入(ARR)已突破1亿美元大关。 Jeffrey Yan 不同于Alexandr Wang和Scott Wu完全转投AI,Jeffrey Yan则继续在AI金融深度挖掘。 他在18岁就获得了物理奥赛金牌,并在青少年奥林匹克夏令营认识了小他两岁的Scott Wu。 据他回忆,HRT首期实习生项目是在他大三那年的冬天,彼时的HRT已经是世界上最成功的量化交易公司之一。 实习项目为一个耗时三周的竞赛,而在每一轮中,Scott Wu都会和他包揽前两名。在哈佛硕士毕业之后,Jeffrey Yan还全职加入过HRT,负责美股算法开发。 选择量化,是因为他认为交易是现实世界中最纯粹的真人博弈: 你是对的,还是错的,市场会给出最终的答案。全世界最聪明的人都在和你竞争,人们共同创造一个流动高效的金融市场。 而离开量化,则是因为他希望能创造出更多价值,比如用AI革新金融根本。 他创办了去中心化交易平台Hyperliquid,自2023年以来,累计交易量已超过4万亿美元,占据市场37%的份额,目前也是全球人均利润最高的初创公司之一。 Jesse Zhang Jesse Zhang不仅是硅谷目前最活跃的AI创业者之一,也是一名眼光独到的天使投资人。 高中时期曾两次入选美国数学奥林匹克训练营以及进入美国物理国家队,在2015年他还入围了被誉为“少年诺贝尔奖”的Intel科学天才奖决赛。 三年读完哈佛本科后,Jesse Zhang先后在HRT、谷歌实习工作,并在2017年创建游戏社交初创公司Lowkey,公司在2021年被《宝可梦Go》开发商Niantic收购。 2023年他再度创业AI客服智能体公司Decagon,短短三年不到公司估值就达到45亿美元。 与此同时,他还连续投中了包括Pika、Cursor、Lovable、Cognition等在内的30多家明星AI初创公司,并入选2026年福布斯AI领域30位30岁以下精英榜单。 Johnny Ho Johnny Ho是和Scott Wu齐名的IOI大神,同样三次获得IOI金牌,并在2012年拿下满分,位列全球第一。 在哈佛毕业后,他曾在华尔街顶级高频交易公司Tower Research Capital工作多年,担任量化交易员,负责开发高频交易模型和策略。 在2022年,他和Aravind Srinivas、Denis Yarats、Andy Konwinski等人共同创立了Perplexity,并担任CSO。 Perplexity目前是全球AI搜索领军企业,月活跃用户超1亿,在去年底完成E轮融资后公司总估值约200亿美元,截止到今年4月,ARR已突破5亿美元。 在2月份,Perplexity刚刚推出龙虾旗舰产品Perplexity Computer,支持19种模型的调用,不仅能回答问题,而且能像人类操作电脑一样自主执行任务,操作内容几乎囊括日常所需的全部场景。 Demi Guo Demi Guo出生于杭州,年少时期跟随家人移居美国,随后摘得2015年IOI银牌。 在哈佛本硕和斯坦福博士期间,她先后在Quora、微软、HRT、谷歌、Meta、Epic工作实习,并曾在红杉资本中国、创新工场等多家公司担任风险投资实习生。 2023年,她和Chenlin Meng、Karli Chen共同创业AI视频生成公司Pika,三年时间Pika已经迅速成长为行业第一梯队,全球用户规模超1600万,并收获了Quora创始人 Adam D’Angelo、GitHub前CEO Nat Friedman等明星投资人的青睐。 Steven Hao Steven Hao同样也是IOI金牌选手出身,MIT本科期间曾在全球顶级量化交易公司Jane Street和The D. E. Shaw Group实习。 2018年开始,他正式加入亚历山大王的Scale AI担任软件工程师,在工作四年之后选择辞职创业,和Scott Wu一起创办了Cognition。 事实上,Cognition的另一位联创Walden Yan也同样是IOI金牌得主,公司成员也绝大多数都是竞赛出身,所以网友也经常戏称Cognition是IOI金牌梦之队,仅有10人左右的小团队,却拥有数10枚IOI金牌。 ……. 而这群人还只是这份名单上的冰山一角,具体名单有多长,我们还无从得知。 但显而易见的是,他们身上都高频折射出同一条成长路径: 奥赛出身、量化实习、AI创业。 其中,量化背景正在成为这批硅谷新贵最独树一帜的特征。 AI上岸第一站:量化 说到量化和AI的合流,最典型的莫过于DeepSeek。 幻方量化的确是行业绕不开的坐标,作为国内头部量化机构,它率先将量化思维,正式带入国内AI行业的视野之中。 也让许多人第一次意识到,原来搞AI的和搞量化的,本质可以都是同一批人。 首先,量化和AI之间底层逻辑高度同频。 它们的核心都是在大规模随机数据中寻找确定的范式,都是在追求可复现和可验证的稳定支点。 简单来说,就是在不确定中寻找确定。 其次,二者的技术栈也紧密重合。 从早期的线性模型,到后来的LSTM,再到如今的Transformer,两边都在共用同一套序列建模的技术演进,只是量化是用看K线图的方式理解Token序列。 在数据处理上,都涉及监督学习与强化学习范式,并需要应对大规模数据噪声。 而这些顶级量化私募,和头部AI实验室一样,都是算力吞金兽,同样遵循Scaling Laws原则,同样需要长期维护大规模的GPU集群。 也正因如此,它们在招聘人才时,争抢的都是同一批人。 奥赛金牌、顶级名校、编程大牛,在两边都是炙手可热的存在。AI公司喜欢去量化机构挖算法工程人才,量化巨头也热衷于高薪吸引AI顶级工程师。 AI与量化之间的行业界限正在变得模糊,量化训练已成为AI创业人才培养的一条隐性路径。 但这个趋势,放眼国内还不太明显。 国内有量化出身的AI创业者吗?答案是肯定的,但并非主流。 绝大多数国内AI创业者还是遵循着一条稳定的工程化成长管道:先拥有扎实的高质量学术背景,然后进入成熟的头部大厂深耕AI核心技术,积累产业经验后再出走创业。 这样一套下来,国内这些AI创始人更懂得如何进行产品落地和完成商业闭环,创业容错率也相对较高。 但实则两种路径并无高下之分,只是在不同环境下,各自选择了最切实的发展方式。 无论如何,我们都在亲眼见证新生代技术领袖崛起的过程,这就已然足够。 19岁的亚历山大王曾立下flag,他们这群人要做下一个PayPal Mafia。 现在看来,应如是。
字节养的“虾”与1500亿账本背后
文 | 方棱镜 这大概是字节跳动有史以来最分裂的几天了。 4月20日,“字节跳动2025年净利润同比下滑超70%”的话题冲上热搜。评论区炸了——字节怎么突然不行了? 抖音集团副总裁李亮很快回应:净利润下滑是国际会计准则的数字,包含优先股和期权成本变动,不反映运营实质。剔除这些会计因素后,字节总体营收和利润仍然是增长的。 那利润到底去哪了?据多家媒体报道,2025年三、四季度,字节大幅增加了AI算力采购、模型研发和数据中心基础设施的资本支出,全年资本开支超过1500亿元人民币,其中约900亿砸向AI算力采购。而2026年,这个数字预计还将进一步攀升至1600亿元。 一边是All in AI的巨额投入,一边是短期利润被拖累的现实。可以看出,字节在用真金白银押注一个确定性:AI是下一代基础设施。 作为一个每天都在跟文字、跟内容打交道的人,看着这些新闻,忽然有种很微妙的感受。连字节这样的巨头都在为AI“消耗”当下,我们这些普通职场人,凭什么还站在原地等? 字节烧掉的钱,换来了什么? 还是先聊聊字节。2026年刚开年,字节的AI动态就密集得像在赶工期。 2月14日,豆包大模型2.0正式发布。这是自2024年5月豆包首次亮相以来的第一次跨代升级。新版本强化了高效推理、多模态理解与复杂指令执行能力。旗舰版豆包2.0 Pro在IMO、CMO数学奥赛和ICPC编程竞赛中直接拿下了金牌成绩,数学和推理能力达到世界顶尖水平。在被称为“人类的最后考试”的HLE-text基准测试中,豆包2.0 Pro以54.2分超越了Gemini 3 Pro和GPT 5.2。 几乎同一时间,字节的视频模型Seedance 2.0和图像模型Seedream 5.0 Lite也相继发布。三款核心模型密集上线,构成了字节在春节前夕的全线AI布局。 这些模型不只是拿来“聊天”和“生图生视频”的。字节CEO梁汝波在2026年开年全员会上把新一年的关键词定为“勇攀高峰”,短期内的“高峰”就是豆包和豆包海外版Dola。他还表示在做好To C助手的同时,To B的MaaS(模型即服务)业务也有很大机会。 MaaS业务确实在爆发。IDC数据显示,2025年上半年,火山引擎在中国公有云大模型调用量市场份额高达49.2%。豆包大模型日均Token处理量已经超过120万亿,较两年前增长约1000倍。越来越多的企业和开发者,正在把自己的业务流程“搬”到AI计算上。 到了4月初,字节的即梦AI上线了一款叫Octo小章鱼的协作型AI叙事创作工具。从故事大纲梳理、剧本分镜生成到成片输出,小章鱼试图把创作者从繁琐的执行中解放出来,只保留审美和判断。虽然内测期表现有些欠缺,但这怎么不算是影像创作者的专属Agent呢? 另一个更早出现且更通用的Agent来自开源社区。2025年11月发布的AI智能体框架OpenClaw(被国内用户亲切地称为“小龙虾”),到2026年3月GitHub星标数突破28万,成为GitHub历史上获星最多的软件项目。它让AI从“只说不做”变成了“能动手”——一句话指令,AI就能操控电脑、整理文件、运营社媒。火山引擎、阿里云、腾讯云、百度智能云全部在抢着接入部署。 这些动态指向同一个底层规律,就是计算成本会越来越低,人力成本不会。因为芯片越做越快,电费越来越便宜,算力每18个月翻倍……而人,始终要吃饭。我们看到的无论是豆包2.0把智力问题变成可计算、MaaS让企业业务流程上云,还是OpenClaw让AI动手干活,本质上都是把更多人类工作,转化成计算可以处理的问题。 这也是我特别想和大家说的——只要某个问题能被“计算化”,也就是变成计算能解决的事,那不管现在多贵、多低效,未来一定会变得极其便宜。AI就是那座桥,把以前算不了的问题,变成能算的问题。字节掏出1500亿,现在看很贵,但它赌的就是“赚回未来”的趋势。 AI正在重新定义什么能力更值钱 这个趋势不是遥远的概念,它已经在现实中撕开了口子,渗入生活和工作的方方面面。 3月“AI大厂月薪3万疯抢文科生”冲上了热搜。360创始人周鸿祎大视频称:“AI公司开始大量招文科生,占比从5%涨到30%”。英伟达CEO黄仁勋同样强调过语言能力的重要性。打开招聘软件,AI叙事设计师、AI伦理研究员等岗位要求里写的是中文、编剧、社会学、新闻学等文科专业。 似乎当“执行”可以被计算化,判断力、表达力、共情力这些“文科生技能”反而成了稀缺品。谁能更懂人、更能把模糊的需求翻译成清晰的指令,谁就能在这场变革中拿到更高的议价权。 4月中旬,一个叫“同事.skill”的概念引起热议。简单说,就是把一个同事的飞书消息、钉钉文档、邮件、截图等资料打包,就能把他的经验封装成一个AI“技能包”。有媒体报道了一个真实的职场场景:自从公司的skill库搭建起来后,每天都有几个skill入库。越来越多人的经验正在被拆解、标准化,随时可能被skill取代。 这是不是有点让人后脊发凉?我们引以为傲的“经验”和“手艺”,正变成可以被AI一键调用的模块。公司算账的逻辑也跟着变,既然效率翻了几倍,还要那么多人干什么? 到了4月20日,“爱奇艺疯了”又登顶微博热搜。爱奇艺宣布推出AI艺人库计划,声称已有100多名艺人入驻,可以利用他们的数字分身制作AI剧集。消息一出,张若昀、于和伟等多位艺人紧急发声,明确表示“未签署任何AI相关授权”。 这场争议的核心矛盾其实很典型。当AI可以用你的数字分身去工作、去创作、去创造价值,那“你”的边界在哪里?谁拥有你“数字劳动力”的支配权? 这三件事,其实拼出了“计算化”的三个层次:能力价值的重估、经验模块的封装、劳动力边界的重塑。那些已经跑在前面的人,也不是说技术就有多厉害,而是率先读懂了这套规则,并开始主动参与其中。 观望的人,窗口期还有多长? 你可能会想:我等工具更成熟、更开箱即用再上手不行吗? 一个残酷的事实,是技术迭代从不等待观望者。脉脉平台发布的春招报道显示,近半数岗位明确要求具备AI相关能力,AI岗位数量同比增长约12倍,而人才供需比仅为0.97,市场供不应求。那些主动拥抱AI的人,正在抢占薪酬和岗位的头部。 有人乐观地说“怎么也得5到10年才需要面对被替代”。但字节的1500亿账本摆在那儿呢!巨头在用真金白银缩短这个时间窗口。就像周鸿祎说的,一个大学毕业生经过半年培训,一个人一天就能产出好几集短剧。等“未来”来了,你的价值在哪了? 最扎心的还不是替代,而是“时滞”。替代来得快,一套系统上线半年就能砍掉一批岗位,但新岗位的创造是渐进的、分散的。中间的这段空窗期,才是真正让人焦虑的地方。 那怎么办?我的体会是三步:第一,别把AI当对手,当工具;第二,别光焦虑,先拿一个最小的任务试试;第三,认清一个转变——人的价值正在从“执行”转移到“判断”。 未来比的不是你多会写代码、多会作图,而是你能否提出好问题、做出正确的判断、构建有价值的连接。 万物皆可计算化,这是加入AI的第一步 说到底,很多人用AI的思路是“等”——等一个开箱即用的工具,等它足够成熟,然后拿来解决问题。解决不了就继续等下一版。这是消费者的心态。 但真正跑在前面的人,用的是另一种思路:主动把自己的工作“计算化”。 不是等着AI来替代你,而是你自己去拆解工作流程,看看哪些环节可以转化成计算问题,然后想办法让AI去跑。哪怕没有现成工具,你也可以用AI编程、智能体配置,拼一个适合自己的自动化流程。 这个门槛已经低到不需要你懂代码了。你要花时间去想:我的工作里,哪些是可以被计算的? 字节愿意用1500亿去赌这个未来。因为计算成本终局是无限下降,AI必然会拓宽“可计算问题”的边界。那么,我们作为个体的新价值,就不在于跟AI抢饭碗,而在于成为那个定义“什么问题值得被计算化”的人。 回到那个让我们焦灼的问题:技术进化这么快,人该怎么办? 答案不是恐慌,也不是盲目乐观地等上5到10年。而是换一种姿态,思考如何把模糊的需求、碎片的工作、隐性的经验,翻译成计算可以处理的指令?你能在AI能力和你自己的专业判断之间,搭起多少座桥? 假如AI是台电脑,那你的“计算化”能力就是这台电脑的芯片。
这一次,梁文锋和杨植麟隔空握手
真是热闹的一周。 周一,Kimi刚发完Kimi K2.6;周五,万众瞩目的DeepSeek V4就来了。 这种感觉很熟悉。 过去一年,这两家公司不是前后脚发模型,就是前后脚发技术论文,不是你把市场热度点着了,就是我把技术讨论接过去了。 更早之前,说起中国开源模型,几乎条件反射地想到DeepSeek。 尤其是DeepSeek发布R1之后,这家公司不仅凭一己之力改写了全球市场对中国AI的印象,而且唤醒了其他中国的AI创业团队的“信心”。 于是,我们看到,更多的中国AI创业团队开始做出非常竞争力的模型,带来非常有影响力的技术研究成果。 2025年7月,被《自然》杂志称为“又一个DeepSeek时刻”的Kimi K2模型,在底层架构上首次大规模验证了二阶优化器 Muon,同时采用了 DeepSeek验证过的 MLA注意力机制。 到了2026年4月,DeepSeek V4在架构上也跟进 Kimi K2采用 Muon优化器,取代过去已经使用了10年的Adam优化器。 这可能是开源最大的价值:让中国公司共享技术,加速追赶美国的闭源巨头。 它们是中国目前唯二,总参数超过万亿、已权重公开的中国模型。也是最有国际影响力的中国AI模型代表。全球市值最高的英伟达公司在展示下一代芯片性能时,用的模型正是来自 DeepSeek 和Kimi。 不仅如此,他们也都在挑战深度学习网络的底层架构,DeepSeek有mHC残差连接,Kimi有引发硅谷核心技术圈讨论的“注意力残差”。 虽然说DeepSeek V4和Kimi K2.6在同一周发布,但其实两个模型各有技术侧重点。 V4的核心突破在于百万上下文的成本重构,它通过全新的混合注意力机制,将单token推理的计算量压缩到V3.2的27%,KV Cache降至10%。 这套方案结合了压缩稀疏注意力和重度压缩注意力,让百万级上下文从技术演示变成了可以普及的基础设施。 V4同时针对agent场景做了专项优化,后训练阶段把agent作为独立方向单独训练,工具调用格式从JSON换成带特殊token的XML结构,跨轮次推理痕迹在工具调用场景下完整保留。 DeepSeek还自建了名为DSec的沙箱平台,单集群可并发管理数十万个沙箱实例,用来支撑agent强化学习训练和评测。 K2.6的方向则更偏向长程编码和agent集群。它在Kimi Code Bench内部评测中得分68.2,比K2.5的57.4提升约20%。 最高可支持300个子agent并行完成4000个协作步骤。 2025年2月,Kimi 发布 Moonlight系列模型,首次将二阶优化器Muon应用于480亿参数的大模型,验证了新一代优化器的效果。 2025年4月,Kimi-VL模型发布,在Moonlight模型的技术上,引入MoonViT视觉编码器,为之后的多模态理解模型打下基础。 2025年7月,Kimi首次将Muon优化器扩展到万亿参数的规模,推出 K2 开源模型。 2025年10月,Kimi发布Kimi Linear,这是Kimi提出的一种线性注意力架构,核心目标是在保住长上下文能力的同时,把大模型处理超长文本的计算和显存成本降下来。 这说明杨植麟已经不满足于只做模型了,他想对模型的底层架构动手。 随后,Kimi发布并开源支持图片和视频理解的万亿参数模型Kimi K2.5。 2026年3月,Kimi发布注意力残差的论文,继续对Transformer的底层结构下手。 这篇论文在X上收获了马斯克本人的称赞。 在然后就到了前几天的K2.6,这是一个围绕长周期编码、agent执行、工程任务能力的模型。 从产品定位的演变可以看出,Kimi正在从消费级对话产品往生产力工具转型。 2026年3月,杨植麟在英伟达GTC大会上发表演讲,系统介绍Kimi技术路线,他用三个关键词概括Kimi的Scaling策略:Token效率、长上下文、agent集群。 他表示,要推动大模型智能上限的持续突破,必须对优化器、注意力机制及残差连接等底层基石进行重构。 当前的Scaling已经不再是单纯的资源堆砌,而是要在计算效率、长程记忆和自动化协作上同时寻找规模效应。 一家公司最怕的是,只有媒体在讨论你,开发者却不用你。 但Kimi不一样,无论是在OpenRouter上还是绝大多数agent工具的默认接口里, K2.5和K2.6都是主流选项。 截止发稿,Kimi和DeepSeek都出现在OpenRouter的TOP3模型里,在AA的榜单上,K2.6甚至暂时占得先机。 而在K2.6这里,模型继续强化agent、长任务、编码能力,也是同一个信号。杨植麟真正押注的,就是生产力场景。 这也是Kimi这一年最关键的变化。 它不再只是告诉用户“我能帮你读更长的文件”,而是在回答更底层的问题,模型怎样才能在更长时间、更复杂任务、更高工具调用密度下保持稳定? 长上下文解决的是记忆和信息承载;线性注意力解决的是成本和扩展性;agent集群解决的是复杂任务拆解;编程能力解决的是模型的理解和执行。 它们看起来是几条不同产品线,其实背后指向同一个方向,Kimi想把Kimi从一个好用的聊天窗口,变成可以承接真实工作的基础模型。 4月,杨植麟受邀参加总理主持的经济形势专家和企业家座谈会,作为唯一的大模型创业者代表发言。这个1993年出生的年轻人,成为座谈会上最年轻的参会者。 一个月前,他刚在2026中关村论坛年会全体会议上发表演讲,系统阐述了中国AI团队如何通过底层架构的“推倒重建”,打破沿用十年的行业技术标准。 显然,Kimi已经从一家创业公司,变成了代表中国AI技术路线的符号之一。 Kimi这一年的成长路径,和DeepSeek的路径有明显差异。两家公司的技术选择不同,但也正因如此,才让中国开源模型有了更多可能性。 过去我们写这两家公司,容易写成“谁的模型好”、“谁才是下一个OpenAI”。 但这其实是个误区。 DeepSeek和Kimi,不该被简单理解成“谁赢谁输”。它们更像中国开源模型对外竞争的两条腿。不存在谁取代谁,而是应该互相刺激互相促进。 DeepSeek和Kimi相继证明了一件事,做前沿模型不一定需要无限的资源,关键在于算法创新和工程优化。它们在模型算法、工程效率、开源路线和降低推理成本上的贡献,仍然是中国AI过去一年最重要的技术事件之一。 它们彼此竞争,但也彼此抬高了中国开源模型的上限。 真正重要的不是它们谁先到终点,而是它们把中国模型的竞争维度拆开了。 过去我们评价一家模型公司,很容易只看榜单、参数、价格、发布会声量。 但模型公司真正的护城河,已经不再是“模型聪不聪明”、“模型性能如何”这些事了。现在围绕模型的叙事,是它能不能形成一整套技术路线。 DeepSeek把第一件事做得很彻底。它让外界看到,中国公司可以用更高的工程效率,把模型训练和推理成本打下来,可以把技术报告写到足够透明,可以把权重开放到足够激进。 它建立的是一种开源信任。开发者愿意研究它、复现它、部署它,是因为它不只是给了一个API,而是把模型背后的方法论也拿了出来。 Kimi补上的是另一块。 Kimi最早被用户记住,是因为长文本和聊天产品,但K2.6之后,它讲的已经不是一个更会聊天的助手,而是模型如何进入真实工作流。 长程编码、Agent集群、工具调用、长周期任务,这些能力没有“霸榜”那么直观,但它们决定模型能不能从“被试用”走向“被依赖”。 如果说DeepSeek解决的是模型够不够强、够不够便宜、够不够开放的问题,Kimi更关心的是模型能不能真的替人完成复杂任务。 所以这两家公司放在一起看,意义反而更大。 作为观察者和用户,我们肯定希望都存在,这样产业才能发展。 中国AI真正值得兴奋的,不是终于出了一个DeepSeek。 而是在DeepSeek的带动下,Kimi们依然能靠自己成长为一座座大山。 这说明中国AI公司已经开始在不同维度上找到自己的位置,不再是简单模仿,是真正的在探索自己独有的那条技术路线。 DeepSeek和Kimi的技术互相赋能,也说明了一件事,开源生态的价值在于协作。 现在的问题不是DeepSeek和Kimi谁更强,而是它们能不能继续保持这种竞争关系,继续在技术上互相刺激。 中国开源模型要真正在全球站稳脚跟,需要的不是一家独大,而是多家公司在不同方向上都做到世界级水平。DeepSeek和Kimi的存在,让这个可能性变得更大。
DeepSeek-V4报告亮了!V4发布延迟的秘密,终于曝光了
DeepSeek-V4的技术报告,简直诚实得令人震惊。V4发布延迟的秘密,被正式透露了!这颗大雷的背后,究竟是指谁?研究者们已经纷纷展开了猜测。并且,论文中用硬核工程暴力重构Agent的操作,也让社区直呼:国产之光,实至名归。 昨天,是名副其实的AI圈「春晚」。 DeepSeek-V4的技术报告一出,近60页的篇幅,从架构到训练到后训练全部摊开。 484天,对这个团队来说不寻常。V3从V2到发布只用了不到8个月。V4为什么多花了将近一倍的时间? 认真研读完这篇报告,我们发现了背后可能的原因,以及这家「国产之光」令人震撼的工程底色实。 可以说,DeepSeek-V4真正令人深思的,不是它堆了多少算力,而是它在Agent训练、工程底座、以及处理「训练震荡」时的那种近乎残酷的理性和透明。 今天,我们直接拆开V4的引擎盖,看看里面藏着哪些不为人知的硬核细节。 33T Token + 万亿参数 难度直接拉满 距离V3发布整整484天,V4才以「preview version」的姿态上线。 论文里虽然没有解释这个时间跨度,但有一段内容或许能提供线索。 V3用了14.8T token做预训练,V4直接翻倍,V4-Flash训了32T,V4-Pro训了33T。参数量同样大幅扩张,V4-Pro总参数1.6T,V4-Flash也有284B。 数据翻倍、参数翻倍,训练稳定性的难度也跟着上了一个量级。 报告里非常诚实:DeepSeek明确点名了「训练稳定性挑战」。 谷歌DeepMind研究者Susan Zhang表扬说:这种透明的做法值得称赞。这个说法还得到了龙虾之父的转发 在超大规模集群上,当参数量和训练数据达到某个临界点时,硬件的细微误差会被无限放大。 论文里,「stability」这个词出现了十余次。 放在一篇技术报告里,这个频率本身就是信号。正常情况下,稳定性是默认前提,不值得反复提。反复提,说明它确实是个问题。 具体来看,DeepSeek发现MoE层中的数值异常值(outlier)会通过路由机制不断放大,形成恶性循环,最终触发loss spike,训练曲线突然飙升。 团队祭出的主要补救措施是两招。 第一招叫Anticipatory Routing。它本质上就是在路由阶段使用稍早版本的参数,把骨干网络和路由网络的更新解耦,打破两者之间的恶性循环。 第二招是SwiGLU Clamping。它直接把SwiGLU的数值范围钳制在[-10, 10]以内,从源头压制异常值,虽然暴力但很有效。 当前大模型训练已进入硬件底层、编译器栈、以及数学架构三位一体的无人区 论文里有个细节很耐琢磨。 Anticipatory Routing和SwiGLU Clamping,DeepSeek确认「显著有效」,但紧跟一句「底层机理仍是open question」。 连Q/KV归一化这种已经被广泛验证的基础操作,论文的措辞都只敢写「may improve training stability」。 一个「may」字,足以说明在万亿参数MoE的训练里,没有什么是百分百靠得住的。 从15T到33T,数据量翻倍带来的不是线性增长的困难,而是指数级放大的系统性风险。 每一层网络、每一个梯度更新、每一次通信同步,都在更大的规模下被放大成潜在的崩溃点。 而DeepSeek选择把这些全写进论文里,这在业内几乎没有先例。 硬件的锅,还是软件的锅? 所以,技术报告中明确提出的「训练稳定性挑战」,指的到底是谁家的硬件? 虽然论文里没有明确点名任何硬件平台,但已经有嗅觉敏锐的人开始猜测了。 有观点直接指出:所谓「训练稳定性挑战」,很可能就是算力平台的问题。而且不只是DeepSeek一家踩坑,各大厂商都遇到过。 xAI在一次发布会上,Macrohard项目的负责人曾隐晦提到,英伟达最新的芯片给他们造成了「不小的麻烦」,不得不重新开发硬件适配程序。这或许也解释了xAI进度突然放缓的原因之一。 不过,这件事当然没那么简单。 大型算力集群涉及的变量太多:芯片本身、互连架构、散热系统、电力供应、驱动版本、编译栈适配。训练不稳定未必等于芯片级缺陷,也可能是系统集成层的问题。 不过,目前还没有任何官方文件给出答案。 一切都还在猜测之中。 Agent训练体系 工程能力让人肃然起敬 如果说V4的预训练是在和硬件博弈,那么它的Post-training则展现了教科书级别的工程审美。 可以说,Agent能力的工程化路径,是V4论文里最值得细读的部分。 以往我们认为Agent能力是「教」出来的,但DeepSeek认为,Agent能力应该是「长」出来的。 拒绝「硬迁移」,预训练阶段的「血脉注入」 行业内大部分的做法是,先训一个对话模型,再硬迁移成Agent。DeepSeek看来,这太低效了。 在V4的mid-training阶段,他们就注入了海量的Agentic Data。 这意味着,模型在基础学习阶段,就已经见过长任务链、环境反馈和文件修改模式。它还没学会写诗,就已经见过了Linux命令行的报错。 这就是一种地基层面的设计。 独创的Specialist Training(专家特训法) 另一大亮点,就是DeepSeek独创的专家特训法。 V4没有直接练一个全能战士,而是先练出了数学专家、代码专家、Agent专家、指令跟随专家。 这种分阶段的Specialist Training保证了每个领域的上限被拉到最高。 最后,再通过OPD(Multi-teacher On-Policy Distillation,多教师在线策略蒸馏),将这些专家的灵魂聚合成一个统一的模型。 这里工程上的难度在于,同时加载十多个万亿参数级的教师模型做在线推理不现实。 V4的方案是不缓存教师的logits(显存装不下),只缓存教师最后一层的隐藏状态,训练时按需通过prediction head重建logits。 然后,按教师索引排序训练样本,确保每个教师的prediction head只加载一次。KL散度计算则用TileLang编写的专用kernel加速。 告别传统Reward Model 另外,对于「难以验证(hard-to-verify)」的任务,传统的标量奖励模型(Scalar Reward Model)已经力不从心。 对此,DeepSeek选择引入了Generative Reward Model (GRM)。 它不再简单地给一个0到1的分数,而是根据预设的Rubric(评估准则)生成详细的评估报告。 更关键的是,DeepSeek对GRM本身也做了RL优化,让actor网络同时充当生成式奖励模型,评判能力和生成能力在同一个模型中联合优化。 把Agent做成一套分布式系统 不仅如此,DeepSeek还为V4专门自研了一套底座。 DSec:生产级沙箱集群 为了训练Agent的实操能力,DeepSeek搭建了一个名为DSec的平台。 3FS分布式文件系统,确保了数据的极速存取;数十万并发Sandbox实例,则意味着V4在训练时,同时有几十万台「虚拟电脑」在跑代码、测Bug。 MegaMoE:通信计算一体化 在MoE层,DeepSeek把通信和计算融合进单个pipeline kernel,专家按wave调度,通信延迟完全隐藏在计算之下。 结果就是,通用场景加速1.5到1.73倍,RL rollout等延迟敏感场景最高1.96倍。 自研DSML:拒绝转义失败 工具调用方面,DeepSeek干脆自己设计了一套类似XML的DSL(领域特定语言)。 这套协议简单高效,直接把工具调用的成功率从「看运气」提升到了「工业级稳健」。 Reasoning Effort分模式训练 还有一个精细的设计,就是V4支持不同的思考模式。 Non-think模式是简单的工具选择,秒回。High/Max则针对长文档、重构、复杂Bug,拉满推理算力。 这种「能省则省,该狠则狠」的策略,也是V4成本能做到Claude 1/4的关键。 社区的很多研究者读完这部分后,膜拜得五体投地:「DeepSeek的工程能力,依旧扎实得让人没话说」。 Interleaved Thinking升级 V3.2在每个新用户消息到来时会丢弃之前的思考痕迹,V4在Tool-Calling场景下保留了完整的跨轮次推理历史,让Agent在长时程任务中维持连贯的推理链。 普通对话场景仍每轮清空,保持上下文精简。 硬币的另一面,是94%的幻觉率 Artificial Analysis的实测给出了一个更立体的画面。 跑完Intelligence Index的全量基准测试,V4 Pro只花了1071美金,比Claude Opus 4.7的4811美金便宜了四倍多。 Agent能力方面,V4 Pro Max在GDPval-AA实测(面向真实工作任务的Agent基准)中拿到了1554分,全面领先一众开源模型。 然而,天下没有免费的午餐。 Aritificial Analysis的报告里也非常坦诚地指出了这种做法的代价:V4 pro在AA-Ominiscience上的幻觉率高达94%。 这揭示了一个结构性困境:要在有限算力预算下逼近顶级性能,就不得不在某些维度上做取舍。 DeepSeek选择把筹码全压在推理和Agent能力上,代价,就是知识都准确性。 为什么我们依然对DeepSeek充满敬意? 在这次V4的报告中,有人看到了「训练不稳」的尴尬,有人看到了「幻觉严重」的短板。 但在我们看来,这份报告最动人的地方在于透明。 他们敢于承认硬件适配阵痛,敢于披露那些看似「补丁」的解决方案,更敢于展示自己如何用最硬核的工程能力,在几十万个沙箱里一点点磨出Agent的灵魂。 从V3的Multi-head Latent Attention到V4的OPD蒸馏和DSec沙箱,DeepSeek正在用一种近乎偏执的「工程主义」,探索着大模型通往AGI的另一条路径—— 如果架构还没完美,那就用工程把墙砌厚;如果算力不够便宜,那就用算法把效率榨干。 DeepSeek-V4也许不是最完美的终局,但它绝对是目前最真实的、最充满活力的「中国AI现场」。
字节也入局了,世界模型到底是一门怎样的生意?
这两天,世界模型这个概念非常火爆。 腾讯、阿里相继入局之后,现在好了,字节也算是“半入局”了。 字节正式发布了Seed3D 2.0,这是3D生成模型,你给它文字、图片、多视角图,甚至视频,它帮你生成3D模型。 Seed3D 2.0的第一个优势,是它把几何精度往生产级推了一步。 过去的3D生成,最大问题不是不够惊艳,是不够可靠。边缘发软、薄壁结构断裂、材质只在单一光照下好看,放进游戏引擎、仿真系统或机器人训练环境里,很快露馅。 Seed3D 2.0用两阶段DiT先搭整体结构,再补高精度细节,让锐边、曲面、复杂拓扑和薄结构更稳定。 第二个优势在材质。 别的模型追求的是RGB贴图,以达到视觉效果相似。但Seed3D 2.0追求的是统一生成PBR材质,让金属、粗糙度、反光边界在不同光照下保持物理一致。 这意味着生成结果不只是截图好看,而是更接近可进入真实渲染管线的资产。 更关键的是,Seed3D 2.0它现在不光是能生成3D物体,它还在生成的同时考虑这样一个问题“我生成的物体能不能放进接下来的场景,比如游戏建模、训练机器人这些”。 所以它支持部件级拆分、关节建模、URDF 输出,也能做场景组合和空间布局推理。 一个椅子不只是一个整体模型,而可以被拆成座面、靠背和底座。一个物体不只是摆在那里,而可以进入仿真、交互和运动系统。 所以它的真正优点,其实是把3D生成从内容生产工具,往具身智能、工业仿真和游戏资产基础设施推进了一步。 因此,虽然字节并没有大大方方承认Seed3D 2.0是世界模型,但从某种意义上来说,它算是半个世界模型。 关键点在于,Seed3D 2.0能理解物体的空间结构、部件关系和可操作性,这就是世界模型的特点。 不过Seed3D 2.0不能持续预测世界演化,也不理解力、碰撞、摩擦、破坏、流体等物理过程,这就是为啥它只算是半个。 01 世界模型大战 关于世界模型这件事,得先从李飞飞开始讲起。 4月14日,李飞飞的世界模型公司World Labs发布了Spark 2.0,它是一个Web端的3D高斯溅射渲染引擎。 这个东西的作用是什么?就是让你即使是用手机的浏览器,也能流畅地打开那些包含上亿个粒子的3D世界。 过去做3D场景,要么用传统的三角网格,文件巨大、加载慢;要么就是视频,看完就没了。 3D高斯溅射是个新路子,用数百万个半透明的椭球体来表示场景,渲染效果接近照片级,但问题是数据量太大。一个稍微复杂点的场景就能有几千万个splats,普通设备根本跑不动。 Spark 2.0的核心突破在三个地方。 第一是LoD系统,也就是细节层次技术。它会预先生成不同分辨率的数据,你离得近就显示高精度,离得远就自动降低细节。 第二是渐进式流式传输,场景不是一次性加载,而是边走边下载,就像看流媒体视频一样。 第三是虚拟内存管理,在GPU里划出一块固定的内存池,最多容纳1600万个splats,然后不断地把需要的数据块换进换出。 这套技术最早是World Labs为自己的产品Marble开发的。 Marble是个AI生成3D世界的工具,能根据文字或图片生成可以进入的3D场景。Spark 2.0解决的就是“最后一公里”的问题,它让生成的世界可以被分享、被嵌入网页、被任何人在任何设备上访问。 几乎在同一时间,英伟达发布了Lyra 2.0。 Lyra 2.0和李飞飞的World Labs虽说都是世界模型,不过前者想要解决的是长距离、大范围3D世界生成的一致性问题。 现有的视频生成模型有两个致命缺陷。 第一个叫“空间遗忘”,就是镜头走远了再回来,模型已经忘记之前那个地方长什么样,只能重新编一个,结果前后对不上。 第二个叫“时间漂移”,自回归生成的过程中,微小的误差会不断累积,生成几百帧之后,颜色、结构都开始变形。 Lyra 2.0的解决方案是维护一个空间记忆系统。 每生成一帧,就把它的3D几何信息存下来。下次要生成新视角时,先从记忆里检索出相关的历史帧,建立3D对应关系,然后再让生成模型补充细节。这样既保证了空间一致性,又能利用生成模型的想象力。 更关键的是,Lyra 2.0还用了一个叫“自增强历史训练”的技巧。 传统训练用的都是干净的真实数据,但实际使用时,模型看到的是自己之前生成的、可能有瑕疵的画面。Lyra 2.0在训练时故意喂给模型一些带有退化的历史帧,教它学会纠正漂移,而不是放大错误。 不过,英伟达做这个不是为了让你生成视频,Lyra 2.0的使用场景是机器人和自动驾驶。 真实世界的训练数据太贵、太危险,很多极端场景根本采集不到。如果能用AI生成足够真实、足够一致的虚拟环境,就可以在里面反复训练、测试,然后再部署到现实中。Lyra 2.0生成的世界可以直接导出为3DGS或mesh,接入Isaac Sim这样的仿真平台。 就在李飞飞发布Spark 2.0的第二天,腾讯正式发布并开源了HY-World 2.0。 腾讯的路线和前两家都不一样,它要做的是真正的3D资产生成。 什么叫3D资产?就是那些可以导入Blender、Unity、Unreal Engine的mesh文件和3DGS文件,可以被编辑、被复用、被二次开发的东西。 HY-World 2.0的工作流程分四步。 第一步是全景图生成,用HY-Pano 2.0模型把文字或单张图片扩展成360度全景。第二步是轨迹规划,用WorldNav算法分析全景图的几何和语义信息,自动规划出合理的相机运动路径。第三步是世界扩展,沿着规划好的轨迹,用WorldStereo 2.0模型生成多个关键帧视角,这些视角之间要保持空间一致性。第四步是世界组合,用WorldMirror 2.0把所有关键帧整合成统一的3DGS场景,再优化转换成高质量mesh。 这套流程里最难的是WorldStereo 2.0。 它要做的是新视角生成,也就是给定一个起始视角和相机运动参数,生成目标视角的画面。难点在于既要精确跟随相机控制,又要保持视觉细节,还要和之前生成的区域在几何上完美衔接。 腾讯的解决方案是引入记忆机制,让模型记住已经生成的区域的几何和外观特征,生成新区域时参考这些记忆,避免出现“穿帮”。 腾讯做这个的目的很明确,就是服务游戏和虚拟内容产业。传统的游戏场景制作需要美术、建模、贴图、灯光多个环节,一个高质量场景可能要几个人做几周。如果能用AI直接生成可编辑的3D资产,整个生产流程就被重构了。而且腾讯强调的是“可编辑”,生成出来的不是一段视频,而是可以在引擎里继续调整、继续开发的真实资产。 就在腾讯发布的几个小时后,阿里也扔出了自己的世界模型产品Happy Oyster。 现在好了,4家完全都是不同的,阿里想做的是实时交互的世界生成。 Happy Oyster有两个核心模式。第一个叫Wandering,漫游模式。你给它一句话或一张图,它就生成一个具备物理一致性的完整空间,然后你可以用第一人称视角在里面自由移动,用WASD键控制方向,用鼠标控制镜头。场景会随着你的移动不断延展,物体位置稳定,光照跟随视角变化。目前支持最长1分钟的连续实时控制。 第二个模式叫Directing,导演模式。这个更有意思,它不是生成完就结束,而是让你在生成过程中持续介入。视频播放到任意时刻,你都可以用文字、语音或图像指令来改变剧情、切换镜头、指挥角色。系统会实时响应,场景随之变化,然后继续往下演化。 阿里把Happy Oyster定位为“世界模拟器”。 传统的文生视频是输入prompt、等待渲染、得到成片,这是被动的。世界模拟器是主动的,它在持续地模拟世界的演化,用户可以随时介入、随时改变。这种交互方式更接近游戏,而不是看电影。 不过Happy Oyster的输出是音视频流,不是3D资产。它的优势在于互动体验和生成速度,而不是可以导出到游戏引擎。这也反映了阿里的产品思路,它瞄准的是内容创作、互动娱乐、虚拟直播这些场景,而不是游戏开发的底层工具链。 这个时间窗口里,国内还有两家公司值得一提。 群核科技在2025年发布了空间生成模型SpatialGen和Aholo空间智能开放平台,瞄准的是室内设计和具身智能场景。极佳视界的GigaWorld-1在3月底的WorldArena评测中拿下全球第一,这是一个专门面向机器人训练的具身世界模型。 02 为什么都在这个时间点发 这不是简单的撞车。这几家公司,无论是产品成熟度、技术路线、目标场景,那真是能都不一样的地方全都不一样,所以不可能碰巧在同一时间准备好。 更合理的解释是,大家都在等一个信号,而李飞飞的Spark 2.0就是那个发令枪。 过去两年,AI圈的主旋律是大语言模型。 从GPT-4到Claude,从Gemini到DeepSeek,模型越来越大,上下文越来越长,推理能力越来越强。 但到了2026年初,这条路开始有点难走了。各家的差距在快速缩小。继续讲“我的模型比你强5%”已经很难激起市场兴趣。 agent是去年的热点,但现在也进入了拥挤区。各家都在做能调用工具、能执行任务的AI助手,技术框架大同小异,真正的差异化越来越难。 市场需要一个新故事,一个足够大、足够性感、能够承载下一轮想象空间的新叙事。 世界模型就是这个新故事,听起来比视频生成更接近AGI。 更重要的是,世界模型是个足够宽泛的概念,可以把内容创作、游戏开发、机器人训练、自动驾驶、工业仿真、数字孪生这些完全不同的场景都装进去。 从技术层面看,世界模型的时机也确实到了。 过去两年,几条关键技术线开始汇合。 视频扩散模型提供了生成高质量动态画面的能力,3D高斯溅射提供了高效的3D表示方法,NeRF和三维重建技术提供了从2D到3D的转换路径,实时渲染技术提供了在消费级设备上打开大规模场景的可能,多模态理解让AI能够同时处理文字、图像、视频输入,物理仿真平台提供了训练和验证的环境。 这些技术单独看都不是新东西,但它们现在“熟了”。 视频模型的质量已经足够好,3DGS的渲染速度已经足够快,多模态模型的理解能力已经足够强。 当这些技术组合在一起,世界模型从概念变成了可以落地的产品。 事实上,李飞飞早在2025年6月16日旧金山的YC AI Startup School炉边谈话里,就已经把这条技术线索讲得很清楚。 她回顾了自己从ImageNet一路走来的历程,说最早推动数据驱动视觉方法时,很多人还不相信大规模数据会改变AI;2012年卷积神经网络的爆发让她第一次强烈意识到,视觉模型不会停留在分类和识别,而是会继续走向图像描述、视觉叙事,最后一路走到生成模型。 按这个脉络看,今天的世界模型不是突然冒出来的新概念,而是计算机视觉沿着“理解世界”这条主线自然演化到更高维度的结果。 更关键的是,她当时强调的核心词不是视频生成,也不是3D内容生产,而是空间智能。 她的判断很直接,如果AI想真正接近AGI,就不能只在语言里做概率预测,也不能只对二维像素做模式匹配,它必须理解三维空间、几何结构、物体关系和物理规律,知道世界是怎么被组织起来、又会如何随着时间变化。 这也是为什么空间智能看起来像下一个前沿,或者我换一种方式来表达:世界模型就是整个行业长期低估、一直没真正啃下来的硬骨头。 从这个角度再看最近这一波世界模型热潮,很多事情就更容易理解了。 大家争的表面上是渲染、生成、交互和资产化,底层争的其实都是谁更接近“让机器理解真实世界”这件事 。语言当然重要,但语言本质上是人类压缩过的符号系统。 三维世界却是连续的、动态的,充满遮挡、视角变化和物理约束。建模语言已经很难,建模空间往往更难。所以李飞飞当时那句话的分量很重,空间智能不是一个新标签,它是AI真正走向现实的物理世界之前必须补上的一课。 但光有技术还不够,还需要有人来定义标准。 谁先发布,谁就有机会影响行业对“世界模型”这个词的理解。李飞飞的World Labs在学术界和产业界都有巨大影响力,她发布Spark 2.0,等于是给世界模型这个赛道敲响了开场锣。其他公司如果不跟进,就会在这个新叙事里失去话语权。 所以腾讯、阿里、英伟达、字节都在最近发产品。不是因为产品刚好做完,而是因为这个时间窗口太关键了。 晚一周发布,市场的注意力可能就被其他热点带走了;早一周发布,又没有李飞飞这个“发令枪”来引爆话题。 同时,大厂们也都在抢夺定义权。世界模型现在还是个模糊的概念,到底什么算世界模型、世界模型应该输出什么格式、应该用什么方式交互、应该接入什么样的工具链,这些都还没有定论。 谁先占据某个关键位置,谁就有机会把自己的标准变成行业标准。 World Labs抢的是Web分发入口。如果未来所有的3D世界都通过Spark这样的渲染器在浏览器里打开,那World Labs就掌握了分发渠道。 腾讯抢的是3D资产生产入口,如果游戏公司都用HY-World 2.0来生成场景原型,那腾讯就掌握了内容生产工具。 阿里抢的是实时交互入口,如果互动内容都用Happy Oyster这样的世界模拟器来制作,那阿里就掌握了新的内容形态。 字节抢的是3D造物入口,如果未来游戏、机器人、工业仿真里的物体模型,都通过Seed3D 2.0从文字、图片或视频直接生成,并且自带几何、PBR 材质、部件拆分和关节结构,那字节就掌握了现实物体进入数字世界的第一道入口。 英伟达抢的是仿真训练入口,如果机器人公司都用Lyra 2.0生成的环境来训练模型,那英伟达就掌握了物理AI的基础设施。 所以本质上,是大家在通过不同的产品,抢占世界模型生态里的不同层级。 谁定义了世界的生成格式,谁定义了世界的渲染方式,谁定义了世界的交互范式,谁定义了世界进入仿真的路径,谁就可能成为下一代空间AI平台。 03 世界模型对企业的意义 还有一点,那就是世界模型不是一个孤立的技术,要把它放在企业实际的生产上,才能看清楚这个技术到底是用来干嘛的。 对World Labs来说,世界模型是一个完整的产品闭环。Marble负责生成3D世界,Spark负责渲染和分发。李飞飞的野心不是做一个工具,而是做一个平台。 未来如果有人想分享一个3D场景,不是发一个几个GB的文件让你下载,而是发一个链接,你在手机浏览器里点开就能进入。这个体验类似于你现在分享抖音视频,你并不是真的把视频下载下来,你只需要把那个二维码发给你的小伙伴,他就能扫码直达视频原始网页。 这个商业模式的关键在于降低门槛。 传统的3D内容创作需要专业软件、高性能硬件、复杂的技术知识。 Marble把创作门槛降到了“输入一句话”,Spark又把观看门槛降到了“点开一个链接”。当创作和消费的门槛都足够低,3D内容才可能像图片和视频一样成为互联网的基础设施。 对腾讯来说,世界模型是游戏和虚拟内容产业的生产力工具。腾讯是全球最大的游戏公司,它的核心资产是游戏IP和内容生产能力。HY-World 2.0瞄准的就是内容生产环节。 传统游戏开发,一个高质量的3A游戏场景动辄就需要几十个美术人员做几个月。 即使是那种小规模的独立游戏,场景制作也是最耗时的环节之一。如果AI能生成可编辑的3D资产,美术团队就可以从重复性的建模工作中解放出来,把精力放在创意设计和细节打磨上。 更重要的是,HY-World 2.0生成的是真正的3D资产,不是视频。视频只能看,资产可以用。你可以在Unity里调整光照,可以在Blender里修改模型,可以在Unreal里添加物理效果。 这种可编辑性是腾讯强调的核心价值,因为游戏开发需要的不是成品,而是可以继续加工的半成品。 对阿里来说,世界模型是内容形态的创新。阿里这几年在内容领域投入很大,从优酷到大麦,从直播到短视频,一直在寻找新的内容载体。Happy Oyster代表的是一种新的内容形态,介于视频和游戏之间。 传统视频是线性的,你只能从头看到尾。游戏是开放的,但制作成本高、门槛高。Happy Oyster想做的是“可交互的视频”或者“低门槛的游戏”。用户不需要学习复杂的操作,只需要用自然语言说出自己的想法,场景就会响应。这种体验可能适合互动剧、品牌营销、虚拟陪伴、教育培训这些场景。 阿里的商业逻辑是流量和变现。如果Happy Oyster能够创造出一种新的内容消费方式,就可能带来新的流量入口和变现模式。比如虚拟直播间,主播可以实时改变场景、召唤道具、创造剧情,观众的参与感会比传统直播强得多。再比如品牌营销,用户可以在虚拟世界里探索产品、体验场景,这种沉浸式的互动比传统广告更有吸引力。 开头我就提到了,Seed3D 2.0生成的是带几何结构、PBR 材质、部件拆分、关节关系的3D资产。换句话说,它生成的是“可以继续编辑、渲染、放进引擎、甚至接入仿真的东西”。 这对字节尤其重要。字节的优势一直是内容分发和创作者生态,他们的所有产品,都是在降低内容生产门槛。用剪映降低视频剪辑门槛、用抖音降低视频分发的门槛,再用Seedance降低视频生成的门槛。 Seed3D 2.0降低的是3D资产生产的门槛。 未来如果短视频创作者想做一个3D商品展示,不需要找建模师。电商商家想把商品变成可旋转、可互动的模型,不需要重做一套 3D 流程。游戏团队想快速生成道具原型,也可以直接从图片或视频开始。 所以,对字节来说,Seed3D 2.0的战略价值不是“我也有一个世界模型”,而是当内容互联网从二维视频走向三维空间,字节要继续掌握最低门槛、最高频的内容生产入口。 世界模型最终的竞争不会停留在模型能力上,而是会延伸到生态层面。 谁的输出格式被更多工具支持,谁的渲染器被更多开发者使用,谁的API被更多应用接入,谁能和Unity、Unreal、Isaac、浏览器这些关键平台深度整合,谁就有机会成为这个领域的标准制定者。
假冒DeepSeek!全国首例AI混淆案宣判:罚款5000元
快科技4月25日消息,北京市朝阳区市场监管局近日查办全国首起仿冒混淆DeepSeek案件,对涉事公司处以罚款5000元。 涉事的是北京奥蓝德信息科技有限公司。这家公司运营着一个网站,专门推广一款名为DeepSeek本地部署工具的软件。 然而,这家公司和DeepSeek官方没有任何关系。经执法机关查明,无论是奥蓝德公司本身,还是这款软件的开发主体,均与深度求索公司无任何关联关系。 奥蓝德在涉案软件的下载页面、收费页面、安装页面等多处,直接使用DeepSeek字样及官方图标。 此外,这家公司还砸钱投了竞价排名广告,在百度等搜索引擎上利用DeepSeek的知名度截流,用户搜DeepSeek第一个看到的可能就是这个山寨货。 北京市朝阳区市场监管局依托数字取证技术,运用区块链取证手段固定了全部违法证据,以说理式执法文书向当事人详细阐明了违法情形与处罚裁量权衡。 执法机关最终认定,奥蓝德利用用户信息壁垒,借助DeepSeek字样搭便车、赚取流量热度的行为,责令其立即停止违法行为并处罚款5000元。 这并非孤例。市场监管总局同期公布的五起AI领域不正当竞争典型案例中,杭州一家公司同样因混淆DeepSeek商标被罚款3万元,另有多起涉及ChatGPT的碰瓷案件被查处。 全国首张 AI 混淆罚单的落地,为 AI 领域商业竞争划定了清晰红线,针对 AI 热点搭便车的监管正式进入常态化执法。
东方甄选主播明明和天权将离职,俞敏洪:挽留但尊重选择
4月24日晚,东方甄选人力资源部在东方甄选App社区发文: “我们怀着遗憾和不舍的心情,和大家同步一则消息:主播明明和天权即将告别东方甄选。俞老师和他们进行了诚挚沟通和挽留,但最终尊重他们的选择。公司也尊重和理解他们的个人职业规划与发展选择。 在此,谨向明明和天权两位优秀主播在任职期间,为东方甄选倾注的全部心血、付出的不懈努力,以及留下的无数温暖回忆,致以最诚挚的感谢和最美好的祝福! 愿明明和天权未来在各自热爱的领域中继续绽放光芒。聚散终有时,温情无止境。 无论未来行至何方,都盼你们常回来看看——若遇风雨,我们始终在身后守候。 家门常开,欢迎归来。” 此前,俞敏洪在直播中回应称“在跟明明和天权交流沟通工作,俩人正在休假中”。 公开信息显示,明明,真名石明,出生于陕西商洛,毕业于西安交通大学。原新东方物理老师,后入职东方甄选担任主播。2024年6月22日,明明在直播中用“山河破碎”形容贵州地貌引发争议,于6月29日公开道歉。 天权,本科毕业于伯克利大学,研究生毕业于哥伦比亚大学。2023年12月15日晚,天权疑似在直播时模仿孙东旭摔手机等,引发争议。12月16日,东方甄选宣布天权停播三个月。同日,天权向网友致歉。 此外,近日,东方甄选主播林林在社交平台发文“电影落幕 身心俱损 分叉路口 终有一别”,确认离职。林林也将账号名字由“东方林林”改成了“林林ProMax”。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。