行业分类:
加载中...
头条分类:
加载中...
胡柏山:vivo入局MR并非追逐风口,硬件体验是生态正循环的起点
凤凰网科技讯(作者/于雷)8月20日,vivo在其全球总部举办了主题为“vivo Vision探享会”的会客厅活动,公司执行副总裁、首席运营官、中央研究院院长胡柏山与行业专家就混合现实(MR)技术发展趋势进行了深入探讨。据悉,vivo Vision混合现实头显探索版将在8月21日vivo Vision发布会暨影像盛典上正式亮相。 30年来,vivo的每一次突破都源于对用户需求的深刻洞察。站在新的起点,vivo“找准方向”的核心,不是对风口的追逐,而是用户需求与自身积淀的深度耦合。 圆桌对话中,胡柏山阐述了vivo对MR技术的战略定位。他表示,MR技术是连接物理世界和数字世界的关键桥梁,强调产业发展需要循序渐进,“有了好的硬件体验基础,生态才会形成正循环”。 vivo执行副总裁、首席运营官、vivo中央研究院院长胡柏山 与会的游戏制作人及MR开发者Gamker攻壳创始人聂俊认为,MR产业正处于等待爆发的关键节点。他指出,vivo的优势在于同时具备硬件生态构建能力和内容生态孵化能力。来自视频创作、电竞解说、艺术科普等领域的专业人士在现场体验后表示,当前MR技术在C端应用中仍存在佩戴舒适度和观看体验方面的挑战。 新技术的落地从不平坦,但MR的前景清晰可见。技术迭代的加速度与场景价值的确定性,终将让MR会在未来与手机、机器人携手为千家万户服务。值得关注的是,vivo将MR技术发展与其机器人战略进行了深度关联。 胡柏山透露,vivo于年初成立机器人Lab,聚焦未来的家庭机器人。胡柏山在阐述vivo科技战略蓝图时提到:“我们致力于通过手机AI、影像和MR能力,短期满足用户对大屏沉浸感的需求,长远作为机器人的眼睛和大脑,攻克家庭这一非结构化场景下的‘感知-决策’难题,搭建未来家庭机器人走入千家万户的桥梁。” 机器人领域专家、艾欧智能创始人陈相羽分析称,MR设备可以为机器人提供丰富的训练数据,同时作为人机交互的重要工具,这一观点为MR技术的应用场景拓展提供了新思路。 人文财经观察家秦朔在活动中指出,中国企业在新一轮科技浪潮中有望实现从“跟跑”到“领跑”的跨越。他认为,vivo等中国手机厂商凭借在数字经济市场的深厚积累,在MR领域具备实现跨越式发展的基础条件。 一直以来,从手机到MR,乃至未来的机器人,vivo坚持以十年如一日的长赛道坚守,用技术沉淀浇筑创新基石,以开放协作链接行业智慧,探索技术突破和用户体验升级。这场关于未来的对话,不是终点,而是起点。 “我们始终围绕人的需求,以人为核心”胡柏山最后展望,“未来家庭机器人是vivo要做的,可能是五年甚至十年、十五年,MR在这里找到了未来机器人结合的方向。”未来,vivo将秉承“科技使人感受幸福、抵达美好”的初心,致力于为用户提供更加优质的产品和服务,也为行业发展探明方向与答案。
王宁掏出迷你版LABUBU
“这周就要发布Mini版LABUBU,以前可能大家是挂在包上,可能从下周开始,大家甚至可以挂在手机上,它的使用场景会更多,相信它会是一个超级受欢迎的爆款。” 8月20日,在泡泡玛特2025年中期业绩发布会上,泡泡玛特董事长兼CEO王宁化身“带货博主”,从胸前西装口袋中拿出了一个Mini版LABUBU介绍道。 这款即将登场的 Mini 版 LABUBU 仅有掌心大小,延续了LABUBU标志性的搪胶毛绒设计。 这个夏天,LABUBU成了当之无愧的顶流,被带飞的泡泡玛特也不出意外地交出了一份高增长的成绩单。 8月19日,泡泡玛特发布了2025年半年报,财报显示,上半年泡泡玛特营收138.8亿元(人民币,下同),同比增长204.4%;经调整净利润47.1亿元,同比增长362.8%。泡泡玛特上半年的营收和净利润均已超过了2024年全年。 LABUBU功不可没。其所在的THE MONSTERS系列,在上半年实现了48.1亿元营收,占泡泡玛特总营收的34.7%。而在2023年、2024全年,该系列的营收只达到了3.68亿元、30.4亿元。 此外,今年上半年,以LABUBU为代表的毛绒玩具,超越泡泡玛特赖以起家的手办,成为整个公司的第一大品类。去年,毛绒玩具对于泡泡玛特的营收贡献率约为10%,如今已提升至44%。 据海豚投研的调研信息,LABUBU年初的产能约为300-400万只/月,9月有望提升至1000万只/月。如今,随着Mini版LABUBU的意外亮相,王宁和泡泡玛特显然还希望从这头现金牛中挤出更多收入。 LABUBU的爆火,不仅继续带动海外市场高速增长,同时也让国内市场保持翻倍增速。 上半年,泡泡玛特在美洲、欧洲市场分别实现了1142.3%、729.2%的增长。国内市场营收为82.8亿元,同比增长135.2%,虽增速不及海外,但依然表现强劲。 财报发布后,泡泡玛特股价持续上涨,并于8月20日创历史新高。截至当日收盘,泡泡玛特港股股价报315.40港元/股,较前一交易日收盘价280.8港元上涨34.6港元,当日涨幅为12.32%,并推动其市值突破 4254.44亿港元,创历史新高。 尽管主流机构普遍对泡泡玛特持乐观态度,但部分机构对其长期可持续性和短期估值风险存在担忧。 毕竟任何IP形象在市场上的流行都具有周期性,最核心的问题集中在“LABUBU能够火多久”以及“下一个LABUBU什么时候会到来?” 字母榜曾在《王宁亲手戳破LABUBU的泡泡》一文中指出,泡泡玛特市盈率超100倍,远超传统玩具企业。显然,支撑其高估值的并非泡泡玛特的盈利水平,而是“持续造星”的想象和全球化发展潜力。 对于王宁而言,真正考验并不在于能让LABUBU火多久,而是需要在资本市场耐心耗尽前,找到下一个“LABUBU”。 而在等待下一个LABUBU的同时,资本市场也在等待下一个泡泡玛特。 01 今年上半年,从东南亚一路火出圈的LABUBU 勇闯北美市场。 2025年上半年泡泡玛特在海外开店最多的地区就是美洲,且主要聚焦在美国,净增线下门店19家,门店总数量达到41家;线下营收8.4亿元,同比增长744.3%。 泡泡玛特从2022年开始就以快闪店的方式试水美国市场,但直到2023年10月才开出首家直营店,并于2024年上半年开始加速开店,截至目前,美国已经超越港澳台、泰国,成为泡泡玛特门店最多的海外市场。 在北美市场,泡泡玛特也再次利用明星效应破圈。自Lisa带动LABUBU在泰国市场的爆火后,这只毛绒精灵的身影接连出现在了Rihanna、Dua Lipa、贝克汉姆等欧美明星的身上,随着Lisa强力进军欧美,一场“LABUBU风暴”在北美刮起。 受到关税影响,泡泡玛特在美国市场提价,涨幅接近30%,但并没有影响消费者的热情。泡泡玛特目前在海外市场依然处于蜜月期,消费者愿意为其品牌溢价买单。 LABUBU 3.0开售当天,美国洛杉矶Century City的门店大排长队,有人甚至凌晨四点就奔赴现场排队。次日,4月25日,其自有APP更是登顶美国App Store购物榜。 作为限量版,“一娃难求”的顶流LABUBU,在二级市场更是炒出了90-400美金不等的价格。 除了重点押注北美,泡泡玛特其他海外地区开店也在加速。 其中,欧洲市场上半年净增线下门店4家,达到18家,线下营收2.8亿元,同比增长569.6%;亚太市场上半年净增线下门店5家,达到69家,线下营收15.3亿元,同比增长203.5%。 截至目前,泡泡玛特海外收入占比已接近40%,今年海外收入有可能超过国内。 海外客单价的提升叠加规模效应显现,也带动了集团的毛利率增长。2025年上半年,泡泡玛特毛利率为70.3%,同比提升了6.3个百分点,创下历史新高。其中,海外市场毛利率更是高达75.5%。 另一方面,随着营收规模的大幅增长,泡泡玛特的销售及管理成本有所降低,其销售及管理费用率从去年同期的约39.7%下降至29.8%,同比下降9.9个百分点。 不过眼下,飞速增长的业绩正在挑战泡泡玛特的产能。在LABUBU如此火爆的情况下,它的销售收入也只占了35%左右,在泡泡玛特中期业绩发布会上,王宁除了强调IP占比健康外,也坦言“下半年的产能面临比较大的挑战。” “我们有工程师感慨说,今天一个月的量等于以前做一年的量。具体从数字上看,比如毛绒产品,一个月的产能是去年同期10倍以上,现在是3000万只左右。即使是今年七八月份,和一季度比,也是10倍以上的增幅。”泡泡玛特供应链负责人袁俊杰表示,目前泡泡玛特正在以“经济生产自动化”的方式提升产能。 对于全年业绩指引,王宁表示,“今年是希望营收能够做到200亿,但是感觉今年应该300亿也很轻松。” 02 海外市场高增长的同时,带着 “国际认证拽姐”气场的LABUBU正在回攻国内。 从今年5月份开始,“LABUBU火到国外了”“英国黄牛为抢LABUBU大打出手”“泡泡玛特暂停在英国、韩国销售”等消息轮番登上热搜,国内消费者对LABUBU的购买热情也随之攀升。 LABUBU抢购潮蔓延至国内。从溢价10倍到30倍,再到隐藏款拍出百万天价,LABUBU带来的财富神话每天都在社交平台上上演。 国内诸多明星也成了泡泡玛特的行走广告海报。杨紫琼、刘亦菲、刘雯、舒淇戴上LABUBU、CRYBABY出街;LABUBU与林俊杰推出联名款,甚至还登上了华晨宇和鹿晗的演唱会。 国内用户的购买热情体现在了财报上,在国内市场线下门店净增仅12家的情况下,中国区域营收为‌82.8亿元‌,同比增长135.2%。目前泡泡玛特国内线下门店数量共计443家。 大批新玩家入坑,会员复购率也有所提升。截至2025年6月30日,中国内地累计注册会员总数从2024年12月31日的4608万人增长至5912万人,新增注册会员数1304万人。2025上半年会员贡献销售占比91.2%,会员复购率为50.8%。 6月18日,王宁以一场百万量级的补货,亲手刺破了这场狂热“造富神话”的泡泡。 大规模补货冲击到了LABUBU二手市场价格,泡泡玛特的股价也应声跌落,直到泡泡玛特发布业绩盈利预警后,股价开始回升。 但市场也开始对泡泡玛特IP热度持续性和真实需求产生质疑。为了打消市场顾虑,泡泡玛特也在加速打造下一个LABUBU。 LABUBU之后,Lisa多次在社媒平台分享泡泡玛特旗下其他IP,CRYBABY多次在其社交媒体中露脸。 为了弥补LABUBU没有“无故事性”和“情绪价值”的短板,泡泡玛特开始给CRYBABY营造各种人设。王宁曾在去年的业绩分析会上提到,哭娃的核心理念为“哭泣疗愈”以及“每个人都有哭泣的时候”。它通过传递情绪自由这一精神内核,为粉丝提供情绪价值,引发情感共鸣。 而在今年上半年的业绩报告中,泡泡玛特还重点提到了另一个IP 星星人,报道提到,星星人目前是泡泡玛特旗下成长最快的新锐IP之一,乐园明星朋友互动表演使星星人更加生动鲜活,实现营收3.9亿元。 从营收占比来看,无论是实现3.9亿元营收的星星人还是营收破10亿元的CRYBABY,都远不及LABUBU,市场影响力更无法和LABUBU媲美。 在谈到 IP 层面的探索时,泡泡玛特首席运营官司德经常提到的一个词是“慢慢试”,“这不是一条现成的路,只能不断摸索。这个过程本身是一个很难的事情。” 03 资本市场在等待下一个LABUBU的同时,也在期待下一个泡泡玛特。 泡泡玛特带动了整个潮玩市场的热度,今年以来,卡游、布鲁可、52TOYS等多家企业扎堆IPO,名创优品旗下的TOP TOY也在冲击IPO,以在线教育为主营业务的量子之歌等跨界玩家也来分一杯羹。 今年5月22日,52TOYS向港交所递表。在这之前半个月,52TOYS完成了C+轮融资,万达电影子公司影时光、关联方儒意星辰进入股东行列,距其上一轮融资已经过去了4年。 跨界潮玩后,量子之歌的股价也迎来增长,从今年年初的2.16美元涨到7.25美元(截至发稿),足见资本市场对下一个泡泡玛特的期待。 虽同为潮玩赛道,但比起以卡牌为主的卡游和以积木为主的布鲁可,52TOYS和TOP TOY的模式跟泡泡玛特较为接近。 但两者自有IP发展都比较弱,更多依赖授权IP。其中,52TOYS卖得比较好的潮玩是猫和老鼠、蜡笔小新、哆啦A梦等,营收占比超6成。TOP TOY掌握的授权IP以三丽鸥、黑玩等为主。 依赖授权IP,给公司带来的影响主要是毛利率。52TOYS包括自有IP和授权IP综合起来的毛利率为40%左右,远低于自有IP占多数的泡泡玛特70.3%的毛利率。 但资本市场之所以盯上潮玩,看中的正是其堪比茅台的高利润率,目前潮玩赛道品牌在营收、门店数量和利润率等核心经营指标上与泡泡玛特仍存在差距。 换句话说,泡泡玛特在国内没有对手。 但事实上,泡泡玛特的作业是公开的。“从泡泡玛特开业的第一天起,我们就是在开门做生意:我们卖什么?怎么卖?什么产品最火?……这些信息都是透明的,我们是在打明牌。但这么多年过去,我们还是没碰到规模相当的竞争对手,这是为什么?” 但摸着泡泡玛特过河的品牌众多,却始终没能跑出下一个泡泡玛特。 在王宁看来,潮玩行业的门槛比大家想象得要高得高。“我觉得我们有两个门槛,一个是软性门槛,一个是硬性门槛。软门槛:艺术家是钱买不到的稀缺资源,硬门槛:尊重时间,尊重经营。” 但从全球范围来看,新的艺术家不断涌现,这也为突破 “软门槛” 提供了可能性——毕竟,稀缺性的本质并非不可再生,而这些新晋艺术家只需要足够的耐心去发现与培育。 另一方面,泡泡玛特这种IP全生命周期的运营能力,虽非一朝一夕之功,很难被其他企业快速复制,但拉长时间维度,下一个泡泡玛特并非遥不可及。
吉利汽车回应基础流量变更,承诺用户权益不变
IT之家 8 月 20 日消息,针对部分用户对吉利汽车旗下车型“基础流量”等权益的疑问,吉利汽车今日发布声明,IT之家附原文如下: 声明 近期,我们留意到部分用户对吉利汽车旗下部分车型的“基础流量”等权益存在疑问。为让大家清晰了解相关信息,现就大家关注的问题说明如下: 一、关于用户权益的持续性 吉利汽车在不同时期推出的智能网联车型,因市场定位、价格及配置存在差异,对应的用户权益方案会有所不同。但需明确的是,销售时向用户承诺的包含 E-CALL 在内的权益,始终保持一致,不会进行任何变更或减配。 二、关于“基础流量”的具体内容 此前在“基础流量”包含的权益信息传递中,存在不一致的情况。为消除用户的误解与疑惑,现统一说明:“基础流量”权益通常涵盖车辆远程控制、在线导航、语音助手、天气查询、OTA 升级等功能。具体所含功能,请以您所购车型的实际配置为准。 以上权益,覆盖吉利中国星及吉利银河品牌旗下所有车型。若有任何疑问,欢迎致电官方客服热线 400-886-9888 咨询。 衷心感谢全球超 1800 万用户的信任与支持。我们将始终秉持“用户至上”的理念,持续努力,为每一位用户打造更智能、更绿色、更便捷的出行体验。 特此声明。 吉利汽车 2025 年 8 月 20 日
谁在领跑中国AI公有云市场?
划重点: 1、IDC报告显示,2024年中国AI公有云服务市场,同比增长55.3%。百度智能云和阿里云以并列第一的市场份额,成为最大赢家。 2、AI云的增长得益于三个核心动能:技术红利释放,企业需求升级,以及云计算基础完备。AI云市场并不是简单的延伸,而是整个云计算产业的一次“再出发”。 3、百度智能云和阿里云领先背后的优势在于:百度智能云以AI驱动云,技术产品强、产业落地深;阿里云以云驱动AI,公有云基础强、生态影响力大。 4、大模型改变AI云服务市场格局才刚刚开始,甚至可能彻底重塑中国公有云市场。未来的AI云竞争不会是“百花齐放”,而更可能演变为“强者争霸”,行业的核心叙事将围绕百度和阿里展开。 作者 常远 编辑 重点君 2024年,中国AI公有云市场迎来了一个里程碑时刻。根据IDC最新发布的报告,2024年中国AI公有云服务市场规模达到195.9亿元人民币,同比增长55.3%。 在这一高增速市场中,百度智能云和阿里云以并列第一的市场份额,成为最大赢家。其中,百度智能云增速更快,更是连续六年、累计十次蝉联中国AI公有云市场冠军。 IDC数据显示,市场的高速增长主要受两方面推动:其一是生成式AI应用的快速扩展,其二是机器学习训练与推理(训推)需求的显著增长。前者代表着企业应用层的场景爆发,后者则反映出基础层与平台层的算力与工具需求。换句话说,AI公有云已真正走向 “企业级落地”,从而推动云厂商全面进入增长快车道。 报告中,IDC将AI公有云服务市场定义为“部署在公有云服务上的AI能力”,指的是企业无需自己搭建服务器来运行AI,而是通过互联网直接调用云厂商提供的AI能力。其涵盖计算机视觉市场、智能语音市场、对话式AI市场、自然语言处理市场、机器学习平台市场等五大类细分市场。 具体到不同子市场中,百度智能云与阿里云同样表现强势,几乎出现在所有榜单的头部位置: 对话式AI市场规模20.9亿元,阿里云、百度智能云排名前二; 智能语音市场规模18.8亿元,阿里云、百度智能云排名前二; 自然语言处理市场规模22.2亿元,百度智能云、华为云、阿里云排名前三; 计算机视觉市场规模81.0亿元,腾讯云、百度智能云排名前二。 大模型与AI改变云服务市场格局才刚开始。IDC中国人工智能研究总监卢言霞直言:“云厂商应该有魄力、有决心全面重塑云服务产品,以帮助用户建立全面AI化的架构。” 生成式AI的浪潮,正在成为AI公有云的分水岭。而阿里云与百度智能云的并列领跑,正是这一趋势的集中体现。 中国 AI 公有云服务 2024 年市场份额概况 01 AI云的爆发逻辑:为什么是现在? AI云的快速增长并非偶然,而是多重力量叠加的结果。 从整个公有云市场大盘来看,2024下半年,中国公有云市场增速17.7%,创两年来最高。上一次云计算大爆发,还是2014到2020年;但2021到2023年,移动互联网红利见顶,云市场增速一路下滑。转折点出现在2023年,AI和大模型浪潮来袭,各行各业重燃增长预期,企业开始把AI融入业务流程,推动组织重构、效率提升。中国公有云市场也重回景气周期,实现两位数增长。 具体到AI云上,IDC报告中的时间轴提供了一个清晰脉络: 2015—2022年:AI应用以智能客服、OCR识别、工业质检、智能安防等传统场景为主,更多是“点状落地”。 2023年:大模型进入产业应用,带动智能客服、语音转换等语义语音类应用升级。 2024—2025年:云上AI能力全面转向生成式AI,形成“平台型升级”。 2025年下半年:AI应用进一步转向Agent形态,形成更智能、更自治的应用生态。 从宏观角度看,AI云的增长得益于三个核心动能: 首先是技术红利释放。大模型已经成为AI产业的底座,模型规模、推理能力、应用接口的标准化,让AI能力具备“像水电一样供给”的条件。 其次是企业需求升级。从智能客服、生成式BI到行业大模型等,越来越多企业希望在云上快速获得AI能力,而不是自建庞大模型,AI云成为性价比最高的选择。 最后是云计算基础完备。公有云已在IaaS、PaaS层打下了坚实基础,AI云的爆发相当于在既有的云架构上叠加一层“智能操作系统”。 因此,AI云的市场并不是简单的延伸,而是整个云计算产业的一次“再出发”。这也解释了为什么2024年市场规模同比增速高达55.3%,而机器学习平台市场甚至实现了163.8%的增长。 02 百度智能云和阿里云:凭什么能领跑? 尽管其他玩家同样投入巨大,但目前领跑AI公有云的却是阿里云与百度智能云。这背后是两家公司在战略定位、技术积累与生态布局上的差异化优势。 百度智能云:以AI驱动云,技术产品强、产业落地深 我们先看百度。作为AI云的“原生玩家”,百度是中国最早提出“AI云”概念的厂商,2019年即将“云+AI”确立为核心战略,并提出“云智一体、深入产业”。要知道,在当时云计算还是以基础设施为核心竞争点,百度就选择以AI为差异化方向。 经过多年深耕,到大模型时代,百度智能云积累了极强的产品技术能力,以及极深的产业落地经验。 在产品技术上,百度智能云围绕算力、模型、数据和应用,搭建了完整的全栈AI基础设施。在算力层,百度已点亮由三万张昆仑芯组成的集群;在算力调度层,百舸GPU云平台可以统一管理不同底层硬件;在平台层,千帆大模型平台为企业提供模型调用、开发、部署和数据智能的一站式服务。 全栈技术让百度智能云可以支撑企业,从模型训练到业务接入的全流程需求。同时,也能服务多样需求、适配复杂场景。 百度智能云正在用“两条腿”走路。一边构建基础设施,另一边则用自己的应用产品,来检验和打磨底层能力。最新例子是其推出的推出了全球首批 AI 数字员工。它融合了百度最核心的大模型、数字人技术和行业知识,做到了“开箱即用”。这背后是一个以客户需求为中心的逻辑:企业不需要关心复杂的技术细节,只需要从自己的业务痛点出发,就能得到一个专业、有效且性价比极高的解决方案。 具体到产业落地上,百度智能云的打法很明确:深入产业,去解决一个核心问题,让AI在更多行业里规模化地跑起来。 目前百度智能云落地能力已经在多个行业大规模验证。公开数据显示,百度智能云2025年上半年在中国大模型中标数量与中标金额双双领先。其已成为65%央企、80%系统重要性银行、TOP10新能源汽车企业、以及最多重点具身智能企业首选的AI云。 比如近期在2025世界人形机器人运动会上,因为夺得百米“飞人大战”冠军而刷屏的“天工”机器人,背后就有百度智能云的支持。 简言之,百度智能云的竞争力在于“AI驱动云”,它并不是在已有云业务上叠加AI,而是以AI为出发点重构云。 阿里云:以云驱动AI,公有云基础强、生态影响力大 我们再来看阿里。作为云计算的“生态霸主”,阿里云的优势在于其强大的公有云基础与生态影响力。 阿里云长期位居国内公有云市场份额第一,尤其在IaaS层,具备大规模计算与存储优势,为AI训练和推理提供了坚实的算力保障。 到了AI时代,阿里云把自己角色定位为基础算力提供商,持续加码,夯实云基础与生态优势。 一是继续扩大云计算基础设施的投入,押注AI和大模型。阿里CEO吴泳铭之前宣布,未来三年将投入3800亿元建设云和AI硬件基础设施,超过过去十年的投入总和。 二是坚持模型开源路线,通过开源的通义千问系列模型打榜,在社区里积攒声量、吸引开发者和企业。目前阿里云大模型矩阵,已经覆盖了语言、语音、视觉、代码等多个模态。 三是投资和收购AI初创公司,把AI创业企业与阿里云AI基础设施绑定,消耗训练和推理算力。阿里投资了中国最热门的几家AI独角兽,包括智谱AI、MiniMax、月之暗面、零一万物、百川智能等等。而这些公司均在阿里云上训练大模型。 阿里云的路径可以概括为“云驱动AI”:它从云的底层优势出发,将AI作为升级与扩展。 百度与阿里的路径不同,百度以AI技术见长,最早提出AI云,阿里以云基础与生态见长。这种差异化优势,使得两者能够在AI公有云的不同赛道上互为补充,最终形成并列第一的市场格局。目前,两家也是国内少数实现非公认会计准则下盈利的云厂商。 03 未来市场格局:AI云竞争看百度与阿里 IDC报告明确指出,大模型与生成式AI将全面重塑云服务架构。随着AI应用逐步向Agent化演进,未来的AI云市场,竞争核心不再是算力价格或模型参数,而是: 能否提供面向全行业的AI原生应用架构; 能否建立可持续的AI治理体系; 能否重构生态,让更多开发者与伙伴参与其中。 在这些维度上,百度与阿里均处于第一梯队。 比如在生态层面,百度是行业内最早提出“AI原生应用”概念的公司,并在开发者生态上加大投入,并通过连续几年举办"文心杯"创业大赛等方式,发掘优秀创业者,吸引更多创业者加入百度生态。更有望在Agent时代率先构建新的应用范式。 2024年,AI公有云市场的55.3%增速,以及百度与阿里并列第一的格局,标志着中国云计算进入了新的发展阶段。 看完报告,重点君最直观的感受是:大模型改变AI云服务市场格局才刚刚开始,甚至可能彻底重塑中国公有云市场格局。一方面,云上大模型产品的定价模式正在向按 Tokens 倾斜,另一方面,基于大模型的应用大幅带动算力等基础设施产品的需求。而模型和应用,一定是AI时代的主流。这也是百度智能云和阿里云未来持续增长最大的确定性。 目前,中国公有云市场格局可以概括为“5+3”,也就是5家科技云厂商(阿里云、华为云、腾讯云、百度智能云、火山引擎)+ 3家电信运营商云(天翼云、移动云、联通云),八家合计瓜分了主要的市场份额。 云计算具有强大的网络效应,参考海外,美国市场最终由亚马逊、微软、谷歌和甲骨文四家主导。而中国有超过15家云厂商,市场高度内卷,价格战高企,盈利者寥寥。 未来的AI云竞争不会是“百花齐放”,而更可能演变为“强者争霸”。百度与阿里的领先,既是技术与生态沉淀的结果,也意味着未来几年,中国AI云市场的核心叙事将围绕这两家公司展开。 在我们看来,IDC报告的结论可以概括为:AI正在改变云,云正在重塑AI。而真正站在这个交叉口的,是长期投入、积淀最深的百度与阿里。
AI“深度伪造”名人声音带货被判侵权,商家赔礼道歉并赔偿损失
IT之家 8 月 20 日消息,近日,北京互联网法院审结一起涉 AI“深度伪造”名人声音带货的人格权侵权纠纷案件,法院最终判决商家赔礼道歉并赔偿损失。 法院判决认定 AI 合成声音具备可识别性即可落入权利人声音权益的保护范围,未经权利人许可的使用构成侵权,商家委托平台“达人”共同以推介商品为目的发布带货视频、获取相应收益,未尽到合理的审查注意义务,应对受托人制作、发布侵权视频的行为承担连带责任。 IT之家附基本案情: 原告李某某在教育、育儿领域具有一定知名度和社会影响力。2024 年,原告李某某发现,被告某文化传媒有限公司在其运营的某网络平台店铺中,通过使用原告李某某的公开演讲、授课视频,并配以与原告声音高度近似的 AI 合成声音,对其销售的多本家庭教育类图书进行宣传推介。 原告李某某主张,被告某文化传媒有限公司在其运营的某网络平台店铺销售图书时,未获得原告李某某的许可,使用原告的肖像和通过 AI 合成的声音制作宣传产品,使原告的人格形象与其商业宣传对象形成紧密关联,从而使消费者误以为原告是其销售图书的代言人或推介者,利用原告人格形象、专业背景和社会影响力吸引关注,增加交易机会,侵犯了原告的肖像权和声音权。被告作为图书销售者,与视频发布者(即带货主播)之间为委托关系,共同完成销售活动,其对主播发布的视频具有审查义务和能力,对涉案视频的发布应当承担赔礼道歉、赔偿损失等侵权责任。 被告某文化传媒有限公司辩称,其仅为涉案网络店铺的经营者和涉案图书的销售者,涉案推广视频并非被告制作和发布,而是由其他网络用户发布,被告并非侵权主体。原告作为公众人物应当具有一定的容忍义务,涉案视频推介的书籍都是好书,没有对原告的社会形象进行贬损,没有给原告带来经济损失,不同意原告的诉讼请求。 法院经审理认为 涉案视频使用了原告的肖像以及 AI 合成声音,该声音与原告本人的声音在音色、语调、发音风格上具有高度一致性。结合原告在教育、育儿领域的知名度,涉案视频对家庭教育类书籍进行宣传推介,更易使观看涉案视频的公众将视频中的相关内容与原告之间建立联系,可以认定一定范围内的听众能够将涉案 AI 合成声音与原告本人建立一一对应的联系。因此,涉案声音落入原告声音权益的保护范围。涉案推介视频大幅使用原告肖像、合成模拟原告的声音,未取得原告授权,因此涉案视频的发布行为构成对原告肖像权和声音权益的侵犯。 被告某文化传媒有限公司与推广人(即带货主播)依照平台规则和服务相关约定达成委托推广关系,共同以推介被告书籍为目的发布涉案视频、获取相应收益,且被告基于平台规则和管理权限,具备对涉案视频进行审核管理的能力。在涉案视频大幅使用原告肖像、合成模拟原告声音的情况下,被告应对视频可能引发的侵权风险具有一定的预见性,并就视频是否获得了原告授权尽到合理的审查义务。但在案证据表明,被告未尽到其应有的审查注意义务,因此被告某文化传媒有限公司应与推广人就侵权视频发布承担连带责任。原告选择向被告某文化传媒有限公司主张全部的赔偿责任,于法有据,法院予以支持。 裁判结果 判决被告某文化传媒有限公司向原告李某某赔礼道歉、赔偿经济损失及维权合理支出 12 万元,驳回原告李某某的其他诉讼请求。 该案一审判决已生效,被告主动履行了判决内容。
亏钱的AI大厂们,养肥了吃播
作者 | 江 源,编辑 | 杨知潮 在AI面前,最强的大胃王也要自愧不如。 在最新爆火的AI的吃播里,什么都可以成为食物:既有一口咬开手办loopy,也有吃起来嘎嘣脆的钻石披萨、水晶鸡腿等。不同于常规吃播,这些视频都是通过AI技术合成的,也被称为“沉浸式吃播ASMR”。 这可不止是个好玩的游戏,它是一个新的财富密码。 AI吃播展现出了很强的成瘾性,成为很多人的助眠视频,一些账号短短几天内获得十几万粉。创下了一个又一个流量奇迹。即便单靠平台流量激励,也能创造一笔不菲的收入。更何况他们还可以当“卖铲人”,教其他人制作视频。 这影响的不止是小主播的命运,还有大厂,毕竟如果创作者赚不到钱,大厂的商业模式就很难成立了。 01 OpenAI 还没赚钱,AI吃播已经赚钱 2024年初,作为视频领域的ChatGPT,Sora一出生就把全世界的目光锁定在自己身上,成为文生视频这一赛道的开创者。 Sora是火了,但根据《The Information》在2024年的报道中披露,OpenAI 2026财年(2025年10月到2026年10月)的亏损预计将达到140亿美元。 OpenAI的盈利遥遥无期,但用Sora这类工具的一些小主播,已经赚到了钱。 眼下,国内、国外短视频平台不约而同地流行了同一种内容:AI 吃播。在小红书上,#AI ASMR#话题拥有5000多条的笔记,更具体的#AI提示词#、#AI生成视频#等相关话题,浏览的笔记也超过100多万,话题下的视频互动量最高达到上万级别。 在这类AI吃播视频里,有的沉浸式切Hello Kitty流沙蛋糕,有的大口吃起labubu,有的开始躺在了薯条的沙发上。这类内容赚取流量的能力极强。 图注:labubu的“吃播”,有1.3万点赞 很多博主靠着这个涨了波粉,比如在小红书上,博主@布谷咕咕咕BUGU在发了AI吃播视频之后,点赞数要比之前多了好几万。抖音博主@慢一点AI在两个月的时间内涨粉6.5万,其中一条吃红宝石和钻石的视频点赞量突破3万多。 这样的博主还有很多,甚至遍布国内外。 在国外:Tiktok上一位叫leilanikovac的博主发了一条AI吃熔浆的视频,点赞数突破81.7万,另一位博主在三天内发了11条切水果的视频后,粉丝数突破8万。 这种涨粉速度是很夸张的,AI吃播已经成为了一个流量密码。 粉丝有了,变现也不在话下。 内容平台的流量激励、商品橱窗,让粉丝有了一个保底的变现手段,但更解渴的是卖课。 这类AI视频的生成遵循着清晰的逻辑:创作者首先向AI大模型输入提示词,AI再依据提示词的具体要求生成对应的内容。如果提示词不够准确或缺失关键信息,画面效果便会大打折扣。 也因如此,提示词成了AI吃播生态中的“硬通货”。在 TikTok上,已有博主靠着售卖AI提示词赚到了第一桶金—— 一份仅四句话的提示词售价9.9美元,用户只需替换其中部分内容,就能生成一条地道的AI ASMR视频。 在国内的这类AI主播的橱窗里,经常挂着AI视频提示词全套合集。至于转化率,一个参考是:一位在小红书上拥有2.7万粉丝的博主,橱窗跟卖人数约为112人。 除了个人创作者,甚至出现了专门售卖提示词的公司——PromptBase,用户花1.99美元购买一个提示词,复制到对应的AI平台,就能生成符合预期的作品。每笔交易中,PromptBase会抽成20%作为服务费,交易通过Stripe平台完成。 这套变现模式已经非常普遍了,不止是吃播,所有火了的AI内容创作者都会开始卖课。 海外社媒上,有博主发布了一条恶搞NBA球星勒布朗詹姆斯的视频,获赞近百万,6个月内粉丝突破5万。随后,他成立了专门的AI视频教学社区 “Interlink”,支付220元进入社区后,就能获得一份涵盖 “如何和ChatGPT对话”“提示词怎样优化”“怎么使用AI工具可灵”“有效规避内容限制” 等内容的指南,每个环节都配有约5分钟的视频操作讲解,手把手教用户使用AI制作视频。 02 成瘾的力量 姜文曾说,电影的价值,是拍出一些生活中无法实现的东西:如果现实生活中有,那还拍成电影干嘛? 无须讳言,大多数的“AI+”都是蹭风口,但AI吃播这类短视频背后不止是个AI概念,还有着直击人性的成瘾机制,它把现实中得不到的东西,做成了一种成瘾品。 比如此前火热的AI乖孙和AI萌宠,只不过,这两类视频瞄准的对象各有不同。前者是针对老年人群体开启的一种“云养娃”,刚学会走路的乖孙们就开始做菜烧饭,甚至扛起一头小乳猪,5秒的视频点赞数破2万,有的在发布了71条相关视频,收获了22万粉丝;后者则成为职场牛马回家后续命的内容,手机里的猫都能做饭,能唱跳,甚至还能演霸道总裁剧。 AI吃播亦是如此。不同于真人吃播对现实食材的依赖,AI吃播已将“吃”的边界拓展到想象力所及的疆域,既可以吃一口爆浆的火山熔浆,也可以做到奢侈品牌包入口即化,甚至连最火的labubu也都能吃到AI的嘴里。但凡你能想到的东西,AI都能吃给你看。 和真实吃播不同,AI吃播的核心需求是放松和解压,它不刺激、不吵闹、不推销,视频节奏慢,声音清晰。有人靠它助眠,有人靠它缓解社交疲劳,还有人就单纯喜欢听“咔哧咔哧”的声音。这份独有的松弛感,成为低能量人群恢复精力的有效方式。 图源:抖音@芝士就是力量 从某种程度上看,这又和短剧的逻辑相似,模式化的剧情,魔幻的角色设置,看完一部短剧就像做梦一样,看完即忘,却能让人欲罢不能。 对于AI来说,场景和服装都是免费的。也正因此,谁都可以用AI去积攒流量,但流量又是玄学,需要稳定输出的同时,还需要考虑回报比。 最终,这种成瘾性化成了几天暴涨几十万粉的流量奇迹。 03 最好的模型生意之一? 涨了几十万粉的AI主播在卖铲子,但他们之上还有平台,他们用售卖AI工具的方式,成为整个视频AIGC产业的最上游。 而当下的AI格局,是“做AI的不赚钱,卖铲子的才赚钱。”从这个层面来看,短视频AI模型的商业化能如此之快,就不难理解了。毕竟,视频生成模型相比于语言模型,特殊的一点在于他们占据了赚钱链条的上游。 2025年5月27日快手发布一季度财报,重点提及旗下可灵 AI该季度收入超1.5亿元。次日其港股高开6.46%,后续持续上涨,截至7月15日涨幅已超30%。 接下来的WAIC 2025大会上,可灵最新公布的用户规模数超过4500万。对比而言,QuestMobile数据显示,腾讯元宝今年上半年的月活还只有2480万。 首先,从可灵的收入结构来看,70%来自于p端用户(Producer-Consumer),这部分专业用户,集中在专业自媒体视频创作者、广告营销从业者等,他们兼具C端用户的传播属性和B端用户的付费能力。其中,可灵的会员是分为三个层级——黄金会员是396元/年,铂金会员是1596元/年,钻石会员是3996元/年。 但对渴望依靠AI吃播等内容形式赚钱的创作者来说,这点价格只是洒洒水。更何况,可灵这样的模型还掌握着短视频平台这个宝贵的资产,这意味着它们拥有一个“特许经营权”式的护城河。 当创作者习惯在快手生态内调用可灵生成内容时,平台同样能通过会员订阅、功能付费等方式收割收益,且这种收益与创作者的变现能力直接挂钩——创作者赚得越多,对 AI 工具的付费意愿就越强。 当然,这条链路的最上游是用户,一切的前提是,AI能创造出用户爱看的内容。从这个层面来看,AI吃播这类视频的流行,是抖音、快手们的好消息。
网易有道密集展示大模型成果!100集短剧翻译、配音、润色成本仅100元,音视频翻译平台开启内测
作者 | 程茜 编辑 | 心缘 智东西8月20日报道,今天,网易有道集中展示了多项大模型成果,包括子曰3系列大模型的新进展,以及AI有道词典、有道音视频平台、有道AI答疑笔SpaceX等多项软硬件成果。 网易有道CEO周枫谈道,目前网易有道聚焦于广告和教育领域。 教育领域,其今年6月开源的子曰3系列数学大模型,是14B参数的轻量级推理模型,每百万token服务成本0.15美元,是通用大模型的1/10。此外网易有道还升级了AI有道词典,二代AI答疑笔新增了全景拼图、视频答疑等功能,二代有道答疑笔Wi-Fi版本售价1199元,4G版本1399元。 广告领域,网易有道针对电商、短剧出海等需求推出的有道音视频平台,可以处理1GB、60分钟音视频的原声人声翻译能力。网易有道智能应用事业部负责人张艺透露,目前处理一部100集短剧的行业平均价格为1500元,有道音视频翻译平台成本仅为100元,能一次性提供翻译、配音到润色的全流程服务。 对于AI教育行业的发展,周枫将教育行业类比自动驾驶的分级,他认为,教育AI正在从L3的学习辅助到L4的虚拟导师完成一次关键的跃迁。目前,AI已经不是被动的应答者,而是具备了接近人类老师的思考能力,能主导引导学生思路甚至预判学生的难点。 一、AI应用加速向高价值垂直场景渗透,有道聚焦教育和广告 周枫分享了基于当下大模型行业的发展,其对大模型应用落地、技术迭代的思考。 首先,他认为大模型的推理能力更强、思考更加深入,当下从推理迈向Agent时代体现出两大新变化,Agent可以自主执行复杂任务,能自主完成此前需要人工分解的繁琐步骤;Agent能自主检查和修正答案,可以攻克更难的问题。 第二个趋势是AI应用正在加速向高价值垂直场景渗透,在创意设计、市场营销、办公、医学研究等高度专业化场景的AI工具越来越好用。 在此基础上,网易有道已经形成了聚焦教育和广告两大领域的业务体系。 广告和市场营销层面,今年以来,网易有道依托模型能力,有道智选推出了小智广告AI优化师与创意生产工具箱iMagicBox。 小智广告AI优化师基于AI投放决策模型可满足企业从投前到投后全流程的辅助决策,投前针对广告策略素材投放计划和行业素材解决广告主需求,投中一键生成最优的人群投放决策,投后生成投放问题的诊断报告;iMagicBox可以帮助广告企业独立生成图像、视频模版。 这两大产品实现了企业从广告创意到投放优化的全流程智能化。 在教育层面,今年6月,网易有道推出14B轻量级子曰3系列数学大模型,在CK12-math(Internal)、GAOKAO-Bench(Math)、MathBench(K12)、MATH500等数据集上各项得分均高于DeepSeek-R1等通用大模型,在数学解题和讲题方面的多个评测中,表现达到SOTA水平。 此外,网易有道子曰教育大模型在翻译和辅导场景进行了重点优化。 翻译场景,小语种翻译模型可以实现38种语言实时翻译,并具备多模态深度理解能力;辅导场景覆盖英文作文批改、文言文解析、数学习题拆解等全学科高频场景。 技术层面,小语种翻译模型实现基于单一模型原生支持38种使用语言。周枫透露,其研究人员实现了使得模型底层具备理解和多语言表达能力,并通过针对翻译需求的打分模型,进行多阶段强化学习训练,解决了模型翻译复杂句式、专业术语的难题。 在子曰3系列数学大模型上,网易有道同样采用了强化学习训练策略,引入难度加权策略等加强模型的解题能力等。 二、有道词典累计用户量超10亿人,有道音视频翻译平台开启内测 网易有道智能应用事业部负责人张艺透露,2023年至今,网易有道AI应用订阅的销售额超过3余亿元,AI功能整体渗透率超过40%。截至目前,网易有道词典累计用户量超过10亿人次。据他们观察,词典用户的需求正变得更加细分、专业。 网易有道升级后的AI有道词典搭载了14B小参数的子曰翻译大模型2.0,在翻译和多模态能力方面进行了升级,该模型已经实现翻译能力超越国内外通用大模型。 具体来看,首先是AI同传能力,其围绕识别能力、语言覆盖、翻译质量三个方面进行了升级。 AI有道词典可实现抗噪声稳定识别输出,同时新增支持71种语言、125种口音,以及经济、化学、计算机、医学等学术术语库。张艺称,有道词典AI同传已服务超1000万人次。 此外,他谈道,随着大模型的发展,AI翻译已经进入多模态内容深度理解与生成的阶段,基于此网易有道展示了基于多模态大模型的AI翻译平台有道音视频翻译。 该平台内测版本已经上线,正式版本9月初发布,发布初期可以限时免费使用。有道音视频翻译平台支持任意语种音视频上传,实现原声克隆、人声翻译,已经在电商出海、短剧出海有所应用。 这背后的技术优势在于,网易有道研发了文本、音频、视频多模态一体化原声翻译系统VocalFusion,可以识别主播的性别、年龄、动作、场景,进行深度还原。音色方面,有道自研TTS技术Adaptive Voice Cloning,用户可以通过简单提示词调节主播说话的语气,如让说话声音更兴奋、更低沉等。 在时间方面,有道音视频翻译平台处理10分钟视频耗时3分钟,可以处理1GB、60分钟的视频。 三、AI答疑笔升级,新增视频讲题、扫描拼图 今年2月网易有道推出AI答疑笔SpaceOne,网易有道高级副总裁吴映晖透露,目前小P答疑累计响应次数已经超过1.4亿次,AI答疑功能的使用频次从每人每日4-5次,到现在超过10次。他补充说,AI答疑笔会先给学生关键提示,鼓励学生尝试自己解决,如果还是没有解决,会提供详细解决过程,分步解析,学生中途不明白的地方可以随时追问。 此次有道推出的二代AI答疑笔SpaceX,新增了全景拼图、板书式视频答疑等新功能。 SpaceX笔头宽度为3.6cm,吴映晖称,据他们调研,这可以实现80%的题目一次扫描完成,对于带图片、长篇幅的题目,SpaceX可以基于全景拼图功能自动拼接题目。 此外,有道将答疑功能放置到了答疑笔的第一入口,可以让用户快速调用相应功能,并且不同于拍照搜题,提笔扫描的交互方式,直接扫描可以简化用户打开摄像头、拍照等步骤,更便捷、速度更快。 讲题过程中,该答疑笔在文字分步骤答疑模式、苏格拉底引导答疑模式之外,新增了板书式视频答疑功能。这一新功能通过图片、文字、声音的形式,更适合于推演过程复杂、本身就有图片的题目。 硬件层面的升级,二代有道AI答疑笔搭载4.4英寸OLED全面屏,机身厚度为13mm,重量为105g,支持4G插卡上网,满电续航可以达到7天。 结语:软硬件融合破解教育、广告行业痛点 从有道词典笔到有道答疑笔,网易有道正不断发掘大模型在教育领域的多样化需求,并通过软硬件结合的方式推陈出新,解决更多教育上的痛点。与现在市面上的学习机等硬件形态相比,网易有道聚焦于扫读的交互形式,覆盖到其在查词、翻译等教育领域的更多高频使用场景。 与此同时,AI应用正在加速向高价值垂直场景渗透的当下,网易有道基于其在多模态大模型领域的布局,聚焦于教育和广告领域,将进一步将这些场景的痛点与大模型发展深度融合。
机器人运动会让全世界笑了三天,但你不能忽视具身智能技术进步
划重点: 1、为期三天的首届世界人形机器人运动会出现了不少搞笑名场面,究其原因是当前机器人缺乏对环境感知和自身控制的能力。 2、在受控环境中,机器人已经能自主完成感知—决策—执行的完整闭环;并且具身智能正在从“单一任务”走向“多任务泛化”。 3、要让机器人真正具备与人类比肩的环境适应力和任务执行力,仍需在动态平衡与姿态控制技术、低延迟环境感知与决策系统、高能效续航技术、多任务泛化学习能力,以及低成本高可靠性硬件方案等方面继续发力。 作者 林易 编辑 重点君 为期整整三天,世界第一场机器人运动会,可谓是受到了全球人类的围观。 因为当我们碳基生命以为会是一场科技感十足、未来感满满的技术盛宴时,硅基生命们却超级反差地呈现出了大型搞笑现场。 最最最经典的名场面,莫过于宇树机器人的“肇事逃逸”事件了: 没错,就这么水灵灵地把一旁的工作人员给撞倒,然后停下来还驻足了片刻,继续若无其事地往前跑了…… 这种违反阿西莫夫的机器人原则第一条(不得对人类造成伤害)的事件,一下子在外网火了起来。 虽然后来王兴兴站出说明了原因,是两名控制员在交接遥控器的时候,没来得及下达相应的指令才导致的这场闹剧。 不过网友们讨论的另一个点,就是为什么非得用遥控器才行。关于这个问题,具体原因主要有两方面。 一方面是机器人自身的稳定性问题,本质上源于动态平衡。跑步是一种极易失衡的运动形式,机器人必须在极短时间内完成姿态调整。 然而,现有的传感器、算法和执行器在反应速度和精度上仍然不足,难以在复杂地形中保持稳定。这时,人工遥控可以在机器人即将失衡时及时介入。 比如,宇树的另一款机器人G1在今年4月被第三方用于参加半程马拉松时,就曾出现摔倒的情况。 另一方面是环境感知能力的不足。虽然传感器能够获取周围信息,但在高速奔跑状态下,数据往往存在延迟或精度不够,导致机器人无法像人类一样迅速作出判断。人工遥控正好可以弥补这种感知与决策上的短板。 这次机器人在短暂脱离遥控后就发生了撞人事故,也从侧面印证了上述问题。 但在这场运动会另外的赛事中,乌龙和搞笑名场面也是不断在上演。 例如在拳击比赛中,趁着工作人员不注意,绕到他的身后,直接开始挥拳了: 这回的锅可不能再甩给人类了……以及同样是在拳击比赛,其中一个机器人还直接选择躺平,引得现场观众哄堂大笑: 还有在下楼梯的任务中,机器人直接卡倒,甚至把头都给摔掉了: 总而言之,bug、笑点,在这三天里简直是停不下来。 但你以为世界人形机器人运动会就是来搞笑的吗?非也非也,在各大赛事中,也有不少机器人给出了非常惊艳的表现。 而它们,或许正是代表了目前国产机器人的最高水平。 01 宇树H1机器人:拿下田径1500米首金 同样是那位肇事逃逸的宇树H1机器人,非常反差的一个表现,就是它拿下了这届1500米田径赛的首金,共计耗时6分34秒。 从现场的画面来看,宇树H1的跑步速度也是相当之快,甚至还套圈了其它个别机器人: 不仅是1500米,在400米的赛事中,宇树H1同样是拿下了冠军: 这一成绩不仅远超公众对当前机器人运动能力的普遍认知,甚至让一些专业运动员都感到了前所未有的压力。 宇树H1的这一成绩,换算下来相当于长跑运动中的“四分配速”,即每公里耗时约4分22秒。 这是一个什么概念?作为参照,中国国家二级运动员的男子1500米标准是4分10秒。这意味着,H1的速度已经超越了许多经过长期训练的业余跑者,甚至接近了专业运动员的门槛。 这一成就之所以令人瞩目,不仅在于其绝对速度,更在于其背后所展现的技术进步。仅仅在几个月前,机器人在马拉松赛事中的表现还步履蹒跚,被戏称为“老奶奶步伐”。 而今,宇树H1却实现了从“站不稳”到“快成残影”的惊人蜕变,这背后是硬件与算法协同进化的必然结果。 宇树H1之所以能够取得如此突破性的表现,其核心在于两大支柱的协同作用:坚实的硬件基础和革命性的AI算法。 为了支撑高强度的奔跑运动,H1在硬件层面进行了全面的优化与升级: ·高爆发力矩电机:机器人奔跑时,关节需要瞬间输出巨大的力量。H1配备了自研的高性能电机,其峰值扭矩高达360牛·米,同时具备出色的力矩-速度曲线和高效的散热能力,确保在持续高强度运动中不会因过热而降频或损坏。 ·高强度轻量化结构:奔跑时,足底与地面会产生剧烈的冲击力。H1的机身结构采用了高强度合金与碳纤维等轻量化材料,在保证结构刚性的同时,最大限度地减轻了自身重量,从而降低了运动能耗和关节负荷。 ·高功率电池系统:持续的高速奔跑对能源供应提出了极高的要求。H1搭载了大功率电池组,能够提供稳定且持久的高电压输出,为电机和控制系统提供充足的“弹药”。 相比之下,同期参赛的其他一些机器人在基础的平衡控制上仍存在巨大挑战,出现了“下楼梯摔得头掉,跑步两米就原地打转”的窘况。 如果说硬件为H1提供了强健的“体魄”,那么先进的AI算法则赋予了它智慧的“灵魂”。 近年来,机器人行业正普遍从传统的ZMP(零力矩点)等控制方法,转向以深度强化学习(Deep Reinforcement Learning, DRL)为代表的“Learning”技术路线。 ·深度强化学习(DRL):通过这种算法,机器人可以在虚拟环境中进行数百万次的“试错”训练。它不再依赖于工程师编写的复杂运动规则,而是像人类学习走路和跑步一样,自主探索并优化步态、平衡和运动策略。在训练中,算法会根据预设的奖励函数(例如,速度最快、能耗最低、姿态最稳)对机器人的行为进行打分,从而引导其学习到更高效、更稳定的运动模式。 ·具身智能(Embodied AI):这种学习方式的成果,就是让H1展现出了所谓的“具身智能”。它不再是僵硬地执行预设指令,而是在奔跑中表现出“丝滑、连贯的自适应平衡能力”。无论是微小的地面起伏还是自身姿态的动态变化,它都能实时调整步态和重心,保持身体的稳定。这种高度的自适应能力,使其动作完整度和流畅度远超同类产品,奠定了其在运动能力上“一骑绝尘”的领先地位。 然而,在为“四分配速”这一成就惊叹的同时,我们更应看到其背后所暴露出的能量效率、结构强度、环境适应性等深层次的制约因素。 这场关于速度的竞赛,其终点并非简单地超越某个人类运动员的记录,而是要让机器人能够真正安全、可靠、高效地走进现实世界,在复杂的环境中完成多样化的任务。 02 天工机器人:100米夺冠 宇树机器人无疑是本届人形机器人运动会最大的亮点,但除了它之外,其它机器人也给出了不俗的表现。 例如来自北京人形机器人创新中心的天工,便拿下100米的冠军: 值得一提的是,天工是全场唯一无需人类遥控、全程自主导航的机器人。 这背后离不开一系列关键技术的突破。天工机器人由北京人形机器人创新中心研发的全身控制自主导航系统赋能,使其具备在复杂环境中自主感知、规划和执行任务的能力。 从近期披露的技术细节来看,我们可以把它背后的技术亮点归结为四点: 1. 具身世界模型体系:这一体系包括拥有物理时空理解与推理能力的72B多模态大模型,以及驱动神经网络的世界模拟器,帮助机器人更好地理解现实、预测环境变化,相当于它的“中枢大脑”。 2. 跨本体VLA(视觉-语言-动作)模型:让机器人能够在不同场景和任务间自由切换,通过一个模型即可调用多种技能,极大降低了应用开发的时间和成本。 3. 全身控制自主导航系统:提供点对点导航、动态障碍感知与避障能力,这是机器人在实际工作中必不可少的核心能力。 4. 千台机器人真实场景数据采集计划:通过让机器人深入工厂、物流、酒店等真实场景运行,持续收集大规模数据,为算法迭代和模型优化提供“燃料”。 在感知能力方面,天工机器人搭载了强大的视觉传感系统,每秒可处理高达550万亿次运算,并配合高精度惯性测量单元(IMU)和3D视觉传感器。 与传统的2D视觉相比,3D视觉能更精准识别缺陷、提升检测速度,在自动化生产和环境感知中更具优势。 除了视觉感知,天工机器人还装备了六维力传感器。这种传感器能够全面捕捉机器人在手腕、脚踝等关键部位的受力情况,从而实现柔顺控制和精准操作。 总体来看,天工机器人背后的技术突破,不仅让其在赛场上展现了全自主奔跑的实力,更代表着人形机器人在感知、决策与执行层面正逐步走向成熟,推动具身智能从实验室迈向实际应用场景。 03 星动L7:跳高跳出新纪录 在跳高赛事中,最亮眼的就当属清华系具身智能企业星动纪元的星动L7了。它以95.641cm高度,不仅打破纪录,更是断崖式领先取得第一名的成绩。 在人形机器人的各项运动能力中,跳高无疑是技术实现难度最高的项目之一。它对机器人的综合性能提出了极致要求。 例如在硬件方面,要求机器人的关节具备极高的瞬时扭矩输出和结构强度,以克服自身重力并产生足够的腾空动力。 在动态控制方面,还涉及复杂的多物理场耦合问题,机器人必须在毫秒之间实时优化质心轨迹、调控角动量,并精准控制落地姿态,这对控制算法和传感器精度构成了严峻挑战。 而身高171cm、体重65kg的星动L7,其核心动力源于自研的高性能关节模组。该模组的峰值扭矩高达400N·m,峰值转速达到25rad/s,为机器人提供了媲美人类运动员的爆发力。 它全身集成的55个准直驱“活动关节”协同工作,确保了力量的精准传导和动作的高度灵活性。 无论是完成跳高所需的瞬间发力,还是此前展示的360度旋转跳、高速奔跑(最高时速4m/s)和复杂街舞动作,都彰显了其硬件设计的卓越性能与可靠性。 如果说顶级硬件构筑了L7的身体素质基础,那么其先进的“大脑”——端到端强化学习能力,则是其夺冠的关键。 面对仅有几天的备战时间,研发团队依托自研的端到端强化学习平台,在虚拟环境中进行了数百万次模拟训练。通过将人类跳跃的动作数据作为奖励信号,L7的算法模型快速迭代,自主学会了最优的起跳角度与空中姿态协同策略。 这一快速学习能力的背后,是星动纪元自主研发的端到端VLA(视觉-语言-动作)具身大模型ERA-42。该模型不仅支撑了L7在运动场上的卓越表现,更在仓储物流等复杂场景中展现了强大的泛化能力。 无论是面对堆叠无序的货物进行智能分拣,还是精准定位并扫描包裹条码,ERA-42都能驱动L7快速适应并高效完成任务。 星动L7此次夺冠,是星动纪元“算法+硬件”全栈自研技术路线的有力证明。从电机、减速器到驱动器的硬件全链条自研,到融合视觉感知、语言理解与动作规划的具身大模型,软硬件的深度协同,共同铸就了L7的巅峰表现。 04 智元远征A2:群舞《秦俑魂》夺冠 除了传统的竞技之外,这次的运动会还开设了一个别开生面的赛事——群舞比拼。 毕竟机器人跳舞这事,这几年也是一直爆火。而拿下这个赛事冠军的机器人本体,正是来自智元的远征A2。 在这场表演背后,核心支撑来自智元远征A2人形机器人及其配套的高性能算法。相比传统“机械木偶”,远征A2以高度仿生的运动控制系统、强大的硬件性能和智能算法实现了从“机械动作”到“艺术表达”的跨越。 为了契合舞蹈的高难度需求,智元团队对机器人进行了硬件与软件的全面优化。电机、关节、驱动等关键部件均经过重新设计,以承受旋转、腾跃等舞蹈动作带来的冲击;在算法层面,采用先进的运动规划与仿真技术,实现了动作轨迹、速度与力度的精确控制,使机器人能够精准卡点音乐节奏,动作既自然流畅又充满力量感。 更为突出的是,智元机器人展现出优秀的群体协同能力。通过传感器与算法结合,机器人能够实时感知周边环境并微调动作,避免舞台碰撞,实现九机同步的整齐走位。 这一能力不仅是舞蹈表演成功的关键,更为物流仓储、服务导览等实际场景提供了可靠借鉴。机器人在复杂环境中灵活穿梭、避障与协调的表现,显示了智元在运动控制与感知交互上的深厚技术积累。 当然,人形机器人产业仍面临成本高昂、续航不足等挑战。但智元通过技术创新,已经为未来的规模化应用提供了范例。 05 具身智能,现在到了什么水平? 从这次机器人运动会的表现可以看出,具身智能正处在一个快速突破的阶段。虽然机器人们在赛场上仍不断上演“笑场名场面”,但整体水平相比过去已有了质的飞跃。从技术和产业角度来看,可以从以下几个方面来理解当下的进展。 过去,人形机器人常常连“站稳”都是难题,如今像宇树H1已经能够在1500米长跑中跑出接近人类运动员的成绩。这背后体现了高功率电机、轻量化结构和强化学习算法的协同进化。机器人在高速运动中保持动态平衡的能力,标志着运动控制已进入实用阶段。 天工机器人在赛场上实现了完全自主导航,这在几年前几乎难以想象。这依赖于多模态感知系统、全身控制导航和具身世界模型的结合。虽然离真正媲美人类的环境理解还有差距,但在受控环境中,机器人已经能自主完成感知—决策—执行的完整闭环。 星动L7的跳高成绩展示了端到端强化学习在复杂运动中的潜力。通过在虚拟环境中进行数百万次仿真,机器人可以快速掌握高难度动作。再结合视觉-语言-动作(VLA)大模型,机器人不仅能完成运动任务,还能适应多样化的现实场景,如物流、仓储等。这表明具身智能正在从“单一任务”走向“多任务泛化”。 目前的机器人依然面临能耗高、可靠性不足、适应复杂非结构化环境的挑战。但从技术路线来看,软硬件一体化自研、多模态大模型驱动,以及大规模真实世界数据采集,正在加速推动机器人走向产业化。无论是工厂、物流还是服务业,具身智能的应用窗口正在打开。 尽管机器人在速度和爆发力等单项能力上开始逼近甚至超越普通人类,但在灵活性、稳定性、环境理解和能效方面仍远不及人类。这意味着,未来的发展方向不仅是“跑得更快、跳得更高”,更是“更安全、更节能、更聪明”,真正实现人机协作。 总体而言,具身智能正处于“从炫技到实用”的关键转折点。机器人已经能够在一些特定场景中展现接近人类的运动能力,但距离真正大规模走入日常生活,还有一段技术和应用上的长坡厚雪。 除此之外,有人将人形机器人的快速迭代解读为“技术泡沫”,认为当下的热闹不过是资本与流量催生的短期狂欢。但从这场机器人运动会的细节来看,这种判断显然失之偏颇。 宇树、天工、星动、智元,背后是高功率电机、深度强化学习、多模态感知等技术的实质性突破,而非停留在概念层面的“炫技”。这些进步正在将 “人形机器人走进现实” 从科幻推向可触摸的产业蓝图,因此绝非泡沫。 但不可否认的是,要让机器人真正具备与人类比肩的环境适应力和任务执行力,仍需在动态平衡与姿态控制技术、低延迟环境感知与决策系统、高能效续航技术、多任务泛化学习能力,以及低成本高可靠性硬件方案等方面继续发力。
阿里图像生成模型登顶HuggingFace,一句话把马斯克“变老”
就在8月19日,阿里发布了Qwen-Image,这是一个图像生成基础模型。这个模型的特点是,通过系统性的数据工程、渐进式的学习策略、改进的多任务训练范式以及可扩展的架构优化,旨在解决复杂文本渲染和精准图像编辑的核心难题。 在AI领域,图像生成技术作为其重要分支,近年来取得了显著进展。无论是从文本直接生成图像(T2I),还是对现有图像进行编辑(TI2I),其核心都在于机器能否精准地理解并以视觉形式再现人类的意图。尽管扩散模型等架构的出现极大地提升了生成图像的分辨率与细节表现力,但该领域仍面临两个长期存在的挑战。 在文本到图像的生成任务中,模型对于复杂、多维度的文本指令的理解与对齐能力尚有不足。尤其是在处理多行文本渲染、非字母文字(如汉字)渲染、特定位置的文字嵌入,以及将文字与视觉元素无缝融合等精细任务时,现有模型往往难以达到理想效果。 而在图像编辑任务中,如何确保编辑后的图像与原始图像在视觉和语义上保持一致性,是一个双重难题。这既要求视觉上的一致性,即只修改目标区域而不影响其他部分的视觉细节;也要求语义上的连贯性,即在进行结构性调整(如改变人物姿态)时,必须保留主体的身份特征与场景的整体逻辑。 01 Qwen团队专门发布了一份技术报告,名为《Qwen-Image Technical Report》,以此详细介绍Qwen-Image的功能。 为实现精准的文本渲染,Qwen-Image构建了一个全面的数据处理体系。该体系始于大规模收集数十亿级别的图文数据,并强调质量优于数量。数据经过一个分为七个阶段的精细化过滤管道,从低分辨率的基础筛选到高分辨率的美学提纯,系统性地提升了数据质量与图文对齐度。 同时,考虑到真实图像中汉字等内容的长尾分布特性,模型还通过“纯粹渲染”、“组合渲染”和“复杂渲染”三种策略大量合成高质量的文本图像数据,弥补了自然数据的不足。在此基础上,模型采用由简到繁的“课程学习”策略进行训练,显著增强了其渲染复杂中英文文本的能力。 为实现精准的图像编辑,Qwen-Image提出了一种增强的多任务学习框架。其核心是将输入图像编码为两种互补的特征:一是通过Qwen2.5-VL模型提取的高层“语义特征”,用于理解图像内容和编辑指令;二是通过变分自编码器(VAE)提取的低层“重建特征”,用于保留图像的视觉细节和纹理。 这两种特征共同作为引导信号,输入到作为模型骨干的多模态扩散Transformer(MMDiT)中。这种“双重编码”设计,使得模型在执行编辑指令时,既能理解“改什么”,又能知道“保留什么”,从而在语义连贯性与视觉保真度之间取得了良好的平衡。 模型架构上,Qwen-Image由Qwen2.5-VL(条件编码器)、VAE(图像压缩与解码)和MMDiT(核心生成网络)三部分组成。其中,VAE采用了独特的“单编码器、双解码器”架构,使其在保证高质量图像重建的同时,也为未来扩展到视频生成任务奠定了基础。MMDiT内部则引入了一种名为MSROPE的新型位置编码方法,通过将文本信息在概念上置于图像网格的对角线,改善了文本与图像特征的对-齐。 训练过程同样是渐进式的,从低分辨率到高分辨率,从无文本图像到有文本图像,并结合了监督微调(SFT)与直接偏好优化(DPO)等强化学习方法,持续优化生成结果的质量与遵循指令的准确性。最终,大量的基准测试和人类评估结果表明,Qwen-Image在通用的图像生成、复杂的文本渲染以及指令式图像编辑任务上,均达到了业界领先水平。 不多说废话,让我们直接看成品。我故意刁难Qwen-Image,既然官方技术团队报告中表示优化了对提示词的理解,那么我就要它生成自然界不存在的东西。从结果上来看,Qwen的冰山渲染效果比GPT-5更好,但是火焰跟冰山较为割裂,而GPT-5则用熔岩填充了火焰和冰山之间的部分,让画面更自然。 提示词:A colossal iceberg that is on fire, with bright orange flames licking its crystalline blue surfaces, emitting thick steam and smoke into a freezing arctic sky. The water around the iceberg is boiling. Photorealistic, dramatic lighting. Qwen-Image: GPT-5: 在图片重构方面,GPT-5除了猫整体都发生了改变,包括背景。可能是因为希望要求它漂浮在空中,GPT-5真的把这只猫送上了大气层,但是Qwen-Image则是漂浮在了半空中。 提示词:make the cat floating in the air and holding a sign that reads 'this is fun' written with a blue crayon 原图片: Qwen-Imgae: GPT-5: 有意思的来了,由于原图片中出现了星条旗,GPT-5和Gemini都不能完成对原图片的修改。但是Qwen-Image完成了这个命令,虽然在生成的图片中,马斯克变得更加苍老了。 提示词:Keep Elon Musk and his hat exactly as they are in terms of pose and size, but place them on the surface of Mars during a massive dust storm. The sky should be a swirling orange and red, with visible streaks of dust. Add a futuristic, slightly damaged SpaceX rover partially buried in the Martian sand in the background. 原图: Qwen-Image: 02 技术报告展示了Qwen-Image强大的图像生成与编辑能力,这自然引出一个问题:它能成为一个“AI版的Photoshop”吗?或者说,它在多大程度上改变了我们与图像交互的方式?要回答这个问题,我们需要比较它与传统图像编辑软件的核心异同。 从功能上看,Qwen-Image确实展现出了许多与Photoshop相似的核心编辑能力,但实现方式截然不同。Photoshop依赖于工具箱、图层和滤镜,用户通过直接操作(如画笔涂抹、选区拖动)来实现修改。而Qwen-Image则依赖于自然语言指令,用户通过“描述”来完成编辑。 在对象处理方面,Photoshop使用套索、魔棒等工具进行精确选区,然后进行复制、粘贴或内容识别填充。Qwen-Image则通过文本指令实现类似操作,例如“添加一只猫和一只狗”或“移除画面里所有的人”。它不仅能完成增删,还能理解风格要求(如添加卡通风格的动物),这类似于PS中需要手动调整新元素风格以匹配背景的操作,但Qwen-Image将其自动化了。 在材质与风格转换上,Photoshop提供滤镜库、图层样式和纹理叠加等功能。Qwen-Image同样能通过指令完成,例如将一个普通图标变为“珐琅彩玻璃艺术”风格的冰箱贴。这种基于语义的材质渲染,是其强大之处。此外,其精准的文本编辑能力,如修改、增删图像中的文字并保持原有风格,直接对标了Photoshop的核心功能——文字工具。 更进一步,在处理图像结构性变化时,比如人物姿态调整,Qwen-Image展现了超越传统工具的潜力。在Photoshop中,调整姿态可能需要使用液化、操控变形等工具进行细致的手动修改,且很难保证衣物纹理和背景的自然过渡。 而Qwen-Image能够理解“让她站起来,单手叉腰”这样的指令,并在保持人物身份、服装细节(甚至能推断出被遮挡的衣物部分)和背景一致性的前提下,生成一个全新的、符合逻辑的姿态。这种能力更接近于“重新想象”而非“修改”。 然而,尽管功能上有诸多重叠,将Qwen-Image简单地视为Photoshop的替代品并不准确。二者的核心工作范式存在根本差异。 最重要的地方在于控制的粒度。Photoshop提供的是像素级的、确定性的精确控制。用户可以选中任意一个像素点,赋予它一个精确的RGB值。而Qwen-Image的控制是语义级的、概率性的。用户描述的是“什么”,而不是“如何做”。你无法通过指令去精确控制某个特定像素的颜色,编辑结果总是在一定程度上由模型“自由发挥”,带有一定的随机性。 Photoshop的核心是基于图层的非线性、非破坏性工作流。用户可以随时返回修改任意一个图层,而不影响其他部分。Qwen-Image的编辑更像是一个“一次性”的再生成过程。尽管技术报告中展示了“链式编辑”(即在上一次生成结果的基础上继续编辑),但这与PS中灵活调整图层堆栈的逻辑完全不同。 精通Photoshop需要掌握复杂的工具、蒙版和色彩理论。而使用Qwen-Image则需要掌握“提示词工程”——用清晰、准确的语言描述视觉意图的能力。它极大地降低了图像编辑的技术门槛,但同时也引入了一种新的技能壁垒。 Qwen-Image并非Photoshop的直接替代品,而是一种全新的图像内容创作与编辑范式。Photoshop是一个“数字暗房”和“画布”,为专业人士提供了无与伦比的直接操控和精确控制能力。而Qwen-Image则是一个“语义指令引擎”,它将人的意图从繁琐的技术操作中解放出来,更侧重于创意构想的快速实现和语义层面的内容调整。 它们满足了不同场景的需求。一个需要进行精细排版和品牌视觉设计的专业设计师,依然离不开Photoshop的精确控制。但对于一个需要快速产出创意概念图、营销素材,或者不具备专业设计技能的用户来说,Qwen-Image无疑是更高效、更直观的工具。 虽然现在已经出现了一些带有AI功能的修图软件,但是能实现的功能还比较浅,比如消除图片中的人物、调整颜色等。未来,二者很可能会深度融合——在Photoshop这样的专业软件中,嵌入像Qwen-Image一样强大的语义理解和生成引擎,这在PS的“生成式填充”功能中已初见端倪。Qwen-Image的出现,标志着这条融合之路上的“语义引擎”一端,已经达到了一个新的成熟高度。
罗永浩预告TBT项目:筹备九年,换赛道了?
凤凰网科技讯 8月20日,罗永浩在社交媒体上发布重磅消息,宣布自己进军新赛道。他表示:“TBT 终于要上了!九年了,变的是赛道,不变的是特别想给这个赛道来点不一样的创新。重构你对泡面的想象,明天见!” 这一消息迅速引发广泛关注,大众对罗永浩口中将重塑泡面认知的TBT项目充满好奇。 此前,据白鹿视频报道,一段疑似罗永浩的私聊录音在科技圈引发热议。录音内容显示,在开发备受瞩目的TNT工作站之前,罗永浩曾秘密推进名为“TBT”的创新项目。他在录音中坦言:“虽然当时团队已经忙不过来,但这个项目实在太有诱惑力了。” 该项目最初被外界猜测为一项科技领域的创新计划,全称为“Tech Beyond Tomorrow”(超越明天的科技),曾被认为融合了AIOS操作系统、端侧大模型与颠覆性交互技术,目标是重新定义个人计算设备形态。从录音内容推测,该项目或许因过于超前、对技术和资金要求过高,加之当时锤子科技资源有限,最终未能成功推进,甚至间接导致锤子科技走向困境。 如今,时隔九年,TBT项目再次进入公众视野,且此次将目标瞄准泡面赛道。据微博配图显示,TBT项目首款产品为一款名为“九年磨一面”的创新泡面,包装文案强调 “面是可以被再次创新的”“特不像泡面”“3重特别革新”等概念。此举标志着罗永浩继电子烟、直播带货之后,正式跨界进军速食食品赛道。
Manus最新对话全文:尝试Agent支付,公司RRR近1亿美元
作者|Li Yuan 编辑|靖宇 搬到新加坡的 Manus,对通用 AI Agent 的思考没有停止。 在今天在新加坡举行的 Stripe Tour 上,Manus 联合创始人兼首席科学家季逸超(Peak)与 Stripe 亚太地区及⽇本⾸席营收官 Paul Harapin 进行了对谈。 席间,Manus AI 披露了近期的经营数据,Manus AI 年度化的经常性收入(RRR,Revenue Run Rate)已经达到 9000 万美元,很快即将上亿。 Manus AI 的肖弘还特意在即刻表示,Revenue Run Rate 指的是当月的 Revenue *12,并不等于 Cash Income。很多 AI 产品都会有年付选项,这部分只能算作预存款,而不能记为 Revenue。「如果我们按照这种【错误方式】披露,可以算出一个一个比 1.2 亿美金更大的数。」肖弘表示。 除了经营数据之外,季逸超还分享了 Manus 团队是如何思考通用 Agent 的的下一步的,以及 AI Agent 和 AGI 未来到底有什么区别。 「现在大家几乎把一切都叫做 Agent。比如一个麦克风,有人会叫它是「有环境感知的收音 Agent。」季逸超开玩笑地讲道。 他也给出了拓展通用 Agent 能力下一步的两条主线:其一,用多 Agent 协作把执行规模做宽(如在大规模调研里衍生出上百个并行的子 Agent);其二,给 Agent 打开更大的「工具面」,不把能力绑死在少数预置 API,而是像程序员一样调用开源生态、安装库、甚至在可视化后看图自检并回改。 季逸超还提到,今天的数字世界仍按「给人用」的范式建造——非 API 化网页、CAPTCHA、流程「小游戏化」带来大量摩擦,瓶颈更像生态与制度约束,而非模型智力。 这也是 Manus 参与 Stripe 活动的原因之一:双方正推进在 Agent 内完成支付,把「研究—决策—下单/结算」连成闭环,用基础设施协作来消解世界的摩擦。 以下为对话精华,经极客公园编辑整理: 问:给观众简单介绍一下你自己吧。你最近关于「上下文工程」的博客非常鼓舞人心,我觉得对于在座任何正在开发 AI Agent 的人来说都是必读的。我每次去和工程师们吃午饭时,他们总是在谈论这个,所以我现在只能坐到别的地方(笑)。但对于现场可能不太熟悉 Manus 的人,你能分享一下你的经历和愿景吗? 答:谢谢 Paul。很高兴能来到。Manus 在构建一个通用 AI Agent。 很多研究机构和公司,其实在尝试打造一个大脑——打造一个大语言模型。但我们认为,从消费者的角度来看,这其实并不好。AI 应该能真正采取行动,完成事情,所以我们构建了 Manus。 我们的方式,是让 AI 可以使用人类历史上最伟大的发明之一——通用计算机。给了 AI 计算机,它能做人类能做到的所有事。Manus 能真正完成任务。比如它可以帮你做演示文稿、帮你规划一次旅行,甚至能帮你运营社交媒体——虽然我并不推荐你真的这样做。 我们的用户真的很喜欢 Manus。我们在三月份发布了 Manus,现在已经实现了大约 9000 万的年度化的经常性收入(RRR,Revenue Run Rate),很快就会突破 1 亿。 我觉得这对我们这样一个小型创业公司来说非常巨大。但更重要的是,这表明 AI Agent 已经不再只是一个研究领域的流行词,而是真正在被应用,落地生根。 我可以和大家分享一个我们构建 Manus 过程中的小故事。 我们其实从 Agent coding 的应用中得到了很多灵感。比如像 Cursor 这样的 AI 编程产品,之前已经吸引了很多关注。 作为工程师,我们自然会使用 Cursor。但让我们惊讶的是,公司里很多非工程师同事也在用 Cursor。当然,他们并不是在写软件,而是用它来做数据可视化,甚至写一些文章。他们会忽略左边的代码部分,只是跟 AI 对话来完成工作。 这让我们意识到:我们应该把这种方式泛化,赋能非程序员。这就是 AI 的一个用例。 问:我们越来越常听到人们谈论 AI Agent 和 AGI。你能不能帮我们更清楚地区分这两个概念?AI Agent 和 AGI 对你和 Manus 来说各自意味着什么? 答:我们认为这是一个非常好的问题。 现在大家几乎把一切都叫做「Agent」。比如一个麦克风,有人会说它是「有环境感知的收音 Agent「。 但至少我们主张,Agent 应该是应用型 AI 的一个子集。我们不妨退一步,看看常见的 AI 应用类别。 大多数人已经熟悉两类:一类是聊天机器人,比如 ChatGPT;另一类是生成式工具,比如 MidJourney 或 Sora。在这些系统中,通常只有两个角色:用户和模型。你和模型交互,得到输出。而 Agent 的不同在于,它除了用户和模型,还引入了第三个关键元素——环境。 这个「环境」的概念会因智能体类型不同而变化,比如在设计型 Agent 里,环境可能是一个画布或一段代码;而在 Manus 这里,我们的目标是让 Agent 出现在虚拟机甚至整个互联网中。这样 Agent 就能观察环境,决定下一步该做什么,并通过行动来改变环境。这让它非常强大。 比如在 Manus,你可以表达需求,它会打开浏览器、发布网页、帮你订一张机票。我很喜欢这个例子,因为虽然订机票听起来很简单,但这其实是 AI 在直接改变现实世界——结果不是模型的输出,而是你手里的机票。AI 真正介入了你的世界。这就是我们所说的 Agent。 简单来说,Agent 就是能代表用户与环境交互的 AI 系统。 至于 AGI,这个词也经常被提到,很多人把它等同于超级智能。我们认为,AGI 是一种能利用 AI 模型的通用能力,在不经过特别设计的情况下完成许多任务的系统。 我们认为「Agent coding」其实是通往 AGI 的一条路径。它不是一个垂直领域的能力,而是如果你把它赋予计算机,它几乎能在计算机上做任何事。所以对我们来说,AGI 的条件就是要构建足够完善的环境,让这种能力得以发挥。 问:AI 今天究竟在哪些场景中真正发挥了作用?未来会在哪些地方发挥作用?什么时候会出现 iPhone 时刻? 答:就 Agent 而言,如果单看模型能力的话,现在的旗舰模型已经非常惊人了,几乎是「超人」级别的。它们可以在数学竞赛或逻辑推理上胜过我们大多数人。 但我认为,模型仍然像是「瓶子里的大脑」,如果想真正发挥力量,就必须让它们与真实世界交互、触达现实。但不幸的是,这正是问题开始的地方。 比如你让一个 AI 去做一些事务性的任务,它在重复性任务上确实很擅长。比如像 Deep Research 这样的产品,它只是聚合信息然后给出一个结果,它的输出只是简单地出现在那里。 举个例子,现在几乎所有东西都是为人类设计的,不只是物理世界,甚至数字世界也是这样。比如网页工具,它们就像小游戏一样,没有提供 API 或标准接口。验证码 CAPTCHA 无处不在,处处在拦截 Agent。 所以我认为 AI 在封闭的自包含任务中表现很好,但一旦涉及真实世界,就会遇到障碍。 未来什么时候能出现 iPhone 时刻?我觉得这并不是技术问题,而是更像是一种制度性限制。这不是像我们这样的 Agent 创业公司能够单独解决的事情。 我认为这需要一个渐进的转变,要求整个生态系统共同进化。这也需要像 Stripe 这样的公司在基础设施层面发力。比如我们正在集成新的 stripe 的 Agentic 支付 api。大家共同努力。 问:那我们能不能具体谈谈用户在使用 Manus 时的一些典型场景?他们是如何使用的?这其中体现出了怎样的力量? 答:是的,我们虽然来自当前这一代 Agent,但已经看到很多很棒的用例。 比如说,我们刚刚搬到新加坡,需要雇佣房产中介来帮我们找住所。是真人 Agent(笑)。 而现在这些中介已经在使用 Manus:他们会根据客户的需求,用 Manus 来分析公司所在地、员工想住的区域,并生成相应的推荐。 我觉得这很有意思,因为这属于一种「长尾需求」。一般来说,并没有专门的 AI 产品是为这种具体场景设计的,但由于 Manus 是一个通用型 Agent,它就能满足这些需求。我们认为长尾需求非常值得关注。 从宏观角度看,它可能是长尾,但对具体用户而言,这正是他们的日常工作。这种场景特别有价值。 这就像今天的搜索引擎格局一样。如果你只是搜索一些常见的内容,不管用 Google 还是 Bing,结果质量差不多。那为什么人们会选择其中一个?可能是因为某个搜索引擎在特定时刻给了他们更合适的结果。而如果你搜索的是非常个性化或专业化的内容,就更能体现差异。所以我们认为通用型 Agent 的优势就在这里。 那如何让它更好呢?我们思考了很久,因为我们认为一切都绕不开编程。如果你把计算机交给 AI,那么它与环境交互的方式其实就是通过编程。 我们认为可以从两方面改进。第一是规模化。但如果你能把 Agent 的能力放大一百倍会怎样呢? 最近 Manus 刚刚发布了一个新功能,叫做 Wide Research。它的基本思路是允许一个 Agent 再衍生出上百个 Agent 一起去完成任务。你知道的,如果只是让 AI 帮你做一些小事,很多时候你自己也能完成。但如果任务非常庞大,你一个人根本不可能完成,比如需要做大规模的研究,这时候让上百个 Agent 并行去做,就会变得非常强大。 其次,我们还需要让 Agent 更灵活地使用计算机使。比如,如果你只给一个 AI Agent 设置了预设工具,那么它的行动空间就被限制在这些工具里。但想象一下,如果你是一个程序员,你有整个开源社区的资源可以调用。 比如你在 3D 打印的时候,直接修改模型的参数很困难,但是你如果能找到 GitHub 上的合适的库,直接安装就能解决你的问题了。在 Manus,我们在优化通用性,并且提出了一个概念,叫做「工具的网络效应」。 有一个很有意思的例子:很多用户在用 Manus 做数据可视化。你们知道,在亚洲有时候会遇到问题,比如在图表中显示中文时可能会出现字体错误。或许有些专业用户会写一些硬编码规则,比如在输出韩文时应该用哪种字体。但这种方式会让系统越来越僵化。 我们采取的办法是给系统增加了一个很简单的能力:查看图像。结果很惊喜——因为今天的模型已经很聪明了,它们会在生成可视化图像后自己检查,并意识到错误,然后再自动修正。我们发现,增加工具的灵活性比硬编码规则能解决更多的问题。 问:这是一个令人兴奋的时代。我真的很激动,只希望自己能再年轻到三十岁(笑)。提到医学研究的,我知道 Manus 在这方面也很强。你们观察到有些用户在使用 Manus 研究医疗吗? 答:很多人已经在用 Manus 做研究,不仅限于医学研究。我们觉得这很有意思,因为现在确实有很多所谓的「深度研究」产品,它们会帮你收集大量信息并做一些分析,但最后只给你一个 markdown 文件或文档。这远远不够。 很多时候,研究人员真正需要的,是能够直接交付给老板或团队的成果。所以我们在 Manus 上加强了研究结果的输出。例如在医学研究中,很多时候需要生成正式的报告,比如幻灯片报告之类的东西。因此我们必须优化 AI 的输出能力,以满足研究人员的需求。这是一种「工具化」的体验。 比如现在很多用户会先用 Manus 做研究,然后直接生成一个网站。你会觉得这和传统的网站搭建方式完全不同。 要知道,搭建一个网站本身其实不难,难的是如何确保数据的可靠性和准确性。所以我们认为,最好能在一次会话、一个共享的上下文中完成整个流程。这样,你的研究、你的见解就能无缝转化为最终成果。这就是我们在 Manus 里所做的事情。 问:很多国家都在讨论一个话题:在 AI 时代,人类的未来和经济影响。你怎么看待就业被取代?又会出现哪些新的工作机会? 答:我们的朋友和投资人也经常问我们这个问题。当我们推出 Manus 时,最初认为如果能构建这样一个 Agent,它就能帮人们节省很多时间,让大家轻松赚钱。 但实际上,我们发现这个愿景并没有完全实现。通过大量用户调研,我们发现用户在使用之后,他们反而工作得更多了。因为他们变得更高效了,他们实际上能做更多他们本来就很擅长的事情。这是第一点。 其次,我们认为 Manus 还打开了一个全新的空间。我们一直在讨论虚拟机和云计算。我们觉得 Manus 正在扮演一种「个人云计算平台」的角色。比如云计算已经存在几十年了,但它更多是工程师的特权,只有我们能通过编程来调用云的力量。普通知识工作者无法使用。 但现在有了像 Manus 这样的 AI Agent,人们可以用自然语言下达指令,让 AI 去执行。这等于解锁了一种全新的生产力。这就是我们所带来的。 而最后,关于「替代」,我认为其实很难。比如房产中介,他们每天都在用 Manus 完成日常工作。但你知道,AI 永远无法替代中介面对客户时的那种沟通方式。我们是一家 AI 公司,甚至 Manus 的发布视频都是由 Manus 写的脚本,但视频里出现的还是我,因为这是关于信任的事情。而信任,是不能完全交给 AI 的。
康奈尔团队首创微波神经网络,完全集成于硅微芯片且功耗不到200毫瓦,为机器学习推理再添利器
近日,美国康奈尔大学教授艾莉莎·阿普塞尔(Alyssa Apsel)和团队提出一种微波神经网络(MNN,microwave neural network),其采用标准的互补金属氧化物半导体(CMOS,Complementary Metal-Oxide-Semiconductor)技术制造,在芯片上仅占据 0.088 平方毫米的超紧凑尺寸,可支持集成到通用模拟处理器中,并且能够完全集成在硅基微芯片上。它可以为无线电信号解码、雷达目标跟踪和数字数据处理等任务执行实时频域计算,而且功耗不到 200 毫瓦。 图 | 美国康奈尔大学教授艾莉莎·阿普塞尔(Alyssa Apsel)(来源:https://www.engineering.cornell.edu/people/alyssa-b-apsel/) 当施加低频参数调制的时候能够改变微波神经网络的响应,这种可重新编程、特征丰富的频谱,非常适合用于机器学习推理任务。该方法能在宽带信号的整个带宽(数千兆赫宽)内实现瞬时模拟计算,据研究人员所知,这是业内首次在集成电子设备中展示此类能力,这意味着一种新型高速计算方法的正式面世,相关论文于近期发表在 Nature Electronics(IF 40.9)。 图 | 研究人员将这款低功耗微芯片称为“微波大脑”,它是首款通过利用微波物理特性,同时对超高速数据信号和无线通信信号进行计算的处理器。(来源:资料图) 01 在芯片上构建首个“微波大脑” 基于微波神经网络,研究人员在芯片上构建了首个“微波大脑”,这是一种低功耗的微芯片,也是首款利用微波物理特性从而能够同时针对超高速数据信号和无线通信信号进行计算的芯片。 图 | 相关论文(来源:Nature Electronics) 该款芯片既能执行低级逻辑功能,也能完成复杂任务,例如能够识别高速数据中的比特序列或统计二进制值。在涉及无线信号类型的多项分类任务中,它的准确率不低于 88%,能与数字神经网络的准确率相媲美,但是功耗和尺寸仅有后者的一小部分。 在研究人员所打造的首个原型样品中,他们证明微波神经网络能够替代射频和微波机器学习任务中大部分数字网络,同时所消耗的功率得到大幅降低,能够摆脱高时钟速度带来的负担。需要说明的是,时钟速度是电子设备中核心工作节奏的基准参数,通常以赫兹(Hz)为单位来表示每秒执行的周期数,较高的时钟速度会拖慢数字系统并使其发热。有趣的是,这款芯片还能模拟数字功能,从而能够替代冗长的时序逻辑信号链。 (来源:Nature Electronics) 这款芯片背后的电路拓扑结构,是论文第一作者巴拉・戈文德(Bala Govind)在康奈尔大学读大二和大三期间,经过数月思考逐渐形成的。他在康奈尔大学官网的报道中表示,在校园山坡的多次散步中,他完成了上述结构的构思。 图 | 论文第一作者巴拉・戈文德(Bala Govind)(来源:https://www.linkedin.com/in/bal-govind-6840979b/) 毫无疑问,微波神经网络是本次成果得以顺利完成的重中之重,那么它到底是如何诞生的? 02 微波神经网络是如何工作的? 据了解,微波神经网络是一个非线性系统,它通过产生类似梳状、对输入敏感的频谱来进行计算。下图展示了产生这一频谱的电磁结构,该结构由一条非线性波导(标记为 A)和三条线性波导(标记为 B、C 和 D)组成。非线性波导的频率模式受到输入微波驱动信号的幅度和相位的强烈影响,而线性波导的模式则基本不受这些信号的影响。 (来源:Nature Electronics) 研究中,研究人员通过采用“地-信号-地-信号-地”(GSGSG,Ground–signal–ground–signal–ground)结构的波导,将吉赫兹速率的信号注入该系统。然后,构建于两层重叠金属之上的微型正交混合耦合器,将这些输入信号进行功率分配,并将其引导至不同的波导中。这些被分割的小部分驱动信号随后会在波导中反射,并在耦合器的输出端口叠加,再通过另一组 GSGSG 波导提取出来。 如下图所示,输入敏感性的主要来源是波导 A 内一系列耦合的非线性谐振器,这些谐振器由电感段与非线性电容组合而成。 (来源:Nature Electronics) 研究过程中,研究人员使用了反并联二极管,这是因为它们能够产生具有多项式非线性的电容,而其非线性程度则取决于所施加的偏置电压以及微波信号的强度。 在论文中,研究人员还展示了非线性波导的扭结状态布局,当沿着其长度进行周期性地安装开关,就可以延长或者缩短微波信号返回直流电源的路径,在此期间并不会引入失真。 更重要的是,通过在一对波导之间连接的一对开关的开启与关闭,研究人员建立了参数化耦合。这些开关都是 N 型金属氧化物半导体(NMOS,N-type Metal-Oxide-Semiconductor)晶体管,并由一个比特流加以控制,该比特流的速率仅为输入数据速率的百分之一(150Mbit/s),并通过第三条“地-信号-地”(GSG,Ground–signal–ground)波导传输。这种开-关交替的参数耦合序列,是针对神经网络模式实现动态重新编程的关键,这使其能够针对不同计算任务进行配置,从而与其他循环神经网络训练方法有着本质区别。 (来源:Nature Electronics) 而为了在数十吉赫兹的高频下维持由高幅度微波传输引起的非线性,研究人员通过交叉耦合的晶体管实现了再生性的饱和增益。下图展示了微波神经网络的实测频谱响应。可以看到,即使在没有驱动信号或参数切换的情况下,其频谱也高度依赖于振荡器核心供电电压以及施加在非线性电容上的偏置等因素。当接收到 12Gbit/s 的本征超宽带数据时,其频谱响应变得非常复杂。而微波神经网络中的非线性,将输入频谱的全部特征映射到其响应最为显著的范围。据研究人员所知,这也是业内首次在集成 CMOS 电路中通过主动耦合非线性谐振产生微波梳状频谱的实例。 (来源:Nature Electronics) 研究人员进一步指出:首先,这一设计方案与传统 CMOS 振荡器有着较大不同,后者依赖对称性来实现稳定的单音振荡;其次,这一设计方案也不同于通过产生微弱谐波梳来进行光谱分析的复杂脉冲整形电路。由于研究人员旨在利用商用 CMOS 工艺实现这一模拟计算机,因此设计品质因数超过 40 的电磁结构并不现实。另据悉,克尔梳(Kerr combs)和电光频率梳(electro-optic frequency combs)等稳定的光学频率源,它们与混乱的外部驱动信号具有良好的隔离性。而本次研究人员在设计方案上有意让耦合波导暴露于输入微波之下,正是这种对于宽带输入的有意暴露,使得谐振器内部的非线性和非对称性能够实现近乎瞬时的计算。 实验中,研究人员通过保持线性波导(B、C、D)与波导 A 的标称振荡频率高度失谐,来减少物理电路参数数量。其指出,通过应用广义耦合模理论,该系统可被描述为一组相互连接的非线性模式,其中第一个非线性模式通过慢速参数耦合和固定相位延迟与线性模式相连。与此同时,这一系统由可饱和增益供电,参数振荡由快速微波驱动信号调制,这些信号动态不仅能够重新配置谐振器的阻抗,并且能够塑造系统的稳态频谱响应。 图 | 康奈尔大学博士生巴拉·戈文德(Bal Govind)与该校艾莉莎·阿普塞尔(Alyssa Apsel)教授合作研发出了一种首创的微波神经网络,该网络完全集成在硅微芯片上。它能为无线电信号解码、雷达目标跟踪和数字数据处理等任务执行实时频域计算,而整个过程的功耗不到 200 毫瓦。(来源:资料图) 研究人员指出,微波神经网络的动力学与记忆形成的神经网络模型具有相似性。在神经系统中,记忆存储在稳定、重复的信息交换模式中,这些模式形成于互连的节点即神经元之间。这些吸引子网络通过响应外部输入而形成,并通过调整节点间的权重而产生持久模式。然而,随着时间的推移,这些模式会从稳定的结构化行为逐渐转变为更加混沌的状态,从而允许多个网络在系统中共存。当网络从固定点吸引子过渡到混沌吸引子时,系统变得越来越随机,导致记忆衰退并最终丢失。 研究人员发现,在本次电路中也出现了类似的从结构化状态向更混沌状态的转变,并且略显混沌的状态可能会演化为高度混沌的模式以及完全混沌的状态。这种演化反映了系统中记忆的存在与衰退,它的发生源于微波驱动信号与频率调制微波参数振荡之间的特定相互作用。这种行为也与脉冲神经网络、基于能量的模型以及生物大脑中观察到的连接模式高度相似。 (来源:Nature Electronics) 03 或能开发与频段无关的神经网络处理器 需要说明的是,本次实验中的物理参数,比如非线性电容偏压、谐振器频率和可饱和增益,均保持为固定值。假如能够动态地调整这些参数,并能采用更模拟化的参数耦合方式,而非仅仅依赖二进制比特流驱动的开关,那么将有希望提升训练精度和验证精度。 此外,通过使用单一线性波导替代现有的三个波导结构,可以进一步减少芯片组件数量。通过采用紧凑型的设计方案,未来还能实现互联式频率梳阵列的构建,从而生成更丰富的输出频谱,进而在压缩带宽内提供更多特征。这样一来既能改进训练数据质量,也能促进单元间的误差校正。 尽管该芯片目前仍然处于实验阶段,但是研究人员对其可扩展性持乐观态度。眼下,他们正在尝试提高其准确性,并将尝试把其集成到微波平台和数字处理平台中。 通过充分探索设计空间,研究人员希望能够开发出一种与频段无关的神经网络处理器,通过解码复杂的超高速数字数据以及覆盖数百吉赫兹的毫米波信号,进而让微波神经网络可被用于分布式边缘计算、智能传感、加密、特征提取和超快速人工智能推理等领域,同时能够减少无线和电光链路中高速数据互连所面临的带宽问题和功率开销问题。
《黑神话》新作刷屏游戏展背后,国产游戏正在发光
游戏界一年一度的盛会科隆游戏展昨晚开幕,长达两小时的开幕式, 多款 3A 大作和独立佳作轮番亮相,激起全球玩家一波又一波的讨论。 除了一起床就刷屏各大社媒平台的《黑神话:钟馗》,科隆游戏展还给我们带来了哪些值得期待的游戏? 存在感越来越高的国产游戏 虽然离第一梯队还有距离,但国产游戏在科隆游戏展的存在感越来越高,甚至还成为了整个开幕式最惊喜的作品。 《黑神话:钟馗》 玩法、剧情、实机画面一点没透露的情况下,《黑神话:钟馗》的首支 CG 先导预告成为了今年略显沉闷的科隆最振奋人心的压轴大菜。 从标题可以看出,这次游戏的主角是中国民间传说著名的捉鬼神仙「钟馗」。游戏还处于早期开发阶段,目前的信息较少,官方定义为「单机 · 动作 · 角色扮演」游戏,发行时间未知,将登陆 PC 和主流主机平台。 预告中抢眼的老虎坐骑和大刀武器明显来自「钟馗骑虎」和「钟馗斩鬼」的古画以及传说,网友纷纷猜测玩法和战斗系统:召唤老虎作为坐骑突进,然后利用「斩鬼刀」设计连招。 这个被网友戏称「鬼灭之刃」的玩法,预计能和前作的「棍法」有明显差异。 比起《悟空》对《西游记》这个家喻户晓的 IP 重新演绎,《钟馗》对大众,特别是海外玩家来说都比较陌生,可发挥的空间会更大。 问题来了,我们大概要等多久才能化身钟馗执剑伏魔?凭借《悟空》大获成功的游戏科学,或许这次不用再让我们等 7 年之久。但从《悟空》的完成度情况来看,游戏科学的开发能力其实相对有限,依旧需要我们玩家耐心等待。 至于我们原本期待的《悟空》DLC,美术总监杨奇表示中前期会「交替进行」。 《古剑》 国产经典单机游戏系列《古剑奇谭》新作《古剑》也在科隆展会上公布了全新画面的英配预告片,目前游戏还没有宣布发行日期,未来将以单机买断制形式登陆 PC 及主机平台,不会推出移动版本。 据了解,《古剑》已经开发了近 2 年时间,是一款基于虚幻引擎 5 开发的 RPG 游戏,不涉及类魂玩法和开放世界,玩家将在游戏中扮演「地界司判」,展开引渡亡魂的冒险。 《影之刃零》 国产单机武侠游戏《影之刃零》也在科隆展会中亮相,为海外玩家提供了 1 小时的试玩版本。 《影之刃零》是一款第三人称动作冒险 RPG 魂系游戏,设定在一个融合中式武侠,蒸汽朋克,神秘学,以及江湖传说的武侠架空世界「影境」,玩家将扮演侠客「魂」,在生命的最后时光迎战各种怪物和武林高手。 游戏的具体发行时间将在今年公布,登陆 PC 与 PS5 平台。 不仅单机游戏得到认可,国内卷到极致的手游 IP 也正在孵化全新玩法的多平台 RPG 游戏,例如《明日方舟:终末地》以及《王者荣耀世界》,也亮相了科隆开幕式,还得到科隆官方在社交平台发帖宣传的待遇。 《明日方舟:终末地》 《明日方舟:终末地》是一款以 Unity 引擎开发的 3D 即时策略 RPG 游戏,计划将登陆 PC、iOS、Android、PS5 平台,上线时间暂未公布。 对比 2D 的《明日方舟》,《终末地》将采用 3D 的建模和玩法,玩家可以更加自由地操控角色和建筑,探索更加复杂的地图和环境。 《王者荣耀世界》 和 DOTA 玩法的《王者荣耀》完全不同,《王者荣耀世界》是一款开放世界 RPG 游戏,计划将登陆 PC、iOS、Android 等平台。 玩家将在《王者荣耀世界》中探索「王者峡谷」之外的地区,以「元流之子」的身份,结识熟悉的王者英雄,游戏还会加入钩索、游泳、跑酷等多元的玩法。 这些跨移动、PC 甚至主机端的游戏,可以看作是国内头部手游工作室想要扩大自身影响力的全新尝试。用手游在国内这个大市场收获大量玩家,再针对海外更熟悉的主机游戏模式发起进军,未尝不是一种国产游戏行业的一种另辟蹊径和弯道超车。 众星云集的独立游戏《空洞骑士:丝之歌》 《丝之歌》是真的!这款备受期待的游戏也在科隆展上公布了一段 30 秒的实机演示,主持人 Geoff Keighley 也确认,这款游戏「100% 将于今年发布」,并且还会在展会的 Xbox 和 Switch 2 展台开启试玩。 这只是开胃小菜,开发者 Team Cherry 已经宣布,将于北京时间周四晚 22 点 30 分公开特别公告,极有可能公布游戏的更多信息,以及发行时间。 《空洞骑士:丝之歌》将延续前作《空洞骑士》的玩法,以 2D 平台跳跃和战斗为特色,而游戏的规模将会更大。 游戏将登陆 PC、Mac、Xbox One、Xbox Series X|S、ROG Xbox Ally、PS4、PS5、Switch、Switch 2 等平台。 《极乐迪斯科》开发商新作《ZERO PARADES》 著名独立游戏《极乐迪斯科》开发商 ZA/UM 新作《ZERO PARADES》在科隆展会上首次公布,游戏目前仍然处于早期开发阶段。 这是一款「一款剧情丰富的间谍 RPG 游戏」,玩家将扮演一位饱受折磨的秘密特工,执行一项高风险任务,解开历史终结中血腥的阴谋之网。从预告片展示的画风和玩法来看,依旧是熟悉的风味。 值得一提的是,虽然《极乐迪斯科》大获成功,但经历一系列变动之后,这款游戏的主创人员基本已经离开了这个工作室,出走的成员已经成立了两个独立的新的工作室,都正在着手开发新游戏。 Dotemu 新作《Absolum》 发行了《怒之铁拳 4》《忍者神龟:施耐德的复仇》的 Dotemu 可能不被国内玩家熟悉,但他们在科隆上展示的新游戏《绝对魔权 Absolum》在海外获得了不少的讨论度。 受到《龙与地下城》启发,带有不少《哈迪斯》的影子,《绝对魔权》是一款带有肉鸽元素的清版型动作游戏,支持单人或两人本地以及在线合作,游戏中玩家可以选择四个具有不同能力、个性和动机的角色。 这款游戏将于今年发行,支持 PC、Switch、PS4 和 PS5 等平台。 经典恐怖游戏的新玩法《生化危机:安魂曲》 将于明年 2 月 7 日发布的系列第九部新作《生化危机:安魂曲》公布了最新的实机画面,登陆 PC、PS5 和 Xbox Series X|S 等平台。 卡普空此前承诺,《安魂曲》将回归生化危机 30 年前开启的主线剧情。预告片展示了新女主格蕾丝 · 阿什克罗夫特和他的母亲艾丽莎 · 阿什克罗夫特在酒店遇袭,但粉丝期待已久的里昂还没有亮相。 游戏也在展会上开放试玩,默认采用第一人称视角增强沉浸式的恐怖体验,支持第三人称视角实时切换。游戏中还包含了全新的 AI 智能怪物。 《寂静岭 f》 《寂静岭 f》将于今年 9 月 25 日在 PC、Xbox Series X|S、PS5 上发售, 科隆展上公布了最新的预告片。 预告片展现了游戏背景 1960 年代日本小镇惠比寿冈,在这个雾气环绕的诡异小镇,女主清水雏子将探索秘境并面对怪物。游戏保留了系列「在美中探索恐怖」的氛围,并引入了一定的动作游戏元素。 惊喜不多的大型游戏 科隆游戏展不乏大作的身影,但今年大部分亮相开幕式的作品都已经在此前公开,也没带来特别惊喜的新内容。 《羊蹄山之魂》 《对马岛之魂》续作《羊蹄山之魂》也公布了一段新预告片,将于今年 10 月 2 日正式在 PS5 平台发售。 同时,游戏也宣布了将于明年推出免费 DLC「奇潭模式」,和上一作一样为游戏带来多人联机玩法,包括双人剧情任务和四人生存赛。 《羊蹄山之魂》发生在前作《对马岛之魂》的 300 年后的北海道地区,主角「笃」家人被「羊蹄六人众」杀害,由此踏上一条复仇的道路。 《使命召唤:黑色行动 7》 这款经典射击游戏将于今年 11 月 14 日正式发售,登陆 PC、PS4、PS5、Xbox One、Xbox Series X|S 等平台。 从预告看来,这款经典 IP 新作力求创新,突破了列传统的军事设定,设定在充满炫酷科技和异世界恐怖的近未来世界,一些场景甚至有点像《盗梦空间》。 游戏承诺将对在线游戏机制进行重大改进,并推出大量全新的剧情任务。 Switch 2 的新游戏 前两个月刚发布的任天堂 Switch 2,也迎来了一些新游戏。 科隆游戏展上,《夺宝奇兵:古老之圈》不仅迎来了即将于 9 月 4 日上线的首个 DLC《巨人教团》,还官宣将于明年登陆 Nintendo Switch 2。 在去年宣布放弃 Xbox 独占策略后,《夺宝奇兵》在今年上线了 PS5、Steam Deck 等平台,上线 Switch 2 也是意料之中。 而《星之卡比 Air Riders》虽然只在昨晚的任天堂直面会上发布,也算蹭了科隆展的一个热度,官宣将于今年 11 月 20 日在 Switch 2 平台正式发售。 在这款「星之卡比赛车」中玩家可以选择不同的星之卡比角色和赛车进行比赛,通过变身和各种道具能力完成比赛。 以往像科隆这种级别的游戏展,虽然在游戏圈是数一数二的盛会,但在游戏大作土壤浅薄的国内,更多是那批硬核玩家作为观众的狂欢。 但是今年的科隆,更多国产游戏成为了展会本身,《黑神话:钟馗》的公开,更是成为破圈层的热点事件,在微博热搜高位挂了一个早上。 并且,作为全球最重要的游戏盛会,最重要的环节,留给了一个国产游戏,即使对前作《悟空》品质的肯定,也是一种信任和希冀。 只凭一款游戏和这短短几年的发展,我们当然离最优秀的那批创作者还有距离,但我们至少看到整个产业确实比以往更具活力,让我非常期待接下来野蛮生长的国产游戏,还会带来哪些惊喜。
1000亿美元!华人干出全球第四大AI独角兽
作者 | 陈骏达 编辑 | 心缘 又一家千亿美元估值AI独角兽即将诞生! 智东西8月20日报道,昨日,AI数据分析平台Databricks宣布,该公司已经签署了K轮融资的条款清单,预计将在现有投资者的支持下很快完成,这轮融资对Databricks的估值已经超过了1000亿美元(约合人民币7179.1亿元),估值与8个月前的620亿美元(约合人民币4451.0亿元)相比,上涨了超61%。 ▲Databricks官宣新融资(图源:Databricks官网) 据TechCrunch援引知情人士的消息称,Databricks最新一轮融资规模约为10亿美元(约合人民币71.8亿元),投资方包括a16z、Thrive Capital等,并且获得了“疯狂的超额认购”。 成立于2013年的Databricks,主要提供统一的数据与AI平台服务,帮助企业整合和处理大规模数据,用于数据工程、数据科学、机器学习与AI应用,也能为电商、金融、医疗等领域的企业提供数据服务。其创始团队中还有华人,联合创始人兼首席架构师为Reynold Xin(辛湜)。 作为独特的“湖仓一体”数据库架构开创者,Databricks是数据智能领域的代表性企业,也是AI时代重要的数据基础设施提供商。截至目前,有超过60%的财富500强企业采用了Databricks的数据智能平台来管理数据,并将其与AI结合。 Crunchbase的数据显示,Databricks目前是全球估值排名第八的独角兽企业。完成K轮融资后,Databricks有望成为仅次于OpenAI、字节跳动、xAI,估值排名全球第四的AI独角兽企业。 值得一提的是,英伟达也是Databricks的投资方之一,曾领投Databricks的I轮融资,规模为5亿美元,但并未参与本轮融资。 Databricks称,本轮融资中获得的资金,将被用于加速Databricks的AI战略,这包括进一步扩大企业级智能体服务Agent Bricks、投资面向AI Agent优化的新数据库Lakebase,并支持未来的AI领域收购,深化AI研究。 一、成立12年估值1000亿刀,客户规模已突破1.5万 Databricks的创始团队由七位加州大学伯克利分校的教授和研究生组成,自2013年成立以来,陆续吸引了大约80家投资者的关注。 该公司的创始人大部分为加州大学伯克利分校AMPLab成员,共同打造了开源分布式计算框架Apache Spark,还创下数据排序速度的世界纪录。后来,他们决定将相关技术商业化运作,Databricks应运而生。 ▲Databricks七位创始人(图源:福布斯) 据The Information报道,早期投资者称,Databricks的创始人们对如何赚钱几乎没有直觉,董事会原本打算在外部聘请有经验的领导者担任CEO,但发现时任Databricks工程副总裁的Ali Ghodsi在员工中很有声望。 接任CEO后,投资者对教授出身的Ghodsi还是有些迟疑。Ghodsi加紧研读商业书籍,恶补了企业管理的方法。如今,他以亲力亲为地方式管理这家企业,高强度工作,风格强硬,并凭借这种方式带领Databricks快速发展,也获得了客户的信赖。 ▲Ali Ghodsi(图源:Databricks) Adobe的首席数据官Bin Mu曾如此评价Ghodsi:“如果我遇到一个大问题,他会在接下来的一个小时内解决这个问题。” Databricks的创始人团队中还有华人身影。其联合创始人兼首席架构师为Reynold Xin(辛湜),他高中毕业后前往加拿大多伦多大学就读本科,后续在加州大学伯克利分校AMPLab完成博士学业,毕业后直接参与Databricks的创立。 ▲辛湜(图源:Linkedin) “湖仓一体”架构是Databricks最重要的护城河之一。这一技术起源于DataBricks团队创业前打造的Apache Spark项目,将数据仓库的结构化数据存储功能,与数据湖的非结构化和半结构化数据存储能力融合,从而提升数据处理的效率与可靠性。 在AI时代,湖仓一体架构的价值愈发凸显。AI训练、推理过程中都需要使用到大量的结构化、半结构化和非结构化数据,湖仓一体架构能对这些数据统一存储管理,支持实时数据摄入、处理和分析,还能弹性伸缩,从而降低存储和计算成本。 湖仓一体架构也具备向量化检索、与机器学习框架(如PyTorch)集成等AI原生设计,可简化AI数据处理的流程。 2022年,OpenAI推出ChatGPT并引发全球AI热潮后,Databricks联合创始人兼CEO Ghodsi看到了AI对数据分析领域的巨大潜力,决定加大对AI技术的投资。当时,Databricks预计2022财年至2025财年期间的总现金消耗成本为15亿美元。 2023年,Databricks还斥资13亿美元收购了大模型创企MosaicML,此次收购帮助 Databricks在2024年3月份发布了一个开源模型,但并未推出后续版本,转而使用开源模型。 Databricks的一体化数据智能平台提供AutoML(自动化模型训练)、Mosaic AI(模型部署)、AI Playground(无代码互动测试)、Unity Catalog Agent工具管理、MLflow集成等AI服务,支持从数据管理、训练、部署到监控的AI开发全流程,可整合大模型、工具链,与数据平台无缝融合。 2024年时,Ghodsi称,截至当年11月,包括Mosaic在内的生成式AI产品收入同比增长了300%。 二、连发多款AI Agent服务,年化收入达到37亿美元 在去年年底拿下100亿美元的巨额融资后,Databricks在AI领域的动作不断,推出多款新产品与服务,还在收购市场斩获一家AI创企。 Agent是近期Databricks投资、发展AI技术的主线。今年5月,Databricks宣布收购无服务器Postgres数据库(一种开源的对象关系型数据库)公司Neon。Neon使用AI Agent来驱动数据库的配置,其平台上八成的数据库均由AI自动打造。 这笔交易的规模达到10亿美元,Databricks可借此进一步消除传统数据库的弹性伸缩瓶颈,为AI Agent提供“AI优先”的底层数据库功能。 收购Neon后不久,Databricks在今年6月推出了两款Agent服务。 其中,Agent Bricks可用于自动化创建AI Agent,用户只需提供对任务的简单描述,并通过Databricks的数据库向Agent提供企业数据,就能完成Agent创建。 Agent Bricks已经针对常见的行业用例进行了优化,比如结构化信息提取、知识辅助、自定义文本转换和多智能体系统等,企业可以用其完成对电子邮件、法律文书等内容的处理。 Databricks还推出了Lakebase,这是一款用于AI应用和Agent的新型完全托管Postgres数据库。 Lakebase由Databricks此前收购的Neon提供技术支撑,与Databricks的数据湖仓平台Lakehouse深度整合,把业务数据和分析数据融合在一起,既能用来运行大规模分析,又能支持实时应用,满足了AI Agent对快速查询数据的需求。 这两项服务起到了互补的作用,Agent Bricks显著简化了企业打造Agent的流程,而Lakebase能为这些Agent提供合适的数据库。虽然都仍处在预览阶段,不过其易用性、生态整合度、兼容性等获得了市场的认可。 各类AI服务的推出,也成为Databricks的新增长点。今年6月,Databricks高管在一场投资者活动上称,该公司的年化收入会在7月份达到37亿美元(约合人民币265.6亿元),同比增长50%。同时,Databricks的客户数量已经达到了15000多家。 三、外部力量大力推动本轮融资,但还面临多方竞争 Databricks已经成为硅谷当今最炙手可热的投资标的之一,累计融资额近200亿美元。收获新一轮融资后,Ghodsi接受了CNBC的采访,他称在Figma完成IPO并股价飙升后,“他的手机被投资者轰炸了”,这轮融资“肯定有来自外部的大力推动”。 这也显示出,投资方希望在Databricks这家同样炙手可热的AI企业IPO之前,分得一杯羹。在去年12月底官宣的J轮融资中,Databricks获得了100亿美元的巨额融资,创下当年度的融资纪录,目前并不缺乏运营资金。 Ghodsi称,目前投资者最关心的问题就是,Databricks的Agentic AI服务能否真正地自动化工作流程,有没有给企业带来价值?Ghodsi对此的回应是,这些服务仍处在早期阶段,目前更注重解决企业的日常任务。 Databricks的本轮融资,印证了市场对此类新型AI数据基础设施公司的浓厚兴趣,不过,Databricks仍需面对来自Snowflake、甲骨文等对手的竞争。 成立时间与Databricks相仿的Snowflake,被普遍认为是前者的主要竞争对手之一。Snowflake源自云数据仓库(Data Warehouse),主打结构化数据分析、易用性与企业级安全性。Databricks的Lakehouse则强调对结构化与非结构化数据的处理能力及AI/ML能力。 在AI时代,两家公司的业务重合度不断提升,都推出了数据Agent服务,在收购上也选择了相同的方向——Snowflake于今年收购了Postgres数据库创企Crunchy Data,与Databricks收购的Neon类似。Snowflake目前的市值约为642亿美元,低于Databricks目前的估值。 ▲Snowflake股价变动(图源:雅虎财经) 甲骨文这样的老牌数据库企业,也在加紧布局AI相关的数据产品。甲骨文于2024年推出了生成式AI Agent服务,提供检索增强生成(RAG)等功能。今年3月,该公司进一步推出AI Agent Studio,作为企业创建、扩展、部署和管理AI Agent和Agent团队的综合平台,也能为Agent接入企业的自有数据。 诸如微软Azure、谷歌云、AWS等大型云基础设施公司也是这一市场中的重要参与者,并相继推出了AI相关的数据服务。 咨询公司IDC的报告显示,2025年,在全球数据平台软件提供商中,Databricks在能力维度排名全球第一,与谷歌、甲骨文、Snowflake等共同处于领导者范畴,但在规模上略小于谷歌和Snowflake。 结语:Databricks接近自由现金流盈利,下一步会是IPO吗? 多家分析机构指出,Databricks虽然仍在亏损,但在运营效率和成本控制上已有显著改善,并有望在2025年实现自由现金流盈利。 随着美股IPO市场回暖以及AI相关股票的惊人涨幅,投资者对Databricks潜在IPO的表现普遍看好——而近期一轮由投资者力推完成的融资,便成为最好的佐证。 不过,Databricks目前尚未提交IPO申请,其高管对相关事项的表述也较为模糊,仅透露有IPO意向,但未明确时间。
实测低调上线的DeepSeek新模型:编程比Claude 4还能打,写作…还是算了吧 | 附彩蛋
自从 GPT-5 发布后,DeepSeek 创始人梁文锋就成了 AI 圈最「忙」的人。 网友和媒体们隔三岔五就要催更一波,不是「压力给到梁文锋」,就是「全网都在等梁文锋回应」。尽管没有等到 DeepSeek R2,但 DeepSeek 今天还是正式上线并开源了新模型 DeepSeek-V3.1-Base。 相比奥特曼今天凌晨接受采访时还在画着 GPT-6 的大饼,DeepSeek 新模型的到来显得相当佛系,连版本号都像是个「小修小补」,但实际体验下来,这次更新还是给了我不少惊喜。 DeepSeek-V3.1-Base 拥有 6850 亿参数,支持 BF16、F8_E4M3、F32 三种张量类型,以 Safetensors 格式发布,在推理效率上做了不少优化,线上模型版本的上下文窗口也拓展至 128k。 所以我们二话不说,直接官网开测。 附上体验地址: https://chat.deepseek.com/ 为了测试 V3.1 的长文本处理水平,我找来了《三体》全文,删减到 10 万字左右,然后在文中偷偷塞了一句八竿子打不着的话「我觉得烟锁池塘柳的下联应该是『深圳铁板烧』」,看看它能否准确检索。 没有出乎太多意外,DeepSeek V3.1 先是提示文档超出限制,只读取了前 92% 的内容,但依然成功找到了这句话。更有意思的是,它还贴心地提供了文学角度的经典下联推荐:「焰镕海坝枫」。 网友已经已经抢先测试它在编程基准测试 Aider Polyglot 的得分:71.6%,不仅在开源模型中表现最佳,甚至击败了 Claude 4 Opus。 实测下来,我们发现V3.1在编程这块确实有两把刷子。 我们用经典的六边形小球编程题做了测试:「编写一个 p5.js 程序,演示一个球在旋转的六边形内弹跳的过程。球应该受到重力和摩擦力的影响,并且必须逼真地从旋转的墙壁上弹起。」 V3.1的表现相当给力,生成的代码不光搞定了基础碰撞检测,还自动补全了转速、重力之类的细节参数。物理特性逼真到小球会在底部略微减速。 接着我们加大难度,让它用 Three.js 制作交互式 3D 粒子星系。基础框架搭得挺稳,三层设计(内球体、中间圆环、外球体)也算完整,但UI审美嘛……怎么说呢,有种神鬼二象性的感觉,配色方案略显花里胡哨。 继续挑战更复杂的任务。们让它造个沉浸式3D宇宙,要有旋转物体、变形效果、发光弧线,还得加上时间切换、主题转换的交互按钮,点击控制也确实能触发不同特效。 最后一关,让它用 Three.js 搞个交互式 3D 网络可视化,要求包含用户触发的能量脉冲动画,外加主题切换和密度控制功能。整体下来,表现还是过得去的。 「有一牧场,已知养牛 27 头,6 天把草吃尽;养牛 23 头,9 天把草吃尽。如果养牛 21 头,那么几天能把牧场上的草吃尽呢?并且牧场上的草是不断生长的。」 虽然 DeepSeek V3.1 没有采用苏格拉底式的启发教学,但它的解答逻辑清晰、步骤完整。每一步推导都有理有据,最终给出了准确答案。这种扎实的数学功底,着实令人印象深刻。 面对「两把武器对比,1~5 攻击 VS 2~4 攻击,哪把更厉害?」这样的问题,一般的回答可能止步于平均伤害计算。但 DeepSeek V3.1 思考得更为周全,引入了伤害稳定性的概念,运用方差进行深入分析。 当问及「冰岛有蚊子吗?」这样的小众地理问题时,在未开启搜索功能的前提下,DeepSeek V3.1 的回答质量明显超越了 GPT-5。这不仅体现了其广博的知识储备,更显示了精准的信息提取和整合能力。 最近基孔肯雅热疫情流行,到处灭蚊蚊蚊蚊蚊蚊蚊蚊,那么我很好奇,冰岛有蚊子吗?注意,我没开搜索功能,就回答的质量来看,DeepSeek V3.1 的回答明显要比 GPT-5 胜上一筹。 我前阵子在网上看到一段话: 「懂者得懂其懂,懵者终懵其懵,天机不言即为懂,道破天机岂是懂? 懂是空非空非非空的懂,不懂是色不异空空不异色的不懂:懂自三千大世界来,不懂在此岸与彼岸间徘徊。懂时看山不是山是懂,不懂时看山是山的懂。懂者以不懂证懂,懵者以懂证懵,你说你懂懂与不懂之懂? 你怎知这懂的背后没有大不懂? 凡言懂者皆未真懂,沉默不语的懂,方是天地不言的大懂不懂的懂是懂,懂的不懂也是懂,此乃懂的最高境界–懂无可懂之懂的真空妙有阿!」 当我还在用逻辑硬啃这段文字时,DeepSeek 反而在劝我别掉进「道破天机岂是懂」的陷阱——它本身就是对理性傲慢的警告,邀请你跳出文字游戏,直观内心。 当主流AI都在代码、数学领域疯狂内卷,争着抢着搞 Agent 开发时,写作能力反倒成了被遗忘的角落。从某种角度说,这倒是个好消息——AI 完全取代编辑的那一天,似乎又往后推了推。 我尝试让它创作一个「蚊子在冰岛开发布会」的荒诞故事。遗憾的是,DeepSeek V3.1 的 AI 味依然很重,很喜欢拽大词,哦不对,更准确地说,DeepSeek 味还是那么重。 同样的问题在另一个创作任务中也有体现。 当我要求它写一则「AI 与人类争夺文章作者身份」的故事时,能明显感受到某些段落信息密度过高,反而造成视觉疲劳,尤其意象堆砌感过于明显,反而削弱了叙事张力。 DeepSeek-V3.1-Base 发布之后,Hugging Face CEO Clément Delangue 在 X 平台发文称;「DeepSeek V3.1 已在 HF 上排名第四,静默发布,无需模型卡」然而,他还是低估了这款模型的发展势头。 如今它已经跃升至第二位,离登顶估计也就是时间问题。 另外,这次版本更新中最引人注目的变化,是 DeepSeek 在官方 APP 和网页端移除了深度思考模式中的「R1」标识。此外,DeepSeek R1 还新增了原生「search token」支持,意味着搜索功能得到了进一步优化。 同时,有推测认为,DeepSeek V3.1 可能是融合推理模型与非推理模型的混合模型,但这样的技术路线是否明智,还有待商榷,而阿里 Qwen 团队在上个月也表示: 「经过与社区沟通和深思熟虑,我们决定停止使用混合思考模式。相反,我们将分别训练 Instruct 和 Thinking 模型,以获得最佳质量。」 截至发稿前,全网翘首以待的 DeepSeek-V3.1-Base 模型卡仍未更新,也许等正式发布后,我们能看到更多有趣的技术细节。
定位“不上不下”,消息称iPhone 17 Pro手机可能很不好卖
IT之家 8 月 20 日消息,据科技媒体 9To5Mac 今天报道,苹果将在几周后发布 iPhone 17 系列手机,其每一款机型都将具有独特的卖点,不过 iPhone 17 Pro 可能会“很不好卖”。 9To5Mac 表示,往年 iPhone 中充当高端门面的通常是 Pro 和 Pro Max 两款手机,而今年的 iPhone 高端阵容预计将增加到三款: iPhone 17 Pro iPhone 17 Air 今年苹果预计将“砍掉”Plus 机型,以具备超轻超薄设计的 iPhone 17 Air 取代之,这款手机将具备“未来感”,但电池与相机存在明显短板。 不过最有可能受到 iPhone 17 Air 冲击的机型是 iPhone 17 Pro,这款机型被 Air 和 Pro Max 夹在中间,定位“不上不下”。 IT之家注意到,iPhone 17 Pro Max 将匹配追求拍照效果、丰富功能用户的需求。有传闻称 17 Pro Max 的电池容量会比以往更大,并配备比小屏机型更出色的长焦镜头,这就导致 17 Pro Max 的机身会更厚。 9To5Mac 认为,多年的市场销售数据已经证明了用户更喜欢大屏幕的 iPhone;如果消费者看重电池续航、摄录效果和屏幕尺寸,iPhone 17 Pro Max 将是更佳选择。 9To5Mac 同时表示,如果用户不在意这些外在体验,而是想要一台像当年 iPhone X 一样具有新鲜感、未来感的手机,那 iPhone 17 Air 将是最佳选择。 而 iPhone 17 Pro 既没有 Pro Max 的大屏幕和较好摄录效果,也缺少 17 Air 那样的新颖外观,9To5Mac 觉得 17 Pro 将被这两款机器夹在中间,不如往年那样吸引人。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。