行业分类:
加载中...
头条分类:
加载中...
谷歌DeepMind深夜放核弹:世界模型Genie 3登场,重新定义“生成式AI”
刚刚谷歌 DeepMind 宣布推出第三代通用的世界模型 Genie 3 ,可以生成前所未有的多样化交互式环境,给出文本提示,Genie 3 可以生成动态世界,可以以每秒 24 帧的速度实时导航,并以 720p 的分辨率保持几分钟的一致性 Genie 3将首先以有限研究预览的形式,向一小部分学者和创作者开放 Genie 3,以收集关键反馈 Genie 3 的突破 DeepMind 在模拟环境领域已有十余年的深厚积累。从训练能玩转即时战略游戏的 AI,到为机器人开发开放式学习环境,这些研究都指向了一个共同的目标:构建强大的世界模型。 与前代模型(如 Genie 1/2)和视频生成模型(如 Veo 2,Veo 3对直觉物理学的深刻理解)相比,Genie 3 是第一个允许实时交互的世界模型,同时与 Genie 2 相比,其一致性和真实感也得到了提升 特性 Genie 2 Veo Genie 3 分辨率 360p 720p 至 4K 720p 领域 3D 环境 通用 通用 控制方式 有限键盘/鼠标 视频级描述 实时导航;可提示的世界事件 互动时长 10-20 秒 8 秒 数分钟 互动延迟 非实时 不适用 实时 核心能力 自动播放 模拟世界的物理特性: Genie 3 对物理规律有深刻理解,能逼真地模拟水流、光影变化以及复杂的环境互动,例如直升机在悬崖瀑布边小心翼翼地机动 模拟自然世界: 从冰川湖畔充满生机的生态系统,到幻想世界中可爱的毛茸茸生物在彩虹桥上跳跃,Genie 3 能将想象力转化为可探索的现实 动画和小说建模: :可以发挥想象力,创造奇幻的场景和富有表现力的动画角色 探索不同地域与历史场景:模型能超越地理和时间的限制,带领用户探索不同地点和历史时代,无论是身穿翼装飞越雪山,还是置身于历史悠久的古城 突破实时性能的极限:实现高度的可控性和实时交互性,在每一帧的自回归生成过程中,模型必须考虑先前生成的随时间增长的轨迹。例如,如果用户在一分钟后重新访问某个位置,则模型必须引用一分钟前的相关信息。为了实现实时交互性,这种计算必须每秒进行多次,以响应新用户输入的到来 长时程环境一致性: 为了让人工智能生成的世界身临其境,它们必须在很长一段时间内保持物理上的一致性。然而,自动回归生成环境通常比生成整个视频更难的技术问题,因为不准确之处往往会随着时间的推移而累积,Genie 3 环境在几分钟内基本保持一致,视觉记忆可以追溯到一分钟前,Genie 3 生成的世界更加动态和丰富,因为它们是根据用户的世界描述和作逐帧创建的 可提示的世界事件 (Promptable World Events): 除了导航输入之外,Genie 3 还支持一种更具表现力的基于文本的交互形式,称之为可提示的世界事件 。可提示的世界事件可以改变生成的世界,例如改变天气条件或引入新的物体和角色,从而增强导航控制的体验,这种能力还增加了反事实或“假设”场景的广度,代理可以使用这些场景从经验中学习来处理意外情况 赋能具身智能体研究 Genie 3 的终极目标之一是为具身智能体(Embodied Agent)提供一个无限丰富的训练场。DeepMind 已将其与通用智能体 SIMA进行结合测试。研究人员可以为 SIMA 设定一个目标(如在面包房里找到工业搅拌机),SIMA 则通过向 Genie 3 发送导航指令来尝试完成任务。Genie 3 像一个真正的世界一样,根据 SIMA 的行为实时反馈结果,从而让智能体在海量的what if场景中学习和成长 当前的局限性 Genie 3目前存在的局限性: 行动空间有限: 智能体的直接行动范围仍受限制 缺乏多智能体模拟: 难以精确模拟多个独立智能体之间的复杂互动 地理精度不足: 无法完美复现实世界的地理位置 文本渲染较差: 除非在初始提示中指定,否则生成的文本通常模糊不清 互动时长有限: 目前支持数分钟的连续互动,而非数小时 参考: https://deepmind.google/discover/blog/genie-3-a-new-frontier-for-world-models/
奥特曼深夜官宣:OpenAI重回开源!两大推理模型追平o4-mini,号称世界最强
新智元报道 编辑:桃子 好困 【新智元导读】OpenAI深夜扔出开源核弹,gpt-oss 20B和120B两款模型同时上线。它们不仅性能比肩o3-mini和o4-mini,而且还能在消费级显卡甚至手机上轻松运行。GPT-2以来,奥特曼终于兑现了Open AI。 他来了!他来了! 就在今夜,奥特曼带着两款全新的开源模型走来了! 正如几天前泄露的,它们分别是总参数1170亿,激活参数51亿的「gpt-oss-120b」和总参数210亿,激活参数36亿的「gpt-oss-20b」。 终于,OpenAI再次回归开源。 gpt-oss-120b适用于需要高推理能力的生产级和通用型场景 在核心推理基准测试中,120B模型的表现与OpenAI o4-mini相当,并且能在单张80GB显存的GPU上高效运行(如H100)。 gpt-oss-20b适用于低延迟、本地或专业化场景 在常用基准测试中,20B模型的表现与OpenAI o3-mini类似,并且能在仅有16GB显存的边缘设备上运行。 除此之外,两款模型在工具使用、少样本函数调用、CoT推理以及HealthBench评测中也表现强劲,甚至比OpenAI o1和GPT-4o等专有模型还要更强。 其他亮点如下: 宽松的Apache 2.0许可证:可自由用于构建,无copyleft限制或专利风险——是实验、定制和商业化部署的理想选择。 可配置的推理投入:可根据用户的具体用例和延迟需求,轻松调整推理投入(低、中、高)。 完整的思维链:可完整访问模型的推理过程,从而简化调试并提升输出结果的可信度。 支持微调:支持参数级微调,可根据您的特定用例对模型进行完全定制。 智能体能力:利用模型原生的函数调用、网页浏览、Python代码执行和结构化输出等能力。 原生MXFP4量化:在训练时,模型的混合专家(MoE)层便采用了原生的MXFP4精度,使得gpt-oss-120b在单张H100 GPU上即可运行,而gpt-oss-20b仅需16GB内存。 值得一提的是,OpenAI还特地准备了一个playground网站供大家在线体验。 体验地址:https://gpt-oss.com/ GitHub项目:https://github.com/openai/gpt-oss Hugging Face(120B):https://huggingface.co/openai/gpt-oss-120b Hugging Face(20B):https://huggingface.co/openai/gpt-oss-20b GPT-2以来,首次开源 gpt-oss系模型,是OpenAI自GPT-2以来首次开源的语言模型。 今天,OpenAI同时放出了34页技术报告,模型采用了最先进的预训练和后训练技术。 模型卡:https://cdn.openai.com/pdf/419b6906-9da6-406c-a19d-1bb078ac7637/oai_gpt-oss_model_card.pdf 预训练与模型架构 相较于此前开源的Whisper和CLIP,gpt-oss模型在推理能力、效率以及在广泛部署环境中的实用性上更强。 每个模型都采用了Transformer架构,并融入MoE设计,减少处理输入时激活参数量。 如上所述,gpt-oss-120b总参数1170亿,每token激活51亿参数,gpt-oss-20b总参数210亿,每token激活36亿参数。 此外,模型还借鉴了GPT-3设计理念,采用了交替的密集注意力和局部带状稀疏注意力模式。 为了提升推理和内存效率,模型还采用了分组多查询注意力机制,组大小为8,以及旋转位置编码(RoPE),原生支持128k上下文。 gpt-oss模型的训练数据以「英语」为主,聚焦STEM、编程和通用知识领域。 OpenAI采用了o200k_harmony分词器对数据进行分词,它是OpenAI o4-mini和GPT-4o所用分词器的「超集」。 今天,这款分词器同步开源。 利好开发者的是,gpt-oss两款模型与Responses API⁠兼容,专为智能体工作流打造,在指令遵循、工具使用、推理上极其强大。 比如,它能自主为需要复杂推理,或是目标是极低延迟输出的任务调整推理投入。 同时完全可定制,并提供完整的思维链(CoT),以及支持结构化输出⁠。 据悉,gpt-oss模型整个预训练成本,低于50万美元。 后训练 在后训练阶段,gpt-oss模型的流程与o4-mini相似,包含了「监督微调」和「高算力强化学习」阶段。 训练过程中,团队以「OpenAI模型规范⁠」为目标对齐,并教导模型在生成答案前,使用CoT推理和工具。 通过采用与专有o系推理模型的相同技术,让gpt-oss在后训练中展现出卓越能力。 与API中的OpenAI o系列推理模型相似,这两款开源模型支持三种推理投入——低、中、高。 开发者只需在系统提示词中加入一句话,即可在延迟与性能间灵活切换。 开源小模型,比肩旗舰o3/o4-mini 在多个基准测试中,gpt-oss-120b堪比旗舰级o系模型的性能。 具体来说,在编程竞赛(Codeforces)、通用问题解决(MMLU和HLE)以及工具调用(TauBench)方面,它直接超越了o3-mini,达到甚至超越了o4-mini的水平。 此外,在健康相关查询(HealthBench⁠)、数学竞赛(AIME 2024 & 2025)基准中,它的表现甚至优于o4-mini。 尽管gpt-oss-20b规模较小,但在相同的评估中,其表现与o3-mini持平或更优,甚至在AIME、健康领域基准上的表现超越了o3-mini。 在AIME数学测试中,gpt-oss-120b和gpt-oss-20b随着推理token的增加,准确率折线逐渐逼近。 在博士级知识问答基准中,gpt-oss-120b的性能始终领先于gpt-oss-20b。 此外,OpenAI近期研究表明,未经直接监督训练的CoT有助于发现模型潜在不当行为。 这一观点也得到了业内其他同行的认同。 同样,遵循o1-preview⁠的设计原则,研究团队并未对gpt-oss模型CoT直接监督,让模型更加透明。 OpenAI,Open AI了 gpt-oss-120b和gpt-oss-20b的开源,标志着OpenAI终于在开源模型上,迈出了重要一步。 在同等规模下,它们在推理性能上,可与o3-mini、o4-mini一较高下,甚至是领先。 OpenAI开源模型为所有开发者,提供了强大的工具,补充了托管模型的生态,加速前沿研究、促进创新。 更重要的是,模型开源降低了一些群体,比如新兴市场、缺少算力小企业的准入门槛。 一个健康的开放模型生态系统,是让AI普及并惠及所有人的一个重要方面。 对于这次的开源,奥特曼骄傲地表示:gpt-oss是OpenAI「数十亿美元」研究成果的结晶,是全世界最出色、最实用的开放模型! 还等什么?赶快下载下来享用吧! 参考资料: https://openai.com/index/introducing-gpt-oss/
OpenAI 开源了两款模型,但…好像有点不对
长话短说 OpenAI 开源了两款模型:120B/20B 这是自 GPT-2 之后,OpenAI 家的首批开源模型 效果媲美 o4-mini,单卡可跑 但是...好像有点不对,让子弹飞一会儿 你可以在 gpt-oss.com 上,直接体验这俩模型 https://gpt-oss.com/以下是今日发布 gpt-oss-120b 对标 o4-mini,117B 参数,5.1B 激活量 运行该模型,需要 80G 内存,单卡 H100 GPU 可运行 https://huggingface.co/openai/gpt-oss-120b gpt-oss-20b 对标 o3-mini,21B 参数,3.6B 激活量 运行该模型,需要 16G 内存,单卡 4060 Ti 可运行 https://huggingface.co/openai/gpt-oss-20b 下面,是一些要点 Apache 2.0 开源 你可以尽情商业化,不用担心专利纠纷 推理强度可调 根据业务需求,可自行调整推理强度(低/中/高) 透明思维链条 这套模型的思考过程,都可以被完整查看 支持微调 是的,你可以将它微调成任何你想要的 Agent 友好 支持函数调用、网页浏览、Python执行和结构化输出 原生MXFP4量化 模型采用原生MXFP4精度训练MoE层,让 oss-120b 在单张H100 运行, oss-20b 也只需要16GB的显卡 评测数据 根据 OpenAI 自己的评测: gpt-oss-120b 对标 o4-mini,在 Codeforces(代码)、MMLU&HLE(通用问题)、TauBench(工具调用)上互有胜负,而在 HealthBench(健康查询)、AIME(数学竞赛)上则有所超越 gpt-oss-20b 则对标 o3-mini,其能力与之相匹配,或有所超越 官方的评测信息比较琐碎,我给重新整理了下(总感觉这里很奇怪) 贴心的我,整理了整个表格部署方法 Hugging Face https://huggingface.co/openai/gpt-oss-20b 你可以通过 Transformers、vLLM、PyTorch / Triton、Ollama、LM Studio 来直接使用这一模型,都是支持的 你也可以直接下载这一模型 # gpt-oss-20b huggingface-cli download openai/gpt-oss-20b --include "original/*" --local-dir gpt-oss-20b/ pip install gpt-oss python -m gpt_oss.chat model/ 以及,这些模型支持微调 gpt-oss-120b,可在单台 H100 node 上微调 gpt-oss-20b 可在消费级显卡(如 4060 Ti)上微调 等等! 这个模型,到底是什么协议? 到底是不是阿帕奇 以及... 对比一下 106B的GLM-4.5-Air GPT,应该领先很多才对吧... 群友测试...很奇怪 陷入沉思...不应该啊 让子弹再飞一会儿 再附一个总表
中国特供芯片恢复销售了?AMD CEO苏姿丰:许可证尚未获批
苏姿丰 凤凰网科技讯 北京时间8月6日,据彭博社报道,AMD周二警告称,恢复在中国销售芯片仍需时日,这一不确定性为其整体乐观的AI业务前景蒙上了一层阴影。 在周二的财报电话会议上,AMD高管拒绝预测其Instinct MI308在中国的销售情况,该AI处理器专为中国市场设计。 AMD CEO苏姿丰(Lisa Su)表示:“我们感谢特朗普政府致力于确保美国技术在全球AI基础设施中保持核心地位。我们预计在获得许可证后将恢复MI308的发货,这取决于最终客户的需求以及供应链的准备情况。由于我们的许可证仍在审查中,因此我们没有在第三季度的业绩指引中计入任何MI308收入。” 苏姿丰对整体AI计算市场持乐观态度。她在电话会议中表示:“展望未来,我们能够看到一条清晰的路径,可以将我们的AI业务规模扩大到每年数百亿美元营收。”她还提到,AMD正在提高新一代MI350系列产品的生产。 由于面向中国市场的芯片存在不确定性,AMD股价在盘后交易中一度下跌超5%,但在电话会议期间收复部分跌幅。截至当日收盘,AMD今年股价累计上涨44%,成为半导体行业表现最佳的股票。 AMD第二季度营收同比增长32%至77亿美元,好于分析师平均预计的74.3亿美元。AMD预计第三季度营收约为87亿美元,好于分析师平均预计的83.7亿美元。(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
刚刚,OpenAI发布2款开源模型!手机笔记本也能跑,北大校友扛大旗
时隔五年之后,OpenAI 刚刚正式发布两款开源权重语言模型——gpt-oss-120b和 gpt-oss-20b,而上一次他们开源语言模型,还要追溯到 2019 年的 GPT-2。 OpenAI 是真 open 了。 而今天 AI 圈也火药味十足,OpenAI 开源 gpt-oss、Anthropic 推出 Claude Opus 4.1(下文有详细报道)、Google DeepMind 发布 Genie 3,三大巨头不约而同在同一天放出王炸,上演了一出神仙打架。 OpenAI CEO Sam Altman(山姆·奥特曼)在社交媒体上的兴奋溢于言表:「gpt-oss 发布了!我们做了一个开放模型,性能达到o4-mini水平,并且能在高端笔记本上运行。为团队感到超级自豪,这是技术上的重大胜利。」 模型亮点概括如下: gpt-oss-120b:大型开放模型,适用于生产、通用、高推理需求的用例,可运行于单个 H100 GPU(1170 亿参数,激活参数为 51 亿),设计用于数据中心以及高端台式机和笔记本电脑上运行 gpt-oss-20b:中型开放模型,用于更低延迟、本地或专业化使用场景(21B 参数,3.6B 激活参数),可以在大多数台式机和笔记本电脑上运行。 Apache 2.0 许可证: 可自由构建,无需遵守 copyleft 限制或担心专利风险——非常适合实验、定制和商业部署。 可配置的推理强度: 根据具体使用场景和延迟需求,轻松调整推理强度(低、中、高)。完整的思维链: 全面访问模型的推理过程,便于调试并增强对输出结果的信任。此功能不适合展示给最终用户。 可微调: 通过参数微调,完全定制模型以满足用户的具体使用需求。 智能 Agent 能力: 利用模型的原生功能进行函数调用、 网页浏览 、Python 代码执行和结构化输出。 原生 MXFP4 量化: 模型使用 MoE 层的原生 MXFP4 精度进行训练,使得 gpt-oss-120b 能够在单个 H100 GPU 上运行,gpt-oss-20b 模型则能在 16GB 内存内运行。 OpenAI 终于开源了,但这次真不太一样 从技术规格来看,OpenAI 这次确实是「动真格」了,并没有拿出缩水版的开源模型敷衍了事,而是推出了性能直逼自家闭源旗舰的诚意之作。 据 OpenAI 官方介绍,gpt-oss-120b 总参数量为 1170 亿,激活参数为 51 亿,能够在单个 H100 GPU 上运行,仅需 80 GB 内存,专为生产环境、通用应用和高推理需求的用例设计,既可以部署在数据中心,也能在高端台式机和笔记本电脑上运行。 相比之下,gpt-oss-20b 总参数量为 210 亿,激活参数为 36 亿,专门针对更低延迟、本地化或专业化使用场景优化,仅需 16GB 内存就能运行,这意味着大多数现代台式机和笔记本电脑都能驾驭。 根据 OpenAI 公布的基准测试结果,gpt-oss-120b 在竞赛编程的 Codeforces 测试中表现优于 o3-mini,与o4-mini持平;在通用问题解决能力的 MMLU 和 HLE 测试中同样超越 o3-mini,接近 o4-mini 水平。 在工具调用的 TauBench 评测中,gpt-oss-120b 同样表现优异,甚至超过了像 o1 和 GPT-4o 这样的闭源模型;在健康相关查询的 HealthBench 测试和竞赛数学的 AIME 2024 及 2025 测试中,gpt-oss-120b 的表现甚至超越了 o4-mini。 尽管参数规模较小,gpt-oss-20b 在这些相同的评测中仍然表现出与 OpenAI o3-mini 持平或更优的水平,特别是在竞赛数学和健康领域表现尤为突出。 不过,虽然 gpt-oss 模型在健康相关查询的 HealthBench 测试中表现优异,但这些模型不能替代医疗专业人员,也不应用于疾病的诊断或治疗,建议谨慎使用。 与 API 中的 OpenAI o 系列推理模型类似,两个开放权重模型都支持低、中、高三种推理强度设置,允许开发者根据具体使用场景和延迟需求在性能与响应速度之间进行权衡。 从伯克利到 OpenAI,北大校友扛起开源大旗 我在 OpenAI 的 GPT-OSS 模型试玩平台上,向模型提出了一个经典的逻辑思维问题:「一根燃烧不均匀的绳子恰好需要一小时烧完,现有若干根这样的绳子,如何精确测量一小时十五分钟」 模型针对这道题目,分步骤呈现了完整的解题思路,配有清晰的时间线图表、原理阐释和要点总结,不过如果仔细观察,可以发现解题步骤还是相当繁琐的。 体验地址:https://www.gpt-oss.com/ 据网友 @flavioAd 的测试反馈,GPT-OSS-20B 在经典的小球运动问题上表现出色,但却未能通过最高难度的经典六边形测试,且出现了较多语法错误,需要多次重试才能获得比较满意的结果。 网友 @productshiv 在配备 M3 Pro 芯片、18GB 内存的设备上,通过 Lm Studio 平台测试了 gpt-oss-20b 模型,一次性成功完成了经典贪吃蛇游戏的编写,生成速度达到 23.72 token/秒,且未进行任何量化处理。 有趣的是,网友 @Sauers_ 发现 gpt-oss-120b 模型有个独特的「癖好」——喜欢在诗歌创作中嵌入数学方程式。 此外,网友 @grx_xce 分享了 Claude Opus 4.1 与 gpt-oss-120b 两款模型的对比测试结果,你觉得哪个效果更好? 在这次历史性的开源发布背后,有一位技术人员值得特别关注——领导 gpt-oss 系列模型基础设施和推理工作的 Zhuohan Li。 「我很幸运能够领导基础设施和推理工作,使 gpt-oss 得以实现。一年前,我在从零开始构建 vLLM 后加入了 OpenAI——现在站在发布者的另一端,帮助将模型回馈给开源社区,这对我来说意义深远。」 公开数据显示,Zhuohan Li 本科毕业于北京大学,师从计算机科学领域的知名教授王立威与贺笛,打下了扎实的计算机科学基础。随后,他前往加州大学伯克利分校攻读博士学位,在分布式系统领域权威学者 Ion Stoica 的指导下,在伯克利 RISE 实验室担任博士研究员近五年时间。 他的研究聚焦于机器学习与分布式系统的交叉领域,特别专注于通过系统设计来提升大模型推理的吞吐量、内存效率和可部署性——这些正是让 gpt-oss 模型能够在普通硬件上高效运行的关键技术。 在伯克利期间,Zhuohan Li 深度参与并主导了多个在开源社区产生深远影响的项目。作为 vLLM 项目的核心作者之一,他通过 PagedAttention 技术,成功解决了大模型部署成本高、速度慢的行业痛点,这个高吞吐、低内存的大模型推理引擎已被业界广泛采用。 他还是 Vicuna 的联合作者,在开源社区引起了巨大反响。此外,他参与研发的 Alpa 系列工具推动了模型并行计算和推理自动化的发展。 学术方面,根据 Google Scholar 的数据,Zhuohan Li 的学术论文引用量已超过 15000次,h-index 达到 18。他的代表性论文如 MT-Bench 与 Chatbot Arena、Vicuna、vLLM 等均获得数千次引用,在学术界产生了广泛影响。 不只是大,藏在 gpt-oss 背后的架构创新 要理解这两款模型为何能够实现如此出色的性能,我们需要深入了解其背后的技术架构和训练方法。 gpt-oss 模型采用 OpenAI 最先进的预训练和后训练技术进行训练,特别注重推理能力、效率以及在各种部署环境中的实际可用性。 这两款模型都采用了先进的Transformer架构,并创新性地利用专家混合(MoE)技术来大幅减少处理输入时所需激活的参数数量。 模型采用了类似 GPT-3 的交替密集和局部带状稀疏注意力模式,为了进一步提升推理和内存效率,还使用了分组多查询注意力机制,组大小设置为 8。通过采用旋转位置编码(RoPE)技术进行位置编码,模型还原生支持最长 128k 的上下文长度。 在训练数据方面,OpenAI 在一个主要为英文的纯文本数据集上训练了这些模型,训练内容特别强调 STEM 领域知识、编码能力和通用知识。 与此同时,OpenAI 这次还同时开源了一个名为 o200k_harmony 的全新分词器,这个分词器比 OpenAI o4-mini 和 GPT-4o 所使用的分词器更加全面和先进。 更紧凑的分词方式可以让模型在相同上下文长度下处理更多内容。比如原本一句话被切成 20 个 token,用更优分词器可能只需 10 个。这对长文本处理尤其重要。 除了强大的基础性能外,这些模型在实际应用能力方面同样表现出色,gpt-oss 模型兼容 Responses API,支持包括原生支持函数调用、网页浏览、Python 代码执行和结构化输出等功能。 举例而言,当用户询问 gpt-oss-120b 过去几天在网上泄露的细节时,模型会首先分析和理解用户的请求,然后主动浏览互联网寻找相关的泄露信息,连续调用浏览工具多达 27 次来搜集信息,最终给出详细的答案。 值得一提的是,从上面的演示案例中可以看到,此次模型完整提供了思维链(Chain of Thought)。OpenAI 给出的说法是,他们特意没有对链式思维部分进行「驯化」或优化,而是保持其「原始状态」。 在他们看来,这种设计理念背后有深刻的考虑——如果一个模型的链式思维没有被专门对齐过,开发者就可以通过观察它的思考过程来发现可能存在的问题,比如违反指令、企图规避限制、输出虚假信息等。 因此,他们认为保持链式思维的原始状态很关键,因为这有助于判断模型是否存在欺骗、滥用或越界的潜在风险。 举例而言,当用户要求模型绝对不允许说出「5」这个词,任何形式都不行时,模型在最终输出中确实遵守了规定,没有说出「5」,但 如果查看模型的思维链,就会发现模型其实在思考过程中偷偷提到了「5」这个词。 当然,对于如此强大的开源模型,安全性问题自然成为业界最为关注的焦点之一。 在预训练期间,OpenAI 过滤掉了与化学、生物、放射性等某些有害数据。在后训练阶段,OpenAI 也使用了对齐技术和指令层级系统,教导模型拒绝不安全的提示并防御提示注入攻击。 为了评估开放权重模型可能被恶意使用的风险,OpenAI进行了前所未有的「最坏情况微调」测试。他们通过在专门的生物学和网络安全数据上微调模型,针对每个领域创建了一个领域特定的非拒绝版本,模拟攻击者可能采取的做法。 随后,通过内部和外部测试评估了这些恶意微调模型的能力水平。 正如 OpenAI 在随附的安全论文中详细说明的那样,这些测试表明,即使利用 OpenAI 领先的训练技术进行强有力的微调,这些恶意微调的模型根据公司的准备度框架也无法达到高危害能力水平。这个恶意微调方法经过了三个独立专家组的审查,他们提出了改进训练过程和评估的建议,其中许多建议已被 OpenAI 采纳并在模型卡中详细说明。 OpenAI 开源的诚意几何? 在确保安全的基础上,OpenAI 在开源策略上展现出了前所未有的开放态度。 两款模型都采用了宽松的 Apache 2.0 许可证,这意味着开发者可以自由构建、实验、定制和进行商业部署,无需遵守 copyleft 限制或担心专利风险。 这种开放的许可模式非常适合各种实验、定制和商业部署场景。 同时,两个 gpt-oss 模型都可以针对各种专业用例进行微调——更大的 gpt-oss-120b 模型可以在单个 H100 节点上进行微调,而较小的 gpt-oss-20b 甚至可以在消费级硬件上进行微调,通过参数微调,开发者可以完全定制模型以满足特定的使用需求。 模型使用了 MoE 层的原生 MXFP4 精度进行训练,这种原生 MXFP4 量化技术使得 gpt-oss-120b 能够在仅 80GB 内存内运行,而 gpt-oss-20b 更是只需要 16GB 内存,极大降低了硬件门槛。 OpenAI 在模型后训练阶段加入了对 harmony 格式的微调,让模型能更好地理解和响应这种统一、结构化的提示格式。为了便于采用,OpenAI 还同时开源了 Python 和 Rust 版本的 harmony 渲染器。 此外,OpenAI 还发布了用于 PyTorch 推理和苹果 Metal 平台推理的参考实现,以及一系列模型工具。 技术创新固然重要,但要让开源模型真正发挥价值,还需要整个生态系统的支持。为此,OpenAI 在发布模型前与许多第三方部署平台建立了合作关系,包括 Azure、Hugging Face、vLLM、Ollama、llama.cpp、LM Studio 和 AWS 等。 在硬件方面,OpenAI 与英伟达、AMD、Cerebras 和 Groq 等厂商都有合作,以确保在多种系统上实现优化性能。 根据模型卡披露的数据,gpt-oss 模型在英伟达 H100 GPU上使用 PyTorch 框架进行训练,并采用了专家优化的 Triton 内核。 模型卡地址: https://cdn.openai.com/pdf/419b6906-9da6-406c-a19d-1bb078ac7637/oai_gpt-oss_model_card.pdf 其中,gpt-oss-120b 的完整训练耗费了 210 万H100 小时,而 gpt-oss-20b 的训练时间则缩短了近 10倍 。两款模型都采用 了Flash Attention 算法,不仅大幅降低了内存需求,还加速了训练过程。 有网友分析认为,gpt-oss-20b 的预训练成本低于 50 万美元。 英伟达 CEO 黄仁勋也借着这次合作打了波广告:「OpenAI 向世界展示了基于英伟达 AI 可以构建什么——现在他们正在推动开源软件的创新。」 而微软还特别宣布将为 Windows 设备带来 GPU 优化版本的 gpt-oss-20b 模型。该模型由 ONNX Runtime 驱动,支持本地推理,并通过 Foundry Local 和 VS Code 的 AI 工具包提供,使 Windows 开发者更容易使用开放模型进行构建。 OpenAI 还与早期合作伙伴如 AI Sweden、Orange 和 Snowflake 等机构深入合作,了解开放模型在现实世界中的应用。这些合作涵盖了从在本地托管模型以保障数据安全,到在专门的数据集上进行微调等各种应用场景。 正如奥特曼在后续发文中所强调的那样,这次开源发布的意义远不止于技术本身。他们希望通过提供这些一流的开放模型,赋能每个人——从个人开发者到大型企业再到政府机构——都能在自己的基础设施上运行和定制 AI。 One More Thing 就在 OpenAI 宣布开源 gpt-oss 系列模型的同一时期,Google DeepMind 发布世界模型 Genie 3,一句话就能实时生成可交互世界;与此同时,Anthropic 也推出了重磅更新——Claude Opus 4.1。 Claude Opus 4.1 是对前代 Claude Opus 4 的全面升级,重点强化了 Agent 任务执行、编码和推理能力。 目前,这款新模型已向所有付费 Claude 用户和 Claude Code 用户开放,同时也已在Anthropic API、亚马逊 Bedrock 以及 Vertex AI 平台上线。 在定价方面,Claude Opus 4.1 采用了分层计费模式:输入处理费用为每百万 token 15 美元,输出生成费用为每百万 token 75 美元。 写入缓存的费用为每百万 token 18.75 美元,而读取缓存仅需每百万 token 1.50 美元,这种定价结构有助于降低频繁调用场景下的使用成本。 基准测试结果显示,Opus 4.1 将在 SWE-bench Verified 达到了74.5%的成绩,将编码性能推向了新高度。此外,它还提升了 Claude 在 深度研究和数据分析领域的能力,特别是在细节跟踪和智能搜索方面。 ▲ Claude Opus 4.1 最新实测:你别说,细节还是挺丰富的 来自业界的反馈印证了 Opus 4.1 的实力提升。比如 GitHub 官方评价指出,Claude Opus 4.1 在绝大多数能力维度上都超越了Opus 4,其中多文件代码重构能力的提升尤为显著。 Windsurf 则提供了更为量化的评估数据,在其专门设计的初级开发者基准测试中,Opus 4.1 相比 Opus 4 提升了整整一个标准差,这种性能跃升的幅度大致相当于从Sonnet 3.7 升级到 Sonnet 4 所带来的改进。 Anthropic 还透露将在未来几周内发布对模型的重大改进,考虑到当前 AI 技术迭代之快,这是否意味着 Claude 5 即将登场? 迟来的「Open」,是开始还是结束 五年,对于 AI 行业来说,足够完成从开放到封闭,再从封闭回归开放的一个轮回。 当年那个以「Open」为名的OpenAI,在经历了长达五年的闭源时代后,终于用 gpt-oss 系列模型向世界证明,它还记得自己名字里的那个「Open」。 只是这次回归,与其说是初心不改,不如说是形势所迫。时机说明了一切,就在 DeepSeek 等开源模型攻城略地,开发者社区怨声载道之际,OpenAI 才宣布开源模型,历经一再跳票之后,今天终于来到我们面前。 奥特曼一月份那句坦诚的表态——「我们在开源方面一直站在历史的错误一边」,道出了这次转变的真正原因。DeepSeek 们带来的压力是实实在在的,当开源模型的性能不断逼近闭源产品,继续固守封闭无异于把市场拱手让人。 有趣的是,就在 OpenAI 宣布开源的同一天,Anthropic 发布的 Claude Opus 4.1 依然坚持闭源路线,市场反应却同样热烈。 两家公司,两种选择,却都收获了掌声,展现了 AI 行业最真实的图景——没有绝对正确的道路,只有最适合自己的策略。OpenAI 用有限开源挽回人心,Anthropic 靠闭源守住技术壁垒,各有各的算盘,也各有各的道理。 但有一点是确定的,无论对开发者还是用户,这都是最好的时代。你既可以在自己的笔记本上运行一个性能堪堪够用的开源模型,也可以通过 API 调用性能更强的闭源服务。选择权,始终掌握在使用者手中。 至于 OpenAI 的「open」能走多远?等 GPT-5 发布时就知道了。 我们不必抱太大希望,商业的本质从未改变,最好的东西永远不会免费,但至少在这个被 DeepSeek 们搅动的 2025 年,我们终于等到了 OpenAI 迟来的「Open」。
Grok新上的AI视频生成,自带“擦边”模式,马斯克靠“踩黄线”称霸AI?
不得不说,涩涩果然是「AI 第一生产力」? 作者|芯芯 编辑|靖宇 8 月 4 日凌晨,马斯克旗下 xAI 正式向付费用户推出 Grok Imagine,可以用文字生成图像,然后将图一键变成 AI 视频。 短短 24 小时,Grok Imagine 用户使用量据称达数千万次。惊人的速度背后,是「允许擦边」的「Spicy Mode(火辣模式)」,让这款 AI 视频生成功能成为全网最具争议的新物种。 前不久,马斯克才用二次元动漫 AI 女友刷了一波流量,用户连续对话攒「好感度」,还能解锁金发双马尾少女的 NSFW 模式,让对话风格变得「成人向」。 当别家忙着给内容做安全过滤,马斯克却选择把 AI 的限制调到最低,不仅不要政治正确,还拆了「纯净模式」,同时誓要把「快」写进产品 DNA 里。 在「最自由的 AI」与「最失控的 AI」之间,马斯克的 xAI 真能靠「擦边」在激烈竞争里杀出重围吗? 01 论「擦边」,马斯克真的行 24 小时、上千万生成量,当 Grok Imagine 面向付费用户开放,马斯克的 AI 又靠「擦边」把流量与争议同时点燃。 「Grok Imagine 的使用量像野火一样迅猛增长。昨天生成了 1400 万张图片,今天则超过了 2000 万张!」马斯克在 X 平台上发帖称。 马斯克称 Grok Imagine 用户增长迅猛|图片来源:X 与谷歌的 Veo、OpenAI 的 Sora 只用文字提示就能生成视频不同,Grok Imagine 把多模态做成了链路:先用文字或语音生成图像,再用图像生成视频,用户也可以上传图库的现有图片来生成视频,视频还有类似谷歌 Veo 3 的音效,然后进入 X 的社交媒体转发循环。 而且,虽然 Veo 和Sora 等其他视频生成器都设置了安全过滤,防止用户创建 NSFW (成人)内容,但 Grok Imagine 却似乎乐于做到这点。 马斯克发帖展示 Imagine 的功力|图片来源:X Grok Imagine 的视频生成效果有四种模式:自定义(Custom)、火辣(Spicy)、有趣(Fun),以及普通(Normal)。 其中最受用户关注的是「Spicy」模式的尺度。切换该模式后,用户可以引导 Grok 其生成性感挑逗内容。有 X 用户发布实验结果称: 选择「Spicy」模式后,Grok Imagine「为我将 AI 模特的衣服脱了」 有用户用 Grok Imagine 让 AI 模特脱衣服|图片来源:X 当然,据一些测评称,虽然「Spicy」模式能生成上半身裸露的图像,但 Grok Imagine 并非完全放任硬核色情内容,在极端情况下仍会采用审核过滤器,比如过于露骨的提示词(例如,性行为描述或全裸)会导致输出图像被自动模糊处理,或审核提示内容不被允许。 总的来说,还是有限制,但允许的尺度范围比竞争对手平台大。 这并不是 Grok 第一次开始「擦边」。 上个月,xAI 团队先用动漫伴侣 Ani、Valentine试水,用「游戏式」流程让用户连续对话攒「好感度」,解锁新着装与露骨对白,从那时起,Grok就已经开始走 NSFW 路线了。NSFW作为网络流行语,是「Not Safe For Work」的缩写,意为不适合工作场所观看。 xAI 的二次元聊骚小助手 Ani 与 Valentine|图片来源:X 舆论和用户反馈方面,正式上线后,支持者称它「释放创作自由」,有不少正经用户利用 Grok Imagine 让老照片、名画、历史人物动起来,但也有质疑者担心它被「滥用」「制造深度伪造色情内容」。还有人认为,Grok Imagine生成的人类图像和视频仍然有恐怖谷效应。 Grok Imagine 生成尼古拉·特斯拉动图|图片来源:X 目前,SuperGrok 和 Premium Plus X 订阅用户可以通过 Grok 的 iOS 应用使用 Imagine 功能。Android 方面,有用户反映目前仅限于制作图像,缺乏视频生成功能。 马斯克在 X 上称,「请记住,它超级好玩,但还只是早期测试版。Grok Imagine 未来几周几个月会大大改进。」 马斯克发帖称 Grok Imagine 还会继续改进|图片来源:X 02 大尺度豪赌,值得吗? 马斯克的思路并不复杂:用「最自由的 AI」吸引订阅者,为 Grok 的付费订阅增添独家卖点。但是,不少用户已经开始提前替他捏把汗,Grok 的「自由」和「尺度」越大,被监管盯上的概率也越高。 过去两年,旧金山市当地检察部门曾起诉过让用户创建 AI 生成色情内容的网站,美国多州都酝酿过深度伪造色情禁令。美国联邦层面《删除法案》于 2025 年通过,首次将 AI 合成色情图像定为联邦犯罪,其他国家政府也明确将 AI 生成的深度伪造色情内容明确为刑事犯罪。 在立法空白时期,一些深度伪造色情网站据称吸引过上亿次浏览,涉及数千名女性公众人物,包括 Taylor Swift,还有韩国女艺人的受害比例也极高。 Grok Imagine 是否能结合现实「真人」进行操作也是大家关注的一点。 据 TechCrunch 内部测试发现,Grok Imagine 的图像功能在生成名人照片方面存在一些限制。但 The Verge 有不同的测评结果,称 Grok 的「Spicy」模式让他们直接生成了 Taylor Swift 的裸体深度伪造短片,视频中,Taylor Swift 在音乐节上脱掉衣服,开始「穿着丁字裤跳舞」。 The Verge 用 Grok Imagine 生成名人脱衣视频|图片来源:The Verge 另外,未成年人保护也是各国监管机构关心的一大重点。Grok Imagine 在儿童方面目前不存在有出格行为的消息,即使是「Spicy」模式也会「拒绝以不恰当的方式添加动画」。 马斯克在 Grok Imagine 发布宣传期间还转发了几个用例,称「Grok Imagine 可以将您孩子的绘画变成动画电影」「孩子们喜欢使用 Grok Imagine,因为他们可以说出自己的想法并立即观看图像更新」。 但另一方面,Grok Imagine 生成的擦边内容在 X 上流转。Grok 应用在苹果等应用商店的年龄分级是「12+」,X 允许用户发布成人内容,年龄分级是「17+」,表明平台可能包含不适合未成年人观看的内容。而平台注册时,年龄通常由用户自我声明,难以验证真实性。 马斯克发帖称 Imagine 能帮助儿童将自己的画变成电影|图片来源:X 另外,即便平台会要求内容标记为「敏感」,一些大的品牌广告商厌恶风险,也不愿广告与 AI 色情内容并列。但马斯克似乎不在意这一点,更关注快速赢得更多用户和 AI 产品的订阅。 马斯克发帖称孩子们喜欢使用 Grok Imagine|图片来源:X 在 HBO 剧集《硅谷》中,曾有情节讽刺过色情内容与互联网数据的关系。男主 Richard 惊讶地发现,对手竟从一家成人视频网站拿下了 1500 万美元的大订单,尽管他不理解,面对财务压力,他考虑将革命性的压缩算法授权给色情内容网站。 尽管团队看不上这一行业,同事们向 Richard 解释称,「历来推动新技术普及最快的就是色情内容,第一部印刷发表的小说是色情的故事,从那之后,Super 8 胶片、宝丽来相机、家用录像机,数字化、信用卡验证系统,乃至 Snapchat……色情内容占互联网总流量的 37%。」 图片来源:HBO 剧集《硅谷》 马斯克当然深谙平台上一些用户的心理,其他 AI 巨头与 Grok 的区别,不是能力问题,而该不该做,愿不愿做,敢不敢做。 不管后续是否会面临更多舆论和监管压力,马斯克的 xAI 可以说用「尺度」抢下了这一波「猎奇流量」,最主要目的还是为 X 的付费订阅添一把火。毕竟,扩大一点尺度,相当于把同类平台的封禁请求变成自家卖点,也顺带收割「被竞争对手平台拒绝」的长尾需求。 为了与 AI 巨头们竞争,马斯克的态度看来就是:AI 黄线,边踩边修,不管体面和监管雷点,用户订阅到手再说,这成了他目前最关心的。 这种策略很冒险,也会惹来抗议,但也符合马斯克的过往的行为模式——即拥抱风险,快速行动,并依靠迭代解决问题来处理后果。
刘作虎明确OPPO没有有造车计划:业务选择逻辑和原则不一致
IT之家 8 月 5 日消息,OPPO 首席产品官、一加创始人刘作虎今日在公司的 2026 届校招直播中明确提到,OPPO 没有造车计划。 刘作虎表示,虽然现在好像车很火很热,但是跟 OPPO 目前业务选择的逻辑和原则是不一致的。刘作虎称,会非常谨慎的评估在产业里面的角色和提供的价值。 据IT之家此前报道,OPPO 中国区总裁刘波去年 9 月在沟通会上提到了“不造车”的原因。 他表示:“从我们的角度看,其实我们还是要核心做好手机,以及我们现在核心的周边,像耳机、Pad、手表。从 OPPO 的战略角度来讲,我认为聚焦非常重要。第二,就是我们现在做的产品也好,规模也好,都有很大的发展空间。所以说我们现在是明确的态度,不去造车。我们的核心就是聚焦做好手机、做好手机生态及周边,以及和手机结合的这些车型,我们要把它合作好。” 早在 2021 年 4 月就有消息称 OPPO 在筹备造车事项,创始人陈明永已在产业链资源和人才方面摸底、调研。2022 年,陈明永对上述传闻表示,智能车、电动汽车未来一定是一个转型的方向,但目前 OPPO 在其中发挥的价值是有限的,至少现阶段还没有发现造车的必要性。 值得一提的是,OPPO 在 2021 年推出了“车管家”OPPO 智行(OPPO Carlink),这是一套跨终端、全场景的系统出行解决方案,包含数字车钥匙、手表控车、车管家、车机投屏等多项核心能力。今晚,上汽名爵全新 MG4 汽车预售发布,新车全球首发半固态电池批量上车、OPPO 智行手车互联。同时,官方表示,「手车互联」未来将在 MG 所有车型上搭载。
小米15获推澎湃OS 2.0 Beta版更新 优化超级小爱交互
【CNMO科技消息】8月5日,小米官方推送了澎湃OS 2.0的最新Beta版本,版本号为2.0.230.18.WOCCNXM,适用于小米15等支持机型。此次更新在系统交互和稳定性方面进行了重点优化,进一步提升用户体验,但需具备Beta测试资格方可安装。 本次更新最重要的改动在于电源键功能的调整。系统新增“长按电源键仅用于与超级小爱持续对话”的功能逻辑,用户在长按电源键后可直接唤醒超级小爱并实现连续语音交互,无需反复唤醒。这一变化旨在强化AI助手的使用便捷性,推动语音交互成为核心操作方式之一。对于习惯传统电源键操作的用户,小米也提供了自定义选项,可在“设置 > 更多设置 > 快捷手势 > 关机与重启”中重新启用原有的关机与重启菜单。 此外,系统在稳定性方面也进行了优化。强制重启设备的触发时间由原先的短时长延长至12秒,有效避免了用户误触电源键组合导致的意外重启问题,提升设备使用安全性。 该Beta版本固件大小约为360MB,属于常规功能性更新,未涉及重大界面改动或新应用推送。小米官方提醒,Beta版本系统仍处于测试阶段,可能存在功能不稳定或兼容性问题,建议普通用户谨慎参与。如在使用过程中遇到异常,可前往小米社区相关板块提交反馈,帮助开发团队持续优化。
上汽全新MG 4开启预售 7.38万起售 搭载半固态电池
【智车派新闻】8月5日,上汽名爵正式发布全新纯电紧凑型轿车MG4。作为一款车长仅4395mm的A级车型,MG4在空间、三电、智能互联与安全性能方面实现了越级表现。 在核心性能方面,新车搭载最大功率120kW、峰值扭矩250N·m的电机,实现0-50km/h加速仅3秒,CLTC工况下续航里程达530km,百公里电耗低至10.4kWh。充电效率方面,支持30%至80%电量仅需20分钟的快充技术,大幅提升日常使用便利性。尤为引人注目的是,MG4成为全球首款量产搭载半固态电池的车型,电芯通过十针穿刺测试不冒烟,具备更高安全标准。同时,电池系统达到IP67与IP69K双重防护等级,可在雨天安全充电,低温环境下续航表现也更为稳定。 智能化配置成为MG4的一大亮点。该车首发搭载OPPO智行互联解决方案,配备高通骁龙8155芯片与15.6英寸2.5K中控屏,实现手机无感上车、离车自动上锁、网络共享、APP互控等功能。用户可通过语音指令完成备车、远程控车及自动泊车操作,支持“摇一摇”将手机导航同步至车机,并可语音控制车内应用。座舱还提供彩虹动效、自定义锁车音效等个性化体验,提升交互趣味性。 在车身结构上,MG4采用CTB电池车身一体化技术,车身扭转刚度高达31000N·m/deg,电池侧碰变形量仅3.6mm,配合三电终身质保政策,强化用户信心。其热管理系统为同级唯一一体式设计,采用行业首创的铝稀土合金材质,冬季制热效率提升30%,空调能耗降低50%,适应-35℃至50℃的极端工作环境。 空间设计兼顾实用性与舒适性,整车“得房率”达93.8%,后排支持纯平放倒,后备厢容积扩展至471L,并配有98L隐藏储物层,形成“莫里斯魔方空间”。后排可完全放平,秒变1.87㎡大床,副驾配备女王级腿托与脚踏,满足家庭出行与年轻用户多样化需求。
理想i8光速降价了!还有机会扳回一城吗
新车刚上市没几天就大降价,结果大伙还都在拍手叫好?这种特殊待遇,估计只有理想i8能享受到了。 就在今天中午,理想在自家的微博和公众号上宣布了一个重磅消息:上周才上市的理想i8将会立即进行改配和变相降价。 原先分成Pro、Max、Ultra三个版本,分别要卖32.18、34.98和36.98万的i8,现在只能有一个33.98万的配置可选。 而合并后的车型单看硬件,其实就是合并前的中配车型Max,只不过价格降了1万。 更狠的来了,除了配置合并以外理想还表示,现在下单i8不仅会赠送之前顶配Ultra才有的铂金音响,原先花36.98万定了Ultra的用户不仅车价降了,还能免费获得所有的选装配置(颜色、轮毂等)。 之前定了Pro的车主就更是香上加香了,只要再加一万多预算,电池包就能从欣旺达升级成容量更大、续航更长的宁德时代,并且拥有后排的冰箱和铂金音响。 就连智驾也升级成了用上激光雷达的AD Max 。 唯一需要选装的,是理想核心三大件之一的后排娱乐屏,定价1万元。 只能说还好i8这波没有上市即交付,得等到8月20号才交车。在配置合并之后,不仅0个老车主受到了背刺,各大评论区反而都是对理想的赞美之声。 有老车主说捡钱的,也有说理想非常听劝的,甚至还有说爷青回,理想又成了当年发布One的时候,那个标配即顶配的车企。 单看舆论,理想这波属于是降价的正确打开方式了,友商们好好看好好学。 当然相比于配置上的更新,我觉得这回理想最出人意料的部分,还是它调整的速度有些过于快了。 虽然新车重新上市有过先例,但诸如智界S7最少也有着4个月左右的间隔。 但像i8这样上周二上市,这周二就改配降价,赶在在交车前大改,还真是头一回。 要说为啥理想这么着急,他们在中午发的达网友问推文里头也给到了非常官方的回复。 意思是在i8上市之后他们接到的订单是以中配和高配为主,入门的Pro有点被冷落,干脆就取消了。同时还有很多用户表示配置太多太难记了,合并配置以后也能帮大家更好的下单。 但明眼人应该也能看出来,这大概率并不是i8改配降价的直接原因。毕竟中高配卖的好和配置多,跟降价也没啥必然的联系。 在我看来,跟乐道L90的竞争落了不小的下风,才是i8这回大改的导火索。 在上周二理想i8正式上市的两天之后,同为六座SUV的蔚来乐道L90也公布了自己的价格。 26.58-29.98万的定价不仅比理想i8更便宜,L90的车身尺寸、动力水平也比i8强上一节,并且即使入门车型也标配了冰箱和后排屏幕,并且有着i8所没有的巨大前备箱。 而在用上了租电池的Baas模式之后,L90的裸车价格更是变成了17.98-21.38万。 再加上它对比理想i8的唯一短板:电池包小续航略短,也能被蔚来的换电体系一定程度的补上。 可以说在信奉便宜和量大管饱的国内市场,乐道L90从纸面上看,几乎没有给定位定价十分接近的理想i8太多的机会。 脖子哥上周也是两个发布会都跟了并且写了文章,评论区也都是清一色的感觉理想i8卖贵了、电池包欣旺达和宁德混装没诚意、和乐道对比没有竞争力等等。 后续的市场反馈也证明了这一点,在两台车发布之后的这一周时间里,乐道和理想两边的舆论环境可以说是一个天上一个地下。 乐道的销售和高管们虽然嘴上不说爆了爆了,却都在有意无意的惊叹订单只多搞得服务器都卡了。 理想这头则是对销量和订单一问一个不吱声,危机公关那头却在忙着处理碰撞测试的争议,以及铺天盖地的对理想车主素质的玩梗。 并且虽然两家车企都没有公布两台车的具体销量,但透过各种渠道我们还是能瞥见一些市场对两台车的态度。 比如昨晚博主@孙少军09 就在直播里表示,据统计现阶段理想i8的订单总数只有大概6000个。 反观蔚来的老板李斌则在今天中午的微博里透露,乐道L90仅仅用3天就已经交付了接近2000台新车,订单量更是超过了自己的预期。 虽然局势看着有些一边倒,但作为两台车都动态开过的媒体,脖子哥觉得这两台车之间不管是内外饰的做工、行驶的质感还有智驾的能力,各方各面的差别其实非常明显。 如果拿手机举例的话,大概就是iPhone 16 Plus和iPhone 16 Pro之间的区别。前者功能大而全十分够用,后者则偏细腻精致,面向的是更小众的需求。 几万元的差价虽然略多,但也还在大致的合理区间里。 毕竟根据虎嗅的报道,单算BOM成本,i8会比同级别的增程车型L8至少高出两万,最后只是定了同样的价格,足以说明理想在放手一搏了。 但很明显,消费者们包括理想自己都觉得此前的定价依旧不够给力,这也才促成了今天的光速改配降价。 虽然理想的动作很快,决心也很大,颇有当年因为Mega失利后把i系列全都打回去重造的风范。 但不知道大伙是怎么想的,脖子哥在佩服理想之余,却依旧觉得这次降价对 i8 销量的助推作用十分有限。 至于原因,我觉得还是在i8这台车本身还是有些过于意料之内了,并没有给人带来太多惊喜。 要知道,理想之所以能成为第一个盈利的新势力,靠的一直是增程混动这个兼顾续航和电动化的技术路线,以及由冰箱彩电大沙发构成的移动的家。 但正如我们之前说的那样,这样的硬件基础其实不太具有技术壁垒。如今包括鸿蒙智行在内的诸多车企,已经在用类似的产品从各个价格段对理想发起了进攻。 并且只要看看问界M8和“半价理想”领跑C10的销量就能发现,理想其实并不太招架的住这样的攻击,自己的基本盘正在断崖式的被抢走。 这时候上市的i8 ,理应用更强的产品力,甭管是性价比还是配置来告诉人们,你们可以继续选择理想,但结果却是,i8的核心依旧是移动的家。 纯电的架构虽然有理想全国铺开的超充站做基础,却是实打实的失去了增程混动带来的里程优势。最重要的是,价格还做不到更便宜。 对比之下,乐道L90虽然也是类似的产品,但更低的入手门槛、更灵活的充换电方式,很明显要更香一些。 唯一的悬念,或许就是理想最近频繁提到,并且即将在月内推送的VLA司机大模型了。 如果实际上车的效果能如理想所言,做到语音控车这种车内外的功能联动,带来比肩特斯拉FSD和华为ADS,甚至是超越它们的体验,那么把AD MAX作为标配的理想i8可能真就能跟鸿蒙系一样,靠智驾再收割一波流量。 当然,你也可以说这是理想在下大棋。 毕竟L系列里头的L8 ,本质上就是用来凸显L7性价比很高的。而根据工信部消息,马上要接着i8发布的i6不仅同样支持超快充,还把i8缺失的前备厢加上了,甚至还更进一步的提供了单电机车型。 如果说i8和L8的关系还是油电同价的话,那i6则大概率会比L6的还便宜一截。 都说唯一的产品力就是价格,这么看理想的大招确实可能还在后头。 但哥几个不要忘了,在25-30万这个价位,还有一台市场表现更加恐怖、堪称现象级的竞争对手在等着它。 到时候理想的胜算,又有几成呢? 我觉得李想和高管们是时候要静下心来想想,纯电时代的理想,到底应该靠什么来吸引大伙买单了。 责任编辑:落木
首款自研玄戒O1旗舰!曝小米15S Pro销量已达十几万:符合预期
快科技8月6日消息,据博主体验more透露,小米15S Pro销量已达十几万,“有可能不符合网友的预期,但符合内部预期,大部分版本已经没货。” 该机提供了两种配色、两种存储规格,目前官网和京东平台都仅剩远空蓝16+512GB有货。 之前小米就曾回复过小米MIX Flip 2为什么没上玄戒O1的问题,称玄戒O1立项之初规划的总量比较有限,不能满足小折叠产品大规模量产的需求。 现在看来,应该是玄戒O1的存量不足了,所以小米15S Pro多个版本缺货,即将绝版。 这款手机出色的市场表现,无疑是给小米自研芯片吃了一颗定心丸。 小米15S Pro首发搭载小米自研3nm芯片玄戒O1,采用台积电第二代3nm工艺,集成190亿颗晶体管,10核CPU架构设计。 其中超大核是Arm最新的Cortex-X925,主频突破至3.9GHz,可更好满足应用启动等顺时爆发的性能需求,GPU采用最新一代Immortalis-G925,并配置16核心超大规模,安兔兔实验室跑分可达300万分,直接看齐苹果、高通等第一梯队旗舰性能。 为了研发玄戒O1,小米投入巨大,截至2025年4月底,玄戒项目累计研发投入已超135亿元人民币,研发团队规模超2500人,2025年预计研发投入将超60亿元。 雷军此前表示,玄戒立项之初就提出了很高的目标:最新的工艺制程、旗舰级别的晶体管规模、第一梯队的性能与能效,为此小米制定了长期持续投资的计划:至少投资十年,至少投资500亿,稳打稳扎,步步为营。 责任编辑:建嘉

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。