行业分类:
加载中...
头条分类:
加载中...
索尼诉《荒野起源》侵权《地平线》,腾讯同意暂停游戏所有宣传及公开测试
IT之家 12 月 3 日消息,随着索尼诉腾讯《荒野起源》(Light of Motiram)侵权案即将于 2026 年初举行重大听证会,双方已同意暂停该游戏的所有市场推广活动及公开测试。 据IT之家了解,此案目前已进入新阶段。尽管法律程序仍在推进,但双方在实际行动上已按下“暂停键”。作为《地平线》(Horizon)系列的开发商,索尼继续寻求法院颁布禁令,以阻止腾讯旗下这款生存类游戏的发售。目前,该案已排期于 2026 年初举行关键性听证会。 与此同时,腾讯也同意暂时将《荒野起源》置于聚光灯之外。根据最新提交的法庭文件,在索尼关于初步禁令的动议审理期间,腾讯将不再开展任何新的营销活动或公开测试,且游戏不会早于原已推迟至 2027 年第四季度的窗口期发售。 据 The Game Post 获取的、于 12 月 1 日提交的“约定及拟议命令”(stipulation and proposed order)显示,索尼与腾讯相关实体已共同请求加州北区联邦法院延长简报提交时间,并将驳回动议(motion to dismiss)和初步禁令请求的听证会合并至 2026 年 1 月同一天进行。 该文件指出,双方“一直在就解决当前争议进行讨论”。在此期间,索尼同意给予腾讯更多时间回应其初步禁令动议,但附带了明确条件: 首先,腾讯不得以获得额外时间为由,主张索尼在寻求紧急救济方面存在拖延; 其次,也是对玩家更为关键的一点是,双方约定在初步禁令动议待决期间,“不会对《荒野起源》进行任何新的宣传或公开测试”; 第三,腾讯承诺不会将游戏发售时间提前至 2027 年第四季度之前; 第四,腾讯亦不会就该初步禁令动议向法院申请快速取证。 文件原文写道:“SIE(索尼互动娱乐)提出要求,腾讯相关实体同意:(a)延长后的简报时间表及延后的听证日期不得被用于主张 SIE 在寻求初步禁令方面存在延迟;(b)在初步禁令动议待决期间,不对《荒野起源》进行任何新的宣传或公开测试;(c)《荒野起源》的发售日期不会早于 2027 年第四季度;(d)腾讯相关实体不会就初步禁令动议申请快速取证。” 在时间安排方面,腾讯对索尼初步禁令动议的反对意见提交日期已从原定的 2025 年 12 月 3 日延后至 12 月 17 日;索尼的答复则推迟至 2026 年 1 月 2 日。双方还共同请求法官杰奎琳・科利(Jacqueline Corley)将驳回动议与禁令请求的听证会合并,并于 2026 年 1 月 29 日举行(原定为 1 月 15 日),具体以法院日程为准。 此次合并听证意义重大。腾讯正试图通过驳回动议终结本案,其论点是:索尼试图垄断游戏类型中的通用元素,例如红发英雄与机械生物,并且该诉讼针对的是一款尚未发售游戏的“未来行为”,缺乏法律依据。 而索尼则坚持要求法院下达禁令,禁止《荒野起源》发售,并阻止腾讯使用一名红发“部落女猎手”角色,索尼认为该角色与《地平线》主角“埃洛伊”(Aloy)过于相似。 这一最新法庭文件是在双方数月激烈交锋基础上达成的。索尼最初于 2024 年 7 月提起诉讼,直指《荒野起源》是《地平线》系列的“拙劣仿制品”和“山寨之作”。在此背景下,该游戏开发商已悄然下架 Steam 页面、更换关键美术素材,并将发售日期低调推迟至 2027 年底。
谷歌步步紧逼 OpenAI拉响红色警报以突击式提升ChatGPT
据The Information报道,OpenAI首席执行官Sam Altman宣布拉响“红色警报”,将调配更多内部资源以加速改进ChatGPT,同时延迟其他项目的推进。 The Information援引一份内部备忘录报道称,Altman周一要求对ChatGPT进行“突击式”升级,同时推迟自主式AI代理和广告等其他工作。尽管Altman未明确说明需优先处理哪些修复事项及原因,但The Information指出他近期曾告诫员工,谷歌在人工智能领域的强势回归可能给OpenAI带来暂时性的经济挑战。 该报道凸显了AI巨头之间竞争的激烈程度,整个行业正努力说服华尔街,它们投入该技术的大量资金终将带来回报。Alphabet Inc.的谷歌上月发布AI模型Gemini 3,因其推理和编程能力及完成其他AI聊天机器人难以胜任的特定任务而几乎立即就广受好评。与此同时,OpenAI于10月推出首款AI驱动的网络浏览器,直接向谷歌发起挑战。 OpenAI拒绝就Altman备忘录相关消息置评。该公司ChatGPT负责人Nick Turley周一晚些时候在X平台发帖,重申对该聊天机器人的专注,称公司当前重心在于“持续增强ChatGPT的能力,持续推动增长,拓展全球覆盖范围 —— 同时使其体验更直观、更具个性化”。 另据报道,为了优先提升ChatGPT,Altman已鼓励进行临时的团队调动,并计划每日与负责该工作的团队进行通话。
ChatGPT和苹果健康有望实现数据互通,AI教练定制专属健身计划
IT之家 12 月 3 日消息,科技媒体 Appleinsider 昨日(12 月 2 日)发布博文,报道称适用于 iPhone 的新版 ChatGPT 应用代码中,发现了一个“苹果健康”(Apple Health)应用的图标,暗示两者未来可能实现数据互通。 根据曝光的图片显示,ChatGPT 可以访问用户活动、睡眠、饮食、呼吸和听力相关的多个 Apple 健康类别,但目前尚无实际方法启用此功能,OpenAI 也未公布具体上线时间或功能细节。 该媒体基于图片展望,认为在集成实现,ChatGPT 在获得用户授权后,将能读取“健康”应用内的数据,例如心率、体重、步数及步态等,其最直接的应用便是分析用户的整体健康状况。 例如,通过识别数据趋势,ChatGPT 或可发现潜在的疾病症状,或建议用户重点改善的健康领域。 IT之家援引博文介绍,它还能扮演虚拟教练的角色。当用户设定减重或增肌等目标后,ChatGPT 可以分析现有健康数据,为其量身定制针对性的锻炼计划,并持续提供指导。 该媒体也指出这项集成背后的隐私分享。这次潜在的集成将如何落地,尤其是由谁主导,将直接决定用户个人健康数据的安全。 如果由苹果主导,情况会相对安全。参照苹果与 Siri 的集成模式,苹果会在将用户请求发送给 ChatGPT 之前,剥离所有可识别个人身份的细节,从而保护用户隐私。 相反,如果通过苹果的 HealthKit 直接连接,用户授权后可能会将大量原始健康数据交给 OpenAI。届时,用户将不得不完全信赖 OpenAI 会遵守隐私规则,并且不会以任何方式滥用这些高度敏感的信息。 在 ChatGPT 探索健康领域的同时,苹果自身也并未落后。据报道,苹果公司正在推进一个名为“Project Mulberry”的项目,旨在通过增加一个 AI 代理教练来重构“健康”应用。 该教练同样会监控“健康”应用中的数据,并为用户提供改善身体状况的建议。据悉,苹果正与内部医生合作训练该 AI,以确保其建议的准确性。
“非洲手机之王”传音控股递表港交所:拟发行H股
快科技12月3日消息,被誉为“非洲之王”的深圳传音控股股份有限公司正式向香港联交所递交H股(境外上市外资股)发行上市申请,同日在港交所网站刊登申请资料草拟版本,开启“A股+H股”双重上市的关键进程。 此次发行由中信证券担任独家保荐人,摩根大通出任财务顾问,若成功上市,将为其全球化战略提供更充足的资本支持。 传音控股2013年成立于深圳,以手机为业务主线,深耕非洲、南亚、东南亚等70余个新兴市场,2024年手机销量达2.014亿部。 凭借差异化策略稳居“非洲手机之王”地位——2024年非洲智能机市场份额超40%,连续5年排名第一,在巴基斯坦、孟加拉国等市场智能机份额亦稳居榜首(均超30%)。 旗下拥有三大手机品牌,精准匹配不同需求: Tecno:定位中高端市场,主打高端设计与技术突破(如折叠屏、超薄手机等); Infinix:面向年轻消费者,以时尚设计和性价比为核心,搭载深度定制的XOS操作系统; itel:聚焦大众市场,强调可靠性与高性价比,在100美元以下功能机市场占有率高达82%。 除手机外,传音还构建了丰富的“智能终端+互联网服务+周边产品”生态,硬件端覆盖TWS耳机、充电宝、智能电视、厨房电器、两轮电动车等。 自研传音OS在2025年6月平均月活用户已超2.7亿,配套Palm Store应用商店、AHA Games游戏中心等预装软件;还通过Boomplay音乐平台布局移动互联网服务。 需要注意的是,虽然传音此前在非洲等市场根基深厚,但近年面临多重挑战,尤其是国内的小米、荣耀等也都在大力开拓海外市场。 数据显示,2025年第一季度传音非洲智能机市场份额从52%降至47%,出货量同比下滑5%,成为当地TOP5品牌中唯一负增长企业。 国内其他出海品牌小米(份额14.4%,增速32%)、荣耀(增速283%)、realme(2024年增速89%)正在不断蚕食其市场份额。
联发科天玑9600功耗有救了!TPU v7项目经验带来三大省电技术
IT之家 12 月 2 日消息,科技媒体 Wccftech 昨日(12 月 1 日)发布博文,报道称联发科负责参与设计谷歌最新 AI 芯片 TPU v7,这段经历将直接助力其打造天玑 9600 移动芯片。 谷歌近期推出的新一代 AI 芯片“Ironwood”TPU v7,已成为英伟达 Blackwell GPU 在 AI 推理领域的有力竞争者。作为该项目的重要合作伙伴,联发科的角色引发了业界的广泛关注。 IT之家援引博文介绍,联发科负责设计 TPU v7 的输入 / 输出(I/O)模块,该模块主要用于协调处理器与外部设备间的通信。 这一合作不仅标志着谷歌首次将部分核心设计任务交由联发科处理,也预示着联发科将从中获得宝贵的技术经验,并可能带来高达 40 亿美元(IT之家注:现汇率约合 283.15 亿元人民币)的潜在收益。 谷歌 TPU v7 采用了先进的双芯粒(Dual-Chiplet)设计,每个芯粒均配备了专为 AI 运算优化的核心单元。其中包括用于高效矩阵乘法运算的 TensorCore、处理通用计算的向量处理单元(VPU)以及专门优化稀疏数据处理的 SparseCores。 整个系统通过高速的 Die-to-Die 互连技术连接,并能通过光路交换(OCS)网络组成拥有最多 9216 颗芯片的超级计算机集群(Superpod)。凭借这一强大的架构,TPU v7 在 AI 推理任务上展现出与英伟达顶级 GPU 相匹敌的性能,同时在总拥有成本(TCO)上更具优势。 虽然专用集成电路(ASIC)与移动处理器(AP)在设计上存在本质区别,但联发科仍能将其在 TPU v7 项目中积累的经验,转化为提升天玑 9600 移动处理器能效的关键技术。 具体而言,联发科计划通过三方面进行迭代改进: 首先是采用更积极的电源门控(Power Gating)策略,让芯片在不使用时更积极地关闭特定的 I/O 模块。 其次是优化电压调节(Voltage Scaling),确保芯片在各种负载下都能以最低的有效电压运行。 再次是调整现有的时钟门控(clock-gating)策略,进一步降低芯片功耗,从而延长设备的电池续航时间。 特别是在联发科已决定在其移动处理器架构中放弃传统“能效核心”的背景下,通过这种更底层的功耗管理技术来提升整体能效,成为其保持市场竞争力的关键。因此,天玑 9600 有望在性能与功耗之间达到新的平衡,为高端智能手机带来更出色的能效表现。
英伟达官宣新合作成就:Mistral开源模型提速,任意规模均提高效率和精度
英伟达美东时间2日周二披露了与法国人工智能(AI)初创公司Mistral AI合作取得的重大突破。通过采用英伟达的最新芯片技术,Mistral AI开源模型家族的新成员在性能、效率和部署灵活性上实现跨越式提升。 这一合作成果的核心是,Mistral Large 3这一大型模型在英伟达GB200 NVL72系统上实现了相比前代H200芯片10倍的性能提升。这种性能飞跃转化为更好的用户体验、更低的单次响应成本以及更高的能源效率。该模型在每兆瓦(MW)能耗下可实现每秒超过500万个token的处理速度。 除大型模型外,名为Ministral 3的小型模型系列也针对英伟达边缘平台进行了优化,可在RTX PC、笔记本电脑和Jetson设备上运行。这使得企业能够在云端到边缘的任何场景部署人工智能应用,无需依赖持续的网络连接。 Mistral AI周二发布的新模型家族包括一个大型前沿模型和九个小模型,均可通过Hugging Face等开源平台和主流云服务商获取。业内人士认为,这一系列发布标志着开源AI进入"分布式智能"新阶段,弥合了研究突破与实际应用之间的差距。 GB200系统助力大模型性能突破 Mistral Large 3是一个混合专家模型(MoE),拥有675亿总参数和410亿活跃参数,以及25.6万token的上下文窗口。该架构的特点是仅激活对每个token最具影响力的模型部分,而非启动所有神经元,从而在保持精度的同时实现高效扩展。 英伟达称,通过利用一系列专为大型先进MoE量身定制的优化技术,Mistral Large 3在英伟达GB200 NVL72上实现了同类最佳性能。 英伟达通过三项关键技术优化实现了性能突破。首先是Wide Expert Parallelism技术,通过优化的MoE内核、专家分配和负载均衡充分利用NVlink的连贯内存域。其次是NVFP4低精度推理技术,在保持精度的同时降低计算和内存成本。第三是Dynamo分布式推理框架,通过分离预填充和解码阶段提升长文本处理性能。 该模型已兼容TensorRT-LLM、SGLang和vLLM等主流推理框架。开发者可以通过这些开源工具在不同规模的英伟达GPU上灵活部署模型,选择适合自身需求的精度格式和硬件配置。 小模型瞄准边缘设备部署 Ministral 3系列包含九个密集型高性能模型,涵盖30亿、80亿和140亿三种参数规模,每种规模又提供基础版、指令版和推理版三个变体。所有变体均支持视觉功能,处理12.8万至25.6万token的上下文窗口,并支持多语言。 这些小型模型在英伟达RTX 5090 GPU上可实现每秒最高385个token的推理速度。在Jetson Thor设备上,vLLM容器在单并发下可达每秒52个token,在8个并发下可扩展至每秒273个token。 英伟达与Ollama和llama.cpp合作优化了这些模型的边缘性能。开发者可以在GeForce RTX AI PC、DGX Spark和Jetson设备等英伟达边缘平台上运行这些模型,实现更快的迭代速度、更低的延迟和更强的数据隐私保护。 由于单个GPU即可运行,Ministral 3可部署在机器人、自动驾驶无人机、汽车、手机和笔记本电脑等设备上。这种部署灵活性使得人工智能应用能够在网络连接受限或无网络环境下运行。 Mistral新模型家族商业化提速 Mistral AI周二发布的新模型系列是该公司追赶OpenAI、谷歌和DeepSeek等领先AI实验室的最新举措。这家成立于2023年的公司在去年9月完成17亿欧元融资,其中荷兰芯片设备制造商ASML贡献13亿欧元,英伟达也参与其中,估值达到117亿欧元。 Mistral AI的联合创始人兼首席科学家Guillaume Lample表示,尽管大型闭源模型在初始基准测试中表现更好,但经过针对性微调后,小型模型在企业特定用例上往往能匹敌甚至超越大型模型。他强调,绝大多数企业用例可以通过微调后的小型模型解决,且成本更低、速度更快。 Mistral AI已开始加速商业化进程。本周一,该公司宣布与汇丰银行达成协议,为这家跨国银行提供从金融分析到翻译等任务的模型访问权限。此外,该公司还与多家企业签订了价值数亿美元的合同,并在物理人工智能领域展开布局,与新加坡内政科技局、德国国防科技初创公司Helsing以及汽车制造商Stellantis开展机器人、无人机和车载助手项目合作。 Mistral Large 3和Ministral-14B-Instruct现已通过英伟达API目录和预览API向开发者开放。企业开发者很快还可使用英伟达NIM微服务在任何GPU加速基础设施上轻松部署这些模型。所有Mistral 3家族模型均可从Hugging Face下载。
谷歌对OpenAI步步紧逼:开始在搜索中测试合并两大AI新功能
谷歌AI模式 凤凰网科技讯 北京时间12月3日,谷歌的竞争压力已经让OpenAI拉响了“红色警报”。现在,谷歌又有新动作。据科技网站TechCrunch报道,谷歌周一宣布,公司正在测试一项新功能,该功能将搜索中的AI概览与AI模式合并在了一起。也就是说,用户在谷歌搜索结果上方看到的AI生成要点(AI概览)后,可以通过对话式界面(AI模式)提出后续问题,进一步深入了解主题。 AI模式是谷歌的对话功能。该功能于今年5月面向美国用户推出,并于今年8月拓展至全球用户。它允许用户与谷歌的AI聊天机器人Gemini进行对话,体验与ChatGPT类似。 不过,目前的AI概览和AI模式属于两种功能。它需要用户预先判断自己准备搜索的问题类型。如果是比较传统的搜索查询,或是预期能快速得到答案的问题,大多数人可能仍会像往常一样在搜索框中直接输入。如果用户预期会提出更多问题或需要更深入探讨某个主题时,就必须先切换到AI模式标签页才能开始与AI对话。 谷歌现在想测试一下,是否有必要将这两种体验区分开来。毕竟,信息检索过程常常会引发进一步学习的需求。用户可能原以为自己只是从一个简单查询开始,结果却发现自己越查越深入。 谷歌在周一公布的这项测试中表示,用户将能够直接在搜索结果页面“无缝切入”AI模式进行深度探索。虽然测试正向全球用户开放,但目前仅限移动设备使用。 谷歌搜索产品副总裁罗比·斯坦恩(Robby Stein)在X上发文指出:“用户不应纠结于在何处或以何种方式提问。”他解释道,用户仍将首先会把AI概览作为实用的起点,但随后可以在同一界面进入AI模式,以对话方式提出后续问题。 “这让我们更接近搜索功能的理想愿景:只需提出心中所想,无论问题多么冗长或复杂,都能精准找到所需答案。”斯坦恩称。 谷歌的这项测试正值AI竞争对手OpenAI调整战略重心之际,后者已推迟其他产品开发以专注于优化聊天机器人体验。得益于Gemini Nano Banana图像模型及其他Gemini技术改进,截至11月,Gemini月活跃用户已突破6.5亿。谷歌将对话模式与拥有20亿月活用户的AI概览功能整合,或将使Gemini在用户普及度方面获得竞争优势。(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
DeepSeek的一次小更新:暴打OpenAI 追上Gemini
坏消息,开源模型和闭源模型的差距越来越大了。 好消息,DeepSeek 又出手了。 12 月 1 日,DeepSeek 发布了两款新模型 —— DeepSeek V3.2 和 DeepSeek-V3.2-Speciale。 前者和 GPT-5 能打的有来有回,后面的高性能版更是直接把 GPT 爆了,开始和闭源模型天花板 —— Gemini 打了个五五开。 还在IMO 2025(国际数学奥林匹克)、CMO 2025(中国数学奥林匹克)等一系列比赛中拿下金牌。 这是这家公司今年第九次发布模型,虽然大家期待的 R2 还没有来。 所以,DeepSeek 是怎么用更小的数据,更少的显卡,做出能和国际巨头来抗衡的模型? 我们翻开了他们的论文,想把这件事给大家讲清楚。 为了做到这个目标,DeepSeek 又整了不少新招: 先是把咱们的老朋友 DSA —— 稀疏注意力给转正了。 这东西在之前的 V3.2-EXP 版本里出现过,当时只是测了一下 DSA 会不会影响模型的性能,现在是真的把这玩意给放到了主力模型上。 大家平时和大模型聊天的时候会发现,你在一个对话框里聊的越多,模型就越容易胡言乱语。 甚至聊的太多了,还会直接不让你聊了。 这是因为大模型原生的注意力机制导致的问题,在这套老逻辑的影响下,每个 token 出来,都要和前面的每一个 token 互相算在一起做一次计算。 这就导致了句子增长一倍,模型的计算量就得增加到原来的四倍,如果边长到原来的三倍,计算量就变成了原来的九倍,非常麻烦。 DeepSeek 想这样不行啊,于是就给大模型里加了固定页数的目录(稀疏注意力),相当于帮模型划重点了。 而在有了目录之后,以后每次只需要计算这个 token 和这些目录的关系就行了,相当于就是看书先读目录,看完目录,对哪一章感兴趣,再去仔细看这章的内容就好。 这样一来,就能让大模型读长文的能力变的更强。 在下面这张图里可以看到,随着句子越来越长,传统的 V3.1 的推理成本是越来越高。 但是用上了稀疏注意力的 3.2 则没什么变化。。。 属于是超级省钱冠军了。 另一方面,DeepSeek 开始重视起了开源模型的后训练工作。 大模型这一套从预训练开始,到考试打分的过程,其实有点像是我们人类从小学开始,一路读书读到高考的过程。 前面的大规模预训练,相当于从小学到高二,把所有课本、练习册、卷子全过一遍,这一步大家都差不多,不管是闭源模型,还是开源模型,都在老老实实的念书。 但到了高考冲刺阶段就不一样了,在模型的后训练阶段,闭源模型一般都会请名师,猛刷题,开始搞起各种强化学习,最后让模型来考一个不错的成果。 但开源模型在这块花的心思就比较少了,按照 DeepSeek 的说法,过去的开源模型在训练后阶段计算投入普遍偏低。 这就导致这些模型可能基础能力是已经到位的了,但就是难题刷少了,结果导致考出来的成绩不太好。 于是,DeepSeek 决定这次自己也要上名师辅导班,设计了一套新的强化学习协议,在预训练结束后,花了超过总训练算力的 10% 来给模型开小灶,把之前缺的这块给补上。 同时还推出了个能思考超长时间的特殊版本 —— DeepSeek V3.2 Speciale。 这玩意的思路是这样的: 过去的大模型因为上下文长度有限制,所以在训练的时候都会做一些标注惩罚的工作,如果模型深度思考的内容太长了,那就会扣分。 而到了 DeepSeek V3.2 Speciale 这儿,所以 DeepSeek 干脆取消掉了这个扣分项,反而鼓励模型想思考多久就思考多久,想怎么思考就怎么思考。 最终,让这个全新的 DeepSeek V3.2 Speciale 成功的和前几天爆火的 Gemini 3 打的有来有回。 此外DeepSeek 还很重视模型在智能体方面能力。 一方面,为了提高模型的基础能力,DeepSeek 构建了一个虚拟环境,合成了成千上万条数据来辅助训练。 DeepSeek-V3.2 用 24667 个真实代码环境任务、50275 个真实搜索任务、4417 个合成通用 agent 场景、5908 个真实的代码解释任务做后训练。 另一方面,DeepSeek 还优化了模型使用各种工具的流程。 以前几代 DeepSeek 的一个典型毛病是:会把思考和用工具给分开。 模型一旦去调用外部工具,前面那段思考基本就算写完收工了,等工具查完结果再回来,它往往又要重新铺一遍思路。 这就导致一种很蠢的体验——哪怕只是去查一下“今天几月几号” 这种小事,模型也会从头开始重建整套推理链,非常浪费时间。。。 在 V3.2 这里,DeepSeek 忍不了了,直接把这套逻辑推翻重做。 现在的规则变成:在一整串工具调用的过程中,模型的“思考过程”会一直保留下来,只有当用户发来一条新的提问时,才会重置这一轮推理;而工具的调用记录和结果,会像聊天记录一样一直留在上下文里。 通过这修改模型架构,重视后训练,强化 Agent 能力的三板斧,DeepSeek 才终于让自己的新模型,有了能和世界顶尖开源模型再次一战的能力。 当然,即使做了这么多改进,DeepSeek 的表现也算不上完美。 但托尼最喜欢 DeepSeek 的一点,就是他们愿意承认自己的不足。 而且还会直接在论文里写出来。 比如这次论文就提到了,这次的 DeepSeek V3.2 Speciale 虽然能和谷歌的 Gemini 3 Pro 来打的五五开。 但是要回答相同的问题,DeepSeek 需要花费更多的 token。 我自己也测试了一下,从“人类的最终考试” 的题库里随便抽了道题目,同时丢给 Gemini 3 Pro 和 DeepSeek V3.2 Speciale 这两个模型。 题目是: 蜂鸟类在足形目中独特地拥有双侧成对的椭圆形骨,这是一种嵌入在膨胀的十字翼腱膜的尾状骨中,嵌入压低多粒骨的尾状骨。这块籽骨支撑着多少对对腱?请用数字回答。 结果发现 Gemini 只要 4972 个 Tokens 就能把问题给答出来。 而到了 DeepSeek 这边,则用了 8077 个 Tokens 才把问题给搞明白。 光看用量的话,DeepSeek 的的 Tokens 消耗量高了快六成,确实是有不小的差距。 但是话又说回来了。 DeepSeek 虽然消耗的 token 多,但是人家价格便宜啊。。。 还是刚才那个问题,我回头仔细看了眼账单。 DeepSeek 8000 多个 tokens,花了我 0.0032 美元。 但谷歌这边,5000 个 tokens 不到,给我干掉了 0.06 刀?这块要比 DeepSeek 高了有 20 倍了。 从这个角度上来看,怎么感觉还是 DeepSeek 更香一些。。。 最后,让我们回到论文的开头。 正如 DeepSeek 所言,最近半年来,开源模型和闭源模型的差距正在不断加大。 但他们还是用自己的方式,在不断追赶这份差距。 而 DeepSeek 的各种节省算力,节约数据的操作,其实让我想到了上个月,一场关于 Ilya Sutskever 的访谈。 这位 OpenAI 曾经的灵魂人物认为,只靠一味的给模型堆参数,是没有未来的。 AlexNet只用了两块GPU。Transformer刚出现时的实验规模,大多在8~64块GPU范围内。按今天的标准看,那甚至相当于几块GPU的规模,ResNet也一样。没有哪篇论文靠庞大的集群才能完成。 比起算力的堆砌,对算法的研究也一样重要。 这正是 DeepSeek 在做的事情。 从 V2 的 MoE,到 V3 的多头潜在注意力(MLA),再到如今 DeepSeek Math V2 的自验证机制,V3.2 的稀疏注意力(DSA)。 DeepSeek 展现给我们进步,从来都不是单一的,依靠堆砌参数规模所带来的提升。 而是在想办法,如何用有限的数据,来堆积出更多的智能。 巧妇狂作无米之炊 所以,R2 什么时候来呢? 责任编辑:落木
“豆包”加持,3499元的手机,一天就卖光,闲鱼挂价最高近万元
12月2日,中兴商城官网显示,售价3499元的“豆包助手”手机已售罄。 图:中兴官网显示,“豆包助手”手机已售罄 目前,在闲鱼平台上搜索该款手机显示,大部分卖家售价均超过3499元的发售价格,其中,全新未拆封的手机报价已经达到7999~9999元,最高溢价超6500元。 图:咸鱼平台所示部分价格 据介绍,豆包手机助手并不是独立的手机产品,而是公司在豆包App的基础上和手机厂商在操作系统层面合作的AI助手软件。 合作工程样机由豆包主导AI手机助手的产品定义与用户体验,由中兴通讯旗下努比亚负责硬件工程与技术研发。 该机配备6.78英寸屏幕,搭载高通骁龙8至尊版移动平台,“16GB内存、512GB存储”的版本售价为3499元,主要面向开发者与科技爱好者少量发售。 图:“豆包助手”手机,来自中兴官网 此外,该机还可以通过语音在系统层面直接唤醒豆包,或使用手机侧面的AI键、耳机与豆包对话。 例如,直接针对屏幕上显示的内容进行提问;将多模态生成模型与手机原生相册深度结合,实现智能移除照片中无关人物或物体的功能;一句话下载安装多个软件;一键查询所有购物软件的物流进度;跨平台比价与下单等。 值得注意的是,字节方面称,正在和多家手机厂商推进手机助手的合作落地计划,目前官方披露的手机合作厂商仅为中兴手机。这意味着,后续或许有与更多的手机厂商与豆包达成合作。 此前,受“豆包助手”手机发布的影响,中兴通讯A股及H股股价大涨,12月1日,A股封住涨停板,报收46.3元/股,港股大幅上涨,最终收报35.8港元/股,涨幅13.94%,总市值突破2100亿元。 12月2日,公司股价有所回落,A股报45.5元/股,跌幅1.73%;港股报33.78港元/股,跌幅5.64%。 编辑|许绍航 杜恒峰 校对|何小桃 封面图片来源:视觉中国(AI生成) 每日经济新闻综合自每经网、21世纪经济报道及公开资料 每日经济新闻
电动自行车新国标车速超25km/h直接断电!专家科普是否会造成急刹车
快科技12月3日消息,12月1日起,电动自行车市场迎来重磅新规——新版《电动自行车安全技术规范》(GB 17761—2024)正式落地。 据央视新闻报道,针对部分消费者关注的热点问题,标准主要起草单位——中国电子技术标准化研究院专家进行了解读。 针对新标准关于25km/h“超速断电”的要求是否会导致高速行驶时急刹车、影响交通安全的问题。 专家指出,这是对标准条款的错误理解。 本次实施的新标准《电动自行车安全技术规范》维持了2018版标准中有关电动自行车最高设计车速不得超过25km/h的规定,增加了车速超过25km/h时电动机应停止提供动力输出的要求。 据介绍,这不会导致车辆正常行驶时突然刹车,受电动机的功率、转速等参数限制,电动自行车在平直的道路上依靠自身动力行驶时速度不会超过25km/h。 即使在连续下坡等特殊场景下车速能够短时超过25km/h,此时电动机只是不再继续为车辆提供助力,但不会紧急制动,车辆将继续向前滑行,骑行人可通过操作刹车等方式控制车速。 当车速下降到低于25km/h后,电动机会再次恢复动力输出。 报道称,这一条款是在前期大量实验数据的基础上科学制定的,能够有效确保行驶的流畅性和骑行人的安全。
微软《我的世界》明年启用全新年度版本号:Java与基岩版统一前缀
IT之家 12 月 3 日消息,当地时间周二,微软旗下 Mojang Studios 宣布,自 2026 年起《我的世界》将在 Java 版与基岩版统一采用全新的年度版本号体系,以更直观地反映其“更密集更新”策略。 《我的世界》早期版本依序从 1.0、1.1、1.2 等递增,直到 2024 年推出“Tricky Trials”更新(1.21)。 随着官方在 2024 年底至 2025 年陆续发布 The Garden Awakens、Spring to Life、Chase the Skies 等内容,而基岩版与 Java 版的不同节奏导致版本号出现如 1.21.50 与 1.21.4 的差异,使得版本识别度降低。在即将推出的 Mounts of Mayhem 等新内容推动下,版本号体系的更新被提上日程。 新的体系将以年份作为版本号开头,例如 2026 年所有版本将以“26”起始,其后依序为“内容发布序号”以及“补丁 / 热修复编号”。 虽然两个版本的前缀相同,但因平台限制与更新频率差异,后续数字仍会不同。不过,共用的年份前缀可帮助创作者、模组开发者与玩家更清晰识别对应内容。 相比之下,Java 版仍会保持单独的补丁号,而基岩版则继续从发布序号向上累计。快照命名也将随之前缀体系调整,例如原称 25w41a 的 Mounts of Mayhem 首个快照,在新体系中会对应为“25.4-snapshot-1”。 官方强调,新体系对一般玩家影响不大,游戏仍会默认提示更新。调整主要是为了让创作者、模组作者以及高度关注版本变化的玩家更容易理解哪些版本属于新内容发布,哪些属于修复更新,也让社区能在内容公布名称之前更方便讨论即将到来的更新。 IT之家提醒:新的版本编号将从 2026 年起全面使用,本周起玩家即可在相关预览版本中率先看到新的编号方式。
亚马逊杀疯了!连甩十大重磅发布,揭Agent大招、自研芯进展
智东西 作者 | 骏达 程茜 编辑 | 心缘 全球最大云计算巨头的AI武器库,又迎来重磅更新! 智东西拉斯维加斯12月2日报道,今日,在年度云计算产业盛会AWS re:Invent上,亚马逊云科技(AWS)连甩一系列重磅AI新品,包括最新AI芯片TrAInium4、基于其首款3nm AI芯片的Amazon EC2 Trainium3 UltraServers、第二代自研大模型Amazon Nova 2系列,以及大量Agent开发利器。 从AI基础设施、AI推理平台、企业数据管理到智能体开发工具、前沿智能体,通通迎来一大波升级。智东西作为受邀现场参会的媒体,从大会前排带来超全干货报道。 Amazon Nova 2系列首发4款模型:经济高效推理模型Lite,高智能推理模型Pro,语音转语音的实时拟人对话式AI模型Sonic,以及面向多模态推理和图像生成的统一模型Omni。 其中,Nova 2.0 Pro Preview在指令跟随、智能体工具使用榜单中,性能超过了GPT-5 mini、GPT-5.1、Claude Opus 4.5、Gemini 3 Pro Preview等前沿模型。 值得一提的是,Amazon Bedrock新增18款全托管开源模型,其中包括4款国内顶尖模型:阿里Qwen3-NEXT和Qwen3-VL、月之暗面Kimi K2 Thinking、稀宇科技MiniMax M2。 其他新增的前沿模型还有谷歌Gemma 3、英伟达Nemotron、OpenAI gpt-oss-safeguard、Mistral AI的Mistral Large 3和Ministral 3等。 总体来看,今日十大重要发布包括: 1、P6e新实例:采用英伟达GB300 NVL72系统。 2、AWS AI Factories服务:专用客户定制AI基础设施,由AWS快速构建和管理。 3、AWS Trainium4自研AI芯片:第四代自研AI芯片,相比上一代带来6倍的计算性能(FP4)、3倍的FP8性能、4倍的内存带宽、2倍的内存容量,并可通过NVLink Fusion和UALink实现纵向扩展。 4、Amazon EC2 Trainium3 UltraServers:由AWS首款3nm AI芯片Trainium3提供支持,提供大规模AI训练和推理的高性价比,单集群可连接144张Trainium3芯片,算力达362PFLOPS(FP8),带宽为706TB/s,相较上一代带来4.4倍计算性能、3.9倍高内存带宽、5倍的每百万瓦token数。 5、Amazon Bedrock平台:新增18款开源模型,模型数量过去一年翻倍增长,已拥有超过10万客户,其中50多家客户均使用了超过1万亿个token。 6、Amazon Nova 2系列自研模型:包括Lite、Pro、Sonic、Omni。 7、Amazon Nova Forge服务:支持企业访问Nova模型在不同阶段的训练检查点,并将自有数据与亚马逊的训练数据集混合,构建定制前沿模型。 8、AgentCore开发工具:Policy in AgentCore(预览版),使用细粒度权限策略,给agent行动设置明确边界;AgentCore Evaluations(预览版),使用评估器,根据现实世界行为来持续检查agent质量。 9、4款前沿智能体:AWS Transform Custom(专为企业开发工作流程设计),Kiro autonomous agent(自主开发复杂编程任务)、AWS Security Agent(预览版,保护全开发生命周期安全)、AWS DevOps Agent(预览版,加快事件响应速度并提高系统可靠性)。 10、7款新实例、6项Amazon S3存储升级、5项Amazon RDS数据库更新、3项计算与加速优化新功能、4项管理与治理新功能。 一、新基建:全新AI芯片Trainium4性能飙6倍,帮企业定制专属AI基础设施 加曼称,亚马逊云科技是第一家在云中提供英伟达GPU的公司,其与英伟达合作已超过15年,也是迄今为止运行GPU集群最多的公司。 1、基于英伟达GB300 NVL72打造P6e-GB300 今天,亚马逊云科技新发布采用英伟达最新的GB300 NVL72系统的P6e-GB300,相比P6e-GB200,新实例GPU内存容量提升至1.5倍,FP4计算性能(无稀疏)提升至1.5倍。 英伟达在亚马逊云科技上运行其生成式AI集群。OpenAI也在亚马逊云科技上基于EC2 Ultra Servers集群支撑ChatGPT运行及训练下一个模型,部署了数十万张GB200。加曼透露这些处理器很快将会变为GB300。 本月初,亚马逊云科技还与沙特阿拉伯AI创企Humain建立了合作伙伴关系,计划在沙特的数据中心设施中提供、部署和管理至多15万个AI加速器。 2、AWS AI Factories满足企业私有化部署需求 为满足企业的私有化部署需求,今天亚马逊云科技宣布推出AWS AI Factories。基于这一平台,客户能在自己的数据中心部署专用AI基础设施,然后使用亚马逊云科技的基础设施和服务。 3、Amazon EC2 Trainium3 UltraServers 目前,Amazon Bedrock上运行的所有推理工具都由Trainium提供支持,亚马逊云科技已经部署了100万颗Trainium芯片,Trainium2的量产速度是其曾经芯片量产速度的4倍。 加曼称,亚马逊云科技的Trainium系列芯片虽然以“训练”命名,但这些芯片其实也适用于推理用途。目前,亚马逊云科技上的许多AI推理服务都是在Trainium芯片上运行的,包括Claude的前沿模型。 亚马逊云科技还围绕Trainium打造了一个超大规模系统,名为Project Rainier,用于Anthropic下一代Claude模型的训练。 这一项目的规模十分庞大,加曼称,如果过去大家常说单个数据中心已经成了新的计算机,Project Rainier则更进一步,让由多个数据中心组成的园区,构成了一个计算机。 Project Rainier将会不断扩大规模,最终支持高达30个单体数据中心,用掉1.1GW的电力,托管超过50万个Trainium2芯片。相关计算设备会使用超过100万个的高速连接器件,通过AWS EFA网络实现安全、可靠的连接。 亚马逊云科技于去年发布了Trainium3芯片,今天,加曼宣布Amazon EC2 Trn3 UltraServers服务器已经广泛可用。与上一代产品相比,该服务器可提供4.4倍的算力和3.9倍的内存带宽。 值得注意的是,Amazon EC2 Trn3 UltraSevers在能效比上也有提升,每兆瓦所处理的token数量达前代产品的5倍。 4、下一代AI芯片Trainium 4 加曼还透露,亚马逊云科技的下一代AI芯片Trainium 4已深入设计阶段。Trainium4预计能提供6倍的FP4性能,4倍的内存带宽,2倍的内存容量,并支持通过NVLink Fusion和UALink进行扩展。 二、新模型:阿里、Kimi、MiniMax模型上架,第二代自研模型Nova 2四弹齐发 亚马逊云科技Amazon Bedrock推理平台已经拥有超过10万客户,使用其处理超1万亿个token的企业客户已超过50家。 亚马逊云科技一直以来的信条就是“选择至关重要(Choice Matters)”,这也适用于模型的选择。加曼称,亚马逊云科技认为AI的未来不会仅由1个模型统治,过去1年,Amazon Bedrock上提供的模型数量已经翻倍,DeepSeek、Qwen等中国模型也在支持范围之内。 Amazon Bedrock还在今天新增了18款全托管开源模型,包括Qwen3-Next-80B-A3B、Qwen3-VL-235B-A22B、Kimi K2 Thinking、MiniMax M2等中国模型。此外,谷歌Gemma、英伟达Nemotron以及全新的Mistral Large 3和Ministral 3(3B、8B和14B版本)等模型也登陆Amazon Bedrock平台。 亚马逊云科技还发布第二代自研模型家族Nova 2系列,推出了4款新模型:Lite、Pro、Sonic和Omni。 Nova 2 Lite是一款快速且经济高效的推理模型,适用于各种类型的工作负载,拥有不错的指令遵循、工具调用、信息提取、代码生成等能力。Nova 2 Lite在上述四大领域的能力基本全面超越了Claude Haiku 4.5、GPT-5 mini、Gemini 2.5 Flash等轻量级模型,仅在编程能力上略逊于GPT-5 mini。 Nova 2 Pro是Nova系列中最智能的推理模型,支持文字、图像、视频、语音四种模态输入和文本模态输出,适用于高度复杂的工作负载,尤其是Agent场景。在两项Agent基准测试中,其表现已经超过了GPT-5.1(high)、Gemini 3 Pro Preview(high)等前沿模型。 Nova 2 Sonic则是亚马逊云科技的下一代语音转语音模型,支持文本和语音两个模态的输入输出,能为AI应用提供实时、类人的对话式AI体验。在语音理解和推理任务上,其性能已经超过了GPT Realtime、Gemini 2.5 Flash等。 Nova 2 Omni是Nova系列的新物种,也是业界首个支持文本、图像、视频和音频输入,并支持文本和图像生成输出的推理模型。不过,亚马逊云科技尚未公布其基准测试成绩。 三、新服务:开放Nova模型训练检查点,帮企业训出专属前沿模型 加曼谈道,AI需要拥有理解公司数据的能力,才能真正为公司和客户带来巨大价值。 由于数据具有独特性,企业往往不希望自己的专有数据被嵌入到第三方模型中,供他人使用。过去,业内让企业数据和模型结合最常用的技术是RAG或向量数据库,但这无法让模型真正理解数据。想要教会模型理解行业知识,还是需要定制模型。 然而,如果从零开始定制模型是极为昂贵的,企业没有足够数据、足够算力打造出强大的通用智能。 如果在开源模型的基础上,通过微调、强化学习等方式打造行业模型,则有可能出现其他领域性能下降的风险。 亚马逊云科技的解决方案,是Amazon Nova Forge。Nova Forge引入了“开放式训练模型(Open Training Model)”的概念。 通过Nova Forge,企业可以独家访问各种Nova模型的训练检查点,并在模型训练的任意阶段,将自己的专有数据与亚马逊创建的训练数据集混合。这使得企业能够产出一个深度理解企业信息的模型,同时不会遗忘模型已训练的核心信息。 Nova Forge还提供了使用远程奖励函数和强化学习微调的能力,以进一步改进模型,让企业可以将真实环境集成到训练循环中。由于基础模型已经理解业务,这些后训练技术实际上会变得更加有效。 亚马逊云科技已经和不少企业试点了Nova Forge服务。索尼便通过Nova Forge,对Nova 2 Lite模型进行了微调,使其适用于索尼自身的业务和运营。模型在引用一致性和文档依据等任务上表现优于基准模型,索尼的目标是借此将索尼合规审查和评估流程的效率提升100倍。 四、新工具:给Agent开发设限和打分 今天,亚马逊云科技宣布Amazon Bedrock AgentCore新增两项新功能,帮助开发者快速构建Agent。自AgentCore SDK预览版发布以来,其在5个月内下载量已超过200万次。 此前,亚马逊推出了为Agent设计的核心工具集AgentCore,包含部署、代码解释器、托管环境等诸多能力。在此基础上,亚马逊推出Policy in AgentCore预览版和AgentCore Evaluation预览版。 Policy in AgentCore允许开发者在AgentCore Gateway工具调用运行前拦截,使用带有细粒度权限的策略,为Agent行为定义明确的界限,如使用哪些工具、如何使用工具,开发者也可以通过自然语言创建标准,如“报销金额大于1000美元时,就阻止退款”等。 AgentCore Evaluation是一项全托管服务,帮助开发者持续监控和分析基于真实行为的Agent表现。开发者可以使用内置评估器来衡量常见的质量维度,如正确性、帮助性、工具选择准确性、安全性、目标成功率和上下文相关性,还可以创建基于模型的定制评分系统,根据自己选择的提示和模型进行业务定制评分。 所有AgentCore的评估结果都会在亚马逊统一监控平台CloudWatch被呈现。开发者还可以设置评估分数的警报和警报,主动监控Agent质量,并在指标超出可接受阈值时作出响应。 亚马逊此前构建了Amazon Quick和Amazon Connect两个Agent方案。 首先是Amazon Quick,可以帮助员工在几分钟内将观点转换成行动,指导深度研究和获得详尽分析,其会从获取信息整理出详细的研究报告;员工还可以创建小型Agent,帮助自己处理日常重复性工作。几周前,亚马逊在公司内部发布了Amazon Quick,目前其已拥有数十万用户。 其次是Amazon Connect,加曼谈到在亚马逊内部税务团队中的一个案例,该团队创建了一个Agent,帮助其汇聚所有税务数据来源、深入研究税法政策变化。该Agent的另一个应用场景是客户服务,可以将AI引入企业的联络中心。Amazon Connect业务的年度经常性收入已经超过10亿美元。 五、新Agent:加速开发、优化编程、保护安全、增强可靠 加曼认为,对于试图快速现代化其应用程序的开发团队来说,目前最大的痛点之一就是处理技术债。在美国,技术债务每年给企业造成总计2.4万亿美元的损失,如今70%的IT预算都被用于维护遗留系统。 此前,亚马逊云科技已经推出了AWS Transform,通过AI实现转换流程的降本增效。在此基础上,AWS今日推出了AWS Transform Custom,这一智能体帮助用户创建自定义代码转换智能体,以实现任何代码、API、框架、运行时或编程语言的翻译和现代化。 例如,全球知名ERP软件公司QAD便是用AWS Transform,将原本需要至少需要两周才能完成转换的项目,压缩至3天。 今年早些时候,亚马逊云科技发布了面向专业开发者的AI IDE “Kiro”。加曼称,已经有数十万开发者在使用Kiro,有开发者感叹,用了Kiro之后,自己在过去5个月内交付的代码,比过去10年还要多。上周,亚马逊已经把Kiro定为该公司的官方AI开发环境。 为了进一步加强开发流程的自动化程度,亚马逊云科技发布了全新的三个前沿智能体,让Kiro在自主性、大规模可扩展和长期运行等领域的表现进一步增强。 Kiro Autonomous Agent是一个与开发工作流并行运行的自主开发智能体。它就像团队的一名额外成员,能独立处理复杂任务,让工程师专注于核心创意。开发者只需指派一个复杂的、目标导向的任务,它能自行规划、分解并执行所有必要步骤,直到交付可用代码。 这一Agent还会越用越聪明,能长期、深度地理解代码库、团队规范和过往决策,从每一次互动中学习,形成“集体记忆”,并应用所学知识到后续任务中。 AWS Security Agent则是一个持续、主动、内置的AI安全专家。它能在设计阶段主动审查文档,确保安全性;在编程过程中扫描代码漏洞,并直接集成到GitHub PR中,为开发者提供即时、可操作的修复建议。 这一Agent还可以将渗透测试自动化,将传统的、昂贵且周期长的渗透测试,转变为可按需启动、快速完成的自动化、持续验证过程。 AWS DevOps Agent则将运维工作自动化,能自动诊断并修复问题。当警报触发时,DevOps Agent会立即自动响应,诊断问题的根本原因,提供修改意见和修改方案,并交由工程师审查和批准。 六、新实例、新存储、新数据库、新加速、管理与治理 加曼最后用10分钟公布了25个新发布。 7款新实例:搭载第五代AMD EPYC处理器的X8i Instances,内存增加超50%;搭载第五代AMD EPYC处理器的X8aedz Instances,计算性能是前一代X2iezn实例的两倍;搭载第五代AMD EPYC处理器的C8a Instances,性能提升30%,性价比提升19%;搭载英特尔至强6的C8ine Instances,实例配置每个vCPU的数据包性能可比上一代C6in实例提升2.5倍;搭载第五代AMD EPYC处理器的M8azn Instances,计算性能是上一代M5zn实例的2倍。 还有两款采用最新苹果硬件的新实例:EC2 M3 Ultra Mac Instances、EC2 M4 Max MacInstances。 面向开发者,亚马逊云科技推出Lambda durable functions(持久函数),开发者可以利用内置的自动恢复功能构建长期运行的工作负载。 存储方面,包括将S3最大对象大小从5TB提高到50TB,增加10倍;亚马逊S3的数据管理功能S3 Batch Operations更新,在200亿个对象的规模下,完成作业的速度提升10倍;为S3 Tables提供智能分层,节省80%存储成本;S3 Tables支持AWS区域和账户间自动复制;扩展Amazon S3接入点,支持Amazon FSx for NetApp ONTAP;用于存储和查询向量的对象存储S3 Vectors全面上市;利用GPU提升向量索引构建效率,速度提升10倍,仅需1/4成本。 计算与加速优化新功能,Amazon EMR Serverless提供Amazon EMR on EKS,允许用户在不预先配置或管理存储的情况下运行大数据工作负载。 Amazon RDS数据库的更新包括:RDS for Oracle和RDS for SQL Server扩展存储容量、RDS for SQL Server的CPU优化选项、对SQL Server开发者版本的支持,以及数据库节省计划。 管理与治理相关的新发布包括:为ECS和EC2新增GuardDuty扩展威胁检测功能、提供近乎实时分析及风险优先级排序功能的Security Hub安全中心、CloudWatch统一数据管理和分析功能。 结语:Agent开发已成加速创新的大势所趋 在主题演讲中,加曼多次强调了Agent的重要性:Agent是企业从AI投资中看到实质性商业回报的地方。而为Agent系统、应用开发构建新的模块,需要性能更强的AI基础设施、推理平台、企业数据、构建和部署Agent的工具。 Agent可自主感知业务需求并依据需求智能适配业务流程、动态调整执行策略,高效匹配业务场景的核心诉求,其已经成为释放AI价值的重要载体。亚马逊云科技在扩展加速计算产品线的同时,亦在不断优化Agent开发和部署工具,推出满足开发者多元化工作负载需求的新平台、新工具。 据加曼回顾,今年第三财季,亚马逊云科技的年化收入已经达到1320亿美元,同比增长超20%。 过去一年,亚马逊云科技增加了3.8GW数据中心容量。如今,亚马逊云科技拥有全球规模最大、部署最广泛的AI云基础设施,全球数据中心网络覆盖38个地区、120个可用性区域,还宣布再增加3个地区。 亚马逊云科技已经与全球顶尖的大模型公司建立合作,在其平台陆续上架全球主流开源模型,下一步的重点,显然已经是如何帮助更多客户将Agent落地到真实业务中,产生更广泛的商业价值。
CounterPoint报告2025Q3全球折叠手机出货量:三星同比增32%
IT之家 12 月 3 日消息,市场研究机构 Counterpoint Research 昨日(12 月 2 日)发布博文,报告称 2025 年第 3 季度全球折叠屏智能手机出货量同比增长 14%,单季出货量创下历史新高,占全球智能手机市场份额的 2.5%。 具体来看,主要得益于三星 Galaxy Z Fold7 的发布以及华为 Mate 系列的持续热销,横向折叠(书本式)机型是本轮增长的主力。 同时,功于三星更新的全球产品线和摩托罗拉 Razr 60 系列的强劲市场表现,纵向折叠(翻盖式)机型的出货量也有所增加。摩托罗拉凭借其有竞争力的定价、强大的渠道合作和良好的产品可用性评价,成为全球可折叠手机市场的亮点之一。 报告预测,2025 全年折叠屏手机市场将保持两位数的同比增长,随着耐用性提升,高端用户愈发青睐大屏设备以提高生产力。市场预计将在 2026 年进入一个更显著的扩张阶段,主要驱动因素包括设备耐用性改善、厚度与重量降低、铰链与面板结构优化,以及由 AI 驱动的软件体验扩展。 IT之家附上 2025 年第 3 季度全球折叠屏智能手机出货量各家品牌变化情况如下: 更重要的是,苹果预计将于 2026 年下半年进入折叠屏市场。该机构认为苹果将凭借其庞大的 iPhone 用户基础,在核心市场加强高端手机的换机周期。苹果的入局将加剧市场竞争,促使现有厂商加速多形态设备的实验,并为下一波折叠屏手机普及浪潮做好准备。 在苹果入局之前,各大厂商正努力展示自身的技术领先地位。三星近期限量推出的首款三折屏设备 Galaxy Z TriFold,便是一次战略性试水。 Counterpoint Research 副总监 Liz Lee 表示,该产品的目标并非追求销量,而是在竞争格局改变前,通过验证其耐用性、铰链结构和软件优化来巩固三星的技术领导地位,并为未来的大规模商业化收集真实用户反馈。
iPhone 17系列大卖:IDC预测苹果2025年手机出货量2.47亿部创新高,同比增6.1%
IT之家 12 月 3 日消息,市场调查机构 IDC 昨日(12 月 2 日)发布最新报告,主要得益于苹果在假日季的加速增长、关键新兴市场的快速发展以及中国市场的企稳等因素,预测 2025 年全球智能手机出货量达到 12.5 亿部,同比增长 1.5%,高于此前 1% 的增长预测。 苹果公司成为推动市场增长的核心力量。IDC 预测,得益于 iPhone 17 系列的巨大成功,苹果 2025 年的出货量将同比增长 6.1%,达到创纪录的 2.47 亿部。 IDC 高级研究总监 Nabila Popal 强调,苹果在中国市场的表现尤为出色,10 月和 11 月市场份额均超过 20%,远超竞争对手。基于此,IDC 预测苹果第四季度在中国的增幅,从 9% 上调至 17%,让中国市场全年预期从下降 1% 转为增长 3%。 然而,IDC 对 2026 年的市场前景持谨慎态度,将增长预期从增长 1.2% 下调为下降 0.9%。IDC 认为,两大因素将导致市场收缩。首先,苹果公司战略性地将其下一代基础款 iPhone 的发布时间从 2026 年秋季推迟到 2027 年初,此举预计将导致 2026 年 iOS 设备出货量下降 4.2%。 其次,全球性的内存(Memory)组件短缺问题将是另一大挑战。IDC 研究总监 Anthony Scarsella 表示,内存短缺将限制供应并推高价格,对价格更敏感的中低端安卓设备影响尤为显著。手机厂商将面临涨价压力,一些厂商可能会被迫提高产品售价,另一些则可能通过调整产品组合、转向利润率更高的型号来吸收成本上涨的影响。 尽管 2026 年手机出货量预计将出现小幅下滑,但市场总价值有望创下新高。由于内存组件短缺导致成本上升,智能手机的平均售价(ASP)预计将上涨至 465 美元(IT之家注:现汇率约合 3292 元人民币)。在更高售价的推动下,2026 年全球智能手机市场的总价值预计将达到创纪录的 5789 亿美元。
时隔12年,索尼更新FE 28-70mm F3.5-5.6 OSS全画幅套机镜头
IT之家 12 月 2 日消息,索尼刚刚发布了 Alpha 7 V 全画幅无反相机,搭载 3300 万像素部分堆栈式 CMOS,最高连拍速度可达 30 张每秒(14bit RAW 状态下),动态范围可达 16 挡,但整场发布会并未带来摄友们期待已久的 16-28mm f/2.0 GM、100-400 f/4.0 GM 旗舰镜头。 虽然整场发布会没有 G 大师新旗舰相伴,但索尼还是悄悄推出了一款 FE 28-70mm F3.5-5.6 OSS II 全画幅变焦镜头,是 FE 28-70mm F3.5-5.6 OSS 的更新型号。 作为参考,一代 28-70 推出于 2014 年,是初代 Alpha 7 的套机镜头,其参数并不算出色,但覆盖了广角和中长焦段,旨在吸引“首次购买 Alpha 系列”的新用户,索尼自此以后就没有更新过这款套机头,它跟随 Alpha 7 系列一起走过 12 年,默默无闻地担任 Alpha 7 II / III / IV 的套机镜头。 回到正文,与第一代 28-70 相比,新的 28-70 二代主要提高了自动对焦精度、支持视频模式的呼吸效应补偿,还可与支持机型配合实现协同式防抖,即机身防抖 + 镜头防抖一起工作,带来更好的防抖效果。 此外,这款镜头可兼容 Alpha 7 V 的 30 张每秒连拍,也可以支持 Alpha 9 III 的 120 张每秒自动对焦 / 自动曝光追踪连拍,其他规格基本上与前代没有区别,不过重量减轻 2 克,变为 293 克,外形尺寸保持不变,自带 ALC-SH132 莲花遮光罩。 该镜头预计将在明年 2 月 13 日发售,市场价格预计在 43000 日元(IT之家注:现汇率约合 1958 元人民币)左右。 IT之家附 FE 28-70mm F3.5-5.6 OSS II 镜头详细参数如下: 焦距:28-70mm 光学结构:8 组 9 片(含 1 枚 ED 镜片、3 枚非球面镜片) 最大光圈:f/3.5-f/5.6 最小光圈:f/22-f/36 光圈叶片:7 枚 最近对焦距离:0.3-0.45m 放大倍率:最大 0.9 倍 滤镜口径:55mm 镀膜:多层镀膜 对焦类型:内对焦 AF 马达:线性马达 防尘防滴溅:支持 尺寸:φ72.5*83 mm
小米发布REDMI电视X 2026 55/65/75寸版 :售价2499元起
站长之家(ChinaZ.com)12月2日 消息:在REDMI K90系列发布会上,除了备受瞩目的手机新品外,REDMI还惊艳亮相了其首款高阶分区Mini LED电视——REDMI电视X2026。当时,该系列电视率先推出了98英寸和85英寸两个超大尺寸版本,售价分别为4799元和7599元,引发了市场的广泛关注。 近日,REDMI进一步丰富了电视X2026系列的产品线,全新推出了55英寸、65英寸和75英寸三个版本,预售价分别为2499元、3879元和4749元,为消费者提供了更多选择。值得一提的是,65英寸和75英寸版本在部分地区还享受国家补贴政策,到手价分别低至3099.2元和3799.2元,性价比极高。 作为入门普及型产品,REDMI电视X2026系列虽然整体分区相对较少,但55英寸、65英寸、75英寸版本分别达到了308、384、512个分区,其控光表现和观影体验已远超普通LED背光电视。Mini LED技术相比传统液晶面板,拥有更加精细的控光能力,使得画面明暗对比度更高,高光不过曝、暗部有细节,能够更大程度地还原画面色彩。同时,与同样色彩出色的OLED电视相比,Mini LED电视还没有烧屏的风险,使用寿命更长。 在画质表现上,REDMI电视X55/65/752026同样不俗。其峰值亮度可达1200nit,动态对比度高达12000000:1,能够呈现出深邃的纯黑和生动的色彩,为用户带来沉浸式的观影体验。此外,该系列电视还原生支持4K144Hz刷新率,并支持VRR可变刷新率技术,电竞模式下刷新率可提升至288Hz,满足游戏玩家的极致需求。 在护眼和画质优化方面,REDMI电视X2026系列也下足了功夫。其配备了自研画质引擎和小米青山护眼技术,实现了20KHz万级超高频调光,频闪几乎不可见,有效保护用户视力。核心配置上,该系列电视搭载了联发科MT9655四核处理器(四颗Arm Cortex-A73核心和Mali-G52MC1GPU),搭配4GB运行内存和64GB存储空间,运行流畅不卡顿。软件方面则预装了小米澎湃OS3系统,为用户带来更加智能、便捷的使用体验。 此外,REDMI电视X2026系列还支持Wi-Fi6和蓝牙5.2技术,并配备了3个HDMI接口(其中2个为HDMI2.1)以及2个USB接口(其中1个为USB3.0),满足用户多样化的连接需求。
消息称英特尔14A制程已获两家客户好评,预计2027年量产节点进展顺利
IT之家 12 月 3 日消息,Moor Insights & Strategy 分析师 Patrick Moorhead 昨日透露,英特尔正在开发的 14A 制程节点已获得两家潜在代工客户的正面反馈。 作为 Intel Foundry 的关键产品,14A 节点目前正与客户协同设计,使客户能够提前评估相关技术能否满足未来产品的性能和能效需求。 Patrick Moorhead 称,他与多位接触过该节点的英特尔客户交流后了解到,这些客户对 14A 的开发进展“非常满意”。 他表示,该节点不仅将在数据中心和 PC 领域具备竞争力,也有望在移动芯片市场发挥作用,这对英特尔而言是重要转变。此外,他期待英特尔发布 14A 的 0.5 版 PDK,以便获取更全面的客户反馈;不过即便尚未公开 PDK,他听到的评价仍相当积极,且 14A 是在 18A 量产经验基础上进一步演进。 英特尔正在以 High-NA EUV(高数值孔径极紫外光刻)攻关 14A,旨在成为首家完成 High-NA 技术跨越的厂商。 在代工领域,客户普遍关注产能分配是否公平、安全保障是否充分等问题。Moorhead 指出,他近期与多位潜在“锚定客户”的 CEO 沟通,几乎所有人都强调必须对晶圆产能分配有充分信心。 英特尔方面的产能规划显示,其采用的 ASML Twinscan EXE:5200B 双工位光刻系统每小时可处理 200 片晶圆,理论上能够满足客户对产能的需求。 英特尔此前披露,其单季已处理逾 3 万片晶圆,并在某些关键层的工艺步骤上从 40 道减少至不足 10 道,使制程周期明显缩短。IT之家后续将保持关注。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。