行业分类:
加载中...
头条分类:
加载中...
性能大幅阉割!英伟达中国特供B30亮相!黄仁勋坦言:获批前景不明
据悉英伟达向美国政府展示专供中国市场的B30芯片,性能为标准版Blackwell GPU的80%——CEO黄仁勋称获批前景仍不明朗。 有报道称,英伟达已向美国政府提交B30芯片的对华出口申请。据《华尔街日报》消息,相关磋商于今年初启动。该芯片的最高性能仅相当于标准版Blackwell GPU的80%。 据了解,Blackwell GPU系列包括B100、B200、B300等型号。文中所指的“标准版Blackwell GPU”应为基础型号B100。也就是说,此次英伟达提交申请的B30芯片,其性能仅为B100的80%。 美国总统特朗普表示,若性能比英伟达最顶级产品低至少30%,他会批准Blackwell芯片对华出口。他在接受记者采访时称:"我可能会达成关于'性能有所削弱'版Blackwell处理器的协议,换句话说就是将其性能降低30%至50%。"相比之下,英伟达HGX H20芯片的性能仅相当于完整版H100芯片的50%左右(尤其是在多GPU配置中)。 美国于四月中旬禁售H20芯片,导致英伟达计提55亿美元减值损失。但三个月后美国政府又签发出口许可证推翻该决定,允许英伟达恢复对华销售芯片,条件是将其在华销售额的15%上缴美国。 但此事发生后不久,中国官方媒体立即发出警告,称H20芯片存在安全风险且技术落后。据称有关部门已劝阻各类机构(尤其是政府单位)使用该芯片。这主要源于两国正在进行的贸易战。这一切据称源于美国商务部长霍华德・卢特尼克带有冒犯性的“依赖成瘾” 言论。 虽然英伟达未正面确认该消息,但这家AI巨头确实正在准备H20的换代产品。CEO黄仁勋向记者透露,公司正就此事与美国政府磋商,但谈判仍处于早期阶段。 白宫是否会批准当前版本的B30芯片对华销售尚属未知。英伟达迫切需要推动此事以维持其在中国市场的领先地位——特别是在中国政府成功推动企业减少对H20芯片依赖之际。
中国算力规模年增速达30%,专家预测2035年AI将贡献GDP超11万亿元
IT之家 8 月 24 日消息,以“算网筑基智引未来”为主题的 2025 中国算力大会昨日开幕。据央视报道,中国算力平台正加快建设,目前已有山西、辽宁、上海、江苏等 10 个省区市的算力分平台正式接入。 据介绍,中国算力平台汇聚了不同地域、不同行业的算力资源,构建算力调度“一张网”,同时可以对算力设施和数据进行全面采集和动态监测,精准掌握各地算力发展情况。 IT之家注意到,工业和信息化部印发的《算力互联互通行动计划》提出,到 2026 年,建立完备的算力互联互通标准、标识和规则体系;到 2028 年,基本实现全国公共算力标准化互联,形成具备智能感知、实时发现、随需获取能力的算力互联网。 数据显示,近年来,我国算力总规模年增速达到 30% 左右。在人工智能的快速发展带动下,智能算力需求呈现迅猛增长态势。中国电信研究院发布的《智算产业发展研究报告(2025)》显示,随着人工智能大模型加速赋能行业应用和智能终端,将进一步助力智能算力产业蓬勃发展。 中国电信研究院战略发展研究所所长饶少阳表示,到 2035 年,人工智能将为我国的 GDP 贡献超过 11 万亿,大概占到 GDP 的 4% 到 5%。这个可能带动算力的需求是十倍,甚至百倍增长。 工业和信息化部负责人表示,将引导各地合理布局智能算力设施,逐步提高智能算力供给质量,满足新兴产业和未来产业发展需要。目前,智能算力已经广泛应用于生成式大模型、自动驾驶、具身智能、智慧城市和工业制造等领域。通过算力应用大赛累计征集的创新算力项目已经超过 2.3 万个,在工业、金融、医疗、能源等领域实现了规模化复制推广。预计 2025 年,我国智能算力规模增长将超过 40%。
原因找到了!AMD官方回应AM5插槽烧坏:主板厂商未遵循官方BIOS指南
快科技8月24日消息,AMD对主要影响华擎主板的最新AM5烧坏故障问题做出了官方回应。 据TH报道,AMD终于对近期困扰部分第三方AM5 主板厂商(包括华擎)的插槽烧毁问题做出了回应。Quasarzone与AMD的David McAfee和Travis Kirsch进行了问答环节,他们解释了这些烧毁问题背后的原因。 AMD方面表示,烧毁问题的根本原因是某些ODM BIOS不符合AMD的推荐值。AMD进一步澄清称,该问题十分复杂,正在与合作伙伴密切合作解决。AMD还建议用户将主板BIOS更新至最新版本。 AMD称,一些主板供应商通过修改主板UEFI (BIOS) 中的电压、功率限制和其他调整变量,使AMD CPU的性能超出其默认规格。Intel的一些主板合作伙伴也采取了同样的措施。 今年早些时候,Reddit上出现了大量锐龙7 9800X3D故障报告,其中大多数来自使用华擎主板的用户。 华擎版主专门为此问题创建了一个Reddit超级讨论帖,试图找出问题的根本原因。其中一些故障非常严重,导致插槽“烧坏”,甚至造成物理损坏。 随后,华擎很快介入此事,并多次尝试修复烧毁/故障问题。最初,华擎将问题归咎于内存兼容性问题,并尝试通过BIOS更新来解决。然而,这并没有完全解决问题。华擎最近一次更新是在5月下旬,当时华擎确认其当时最新的 BIOS版本3.25修改了大量PBO设置,以纠正烧毁问题。 到目前为止,此更新似乎已经解决了大多数用户的问题,自华擎3.25 BIOS 更新上线以来,问题的严重性已显著降低。 然而,一些Reddit用户表示华擎AM5主板烧毁问题仍然存在。
华为鸿蒙HarmonyOS 4.X系统全新小艺获12.2.6.402众测升级
IT之家 8 月 24 日消息,华为鸿蒙 HarmonyOS 4.X 系统版本的全新小艺智能助手已开启 12.2.6.402 版本众测升级。据介绍,搭载了大模型能力的智慧助手小艺能够完成更复杂的任务,众测期间可体验文案辅助创作能力、资讯快速摘要和对话式问答能力等。优化点如下: 新增桌面小艺 App 图标,点击进入 App 首页 首页改版,支持展示对话列表查看智能体对话 新增发现页,支持展示和搜索智能体及小艺技能 支持更多音色选择,完善播报控制能力 据用户反馈,全新小艺的众测版本提供“对话”和“发现”两大功能,带来了和鸿蒙 HarmonyOS NEXT 5.0 / 5.1 系统版本相同的 UI 设计和功能模块,支持使用智能体和小艺技能等功能。 其中智能体提供 DeepSeek-R1、高情商回复、讯飞小医等;小艺技能支持电池健康、同声传译、拍图识物等;而对话页支持用户与小艺、小艺照相馆、文档搭子、健康顾问 Dr.杨等智能体直接进行对话。 IT之家注:小艺是华为自主研发的智慧助手应用,支持简化日常任务管理,可提供知识问答、设备操控、个性化推荐等功能。亮点功能包括:知识问答、识屏对话、智能体、图片拖喂、小艺圈选、小艺帮写、小艺记忆、小艺声音修复等。目前小艺智能助手已支持网页版、手机 /平板 App 端使用。
谷歌大脑之父首次坦白!茶水间闲聊引爆万亿帝国,AI自我突破触及门槛
新智元报道 编辑:KingHZ 桃子 【新智元导读】刚刚,AI界传奇Jeff Dean深度访谈重磅放出!作为谷歌大脑奠基人、TensorFlow与TPU背后的关键推手,他亲述了这场神经网络革命的非凡历程。 刚刚,「现代互联网架构之父」Jeff Dean的最新对谈流出。 这位AI领域的传奇,是Google Brain的奠基者,也是推动神经网络走向规模化的关键人物。 从让神经网络「看懂猫」的重大突破,到TensorFlow与TPU的诞生,他的故事几乎是一部AI发展史。 在最新一期「登月播客」(The Moonshot podcast)深度访谈中,Jeff Dean回顾了个人成长经历、Google Brain的早期故事,以及他对AI未来的思考。 节目中,他揭秘了他本人所知的一些细节和趣事: · 小时候,Jeff Dean打印了400页源码自学。 · 90年代,他提出「数据并行/模型并行」概念时,还没这些术语。 · Google Brain的最初灵感,竟然是在谷歌的微型茶水间与吴恩达的一次闲聊中诞生。 · 「平均猫」图像的诞生,被Jeff比作「在大脑里找到了触发祖母记忆的神经元」。 · 他把AI模型比作「苏格拉底式伙伴」,能陪伴推理、辩论,而不是单向工具。 · 对未来的隐喻:「一亿老师,一个学生」,人类不断教AI模型,所有人都能受益。 超级工程师,早已看好神经网络 Jeff是工程超级英雄口中的「工程超级英雄」,很少有人像Jeff Dean这样的单个工程师,赢得人们如此多的仰慕。 主持人的第一个问题是:Jeff Dean是如何成为工程师的? Jeff Dean认为他有一个不同寻常的童年。因为经常搬家,在12年里他换了11所学校。 在很小的时候,他喜欢用乐高积木搭建东西,每次搬家总要带上他的乐高套装。 当九岁的时候,他住在夏威夷。 Jeff的父亲是一名医生,但他总是对计算机如何用于改善公共卫生感兴趣。当时如果想用计算机,他只能去健康部门地下室的机房,把需求交给所谓的「主机大神」,然后等他们帮你实现,速度非常慢。 在杂志上,Jeff的爸爸看到一则广告,买下了DIY计算机套件。那是一台Intel 8080的早期机型(大概比Apple II还要早一两年)。 最初,这台电脑就是一个闪烁灯和开关的盒子,后来他们给它加了键盘,可以一次输入多个比特。再后来,他们安装了一个BASIC解释器。Jeff Dean买了一本《101个BASIC语言小游戏》的书,可以把程序一行一行敲进去,然后玩,还能自己修改。 这就是他第一次接触编程。 后来,Jeff一家搬到明尼苏达州。全州的中学和高中都能接入同一个计算机系统,上面有聊天室,还有交互式冒险游戏。 这就像「互联网的前身」,比互联网普及早了15~20年。 当时,Jeff大概13、14岁,他在玩儿的一款多人在线的游戏源码开源了。 Jeff偷偷用了一台激光打印机,把400页源代码全都打印了出来,想把这款多人主机游戏移植到UCSD Pascal系统上。 这个过程让他学到了很多关于并发编程的知识。 这是Jeff Dean第一次编写出并不简单的软件。 大概是91年,人工智能第一次抓住了Jeff Dean想象力。 具体而言,是使用lisp代码进行遗传编程。 而在明尼苏达大学本科的最后一年,Jeff Dean第一次真正接触了人工智能。 当时,他上了一门并行与分布式编程课,其中讲到神经网络,因为它们本质上非常适合并行计算。 那是1990年,当时神经网络刚好有一波热潮。它们能解决一些传统方法搞不定的小问题。 当时「三层神经网络」就算是「深度」了,而现在有上百层。 他尝试用并行的方法来训练更大的神经网络,把32个处理器连在一起。但后来发现,需要的算力是100万倍,32个远远不够。 论文链接:https://drive.google.com/file/d/1I1fs4sczbCaACzA9XwxR3DiuXVtqmejL/view 虽然实验规模有限,但这就是他和神经网络的第一次深度接触,让他觉得这条路很对。 即便到了90年代末,神经网络在AI领域已经完全「过时」了。之后,很多人放弃了「神经网络」研究。 但Jeff Dean并没有完全放弃。当时整个AI领域都转移了关注点,他就去尝试别的事情了。 毕业后,他加入了Digital Equipment Corporation在Palo Alto的研究实验室。 数字设备公司Digital Equipment Corporation,简称DEC,商标迪吉多Digital,是成立于1957年的一家美国电脑公司,发明了PDP系列迷你计算机、Alpha微处理器,后于1998年被康柏电脑收购 后来,他加入谷歌,多次在不同领域「从头再来」: 搜索与信息检索系统、大规模存储系统(Bigtable、Spanner)、机器学习医疗应用,最后才进入Google Brain。 谷歌大脑秘辛:一次茶水间闲聊 在职业生涯里,Jeff Dean最特别的一点是:一次又一次地「从零开始」。 这种做法激励了很多工程师,证明了「影响力」不等于「手下的人数」,而是推动事情发生的能力。 就像把雪球推到山坡上,让它滚得足够快、足够大,然后再去找下一个雪球。Jeff Dean喜欢这种方式。 然后在Spanner项目逐渐稳定后,他开始寻找下一个挑战,遇到了吴恩达。 在谷歌的茶水间偶然碰面,吴恩达告诉Jeff Dean:「在语音和视觉上,斯坦福的学生用神经网络得到了很有前景的结果。」 Jeff一听就来了兴趣,说:「我喜欢神经网络,我们来训练超大规模的吧。」 这就是Google Brain的开端,他们想看看是否能够真正扩大神经网络,因为使用GPU训练神经网络,已经取得良好的结果。 Jeff Dean决定建立分布式神经网络训练系统,从而训练非常大的网络。最后,谷歌使用了2000台计算机,16000个核心,然后说看看到底能训练什么。 渐渐地,越来越多的人开始参与这个项目。 谷歌在视觉任务训练了大型无监督模型,为语音训练了大量的监督模型,与搜索和广告等谷歌部门合作做了很多事情。 最终,有了数百个团队使用基于早期框架的神经网络。 纽约时报报道了这一成就,刊登了那只猫的照片,有点像谷歌大脑的「啊哈时刻」。 因为他们使用的是无监督算法。 他们把特定神经元真正兴奋的东西平均起来,创造最有吸引力的输入模式。这就是创造这只猫形象的经过,称之为「平均猫」。 在Imagenet数据集,谷歌微调了这个无监督模型,在Imagenet 20000个类别上获得了60%的相对错误率降低(relative error rate reduction)。 同时,他们使用监督训练模型,在800台机器上训练五天,基本上降低了语音系统30%的错误率。这一改进相当于过去20年的语音研究的全部进展。 因此,谷歌决定用神经网络进行早期声学建模。这也是谷歌定制机器学习硬件TPU的起源。 注意力机制三部曲 之后不久,谷歌大脑团队取得了更大的突破,就是注意力机制(attention)。 Jeff Dean认为有三个突破。 第一个是在理解语言方面,词或短语的分布式表示(distributed representation)。 这样不像用字符「New York City」来表示纽约市,取而代之的是高维空间中的向量。 纽约市倾向于出现的固有含义和上下文,所以可能会有一个一千维的向量来表示它,另一个一千维的向量来表示番茄(Tomato)。 而实现的算法非常简单,叫做word2vec(词向量),基本上可以基于试图预测附近的词是什么来训练这些向量。 论文链接:https://arxiv.org/abs/1301.3781 接下来,Oriol Vinyals, Ilya Sutskever和Quoc Le开发了一个叫做序列到序列(sequence to sequence)的模型,它使用LSTM(长短期记忆网络)。 论文链接:https://arxiv.org/abs/1409.3215 LSTM有点像是一个以向量作为状态的东西,然后它处理一堆词或标记(tokens),每次它稍微更新它的状态。所以它可以沿着一个序列扫描,并在一个基于向量的表示中记住它看到的所有东西。 它是系统运行基础上的短期记忆。 结果证明这是建模机器翻译的一个非常好的方法。 最后,才是注意力机制,由Noam Shazeer等八人在Transformer中提出的注意力机制。 这个机制的想法是,与其试图在每个单词处更新单个向量,不如记住所有的向量。 所以,注意力机制是这篇非常开创性的论文的名字,他们在其中开发了这种基于transformer的注意力机制,这个机制在序列长度上是n平方的,但产生了惊人的结果。 LLM突破触及门槛,自动化闭环颠覆人类 一直以来,LLM神经网络运作机制很难被人理解,成为一个无法破译的「黑箱」。 而如今,随着参数规模越来越庞大,人们无法像理解代码一样去理解LLM。 研究人员更像是在做「神经科学」研究:观察数字大脑的运作方式,然后试着推理背后的机制。 人类理解模型的想法,未来会怎么发展? Jeff Dean对此表示,研究这一领域的人,把它称之为「可解释性」。所谓可解释性,就是能不能搞清楚LLM到底在做什么,以及它为什么会这么做? 这确实有点像「神经科学」,但相较于研究人类神经元,LLM毕竟是数字化产物,相对来说探测比较容易。 很多时候,人们会尝试做一些直观的可视化,比如展示一个70层模型里,第17层在某个输入下的情况。 这当然有用,但它还是一种比较静态的视角。 他认为,可解释性未来可能的发展一个方向——如果人类想知道LLM为何做了某种决定,直接问它,然后模型会给出回答。 主持人表示,自己也不喜欢AGI术语,若是不提及这一概念,在某个时候,计算机会比人类取得更快的突破。 未来,我们需要更多的技术突破,还是只需要几年的时间和几十倍的算力? Jeff Dean表示,自己避开AGI不谈的原因,是因为许多人对它的定义完全不同,并且问题的难度相差数万亿倍。 就比如,LLM在大多数任务上,要比普通人的表现更强。 要知道,当前在非物理任务上,它们已经达到了这个水平,因为大多数人并不擅长,自己以前从未做过的随机任务。在某些任务中,LLM还未达到人类专家的水平。 不过,他坚定地表示,「在某些特定领域,LLM自我突破已经触及门槛」。 前提是,它能够形成一个完全自动化闭环——自动生成想法、进行测试、获取反馈以验证想法的有效性,并且能庞大的解决方案空间中进行探索。 Jeff Dean还特别提到,强化学习算法和大规模计算搜索,已证明在这种环境中极其有效。 在众多科学、工程等领域,自动化搜索与计算能力必将加速发展进程。 这对于未来5年、10年,甚至15-20年内,人类能力的提升至关重要。 未来五年规划 当问及未来五年个人规划时,Jeff Dean称,自己会多花些时间去思考,打造出更加强大、更具成本效益的模型,最终部署后服务数十亿人。 众所周知,谷歌DeepMind目前最强大的模型——Gemini 2.5 Pro,在计算成本上非常高昂,他希望建造一个更优的系统。 Jeff Dean透露,自己正在酝酿一些新的想法,可能会成功,也可能不会成功,但朝着某个方向努力总会有奇妙之处。
DeepSeek V3到V3.1,如何走向算力自由
从魔改PTX到使用 UE8M0 FP8 Scale 的参数精度,DeepSeek先榨取英伟达GPU算力,再适配国产芯片,可能会在软硬件协同方面带来新的突破,进一步提高训练效率,最多可以减少 75% 的内存使用,从而在实际应用中减少对进口先进GPU芯片的依赖。 DeepSeek 正在与下一代国产GPU芯片厂商一起,走向算力自主又迈进一步。正是这样一种令人激动的前景,激活了科技色彩愈发浓厚的中国资本市场。 V3.1,迈向Agent时代 DeepSeek 发布了 V3.1,而不是广受期待的V4或者R2,连R1也消失了。DeepSeek变成了一个混合推理架构,即一个模型同时支持思考模式和非思考模式。这是一个趋势,在V3.1发布一周之前,GPT-5发布了,是一个”统一的系统”,包括一个对话模型,一个思考模型,和一个实时路由用来决定如何结合对话与思考。 这次升级提高了DeepSeek的思考效率,即答对同样的问题,消耗更少的token,花费更短的时间。这既是经济上的考虑,也产品和用户体验上的考虑,避免了过度思考,让回答也更简洁一些。 V3.1展示出更强的 Agent 能力,通过后训练的优化,新模型在工具使用与智能体任务中的表现有较大提升。 V3.1的基础模型在V3的基础上重新做了外扩训练,增加训练了840B token。它的上下文长度,思考模式和非思考模式均达到了128k。性能提升,价格下降,再次秀出它所擅长的的性价比创新。 这次升级让DeepSeek在最近中国AI企业的开源热潮中夺回领先优势,但不仅仅是想用来做科研和展示,而是要在企业服务能力上向国际前沿AI企业看齐。 DeepSeek的API Beta 接口支持了strict模式的Function Calling,以确保输出的Function 满足schema 定义。这其实是大模型API在工程化能力上的一个重要升级。OpenAI、Anthropic、Mistral 等都在逐步推出 strict function calling,向企业级生产环境对齐。Strict模式提升了V3.1的工程可靠性和企业易用性,更容易在企业服务中替代GPT/Claude。 同样的思路,DeepSeek增加了对Anthropic API格式的支持,“让大家可以轻松将 DeepSeek-V3.1 的能力接入 Claude Code 框架。”目的是为了让使用Claude Code的用户,更容易切换到DeepSeek。这样可以直接渗透Anthropic已经打开的企业市场。最近Anthropic的企业服务收入,已经超过了OpenAI。 这次升级,对于DeepSeek来说的里程碑意义,是迈向Agent时代的第一步。 对中国的AI芯片生态,也具有里程碑意义。 深度求索的深水炸弹 DeepSeek在中文官微刻意强调、而在其英文X账号上没有提及的是,V3.1使用了 UE8M0 FP8 Scale 的参数精度。它还在留言处置顶: 这年头,越是低调话少让人有点看不懂,信息量越大。 在Hugginface 的模型卡中,DeepSeek又放出了一点信息:DeepSeek-V3.1 使用 UE8M0 FP8 缩放数据格式进行训练,以确保与微缩放数据格式兼容。 简单解释下,FP8=8-bit floating point(8位浮点数),是一种超低精度表示方式。可以显著减少显存/带宽需求,大幅提升推理和训练效率,但需要精心设计缩放(scaling)来避免数值不稳定。 UE8M0是FP8的一种数字表示格式。U表示没有符号,E8表示8位指数,M0表示没有尾数。相比之下,英伟达在 H100、Blackwell GPU 上提供硬件级 FP8 支持,主推E4M3/E5M2格式,也是大多数模型采取的英伟达官方FP8格式。 所谓“微缩放数据格式”(Microscaling data format),即业界的Microscaling FP8 (MXFP8)标准。英伟达Blackwell GPU支持MXFP8。而V3.1训练所用的数值体系与MXFP8兼容,模型在推理/部署时,可以直接在任何支持MXFP8 + UE8M0 的硬件(包括英伟达Blackwell、未来的国产GPU)上跑,不需要额外转换,能降低内存流量、提升矩阵乘法吞吐。 对比一下E4M3/E5M2,UE8M0是一个变体,全指数,无尾数,能覆盖极宽的动态范围,是一种低算力环境下的工程优化。单就UE8M0而言,因为没有尾数,也没有精度,只用来存scale。高精度在内部计算中使用,过程是这样的:输入FP8,存储时用scale调整,计算时自动转换FP16/BF16/FP32,做乘加运算,输出时再量化回FP8存储,保证了训练、推理的稳定性。 V3.1在训练中使用UE8M0 FP8,并且兼容MXFP8,通过软件定义与更多芯片适配,能让超低精度训练/推理在在中国自研芯片上更容易实现。 目前和即将采用FP8精度的国产GPU芯片,有寒武纪、沐曦、燧原、昇腾等,还有更多主动适配DeepSeek的芯片厂商。 英伟达的低精度之路 值得一提的是,英伟达多年来一直用低精度数字表示法提升推理和训练效率。例如在所谓的“黄氏定律”中,过去十年GPU实现的千倍效能提升,新的数字格式起到了最重要的作用。 英伟达的首席科学家戴利(Bill Dally),曾经把数字表示概括为GPU算力”黄氏定律“的精髓。 在P100之前,英伟达的GPU使用单精度浮点数表示这些权重。根据IEEE 754标准,这些数字长度为32位,其中23是尾数位,8是指数位,还有一位是符号位。 但是,机器学习研究人员很快就发现,在许多计算中,其数字可以不必有那么高的精度,而神经网络仍然可以给出准确的答案。这样做的明显优势在于,执行机器学习的关键计算(乘法和累加)的逻辑可以更快、更小、更高效地完成。如果需要,就处理更少的位数(如戴利所解释的,乘法所需的能量与位数的平方成正比)。因此,使用FP16,英伟达将该数字减少了一半。Google甚至推出了自己的版本,称为Bfloat16。(两者的区别在于分数位的相对数量,这影响精度;以及指数位的相对数量,这影响范围。Bfloat16与FP32具有相同数量的范围位,因此更容易在这两种格式之间切换。) 到了H100这一代,可以使用8位数字执行大规模transformer神经网络的某些部分,例如ChatGPT和其他大型语言模型。然而,英伟达发现这并不是一种大小适合所有情况的解决方案。例如,英伟达的Hopper GPU架构实际上使用两种不同的FP8格式进行计算,一种具有更高的精度,另一种具有更大的范围。英伟达的窍门,在于知道何时使用哪种格式。 英伟达对超低精度的一项研究 加州理工教授、英伟达前研究员Anima Anandkumar指出,V3.1在训练中使用的UE8M0 FP8 scale数据格式,实际上是一种对数数值系统(LNS),来自她当年参与的一个研究项目。 英伟达和加州理工的研究人员,在2021年时曾经发表过一篇论文《LNS-Madam:在对数数值系统中采用乘法式权重更新的低精度训练》(LNS-Madam: Low-Precision Training in Logarithmic Number System using Multiplicative Weight Update),探讨如何以低精度表示深度神经网络(DNN),实现高效加速并减少内存占用。 如果直接用低精度权重进行训练,会因低精度数值系统与学习算法之间的复杂交互而导致精度下降。为了解决这一问题,研究人员设计了对数数值系统(Logarithmic Number System, LNS)和乘法式权重更新算法(Madam)。他们证明了 LNS-Madam 在权重更新过程中能保持较低的量化误差,即使在精度受限的情况下也能获得稳定性能。他们还进一步提出了一种 LNS-Madam 的硬件设计,解决了实现高效 LNS 计算数据通路中的实际挑战,有效降低了由 LNS-整数转换和部分和累加(partial sum acculmlation) 带来的能耗开销。 实验结果表明,在计算机视觉和自然语言等主流任务中,LNS-Madam 仅使用 8 位精度就能实现与全精度相当的准确率。与FP32和FP8相比,LNS-Madam能分别降低超过90% 和 55%的能耗。 DeepSeek的超低精度创新 UE8M0实际上等价于 LNS 的一个极简实现,因此可以说UE8M0是LNS的一种特化(只保留log值的整数部分,没有小数精度),所以Anandkumar教授才会把UE8M0缩放数据格式称作一种LNS。 如果说LNS-Madam 一种学术探索,是重新设计数学体系+算法,是硬件和算法一体化的设计思路,UE8M0+FP8是一种在现有浮点体系上结合缩放的工程技巧。二者低精度训练的目标一致,但路线完全不同。 UE8M0并不是用来直接存权重,而是用来存缩放因子(scale factor),帮助其它 FP8(E4M3/E5M2)稳定表示数据,让 FP8能够覆盖更广的数据分布,从而在硬件上更高效。 追求算力自由 回顾一下DeepSeek两个阶段的突破点。 首先是先榨干现有硬件的潜力。DeepSeek V3直接修改英伟达GPU的虚拟机指令集架构 PTX,绕过英伟达编译器的保守策略,手工调度寄存器、warp、访存和Tensor Core指令。把GPU算力利用率提升到极限,降低硬件受限下的训练/推理成本。在DeepSeek手中,A100/A800等英伟达 GPU上的现有算力都得到最大化利用。 第二阶段降低算力的物理需求。DeepSeek V3.1引入UE8M0 FP8格式,让中国国产 AI 芯片(带宽/算力较弱)也能高效运行大模型。采用更紧凑的低精度浮点格式,大幅压缩内存/带宽占用,减少计算负担,可以期待下一代国产GPU芯片能进行前沿大模型训练推理。 DeepSeek在工程实践中走出了一条算力自主之路:先榨取英伟达,再适配国产芯片,最终走向算力自主。长期来看,DeepSeek将沿着软硬件协同优化的路线,构建一个 “算力无关”的模型生态。 中国还需要H20/B30吗 由于技术与安全等原因,已经传出英伟达停止生产H20的消息。目前依然存在悬念的,是黄仁勋是否向中国提供B30。 回顾一下,英伟达定制H20 / B30给中国市场,因为美国出口管制禁止向中国出售H100/H200/B100/B200等高端GPU。黄仁勋的策略,是推出缩水版芯片,为中国定制了H20(基于 Hopper)和B30(基于 Blackwell),在算力、互联、带宽上降低配置,但仍保持 CUDA 生态兼容,以保住中国市场,避免中国厂商快速完全转向国产芯片。同时遵守美国出口管制。 即使DeepSeek魔改PTX,一时造成了英伟达股价暴跌,也并没有影响黄仁勋的策略,老黄反而一直想见梁文锋。因为它心里明白,也公开表达过,以中国的人才,尤其是软件人才,实现AI芯片与模型生态的自主闭环,只是时间问题。 没想到的是UE8M0+ 超低精度的冲击,以如此低调的方式释放。它意味着中国厂商对于H20/B30的需求,正在发生微妙的变化。如果国产下一代GPU芯片近期推出,而且支持UE8M0+FP8 跑通大模型,英伟达的缩水卡在中国市场上的竞争力下降。一旦国产芯片生态完善,CUDA 生态的锁定效应会逐渐削弱。 中国市场还需不需要B30?有一种业内观点认为,短期依然需要,因为国产GPU产能、软件生态还在追赶。大部分企业,尤其是互联网大厂和科研机构等,仍依赖CUDA工具链和现成框架。H20/B30在推理与训练上仍然比国产芯片更稳健。也许B30本身的相对先进性,即弱于最先进的GPU、但仍强于国产GPU,才能决定它能否得到中美两国有关部门的接受。 随着国产芯片+超低精度训练将逐渐跑通并规模化部署,中长期来看对于B30们的需求会明显下降。国产AI软件栈(昇腾CANN、寒武纪 Neuware、壁仞 BIRENSUPA)逐步成熟,逐渐减少对 CUDA 的依赖。成本敏感的中国企业会更倾向国产方案,同时避免美国找麻烦。 英伟达的优势何在 UE8M0+FP8,好像是DeepSeek接过了英伟达近十年来的低精度数字表示技术的大旗,结合中国的实际进行工程创新,它将加快中国下一代芯片的推出,加快以国产芯片解决中国大规模训练和推理的需求,从而形成中国AI芯片与模型的技术路线。 使用UE8M0 FP8 Scale的参数精度,适配国产下一代芯片,兼容MXFP8,并不意味着英伟达失去了优势主导地位,因为 G200 不只是 FP8,还带来更大带宽、更强互联(NVLink 5)、更大显存。软件生态(CUDA、PyTorch 插件)也牢牢绑定 FP8,迁移到 UE8M0 需要额外工程适配。大部分国际大厂(OpenAI、Anthropic、Meta)还是会首选 G200 来追求极致性能。“黄氏定律”已经推进至FP4精度,英伟达还曾亲自下场发布了优化版的DeepSeek-R1-FP4,内存需求大幅降低,基准测试成绩几乎不变。 如果 UE8M0+FP8 在社区和国产硬件上普及,低成本训练路径会弱化英伟达的必选性。这对中国厂商尤其重要,即使没有 G200,也能在国产 GPU 上稳定训练大模型,形成去英伟达化的路线。
Pixel 10 被藏起来的这个功能,会告诉你照片有没有被 AI 碰过
表达 还是真实 世界上最聪明的手机 Google Pixel,这次要连 P 图的活都帮你干了。 刚刚全新发布的 Pixel 10 系列手机,不仅能用 AI 手把手帮你拍照或者增强你拍的远距离照片,还支持全新的 AI 修图工具:只要动动嘴皮子,告诉 Gemini 你想要什么样的图,AI 就能自动帮你 P 好了。 AI 摄影,大势所趋? 第一次听说这个功能,爱范儿编辑部的几位摄影大神都觉得可有可无,毕竟对他们来说,各种后期处理软件已经驾驭得炉火纯青,想要什么效果都能手动微调实现,不用跟 AI 斗智斗勇。 但对于更多的小白用户来说,面对一张看着丑丑的照片,很多时候甚至不知道问题出在哪里,更无从谈起如何调整。 还有一些出现镜头炫光或者「死亡顶光」的照片,用传统的修图软件要救起来非常困难,要保证整个画面色调亮度的和谐一致,会涉及非常复杂而精细的操作,对很多人来说都束手无策。 但现在,你只要告诉 Gemini 你想修复一下照片的光线,只需要等待一小段时间,就能获得一张非常自然的优化图片。 图源:修复灯光和构图 甚至想要移除一些背景的杂物,或者给天空增添一下云彩,或者一句概括而抽象的「修复这张老照片」,Gemini 都能理解。 让 AI 助手帮忙修图这件事情本身,其实并不少见:一些国产厂商的 AI 语音助手其实也能根据用户的指令对图片进行调整;虽然没落地,苹果去年也演示过让 AI Siri 修图。 其实这和 Gemini 这个修图功能本质上不太一样。这些 AI 助手更多只能理解非常单一的功能指令,例如「美颜」或者「提亮」,有一些能力更强的可以实现消除路人或者风格化。 而 Gemini 的能力,其实是利用自家模型的文生图能力,根据用户给出的 prompt,在原图的基础上进行重新绘制。 这种玩法其实也不算新鲜,用豆包、ChatGPT 对图片进行精修美颜的讨论,在社交平台上并不少见,爱范儿也推出过一期豆包修图的评测和教程,其实本质上和 Pixel 10 的 AI 指令修图一样。 最大的优势,自然是这个功能是集成在 Pixel 10 自带的默认照片应用之中,拍摄完不需要在不同的应用之间穿梭,整个流程非常方便。 指令:去除塑料袋,图源:MKBHD 由于 AI 修图更多还是依赖云端大模型进行生图,因此可以说是一个非常值得推广的一种 AI 应用,国内厂商完全可以和豆包等大模型合作,将指令修图这样的功能集成在系统本地。 而作为世界上唯一一个又有自研芯片和手机,又有顶级大模型的企业,Google 能给 Pixel 带来的功能自然不仅于此。 全新的 Tensor G5 芯片,更换台积电代工带来的性能提升,也让 Gemini Nano 模型在本地运行的效率大幅提升,让 Google 能够直接将 AI 做进相机,同时成片依然保持极高的速度。 这为 Pixel 10 相机带来了一个杀手级摄影功能:增强的 100 倍变焦功能 Pro Res Zoom。 100 倍变焦拍摄的照片,左:AI 优化前;右:AI 优化后,图源:CNET 一般的相机镜头,用原生分辨率的 100 倍拍摄的照片可以说是「满屏马赛克」,模糊得几乎不可用。 而 Pixel 10 Pro 可以在拍摄后本地 AI 算出那些传感器缺失的细节,生成一张相对清晰的照片,只需要 4-5 秒。 但目前来看,Pixel 10 的一些 AI 影像功能更多是「为 AI 而 AI」,对用户来说价值有限。 比如全新的「Camera Coach(相机教练)」功能,利用端侧 AI 实时迅速地分析取景框,快速提供几种成片效果的备选项,然后再用一步步详细的步骤,教你怎么拍出这些构图更专业的照片。 而隔壁华为类似的「AI 辅助构图」功能,用户只需要对准取景器的点位,手机就直接自动变焦完成构图,这种能直接出结果的能力,更接近我们期待的人工智能。 表达和真实的边界 从拍摄构图,到实际成像,再到后期编辑,AI 已经充斥了 Pixel 手机影像的每个角落,对于照片真实性的讨论和争辩,也成为了我们不能忽视的问题。 相比于去年因为能随意魔改普通照片而引发巨大争议的 Pixel Studio,今年 Pixel 10 的 AI 影像功能,明显放缓了脚步,功能更多是基于出片的增强,削弱了用户能自由发挥的空间。 并且,Google 还为 Google Photo 相册应用引进了「C2PA」的内容凭证,以后每一张 Pixel 10 拍摄的照片,都能在详细信息中看到这个照片是由什么拍摄,是否经过 AI 编辑。 图源:The Verge Pixel 相机产品经理 Isaac Reynolds 认为,C2PA 这种一旦打上就不容易被修改掉的标识,比传统的水印要更有作用。Google 认为这种标记方式正在逐步推荐,但目前还处于一种「教育期」。 这又诞生了一个问题:什么样的照片,才算「经过 AI 编辑」? 像是往马路照片上添一把火、往饭菜照片里面放一只蟑螂,当然是属于「经过 AI 编辑」,这或许也是 Google 添加 C2PA 的一个主要原因:避免人们被这些真实性极高的 AI 改图欺骗,也是对去年 Pixel 9 争议的回应。 关于 AI 编辑照片的边界,其实去年苹果高管 Craig Federighi 表达过其中的纠结:苹果原本将照片视作可以信赖的现实指标,而不是「幻象」,因此原本不想推出 AI 编辑功能。 但由于用户的需求非常强烈,苹果愿意迈出一小步,让用户可以清理照片中一些无关紧要的细节。 并且被 AI 编辑过的照片,也同样会被标记「已使用清理功能修改」,也能随时回退。 那今年 Pixel 10 的 100 倍变焦,属于 AI 编辑吗? 长久以来,手机摄影离不开算法,用来增强手机对被拍摄对象的识别,改善画面的细节,而 Pro Res Zoom 本质上就是这套流程的进一步发展,达到画面放大 100 倍也可用的程度。 以往一些影像手机主打的「拍月亮」,也很大程度依靠算法进行细节的补全,甚至被网友戏称「画月亮」。 国内现在主打「望远」的超长焦,来到 30 倍变焦之后,其实也极大地依赖还原画面的细节,本质上和 Pro Res Zoom 差不多。 而这样的流程,在 Google 的眼中已经属于 AI 编辑的范畴,在 C2PA 中进行了相应的标注。 不仅如此,不少厂商都在做的「多帧合成」影像技术,在 Google 眼中同样属于「AI 编辑」。 这带来了一个问题,原本在我们眼中属于「原片直出」的手机摄影,本质上背后都有大量的计算过程,如何界定哪些属于「AI 编辑」,其实目前还没有一个具体的标准。 毕竟,一张只是用 AI 增强画质的照片,和一张 AI 往里面放了个蟑螂的照片,两者在真实性上有不小的差距。 当这个标准真正实现全网普及,社交平台也能显示相关信息之后,拍摄和分享这个事情,不免得会变味。 很多时候,我们拍摄以及发布的照片,更多是一种记忆以及情感的保留和分享,表达远多于真实。 而 C2PA 则用一种非常客观的方式,提供你的表达和情绪是如何被虚构出来的,还会将其进行公开。 这好比发一张精修的美照到小红书,结果点开右上角的标注,都显示这张图被「精修过」,是不是一下子就打消了你发图的热情? 其实 C2PA 这个认证,最早出现在一个和 AI 没太多关系的设备——徕卡 M11-P 相机上。 用这款相机拍下的每一张照片,都包含详细的安全添加名称、日期、变更和工具等信息,让人们了解文件来源。 对于这样一款专门为纪实摄影而生的相机来说,C2PA 的存在就非常合理,它能成为新闻真实的证据,也能保护影像创作者的数字版权。 而在人人都有摄像头和发声渠道的当下,个人表达和照片真实之间的边界逐渐模糊。随手记录的生活照,也有可能酝酿一个全民热议的社会议题。 AI 能美化我们拍摄的记忆,也让表达更自由,但它同时稀释了影像的真实感。 如何在「表达」与「真实」之间找到平衡,是整个行业以及社会无法回避的问题。
荣耀Magic V Flip折叠屏手机获MagicOS 9.0.0.187升级
IT之家 8 月 24 日消息,荣耀 Magic V Flip 折叠屏手机近日获 MagicOS 9.0.0.187 版本升级,本次更新新增清理建议、AI 通话等功能,采取分批方式进行推送。 IT之家附主要内容: 相机 新增“白色全框”、“黑色全框”、“胶片边框”等多种水印资源 图库 新增智能抠图,支持图片主体抠图移位及背景修改 新增清理建议功能,支持重复照片、相似图片、超大视频等自动识别,提供更便捷的清理建议 通信 新增 AI 通话功能,不方便接听电话时,支持 AI 自动接听、打字回复,并自动生成 AI 通话纪要(仅内屏支持,外屏后续版本支持) AI 帮写 新增 AI 帮写功能,在文字输入时唤醒 AI 帮写,即刻体验文案创作、摘要总结、润色改写、篇幅调整、文本翻译功能 “收藏空间”升级为“YOYO 记忆” 通过 YOYO 对话、三指下滑、应用内收藏同步等多种方式帮您快捷记录信息,YOYO 对话可随时快速查找(文本语义化模型需更新到最新版本,升级路径:设置 > 系统和更新 > 软件更新 > 右上角菜单 > 系统资源) 任意门 指关节圈选开门新增文字复制功能 智慧多窗 支持更多应用横幅通知下滑进入悬浮窗 截屏 滚动截屏过程中支持手动调整截屏范围 显示 休眠时间新增 30 分钟和 1 小时选项 锁屏 新增锁屏显示步数开关,支持关闭锁屏界面步数显示 铃声 在线铃声新增显性标签分类 输入法 新增键盘抬高功能,抬高区支持“快捷切换键盘”和“语音输入”功能 桌面 新增 AI 翻译应用图标,使用更便捷 热点 个人热点自动关闭新增“从不”选项,支持个人热点永不关闭 蓝牙 已连接的蓝牙音频设备新增展示蓝牙音频编码 安全补丁 合入安卓 2025 年 8 月安全补丁,增强系统安全性
苹果大招连放三年:轻薄、折叠屏与四曲面 iPhone 排队发布
连续挤了好几年的牙膏,原来是在憋大招:苹果将连续三年对 iPhone 进行大改动,这一切将在下个月的「科技春晚」iPhone 17 发布会上拉开序幕。 连续挤了好几年牙膏的苹果,原来是在憋大招:根据彭博社报道,苹果将连续三年对 iPhone 进行大改动,这一切将在下个月的「科技春晚」iPhone 17 发布会上拉开序幕。 全新型号 iPhone 17 Air\x26nbsp;机身厚度仅有 5.5 毫米,外观和手感都将不同以往。但为了轻薄,它的电池容量可能不足 3000mAh,仅保留单摄,并在大部分市场取消 SIM 卡槽,搭载的苹果自研 C1 基带,性能逊于高通。 2026 年,苹果将推出首款 折叠屏 iPhone。外屏约 5.5 英寸,展开后为 7.8 英寸,内外屏各有前置镜头,后置双摄,总计四摄。它将搭载更强的 C2 基带,同样取消 SIM 卡槽,并改用 Touch ID 指纹解锁。屏幕也升级为 In-cell 技术,折痕更轻,触控更精确。 还有消息称,苹果改进了折叠 iPhone 的屏幕技术,从 On-cell 触摸屏升级到现在 iPhone 采用的 In-Cell 触摸屏,后者折痕更不明显,并且触摸精度更高。 在 iPhone 发布二十周年的 2027 年,苹果准备了一台「全玻璃 iPhone」:采用「四曲面屏」设计,弧形玻璃触控屏将覆盖手机边框,改变沿用了五年的直边设计,预计将和 iOS 新的「液态玻璃」设计语言更契合。 相比这些「大动作」,即将发布的 iPhone 17 与 17 Pro (Max) 变化有限:前者或配备高刷新率屏幕,后者则采用更巨大的长方形相机模组。 除了 iPhone,苹果也将在未来三年带来更多样的产品:带屏幕的 HomePod、更轻便的 Vision 头显、智能眼镜、桌面机器人、大折叠电脑等等。 至于 AI 战略,苹果不仅与 OpenAI、Anthropic 洽谈合作,也在与 Google 商讨 Gemini 的定制版本,为 Siri 提供支持。苹果正认真考虑借助外部力量提升 AI 能力。 在外观和形态趋同的当下,iPhone 已难以激发换机欲望,而对仍依赖 iPhone 业务的苹果来说,这三款全新形态的 iPhone 不仅要提振销量,也要探索未来智能交互的可能性。 你觉得这些新 iPhone 怎么样?欢迎在评论区告诉爱范儿。
Meta被起诉:被指控使用盗版成人影片训练AI大模型
IT之家 8 月 24 日消息,近日,两家成人影片制作公司 ——Strike 3 Holdings 和 Counterlife Media,对科技巨头 Meta 提起诉讼,指控 Meta 自 2018 年以来“故意且有意”地侵犯了至少 2396 部受版权保护的影片,这些影片被用于训练其人工智能模型。 根据周五在加利福尼亚州提交的诉状,两家制作公司正在寻求巨额赔偿,总计可能达到 3.59 亿美元(IT之家注:现汇率约合 25.76 亿元人民币)。据 TorrentFreak 报道,Strike 3 是美国最活跃的版权诉讼方,该公司主要针对通过 BitTorrent 盗版分享电影的个人用户。BitTorrent 是一种从互联网下载和分享文件的方式,而此次对 Meta 的诉讼也围绕未经授权的 BitTorrent 使用展开。 诉状指出,Meta 明知故犯地从盗版来源获取这些影片,目的是获取内容来训练其 Meta Movie Gen、大型语言模型(LLaMA)以及其他依赖视频训练内容的 Meta 人工智能模型。这两家公司还指责 Meta 试图利用 BitTorrent 传输的“互惠算法”来获利,该算法通过奖励用户分享内容,使其下载速度更快。 诉状中提到:“Meta 故意选择传播原告的电影,以便利用更快的下载速度,从而更快地侵犯其他内容。”此外,诉状还声称 Meta“明确知晓这一问题,而后续的调查可能会显示,这正是 Meta 选择持续传播这些公司内容的原因,而不是仅仅购买订阅或修改其 BitTorrent 客户端以仅用于下载。” 这两家成人影片公司是在 Meta 的 BitTorrent 使用习惯被曝光后才发现所谓的版权侵犯行为的。此前,多位作者曾起诉 Meta,指责其未经授权使用他们的版权作品。在那起案件中,Meta 承认了其从盗版来源获取内容的事实。 截至目前,Meta 尚未对此次诉讼发表评论。
B站要变成AI站
作者|李楠 互联网平台都在跟AI结合,B站没有成为例外。从新一季度财报来看,B站的AI味儿也越来越浓了。 8月21日,B站公布第二季度业绩,总营收达73.4亿元人民币,同比增长20%。其中,游戏业务收入为16.1亿元,同比增长60%,广告业务收入为24.5亿元,同比增长20%。由此推动B站毛利率从去年同期的29.9%提升至36.5%,调整后净利润达到5.6亿元,创下历史最好成绩。 从整体来看,B站生态集聚的好内容和用户黏性,依然是支撑它发展最牢固的基石。尤其是二次元经济的兴起,让这个从二次元起家的网络社区,踏上新的风口。 而从新的技术浪潮来看,AI有希望构建B站未来的增长曲线。其中,由AI辅助的中长视频创作、动漫视频生成以及虚拟UP主情感陪伴,都是引人遐想的新看点。 1 更黏人的B站,开始稳定赚钱了 B站对用户的吸引力变更强了。 从数据来看,第二季度,B站日活跃用户同比增长7%,达到1.09亿,为历史新高。用户平均每日使用时长增至105分钟,相比去年同期多了6分钟。同时,B站月活跃用户增长8%,达到3.63亿。月付费用户增长9%,达到3100万。 在短视频大行其道的时代,这番成绩印证了好的长视频依然是消费刚需。而B站占据的生态位依然有自己独一份的价值,给长期商业化打下基础。去年第四季度,B站首次实现实现单季度全面盈利。这次财报再次同比扭亏,“赚钱”开始成为B站的稳定叙事。 B站不同类别内容增长情况。图源:B站 增值服务是B站营收拼图中最大的一块。第二季度,相关营收为28.4亿元,同比增长11%。而这主要由直播及其他增值服务推动。其中,充电计划保持了快速增长。整个上半年,UP主通过充电获得的总收入同比增长超100%。 广告是B站第二大收入来源。这方面的收入为24.5亿元,同比增长20%。对比来看,据QuestMobile报告,中国互联网广告市场上半年同比增长幅度为5.6%,B站大幅跑赢了市场大盘。 一来,B站聚集的年轻群体消费能力不断变强,给它吸引到更多广告主。再者,B站通过对广告基础设施进行强化等措施,比如利用多模态大模型显著提高广告投放效率,也给它吸引到更多投放。 B站营收结构。图源:B站 游戏是B站增长最快的板块,第二季度营收同比增长60%,达到16亿元。《三国:谋定天下》是主要功臣。据B站方面介绍,公司正在开发新的游戏赛季,试点小游戏,并准备在今年晚些时候推出这款游戏的国际版本。此外,B站还有多款ACG游戏和休闲游戏正在审批过程中。 ACG也就是常说的二次元(A即动画,C即漫画,G即游戏),这方面值得单独一提。 二次元经济正在不断升温。据艾媒咨询数据,2024年中国泛二次元及周边市场规模已经逼近6000亿元。而今年以来,各种漫展层出不穷,“谷子”商品持续热销,《哪吒之魔童闹海》《浪浪山小妖怪》等动画电影的票房爆发,都体现出二次元经济的魅力。 作为二次元粉丝大本营的B站,显然会因此受益。就在上个月,B站举办了线下二次元展会Bilibili World,总计有超过40万人次参与,并且有11%的门票是由外国护照购买。而在财报后的电话会议上,B站董事长陈睿提到《黑神话:钟馗》的首支游戏PV选择在B站首发,不到两天时间拿到超过1200万播放量,也说明了B站在二次元行业的影响力。 不过可惜的是,B站对二次元生意的把控有所不足。第二季度,它的IP衍生品及其他业务的收入同比减少了15%。有投资者感慨,“要是B站能继续把手办之类的IP衍生品做好,最好是做成泡泡玛特2.0,那就更好了。” 1 搞AI,搞只有B站能搞的AI 对二次元经济的开发,会是B站今后业绩的潜在看点。同时,AI正成为支撑B站发展的新驱动力。 最明显的是用AI带动广告业务。从这次财报来看,除了用大模型提升广告投放效率,B站约30%的广告封面是使用AIGC工具创建。同时B站表示,会持续改进和迭代推荐算法,来实现更深层次的内容理解,和基于用户兴趣的更精准广告投放。 不过用AI做广告是互联网平台的常规动作,更有意思的,是另外两个方向。一个是帮UP做中长视频,另一个是做动漫和虚拟陪伴。它们更体现了B站的生态特色。 用AI进行文生视频或图生视频已经成为潮流,可惜大部分创作都是几十秒的短视频。这种创作可以作为更大作品的素材,本身并没多少观赏价值。虽然也有一些AI工具能够做出较长的视频,但如B站董事长陈睿所说,还是太“AI味儿”了。 这时,B站的内容优势显露出来。 一种较有共识的观点认为,在AI大大提升人们的内容创作能力后,品味会越来越重要。有好的品味才能有好的作品。而B站集中了最有才华的视频创作群体,在整体的内容品味上高出同行一筹。于是用陈睿的话来说,B站上有很多99分的视频样例,如果用这些99分的样例来训练AI,那么做出来的视频就不会是AI味儿了。 UP主投稿大量AI动画视频 换言之,B站要用AI辅助创作更接近UP主品味或风格的中长视频,提升UP主创作效率。据透露,眼下他们已经取得了一些进展,有机会在近期展示出来。 把AI用来辅助动漫创作以及生成虚拟UP主,也是很B站的一件事。 视频生成模型快速演进,不过主流模型大多偏向于生成写实风格的真人视频,还原逼真的物理世界。而动画世界与现实世界并不相同,往往依赖于非真实感元素、夸张的表情和非真实的动作。这就需要更专业的模型工具来应对。与二次元深度融合的B站此时出手,拿出了自研模型Index-AniSora。 顾名思义,这是一个动画版的Sora,基于大量高质量动画数据训练,专为生成动漫视频而来。据官方介绍,AniSora支持一键生成多种动漫风格的视频镜头,包括番剧片段、国创动画、漫画改编、VTuber 内容、动画 PV,甚至是鬼畜视频。 从技术角度看,AniSora项目主要做了三件事。首先是开发了一套全面的视频处理系统,显著增强了动画视频生成的预处理能力;其次是提出了一个统一框架,用于带有时空掩模模块的动画视频生成,支持图像到视频生成、帧插值和局部图像引导动画等任务;此外,这一项目还首次发布了专门用于评估动画视频生成的基准数据集和评估指标。 概括来说,其效果就是让普通人能生成风格更统一、画质更稳定,也更符合大家对“动漫”认知的动画视频。 AniSora案例演示。原图为静态图片 虚拟UP主同样是充满想象力的一个领域。人们对情绪价值的索取日益加深,推动AI陪伴市场快速膨胀。根据腾讯研究院的数据,到2027年,国内AI陪伴市场可能会有千亿规模。就B站而言,财报电话会议透露,实现虚拟UP主情感陪伴的项目也已经在内部小规模内测,“效果不错”。 实际上,作为二次元浓度最高的社区,B站本就是最适配虚拟UP主的一个平台。毕竟二次元粉丝迷恋纸片人,而虚拟UP主跟纸片人有相似之处。进一步来看,B站的社区调性也决定了它适合钻研虚拟UP主相关的AI技术,不久前推出的IndexTTS2模型,就很适合用在虚拟UP主身上。 IndexTTS2是一个零样本语音合成系统,能够将情感表达与说话人身份进行有效解耦,实现音色与情感的独立控制,同时具备基于文本描述的情感控制能力,可以精准调节合成语音的情绪色彩。由此带来的好处是,IndexTTS2让虚拟UP主的声音听起来更自然、真切,蕴含饱满的喜怒哀乐。而这一能力,正是虚拟UP主生态走向繁荣所必需的。 自动播放 IndexTTS2在翻译场景的热门演示片段 虽然B站在AI方面没有大把砸钱去做通用型的AI产品,但它的AI路线也已经很清楚,AI带来的广告机会和效率提升,它要抓,而那些只有它能做的模型和应用功能,它也充满野心。B站正在全力让自己变成AI站。
史上最强麒麟CPU来了!华为Mate 80系列首发 麒麟9030性能有望提升20%
快科技8月24日消息,今年下半年重磅新机云集,包括小米16系列、iPhone 17系列等等。其中,华为Mate 80系列自然是关注度最高的旗舰机之一。 据huaweicentral报道,华为已为Mate 80系列的发布做好了准备,除了新功能外,新机预计还将搭载史上最强大的麒麟处理器。 早先,wccftech报道称, 华为新一代旗舰机Mate 80预计将于第四季度上市。届时,新机有望搭载全新的麒麟9030处理器(命名暂未确认),传闻称其性能将提升20%。 据报道,新一代麒麟处理器可能会采用全新架构,此外Mate 80系列将采用一些创新功能,例如全新的散热系统,以确保在任何情况下都能保持最佳性能,同时减少发热,从而延长内部组件的使用寿命。 目前,华为Pura 80系列依然搭载麒麟9020处理器,与去年Mate 70系列保持一致。 余承东在发布会介绍时候表示,Pura 80系列对比搭载麒麟9010的Pura 70 Pro+整机性能提升了36%、操控流畅度提升了47%。 检测信息显示,麒麟9020 CPU部分由1×泰山大核2.5GHz+3×泰山中核2.15GHz+4×1.6GHz小核组成,8核心12线程,集成Maleoon 920 840MHz GPU。 目前,华为所有麒麟系列处理器采用的最好工艺仍为7nm,5nm突破依然在路上。 所以,麒麟9030大概率依然会延续7nm工艺,在麒麟9020的基础上“核心架构改进,工艺制程延续”,小步快跑。 早在去年11月,就有爆料称,华为已经实现了芯片关键技术突破,未来麒麟芯片将按照K9020/9030/9040,如此规律迭代。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。