行业分类:
加载中...
头条分类:
加载中...
AI助长“幽灵学生”骗局,美国社区大学遭遇助学金诈骗潮
IT之家 6 月 11 日消息,据美联社今日报道,随着人工智能技术的迅速普及以及在线课程的广泛应用,美国高等教育体系正面临一场的金融诈骗危机。最新数据显示,2024 年加州各高校共收到约 120 万份涉嫌造假的申请,最终确认的虚假注册达 22.3 万起,损失助学金超过 1110 万美元(IT之家注:现汇率约合 7978.3 万元人民币)。 犯罪团伙通过部署 AI 聊天机器人批量注册“幽灵学生”,混入线上课堂骗取联邦、州及地方财政发放的助学金。这些机器人通常在课程中短暂停留,等待资金到账后即“消失”,部分高校甚至出现一整个班级几乎没有真实学生的现象。 旧金山居民海瑟・布雷迪即为受害者之一。她在毫不知情的情况下,名下被人冒用申请贷款超过 9000 美元,并注册于加州某社区学院。与此同时,还有受害者发现自己的身份被用于冒领补助金,作业由机器人代写,连真实姓名都被仿冒使用。 为遏制诈骗,美国教育部上周五宣布,自今年暑期起,首次申请联邦学生资助者需出示政府签发的身份证明,预计将影响约 12.5 万名申请人。教育部并称,已着手开发更完善的身份筛查机制,以应对即将到来的秋季申请高峰。 尽管如此,业内担忧监管能力仍不足以应对愈加智能化的欺诈行为。美国政府近月来持续压缩联邦教育经费,今年 3 月已裁撤联邦学生资助办公室逾 300 人,负责反欺诈调查的监察署亦因人手流失减少超过 20%。 专家指出,社区大学由于学费较低,学生所获助学金比例较高,易成犯罪目标。此外,网课特性为机器人操作提供便利,不法分子几乎无需露面便可完成整个流程。 联邦调查人员近期披露,多起学生资助诈骗案遍及得克萨斯州、纽约及南部各州,涉案金额从数十万美元至上百万美元不等。受害者常需耗时数月申诉,有人甚至在多年后方能成功抹除债务记录。
1000亿天价,扎克伯格买下“半个天才”和Meta AI的未来
「21 世纪最贵的是什么?人才!」 多年前葛优在《天下无贼》里台词的含金量,还在不断提升。 当地时间 6 月 10 日,媒体曝光 Meta 将以 149 亿美元(折合人民币约 1066 亿元)的价格收购 Scale AI 49% 的股权,而后者的联合创始人 Alexandr Wang,将成为 Meta 新成立的「超级智能小组」的掌门。 按照股权比推算,此次交易 Wang 和团队有可能获得 74 亿美元,堪称是硅谷成本最高的「挖角」——要知道,谷歌在 2014 年收购 DeepMind 团队不过 6 亿美元。 扎克伯格在内部信中写道:「我们将共同构建 AI 的未来。」在 Llama 4 模型折戟、AI 团队人员不断流失的现实下, Meta 此次大举押注 Scale AI,图的是什么?有了 Scale AI 和 Alexandr Wang,Meta 能在接下来的 AI 大战中,重新找到自己的位置吗 ? 01 最贵的「摇摆人」 作为 AI 时代硅谷蹿升最快的公司,Scale AI 的估值一直以火箭速度蹿升,短短 5 年时间就膨胀至 138 亿美元。然而,此次 Meta 收购前者 49% 的股权,就需要付出 149 亿美元的成本。 49% 显然是为了反垄断审查考虑,但 Meta 和扎克伯格想要的,是联合创始人之一 Alexandr Wang 这个人——这位 19 岁创业的天才将成为 Meta 新成立的超级智能实验室的负责人,带领 Meta AI 进入新时代。 有意思的是,说 Meta 彻底买下 Wang 并不确切,因为 Wang 将继续担任 Scale AI 的 CEO 一职,代表 Wang 和 Scale AI 还将继续保持「独立」 ,这可能也是历史上成本最高的「脚踏两只船」,而 Scale AI 如果保持增长势头,Wang 则可能成为硅谷身家增长最快的创业者,没有之一。 扎克伯格如此急不可耐地、以 Meta 以罕见的金额出手押注 Scale AI 和 Wang,体现出的是他因 Meta 在 AI 竞赛中逐渐掉队的焦虑。 尽管 Meta 在 2024 年推出了参数规模达 1.8 万亿的 Llama 4 Behemoth,但其在多模态理解、长文本推理等关键指标上仍落后 GPT-4.5 约 12%。更尴尬的是,Llama 训练数据的质量问题被曝光:业内估算约 30% 的语料来自低质量社交媒体内容,导致模型频繁输出错误信息。 刚刚成立 2 年后的 Scale AI 团队,最左侧为 Wang 本人|图片来源:Scale AI 「 我们缺的不是算力,是干净的数据和顶尖工程人才 。」一位 Meta AI 研究员匿名吐槽。这解释了为何扎克伯格要砸重金请来 Wang——一个以数据标注技术闻名的「基建狂魔」。 作为估值最高的数据标注公司,Scale AI 的蹿红不是没有道理。根据报道,Scale AI 的护城河在于其将原始数据转化为 AI 可用燃料的能力: 军事级标注精度:通过混合人类标注员+AI 质检的「双保险」,其数据错误率仅 0.3%,而行业平均为 5%(公司自述)。 多模态数据垄断:拥有全球最大的视频动作标注库(含 1.2 亿条人体动作数据)和跨语言文本数据集(覆盖 217 种语言)。 而事实上,花 149 亿美元巨资买下「半个」Scale AI 和 Wang 本人,Meta 的野心不仅仅在于 AI 大模型本身。 02 转型 AI 基建,弥补 B 端短板 数据、算力和模型,是大模型领域的三要素,Meta 作为社交巨头,在数据和算力上有着天然优势,不过在「数据」上需要打个引号,因为 Meta 的数据量虽然大,但如果质量不行,对于 AI 模型训练作用不大。 「 你们看到的每个 GPT 回复,背后都有我们标注的 500 个数据点 。」Wang 的这句话,解释了 Meta 的焦虑。当 OpenAI 用 Scale AI 的数据训练出更聪明的模型时,Meta 却困在自家社交数据的孤岛里。收购 Scale AI,等于直接接管了竞争对手的「弹药库」。 Scale AI 手握全球 35% 的 AI 训练数据流量,服务着从五角大楼到 OpenAI 的顶级客户。Meta 研究院的工程师私下吐槽:「我们用 Llama 3 训练时,30% 算力浪费在清洗垃圾数据上,而 Scale AI 的标注精度能达到 99.7%。」 有了 Scale AI 精准的数据清洗和标注,业内估计 Meta 将训练数据污染率从 15% 降至 2%,下一代 Llama 5 的训练周期缩短 40%。知情人士透露,正在测试的「Llama 5 Behemoth」参数规模达 3 万亿,专门用于攻克 AGI。 同时,Scale AI 的标注系统已深度适配 Meta 定制 AI 芯片架构,形成「数据标注-模型训练-硬件优化」闭环,有可能使 Llama 模型推理成本降低至 GPT-4o 的 1/3。 可以说,引入 Scale AI 后,Meta 的 Llama 模型从训练质量、效率和成本上都将获得大幅优化。 事实上,Scale 的接入,甚至可能重塑 Meta 在 AI 竞争中的整个战略。相比于 Google 和微软,缺少云计算平台的 Meta 一直只能在 C 端撒野。而有了 Scale 的能力, Meta 计划通过 AWS/Azure 等云平台对外提供 Scale AI 数据服务,构建类似微软「Copilot+OpenAI」的生态闭环,将竞争对手转化为客户 。 如果说数据是新时代的石油,那么 Meta 通过购买 Scale AI 这家份额最大的「数据精炼厂」,已经掌握了大半个 AI 基建体系。 Meta 在 AI 竞争中逐渐掉队|图片来源:Meta 当然,OpenAI、Anthropic 等竞争对手到底会不会买账目前仍未可知,虽然 Meta 仅仅买下半个 Scale AI(和半个 Wang),但显然已经足够让前者警惕 Scale AI 的中立地位,所以 openAI 也在加紧和 Scale AI 的竞争对手 Handshake 合作。 不过,鉴于 Scale AI 在数据标注方面的压倒性优势,OpenAI 等公司要想马上和 Scale AI 断联,也不太现实。至少在短期内,AI 巨头们依然需要 Scale AI 的服务。 即便 Scale AI 之前的客户们逐渐减少下单,Meta 和 Scale AI 已经谋划新的收入来源——政府和国防客户。根据报道,Scale AI 合作,已经获得来自美军方超过 2 亿美元的政府订单。同时,Scale AI 本身也在向国防定制等垂直领域的 AI 应用层扩展,而 Meta 的企业级销售能力和背书,无疑会对 Scale AI 未来的发展提供足够动力。 业内人士传言,Meta 和 Scale AI 的巨额交易还有一个隐藏对赌:若 Scale AI 未来三年收入增速低于 80%,Meta 有权以折扣价收购剩余股份 ——这代表 Wang 不仅要「让 Meta AI 再次伟大」,同时自己的 Scale AI 在收入上也要继续高速增长。而 B 端业务显然会成为双方的新增速来源。 对于 Meta 团队,Wang 即便作为「脚踏两只船」的超级智能实验室负责人加入,也能产生极强的「鲶鱼效应」。在硅谷 AI 界,Meta 向来以学术氛围浓厚著称,Llama 的开源和普惠正是其学术思考的结果。但 Wang 极力推崇的「数据思维」无疑将对 Meta 现有的 AI 团队产生冲击和改变。 根据媒体报道,Wang 刚刚加入 Meta,反手就砍掉三个学术项目,推动团队向更「现实」的方向转型。 如果不考虑反垄断的阻挠,此次 Meta 对于 Scale AI 和 Wang 本人的巨额押注,可能重塑 Meta 在激烈的 AI 竞争中的角色和发展方向,不仅让 Meta 快速缩短和竞争对手在模型领域的差距,更能使这个社交巨头,完成从应用到 AI 基建角色的转变。 这场豪赌的本质,是 Meta 试图用资本力量重写 AI 竞争规则。正如硅谷分析师 Sarah Guo 所言:「当所有人都在造车时,Meta 买下了整条高速公路——不管车上坐的是谁,都得交过路费。」
猜猜都是哪 黄仁勋宣布英伟达正在建立7个人工智能技术中心
快科技6月11日消息,据媒体报道,近日,英伟达CEO黄仁勋在巴黎VivaTech大会上发表现场主题演讲,主题为“人工智能计算的下一阶段——从智能体系统到AI工厂”。 在演讲中,英伟达CEO黄仁勋称,正在建设七个人工智能技术中心,计划在欧洲建造20多个超大型人工智能工厂。 根据以往媒体公开信息,此前,英伟达CEO黄仁勋陆续透露了多个全球人工智能中心的建设计划,涉及多个国家和地区。 以下是目前可能确认的布局动向: 一、沙特阿拉伯 合作内容:向沙特主权财富基金旗下AI公司Humain提供1.8万颗Blackwell顶级芯片,用于建设总计500兆瓦的数据中心,并计划未来五年内扩展至1.9千兆瓦规模。 二、中国台湾省 布局重点:在台北市北投士林科技园区设立新总部“NVIDIA Constellation”,并与台积电、富士康合作建设AI超算中心,以Blackwell架构芯片为核心打造全球算力网络。 三、美国 英伟达联合台积电在亚利桑那州凤凰城设厂生产Blackwell芯片,并与富士康、纬创在得克萨斯州建设“超级计算机”工厂,目标4年内建成价值5000亿美元的AI基础设施。 四、英国 黄仁勋在伦敦科技周宣布参与英国AI基础设施建设,他指出英国算力基础设施不足,需投入10亿英镑提升。 五、欧洲大陆(法国、德国、比利时(商谈中)) 在巴黎VivaTech科技博览会上宣布开源物理引擎Newton,并与欧洲多国政府商谈AI超算中心建设,德国已计划引入大规模GPU集群。 六、中国上海(研发中心) 英伟达计划在上海设立研发中心,优化符合美国出口管制的产品体系,同时接触本土AI人才。 七、阿联酋 芯片出口协议:正与特朗普政府协商出口超100万颗高端芯片,远超拜登时期限制,支持其建设区域AI中心。 通过以上对外公布的报道信息,黄仁勋提出的“AI工厂”概念正在全球落地,这一布局也是对全球AI算力爆炸性需求回应。 责任编辑:秋白
黄仁勋巴黎演讲:AI的下一波浪潮是机器人,数据中心将成为“AI工厂”
凤凰网科技讯(作者/于雷)6月11日,英伟达创始人兼CEO黄仁勋今日现身法国巴黎VivaTech大会,发表了GTC主题演讲。他系统阐述了AI技术正从根本上重塑计算与工业的未来,并明确指出,一个由“AI工厂”驱动的全新工业革命已经到来。 黄仁勋在演讲中指出,传统的数据中心正在向“AI工厂”转变。他认为,未来的数据中心不再仅仅是存储文件和数据的仓库,而是能够产生智能、创造价值的生产设施。这些AI工厂的核心任务是生产“智能通证(intelligent tokens)”,就像发电厂产生电力一样,为各行各业提供动力,开启一场新的工业革命。 为支撑AI工厂的庞大算力需求,黄仁勋详细介绍了英伟达的新一代架构Blackwell。他将GB200系统形容为一台专为思考而生的“思维机器”,其设计初衷就是为了应对AI模型日益增长的“推理”需求。该系统通过全新的NVLink技术实现内部连接,其背板带宽高达惊人的130TB每秒,超过了全球互联网的峰值流量。黄仁勋指出,正是这种架构上的巨大飞跃,使得AI的思考速度和处理能力得以实现数十倍的代际性能提升。 黄仁勋对AI下一阶段的重点智能体AI(Agentic AI)做出预判 。他认为,AI已经超越了识别信息和生成内容的阶段,正迈向一个能够理解任务、进行推理、规划并执行复杂任务的全新浪潮,这种能力的物理化身便是机器人。 现场,他通过一个名为“Greg”的机器人展示了这一概念,这个机器人在Omniverse构建的数字孪生虚拟世界中学会行走和与环境互动后,才被部署到物理世界。宝马、奔驰、丰田等众多企业已开始利用Omniverse构建其工厂或产品的数字孪生体。 除了AI,黄仁勋还宣布英伟达在量子计算领域取得了关键进展,他认为该领域正迎来一个“拐点”。英伟达的策略并非独立发展量子计算机,而是将量子处理器(QPU)与GPU连接起来,利用GPU强大的计算能力进行预处理和纠错等密集型计算任务。他宣布,英伟达的整个cuQuantum量子计算算法堆栈,现已能在Grace Blackwell上加速运行。 作为在欧洲的重磅活动,黄仁勋特别强调了与欧洲伙伴的深度合作。他宣布将与法国AI公司Mistral合作建立一个庞大的AI云,并与施耐德电气等公司合作,以数字化的方式设计和运营未来的AI工厂。 他透露,英伟达正在七个不同的国家建立AI技术中心,以推动当地的生态系统建设和合作研发。黄仁勋总结道,一个全新的计算时代已经开启,而英伟达正通过提供从芯片、软件到系统和AI模型的全栈平台,赋能全球的开发者和企业抓住这次机遇。
豆包1.6来了!深度推理测评超DeepSeek-R1,视频模型超Veo3
作者 | 王涵 编辑 | 漠影 智东西6月11日报道,今日,在FORCE原动力大会上,火山引擎推出豆包大模型1.6、豆包·视频生成模型Seedance 1.0 pro、豆包·语音播客模型,还升级了Agent开发平台等AI云原生服务。 豆包大模型1.6系列包含三个模型,分别为doubao-seed-1.6、1.6-thinking以及1.6-flash,其中1.6-thinking在推理能力和指令执行测评中超越DeepSeek-R1-0528。 在价格方面,豆包1.6变为按“输入长度”区间定价,深度思考、多模态能力与基础语言模型统一价格。在企业使用量最大的0-32K输入区间,豆包1.6的输入价格为0.8元/百万tokens、输出8元/百万tokens,综合成本只有豆包1.5深度思考模型或DeepSeek R1的1/3。 豆包·视频生成模型Seedance 1.0 pro首次在评测榜单Artificial Analysis的文生视频、图生视频两项任务上均排名首位,超越Veo3、可灵2.0等多模态模型。 并且,Seedance 1.0 pro模型每千tokens仅0.015元,每生成一条5秒的1080P视频只需3.67元,相当于1万元预算可以制作2700多条5秒的1080P视频,被火山引擎称为“业界最低”。 此外,火山引擎AI云原生全栈服务升级,推出了火山引擎MCP服务、PromptPilot智能提示工具、AI知识管理系统、veRL强化学习框架等面向 Agent 开发和应用的工具产品,并推出多模态数据湖、AICC私密计算、大模型应用防火墙,以及一系列AI Infra套件。 火山引擎最新数据显示,豆包大模型日均tokens使用量超过16.4万亿,较去年5月首次发布时增长137倍。另据知名行研机构IDC报告,豆包大模型在中国公有云大模型市场份额排名第一,占比高达46.4%。 一、豆包大模型1.6推理测评超DeepSeek-R1,使用成本降至1/3 据悉,豆包大模型1.6系列包含三个模型,分别为doubao-seed-1.6、1.6-thinking以及1.6-flash,并且这三个模型都支持256K上下文。doubao-seed-1.6是All-in-One的综合模型,深度思考、多模态理解、图形界面操作等多项能力。用户可以选择开启或关闭深度思考、自适应思考三种方式,其中自适应思考模式可根据提示词难度自动决定是否开启思考,提升效果的同时大幅减少tokens消耗。 doubao-seed-1.6-thinking是豆包大模型1.6系列在深度思考方面的强化版本,在代码、数学、逻辑推理等基础能力上有进一步提升。doubao-seed-1.6-flash是豆包大模型1.6系列的极速版本,支持深度思考和多模态理解。比较有特点的是,flash的延迟极低,TOPT仅需10毫秒,火山引擎称其视觉理解能力比肩友商旗舰模型。 智东西从现场了解到,豆包大模型1.6-thinking在推理能力、多模态理解能力、GUI操作能力上较1.5 pro有一定提升,其在GPQA Diamond(推理能力)和Multichallenge(指令执行)榜单上超越DeepSeek-R1-0528,与OpenAI-03-high的差距也在逐步缩小。 1.6系列模型支持多模态理解和图形界面操作,能够理解和处理真实世界问题,该能力支持了豆包APP最新的实时视频通话功能,在企业端可广泛应用于电商商品审核、自动驾驶标注、安全巡检等场景。 豆包1.6的图形界面(GUI)操作能力可以帮助用户完成一系列“智能体”类的跨平台操作能力。演示案例显示,豆包1.6可自动操作浏览器完成酒店预定,识别购物小票并整理成Excel表格等任务。 豆包大模型1.6在推理速度、准确度与稳定性上也有明显提升。豆包大模型1.6具有边想边搜、DeepResearch深度研究能力,能独立思考、规划、使用搜索等各种研究工具,可以在5-30分钟内生成一份调研报告。 据悉,目前豆包大模型已涵盖多模态、视频、图像、语音、音乐等模型品类。在行业应用上,豆包大模型已与全球TOP10手机厂商中的9家、8成主流汽车品牌、70%的系统重要性银行及超5成985高校等达成合作。 为方便企业使用,火山引擎还推出大模型应用实验室,并开源了手机助手、实时视频理解、DeepSearch等应用,帮助企业快速搭建AI应用原型,编排专属智能体。用户可在火山引擎官网大模型应用实验室、GitHub方舟开源站点下载使用。 二、Seedance 1.0多视频生成能力登顶,播客大模型可一句话生成脚本 豆包视频生成模型Seedance 1.0 pro也在原动力大会上亮相。该模型具备三大特性:无缝多镜头叙事、多动作及随心运镜、稳定运动与真实美感。Seedance支持文字与图片输入,可生成多镜头无缝切换的1080P高品质视频,主体运动稳定性与画面自然度较高。 在评测榜单Artificial Analysis上,Seedance在文生视频、图生视频两项任务上均排名首位,超越Veo3、可灵2.0等多模态模型。 原动力大会上还宣布,豆包·实时语音模型全量上线火山方舟,对企业客户开放使用。该模型支持自然语言高级指令控制,具备唱歌表演、声线模仿、方言演绎等多种能力,在语气、用语、思考方式等方面更加拟人。 此外,豆包·语音播客模型也同时发布。用户输入对话、网页链接、长文本或文档,语音播客模型即可生成播客脚本后创作出双人对话式播客作品。此外,播客模型自带的深度搜索功能还可以生成跟进热点话题的播客内容。 二、12款Agent开发工具亮相,数据获取成本降低80% 火山引擎智能算法负责人吴迪认为,要构建高生产力的Agent,既要用好AI,整合高质量的应用;又要做好AI,关注底层技术本身的优化和创新。为此,此次火山引擎带来了12款Agent开发工具产品的发布和升级,分别是TRAE、MCP(模型上下文协议)服务、提示词优化应用PromptPilot、AI知识管理产品以及开源veRL强化学习框架,还有多模态数据湖、AICC私密计算、大模型应用防火墙,以及一系列AI Infra套件。 首先,AI IDE产品TRAE迎来进一步升级,可以为开发者提供代码补全、局部代码生成功能,还支持代码重构、批量修改、知识问答等复杂任务。吴迪在会上透露,TRAE下一个版本还将整合不同Agent和工具,协调任务流程,实现自动串联操作,逐步从AI辅助编程向支持AI开发全流程进阶。据字节跳动技术副总裁洪定坤爆料,在字节内部,超过80%的工程师在使用TRAE辅助开发。自今年1月上线以来,TRAE的整体月活用户已经超过了100万。 火山引擎MCP服务正式发布,链接Agent开发体系、大模型工具生态、云服务,打通TRAE、 火山方舟和扣子,提供200+MCP服务。开发者可以通过MCP,控制火山引擎的云服务组件,完成计算、网络、存储等环境部署。 吴迪认为:模型越强,提示词越重要。提示词优化应用PromptPilot可以在互动中引导用户明确需求,自动撰写和优化提示词,可以积累案例自动优化提示词。同时,该应用还具备多轮对话、视觉理解、复杂工具调用的优化能力,还可以自主判断是否开启模型精调等。 为解决企业知识管理问题,火山引擎正式发布AI知识管理产品,该款产品支持文本、图像、音频、视频等多模态内容对话式交互,可以结合本地与互联网知识,提供内容理解和问答服务,推出可交互的推理“做个计划”功能,实现人机协作制定、修改计划。该产品目前已在火山引擎全量邀测。 吴迪提到,多步骤复杂任务的成熟和落地是2025年的重要趋势。最后,火山引擎在会上发布了开源veRL强化学习框架。veRL可扩展多种强化学习算法,无缝集成现有LLM基础设施与模块化API,开发者可以借此搭建RL模型开发管线,提升对话规划、智能编程、复杂策略优化等场景的开发效率与资源利用率。 除了提供开源框架,此次火山引擎还上线了veRL平台,支持强化学习需求。 此外,在数据基础设施方面,火山引擎推出多模态数据湖解决方案和Data Agent。多模态数据湖是新一代AI Native的数据基建,该解决方案可以帮助企业在多模态数据处理、检索和分析场景上,识别和利用多模态数据资产,驱动企业AI模型训练与决策。Data Agent具备数据主动分析、智能洞察、策略生成能力,可将日常取数速度从小时级到分钟级,数据获取成本降低80%。该产品的复杂分析效率可以从周级到小时级,洞察及时性提升90%,可以大幅节省深度分析报告、方案等的产出时间和人力成本。 在AI基础设施方面,火山引擎AI infra推出AgentKit,为企业级Agent打造的全栈开发和服务工具链。AgentKit基于火山引擎veFaaS预置模板,集成了豆包大模型1.6与Computer Use等工具,用户只需选择模型和配置参数即可快速部署,实现分钟级10万核扩容。AgentKit还可以构建完整工具生态体系,支持多终端Tool Use、覆盖数十类三方MCP Server。 训练套件TrainingKit则面向后训练环节,可以实现高达60%+的MFU(算力利用率),通过veRL框架、 Sandbox百万核秒并发能力,可以有效提升后训练效率。以及,推理套件ServingKit可以从模型部署、在线推理、服务运维三个阶段进行加速和提效,支持开源推理框架,并针对主流模型进行算子优化,性能相比社区最新版本可以提升2-3倍。 安全是一切Agent运行的基础,针对企业数据和用户隐私保护,火山引擎还推出两款AI安全产品。AICC密态计算可以通过用户个人密钥加密、CPU/GPU硬件可信环境计算、数据流转落盘全密文的方式,让企业在不损失推理效果的前提下,安全合规地使用云端模型。另外,大模型应用防火墙则可以通过精调的小参数模型、分层漏斗策略、流式送检机制,保障精准拦截攻击变种,同时不会增加推理延迟。 结语:字节跳动AI全栈路径明晰 字节跳动在FORCE原动力大会上发布的AI产品矩阵,揭示了其以“模型能力+工具链+基础设施”为核心的产业智能化路径。从豆包大模型1.6的架构升级到视频生成、语音交互等全模态能力的突破,再到AI云原生全栈服务的系统化构建,字节跳动的AI战略已形成从模型研发到应用落地的闭环。 随着Agent等智能体逐步渗透企业生产流程,字节跳动的AI生态或将进一步推动行业效率提升与创新模式变革,为AI产业发展提供新的范式参考。
谁写了圣经?AI 发现“可能的作者”
人工智能能否解开《圣经》中最大的谜团之一?一组研究人员使用 AI 驱动的统计建模来分析希伯来圣经的作者身份,并对古代叙事有了惊人的发现。信用: 存在Shutterstock 一个多学科研究团队正在使用人工智能来解开希伯来圣经最早书籍的作者身份。 人工智能正在彻底改变从医疗保健到电影制作再到金融的方方面面。那么,为什么不把它应用到历史上最古老和最有影响力的书之一——圣经呢? 这正是一个国际研究团队的初衷。杜克大学数学助理研究教授 Shira Faigenbaum-Golovin 就是其中之一。他们一起使用了人工智能、统计建模和语言分析的组合,解决了圣经学术中最大的谜团之一:究竟是谁写了圣经? 通过仔细检查文本中单词选择的细微差异,该团队确定了希伯来圣经前九卷书(称为 Enneateuch)中的三种不同的抄写传统或写作风格。然后,他们使用相同的 AI 模型来分析其他章节并估计最有可能的作者。更妙的是,该模型还解释了它是如何得出结论的。 但是这位数学家是怎么来到这里的呢? 从陶器到摩西五经 2010 年,Faigenbaum-Golovin 开始与海法大学考古学和海洋文化学院院长 Israel Finkelstein 合作,使用数学和统计工具,通过比较每个碎片上刻有字母的样式和形状,确定公元前 600 年陶器碎片上发现的字体的作者。 “我们得出的结论是,这些铭文中的发现可以为旧约文本的年代确定日期提供有价值的线索,”Faigenbaum-Golovin 说。“那时我们开始组建我们现在的团队,他们可以帮助我们分析这些圣经文本。” 团队结果的图形表示。通过比较单词用法和句型,他们基于 AI 的统计模型确定了三种不同的书写风格或抄写传统,此处以黄色、蓝色和绿色显示。图片来源:Faigenbaum-Golovin 等人。 这项多学科工作由两部分组成。首先,Faigenbaum-Golovin 和 Finkelstein 的团队——Alon Kipnis(赖希曼大学)、Axel Bühler(巴黎新教神学院)、Eli Piasetzky(特拉维夫大学)和 Thomas Römer(法兰西学院)——由考古学家、圣经学者、物理学家、数学家和计算机科学家组成。该团队使用一种基于人工智能的新型统计模型来分析圣经三个主要部分的语言模式。他们研究了圣经的前五本书:申命记、从约书亚记到列王纪的所谓申命记历史,以及摩西五经中的祭司著作。 结果显示,申命记和历史书彼此更相似,而不是祭司文本,这已经是圣经学者的共识。 逐字区分 “我们发现每组作者都有不同的风格——令人惊讶的是,即使是在简单和常见的词方面,如'不'、'哪个'或'国王'。我们的方法准确地识别了这些差异,“Römer 说。 为了测试这个模型,该团队从圣经的前九卷书中选择了 50 章,每一章都已经被圣经学者分配给上述写作风格之一。“该模型比较了这些章节,并提出了一个定量公式,将每章分配给三种写作风格中的一种,”Faigenbaum-Golovin 说。 在研究的第二部分,该团队将他们的模型应用于圣经中作者关系争论更激烈的章节。通过将这些章节与三种写作风格中的每一种进行比较,该模型能够确定哪组作者更有可能写过它们。更棒的是:该模型还解释了它为什么要进行这些调用。 “该方法的主要优点之一是它能够解释分析结果——也就是说,指定导致将给定章节分配给特定写作风格的单词或短语,”Kipnis 说。 由于圣经中的文本已经被多次编辑和重新编辑,该团队在寻找保留原始措辞和语言的片段方面面临着巨大的挑战。一旦找到,这些圣经文本通常非常短——有时只有几节经文——这使得大多数标准统计方法和传统机器学习不适合进行分析。他们必须开发一种可以处理如此有限数据的自定义方法。 深度学习中的词根 有限的数据通常会带来对不准确的担忧。“我们花了很多时间说服自己,我们得到的结果不仅仅是垃圾,”Faigenbaum-Golovin 说。“我们必须绝对确定统计意义。” 为了规避这个问题,研究人员没有使用需要大量训练数据的传统机器学习,而是使用了一种更简单、更直接的方法。他们比较了句型以及某些单词或词根(词根)在不同文本中出现的频率,以查看它们是否可能由同一组作者撰写。 一个令人惊讶的发现?研究小组发现,虽然撒母耳记中方舟叙述的两个部分涉及相同的主题,有时被视为单一叙述的一部分,但撒母耳记上的文本与三个语料库中的任何一个都不一致,而撒母耳记下的章节则显示出与申命记历史(约书亚记到列王纪)的相似之处。 展望未来,Faigenbaum-Golovin 表示,同样的技术可以用于其他历史文献。“例如,如果你正在查看文件片段,以确定它们是否是亚伯拉罕·林肯 (Abraham Lincoln) 撰写的,这种方法可以帮助确定它们是真实的还是只是伪造的。” “这项研究引入了分析古代文本的新范式,”Finkelstein 总结道。 Faigenbaum-Golovin 和她的团队现在正在考虑使用相同的方法来挖掘有关其他古代文本的新发现,例如死海古卷。她强调她非常喜欢这种长期的跨学科伙伴关系。 “这是科学与人文学科之间如此独特的合作,”她说。“这是一种令人惊讶的共生关系,我很幸运能与利用创新研究突破界限的人一起工作。” 参考资料:Shira Faigenbaum-Golovin、Alon Kipnis、Axel Bühler、Eli Piasetzky、Thomas Römer 和 Israel Finkelstein 于 2025 年 6 月 3 日发表的“通过词频分析进行批判性圣经研究:揭开文本作者身份”,PLOS ONE.DOI :10.1371/journal.pone.0322905 资金: Alon Kipnis 得到了 Koret 基金会和 BSF 第 2022124 号资助的部分支持。Shira Faigenbaum-Golovin 感谢 Eric 和 Wendy Schmidt 战略创新基金、Zuckerman-CHE STEM 计划、Grant Math+X 400837下的 Simons 基金会以及杜克大学对她的研究的支持。
比亚迪与 Momenta 加持,12.98 万元一汽丰田 bZ5 想重振合资荣光
在当下这个时间节点,提起合资电车,广汽丰田铂智 3X 和东风日产 N7 是当之无愧的代表车型。 铂智 3X 在发布 45 天之后,交付量超过了 1 万台;日产 N7 则在发布 35 天内的订单就超过了 1. 7 万台。 两辆车能卖得这么火其实并不难理解,铂智 3X 作为一台 4 米 6 的纯电 SUV,在产品力还不错的情况下,把价格拉到了 10 至 15 万元的区间内,比很多新势力还要便宜。 究其原因,还是广汽丰田在铂智 3X 的产品定义和研发环节都更加依赖广汽的本土团队,在供应链上也引入了大量质优价廉的中国供应商。 有了广汽丰田的珠玉在前,作为同门师兄弟的一汽这次也是有样学样, 把 bZ5 的售价定在了 12.98 万元起,不过一汽这次主推的应该是 15.98 万元的 550 PRO 智行版,这个版本的配置给的更足,性价比也更高一些,虽然比铂智 3X 贵了一万块,但在终端各种优惠和补贴下的实际差价不会太大。 和一些厂商非要把供应商技术说成自研的不同,一汽这次倒是把关键的供应商告知的相当明确,甚至有点希望能够借助供应商来提升品牌力的意思。 其中一汽丰田花了最大篇幅也是最重点介绍的是——由 Momenta 开发的辅助驾驶系统 5.0。 这套系统由 1 个激光雷达、5 个毫米波雷达、12 个超声波雷达以及 11 个各类摄像头组成,在544TOPS 的芯片算力下,可以支持 L2 级别的全场景辅助驾驶和智能泊车、遥控泊车、记忆泊车等功能。在主动安全上则支持了预碰撞安全、紧急转向、车道偏离等功能。 丰田特意强调了这套辅助驾驶系统是「根据丰田的驾驶风格调教的、充满了丰田的基因」,并且举了一个「变道时会抢占机会,柔和顺滑变道,不突兀不激进」的例子。 此外 bZ5 还全系搭载了由比亚迪提供的驱动电机和磷酸铁锂刀片电池,电机峰值功率为 200kW,最大扭矩 330N·M,电池则有 65.28kWh 和 73.98kWh 两种版本可选,CLTC 下的续航里程分别为 550km 和 630km,补能方面则暂时只支持 90kW 的直流充电,30%-80% 电量的充电时间约为 27 分钟。 底盘和电控则是由丰田自己进行的调校,采用了前麦弗逊后双连杆的悬架模式并搭配了EPS 转向柱辅助电子助力转向,将最小转弯半径做到了 5.6 米。 一汽丰田 bZ5 的座舱内部就是很典型的新能源车设计了,采用了 5 座式布局,有黑红白三种颜色可选。新车配备了三幅式多功能方向盘和一块 15.6 英寸的悬浮式中控屏,PRO 版本的前排座椅支持加热,后排座椅配备扶手杯托,并提供了 50W 手机无线充电和256 色的氛围灯。 需要特别提到的是,一汽丰田 bZ5 没有传统的转向灯拨杆,取而代之的是方向盘上的两个按键。 在座舱的智能化上,bZ5 标配了智能语音交互系统、5G 通信网络、手机映射投屏。PRO 版配备了 DMS 驾驶员监控系统、面容 ID 识别系统、数字钥匙以及车内生物监测系统。这个生物监测系统主要是为婴儿和宠物服务的,如果检测到异常情况,车辆可以在10秒内启动双闪和鸣笛提醒,并在5分钟内自动启动空调,同时通过手机APP通知用户。 车身方面,一汽丰田 bZ5 长宽高分别为 4780mm/1866mm/1510mm,轴距为 2880mm,比比秦 L EV和特斯拉 Model 3 都要稍大一些。 新车的外观设计很有丰田家族式外观设计的味道,封闭式的前脸搭配上回旋镖式大灯以及贯穿式灯带,一眼就能看出来这是一台丰田,车身提供了铂金白、流光银等 8 种配色,有 5 种纯色和 3 种双色组合,JOY版配备的是 18 英寸的铝合金轮毂,其他车型轮毂尺寸则为 21 英寸。 车上侧面则有两条很明显的腰线,在溜背式车顶曲线的衬托下,整体营造出了比较有运动感的风格,车尾则是掀背式的尾门设计,尾灯的样式也与车头有呼应,总体还是以棱角分明为主。 bZ5 在海报上用了一句宣传语叫「bZ5 是个狠角色」,也多少能体现一汽在这辆车的定义和研发过程中做出改变的决心,距一汽说 bZ5 是「一汽丰田在丰田 RCE 体制下,首款由中国团队主导研发的全新产品。」 起亚中国的 COO 杨洪海在两年前讲过一句话: 我今年(2023年)一季度全球挣了21亿美金,贴得起中国市场,你先烧死了,我后面再等着进来抢市场也可以。 但是现在看来,不用等到本土品牌烧死,合资车企们的反攻就已经在路上了。
红魔电竞平板3 Pro发布:内置PC模拟器,首发3999元起
凤凰网科技讯(作者/于雷)6月11日,红魔今晚举行新品发布会,红魔电竞平板3 Pro正式发布。该产品以其独特的9英寸OLED小尺寸机身和旗舰级的硬件配置,官方公布其售价为4199元起,首发专享价3999元起。 红魔电竞平板3 Pro是行业首款9英寸OLED电竞屏。这块屏幕拥有16:10的舒适比例与高达90.1%的屏占比,实现了紧凑握持感与沉浸视觉的统一。屏幕硬件规格上,它集成了165Hz超高刷新率、1ms疾速响应、1600尼特峰值亮度以及百万比一的动态对比度。尤其在护眼技术上,该平板首发搭载了5280Hz超高频PWM调光,结合新一代星盾护眼技术,旨在为长时间游戏的玩家提供更舒适的视觉保障。 性能方面,红魔电竞平板3 Pro采用了骁龙8至尊旗舰芯片与自研的红芯R3 PRO游戏芯片,形成双芯驱动的性能架构,确保了强大的处理能力和游戏优化能力,官方展示其安兔兔性能跑分334万。 为保证性能的稳定输出,该平板内置了主动散热的PAD魔冷散热系统3.0,集成了三明治VC架构、液态金属导热层以及高速离心风扇,能够有效压制芯片高负载运行时的热量,确保在《和平精英》、《鸣潮》等游戏中维持高而稳定的帧率表现。 作为一款专为游戏而生的设备,红魔电竞平板3 Pro在软件生态上也实现了突破。其首次内置了PC模拟器,让用户可以在移动端畅玩部分PC游戏,极大地拓展了游戏内容库。同时,优化的触控系统首发了新思S3930触控芯片,支持2000Hz瞬时报点率和湿手触控等精细化操作技术。REDMAGIC OS 10.5系统也带来了AI语音操控、战术建议等一系列智能化游戏辅助功能。 在设计与续航上,产品延续了红魔标志性的透明美学和RGB灯效,并在小巧的机身内装入了8200mAh的大容量电池,支持80W快充及旁路充电功能,全面解决了玩家在续航方面的后顾之忧。
外资车企首次参与网络文明大会,宝马分享数字化转型责任理念
凤凰网科技讯 6月10日,2025年中国网络文明大会在安徽合肥举行,本届大会以“汇聚网络正能量,引领时代新风尚”为主题。值得关注的是,宝马成为首家参与该会议并发表演讲的外资汽车企业。 在大会现场,宝马大中华区总裁兼首席执行官高翔阐述了企业对网络文明的理解。他认为,拥有百年历史的宝马深刻认识到,企业价值的实现不应局限于商业层面,而应将责任与担当作为发展根基。在网络环境日益复杂的当下,宝马选择坚持尊重、诚信与责任的价值导向。 宝马集团大中华区总裁兼首席执行官高翔先生 数据显示,宝马在企业社会责任领域的投入正在产生实质性影响。华晨宝马汽车有限公司首席数据治理官李尧透露,经普华永道第三方审计评估,2023年宝马企业社会责任项目覆盖人群达到3500万人次,创下该公司相关记录新高。这一成果的取得,很大程度上得益于互联网技术的赋能作用。 作为在华深耕30年的外资企业,宝马正在重新定义自身在中国市场的角色定位。该公司不仅响应相关部门的“清朗”系列专项行动,还呼吁行业内企业通过健康竞争方式,运用创新手段构建积极向上的用户社群环境。 技术创新与安全责任的平衡,是宝马在数字化转型过程中面临的核心课题。该公司强调,无论技术如何迭代升级,安全始终是不可妥协的首要原则。这一理念在宝马即将推出的“新世代”产品系列中得到充分体现。 BMW新世代概念车家族 据介绍,宝马“新世代”将整合全新设计语言、电子电气架构、数字化体验系统以及新一代电力驱动技术。这一产品系列被宝马视为品牌在设计、技术和理念层面的重要突破,旨在为用户提供更加智能化、人性化且负责任的出行解决方案。
英伟达Arm PC芯片,太猛了
传闻中的 Nvidia N1X SoC 已在Geekbench上亮相,通过Olrak at X 跑分软件,可与英特尔、AMD 和高通的顶级移动产品相媲美。这款据称拥有 20 核的芯片在 Geekbench 上的单核跑分超过 3000 分,多核性能接近 AMD 领先的 Strix Halo 系列。尽管如此,鉴于 Nvidia 尚未正式确认这款芯片,我们仍需谨慎对待此次泄露的消息。 N1系列芯片长期以来一直是传闻话题,标志着Nvidia进军消费级Windows-on-Arm平台。据报道,Nvidia已与联发科合作,预计将由联发科使用现成的Arm Cortex内核负责该SoC的CPU开发。此次合作的首个实际应用是DGX Spark(前身为Project DIGITS),它基于GB10超级芯片,配备20个Arm内核(10个Cortex-X925+10个Cortex-A725),以及基于Blackwell架构、拥有6144个CUDA核心的GPU。 根据 Geekbench 的跑分信息,N1X 搭载的是一块惠普开发板(HP 83A3),运行 Linux(Ubuntu 24.04.1)。跑分信息显示,N1X 拥有 20 个线程,而 Arm 设计通常缺乏像英特尔 Lion Cove 那样的 SMT(同步多线程),因此我们推测它很可能拥有 20 个物理核心,类似于上面提到的 GB10。同时,该开发板可能配备 128GB 系统内存,其中 8GB 预留给 GPU。 在深入探讨性能之前,通常不建议比较不同操作系统和 Geekbench 版本的 CPU。因此,我列出了一些相关的 CPU 样本,并注明了它们的操作系统和 Geekbench 版本。据称,N1X 在单核和多核测试中分别获得了 3096 分和 18837 分,平均频率为 4 GHz。即使在不同的环境下,它的性能也远超英特尔 Arrow Lake-HX 和 AMD Ryzen AI MAX(Strix Halo)等顶级芯片。 它甚至超越了高通的骁龙 X Elite;这在意料之中,因为 X Elite 使用的是 Oryon V1 核心,而后者明年应该会被搭载骁龙X2 SoC的 Oryon V3 所取代。即便如此,苹果在 Geekbench 跑分中仍然占据主导地位,M4 Max 单核跑分领先 30%。 Nvidia上个月在Computex上并未发布甚至提及这些芯片,因此它们可能要到 2026 年才会首次亮相。该公司可能会将更多资源投入到 DGX Spark 上,希望在即将到来的假期前将这些迷你 PC 上市销售。无论如何,到明年,除了英特尔的Panther Lake之外,预计 AMD 传闻中的Sound Wave APU 和高通的 X2 SoC 将会面临更激烈的竞争。 参考链接 https://www.tomshardware.com/pc-components/cpus/nvidias-20-core-n1x-leaks-with-3000-single-core-geekbench-score-arm-chip-could-rival-intel-and-amds-laptop-offerings
黄仁勋巴黎演讲:欧洲在建20座AI工厂,两年AI基建算力将增长10倍
作者 | ZeR0 编辑 | 漠影 芯东西6月11日报道,NVIDIA(英伟达)的年度GTC大会已成为公认的人工智能(AI)行业风向标。今日,在欧洲最大科技盛会VivaTech大会的GTC巴黎主题演讲环节,NVIDIA创始人兼CEO黄仁勋一路小跑挥手上台,宣布NVIDIA在AI基础设施、Agentic AI、机器人、自动驾驶汽车等领域的最新进展。 一如既往,黄仁勋先回顾了NVIDIA如何掀起加速计算浪潮,提到各式各样的CUDA库如何为其生态合作伙伴带来新的增长机遇,随后步入正题。 在AI基础设施方面,NVIDIA宣布多家欧洲电信企业、云服务企业、超算中心与NVIDIA合作构建AI基础设施,NVIDIA与法国大模型创企Mistral AI合作构建一个由18000块Grace Blackwell芯片驱动的AI云平台。 在助力欧洲主权AI方面,NVIDIA Nemotron可帮助开发者更快更好地构建主权AI模型,并与AI搜索企业Perplexity合作推广更多欧洲主权AI模型,NVIDIA DGX Cloud Lepton平台则可以让开发者访问全球AI计算资源。 黄仁勋说,欧洲各地将规划并建设20座AI工厂。其中5家是超级工厂,这类工厂将能容纳超过10万块芯片。相比2024年,NVIDIA预计今年泛欧洲AI基础设施计算能力将增长到3倍,2026年将提高至10倍。 量子处理器与超级计算机的集成,有望扩展可用计算解决的问题,改变药物研究、材料发现等行业。黄仁勋宣布NVIDIA整个量子算法栈可在NVIDIA GB200 NVL72系统上加速。 NVIDIA CUDA-Q量子计算平台已在丹麦首台AI超级计算机Gefion上投入使用。Ansys今日宣布正在用Gefion上运行的CUDA-Q平台来推进流体动力学应用的量子算法。 “量子计算正在迎来一个转折点,”黄仁勋说,“我们有望在未来几年内将量子计算和量子经典计算应用于一些能够解决一些有趣问题的领域。” 临近演讲尾声,黄仁勋再度晒出16款与NVIDIA合作的人形机器人,包括小鹏、星动纪元、智元机器人、傅利叶、银河通用、宇树科技、优必选等国内品牌。 他还将小型机器人Grek请上台,介绍它是一个“小女孩”,并讲述了NVIDIA如何与DeepMind和迪士尼合作打造世界上最先进的机器人物理训练引擎Newton。 在黄仁勋演讲时,小机器人就在旁边摇头晃脑扭来扭去,非常生动可爱。 老黄跟它聊天互动了好一会儿,让它坐下、跳舞、给现场观众拍照。 一、Blackwell产品全面投产,合作伙伴每周生产1000台GB200 AI毫无例外是GTC重头戏。 黄仁勋将Grace Blackwell NVL72称作一台“会思考的机器”。它被设计成一块巨型的虚拟GPU。 和今年之前举行的GTC大会一样,黄仁勋绘声绘色地讲解一些NVIDIA最新硬件的内部结构,并展示了60磅重的NVLink Spine,它是100%铜导线,可将所有NVLink芯片直连到GPU。 每144个Blackwell Die(72个Blackwell处理器)能够通过NVLink Spine实现无障碍通信,其带宽高达130TB/s,超越了全球互联网峰值流量的数据速率。 黄仁勋说,NVIDIA的合作伙伴现在每周生产1000台GB200系统,“这仅仅是个开始”。 NVIDIA Blackwell在深度思考推理性能上取得飞跃。 一个架构贯穿从云AI、企业级AI、个人AI到边缘AI,这些产品均已量产。 黄仁勋称DGX Spark是他最喜欢的小机器。 他回忆起2016年,NVIDIA构建了第一台AI超级计算机DGX-1,耗资数十亿美元打造。当时没有客户对DGX-1感兴趣,大家很迷惑:为什么有人会造这样的电脑?它能跑在Windows上吗? 答案是不能。 “谢天谢地,一家旧金山的初创公司很高兴能看到有这台计算机,问能不能拥有一台。”黄仁勋说,“我想,噢,我们卖了一台!但后来发现它是一个非营利组织……” 然后,黄仁勋开车载着DGX-1,送到旧金山,那家公司名字叫OpenAI。 二、帮欧洲建AI基础设施:与Mistral AI合作构建云平台,打造全球首个工业AI云 黄仁勋宣布,英伟达与一大波欧洲国家、科技及行业领导机构合作,共建NVIDIA Blackwell AI基础设施,助力下一代产业转型。 多家欧洲电信提供商(Fastweb、Orange、Swisscom、Telefónica、Telenor)、多家云服务提供商与NVIDIA合作,开发AI基础设施。这些部署将提供超过3000EFLOPS的NVIDIA Blackwell计算资源。 还有多个欧洲超算中心,与NVIDIA合作构建下一代AI超算和基础设施。 此外,NVIDIA在法国、德国、英国、西班牙、意大利、瑞典、芬兰建设和扩建AI技术中心,以发展当研究和创企生态系统。 随后黄仁勋展示了在英国、德国、意大利、法国的NVIDIA AI基础设施生态伙伴。 在英国,NVIDIA与云合作伙伴Nebius和Nscale合作,其AI基础设施开发计算的第一阶段将部署14000块NVIDIA Blackwell GPU。 在法国,NVIDIA与法国大模型独角兽Mistral AI合作,构建一个由18000块NVIDIA Grace Blackwell芯片驱动的端到端云平台。Mistral AI、NVIDIA正在参与建设欧洲最大的AI园区,该园区将采用先进的NVIDIA计算基础设施,支持从AI模型训练、推理到部署,预计发电容量将达到1.4千兆瓦。 在德国,NVIDIA及其合作伙伴正为欧洲制造商构建全球首个工业AI云。该AI工厂将由NVIDIA DGX B200系统和搭载10000块NVIDIA Blackwell GPU的NVIDIA RTX PRO服务器提供支持。 在意大利,NVIDIA正与Domyn及政府合作提升主权AI能力。Domyn正在其超级计算机Colosseum上利用NVIDIA Grace Blackwell超级芯片开发Domyn Large Colosseum推理模型。 施耐德电气与NVIDIA合作,共同开发用于数字和物理AI数据中心的新型冷却能力、建筑管理和控制系统,加速构建AI工厂。 NVIDIA还宣布与西门子扩展合作伙伴关系,以加速工业AI和数字化的新时代,并实现下一代工厂自动化。 三、帮欧洲构建主权AI模型,与Perplexity合作力推,将开发者与全球AI计算资源连接 NVIDIA正在与欧洲和中东的模型构建者和云提供商合作,以优化主权AI模型,加速这些地区各行业采用企业AI。 开源AI模型正在解锁全球AI创新。 针对欧洲开发者构建可控模型的需求,NVIDIA Nemotron应运而生,可帮助开发者构建符合本地需求的大语言模型。 Nemotron可有效提升后训练能力,提高开源模型的效率与精度。 Nemotron模型已登顶多项基准测试。 多家欧洲模型构建者们正在用NVIDIA Nemotron技术优化其主权AI模型,以提高企业AI工作负载的效率和准确性。 NVIDIA与Perplexity合作向欧洲用户提供主权AI模型,协助这些模型在欧洲推广。欧洲企业将可以在Perplexity上运行这些模型,还可以通过DGX Cloud Lepton与Hugging Face的集成,在本地NCP基础设施上微调主权AI模型。 “现在你可以用自己国家的语言、文化和情感来提问并获得答案。”黄仁勋说。 代理式AI(Agentic AI)时代已然到来。NVIDIA Enterprise AI Agent平台可加快构建Agent。 为了帮助企业构建专属Agent,NVIDIA推出了一套Agentic AI蓝图。用于构建数据飞轮的全新NVIDIA NeMo Agent工具包和AI蓝图进一步加速了安全、高性能AI Agent的开发。 NVIDIA正与欧洲政府、电信运营商、云服务提供商合作,在整个地区部署DGX Cloud Lepton平台,提供对加速计算能力的即时访问。 NVIDIA DGX Cloud Lepton将构建开发者与全球的AI资源连接,简化了在特定区域内访问可靠、高性能GPU资源的过程,支持通过AWS、微软Azure等国际云服务提供商,以及CoreWeave、Crusoe、Lambda、Mistral AI等GPU云提供商,提供面向训练和推理的统一AI平台。 “一个模型架构、一次部署,你就可以在任何地方运行它。”黄仁勋说。 模型后训练和推理将在DGX Cloud Lepton市场的NVIDIA云合作伙伴(NCP)的欧洲AI基础设施上运行。 通过与NVIDIA软件套件集成,DGX Cloud Lepton可简化并加速任何规模的每个阶段,与全新NIM微服务容器配合使用。 此外,Hugging Face推出了“训练集群即服务”,与DGX Cloud Lepton集成,让开发者可以直接访问全球计算资源。 NVIDIA还发布了NVIDIA Omniverse智慧城市AI蓝图,提供所需的完整软件栈,可加速在城市物理精确的数字孪生中开发和测试AI Agent。 四、NVIDIA DRIVE AV全面投产,赢得CVPR端到端自动驾驶大赛冠军 黄仁勋宣布NVIDIA全栈自动驾驶汽车平台NVIDIA DRIVE现已全面投产。全新梅赛德斯-奔驰CLA车型以及沃尔沃、捷豹的新车都将搭载该平台。 为了加速下一代自动驾驶架构开发,NVIDIA今日发布了一款新世界基础模型NVIDIA Cosmos Predict-2,结合最新优化技术,可显著加快在NVIDIA GB200 NVL72系统和NVIDIA DGX Cloud上生成高质量合成数据的速度。 Cosmos Predict-1旨在使用文本、图像和视频提示来预测和生成未来世界状态,Cosmos Predict-2以此为基础,可以更好地理解文本和视觉输入中的上下文,从而减少幻觉,并使生成的视频细节更加丰富。 NVIDIA今日还宣布推出Cosmos Transfer作为NVIDIA NIM微服务预览版,以增强数据集,可轻松部署在数据中心GPU上。 为了增强自动驾驶系统的运行安全性,NVIDIA在今年早些时候推出了一个综合安全平台NVIDIA Halos。该平台将其全套汽车软硬件安全栈与专注于自动驾驶安全的先进AI研究相结合,为模拟、训练和部署过程中的自动驾驶汽车安全提供护栏。 博世、Easyrain、Nuro最新加入NVIDIA Halos AI系统检测实验室,旨在验证其产品与NVIDIA技术的安全集成,并提升自动驾驶汽车的安全性。 此外,NVIDIA今日在计算机视觉学术顶会CVPR 2025上赢得了端到端自动驾驶大赛冠军。该奖项旨在表彰其利用真实世界和合成数据开发更安全、更智能的自动驾驶汽车的技术,使汽车能够应对突发的驾驶情况。 结语:欧洲成主权AI发展重要阵地 欧洲正在AI竞赛中加速追赶,并为此兴建AI基础设施,而NVIDIA GPU毋庸置疑是最好的硬件选择。本周黄仁勋密集访问欧洲多国,继续扩展其在全球范围内广泛构建AI基础设施的雄心。 在本场主题演讲中,黄仁勋提出了一个大胆的愿景:一个由主权基础设施、Agentic AI、机器人技术和指数级推理驱动的未来。这些正成为支撑NVIDIA进一步增长的关键。更庞大的数据中心将能够运行各种新式AI模型,并具备更灵活强大的可扩展性,以满足源源不断的AI模型开发与部署需求。 随着NVIDIA与欧洲核心科技企业、基建巨头及研究机构的合作加深,NVIDIA在AI领域的国际影响力还在持续扩大。
苹果虽迟但到,端侧AI加速爆发!AI新势力抢先圈地突围
作者 | 程茜 编辑 | 漠影 端侧模型的产业坐标系正在被重塑! 一方面,昨日凌晨,AI浓度大大降低的苹果WWDC中,苹果智能(Apple Intelligence)正加速融入到系统各个功能中,同时苹果宣布向所有App开放权限允许开发者直接访问苹果智能核心的设备端大语言模型,提出“Foundation Models框架”也引发了不小的讨论;另一方面,上周面壁智能发新一代面壁小钢炮MiniCPM4.0端侧模型,0.5B模型性能超Qwen-3-0.6B、以及参数规模1B的Llama 3.2、Gemma3。 这些可以证明,端侧智能从可用到能用、好用,从技术概念到人人可及的距离正在被迅速拉近。相比于云端模型,端侧智能以隐私安全、响应高效、成本可控、场景适配的天然优势,与我们生活中的硬件设备紧密相连。 端侧AI变得无处不在的背景下,当苹果以生态级框架降低端侧AI开发门槛时,面壁智能MiniCPM4.0的技术突破更具底层革新价值,进一步击穿了端侧智能的性能天花板。 MiniCPM4.0的技术突破具备何等价值?其在AI应用爆发的当下有何重要性?我们将从端侧模型发展的底层逻辑出发,找到这些问题的答案。 技术报告:https://arxiv.org/pdf/2506.07900 Github模型下载链接:https://github.com/openbmb/minicpm Huggingface模型下载链接:https://huggingface.co/collections/openbmb/minicpm-4-6841ab29d180257e940baa9b Model Scope模型下载链接:https://www.modelscope.cn/collections/MiniCPM-4-ec015560e8c84d 一、端侧AI发展已成必然趋势,技术创新陷入“增量困境” 端侧模型部署已成为行业公认的技术趋势,然而当前革命性的技术创新相对匮乏,且在实际应用中面临推理速度瓶颈、功耗控制难题以及上下文理解能力不足等多重挑战,这会直接影响终端用户的交互体验。 苹果作为智能手机的重要玩家,其这次在WWDC上发布的Foundation Models框架,背后隐隐折射出端侧AI生态即将爆发的趋势。 Foundation Models框架的作用是让开发者将自己的App轻松调用苹果智能,实现离线运行、隐私保护且无推理成本,更直观来说就是开发者无需支付调用云端大模型API产生的token费用,用户亦无需为此支付额外成本。 可以看出,这样的端侧AI生态本质上可以打破传统云端AI的“成本-隐私-延迟”三角制约,让技术价值在开发者、用户等各环节实现高效传导。 与此同时,端侧AI的爆发亦体现到了设备覆盖的广泛性之上,从智能手机、笔记本电脑到智能汽车,乃至机器人品类,端侧模型部署正全面渗透至各类智能终端场景。 然而,与端侧AI蓬勃发展的现状形成鲜明反差的是,在现有技术路径下探寻端侧基座模型跃升的突破口仍困难重重,类似DeepSeek在基础模型领域引发的现象级突破事件更是凤毛麟角。 如今参数规模小到足以在端侧部署的模型已不在少数,这些模型虽具备基础的理解与生成能力,但在性能突破方面仍面临显著瓶颈。 这与端侧设备本身的诸多特性有关。 端侧设备的一大特征就是电池容量和散热设计等硬件架构受限,面临严格的能耗约束,需动态进行功耗管理与分配,且容错率较云端更低。 再加上为了适配内存,端侧模型会通过剪枝、蒸馏等技术压缩模型规模,此举一定程度上会丢失长序列建模能力,导致多路对话时丢失历史信息。 在推理速度方面,虽然端侧设备距离用户数据更近,但其芯片往往会受限于制程工艺和面积,使得典型端侧算力较云端GPU相对较低。 尽管面临这些现实挑战,但端侧模型的突破,正是当下行业将重点聚焦于AI应用之际,使得应用爆发的前提条件之一。正如面壁智能CEO李大海所说,端侧基模是AI时代端侧操作系统级基础设施,其能力直接决定上层应用的天花板,就像Windows之于PC应用、Android之于移动应用,没有强大的基模支撑,上层应用就难有突破。 二、首个原生稀疏模型,攻克端侧长文本难题 那么,端侧模型破局的关键突破口究竟在哪?我们可以从上周面壁智能新发的端侧模型MiniCPM-4可以窥见这个问题的答案之一。 此次面壁智能发布的MiniCPM4.0共有8B和0.5B两种参数规模,这两个“以小搏大”的模型关键特性可以用广泛覆盖中端场景、长文本登陆端侧、低开销比肩同规模模型概括。 具体来看,稀疏注意力模型MiniCPM 4.0-8B,在MMLU、CEval、MATH500、HumanEval等基准测试中,以22%的训练开销,性能比肩Qwen-3-8B,超越Gemma-3-12B;MiniCPM 4.0-0.5B则以2.7%的训练开销,相较Qwen-3-0.6B、1B参数规模的Llama 3.2实现了性能翻倍,且通过原生QAT(量化感知训练)技术实现INT4低精度量化,实现高达600 Tokens/秒的推理速度。 在128K长文本场景下,MiniCPM 4.0-8B相较于Qwen3-8B仅需1/4缓存存储空间,量化版实现90%的模型瘦身。在显存受限极限场景下,8B模型实现长文本推理速度5倍常规加速以及最高220倍加速。 同时为了保证运行流畅,其在注意力机制层面实现高效双频动态换挡,长文本自动激活稀疏计算模式,短文本智能切换稠密计算模式。 为了进一步提升端侧长文本的应用范围,面壁智能在8B模型之上微调出两个特定能力模型,分别可以用做MCP Client和纯端侧性能比肩Deep Research的研究报告神器MiniCPM4-Survey。 值得注意的是,与云端模型处理长文本场景不同,端侧模型要实现同等性能面临更高技术挑战,此前堆参数、堆算力等路线在端侧很难走通,因此技术创新成为端侧突破瓶颈的核心驱动力。 面壁智能在架构、推理层面的系列创新就验证了这条路。 从MiniCPM4.0的前缀就可以看出长文本在端侧落地的杀手锏——首个开源原生注意力稀疏模型。 模型采用的新一代InfLLMv2稀疏注意力架构,一改传统Transformer模型的相关性计算方式,而是实现分块分区域高效“抽查”,即将文本划分为多个独立区域,然后通过智能化选择机制对最有相关性的重点区域进行注意力计算“抽查”,可以避免逐字重复计算,适配于移动端或轻量化部署。 ▲InfLLMv2稀疏注意力架构 基于更精准的上下文块选择算法、更细粒度的查询词元分组、更高效的算子实现,InfLLMv2将稀疏度从行业普遍的40%-50%降至5%,注意力层仅需1/10的计算量即可完成长文本计算。 另一个杀手锏针对的是推理加速——自研全套端侧高性能推理框架。 这同样是面壁智能系列自研成果的体现:CPM.cu自研推理框架、P-GPTQ前缀敏感的模型训练后量化、BitCPM极致低位宽量化、ArkInfer自研跨平台部署框架等,欲补齐端侧推理加速的每一块短板。 大模型部署时要考虑计算与内存消耗难题,同时端侧芯片碎片化会导致多平台适配与部署工程痛点。 在此基础上,面壁智能专为端侧英伟达芯片优化了自研轻量化推理框架CPM.cu,能集成静态内存管理、算子融合、高效投机采样、前缀敏感的量化算法等多种能力,高效组合稀疏、投机、量化的同时,实现5倍速度提升;同时采用P-GPTQ和BitCPM三值量化方法,以进一步优化资源消耗。 ▲轻量化推理框架CPM.cu 对于芯片碎片化带来的复杂模型适配和部署过程,面壁智能提出的ArkInfer引入跨平台兼容的架构设计、可复用且高效的推测采样与约束解码方案、可扩展的模型库前端等解决方案。 总的来看,从投机采样、模型压缩量化到端侧部署框架,无一不是面壁智能在算力、内存局限性都更高的端侧发力的关键,让端侧长文本能力实现从0到1的进阶。因此,李大海将MiniCPM4.0的发布定义为“其在模型架构设计、数据治理、学习方法、软硬协同等方面突破的一次集中成果展示,是一次创新的胜利”。 三、端侧应用爆发的基础设施革命开启,重构端侧应用的场景边界 从宏观维度来看,端侧基座模型性能的升级对于产业发展有两方面重大意义。 最直观的影响就是加速端侧应用的爆发。 基础模型是一切上层应用的发动机,但如今端侧基座模型并不够好。李大海将当前端侧的基座模型类比为19世纪的蒸汽机,其虽已在一定程度上产生了改变世界的基因,但效率、可靠性和普适性远未达标,距离成为推动AI普及的“万用发动机”还有一段距离。 因此训练更智能、更好用的端侧模型在当下显得更为迫切。 此外,端侧模型需要更好理解长文本的整体结构和语义才能使其精准捕捉用户需求。端侧设备之上有大量涉及聊天记录、位置、浏览等信息的用户个人信息,这些信息不仅是模型发挥强大能力的关键,同时也承载了用户的私人信息无法上传到云端,因此长文本对于端侧AI应用场景的扩展至关重要。 MiniCPM4.0的长文本能力就进一步扩展了端侧模型部署、应用开发的想象空间。 从更长远的视角来看,新行业发展机遇的破土而出,向来与技术创新的迭代演进同步,行业发展共识与底层创新技术驱动相辅相成。 面壁智能在端侧模型领域的布局就是很好的证明,其专注于通过科学化、成本可控的底层创新。区别于业界普遍采用的“大力出奇迹”路线,其从数据、训练、学习、推理等层层流程,均实现研发投入产出比的最大化。 上文提到的稀疏注意力研究InfLLM,正是2024年面壁智能与清华大学NLP实验室联合发布的研究成果,并在当下为产业创新提供了动力,这一思路就体现到了DeepSeek采用的长文本处理架构NSA(Native Sparse Attention)中,二者在稀疏注意力机制的技术本源上一脉相承。 到如今,在此基础上面壁智能推出了InfLLM新版本,补齐在短文本推理的短板。 这一从基础研究突破到工程化改进,再到不同场景能力扩展的技术良性循环闭环,恰是当下大模型产业良性发展的生动注脚。 更为底层的就是当下大模型开源生态的爆发,李大海透露,面壁智能坚持开源,小钢炮MiniCPM系列全平台下载量已累计破1000万。 而此次伴随MiniCPM4.0的发布,其开源属性进一步透明,从参数、高质量预训练数据、稀疏加速算子和框架都实现了开源。 在技术创新与应用场景扩展的双重突围下,端侧AI的爆发指日可待。 回溯近两年来大模型产业发展,关于大模型Scaling Law发展遇到瓶颈、互联网低成本公开可用数据即将用尽的争论频发,均使得业界开始重新思考如何实现AGI;今年初DeepSeek V3/R1系列高效模型全球出圈,通过技术创新推动模型训练和推理成本持续下降正逐渐成为业界共识,这些都是端侧AI爆发的种子。 清华大学长聘副教授、面壁智能首席科学家刘知远认为,智能革命的到来不可能依赖模型越大能力越强的规模法则(Scaling Law),而要通过技术创新提升模型能力密度,从而用更低成本构建和使用更强智能,实现AI的高质量、可持续发展。 因此,我们也可以感受到端侧基础模型在当下AI发展中的重要性。他也大胆发出预测:“只要是这个世界上已经实现的大模型能力,随着时间的演进和技术的进步,最终都可以在主流终端如PC、手机、汽车或机器人上流畅运行。” 面壁智能正在朝着这一目标冲刺。 结语:端侧智能迈入新时代 面壁智能一直致力于将大模型技术推向端侧,实现高效的端侧智能,新一代面壁小钢炮模型MiniCPM4.0的发布更具里程碑意义,其标志着端侧智能进入全新时代, 基于此,未来我们有望看到更多的智能设备具备强大的AI能力,伴随着从消费级终端到行业解决方案,AI或许可以通过端侧化,真正实现从实验室到千家万户、千行百业的普惠落地,开启人机智能协同的全新时代。
百万级大客户是它?微软正为美国军方开发AI
微软CEO纳德拉 凤凰网科技讯 北京时间6月12日,据《商业内幕》报道,软件巨头微软公司正在为美国军方打造专用版本的Copilot AI工具。 微软在近期为政府客户撰写的博客中表示:“对于美国国防部(DoD)环境而言,Microsoft 365 Copilot预计最早将于2025年夏季推出。我们正在持续推进相关工作,确保该产品符合必要的安全和合规标准。” Copilot是微软的主打生成式AI产品。微软已开发了多个Copilot工具,利用AI模型来自动执行各种任务,并为人类员工提供支持。微软已在这些新产品上投入重金,但仍在摸索最佳创收方式。如果五角大楼签约使用Copilot服务,这将是微软的一次重大胜利。 微软首席商务官贾德森·阿尔托夫(Judson Althoff)最近在一次内部会议中告诉员工,公司正在与一家大客户洽谈一项协议,该客户能够带来100多万Copilot用户。 阿尔托夫未透露该客户身份,微软也拒绝置评,但符合这一条件、拥有足够庞大员工规模以带来100多万个Copilot用户的客户寥寥无几。美国国防部就是这样的客户。根据美国政府问责局2023年的一份报告,国防部是美国最大的雇主之一,拥有约210万现役军人和约77万文职雇员。 截至发稿,美国国防部尚未就此置评。(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
昔日华为、小米核心供应商破产清算!全员解散
近日,四川省遂宁市中级人民法院正式受理了四川上达电子有限公司的破产清算申请。这家曾经风光无限、承载着区域电子产业厚望的明星企业,终究未能熬过市场的寒冬,其账面数据显示,公司资产约6.87亿元,但负债却高达8.26亿元,留下超过1.38亿元的净资产缺口。 作为上达电子(湖北)股份有限公司在四川遂宁布局的全资子公司,它注册资本高达3亿元,目标直指高端柔性电路板(FPC)和覆晶薄膜(COF)领域。彼时,公司被寄予厚望,旨在打破日韩企业在关键电子材料领域的垄断。公司成立后动作迅速,很快投资12亿元在当地开建先进的COF封装生产线,立志成为国产替代的先锋。其产品线曾涵盖超过2000种电子元器件,并成功打入京东方、天马、华为、小米等一线供应链。高峰时期,其遂宁基地一期厂房面积达13万平方米,月产能规划为1.6万平米,目标是实现年产值38亿元。 回顾其发展历程,确实有过属于自己的高光时刻。2022年,公司产值达到了8.1亿元,其中80%的产能被成渝地区的客户所消化,发展势头强劲。2023年,公司更是雄心勃勃地提出了冲刺18亿元产值的目标。即便在2024年第三季度,公司对外展示的数据依旧亮眼:日产成品高达200万件,令人咋舌的人均日产值达到100万元。公司的努力也曾获得官方的认可,在2024年斩获了遂宁市“拼经济搞建设先进集体”、高新区“经济发展先进集体”等荣誉。其产品范围甚至还扩展至国际市场,在2023年通过了三星认证,远销欧美和非洲。 然而,辉煌之下,危机早已潜伏。2022年后,全球消费电子市场需求急剧萎缩,智能手机、平板电脑等核心应用领域的订单大幅减少,叠加新能源汽车领域激烈的价格战,整个高端FPC/COF市场的规模都严重缩水。外部环境恶化之际,四川上达自身也面临着技术的瓶颈与挑战。基地在投产初期良品率仅徘徊在75%左右,远低于行业公认的85%盈亏平衡线,产能爬坡远不及预期,成本高企,利润被严重侵蚀。 更为致命的是资金链的恶性循环和战略决策的偏差。公司陷入了“短贷长投”的典型困境——大量依靠短期融资去支撑庞大的固定资产投资,导致一旦市场下行、流动资金紧张,便无法覆盖如山的短期债务。据公开信息,其8.26亿负债中主要为短期债务。雪上加霜的是,有迹象表明母公司上达电子(黄石)在自身设备升级过程中,可能抽调了部分四川子公司的资金,进一步加剧了其流动性危机。而当试图抵押手中昂贵的半导体设备以换取资金时,却发现这些专用设备在市场上难以快速变现,银行等信贷机构对此类抵押意愿不高,融资渠道急剧收紧。 公司自身的发展策略也值得反思。在2023年市场环境已然不稳的情况下,四川上达却选择追加2000万投资建设车载电子产线。然而,车载电子领域认证周期极长,往往需要2-3年,新产线远水难解近渴,未能及时贡献营收即因整体经营困难而停产。 公司的崩塌带来的直接伤害落在了员工和产业链伙伴身上。今年5月底,公司已全面停工停产并全员解除劳动合同。虽然公司承诺在6月5日前结清员工2025年3月至5月的工资及五险一金,但所有员工的经济补偿金则只能被承诺“依法纳入司法程序清偿”,具体清偿额度充满未知。 更令人忧心的是,从2024年2月起,公司就已停止为员工缴纳社保公积金,多位员工反映这严重影响了他们的个人社会保障权益,尽管税务部门多次催缴,问题依旧未能解决。在供应链层面,包括松扬电子、苏州维嘉等在内的数十家供应商纷纷被拖欠货款,由此引发了多起连环诉讼。 四川上达电子的陨落,对于所有依赖产业内迁和国产替代概念发展的企业而言,无疑是一记沉重的警钟。创始人李晓华曾在2023年的供应链大会上豪言要“成为电子电路行业受尊敬的领军企业”。然而,这场押注于资本扩张与技术突围的豪赌,最终在行业寒冬与内部风险的夹击下偃旗息鼓。
白宫屋顶安装星链系统,外界认为这会引发安全威胁
图片来源:Photo by Win McNamee/Getty Images 据报道,埃隆·马斯克的政府效率部团队不顾政府安全专家的反对,在白宫屋顶安装了星链卫星互联网系统。 据《华盛顿邮报》报道,白宫通信专家对该卫星互联网系统的安装提出了国家安全方面的担忧。 据报道,当时安装工作还引发了政府效率部员工与特勤局之间的对峙。 马斯克政府效率部团队的员工于今年二月在艾森豪威尔行政办公大楼屋顶安装了星链终端,且未事先告知白宫通信团队。 有三位消息人士告诉《华盛顿邮报》,该设备支持通过星链访问互联网,但缺乏标准的追踪或身份验证安全措施,这可能导致白宫面临数据泄露或黑客攻击的风险。 与其他政府Wi-Fi系统不同,“星链访客”Wi-Fi仅需密码即可连接,无需通常的用户名或双因素认证。报道称,星链提供的网络连接可能允许设备绕过安全措施、规避监控并传输无法追踪的数据。 在马斯克离任并与唐纳德·特朗普公开决裂之后,尚不清楚白宫是否仍安装有星链终端,但据报道该卫星互联网系统也已在其他政府机构使用。 白宫代表未立即回应《财富》杂志的置评请求。 然而,特勤局发言人安东尼·古列尔米对《华盛顿邮报》表示:“我们知晓政府效率部的出发点是为了改善园区网络连接,并不认为此事会构成安全事故或安全漏洞。” 安全隐患 星链的卫星连接通常被认为比美国传统的电信网络更难被黑客入侵,后者过去曾遭外国对手攻破。 然而,这层额外的安全保护并未解决核心问题:即无法监控或控制从白宫流出的数据。 有消息人士对《华盛顿邮报》表示,卫星连接带来的任何额外安全保障无法解决对受限数据对外传输的监控问题。 缺乏日志记录和身份验证意味着恶意软件可能悄无声息地渗透到内部,这比数据泄露构成的风险更大。 这场争议已引起部分议员的关注。 众议院监督委员会的民主党议员已对特朗普政府在白宫及政府机构使用星链一事发出警告。 该委员会代理首席民主党议员斯蒂芬·F·林奇表示:“勇敢的举报者已向委员会分享了令人担忧且至关重要的信息,我们正在进行多项调查。安装星链可能导致敏感数据和信息暴露给黑客、敌对国家或其他企图伤害美国人的人,从而危及国家安全。” 民主党参议员此前曾批评马斯克在太空探索技术公司(SpaceX)的职位与其在政府中的角色之间存在的潜在利益冲突。 上个月,13名民主党参议员在致特朗普的信中,指控这位科技大亨可能利用其政府职位,为其卫星互联网企业星链在海外市场争取利润丰厚的私人合同。 参议员们敦促特朗普对这些交易展开调查并将结果公之于众。 (财富中文网) 译者:刘进龙 审校:汪皓
高德地图日本上线打车服务,支持支付宝微信跨境支付
凤凰网科技讯 6月12日,高德地图今日宣布在日本市场正式推出打车服务功能。该服务现已覆盖东京、大阪、名古屋、横滨、京都等主要旅游热点城市,为前往日本的中国游客提供本地化出行解决方案。 据了解,高德地图此次通过与日本本土出租车龙头企业“GO”平台建立合作关系,将其在国内市场积累的数字化出行服务经验延伸至海外。这也是高德继在韩国市场布局后,再次采用“技术创新结合本地化合作”的策略拓展国际业务版图。 中国内地及港澳地区用户在使用该服务时,无需额外下载应用程序或更换本地手机卡,直接通过现有的高德地图APP即可实现日本当地出租车的预约叫车。系统支持中文地址输入,并配备AI实时翻译功能,帮助解决中国游客与日本司机之间的语言沟通问题。 在支付环节,该服务接入了支付宝、微信等主流移动支付平台的跨境支付功能,用户可直接使用熟悉的支付方式完成车费结算,避免了现金支付和汇率换算的麻烦。 值得注意的是,高德地图在日本市场此前已提供实时导航和景点信息查询等基础服务。此次打车功能的加入,进一步丰富了其一体化出行服务的功能矩阵,为用户在海外旅行中提供从路线规划到交通工具预约的全链条数字化体验。
市场份额超50%,618京东3C家电的强势密码
图源:AI生成 今年618,京东“带电”品类一骑绝尘。 一年一度的电商618大促正在进行,京东3C、家电等“带电”品类的表现,可以说是“又好又快”。 先说“好”,京东“带电”品类在线上市场领跑大盘。据统计,5月13日至今,京东的3C数码品类销售额达到整体市场的52%,家电品类销售额市场占比达到51%,稳居行业第一。 再说“快”。整体来看,3C数码、家电家居品类线上市场仍处于快速增长阶段,各大平台正通过差异化策略争夺市场份额。从销售增速来看,京东以50%以上的增速领跑行业。 时代周报也发起一份《618消费者购买3C数码产品趋势》调查,进一步了解消费者在电商大促期间购买3C数码产品,尤其带AI功能的产品的情形。 结果显示,在购买频次上,一年两次的电商大促仍是消费者出手的重要时点,国补成为拉动消费的核心要素之一。 在购买平台方面,京东因售后保障、价格优惠和产品品质等因素,成为消费者购买3C数码产品考虑最多的平台。 简单说,第三方数据和调查结果均显示,今年618进行到现在,京东“带电”品类市场份额超过52%,增速也在50%以上,整体呈现市占率高、增速快、领先优势进一步扩大的特点。 这在此前的官方战报里就呈现明显的迹象。京东3C数码、家电家居等“带电”品类取得618开门红,在大促开启的一个小时内容,成交额同比增长超380%。 其中,3C数码品类里,Apple产品京东618开门红一小时成交额破亿元。智能机器人、游戏本等上万个趋势单品,成交额增长均超10倍;家电家居品类,共有超过500个品牌成交额同比增长超10倍,美的、海尔等品牌成交额破亿,超300个品牌的“闪电新品”销售同比增长超过500%。 作为京东的核心、优势品类,3C数码、家电家居等“带电”品类的强势发挥,并不让人意外。但其多年市场份额第一,市占率超过50%,还能继续保持高速增长,做对了什么? 我在京东体验到的“软性”服务 今年618,我在京东国补落地和以旧换新等多项补贴政策,以及多个“补强”动作里,捕捉到京东“带电”品类大卖的密码。我将其总结为:“硬的”又好又便宜;“软的”又细致又省心。 即,“硬的”商品供给方面,京东联手厂商、合作伙伴搭起数智化社会供应链,为消费者提供丰富、优质的商品供给; “软的”服务和体验方面,京东正通过体验式消费,不断拉高“带电”品类的竞争壁垒,重构行业标准,进而带动整个京东向好发展。 “软的”服务体验,是今年我在京东看到的最大惊喜。618前夕,我添置了一台75英寸的华为Vision 智慧屏4 Pro。影响选购的最重要的条件有三个:支持国补、免费安装以及配送要快。 在平台下单之前,我在家附近的华为官方线下门店进行过多次了解,包括价格、安装、配送、参数以及75英寸真正尺寸大小等细节。店员在介绍时表示,因为我的住处比较近,可以安排同事免费上门安装,但需要排期。并且,电视没有现货,需要等三五天才能有货配送。 这两个信息把我劝退了,我把目光放在京东上。首先是价格,华为Vision智慧屏 4 Pro 75英寸支持国补,加上平台补贴,原价7999元的售价,最终优惠1839.8元,实付6159.2元。这比店员推荐的Vision 5要便宜1000多。 图源:唐辰个人订单截图 其次是安装。此前,不少朋友也分享过家电行业送装环节的种种问题。比如,有家电品牌打着“免费上门安装”的名头诱导消费者下单,等到需要安装时,需要自行与安装师傅预约。 沟通下来,安装师傅可能要排上一周才能提供服务。即便准时上门,还会在品牌方提供的收费明细价目表之外,增加一些隐形收费项目,像安装打孔、零配件购买、高空作业收费(层高超过3米)等。 在这方面,京东提供“送装一体”服务套装,将电视挂架等配件费用,上墙打孔、安装费用直接明了的公示给消费者。 再就是配送速度。在预下单时,也就是下单未支付之前,看到京东支持次日送达。考虑到下单时间已经是凌晨12点半,这个时间是可以接受的,也是在京东配送时效范围内。 这三个决定性条件,京东都满足了。于是,我最终在京东下单,并勾选了“送装一体”的服务。第二天上午,京东配送师傅就和电视机一起上门,不到两个小时,就完成安装、调试、收走杂物等“一条龙”服务。 后面了解到,京东已经升级电视品类“送装一体”服务,海信、TCL、创维、小米、华为、长虹、三星、索尼等品牌的主要产品均已支持。超百万的“三星Micro LED巨幕电视”还会有更加细化的服务。 除了电视品类,京东也还在不断提升空调、洗衣机、智能马桶、电子锁等智能家电家居产品的送装一体覆盖率,大幅降低消费者的等待时长。 “带电”品类走向价值竞争 在选购过程中,消费者还可以选择以旧换新,将闲置的电视机、洗衣机、3C数码产品等进行置换,享受“旧机拆运免费,新机补贴立减”的权益。 根据我的了解,2024年,京东在以旧换新上累计投入超65亿元,有超过10万名员工参与并支持以旧换新工作,仅是回收的废旧电视机、冰箱、洗衣机、空调等各类家电就超过2000万台。 消费者的反馈也十分积极,今年京东618开门红1小时,3C数码类产品以旧换新成交用户数同比增长400%,通过以旧换新购买家电家居产品的成交额同比增长超40倍。 目前,京东以旧换新服务已扩展至家电、家居、建材、3C、数码、汽车、电动自行车、健康器械、健身器材等200多个细分品类。以旧换新服务范围覆盖全国99%的区域,京东让更多偏远地区消费者切实体会到国家补贴的实在和京东的极致服务。 这里有一个细节,根据国补政策要求,手机等3C产品需要现场拆盒激活。为此,京东推出一系列定制化和特色服务。比如京东快递小哥可以帮助消费者实现上门签收、激活、比对等流程,让线下一站式国补服务流畅、丝滑完成,消费者使用更便捷。 5月22日,小米15S Pro发布并开售,作为首款搭载小米自研手机SOC芯片的旗舰机型,米粉期待已久。武汉的李先生在发布会结束后,就在京东下单,并享受国补立减500元。次日,他收到新机,并在京东快递小哥的协助下,快速完成现场激活验收。 今年以来,京东还上线“新品”频道,帮助品牌、厂商打造超级新品。其不仅囊括此前推出的“新品先人一步”的玩法,即与3C数码厂商深度合作,给予新品首发助力,实现新品即爆品; 还进一步优化家电家居“闪电新品”的推新打新方法论,助力品牌在京东实现首发即卖爆。仅上半年,已有超过600款家电家居“闪电新品”成为品类TOP级爆款,给品牌提供相对确定的增长方向。 以家电家居为例,除了常规的合作,京东还升级推出“独家首发+深度共建”的打法,重塑了家电家居的“闪电新品”心智。 此前火遍全网的海尔Leader三筒懒人洗衣机——48分钟成交破万,28小时破25900台,不仅刷新品类首发纪录,更创造家电行业的首发纪录——就是通过这种方式打造的。其亮点在两方面:产研共创和营销共创。 此外,京东还联合厂商针对3C数码新品打造“权益随心选”购物方式,权益池超过50项。消费者可以根据自身需求,在权益池里挑选服务。 比如一加Ace 5 至尊系列,不仅加入“先人一步”加速换新计划,享受国补立减15%,还可以在选购至尊版时,在限量京东1年无限碎屏保、京东PLUS会员京典年卡、蓝牙耳机三项权益中任选其一;选购竞速版,可在限量京东1年无限碎屏保、减压变速发光腕力球、一加编织游戏数据线三项权益中任选其一。 有选择,并把选择权交给消费者,他们的购物体感会更加舒适。随着智能家电家居产品走入寻常百姓家,京东围绕服务、体验等“软性”实力提升的工作,也在不断细化。 诸如以旧换新、送装一体、国补上门激活、新品先人一步&权益随心选等服务,让消费者在硬件之外,也感受到平台走心的购物体验,成为京东软实力的重要展示窗口。 京东家电家居相关负责人曾表示,当前的家电家居行业,正在经历从“产品竞争”到“服务竞争”的深刻变革。京东始终相信,唯有以用户为中心,以服务为纽带,才能实现可持续增长。 这番话,在我看来还有另外一层含义,电商竞争已从单纯的价格战转向价值竞争,平台更加注重消费者体验。“带电”品类也已经是一片红海,商品层面已经很难完全做到“人无我有”,拉开明显的差距。但建立在核心品类和认知上的服务体验,便是差异化竞争的最好路径。 对京东来说,“买3C家电,上京东又好又便宜”的口号,也是用户口碑,这让更多消费者认识到,京东是选购“带电”品类的首选电商平台。这也是京东“带电”品类在618大卖的另外一个密码。 强者恒强,重塑行业竞争格局 服务体验、用户认知之外,京东“带电”品类的大卖,还离不开三重因素的推动。 “国家补贴+平台补贴”的叠加红利。京东今年重点打造了"国家补贴×百亿补贴"双补贴频道,将政策红利与平台让利叠加,给消费者让利。 这对京东来说,具备天然的优势:一方面,自营模式这一差异化优势,让京东高效承接国补,不论是供应链、物流、风控等系统能力都是,履约保障了国家补贴顺利到消费者手中,成为了红利。 另外一方面,国家补贴和京东补贴的叠加,进一步激活了消费市场,让3C家电普惠,造就了增长。消费者形成认知:国补即京东。 此外,京东的国补品类是最全的。尤其是随着2025年国补品类覆盖范围扩大,类似投影、打印机、相机、无人机、游戏机等等,这些新潮3C产品都通过国补走进千家万户。事实上,早在2024年,京东就率先承接并上线全国多省市和行政区的国补活动,打造了“快响应、广覆盖、优体验”的国补落地模式,成为国补的标杆承接平台。 2025年,国家补贴政策进一步扩大,首次将将手机、平板等数码产品纳入补贴范围。这恰好是京东的长板。极目新闻报道,2025年手机国补第一单,就是由武汉的一位女士在京东完成。1月20日0点,国家2025年手机、平板、智能手表(手环)购新补贴正式上线,她几乎是掐表下单,买了一部小米15 Pro手机。 很快,京东快递小哥上门配送,不到5分钟就完成拆封、激活、比对等线下验机步骤,完成签收。 京东小哥送达手机国补第一单 图源:极目新闻 国补之外,京东在618这个有着主场意义的大促节点,还推出“外卖百补”“百亿农补”“厂货百补”等平台补贴活动,最终实现至高立省50%、5折膨胀券等优惠福利。 时代周报调查结果还指出,对比各电商平台的国补使用体验,京东以86.8%的绝对领先的认可度位居首位。 而中信证券最新研报也表示,从品类维度看,618大促“国补+平台补”的低价心智与国补品类高客单价、长周期消费决策的特征更为契合。这一点在销售数据上也得以体现——从初期数据来看,国补品类的表现就非常强势。 扎实的供应链保障。京东是以供应链为核心的技术与服务企业。也可以说,供应链是京东的根基。在此基础上,京东自建配送队伍,推行“平台自营+商家自运营”的开放模式,一方面通过源头直采、与KA商家深度合作、商品直供等方式,深化品控管理,降低商品价格;另外一方面吸引商家自运营,丰富平台的产品供给。 最终形成“商品采购→仓储管理→终端配送→售后服务”的全链路供应链保障。这是三赢的解决方案:用户省心,一键下单,即享优质产品和服务;厂商专注产品本身,京东也从中受益。这样形成的商业生态,也成为京东与对手角逐的胜负手。 渠道升级,线上线下融合的全渠道、“沉浸式购物”体验。京东家电家居积极践行全渠道战略。目前其已经形成京东MALL、京东电器超级体验店、京东电器城市旗舰店以及遍布的京东家电专卖店等,不同门店业态形成的全渠道门店模式。 这为消费者提供了一个“沉浸式体验+全品类覆盖+场景化服务”的消费场景,边逛边买。今年618期间,京东MALL北京双井店、北京南三环店、深圳首店和武汉光谷店陆续开启营业。根据规划,到2025年年底,京东MALL的门店数量将达到24家,成为京东在线下的新潮产品展示中心、用户体验互动中心和城市级服务中心。 图源:京东MALL北京南三环店·唐辰拍摄 时代周报调查结果还可以得出一个结论,经过多年发展和消费习惯的养成,消费者在京东购买数码产品的心智可谓牢,这一心智在今年618仍得以延续。 综合调研数据来看,618固然掀起的是一场购物热潮,但它同时是观察行业和消费趋势变化的一个重要窗口。对各电商平台而言,新一轮的考验正在进行当中。 这个考验,京东已经作出回答:软硬结合,线上线下融通,外加京东在营销、流量方面的助力,京东“带电”品类制胜的模式,可以总结出一个公式:政策红利+供应链保障+渠道升级+服务体验+用户心智=京东618大卖。 其核心在于:政策红利创造价格优势;供应链保障既能丰富商品供给,也是服务体验的重要环节;渠道升级提供一站式“沉浸式购物”体验,融购物、服务、体验于一个消费场景;服务体验挖深护城河,也成为竞争的差异化“卖点”。而“上京东,买3C家电”已经成为国人的共识,这个心智,是京东过去20多年不断锤炼的核心竞争力。 总的来看,这个模式不仅推动京东3C家电占据超50%市场份额,更重塑了行业竞争逻辑。因为“带电”品类呈现的“强者更强”的市场地位,对京东的战略意义也将更大。随着618大促进行最后的阶段,京东3C、家电家居或将再创一个新的历史战绩。 参考资料: 时代周报,《3C数码市场京东份额超52%,九成受访者618带电品类消费首选京东》 金错刀,《外卖大战之外,京东又赢下一场所有人叫好的硬战》

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。