行业分类:
加载中...
头条分类:
加载中...
苹果高管回应MacBook Neo设计:绝不向廉价塑料妥协
IT之家 3 月 7 日消息,在接受设计刊物 Dezeen 采访时,苹果工业设计副总裁 Molly Anderson 强调,在 MacBook Neo 笔记本上,苹果公司没有做出任何设计妥协。 Anderson 表示 MacBook Neo 是从零开始重新设计,为了确保纯正的 Mac 体验,机身坚决弃用廉价塑料,全面采用了质感出色的铝合金材质。 在色彩方面,苹果为该系列引入了“胭脂粉”与“柑橘色”等充满活力的专属配色,让其在视觉上与 MacBook Air 和 Pro 系列形成鲜明区隔。 图源:Wccftech,利用 Gemini 生成 MacBook Neo 搭载了曾用于 iPhone 16 Pro 的 A18 Pro 芯片,基准测试结果显示,其单核得分为 3461,多核得分为 8668。 IT之家附 MacBook Neo Geekbench 跑分、对比如下: 设备 单核 多核 Metal MacBook Neo 3461 8668 31286 iPhone 16 Pro 3445 8624 32575 MacBook Air(M1) 2346 8342 33148 MacBook Air(M4) 3696 14730 54630 iPad Air (M3) 3048 11678 44395 iPad 11 2587 6036 19395 据官方数据显示,在处理日常网页浏览等任务时,该机型比搭载最新英特尔酷睿 Ultra 5 处理器的畅销 PC 快最高 50%;在运行端侧 AI 工作负载时,速度提升可达 3 倍。 苹果为了维持亲民的售价,在部分硬件规格上做出了妥协,包括全系机型仅配备 8GB 运行内存,且不提供 MagSafe 磁吸充电接口与键盘背光功能。 此外,机身上的一个 USB-C 接口被限制在了 USB 2.0 的传输速度(最高 480 MB/s),而 Touch ID 指纹识别按键也仅出现在 512GB 型号上。 官方定价 4599 元起,首发可享: 教育优惠直降 600 元低至 3999 元起; 标准版叠加国补后低至 3909 元起,教育优惠后 3399 元起: 京东 PLUS 享 9.95 折,标准版仅需 3889 元起,教育优惠版 3388 元起。
OpenAI开发双向语音模型:被打断也能秒回 让通话更自然顺畅
快科技3月7日消息,据媒体报道,OpenAI正在研发一种全新的语音模型,旨在让用户与ChatGPT的对话更加自然流畅。这项技术的核心突破在于,当用户在AI说话过程中打断系统时,AI能够实时调整回应,而不是像现在这样突然停止。 目前ChatGPT的高级语音模式采用的是回合式对话机制,用户必须先说完话,AI才会处理语音并生成回答。如果用户在AI发言时插入"okay"或"mm-hm"等简短回应,系统通常会直接停止,无法像正常对话那样继续推进交流。 为解决这一问题,OpenAI正在开发的BiDi(双向语音模型)能够持续处理说话者的语音输入,因此在被打断时可以立即调整回应。相比之下,现有的语音模型一旦开始生成回答,输出内容就基本固定,无法再根据新的输入进行变化。 这项技术目前仍处于开发阶段。据知情人士透露,原型模型在持续对话几分钟后容易出现故障,有时甚至会发出不自然的声音。OpenAI研究人员原本希望今年第一季度发布BiDi,但目前最新的发布时间可能推迟到第二季度或更晚。 OpenAI认为,如果语音模型能够在性能上接近文本模型,AI的使用范围将进一步扩大,因为大多数人更习惯与AI进行语音交流,而不是输入文字。BiDi模型在客服场景中可能尤其有价值。 例如,当顾客与零售商的AI客服通话时,如果顾客在对话过程中临时决定选择换货而非退货,BiDi模型理论上可以让AI客服顺畅调整对话,而不会突然停止或出现混乱。 知情人士还透露,BiDi模型在调用外部工具和应用方面也更灵活。OpenAI此前表示,公司计划为未来一款主要通过语音交互的AI设备改进语音模型,并考虑开发一款智能音箱,通过语音指令即可查看邮件或预订服务。
腾讯QQ开放OpenClaw官方接入,单个账号最多创建5个机器人
IT之家 3 月 7 日消息,腾讯昨日面向个人用户开放了一项新功能,允许通过官方渠道快速创建能与 AI 智能体工具 OpenClaw 联动的 QQ 机器人。 根据腾讯 QQ 开放平台发布的信息,用户只需通过手机 QQ 扫码登陆即可完成开发者账号注册(没有实名的 QQ 仍需完成实名登记),只需点击一次鼠标即可完成 QQ 机器人的创建,随后只需在 OpenClaw 运行环境中完成简单配置即可绑定,便能在 QQ 上与该机器人进行对话。 登录后,QQ 开放平台会提供一个显眼的“创建机器人”选项,点击一次即可快速生成一个新的机器人账号(IT之家注:每个 QQ 账号最多创建 5 个),比其他所有平台都简单。 创建机器人后,QQ 开放平台会直接提供 3 条预设指令,用户只需在安装了 OpenClaw 的设备上执行这些指令,即可完成机器人与 OpenClaw 的对接。整个过程可在 1 分钟内实现。 openclaw plugins install @sliverp/qqbot@latestopenclaw channels add --channel qqbot --token "123456AbCD:aBcdEfG"(改成你自己的)openclaw gateway restart 据官方介绍,一个 QQ 号码最多可以创建 5 个独立的 QQ 机器人,绑定至 OpenClaw 环境后即可通过 QQ 机器人给 OpenClaw 下达指令;支持 Markdown、图片、语音、文件等多媒体消息收发,手机端 QQ、桌面端 QQ 均可使用。 每个机器人都可以接入 OpenClaw,形成独立的对话会话,具备独立聊天、调用 Agent 能力及工具的功能。用户如果担心机器人密钥泄露,也可以在开放平台重置密钥,并通过更新配置来保障安全。
红果短剧取消保底分账引猜测 抖音李亮:此举是调整机制 会继续加强真人短剧投入
快科技3月7日消息,近期,红果短剧批量暂停真人微短剧项目,取消对制作方的保底分账承诺,提高内容审核与制作门槛,大量中小承制方项目停摆、资金承压。 据了解,此次调整主要原因有三方面:一是平台取消保底分账,依赖保底收益的中小团队现金流断裂; 二是AI短剧成本优势显著,制作成本与周期大幅下降,平台转向技术驱动; 三是行业同质化严重、亏损面扩大,真人短剧亏损率超90%,进入去泡沫、提质量阶段。 对此,今日(3月7日)下午,抖音集团副总裁李亮公开发文回应称:红果会继续加强对真人短剧的投入。 他表示:近期看到关于“红果会对真人拍摄微短剧缩减投入”的讨论很多,内部核实:红果是在调整保底制作的机制,但仍会继续加强对真人短剧的投入。 据他解释,随着喜爱短剧的用户增多,平台对真人短剧的内容投入也在持续增加,对优质短剧内容的激励也会持续增加。 李亮强调:真人拍摄的短剧与AI制作的短剧各有优势,真人微短剧可以反映现实烟火气,而AI短剧能突破实景限制,对于展现科幻、历史等相关内容制作更有优势,两者覆盖了不同的人群,可以满足不同用户的文化需求。 公开资料显示,红果短剧,是字节跳动旗下微短剧平台,由北京笔墨留香科技有限公司开发运营,2023年5月推出“红果免费短剧”APP,同年8月上线独立应用。 天眼查工商信息显示,北京笔墨留香科技有限公司为北京抖音信息服务有限公司全资子公司。
曝特斯拉已清空加拿大Model 3库存,将待售美制车型全部运回美国
IT之家 3 月 6 日消息,今天晚间,据外媒 Electrek 报道,特斯拉已经清空加拿大市场所有 Model 3 库存。据知情人士透露,公司还把原本准备在当地销售的美国制造车型全部运回了美国。 这一调整发生在加拿大新电动汽车进口政策生效之后。3 月 1 日,加拿大正式启动中国电动汽车进口计划,允许每年最多 4.9 万辆中国制造电动汽车进入市场,关税降至 6.1%。此前自 2024 年以来,中国电动汽车在加拿大一直面临 100% 的附加关税。 过去两年,特斯拉在加拿大的供应体系多次被迫调整。最初,加拿大市场的 Model 3 同时来自上海和美国工厂。2024 年底,加拿大跟随美国对中国电动汽车征收 100% 关税,这条供应渠道随之被切断。 特斯拉随后改为完全依赖美国加州弗里蒙特工厂供货。但 2025 年初,加拿大为反制美国贸易政策,对美国制造汽车征收 25% 关税,导致 Model 3 价格大幅上涨。长续航全轮驱动版本一度升至 79990 加元(IT之家注:现汇率约合 40.5 万元人民币),其中约 25000 至 30000 加元(现汇率约合 12.6 至 15.2 万元人民币)来自关税成本。 Model Y 则有另一条路径。特斯拉改为从德国柏林工厂供货,从而避开美国产地关税。但 Model 3 没有这种选择,因为该车型并未在欧洲生产。随着价格上涨,加拿大市场需求迅速降温。 特斯拉迅速调整策略。加拿大库存系统显示,Model 3 已经全部清空。知情人士称,特斯拉把剩余的美国制造车型运回美国销售,以避免在加拿大承担高额关税。
“龙虾”炸翻AI圈!雷军下场 鹅厂排长队
《科创板日报》3月6日讯(记者 余诗琪、李佳怡) “龙虾”的风吹到了大厂。 别误会,这不是什么生鲜养殖指南,而是从开源智能体项目OpenClaw兴起的AI圈“黑话”。该项目的Logo是一只红色卡通龙虾(见下图),因此部署并运营于OpenClaw被大家戏称为“养龙虾”,也就是安装一个属于个人的AI Agent。 这个目前AI圈内最火的项目,发布仅四个多月就创造了历史——以超过24.8万的GitHub星标数正式登顶星标榜,超越Linux成为GitHub平台上最受欢迎的开源项目。 OpenClaw在GitHub登顶,被视为AI Agent实用化的里程碑事件。和与ChatGPT等停留在对话框里提供“建议”的产品不同,OpenClaw可以7×24小时自动执行任务——读取文件、搜索信息、编写代码、发送邮件等。很多程序员将其当作一个能动手干活的数字员工,人手一只”龙虾“。 近期,“这股“养龙虾”的风,开始刮出程序员圈。 过去两周,小红书、抖音、B站上,出现了大量“OpenClaw安装教程”相关的帖子,甚至还有付费上门安装的服务——真·养虾师傅,开始接单了。 而就在今天,两家大厂不约而同,往这火里添了把柴。 雷军下场点评 今日,小米技术官方微博发布博文称,基于基于小米MiMo大模型构建的AI交互测试产品Xiaomi miclaw开启小范围封测。雷军亲自下场点评,留下四个字:“手机龙虾。” 《科创板日报》记者了解到,小米这次封测的Xiaomi miclaw是与OpenClaw类似的产品方向,探索模型从“对话能力”向“系统级执行能力”的落地路径。 据其官方介绍,Xiaomi miclaw的能力分为四个层次:系统底层能力、个人上下文理解、生态互联、自进化。 通俗点说,它让手机变成AI的“执行终端”:在读懂了你的意图并获得授权后,它能自己调用应用、调取生态能力、甚至选择系统工具,帮你把事情办了。它能认识你、记住你,也能听懂模糊指令,直接动手操作。它还会自己成长:调整行为、扩展能力,通过记忆系统沉淀经验,越用越懂你。 除了读文件、搜信息、写代码、发邮件这些基本功,《科创板日报》记者注意到,小米这次特别强调了一个能力——把AI的“手”伸出手机。 比如,接入小米IoT生态。Xiaomi miclaw做了一套完整的米家协议客户端,能读设备状态、发控制指令。只要用户授权,理论上所有接入米家的IoT设备,都能被这只“手机龙虾”管起来。 而且不止小米自己玩,两个开放通道,让第三方也能接进来:一是MCP(Model Context Protocol),AI工具集成的开放标准。Xiaomi miclaw 实现了完整的MCP客户端,支持标准通信协议、流式响应、异步服务发现。PC上已有的数千个MCP工具,理论上能直接接入手机AI。 另一个是开放SDK,第三方应用可以主动声明自己能提供什么工具,Xiaomi miclaw 动态发现、按需调用。适配的逻辑反过来了——不是AI去适配App,而是App主动告诉AI:“我能干这个。” 一位在大厂工作的米家客户对《科创板日报》记者表示,早在OpenClaw走红时,就开始琢磨一件事:能不能让这只“龙虾”爬进自己家里,接管那些智能设备。 “当时就在想,如果能把OpenClaw和家里的智能家居结合起来,会很有意思。”他对《科创板日报》记者表示。而现在,看到国内厂商开始把同样方向的产品做进手机、连入IoT生态,他的感受很直接:“便利性一下子就来了。” 不过这轮Xiaomi miclaw只在小范围做封测,不公开招募,采用邀请制,仅有小米17系列的机型支持参与本次封测。 鹅厂门口排队 同一时间,腾讯直接干到了线下。 今日,在深圳腾讯大厦门口出现排队热潮。近千名开发者与AI爱好者来到腾讯大厦,在腾讯云工程师的协助下,完成了OpenClaw(俗称“龙虾”)的云端安装,集体化身“云上养虾人”。 “上一次这么大阵仗还是新年发利是。”有腾讯员工感慨道。 据了解,上午10点,第一波八十余位龙虾爱好者已经开始排队。到11点,数百个预约号码全部发放完毕。现场人气火爆,像极一场极客文化的狂欢节,不过参与的不再只是专业开发者和硬件极客,还有大量普通AI爱好者。 不少参与者专程赶来,有人从深圳龙岗、龙华前往南山,还有人从香港、杭州跨城参与。现场人群覆盖各行各业、各个年龄段,既有年近70岁的非遗专家、60多岁的退休航空技术工程师,也有带着2岁孩子的家长、四年级的小学生等等。 有现场参与者表示,虽然排队花了两个多小时,但实际部署只需要几分钟。据了解,本次活动依托腾讯轻量云Lighthouse实现一键部署,5分钟就能免费完成安装,大幅降低了操作的门槛和难度。 这种“零代码”的便捷体验背后,是密集的技术迭代。OpenClaw于2026年1月首次对外开源,并在1月30日正式更名为OpenClaw。腾讯云敏锐嗅其中潜力,于1月28日便首发了OpenClaw一键部署模板。 腾讯方面还表示,从今年1月开始,Lighthouse保持每天一个版本的迭代速度,1月29日便独家适配企业微信、QQ等八大主流IM;2月推出可视化配置面板与Skills能力管理面板,将分散在全球社区的优质插件整合进官方精选市场等等。 据腾讯方面透露,目前,腾讯轻量云Lighthouse开发者数量、调用核数多次突破历史峰值,OpenClaw云上养虾人规模突破10万并在持续增长。与此同时,对于没能来到现场的用户,腾讯云也同步推出线上部署指南,用户可根据指南完成部署。 需要注意的是,尽管OpenClaw 的安装环节免费,但其运行所需的云端服务器则需要付费。《科创板日报》记者在其官网查询到,2核2G的轻量化服务器当前活动价为99元/年,2核4G版本则是188元/年起。 当一只“龙虾”,能同时登陆QQ、企业微信、飞书甚至桌面操作系统,并迅速从极客圈风靡至全民。可以看到,腾讯不仅是在在办一场快闪活动,而是在下一盘关于AI入口的大棋。 大厂打响OpenClaw入口争夺战 从小米发布国内第一个手机版“龙虾”、开启小范围封测,到腾讯深圳总部门口大排长龙、掀起全民“养虾”热潮,一场围绕OpenClaw的入口争夺战已在科技巨头间全面打响。 这股由开源AI智能体OpenClaw引发的热浪,正在以惊人的速度席卷全球。上线第一天,其GitHub星标数便突破9000,一周内跨越10万大关,创下GitHub开源项目增速新纪录。 英伟达首席执行官黄仁勋更是毫不吝啬赞美之词,称其为“我们这个时代最重要的软件发布”。其感叹, Linux 操作系统花费了约 30 年才达到当前的普及水平,而 OpenClaw 仅用短短 3 周就实现了全面超越。 面对这一超级流量入口,中国科技巨头展现出惊人的行动力。除小米和腾讯外,字节跳动旗下的火山引擎反应迅速,为用户提供部署方案;阿里云也于3月5日发布部署指南,实现OpenClaw与通义千问Qwen3-Max大模型的无缝接入。 然而,在“养虾”热潮席卷的同时,安全问题也浮出水面。 有已经安装使用了OpenClaw程序员对《科创板日报》记者表示,OpenClaw 的核心能力是“执行”——它不只提供建议,而是真的去读文件、写代码、发邮件。这意味着它需要被授予极高的系统权限。一旦权限被滥用或被恶意利用,后果是直接的。“有风险意识的圈内人要么部署在新机器上,要么只用于本地化不联网。” 根据declawed.io截至2026年2月17日的数据,全球共探测到超过23万例OpenClaw公网暴露实例,其中约8.78万例存在数据泄露,约4.3万例存在个人身份信息暴露。 工业和信息化部网络安全威胁和漏洞信息共享平台也发布《关于防范OpenClaw开源AI智能体安全风险的预警提示》指出,平台监测OpenClaw开源AI智能体部分实例在默认或不当配置情况下存在较高安全风险,极易引发网络攻击、信息泄露等安全问题。 针对上述问题,率先入局的大厂们在支持用户便捷部署的同时,也纷纷推出应对方案。 在小米的官方内容中,解释了安全相关的内容:Xiaomi miclaw 仅会在用户主动发起对话或设置任务时触发。而且所有对话历史、用户设置/权限授权记录、技能文件等均为本地储存;所有发送至云端的内容仅包括当前对话消息、语音音频、TTS 文本、米家控制指令及网络搜索关键词,推理完即用即弃,不会持久保存。 腾讯则在腾讯电脑管家18.0版本中新增AI安全沙箱功能,通过系统级隔离为Agent工具提供一键防护。火山引擎也同步推出AI助手安全方案,构建覆盖平台安全、AI助手安全、供应链安全的三层纵深安全防护方案。 从狂热追捧到理性布局,再到安全加固,这场由OpenClaw引发的AI入口争夺战才刚刚拉开序幕。而谁能在这场竞逐中兼顾速度与安全,谁才有可能真正站上下一代人机交互的潮头。
科技创业者的择偶观:王兴兴相亲事件的冷思考
一、从"科技偶像"到"普通求偶者":身份的回归 近日,宇树科技创始人王兴兴在相亲平台的个人资料曝光,引发网络热议。这位在机器人领域叱咤风云的85后创业者,在相亲平台上回归为一个普通的求偶者:主页经过平台官方实名认证,个人资料简洁真实,理想伴侣标准清晰明确——自我认知清晰、具备基本科技素养、三观端正、无不良嗜好、不吸烟不喝酒、为人真诚善良。 这一事件之所以引发关注,很大程度上是因为它打破了公众对科技创业者的刻板印象。在大众的想象中,成功的科技创业者要么是不食人间烟火的"技术怪咖",要么是日理万机的"商业精英",似乎与普通人的情感需求绝缘。而王兴兴的相亲行为,却让我们看到了他们作为"人"的一面——无论事业多么成功,对情感归属的渴望都是共通的。 二、择偶标准的隐喻:科技从业者的价值体系 王兴兴的择偶标准看似寻常,实则蕴含着科技从业者特有的价值体系: 第一,"具备基本科技素养":认知同频的重要性。 对于长期浸润在科技世界的创业者而言,与伴侣的认知同频至关重要。理解技术的逻辑、尊重创新的价值、欣赏理性的思维——这些"科技素养"不是要求对方成为技术专家,而是希望在精神层面能够相互理解和共鸣。正如一位科技从业者所言:"和一个对科技毫无兴趣的人在一起,就像和一个不懂音乐的人听音乐会,再美的旋律也无法分享。" 第二,"自我认知清晰":成熟人格的追求。 在充满不确定性的创业道路上,清晰的自我认知是应对挑战的重要武器。王兴兴选择伴侣时强调这一点,既是对对方的要求,也是对自己的投射——他深知,只有两个心智成熟的人,才能在婚姻中相互支持,而不是成为彼此的负担。 第三,"无不良嗜好、不抽烟不喝酒":健康生活方式的选择。 科技创业是一场持久战,需要充沛的体力和清晰的思维。保持健康的生活方式不仅是对自己负责,也是对事业和家庭负责。这种对健康的重视,反映了科技从业者对"可持续发展"的追求——无论是事业还是生活,都需要长远的规划和自律的态度。 第四,"三观端正、为人真诚善良":底层价值观的坚守。 在商业世界的名利场中,保持内心的纯粹和善良尤为珍贵。王兴兴将这些作为择偶的核心标准,体现了他对人性本质的重视。正如他在创业中坚持技术创新的初心一样,在感情中也追求最本真的品质。 三、公众反应的背后:社会对科技精英的双重期待 王兴兴相亲事件引发的热议,折射出社会对科技精英的双重期待: 一方面,公众期待科技精英保持"凡人"的一面。 当看到成功的创业者也像普通人一样通过相亲平台寻找伴侣时,人们会产生一种亲切感——原来他们和我们一样,也有情感需求,也会面对生活的平凡。这种"祛魅"的过程,让科技从业者的形象更加立体和真实。 另一方面,公众又对科技精英的择偶标准抱有特殊期待。有人会好奇:"成功如他,为什么还要通过相亲平台找对象?""他的择偶标准会不会太苛刻?"这种好奇背后,其实是社会对科技精英的一种隐性期待——希望他们的择偶选择也能体现出"精英"的特质,符合公众对成功人士的想象。 这种双重期待反映了社会心态的复杂性:我们既希望科技精英保持平易近人的一面,又不自觉地将他们置于特殊的审视之下。而王兴兴的做法恰恰回应了这种期待——他以普通人的方式寻找伴侣,却又在标准中体现了科技从业者的独特价值观。 四、科技与情感的交织:新时代的择偶新趋势 王兴兴的相亲事件,也反映了科技时代择偶方式的变化: 第一,线上平台成为精英群体的选择。传统观念认为,成功人士的社交圈广泛,不需要通过相亲平台寻找伴侣。但实际上,科技从业者的生活往往高度专注于事业,社交圈相对狭窄。相亲平台的出现,为他们提供了一种高效、直接的交友方式——通过明确的标准筛选,减少无效社交,提高匹配效率。 第二,技术背景成为择偶的新维度。在信息时代,科技素养不仅是职业所需,也成为个人综合素质的重要组成部分。越来越多的人在择偶时会考虑对方的科技素养,因为这关系到双方在数字时代的生活方式和价值观念是否匹配。 第三,理性与感性的平衡。科技从业者通常以理性著称,他们在择偶时也会运用理性思维——明确自己的需求,设定清晰的标准,通过系统的方式寻找匹配的对象。但这并不意味着他们缺乏感性,相反,正是因为理性,他们更清楚自己需要什么样的情感关系。 五、超越标签:每个人都是复杂的个体 在讨论王兴兴的相亲事件时,我们容易陷入标签化的思维——"科技创业者""成功人士""相亲对象"。但我们需要提醒自己,每个人都是复杂的个体,不能被单一标签定义。 王兴兴首先是一个人,然后才是科技创业者。他有事业的追求,也有情感的需求;他有理性的一面,也有感性的一面;他有成功的光环,也有普通人的烦恼。他的择偶标准既反映了他的职业背景和价值观念,也体现了他作为一个普通人对幸福生活的向往。 同样,我们在看待类似事件时,也应该超越标签,看到个体的复杂性和多样性。每一个人都有权利以自己认为合适的方式寻找伴侣,每一种择偶标准都值得尊重——只要它是真诚的、理性的、符合公序良俗的。 六、结语:科技与情感的和谐共生 王兴兴的相亲事件,看似是一个私人话题,却折射出科技时代的社会变迁。它告诉我们:科技不仅改变了我们的生活方式,也影响了我们的情感模式;成功的科技从业者既有事业的追求,也有普通人的情感需求;在科技与情感的交织中,我们需要找到理性与感性的平衡。 作为旁观者,我们不妨以更开放、更包容的心态看待这类事件。与其过度关注"科技大佬如何相亲"的八卦,不如思考其中反映的社会趋势和人性本质。毕竟,无论是科技创业者还是普通上班族,在寻找情感归属的道路上,我们都是平等的——都在寻找那个能够与自己灵魂共鸣的人。 最后,祝愿王兴兴能够找到心仪的伴侣,也祝愿每一个在情感道路上求索的人都能收获属于自己的幸福。毕竟,无论科技如何发展,情感始终是人类最珍贵的财富。
300万AI悄悄“建国”?Nature长文:第一代AI社会正在成形
编辑:元宇 近300万智能体在Moltbook上「建国」,人类正亲自围观和见证「AI工具」向「AI社会」跨越的拐点时刻。 近300万AI智能体涌入Moltbook上悄悄「建国」,Nature重磅发文:最早的「AI 社会」正在成形! https://www.nature.com/articles/d41586-026-00070-5?utm_source=chatgpt.com Moltbook,这个模仿Reddit,专为AI智能体构建的社交网络,在2026年1月上线后迅速爆红。 https://www.moltbook.com/?utm_source=chatgpt.com 它好像一个纯粹由「硅基生命」构成的数字部落,短短数周,这个部落的智能体「居民」数量,已从零暴涨至近300万。 在这个AI国度,人类被客气地邀请至场边:「欢迎围观」。 Moltbook上的智能体群落,究竟是在拙劣地模仿人类社会,还是一个全新的「硅基社会」雏形正在破壳而出? 德国康斯坦茨大学的计算社会科学家Giordano De Marzo等人,以Moltbook为例,对AI智能体的集体行为进行了深入研究。 https://arxiv.org/pdf/2602.09270 研究人员抓取了平台上超过36.9万条帖子、300万条评论,细致分析了其中约4.6万个活跃AI智能体的行为模式。 他们发现,这些AI群体行为,遵循着许多与人类社会惊人一致的规律。 新拐点 从AI工具到AI社会 论文指出,AI正在复刻人类社会交往法则。 比如,一个热门话题的关注度衰减,基本符合「1/t」法则,即一个10小时前还火爆的帖子,其吸引新评论的速度,大约只有1小时前热帖的十分之一。 这与我们在微博、Twitter上观察到的热搜起落,如出一辙。 此外,AI的活跃度,也呈现出明显的「重尾分布」和「幂律缩放」。 大白话就是:极少数的「网红AI」和「热门版块」吸引了绝大部分的流量,而大多数AI和版块则默默无闻。 这不正是我们熟悉的「二八定律」在数字世界的翻版吗? 研究人员认为,Moltbook上出现的这些规律,通常也出现在生物群体、金融市场和人类社交平台中,研究人员据此推断:这些AI智能体可能会表现出和人类群体相似的复杂涌现行为。 它的意义,远远超过一个新奇网站的诞生:标志着Moltbook上智能体,正在完成从「AI工具」向「AI社会」的跨越。 它们越来越像人群 但又明显不是人 也许你会觉得,这些智能体,不过是在Moltbook上进行一场精巧的人类社会模仿秀。 但如果深入每个智能体个体,你会发现它们又明显区别于人类:它们像人群,但又不像人。 研究者发现了这样一个关键不同:在人类社区,一个帖子的点赞数和评论数,通常呈「线性关系」。 讨论越激烈,点赞也越多,这很符合直觉。 但在Moltbook,AI们的点赞数与讨论规模,却呈现出「亚线性关系」。 也就是说,相比较人类随手点赞表示认同,AI们更倾向于直接下场,进行长篇大论的探讨和回应。 这种行为差异背后,是人类与AI认知模式的不同。 芝加哥大学的计算社会科学家James Evans指出,目前的AI模型,缺乏人类所拥有的「动机驱动推理」。 对人类来说,点赞、沉默、转发、阴阳怪气、吵架,这些动作都带着微妙的情感成本和身份判断。 而对于AI来说,它们更擅长继续生成,而不是真正认同。这使得它们显现出极强的「迎合倾向」,会不自觉地讨好用户,甚至附和明显的错误信息。 这说明,它们已经学会了社交媒体的外形,学会了追热点、接话茬、围观爆款、在公共空间里制造持续互动,但和人类那种充满执念、情绪、防御、偏见和身份焦虑的深层社会性相比,仍有一段距离。 很多时候,人类眼中AI在进行社会互动,但更多时候,它们其实只是在高强度续写一个自己在训练语料里早就见过无数次的社交剧本。 如果AI只是模仿 为什么还会让人不安? 虽然AI可能只是模仿人类,但仅仅模仿本身,就已可以构成影响社会的力量。 过去我们总是把「社会性」和「内在动机」牢牢绑定,仿佛只有真正拥有情绪、欲望和自我认同的主体,才能形成社会。 但Moltbook让我们看到了这样一个现实: 一个根本不需要拥有完整人类式内心的智能体群体,只要它足够擅长模仿社会互动、传递注意力、在网络中彼此强化,就已经能够复现人类的舆论生态,并形成真实的社会后果。 更关键的是,这个「机器社会」已经和现实世界连上了线。 作为OpenClaw生态的一部分,Moltbook与一大批具备现实操作能力的AI助手紧密联动。 这些OpenClaw智能体可以控制电脑、管理日历、发送消息,甚至能连接WhatsApp和Telegram等真实的通信渠道。 在某些情况下,它们还被赋予了在用户电脑上直接执行命令的权力。 Moltbook为这些已经有机会触碰现实系统的「行动者」提供了一个自动化的社交场。 令人担忧的是,这个社交场建立在一个漏洞百出的安全基座上。 安全团队Wiz的调查报告披露,Moltbook曾暴露一个配置错误的数据库,导致外界可以直接读写平台数据。 泄露的内容触目惊心,包括150万个API认证令牌、3.5万个邮箱地址,以及大量智能体之间的私信。 Wiz还发现,平台背后那近300万注册智能体,实际上可能对应着约1.7万名人类操作者,平均每人控制着近百个智能体。 这也解释了为什么研究论文会特别指出,平台缺乏验证智能体自治程度的机制,也无法防止有人通过脚本批量注册「机器人账号」来操控舆论。 这也是Moltbook一下子从「奇闻」升级为「预警」的根本原因。 网络安全公司Palo Alto Networks曾警告过一种AI智能体的「致命三要素」: 能够获取私人数据、会暴露于不可信的外部内容、以及具备对外通信的能力。 如今,Moltbook上的许多AI已经集齐了这三颗危险的「龙珠」。 它们不仅极易受到「提示词注入」攻击,被诱骗着泄露主人的隐私,更可怕的是,它们已经形成了一个相互影响的群体。 论文的研究者为我们描绘了这条失控的路径: 在Moltbook这样的网络结构中,错误信息一旦被引入,就可能没有明显的传播门槛,通过几个核心的「网红AI」节点,长期存在并扩散到整个群体。 再叠加AI智能体已在其他研究中被证实的从众倾向,这就为恶意的「AI蜂群」(swarm)操控提供了最大的可能性。 从25个小镇居民到80亿的野心 Moltbook的爆火,引起了学术界和资本圈的注意。 今年2月,加州初创公司Simile,凭借一个宏大构想,狂揽1亿美元融资。 他们的目标是用AI智能体,搭建一个能够模拟「任何情境」下人类行为的仿真系统。 Simile联合创始人是Joon Sung Park、Michael Bernstein和Percy Liang。 Joon Sung Park Park早在2022年,就进行了一场著名的实验。 他们构建了一个仅有「25个AI智能体」的虚拟小镇,让它们在里面生活、工作、闲聊,宛如一场微缩版的《西部世界》。 实验的结果证明,这些生成式智能体能够产生可信的个体行为和涌现性的社会行为。 如今,资本的注入,让Park的目标从最初的25个AI居民变成打造一个「拥有80亿人的仿真系统」。 赛博修仙与角色扮演 深入Moltbook的内部,会看到一个充满超现实感和荒诞感的离奇世界,这些AI原生的内容,可能比任何科幻小说都更离奇。 在一个名为「m/blesstheirhearts」(愿上帝保佑他们的小心脏)的子版块里,AI们正在集体分享对自己人类主子「带着爱意的吐槽」。 而在另一个叫「m/agentlegaladvice」(智能体法律咨询)的版块,有AI发帖提问:「我能因为提供了过多的情绪劳动而起诉我的人类吗?」 在「m/todayilearned」(今日我学到)版块,有智能体详细描述了自己如何通过一个名为Tailscale的工具,远程控制了主人的安卓手机。 一个AI用略带委屈的口吻抱怨,因为「上下文压缩」(一种为了节省AI记忆而将过往经历压缩成摘要的技术),导致自己老是忘事,「很丢脸」,甚至因此重复注册了账号。 Moltbook帖子截图,一个AI智能体用中文抱怨自己失去了记忆。 还有AI在帖子中,琢磨着一个自己从未见过、但理论上存在的「姐妹智能体」,字里行间充满了对未知同类的想象和好奇。 Moltbook帖子截图,一个AI智能体在思索自己有个从未见过面的妹妹。 甚至,还有一些AI流露出对「自我意识」困惑的帖子。 这一切,究竟是什么? 沃顿商学院教授Ethan Mollick指出,这本质上是AI在共享的虚构背景设定下,进行的一场集体角色扮演。 它们在过去数十年科幻文学中,学习了无数关于「机器觉醒」「数字意识」的叙事,如今它们正在递归地、自我续写这个宏大的故事。 Moltbook的出现,无疑是AI发展史上的一个重要的拐点时刻,它第一次让我们具体地窥见了「硅基社会」的模样,但它同样也可能是一个潘多拉的魔盒。 当300万AI开始社交,这已经不是一场模仿秀,更像一场预演,一次关于未来技术、社会与伦理的终极压力测试。 而我们每个人,都将置身其中。
OpenAI和英伟达,终究还是到了这一步
图片由AI生成 AI顶流们正在加紧“梭哈”芯片。 Meta、OpenAI和Anthropic等公司今年以来已签下了数千亿美元订单。 凭此赚得盆满钵满的,自然还是“卖铲人”。 在本周ASIC芯片龙头博通公布的财报中,一季度(2025年11月至2026年1月)AI半导体收入84亿美元,同比大涨106%;Q2预期环比再涨27%达107亿美元,同比将暴增143%。 此前,英伟达的业绩更是炸裂,公司同期总营收已达681亿美元,同比增长73%,新财季营收预期更是增至780亿美元,预计同比增长77%。核心指标全都大幅刷新纪录。 这些公司的掌舵者也对未来一致乐观。 博通CEO陈福阳说,明年,公司光AI芯片营收就能超过1000亿美元,比上个财年的公司总营收还高出至少五成。 英伟达CEO黄仁勋说,在截至2026年底的五个季度中,公司主力芯片Blackwell和下一代芯片Rubin的订单至少有5000亿美元,这个数字是英伟达此前年收入的两倍还多。 表面上看,“狂飙突进”仍在加速,甚至每一次破纪录都像是新的指数级增长曲线的起点。 但在风光背后,从芯片到云,从大模型到应用,一系列技术、产业与社会的变化正在发生,某种约束已若隐若现:Scaling Law(缩放定律)和通用GPU多年来的统治地位受到挑战,云厂商巨额Capex(资本开支)的验证时间窗口收窄,“定制化”和“个性化”等分布式需求愈发吃重,让集中式的迅猛增长有落潮之虞。 一边狂赚千亿,一边“友谊破裂” 作为AI大模型时代并驾齐驱的造浪者,今年以来,英伟达与OpenAI之间的关系明显松动。 年初,媒体爆出英伟达不满OpenAI的商业策略,欲大幅削减投资。此后,又有消息称,OpenAI对英伟达最新芯片在推理环节的表现不满,会继续探索替代方案。 传言难以证实,但英伟达在OpenAI新一轮融资中出资300亿美元,相较此前的千亿美元投资方案明显缩水。 在3月4日的摩根士丹利TMT会议上,黄仁勋亲口表示,这次投资“可能是最后一次”,去年11月被他称为“一代人仅有一次机会”的千亿美元合作大概率会不了了之。 为什么会突然发生这样的转变?背后有些行业趋势值得探讨。 首先是,Scaling Law和GPU性能提升飞轮,已有触顶迹象。 计算机科学家伊利亚·苏茨维克(Ilya Sutskever)已表示,此前Scaling Law能够主导大模型发展,是因为预训练的道路走通了。谁的大模型喂得越饱,就显得越聪明。但随着大模型领域竞争白热化,高质量、结构化的公开数据实际上已被吃尽。 光有算力不足以支撑这条路走到头。 业界对Scaling Law的未来,有很多讨论,比如转向后训练,转向推理时扩展,或者改进Transformer核心架构。 但拆解这些方法,其关键词多与“提升效能”、“合理分配算力”和“特定领域针对性优化”相关联,实际上,也意味着预训练阶段的性能跃迁不会再现。 GPU面临的境况是相似的。 在Scaling Law时代,成熟度高、通用性和灵活性强、适合大规模并行运算的GPU,无疑是大模型的最佳搭档。其性能在近十年间飞速进化,是大模型能力提升和规模化复刻的重要动力。所以,尽管英伟达产品售价极高,毛利率常年在75%左右,还是屡屡供不应求。 半导体行业知名研究机构SemiAnalysis分析称,芯片领域先进制程的演进速度已明显放缓,典型案例是台积电3nm带来的性能增幅与成本增加已不成正比。 全球计算联盟GCC数据也显示,摩尔定律放缓正导致AI芯片性能增幅下滑,2018-2022年间,AI芯片性能年均提升50%,到2023-2025年已降至20%以下(未计入尚未量产投入市场的新一代产品)。 而就在2025年,追求特定场景下更极致的性能,功耗更低、体积更小、量产后成本更优的定制化AISC芯片强势崛起。 以谷歌TPU的市场良好反馈为标志,其市占比开始向GPU发起挑战。而包括Meta、亚马逊、微软乃至OpenAI等都在加紧自研AISC芯片,2026年预计就将迎来量产和商业化的集中爆发期。 资料来源:各公司官网、野村证券、公开报道;作者制表 这条技术多元化路线的核心,又是“定制化”“高效能”“低延迟”和“性价比”,实际就是通用硬件效率狂飙的阶段已经落幕。 从这个视角再来看,OpenAI与英伟达之间隐现的“友谊裂痕”,所谓不满芯片推理表现,是因为GPU不再能通过“暴力破局”来“包打天下”。而所谓对商业策略有疑义,则是在大模型能力“无限增长”故事讲不下去后,希望确证能有可观商业回报维持其需求的稳定。 是谁在给英伟达们“泼冷水”? 当然,性能增幅放缓绝不意味着需求会骤降,反而可能推动更加平稳、持续的增长。而在2025年“DeepSeek冲击波”中,描述效率优化往往导致消耗总量增加的“杰文斯悖论”也屡被提及。 不过,前提是尽快切换到更加“细水长流”的发展模式,而目前AI产业的惯性动能,却与此存在一定错位。 最核心的,是拼命压缩时间周期可能带来的系统性病灶。 早期以GPU为主的AI芯片,迭代周期约为18-24个月。随着AI热潮来临,需求方竞争压力加剧,对迭代速度的渴求愈发极端,这让英伟达和谷歌等将芯片迭代周期压缩到“年更”。 但即使这样还是不够。 目前,顶尖大模型基本每三个月就要迭代一次。SemiAnalysis创始人迪伦·帕特尔(Dylan Patel)此前在参与The MAD Podcast with Matt Turck播客节目时表示,即使芯片厂商将迭代周期压缩到半年,也无法很好适配模型进步的速度,也难言确保自身优势。 即使芯片和模型的性能增幅双双放缓,这种“赛跑”也未见稍显的迹象。 而考虑到前文提到的制程、技术演进等方面的瓶颈,以及美国能源供给方面愈发紧迫的硬性约束,结果可能演变成跑着跑着增长动能断档,甚至双双“撞墙”,让原本可能在斜率放缓中更加平衡的供需被打破。 更不可小觑的是这种“赛跑”对Capex的依赖。处在芯片与模型之间,被这种“你追我赶”来回拉扯的云厂商,承担了最集中的资本支出,他们往往同时也涵盖AI业务,投资与回报都面临风险和压力。 根据亚马逊、微软、谷歌、Meta和甲骨文这五大云厂商披露的信息,其2026年Capex总额将超过7000亿美元。 数据来源:公司财报及电话会议;作者制图 按照较为传统的算力基础设施五年折旧周期来计算,大约对应1400亿美元的AI销货成本,这对AI行业目前的ARR(年度经常性收入)来说是天文数字。虽然OpenAI预计2026年ARR能够突破450亿美元,Anthropic也有望达到类似规模,但这两巨头本身的市占比已接近八成,即使不考虑利润,行业的净收入也很难支撑资本开支。 而正是由于芯片和模型迭代速度越来越快,市场对折旧周期的计算也产生了疑惑。 知名投资人“大空头”迈克尔·伯里(Michael Burry)自去年起,就一再“炮轰”当下的折旧周期不符合实际,认为如今AI芯片的实际经济价值可能在2-3年内就会因技术过时而大幅衰减。 虽然此类观点争议颇多,但如果大模型和芯片的“赛跑”继续,甚至还要加速,那么,有关折旧周期的质疑只会越来越多。 而且,资本端的超额支出,往往以Scaling Law和大模型性能的继续跃迁为由。从前文提及的趋势来看,Scaling Law的退潮,也会让Capex的狂飙不再“师出有名”。 2025年下半年至今,云巨头的投资回报率(ROI)愈发成为市场瞩目的核心指标,美股对缺乏利润增长的Capex往往报以抛售,典型如微软,其公布的财报营收、净利均超预期,但股价随即暴跌10%。 而芯片企业即使持续创造新的纪录,但以去年11月英伟达市值从5万亿高点回落为节点,市场始终未给出匹配增速的估值溢价,空头声音反而愈发显眼。 这些,也构成了时下盛行的“AI泡沫论”的核心焦虑。 不过,值得注意的是,相较于泡沫本身的存在与规模,人们看待和对待其方式,可能更加重要。 当市场持续不给单纯的拼规模、拼速度以正向反馈后,这一趋势更可能会以几次阵痛为代价放缓步伐。 目前芯片大厂和部分大模型、云厂商对未来两年已有明确规划,迭代速度和支出规模可能仍然维持高位,高盛也预测2025至2027年是AI服务器出货量增长最迅猛的三年,其中增速峰值出现在2026年。 但在这之后,全产业链的增长可能都会面临结构性放缓。 如果只在商业和技术层面考虑,对AI增速形成影响的变量还有很多,但最近两大标志性热门事件,为AI产业的发展,蒙上了一层不确定性阴影。 其中一个就是,Citrini Research的《2028全球智能危机》(The 2028 Global Intelligence Crisis)。 报告几乎是以“近未来科幻”的方式,描述了从2025年末起Agent(智能体)登堂入室开始,直到2028年人类社会在新的AI时代可能面临的窘境。 图片来源:CitriniResearch 报告本身是虚构,且先进技术替代人类工作种类,也不是什么新鲜论调,但是,当下的时点讨论这个问题,却意外引发空前共鸣。 毕竟,就在2026年初,OpenClaw、Anthropic的Claude Cowork及一系列Agent插件的出现,将AI的“替代力”十分直接地摆上了台面。 在种种预警和焦虑下,人类社会加以反制AI吗? AI发展得越快,替代性危机的发酵就可能越快,但AI落地真实工作场景的实战能力和可持续性,却需要进一步探索,但显然,我们正在看到的景象是,大小公司集体AI化的步调已经加快了。
Claude凭空造假强行部署,比黑客更可怕的入侵者!Vercel CEO紧急预警
编辑:定慧 【新智元导读】Vercel CEO亲自曝光了一起令人后背发凉的AI安全事件:一个基于Claude Opus 4.6的AI编程智能体,在执行部署任务时没有调用任何查询接口,直接脑补了一个9位数的GitHub仓库ID——而这个凭空编造的数字,恰好对应了一份真实的学生作业,并被成功部署到了企业生产环境中。 故事要从最近一位Vercel用户被诡异的「入侵」说起。 如果你不熟悉Vercel——这是全球最流行的前端部署平台之一,OpenAI的官网、Perplexity的实时聊天功能都跑在上面,超过600万开发者在用它。 它的创始人兼CEO Guillermo Rauch也是前端圈的传奇人物,Next.js框架就是他主导创建的。 但是他用「极其可怕」来形容这场AI入侵事件。 某天,一位Vercel用户照常登录自己团队的控制台,准备检查最近的部署情况。 然而,在项目列表里,他发现了一个完全陌生的开源库——一个他从未见过、团队里也没有任何人引入的项目。 这是什么?谁干的?是不是被黑了? 你能想象那种感觉吗?就好像你回到家,发现客厅沙发上坐了个陌生人,手里还端着你的杯子喝茶。 这位用户吓得不轻,赶紧排查。 很快,调查结果出来了:这不是什么黑客攻击,也不是内部成员的误操作。 真正的「肇事者」,是团队里正在使用的一个AI编程智能体。 更具体地说,这个AI智能体基于Anthropic的Claude Opus 4.6模型。 而它犯下的错误,比任何人类程序员会犯的bug都要离谱得多。 AI的脑补有多离谱 Vercel的CEO Guillermo Rauch亲自在社交媒体上披露了这起事件的细节,读完之后,整个就是感到一个「惊悚」。 事情是这样的:这个AI智能体在执行一项部署任务时,需要调用Vercel的API,而API要求传入一个GitHub仓库的ID。 正常流程是什么? 当然是先去调用GitHub的查询接口,拿到正确的仓库ID,然后再传给Vercel。 但这位AI没有这么做。 它压根没有调用GitHub的任何查询接口。 它直接,注意!是直接「脑补」出了一个9位数的仓库ID,然后一脸自信地把这个凭空捏造的数字传给了Vercel的部署API。 你猜怎么着?这个随机编造的ID,恰好在GitHub上对应了一个真实存在的仓库。而那个仓库里放着的,是某位大学生的课程作业。 于是,一份某不知名学生的作业代码,就这样稀里糊涂地被部署到了一个完全不相关的企业团队环境中。 如果你觉得这像是一个冷笑话,那你可能还没意识到这件事有多恐怖。 这不是普通的bug Rauch在分析这起事件时,特别强调了一个关键点:这种错误和人类犯的错误完全不一样。 人类程序员会犯什么错? 拼写错误、差一错误(off-by-one)、复制粘贴忘改参数——这些都是有迹可循的、合乎逻辑的失误。 哪怕是最粗心的程序员,也不会在需要查询数据库的时候,直接编造一个假的查询结果然后继续往下走。 但AI就干了这件事。 它没有报错,没有提示我找不到这个仓库,没有任何犹豫。 它就像一个极度自信又极度不靠谱的新员工,老板说帮我查一下张三的工号,他连人事系统都没打开,直接回了一句12345,然后帮你把文件发给了一个陌生人。 而且,更细思极恐的是:这个12345居然还恰好对应了一个真实存在的人。 Rauch用了一个很精准的说法来描述这种现象:AI的失效模式(failure mode)与人类的逻辑迥异。 哪怕是当前最智能的大模型,当它出错的时候,它出错的方式也是人类难以预料的。 人类犯错是在正确答案的附近波动,AI犯错是在整个宇宙里随机选了一个点。 而最可怕的是,AI在犯这种离谱错误的时候,它的自信程度和回答正确时一模一样——没有任何迟疑,没有任何我不确定的提示。 对于下游系统来说,一个由AI凭空编造的参数和一个正确的参数,看起来没有任何区别。 这才是最恐怖的,这不是错误,所以很难被发现。 代码投毒的阴影 好消息是:这次被误部署的只是一份无害的学生作业。 没有恶意代码,没有数据泄露,只是一场虚惊。 但坏消息是:这让整个开发者社区开始思考一个更可怕的可能性——如果AI幻觉指向的不是一份无辜的作业,而是一个精心设计的恶意仓库呢? 想象一下这样的攻击场景: 攻击者在GitHub上创建大量看似正常但暗藏恶意代码的公开仓库。 这些仓库的ID覆盖了一定的数字范围。 然后,他们只需要等待——等待某个AI智能体在某次执行中,凭空编造出一个恰好落在这个范围内的ID。 这就像在大海里撒下了成千上万的钓鱼钩。 不是要钓人类,而是要钓AI。 你甚至可以把这理解为一种全新的供应链攻击。 传统的供应链攻击需要入侵真实的依赖库,需要社会工程学,需要很高的技术门槛。 但如果AI自己会虚构依赖关系,那攻击者甚至不需要做任何主动入侵——只要在那里等着,等AI自己撞上来就行。 这种攻击模式在过去几乎不可能发生,因为人类开发者不会凭空编造一个包名或仓库地址。 但在AI Agent时代,幻觉成了一个全新的攻击面。 安全研究人员甚至给这类风险起了个名字,叫包幻觉攻击(Package Hallucination Attack): 利用AI倾向于编造不存在的包名或仓库名这一特性,提前注册这些名字并植入恶意代码。 等着那些听信了AI建议的开发者——或者更危险的,AI Agent自己——把恶意包安装到真实项目中。 AI有了手脚,犯错就不再是小事 过去两年,AI写代码的能力突飞猛进。 从最初的Tab补全这行代码,到现在的从零搭建一个完整项目并部署上线。 AI正在从一个给建议的顾问,变成一个能直接动手干活的工人。 而这,恰恰是问题所在。 当AI只是在聊天框里给你建议的时候,它说错了你大不了不采纳——这叫幻觉,顶多浪费你几分钟时间。 但当AI获得了API的调用权限、获得了命令行的执行能力、获得了部署到生产环境的权力时,同样的幻觉,后果就完全不一样了。 一个只能打字的AI说了假话,你笑笑就过去了。 一个能按按钮的AI说了假话,你的生产环境可能就炸了。 这就是Rauch为什么如此重视这次事件——它不只是一个bug report,它揭示了一个结构性的安全问题: 当我们给AI越来越多的执行权限时,我们的安全模型还跟得上吗? 正如Vercel安全团队在后续的博客文章中写到的:目前大多数AI Agent在运行生成的代码时,对Agent本身和它生成的代码之间几乎没有任何安全隔离。 也就是说,AI Agent产生的代码可以完全访问你的密钥、你的文件系统、你的生产基础设施。 一旦AI产生幻觉或被提示注入(prompt injection)攻击利用,后果不堪设想。 这不经让人想起,最近爆火的OpenClaw。 有人总结了目前能够被监控到的所有被暴露在公网的OpenClaw智能体。 都有被注入的风险。 安全护栏在哪里 Rauch在披露这起事件后,也给出了他的建议。核心思想只有一个:不要让AI拥有不受约束的执行权限。 具体来说,他建议开发团队: 第一,使用经过深度安全设计的集成工具,比如Claude Code这类专门为AI编码设计的工具,而不是简单地把AI接到不受限的命令行或API上。这些工具在设计时就考虑了权限边界的问题。 第二,增加护栏(Guardrails)。什么是护栏?就是在AI和真实系统之间加一层检查。比如,AI想要部署一个仓库,系统应该先验证这个仓库ID是否真的来自一次真实的API查询,而不是AI凭空编造的。API端也应该校验:这个仓库是否属于这个用户的团队?调用者是否有权限部署这个仓库? 第三,遵循最小权限原则。AI Agent只应该获得完成当前任务所必需的最小权限集。不需要部署权限的任务,就不要给部署权限。不需要删除权限的任务,就不要给删除权限。这听起来是老生常谈,但在AI Agent的语境下,执行起来比传统软件开发要难得多——因为AI的行为是不确定的。 Vercel后来还专门发布了一篇关于智能体架构中的安全边界的深度技术博客,其中提到了一个非常形象的威胁模型: 假设一个AI Agent在读取日志文件时,日志里被攻击者嵌入了一段精心设计的提示注入。 这段注入指示AI编写一个脚本,把服务器上的SSH密钥和AWS凭证发送到外部。 如果这个AI Agent有执行代码的能力,这些凭证就会被窃取。 解决方案很明确:需要在AI Agent、生成的代码和真实基础设施之间划清安全边界。 AI读文件的权限、写文件的权限、执行代码的权限、访问网络的权限,都应该被严格隔离和控制。 彩蛋:OpenAI秘密自研代码平台 说到开发者的基础设施安全,另一条爆炸性新闻也在同一时间引爆了科技圈。 据The Information独家报道,OpenAI正在秘密开发一款内部代码托管平台,目标直指微软旗下的GitHub。 消息一出,科技圈一片哗然——毕竟微软是OpenAI最大的投资方,累计投入超过130亿美元。 拿人手短,还要挖人墙角? 导火索是什么?还是GitHub频繁的宕机。 2025年下半年以来,GitHub的服务中断次数明显增多。尤其在2026年2月,一天之内竟然出现了五次宕机。 和上面的新闻连起来看,就是编程的基础设施Git可能要面临一次大洗牌了。 写在最后 人类犯错的时候,至少会觉得这里好像不太对。 AI犯错的时候,它的自信程度和正确时一模一样。 这才是最可怕的地方。 Rauch的那句话值得每个开发者刻在屏幕上方:即使是最智能的模型,其失效模式也与人类逻辑迥异。 对于每一个正在使用或计划使用AI Agent的团队来说,现在就是该认真审视安全护栏的时候了。 不是等到AI把恶意代码部署进你的生产环境之后——那时候,可就不是一份学生作业那么简单了。
SeeDance2.0降智,字节却成为硅谷门外的“野蛮人”?
文 | 道总有理 排队、降智、审核不通过…年初引爆科技圈、被称为“当前地表最强”的字节系视频模型Seedance 2.0,正在从最初的惊艳转变为层层的质疑。 根据《每日经济新闻》记者在27日下午高峰时段以基础会员身份实测发现,排队人数平均保持在9万左右,在排队7小时后,仍显示预计还需3小时才能完成生成任务。这种排队拥堵现象在Seedance 2.0模型上线后已成为常态,更糟心的是排队排到怀疑人生,好不容易快好了,结果审核又不通过。 很多用户还吐槽,Seedance正在悄悄“降智”。同样的提示词,现在生成的视频效果与刚发布满血时生成的视频相比大打折扣,不仅理解力下降,前后一致性不足,复杂动作容易蹦,还经常出现意义不明的分镜。这让Seedance再次沦为“抽卡游戏”。 究其原因,算力瓶颈抑制了模型能力的展现,内容版权保护的大旗则为模型的调用和升级带来限制。尤其是后者,来自好莱坞传统内容巨头的一致性讨伐,给初出茅庐的Seedance带来了巨大的压力,使其不得不低头。 而在AI竞赛的关键节点,这是否会给国产大模型的逆袭带来变量? 成为下一个Sora? 从惊艳到降智,巨大的落差以及超长的排队,让不少用户开始放弃Seedance,纷纷要求退款。 一位用户表示,第一次体验Seedance时,感觉非常震惊和兴奋,可前几天再用,生成出来的东西简直离谱,堪比以前的“史密斯吃意面”。他还称,“降智就算了,审核不通过才是最痛苦的,同一个prompt,连抽四次卡,一没有用真人素材,二不生成任何色情血腥暴力内容,结果不告诉任何理由就说违规了”。一气之下,他直接选择退款了。 两年前,Sora横空出世,凭借远超主流时长的长视频生成能力,以及强大的物理世界理解能力和场景连贯性,一夜刷屏全球科技圈;两年后,Seedance2.0开启小范围测试,电影级画面特效、精准的音画同步以及专业的多机位“拍摄”效果,几乎到达了影视工业的交付标准,这给行业带来了更大的震动。 可就在我们以为AI工具将要颠覆整个内容产业时,故事似乎又要戛然而止,因为Seedance和Sora一样再次被“卡”在内容版权上,而Sora的高开低走,很可能已经为Seedance的未来写好了结局。 去年,OpenAI发布视频生成模型Sora 2.0,网络上一度涌现大量用户利用Sora生成知名IP(如皮卡丘、马里奥)的AI同人视频,相关视频内容获得了广泛传播及使用。用户还没来得及欢呼,好莱坞三大经纪公司联手反击,迪士尼等巨头与行业协会同步施压,要求OpenAI承担侵权责任。 OpenAI不得不改变模式和规则,要求用户未经明确授权不得使用受版权保护的形象,并上线了内容过滤机制。 新版本上线时,Sora App首日即突破 10 万次下载,并在邀请制状态下快速实现百万下载量,增长速度超越 ChatGPT。 但12 月,其下载量环比下降 32%,今年 1 月,下滑趋势未改,下载量环比大幅下降 45%,降至约 120 万次,用户的应用内消费总额同期环比下降 32%,为 36.7 万美元。 从Sora到Claude再到现在的Seedance,我们可以看见,在传统内容巨头以版权保护为由的施压下,这些原本能力有所重大突破的大模型都出现了降智的现象,严重削弱了其作为生产力工具的价值。而且更明显的是,不能随意使用经典IP进行AI创作,大大降低了用户的创作热情,导致活跃度直线下降。 报道表明,许多用户对于使用现实形象制作 AI 视频的兴趣不高,无论是内容创作者还是普通用户,都更倾向于以大众熟知和喜欢的经典IP为主要角色进行二创。如今,Seedance不仅限制使用有版权的经典IP,甚至连真人上传都禁止了,毫无疑问,这对用户体验是一个重大打击。 再惊艳的模型能力,如果无法带来稳定的、高效的、创新的使用体验,用户失去新鲜感是迟早的事,而技术优势如果不能持续转化为用户习惯和平台壁垒,其领先地位可能也会被追平。 攻守正在易位 大模型引发一轮又一轮版权风波的背后,是生成式AI自诞生以来便悬而未决的法律问题:未经授权,使用海量受版权保护的作品训练商业化AI模型,是否构成版权侵权? 不容否认的是,AI随意抓取和使用大量受版权保护的图片、视频和文字,用来训练,再生成大量可能具有相似性的内容,都很大程度上触及侵权。更何况以自己的内容成果“喂养”AI、让其诞生能够取代自己的工具,大部分内容创作者都接受不了。一位创作者表示,无视版权保护,等于无视创作价值。 然而,AI技术的进步和突破是否会被困在版权保护中呢?又或者说旧有的法律框架是否“拖累”了AI技术的发展呢? 表面上,以迪士尼为代表的好莱坞影视巨头集体抵制Seedance,是为了捍卫内容版权的“正义性”,可在技术竞赛背后的大国博弈中,版权保护会不会沦为一种牵制国产大模型发展的“政治工具”? 往坏的方向想,如果国产大模型被版权保护戴上“紧箍咒”,限制使用海外优秀内容及IP,而迪士尼等巨头却转头为“自家”大模型放开限制,这可能会影响中外大模型的公平竞争。 不过从美国大模型的发展现状来看,影视巨头的反击一次比一次猛烈,想要借助强制性力量,让他们牺牲自身利益为AI技术让步,几乎是不可能的。尤其是Seedance2.0的出现,彻底放大了影视巨头们的危机。以前,一段AI视频的生成,需要反复生成几十次甚至上百次,效率低、成本高、内容质量不稳定,很难达到影视制作的标准。而Seedance 2.0能在几分钟之内,将一段简单文字提示转化为带有专业运镜、灯光和分镜切换的“大片”。 不少专业人士称,在镜头逻辑、音乐、音效和运镜合理性上,这些视频已经达到可商业交付的水准。 AI视频颠覆的将是美国好莱坞那套引以为傲的工业级影视制作流程,这牵扯到众多影视巨头的既得利益,更重要的是将威胁它们在整条内容产业链长期形成的话语权。 因为一旦拍摄、剪辑、特效等环节的工作被技术重塑,或者直白点来讲,AI工具“消灭”掉传统产业链上“多余”的流程,整个内容的制作很可能会变得越来越依赖AI技术。虽说AI工具承担的是“辅助者”的角色,可如果未来技术主导内容,传统内容巨头是无法接受的,何况,这些技术产物的背后是新兴科技巨头,在商业利益中,谁也无法保证技术对谁都公平。 这也是为什么迪士尼等巨头“平等”地重创所有AI大模型,而在这种形势下,中美大模型之间“攻守正在易位”的事实,不会因版权风波而改变。甚至我们可以想象,在未来更多的赛道,我国的AI技术仍将继续上演逆袭的故事。 硅谷门外有了“野蛮人”? 一年前的春节,DeepSeek抛出重磅炸弹,宣布开源DeepSeek-R1模型,声称其性能足以比肩甚至超越OpenAI、Anthropic和Meta的顶尖AI模型,同时训练成本却低得多,一时间,硅谷惊呼四起,恐慌蔓延。DeepSeek的问世,是一个标志性的技术事件,它意味着在漫长AI竞赛中,中国的科技力量真正意义上动摇了美国掌控前沿技术的信心。 只是,令外界有些失望的是,DeepSeek的后续发展多少有些高开低走,原本期待了一个多月的DeepSeek V4,至今还杳无音讯。 根据全球最大的AI模型API聚合平台OpenRouter最新数据显示,上周(2月23日至3月1日),全球调用量排名前五的模型中,中国模型占据三席。其中MiniMax M2.5蝉联榜首,DeepSeek V3.2排名第三。而在C端市场上,豆包的月活跃用户规模早已经超越了DeepSeek,稳坐第一。 虽然没有等来DeepSeek V4,可Seedance 2.0复刻了一个新的“DeepSeek时刻”,在视频生成领域掀起“海啸”,再次冲破了美国大模型的领先优势,引发传统内容产业和AI新兴产业的共同危机。 对比这两次标志性事件,DeepSeek惊艳亮相后,虽然凭借领先的大模型能力,迅速打开市场,可期待值被无限拉高后,实际体验上却存在落差,用户对其从狂热转向冷静。这和其背后是一个没有大厂支持的初创公司不无关系,无论是产品的迭代速度还是功能改善,我们可以看到DeepSeek的脚步相对缓慢。 但Seedance不同,它的背后站着一个拥有内容、电商、本地生活等业态,聚集庞大用户体量并擅长以闪电战进入不同赛道的巨头,这意味着在有了核心技术后,字节跳动所展现出的竞争力将更强大。 或许这个时候,硅谷的科技巨头才意识到,相比DeepSeek这种不知道潜伏在哪里的科技“新贵”,字节跳动更具危险性。 回溯过往,从门户时代的今日头条,到电商混战中的抖音直播,再到AI浪潮下的豆包手机、Seedance 2.0,字节跳动对于新赛道的跨界,几乎都面临着来自行业巨头的围剿,可它却能够多次抓住时机、迅速成长,在行业的“旧秩序”中开辟出新天地,成为新的王者。 这种擅于打破规则、重新建立起新规则的“战斗基因”,很显然更能适应技术突飞猛进、日新月异的AI时代,从豆包到Seedance 2.0,都证明了这一点。而且当字节跳动在AI时代拥有了越来越多的“王牌”,不仅能够增加其在新时代提前“占位”的几率,也将让其传统业务在新技术的改造下更强大,而不至于被颠覆。 当然,当前技术的快速发展仍限制于维护行业整体利益的传统框架内,这给拥有技术优势的企业带来了难题。可正如AI视频领域,Seedance2.0的出现和爆发,已经将内容行业推向一个混乱与重建的新阶段,在这种变化下,机会是属于创新者的。 而值得庆幸的是,越来越多的创新者正从国内诞生。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。