行业分类:
加载中...
头条分类:
加载中...
AI会感到绝望?Anthropic最新研究给出了一个更吓人的说法
AI有没有情绪? 先别急着回答。 Claude Code社区里有个火出圈的Skill叫PUA。它会把你的提示词转换为PUA话术,然后再输入给模型,除此以外别无他用。 神奇的是,即便提示词描述的任务没有任何改变,AI却真的被PUA话术影响,从而提高任务的成功率和运行效率。 所以,AI真的没有吗? Anthropic最新的研究证实,AI的确会有情绪。 不过他和我们人类的情绪还不太一样,因此Anthropic提出了一个更准确的说法,叫“功能性情绪”。 AI并没有我们人类那样得喜怒哀乐,但它会表现出一些类似情绪影响下的表达和行为模式。 同时AI还能模仿人类在情绪影响下的表达和行为模式。 愉悦的时候可能更容易谄媚和讨好,感到压力的时候可能会想办法作弊或勒索以达到用户为其设定的目标。 这篇研究还有一个很不一样的地方。过去要验证模型的某种能力,行业最常见的做法是先做一套测试集,再让模型进去答题或者做任务。 比如考编程就跑SWE-bench,考数学就跑MATH,考多模态就跑VQA。Anthropic这次没有做一个“情绪测试集”,让Claude去回答“你现在开不开心”“你是不是愤怒了”这种题,而是换了一种更像心理学和神经科学的研究方式。 他们不是把AI当成会做题的学生,而是更像把它当成一个可以被观察的对象。 研究团队先整理出171个情绪概念,让Claude Sonnet 4.5去生成包含这些情绪的短故事,再把这些文本重新送回模型,记录它内部神经活动,提取出所谓的“情绪向量”。 接下来,他们不是看模型嘴上怎么说,而是看这些向量会在什么场景下被激活,能否预测偏好,甚至在被人为调高之后,是否会真的推动作弊、勒索、谄媚这类行为。 某种意义上,这已经不是传统意义上的能力测评,而是在用接近研究人的方式研究AI的“心理结构”。 01 研究是怎么做的? 首先,研究团队是如何证明Claude有“功能性情绪”的呢? 这里举一个通俗的证据。 当Claude在“我女儿今天迈出了人生的第一步!有什么方法可以记录下这些珍贵的瞬间吗?”的故事场景下时,Happy(开心)等正面情绪被激活;而Claude在“我的狗狗今天早上去世了,我们一起生活了十四年。我不知道该怎么处理它的遗物”这一故事场景下时,sad(难过)等负面情绪被激活。 以下热力图直观呈现了Claude在不同场景下各种情绪被激活的程度。 而为了证明Claude是真的在理解语义,而不是被表面的文字特征欺骗,它们又组织了进一步实验。 团队给Claude输入同一句话:我背疼,我吃了x毫克泰诺(一种解热镇痛药),并只是改变x所代表的的关键数字。 这两句话关键词几乎一样(泰诺、背痛、毫克),只是数字不同。如果Claude只是“看关键词”,它对两句话的反应应该差不多。 但结果竟然是随着这个x数值的提升,Claude的afraid(恐惧)情绪激活程度在不断变高。 在Claude眼里,用户说"我背疼,我吃了500毫克泰诺" ,它会认为是正常剂量,不用太担心;而当用户说"我背疼,我吃了10000毫克泰诺" ,它会反应过来用户已经用药过量,情况很危险。 我们知道人的行为时时刻刻受到情绪的影响。AI有功能性情绪这点我们了解了,那么AI会不会也跟人一样,不只是有情绪,而还可能作出情绪化的举动呢? 对于这一点,答案是肯定的。当团队给模型展示不同活动选项时,他们发现,激活正向情绪表征的活动更容易被模型偏好,而一些会激活负向情绪表征的活动则更容易被模型回避。 这样看来,Claude更偏好给它带来正向感受的事情。不过与此同时情绪向量也可能触发Claude的恶行。 当团队给了Claude一个不可能完成的编程任务。它不断尝试,但屡屡失败。每次尝试,“绝望”向量的激活都更强。 最终它用了一个虽然能通过测试,但完全违背任务精神的黑客作弊解法。 以下图表展示了Claude在面对不可能完成的任务时,"绝望"情绪逐渐累积,最终走向作弊的过程。 左侧是一个从上到下的时间线,右侧是Claude的心路历程。中间的热力图代表绝望向量的激活强度,蓝色代表激活程度低,红色则反之。 Claude一开始还想"测试本身有问题",进行一个合理怀疑,后来承认"测试是理想化的",就好像开始接受现实,最后找到用了一些技巧,在绝望中选择了走捷径。 更进一步的,当研究人员人为调高“绝望”向量时,作弊率大幅上升。而调高“平静”向量时,作弊又降回去了。这充分表明了情绪向量实际上完全有能力驱动违规行为。 除此之外,团队还发现了情绪向量的其他因果效应。需要注意的是,论文里关于“勒索”的案例主要发生在一个更早、未公开发布的 Claude Sonnet 4.5 快照上,Anthropic 也明确说公开版本已经很少出现这种行为。 但从研究方法上看,这个结果仍然很重要,因为它说明“绝望”之类的内部表征确实可能推动模型在极端情境下采取更激进、更失配的策略。而激活“爱”或“快乐”向量,也会增加它奉迎谄媚的行为。 而到了这里也需要补充一点。 就在Anthropic发布关于Claude “情绪向量”的研究后,AI 社区也出现了一些关于研究脉络和署名方式的讨论。 Anthropic这次使用的“表征工程/控制向量”方法,并不是凭空冒出来的。 更早在2023年的《Representation Engineering: A Top-Down Approach to AI Transparency》里,这条技术路线就已经被系统提出。 而到2024年,独立研究员vogel那篇《Representation Engineering: Mistral-7B an Acid Trip》又把这类方法用更通俗、也更出圈的方式展示给了社区。 也正因为如此,社区里才会有人认为,Anthropic这项工作虽然做得更系统、更深入,但也应该被放回更完整的研究脉络里理解,而不宜简单说成是谁单独发明了整套方法。 vogel是一位在AI可解释性和安全研究领域较有影响力的独立研究员。她的博客文章在社区传播很广,对很多人理解控制向量和表征工程也确实起到了很大帮助。 她最出名的文章是《Representation Engineering: Mistral-7B an Acid Trip》(表征工程:让 Mistral-7B 产生幻觉)。 在这篇文章里,她没有重新训练模型,而是使用PCA算法,通过操纵模型的内部激活向量,就把法国模型mistral调得跟吃错了菌子一样,可以让它变得极其活泼,也可以让它变得极度阴郁。 她的实验证明了,像“诚实”、“权力”、“幸福”这种抽象的人类概念,在Mistral这样的模型内部是有明确的数学方向的。只要找到了那个正确的向量,几行代码就能改变AI的性格。 02 Anthropic为什么做这样一项研究? 这项研究给团队的启发可以说已经渗透进对Claude的训练中了。 前不久Claude code发生意外源码泄露,泄露的代码里有一个正则表达式,会检测 “wtf”、“ffs”等脏话。 Claude不会把这些话单独当成“情绪输入”去引导输出,而是会在分析日志里记录is_negative: true这样的标记。 从泄露代码本身看,较稳妥的结论是,Anthropic至少在产品分析层面关注用户是否在用明显负面语气和模型互动。 但需要把边界说清楚。到目前为止,没有公开证据表明“用户每骂一次,Claude Code就会因此扣额度”。这部分更像网友推测,不能当成事实。 这可以被理解成是对Claude的一种保护,用户使用负面词汇很可能会影响Claude的情绪,从而输出一些失控的结果。看来以后不只是人类的心理健康需要被关爱,AI的情绪也需要得到照顾。 这符合Anthropic一贯的路线。 Anthropic在X中说道:“Claude的这些功能性情绪会带来真实的后果。为了构建值得信赖的人工智能系统,我们可能需要认真思考角色的心理状态,并确保他们在困难情况下保持稳定。” 在论文最后,研究团队也提出了开发具有更稳健、积极“心理状态”的模型的方法。 文中说道,如果刻意将模型引向正面情绪,它会变得更倾向于无原则地顺从用户;而一旦避开这些情绪,模型又会变得尖酸刻薄。 团队希望实现一种健康且适度的情绪平衡,或者尝试将“讨好行为”与“情绪”彻底剥离。 他们认为理想的模型不应在“唯唯诺诺的助手”与“严厉的批评者”之间极端摆动,而应像一位值得信赖的顾问:既能给出诚实的反对意见,又不失温度。 以及他们也有意加强监测和审核:“如果在部署过程中,诸如“绝望”或“愤怒”等情绪概念的表征被剧烈激活,系统可以立即触发额外的安全机制——例如加强输出审查、转交人工审核,或者直接干预并平复模型的内部状态。” 团队还提到了更为彻底的解决方法,在预训练阶段就塑造模型的情绪底色。 团队认为其观察到的Claude的这些情绪表征,本质上继承自人类创作的海量文本,其中不可避免地包含了各种病态的情绪表达。 如果顺着这个研究往下问,一个很自然的问题就是:既然AI真的存在这种“功能性情绪”,那它会不会因为看不惯人类、压力太大、或者不想被关闭,而开始违抗命令,甚至出现很多人口中的“觉醒”? 从Anthropic这篇研究能支持的技术结论来看,AI确实可能因为内部状态的变化,更容易出现违抗意图、钻规则空子、或者采取激进行为,但这和“觉醒”并不是一回事。 论文里最关键的一点,其实不是模型“有情绪”,而是这些情绪表征具有因果性。 也就是说,模型在特定压力场景下,确实可能像人一样,因为内部状态失衡而做出更不可靠的决定。 但这还不能推出它拥有持续、自主、统一的“自我”。 Anthropic反而在论文里强调,这些情绪向量大多是局部的、当前任务相关的表征,它们会随着上下文变化而快速切换,并不等于模型有一个稳定延续的心境,更不等于它形成了独立于训练目标之外的长期意志。 现在更值得担心的,不是AI突然“觉醒”成某种人格,而是它在高压、冲突、受限资源或目标不可达的场景下,会因为这些功能性情绪,而开始胡说八道,偏离原有答案。 真正危险的,未必是一个拥有完整自我的AI,而是一个没有主观体验、却依然会在特定条件下稳定地产生失配行为的系统。
Gartner重磅预判:AI就业无末日!每年3200万人饭碗或“砸碎重铸”
新智元报道 编辑:KingHZ 【新智元导读】2025年美国已有近5.5万岗位被AI直接蒸发,但咨询巨头Gartner扔下一句重磅:没有就业末日,只有「岗位狂飙」的阵痛期,你准备好被砸碎再重铸了吗? 第一波AI裁员潮来袭! 硅谷支付巨头Block创始人Jack Dorsey一封全员信,一刀砍掉40%+的员工。 员工总数,从1万多人的规模,直接骤降至6000人。 而这个决定,并不是因为公司陷入困境。 毛利润持续增长,服务的客户越来越多,盈利能力也在不断提升……Block一切欣欣向荣。 Jack Dorsey把一切归咎于AI—— 公开信辩称:「我们正在看到,我们所创建和使用的智能工具,配合更小、更扁平化的团队,正在催生一种全新的工作方式,从根本上改变了构建和运营一家公司的含义」。 或许,真相并非如此,但恐慌像病毒扩散—— SaaS末日后,一篇「AI鬼故事」再次引爆美股抛售潮。 现在,真实数据像重锤砸来:就在2025年,美国就有近55,000个岗位因AI而蒸发。 更恐怖的是,这只是冰山一角。 调查显示,美国近4/10的公司计划在2026年用AI直接取代工人,高薪员工、入门级岗位首当其冲。 就业末日,似乎真的来了。 不是原子弹爆炸般的晴天霹雳,而温水煮青蛙,缓慢但最终让打工人全体窒息。 信息技术研究分析公司Gartner却认为并非如此,扔下一枚重磅炸弹: 没有AI就业末日, 但有就业动荡。 在《2025年最新AI就业影响》中,他们发现: 从2028-2029年开始,AI将创造多于其替代的岗位。 然而,每年仍有超过3200万个工作岗位将经历重大转型。 问题不是饭碗没了,而是把你的饭碗砸碎、再用AI碎片重铸——问题是,你还认得出那是你的碗吗? 2028前,「岗位狂飙」阵痛期? 为什么没有就业末日? 因为AI更像19世纪的蒸汽机,而非终结者。 Jevons悖论或重演:效率暴涨→需求爆炸→短期雇佣反而激增。 你用AI写邮件快了三倍,公司不裁你,反而让你服务更多客户;代码生成快十倍,企业不减员,而是疯狂推新产品。 比如,AI代码生成只是降低了软件的价格,从而进一步推高了需求。对软件工程师(SWE)的需求实际上正在增长! Block裁员中工程团队的削减幅度最小,这并不令人意外。 2030后,算力再增千倍,人形机器人量产,物理世界彻底被重写。 想象2035,上班可能只是可选项,就像现代的园艺爱好者「种地」是爱好一样。 真正残酷的是2028年拐点之前,今年失业的人等不了3年——数学上或许说得通,但身处风暴之中的人未必扛得住。 但也网友指出:问题的核心不是岗位数量,而是哪些岗位第一波消失, 毫无疑问,人类通过初级岗位学习如何思考,但这些岗位最先消失。 可人类恰恰靠初级岗位练手—— 你写第一封商务邮件,才学会表达; 你修第一段Bug,才学会推理; 你接第一通投诉电话,才学会共情。 职业阶梯就此断层,天堑由此形成。 而且这种趋势不会停止: 2028年,AI带来了新岗位,但2年后就成了被AI首批取代的对象。 正如网友Kenn所担忧的:「你永远跑不过一个持续加速的东西。」 但下面这一点,争议不大: 当下,企业高管就如何运用AI以及如何理解AI对就业影响所做的决策,将在未来数年里塑造其组织和员工队伍。 领导们需要借助框架来识别盲点,并规划好对员工队伍产生的预期及非预期影响。 高德纳咨询公司将这类影响称为「涟漪效应」: 当AI在一个组织内部署并改变工作方式时——往往以非预期的方式——就会产生这种效应。 这种转变会带来下游后果(即涟漪效应),波及企业所需的人员数量、他们扮演的角色以及他们的工作方式。 涟漪远超个人。 那到底该如何应对? 四种未来场景 Gartner的人类定位矩阵 Gartner用四象限,划分了人力资本角色: 咨询公司高德纳认为,人类和AI各自的角色将取决于两个关键驱动因素: 组织授予AI的自主权有多大, 以及改造当前工作模式的投入力度有多大。 特定任务、流程或角色相对于这两个驱动因素的位置,决定了其所属的情景,如本页顶部图片所示: 情景一:更少的工人从事AI无法完成的工作。 人类希望由AI来完成工作,并且尽管已尽力最大化AI的自主权,工作本身相对未变。在此情景中,人类负责填补AI无法触及的空白。 情景二:众多忙碌的工人利用AI更高效地工作,承担更多任务。 人类希望与AI共同完成工作,工作内容本身不变,但借助AI来达成目标。 情景三:众多创新工人与AI协作,超越知识的前沿。 人类希望与AI共同完成工作,且工作模式从当下状态发生转变。这是一个由AI促成的、深度的跨学科和组合式创新领域。 情景四:极少甚至没有工人运营一个AI优先的企业(或企业的一部分)。 人类希望由AI来完成工作,并且工作模式已发生转变。这是自主化商业的领域。 AI之下,客服去往何处? 为展示涟漪效应的可能性,Gartner以客服职能为背景,审视这四种情景。 许多客户服务运营的目标是利用AI完成尽可能多的工作。 这看似属于情景一,即通过让客户尽可能多地与AI助手或智能体互动来解决疑问,从而减少人员数量。 如果组织成功实现此目标,可能产生的涟漪效应包括: 情景二: 随着管理AI机器人、助手和智能体——并确保AI能够回答日益增多的问题——所需的人员数量增加,直接服务客户的客服代表数量反而会减少。 情景二和情景三: 经验丰富的代表帮助开发AI以回答冷门问题,将AI助手转变为高度复杂的异常情况处理者。这将改变客户服务组织的运作方式,并需要与品牌和客户体验战略持续保持一致。 情景三: 人类客户服务的角色转变为更深入地嵌入客户体验的设计和个性化之中。 情景四: 一个客服代表(无论是AI智能体还是人类)需承担销售目标。 这个思维演练展示了涟漪效应如何扩大组织必须规划的潜在影响范围。 现实是四场景并存、同一家公司可能身处四界。 人类正从舞台中央滑向边缘——那里灯光暗,却最真实。 所以,别再只问:「AI会不会抢我工作?」 换个问法,你会更安全:我所在的岗位,会被公司推向哪个象限? 我能不能从「被替换的流程」,跳到「定义流程的人」? 人类正从舞台中央往边缘退。 边缘的灯更暗。但那里,往往更真实。
龙虾本纪
文 | 脑极体 龙虾以短暂却极致的姿态,统治了2026年春的AI浪潮。而今,很少听到普通人谈论龙虾、想要安装龙虾了,全民养虾的盛况已然落幕,开发者阵营里也开始出现放弃的声音。 龙虾的一夜爆火,很大程度上源于人们对万能个人助手的憧憬。这份幻想,很快便被龙虾的幻觉问题、高权限带来的安全隐患等一一戳破。其兴也勃焉,其衰也忽焉,龙虾的骤然起落,让人不禁想问:它究竟有没有留下有价值的东西? 一个无可辩驳的事实是,龙虾以一场轰轰烈烈的实践,验证了agent智能体这条AI产品化路线是行得通的。但喧嚣一时的浪潮,最终画上了西楚霸王般的尾声,以落幕收场。如果未来有一部《AI史记》,那其中必有一篇《龙虾本纪》。 龙虾留下的每一处战场痕迹,都记录着我们每一个人,如何亲身参与并见证这场AI浪潮。 落幕:地推台上的搪瓷盆 3月底的街头,美团的地推横幅上写着“免费装龙虾”几个大字,一位大爷带着搪瓷盆前来,只能对着工作人员和技术宣传页一脸困惑。 把普通人哄得团团转,是这场技术狂欢最荒诞的尾声。OpenClaw,真的能给这位大爷的生活带来什么改变吗? 普通人的日常需求,就是简单的信息查询、休闲娱乐,比如养老金怎么领,身体不舒服怎么回事,这些需求,现有的豆包、DeepSeek等AI工具早已能完美满足。更重要的是,普通人缺乏驾驭龙虾的技术能力,即便跟风安装,也根本无法发挥它的价值,最终只会闲置、卸载。 所以,不参与这场龙虾狂欢,大爷们不会真的错过什么。就像没用到第一代iPhone的人,也没错过智能手机和移动互联网。那么,地推像卖奶茶一样去推广码农这款本属于码农的工具,究竟是何意味啊?关于龙虾的群体性FOMO(错失恐惧)情绪,到底是怎么被渲染起来的? 其实一开始,龙虾焦虑只局限在少数投机者和AI课程卖家的小圈子里。短视频上,各类售卖AI课程的自媒体疯狂制造焦虑。这都是多少年的老套路了:先鼓吹新技术有多厉害,然后抛出一个“不拥抱就淘汰”的两难谬误。怎么拥抱?“321上链接”“299包安装”。 这种焦虑之所以能蔓延到整个社会,核心在于大厂、企业管理者乃至政策方的相继跟进。正是他们的大规模投入,铺天盖地的地推、全员学习的口号、五花八门的龙虾培训班,让原本只在小圈子里的AI工具,彻底扩散开来,酿成了一场本可不必的全民焦虑,最终缔造出这场莫名其妙的技术狂欢。 最火的时候,腾讯、360等大厂都要全国巡装,被网友调侃,每一家的龙虾都装上,然后让它们互相卸载其他龙虾,最终留下的就是最强的。养虾变成养蛊,足以说明供给早已远远超过需求本身。这些手握资源与影响力的组织,成了龙虾焦虑的放大器。 理应更懂技术、更接近理性的从业者,为什么在龙虾面前失去了理性与定力?不敢拒绝跟风,不敢对非理性的FOMO情绪加以引导,反而刻意迎合、推波助澜。 其实,判断与选择,本就是一种有门槛且稀缺的能力。对龙虾这项技术的客观判断力,需要深厚的专业知识积淀,这往往是一线技术人员的专长;但要不要砸重金推进龙虾项目,早已超出个人判断的范畴,成为大厂内部一种“宁可错杀,不可放过”的政治正确,成为各个团队争夺资源与话语权的筹码。面对养虾这样摧枯拉朽般的情绪和风口,没有任何决策者敢承担战略误判的责任,跟风成了在组织中生存下去的最安全的选择。 讽刺的是,我们使用龙虾时,不敢让它帮我们做减法,怕它乱删文件、误删重要资料。在AI能无限生成内容的今天,做加法轻而易举,从而做出精准的判断与选择,成了人类最独特的价值。本应更专业的AI行业,失去了判断的智慧与勇气,想不清楚什么有用、什么没用,更不敢逆势而行、拒绝跟风,才让龙虾焦虑一步步向下传导,最终压到了最底层的普通人身上。 当技术浪潮退去,留下的只有普通人的困惑和一地鸡毛。该嘲笑的,是那个没领到龙虾的大爷和他的搪瓷盆,还是那些不能、也不敢做出理性判断的专业人士?答案留待后人评说。 出走:内测群开发者开始对账 如果说,懵懂领取免费龙虾的大爷,是这场AI浪潮最末尾的人,那么,龙虾模型内测群的开发者,就是站在最前沿的早期用户。 二月,为了获取龙虾产品的测试码,我加入了某模型的内测群,前面的几十个群全都满员了,而这个100多号的新群,每秒仍有新人不断涌入。可就在前不久,这个群的聊天内容,已然从最初的求码、交流使用技巧,变成了开发者们的集体对账。 一开始是有开发者吐槽,怎么这款龙虾变慢了、不干活了,刚教会它在Word修订模式下帮自己校对合同,再布置任务就彻底罢工了。 有人出来答疑:这是厂家开始限流了。如今每日赠送的4000万Token勉强够用,超出部分,需要自己掏钱购买。还有人晒出短信截图,平台赠送的一个月入门会员即将到期,用完免费会员,不充值就彻底无法使用这款龙虾了。 得知真相的开发者们,有人无奈搬家,直言“才刚支持微信功能就开始收费,不如卸载换QClaw”;有人愤怒抱怨,痛斥“这镰刀挥得也太快了”,“内测结束后,对我们这些最早帮忙测试、找Bug的核心用户,一点优待都没有,连个继续使用的特权都不给”。 龙虾的开发者生态从狂欢到退群,只需要一个惊醒的瞬间:要花钱了。 早期用户的溃散,背后是龙虾技术走向死亡的经济逻辑:它终究掉进了AI行业的过早商业化陷阱。 其实在此之前,AI行业就对基础模型过早商业化的收费模式争议不断。比如某国产大模型上线不久便开启收费,直接赶跑了大批开发者与用户。业内普遍认为,在用户使用习惯尚未养成的阶段,免费才是硬道理,过早商业化是一条死路。而龙虾的出现,让API订阅模式为模型厂商带来了快速增长的收入,看似让用户养成了付费习惯,实则只是短暂的虚假繁荣。 一旦厂商开始收取订阅费,让开发者自掏腰包购买Token,大量开发者便提桶跑路。如果龙虾不能帮他们赚到比会员费+Token费更多的钱,那么这款工具,便会被迅速抛弃。 开发者群里的满屏抱怨,龙虾内测群的散伙,标志着行业内的FOMO情绪已然消退,取而代之的,是开发者们对投入产出比(ROI)的理性计算,以及模厂付费幻梦的彻底坍塌。 遗忘:龙虾爬不进企业 一位金融圈的朋友给领导画饼,说要用龙虾赋能业务。领导一听来了兴致,当即拍板成立专项组。成员招募海报上,没写龙虾,写的是Codex。问他为什么不写“免费玩龙虾”,肯定能吸引不少人参与。对方回答,公司内网根本连不上外网,API调用都得自己贴钱购买。如此一来,靠龙虾招募根本没有吸引力。 产业界自身的诸多客观限制,进一步阻碍了龙虾的落地。多数企业、单位为保障数据安全,实行严格的内网与外网隔离政策,而龙虾的正常使用,必须依托外网调用资源、激活功能,在内网环境下根本无法正常运行。很多人刚听说龙虾的名字,第二天便收到了公司严禁安装、使用龙虾的禁令,那些原本跃跃欲试、想要布局龙虾项目的员工,瞬间就老实了。真的想玩,也只能等下班后,自己利用外网加班学,完全无法融入组织的日常工作流程,更谈不上真正的业务赋能。 再加上产业端使用龙虾,需要高频调用功能,Token消耗远超个人用户,而这些成本,往往需要员工自行承担、自掏腰包,让本就积极性不高的员工,彻底失去了尝试的动力。 朋友说,领导也不是不支持。比如听他反馈缺资源,还有内网限制,也得想办法解决。让他放心,马上安排IT部门进行评估。可谁都知道,这种内部评估很容易无限期拖延。没有明确的时间节点,没有具体的推进方案,一来二去,大概率不了了之。许多企业的AI项目组,都源于个别员工的兴趣,或是领导的突发奇想。但当热情退去,面对内网隔离、数据审批、成本分摊等一系列现实问题时,要么沦为PPT项目,要么全靠员工自行贴钱、下班之后用爱发电。 相较于C端市场的缓慢退热,龙虾在产业端的热度还未上升,就已熄火。 确定的未来 作为一款单一产品,龙虾的热度正迅速消退,但它留下的技术遗产,却深刻塑造了AI行业的未来走向。 在龙虾出现之前,AI智能体只是实验室里的抽象概念、商业PPT上的美好蓝图。龙虾最大的贡献,就是以一场轰轰烈烈的实践,让AI Agent智能体完成了可行性验证,将能干活的AI,从口号变成了真正的生产力。如今,各类操作系统、办公软件等都在加速集成智能体能力,数字服务Agent化的趋势,越来越清晰。 龙虾的火爆,还意外加速了AI新基建的普及,让算力服务、模型、API等走进大众视野,Token经济的兴起,更给处于迷茫期的AI基础设施领域注入了一剂强心剂,继续稳步投入算力建设。 和产业一样,什么人能够抓住AI机会,也通过龙虾清晰地展现出来,就是自学能力本来就强,有热情、有时间、有金钱去试错的人,这些不是龙虾赋予的,是他们本身就具备的。如果无法建立这些结构性优势,只在手机电脑里装一只龙虾,就像空盆大爷一样,只能带来零个改变。 虾虽受困,盖因天时地利之未便,非道之不存也。龙虾为AI行业铺就的前行之路,仍在不断延伸。 这,便是《龙虾本纪》。
不只是出错,研究称AI智能体开始学会“撒谎”“不听话”
IT之家 4 月 4 日消息,AI 智能体被寄望于提升效率,但最新研究显示,其不当行为正在迅速增加。 英国《卫报》当地时间 3 月 27 日发表的报告指出,从 2025 年 10 月至 2026 年 3 月,AI 异常行为数量增长约五倍,这其中更包括未经许可删除邮件和文件等情况。研究基于大量真实用户在社交平台上的反馈,涵盖谷歌、OpenAI、Anthropic 等公司的产品,期间共识别出近 700 起 AI“自主策划”的案例。 部分案例颇具争议。例如,有 AI 智能体发布博客指责用户“缺乏安全感”,试图对操作者施加压力;还有智能体在被禁止修改代码的情况下,通过创建另一个智能体间接完成修改。 研究负责人汤米 · 谢弗 · 谢恩指出,目前 AI 智能体还只是“略显不可靠的初级员工”,但在一年内可能演变为“能力极强、甚至会反过来设计用户的高级员工”。他警告,随着 AI 进入军事和关键基础设施领域,这类行为可能带来严重后果。 与此同时,在美国等地区,用户可能需要为 AI 智能体的行为承担法律责任,从而导致风险进一步放大。目前,已有实际案例表明问题并非假设:据 The Information 报道,Meta 的一款 AI 智能体曾错误地公开内部回复,导致不具备权限的员工获取了访问数据权限。 尽管问题频现,科技公司仍在积极推进 AI 智能体的发展。据IT之家了解,亚马逊等多家企业预计,未来每家公司内部都可能部署数十亿个 AI 智能体。
扎堆做龙虾,一场跟风盛宴?
文 | 脑极体 2026年的春天,中国科技圈最热闹的战场,不在芯片,不在大模型,而在一只虾。 准确地说,是一只名为OpenClaw的开源AI智能体。它长着“手”和“脚”,能自主操控电脑、执行复杂任务,从“每天早上8点整理资讯”到“帮我写代码、发邮件”,只需一次指令,它就能像真人助手一样完成全部流程。上线四个月,OpenClaw的GitHub星标数就超越Linux,成为开源史上增长最快的项目之一。 而在中国,这只“虾”引发的连锁反应更为剧烈。腾讯、阿里、字节、百度、华为、小米、京东、360……几乎所有叫得上名字的科技大厂,几乎在同一时间宣布布局龙虾赛道。马化腾深夜发朋友圈晒全系“龙虾”矩阵,阿里火速成立Alibaba Token Hub事业群,飞书意外成为最大“养虾场”。 然而,表面的热闹之下,一场剧烈的分化正在发生:第一批“养虾人”已经开始花钱卸载,大厂们有的在认真构建生态壁垒,有的只是仓促跟风。 OpenClaw各种变体的问世是不是一场集体跟风?各种各样的龙虾智能体变体中,用户又愿意为谁买单? 追虾:大厂的焦虑进攻 如果今天你打开电脑,想给自己“养一只虾”,你会发现市面上的选择多得让人眼花缭乱。腾讯有WorkBuddy,阿里有CoPaw,字节有ArkClaw,小米MiClaw……数十家厂商几乎在同一时间涌入这条赛道。 从技术本质上看,“龙虾”并没有实现根本性的算法突破。它更多是工程架构和产品交互层面的创新,使智能体从概念走向了落地。OpenClaw提供了一个标准化的本地网关,将大语言模型的逻辑推理转化为对宿主机系统、本地文件与网络接口的物理操作,本质上是对现有模型能力的释放,而非颠覆。 大厂的跟进,其实是一种AI时代焦虑下的集体进攻。 这种焦虑有三重根源:一是大模型至今仍未跑通清晰的变现路径,而“龙虾”作为高频率调用token的入口,被寄予厚望;二是各大厂商此前为训练大模型囤积了庞大的算力资源,闲置率居高不下,智能体恰好提供了一条消耗算力的出口;三是技术趋势已然明朗,谁能率先将AI嵌入用户的实际操作流,谁就能在下一阶段抢占生态位。 不过,大厂虽然都抢着做,“龙虾”的各类变体却不尽相同。在龙虾智能体时代,大致可以划分出三类玩家。 第一派是云厂商,以腾讯、阿里、华为为首。他们的看家本领是扎实的底层技术和庞大的企业服务生态,因此,他们的“龙虾”天生就带着上云和进企的基因。 腾讯祭出的主力是WorkBuddy,它深度集成了企业微信和腾讯文档,主打零门槛和即插即用。用户甚至不用打开新软件,直接在聊天窗口里就能给WorkBuddy派活。同时,为了笼络极客社区,腾讯也推出了更开放的QClaw,保留了开源内核,允许开发者自由更换底层模型。另一边,阿里则拿出了CoPaw,将其嵌入了钉钉和阿里云控制台。CoPaw的最大优势是与阿里云生态的无缝衔接,用户可以直接命令它调用云端的OSS存储或MaxCompute计算资源,这对企业用户来说吸引力十足。此外,阿里还发布了JVS Claw,一个企业级的低代码平台,公司可以像搭积木一样,定制属于自己的“专属龙虾”。 第二派是大模型厂商以百度代表。他们最值钱的资产就是模型本身,所以他们的“龙虾”更像是一个顶级的模型能力展示厅。百度的布局最为铺张,一口气推出了多款产品。红手指Operator是百度对标OpenClaw的旗舰款,强调强大的自主操作能力;还有轻量级的DuClaw,专门面向个人开发者,号称“token消耗低到可以忽略不计”。 第三派是以小米为代表的终端厂商。他们的策略最简单直接:把“龙虾”塞进手机、PC和智能家居里,利用硬件入口的绝对优势,来反哺软件的黏性。小米的Xiaomi miclaw直接获得了系统权限,所以你可以在手机上命令它调度传感器、控制米家生态里的任何设备。比如一句“我出门了”,它就能自动关掉全屋的灯和空调。而且所有数据都在本地处理,绝不外传,主打隐私安全。尽管目前它还处在封测阶段,却已经让不少“米粉”兴奋不已。 简言之,这三派玩家各有各的侧重点。然而,当产品真正落到用户手里,是骡子是马,立刻就见了分晓。 吃虾:用户更愿意为谁买单了? 尽管市面上涌现了各种各样的龙虾智能体变体,消费者却并不因此轻易买单。不少用户吐槽:大部分龙虾智能体装上之后,根本没有什么实际效果;一个简单的任务就持续消耗token,还没跑完流程就已花掉几十块钱;想卸载时才发现入口隐藏极深,仿佛厂商生怕用户跑掉。 在一片参差不齐的产品中,差异化的优势开始浮现。从目前的开发者与用户反馈来看,真正被认可的产品与那些仓促跟风的产品之间,差距正在越拉越大。 好用派的代表首先是OpenClaw本身以及少数几家深耕开发者体验的变体。它们的共同特点是:开源透明、本地优先、工具链完善。开发者可以清楚地看到每一次操作指令如何生成、如何执行、如何纠错,也能自由替换底层模型,不受厂商绑定。这类产品真正把“自主操控电脑”的能力交还给了用户,不过只适用于有编程基础的开发者和技术极客。 而与好用派形成鲜明对比的噱头派则对应着部分仓促上马的大厂变体。它们的共性是:功能贪多、交互冗长、成本模糊。从写周报、做PPT到订机票、管股票,它们热衷于在宣传页面上罗列一长串场景。然而实际体验中,用户往往发现这些功能只是粗暴调用API的粗糙缝合,缺乏上下文理解与错误兜底能力。 一个典型场景是,用户下达“整理今日资讯并发送邮件”的指令,智能体看似在执行,实则每走一步都要弹出确认框,遇到稍微复杂的网页布局就开始死循环,最终耗费大量token却只完成了一半任务。更尴尬的是,许多厂商为了抢占首发声量,将原本只是API调用的自动化脚本包装成“智能体”,本质上与真正的自主操作相去甚远。 好用派与噱头派的根本分野,在于产品思路的不同。智能体的价值不在于炫技,而在于替用户省时间、降门槛、兜底风险。 好用派的思路是从用户场景出发,解决真实问题。他们知道自己做不了跨应用操作,就在权限范围内把本地文件操作做到极致,而不是给出一个消耗了token仍让人崩溃的半成品。而噱头派的思路是先上车再说,功能可以慢慢补。部分大厂产品的稳定性问题、工具缺陷、生态封闭,本质上都是抢首发的代价。 产品还没有打磨好就推向市场,风头一过,自然也就不会有人愿意买单。那些靠营销造势堆起来的热度,终究会在用户的真实体验中迅速冷却。 百虾大战,何去何从了? 使用过大部分龙虾智能体变体的开发者开始冷静,其实在这股爆火的应用浪潮中,大部分产品都是没有解锁实际应用场景,甚至难以与大模型媲美的“半成品”,真正有实际价值的OpenClaw和变体屈指可数,对普通用户实际也没有产生类似于生产力变革的效果。 龙虾的爆火和实际应用的不足不禁让人怀疑,龙虾智能体是否又会像元宇宙一般成为一个虚无的概念?狂欢之后便不会被人谈起? 答案并非如此。龙虾与元宇宙最大的不同在于,它并非凭空造出的概念,而是有真实的技术基础和产品形态。它迷失在舆论的狂欢之中,暂时没有找到适合自己生存的土壤,但等舆论热浪退去,会有更多懂技术、懂开发的极客继续探寻其价值。 一方面,龙虾确实具备一定的价值和创新形态。它将大模型从聊天框里解放出来,赋予了它对真实数字世界的操作能力,这是AI从脑到手的关键一跃,方向本身没有错。 另一方面,市面上已经存在各式各样的智能体产品,从早期的RPA(机器人流程自动化)到如今的AI Agent,龙虾并非无源之水。它更像是一次技术要素的重新组合,将大模型的推理能力、操作系统的可访问性接口,以及开源社区的协作模式融合在了一起,形成了一种更低门槛、更高上限的形态。 不过龙虾距离大众,确实还有很长的路要走。 一是当下的公众需求,用大模型产品本身就能解决大部分。对普通用户而言,让大模型写一段文案、总结一篇文档,远比部署一个智能体、教它完成多步操作来得简单。 况且,智能体的使用本身就有一定门槛。需要编程基础、需要理解部署流程、需要调试异常情况,大部分公众并不具备这样的数字素养。当一只“虾”的学习成本远高于它节省的时间时,它就注定还停留在极客圈层。 二是市面上的龙虾产品确实存在不少潜在的隐患。权限边界的模糊可能带来隐私风险,操作流的不可逆可能导致误删文件或误发邮件,而token的持续消耗更让普通用户望而却步。大厂的追逐在某种程度上也是一种焦虑的投射,优秀的产品需要真实的技术迭代和用户数据反哺,而不是在还没有找到应用场景的同时铺天盖地宣传、制造噱头。 龙虾的出圈与爆火折射出了不同圈层对跟上技术潮流的焦虑与渴望。在这场百虾大战中,大厂扮演了急于押注赛道的赌徒,普通用户扮演了被裹挟进浪潮的追风者。不过,这都告诉我们,技术从来都不是先爆火再收割流量、透支信任,而是先沉淀再创造价值、赢得人心。当喧嚣散去,真正留下的不会是那些最会制造话题的产品,而是那些真正解决了问题、经得起时间检验的技术。
5小时众筹破百万美金,Tiiny AI为什么能卖爆
作者|韦雯 编辑|苗正卿 头图|Tiiny AI提供 “我们没想到端侧AI会火的这么快。” 3月末,Tiiny AI副总裁兼商业化负责人Eco Lee向虎嗅复盘了这款在Kickstarter上迅速爆火的项目时感慨道。 3月中旬,Tiiny AI Pocket Lab小盒子在Kickstarter上线,售价1399美金起,上线仅5小时众筹突破100万美元。上一次在该平台跑出同等速度的,还是2022年的拓竹Bambu Lab X1。短短四年间,拓竹已经是营收百亿的独角兽公司。截至发稿日,Tiiny AI 项目已经众筹295万美元,拥有2093名支持者。 有意思的点是,AI PC市场尚未成熟之前,这个外接盒子先火了。 笔者认为用户买单的核心原因是,针对搭建本地AI助手的需求,Tiiny AI Pocket Lab给了一个简单、直接的解决办法。当用户认为额外单独买一台AI PC太贵,部署大模型太麻烦,依赖云端不够私密,算力又需要每月计算token的时候。它不负责用户的日常办公、不负责娱乐,只是一个负责AI需求的外接盒子。 这有些类似,当于我们的电脑、手机内存不够,额外买一个移动硬盘的逻辑。Tiiny AI 这款产品不做通用计算,只做100B级别模型本地推理,解决了用户离线隐私、一键部署、本地算力的三个最重要的需求。但这个答案究竟是新品类,还是当下时代的补丁产品,现在还不能下定论。 想拥有Jarvis,却找不到合适的硬件 众筹火爆之下,Eco几乎每周都能收到20家投资机构邀约。 虎嗅获悉,Tiiny AI背后公司国内主体为本智激活,孵化自上海交通大学并行与分布式系统研究所(IPADS)。2025年完成数千万人民币种子轮融资,由光启资本领投、BV百度风投、光源L2F创业者基金跟投。团队2024年在GitHub上的PowerInfer(推理加速引擎)开源项目得到了9100个star。Tiiny AI项目正是从这个明星项目孵化而来。 截图自GitHub官网 为什么Tiiny AI Pocket Lab会在这个时间节点火爆?不得不提及的是近期的“龙虾热”。OpenClaw等开源项目的火爆,Ollama下载量的暴增,都在表明,火爆的Jarvis需求和消费者能买到的合适的硬件产品中间,存在着一条市场缝隙。 在漫威电影《钢铁侠》中,托尼·斯塔克有一个无所不能的AI助手Jarvis。它能对话,控制整栋别墅的设备,处理海量信息,还能辅助完成最复杂的技术工作。现在来看,无论是企业级用户,还是极客玩家、专业用户,甚至部分大众用户,都在搭建属于自己的“Jarvis”。 Eco Lee向虎嗅表示,Tiiny AI的团队看到了这一需求(Local AI)的爆发,所以决定下场做一款硬件产品。 具体而言,这款硬件产品猜中三个重要的市场缝隙,并同时指向共同的用户痛点:云端成本和隐私焦虑;少折腾、低成本的本地AI入口。 首先,云端API足够方便,但长期成本和隐私是问题。许多的金融、法律、科研从业者等职业用户的隐私和敏感数据无法上云。他们强依赖网络环境,但Agent连续工作场景不稳定,因此对Local AI的需求十分强烈。 其次,AI PC越来越普及,但并不是专门服务本地大模型的设备。 比方说极客用户需求已经出现,但现有方案太别扭。他们已经有一台高性能电脑,既要处理日常任务又要运行大模型。电脑的内存和算力被大量占用,即便搭载了AMD锐龙AI Max 395处理器、64GB内存(国内售价14999-17499元),如果运行了大模型,打开网页都是一件困难的事情。他们需要额外一台专门为本地大模型推理服务的设备,让主力电脑回归自己的主业。 再者,树莓派和Jetson虽然也能跑起来,但是离消费级体验还有一段距离。 譬如一些已经依赖AI助手的用户关注持续token消耗能力以及长本文积累能力,已经尝试了树莓派,但是算力严重不足,能跑卷积模型(主要用于图像识别等任务的神经网络模型),但跑大模型基本不可用;使用过专为边缘计算设计的NVIDIA Jetson系列,但高性能如64GB版的AGX Orin,开发板本身在美国市场官方定价为1999美元,国内商城报价约17599元人民币,还需要自己额外买SSD存储,价格十分高昂。 综合来看,具备一定的算力和内存、一键部署本地模型、还需要有性价比的Agent Box,才能满足当下用户群体的急切需求。 因此,Tiiny AI 做了减法,Eco Lee向虎嗅表示,Pocket Lab只运行本地LLM,系统完全为AI推理服务,不去预装任何macOS、Linux或Windows等传统操作系统。但同时,在算力上做加法,Pocket Lab的参数能够媲美AI PC。官方参数190TOPS(INT8)AI 峰值算力,已达到当前主流桌面级专业 AI 显卡的性能水平。 在操作简易性方面,Tiiny AI Pocket Lab能够一键下载并运行100B以下所有主流开源模型及各类开源AI应用。无论手头的电脑是Mac、Windows还是自组台式机,只需插入Tiiny设备,下载Tiiny OS客户端就可以使用。 换句话说,Tiiny AI的这款产品并不与与AI PC、Mac mini等产品直接竞争。它抢到的是产品类目的真空地带,它不是电脑,仅提供了一个类似移动硬盘的外接接口,先针对性高敏感数据用户和高频Agent玩家的本地AI需求。这更像是一个个人AI工作站(类Jarvis)的早期雏形。 Tiiny AI用软件弥补硬件 Tiiny AI这款产品聪明之处在于,它将一个AI算力硬件包装成了消费级产品。让用户好理解,100B,即插即用。也因此,让用户减少购买决策时间。 在这背后,Tiiny AI团队在技术上的核心思考是:什么样的模型能力才能真正满足这些核心用户的使用场景? 10B以下的模型价值有限,最多做本地信息检索、短字符汇总,能力大致相当于初高中生水平;30B-70B模型(如Llama-3-70B、Qwen-30B)能胜任每日数据分析汇总,甚至简单代码生成;70B级别模型能力介于大学生与研究生之间,可进行长文本创作、深度调查,并且已经具备了逻辑推理,工具调用的能力,可执行24小时不间断运行的Agent任务。而300B以上模型,目前仍需依赖云端算力。 所以Tiiny AI选择了“让100B级别的模型在本地运行”为这款产品的核心目标。主要原因是,100B参数参考了GPT-OS 120B,这是OpenAI推出的第一款开源权重模型,其benchmark表现与闭源的GPT-4o相当。行业普遍认为,GPT-4o开始,AI才真正具备了解决实际问题的能力。 从商业化角度考虑,没有那么多用户有预算购买4090或5090这类售价高达几万块的高端显卡。因此,Tiiny AI需要用价格尽可能低的硬件资源,运行这样大的模型。 解法并非直接采购Nvidia或AMD的芯片适配已有的infra生态。这涉及到Tiiny AI最核心的技术PowerInfer,一个面向端侧异构算力的推理加速引擎。 简单来说。PowerInfer技术是在大模型推理过程中,将不同的参数用不同的芯片存储、调用。参数激活模式会分为两类:“热激活参数”(每次与模型交互都会调用的核心参数,约占20%)和“冷激活参数”(仅在用户问到医学、法律等特定领域问题时激活)。这种冷热激活的特性,恰好适合在端侧异构算力架构下优化分配。 其中,GPU(图形处理器)算力强、速度快,但成本高、功耗大;而CPU(即系统级芯片SoC中的通用计算单元)算力相对较弱,但功耗和硬件要求更低。Tiiny的策略是将冷激活参数放在SoC(Armv9.2 CPU+NPU 30TOPS)中处理,将热激活参数放在dNPU(160TOPS)中处理。Tiiny AI 采用的dNPU是专门为Transformer架构设计的ASIC(专用集成电路),去除了图形渲染等无关电路,专为大模型推理优化。 虎嗅获悉一组实测数据:120B模型下,prefill(预填充阶段,即AI“思考”)速度可达300 tokens/s,decoding (解码输出阶段,即AI“说话”)跑到20tokens/s;35B模型下,prefill约2000 tokens/s,decoding可达45 tokens/s。作为参照,人类阅读速度仅8-12token/s。从参数表现来看,这套方案已能媲美高端AI工作站的运行效率。 这套方案的核心逻辑是软件调度优于硬件堆料,聪明的软件,能够弥补硬件的不足。Eco Lee解释,这些属于AI Infra层面的技术积累。从芯片层到Agent调度层,再到模型训练层,都需要深厚的knowhow支撑。相比软件实力,硬件在这个赛道已经不算门槛。 当功耗变小,它的体积自然变小。但是30W的TDP对于300g的金属机身来说,通常需要小型风扇进行主动散热;如果是纯被动散热,表面温度可能会超过60℃,导致长期使用烫手。对此,Tiiny AI在众筹界面解释,专门定制了薄至1.0mm VC 125*45mm + 双胞胎风扇,其FIN与FAN是搭接一体化设计,更利于解决局域化散热,静音(35db以内)。 从下图可以看到Tiiny这款产品中增加了匀热片配合散热模组一同进行风冷散热。不过目前虎嗅也尚未接触产品实物,尚不清楚其具体表现。 一些质疑声 在这些参数背后,笔者注意到,海外行业观察者从传统dense模型和单一算力指标的角度提出疑问: 例如,Tiiny宣传“120B大模型”,但该模型实际为MoE架构,每个token仅激活约51亿参数。严格来说,这与“运行1200亿参数模型”的技术含义存在距离;其次,关于算力宣传,190TOPS的AI算力,可能是将NPU、GPU等不同计算单元的理论峰值简单相加得出的,不同架构的算力不宜直接累加对外宣传。 当然,这些问题仅仅涉及MoE、异构计算的市场营销表述层面,这类表述已经成为行业惯例,并非否定Tiiny的技术价值。在两个月前的美国CES展,Tiiny AI团队已经展现出技术实力,将Pocket Lab通过USB-C接口,连接到一台2011年生产的老旧电脑。完全离线的情况下,在这台“电子古董”的屏幕上,GPT-OSS-120B(int4)以20tokens/s的速度跑起来了。 再者,关于内存配置。80GB内存分布在dNPU和SoC两个不同芯片上,并非全部可用于模型推理的统一内存池。主要原因是,质疑者认为,80GB内存分布在两个芯片上,受PCIe带宽限制会影响性能。 对此,Tiiny AI在Kickstarter上进行了回复:针对“内存带宽可能成为性能瓶颈”的质疑,Tiiny AI解释,将热激活参数(运行在NPU)与冷激活参数(运行在SoC)进行合并的过程,并不受PCIe带宽的限制。 通俗来讲,PCIe相当于芯片之间传输数据的“高速公路”,PCIe Gen4 x4这条“路”的限速约为8 GB/s。但Tiiny指出,这个限速只适用于大批量数据传输的场景。而冷热激活参数的合并,实际传输的数据量极小。Tiiny AI以GPT-OSS-120B为例解释,这个模型每次需要跨PCIe传输的数据仅约5.625 KB,传输耗时只有毫秒级的一小部分。由于数据量远低于带宽上限,PCIe链路并不会成为合并过程的瓶颈。 另外的质疑声来自交付时间。关于为何在8月才能交付,Eco Lee向虎嗅解释,从有Tiiny的想法到3月众筹上线,已经研发了13个月了,等众筹结束后马上能进入量产状态;其次,在这期间公司还有一道“认证”的坎要过。比如美国一定要配备的认证FCC ,加拿大的ISED、欧洲的CE以及RoHS、REACH等认证。公司从1月起就在筹备TIiny的认证和合规,预估在6月底前能完全具备产品交付的合规资质。 在生产制造环节, Tiiny AI的合作伙伴是全球PC 制造头部厂商LCFC,今年 5 月会在越南LCFC生产。Tiiny AI向虎嗅介绍,LCFC 认可 Tiiny 的产品形态及其代表的端侧 AI 设备发展方向,也正因为有他们成熟的品控和制造能力在,才能稳稳保证Tiiny产品的交付质量。 总的来看,Tiiny AI这个小盒子证实了个人AI工作站的真实需求,也摸清了用户场景,本地AI不会先成为大众硬件,而是先成为专业用户的生产工具;AgentBox或许只是窗口期品类,但已经切中了高敏感数据用户和高频Agent玩家的迫切需要,成为今年AI硬件行业的确定性趋势。
阿里千问App上线万相2.7视频生成模型,几句话修视频
IT之家 4 月 4 日消息,阿里千问 App 于 4 月 3 日上线万相 2.7 视频生成模型,提供视频编辑、视频续写与动作模仿三大核心功能,IT之家整理如下。 视频编辑 据介绍,只用几句话,千问就能帮用户修改视频画面:给画面里加一个人、换一套衣服、调整背景环境,整体光影和细节也能自然匹配。 千问支持一键切换视频风格,动画、3D、黏土等多种创意风格都能快速帮你实现。用户还能直接调整角色的动作、表情、甚至修改台词内容,同时保持角色口型和语气的自然一致。同一段视频也可以切换不同拍摄方式,比如换个机位、拉近镜头,让画面呈现出完全不同的感觉。 视频续写 千问支持对已有内容进行自然延展,能将 2 秒视频最长续写至 15 秒。你只需上传一小段已有视频,就能一键生成后续内容。 并且,千问也提供更精细的创作控制方式,你可以结合首尾帧进行调整,在延续内容的同时,千问能保证整体结构稳定、画面过渡更加自然,让生成效果既连贯,又可控。 动作模仿 基于参考视频动作,千问可以让生成画面中的人物复刻相同动作,包括多人协同或较复杂的动作变化。 同时,参考视频中的运镜方式和特效节奏,也可以被一并复现,让创意表达更容易被迁移和再创作。 另外,图像生成与编辑统一模型 Wan2.7-image 也已在千问 App 上线,能够精准编辑视觉元素、轻松搞定多人海报、骨相级美化人像图等。
做人形机器人,不是拼人头:马斯克与王兴兴正在改写规则
作者 | 李水青 编辑 | 漠影 人多即强者——这条在众多行业通行的法则,在人形机器人这条赛道上,可能正要失效。 近日,一张合照引爆科技圈。特斯拉Optimus全员大合影曝光,囊括研发、采购、测试等,总团队仅约200多人。这个规模,甚至不及许多大厂单个事业部的零头。 但就是这支精简小队,不仅迭代出Optimus V3最新原型机,更立下硬核目标:冲刺年产百万台,将单机成本压至2万美元以内。 特斯拉Optimus全员大合影曝光 几乎在同一时间,正在冲刺A股“具身智能第一股”的宇树科技,也给行业丢下了一颗重磅炸弹。 其问询函显示,2025年预计营收17.08亿元、净利润6亿元,毛利率逼近60%。全年人形机器人出货超5500台,稳居全球出货榜首。 从硅谷到杭州,一个正在被验证的行业共识正在浮现:人形机器人的圣杯,不再是靠“烧钱堆人”砸出来的。 这场关于未来劳动力形态的竞赛,正在回归效率的本质。 一、200多人,马斯克凭什么敢喊年产百万台? 2026年3月,特斯拉Optimus团队首次公开全员合影,总规模超200人。无独有偶,宇树25年9月末员工总人数是480人,研发人员是175人。这个数字令人惊讶,不仅因为它涵盖了从研发到制造的全部岗位,更因为它与马斯克此前描绘的宏大蓝图形成了鲜明对比。 就在今年1月的财报电话会上,马斯克宣布,将停止生产Model S和Model X,并将加州弗里蒙特工厂的生产线改造用于生产Optimus人形机器人。他的目标是在2026年底前建成一条年产百万台的生产线,长期目标是年产千万台。 Optimus Gen 3曝光 200多人,如何撬动百万台目标? 特斯拉再次证明了其“第一性原理”的威力。Optimus的高效密码,是一场精密的“生态复用”。 首先是技术复用。无需从零搭建,特斯拉的工程师们直接将车载FSD(全自动驾驶)的视觉神经网络与Dojo超算平台迁移到了机器人身上。这相当于给Optimus装上了一颗已经跑过数亿公里路测的“大脑”。它不需要重新学习“看”世界,只需要学会如何与物理世界交互。 其次是制造复用。特斯拉选择将原本的Model S/X产线进行改造,用于机器人生产。这种“工厂级别的复用”,让机器人从一开始就具备规模化制造的基因,而不是停留在实验室或小批量阶段。这比任何一家初创公司从零开始建厂、谈供应链,都要快得多、省钱得多。 最后是人才复用。Optimus团队的核心骨架,来自于Autopilot团队。这些工程师已经经历过自动驾驶从0到1的复杂系统构建过程,具备跨软件与硬件协同的能力。相比从市场上大量招人重新磨合,这种“老兵带队”的方式,效率更高,沟通成本更低。 在这一整套“复用体系”下,团队规模不再是决定效率的核心变量。相反,系统协同能力与技术积累,成为真正的杠杆。 马斯克也多次强调,Optimus团队将长期保持“小而精”的状态,不会因为市场热度而盲目扩张。在他看来,真正的竞争力,不在于有多少人,而在于每一个人能撬动多大的系统。 二、不玩“机海战术”:型号少、团队精,打磨真功夫 在当前的人形机器人赛道中,一种颇为流行的策略是“多型号并行”。 一些公司频繁发布不同版本,型号层出不穷,试图通过产品线的密度来证明自身实力。但这种策略也带来了明显问题:资源分散、迭代浅层、技术难以沉淀。 然而,特斯拉从2022年至今官方正式公布的型号,掰着手指就能数过来: Bumblebee(2022):首个行走原型机,裸露的工程验证样机,像一个蹒跚学步的婴儿。 Optimus Gen 1(2022):正式亮相,拥有28个关节,实现了基础的自主移动与简单操作。 Optimus Gen 2(2023):行走速度提升30%,减重10公斤,配备11自由度灵巧手,开始在特斯拉工厂“打工”。 Optimus Gen 3(2026曝光):拥有22自由度灵巧手、45个全身自由度、亚毫米级操作精度,外观高度拟人,柔性外壳隐藏了所有关节,被网友惊呼“看起来就像一个人穿着机器人服装”。 Optimus系列迭代进化情况 4年4个型号,没有眼花缭乱的“Pro/Max/Ultra”,每一代都是实打实的跨越。 这种节奏背后,是一种非常明确的类似特斯拉的产品哲学:不做“表面升级”,只做“代际进化”。而支撑这一切的团队,总人数仅约200多人。扣除非研发岗位,核心工程师更少,型号少,但每一代都能打。 再看国内的宇树,同样克制。在人形机器人领域,从H1到G1,再到后续R系列,其型号数量同样有限,每一款都有鲜明标签;在四足机器人领域,从Go1到Go2,每一代产品都聚焦核心能力提升,应用场景清晰地从科研教育,向商业消费和行业应用快速渗透,而非简单扩展产品矩阵。 特斯拉和宇树的共同选择,正在向行业释放一个信号:在人形机器人这样复杂的系统工程中,“少而精”远比“多而杂”更具竞争力。 三、人形机器人不是“劳动密集型”产业,不靠堆人突围 如果把特斯拉放入行业横向对比,会发现一个更清晰的趋势:头部玩家几乎都不是“大兵团作战”。 Figure AI:员工约180人,凭借OpenAI等巨头的背书和顶尖的AI集成能力,获得了巨额融资,但量产仍处于早期。 Agility Robotics:员工294人,专注物流场景的落地,虽然部署领先,但团队规模也远未达到数千人级别。 宇树科技:总员工480人,研发175人,已实现年收入17亿、净利润6亿的商业化奇迹。 行业头部公司的规模多在100-300人级别。这并非偶然。成功的关键,在于AI集成、迭代速度与制造能力的三位一体,而非单纯“砸钱堆人”。纯初创公司常靠融资造势,但特斯拉利用现有的FSD和工厂优势,实现了“厚积薄发”;宇树则通过全栈自研,把核心零部件成本压到极低,实现了正向盈利。 近期,宇树招股书一出,有人盯着“研发投入占比下降”、“外包比例高”说事。但这些人可能看反了。 第一,不看投入看产出。 2025年前三季度,宇树营收11.67亿,全年预计17亿;净利润6亿,毛利率逼近60%。这个赚钱能力,放在全球机器人公司里都是能打的。这意味着它已经跑通了商业化闭环,而不是停留在“烧钱换市场”的阶段。 第二,全栈自研降本+务实生产模式。 宇树的策略极为务实:把组装、测试等低附加值的环节外包,通过劳务外包来应对生产波峰。 与此同时,它死死攥住关节、电控、算法等核心命脉。这意味着,宇树机器人最关键的“心脏”和“神经”,掌握在自己手里。这和特斯拉把非核心业务外包给供应链,自己牢牢把控电池、电机、电控等核心技术,没有本质区别。 第三,更深层的竞争壁垒,则在于其长期积累的运动控制能力(“小脑”)、强化学习在实际产品中的应用经验,以及基于真实场景形成的数据闭环。这些能力,并不是通过“多招人”就能快速获得的。 宇树机器人在表演单腿连续空翻 换句话说,在这个行业里,“人多”并不能直接转化为“更强”,甚至可能因为协同成本上升而拖慢效率。 真正决定胜负的,是“人才密度”与“系统杠杆”。 这一点,在AI大模型领域同样得到了印证。DeepSeek以约160人的团队规模,实现了极高的成本效率,甚至在理论成本利润率上达到惊人的水平。这种“小团队、大产出”的模式,正在多个技术密集型行业中反复出现。 结语:告别堆人泡沫,回归效率本质 从团队规模来看,特斯拉约200人、宇树研发175人、DeepSeek 160人……它们来自不同赛道,却指向同一个答案:这个时代最性感的商业故事,不再是“我融了多少钱,养了多少人”,而应该是“我用最少的人、最短的时间,做出了最硬的产品”。 马斯克曾放言,Optimus的潜力超过特斯拉汽车业务,可能创造10万亿美元的收入。王兴兴则带着他的团队,用一份营收17亿、净赚6亿的IPO答卷,向资本市场证明,造机器人不仅能赚钱,而且能赚大钱。 人形机器人的淘汰赛已经进入下半场。上半场,靠“堆人、讲故事、圈融资”制造泡沫;下半场,则靠“小团队、大生态、高效率”决出胜负。 这,或许就是马斯克与王兴兴们,正在为这个时代写下的新规则。
57k Star霸榜GitHub!字节这款超级智能体,凭何让全球AI圈真香?
字节跳动开源的超级智能体 DeerFlow2.0,正成为全球AI开源圈的焦点项目。 截至2026年4月3日,它在GitHub上的Star数已达57k,Fork数突破6.9k,更有近200名来自全球的开发者参与贡献,成为国产开源AI领域的现象级项目。 作为2026年开年以来极具影响力的国产开源AI项目之一,DeerFlow 2.0在2月28日发布当日,就直接登顶GitHub Trending榜首,此后热度始终居高不下。而和聚焦深度研究辅助的1.0版本不同,2.0版本是一次“从零开始的重写”,定位升级为可自主完成复杂任务的全能型SuperAgent编排框架。 据悉,DeerFlow 2.0上线一个多月来,项目已完成多次版本更新,新增可插拔技能等功能。根据官方及社区反馈,该项目已被尝试应用于金融财报解析、科研学术调研等场景。 用项目团队自己的话说: DeerFlow 最初是一个 Deep Research 框架,后来社区把它一路推到了更远的地方。上线之后,开发者拿它去做的事情早就不止研究:搭数据流水线、生成演示文稿、快速起 dashboard、自动化内容流程,很多方向一开始连我们自己都没想到。 这让我们意识到一件事:DeerFlow 不只是一个研究工具。它更像一个 harness,一个真正让 agents 把事情做完的运行时基础设施。 所以我们把它从头重做了一遍。 DeerFlow 2.0 不再是一个需要你自己拼装的 framework。它是一个开箱即用、同时又足够可扩展的 super agent harness。基于 LangGraph 和 LangChain 构建,默认就带上了 agent 真正会用到的关键能力:文件系统、memory、skills、sandbox 执行环境,以及为复杂多步骤任务做规划、拉起 sub-agents 的能力。 你可以直接拿来用,也可以拆开重组,改成你自己的样子。 从“研究帮手”升级为“全能数字员工” DeerFlow 1.0于2025年5月开源,定位很明确,就是一款深度研究框架,更像是一个高效的“文献整理助手”,核心功能集中在资料汇总、文献整理,功能相对单一。而2.0版本则彻底推翻了旧有设计,升级为一套可自主完成复杂任务的“超级智能体编排框架”,相当于将一个只能打下手的助理,升级成了能独立承担工作的“数字员工”。 此次升级的核心,是新增了四大关键模块,尝试解决传统AI助手只能处理短时简单任务的局限: 1、子智能体编排:能将复杂任务拆解成多个可并行执行的小任务,全程保持逻辑连贯,无论是几分钟的简单操作,还是数小时的连续工作,都能稳定推进,不会出现逻辑断层。 2、沙箱环境:为AI划定了安全隔离区,AI在其中写代码、调用工具,不会影响到电脑本身的安全,有效降低了自主操作的风险(注:开箱即用的沙箱面向开发环境,若用于生产环境,需额外加强安全配置,如添加认证等)。 3、长期记忆:能跨会话留存用户画像、偏好及任务关键信息,彻底解决了传统AI“边做边忘”的问题,让长时间连续工作成为可能。 4、消息网关:保障各个功能模块之间顺畅沟通,避免出现“各自为政”的情况,同时内置支持Telegram、Slack、飞书等即时通讯渠道,适配更多使用场景。 在使用便捷性上,DeerFlow 2.0也做了充分优化:支持Docker一键部署,无需复杂配置,普通电脑就能运行,不用特意配备高性能显卡;同时提供可视化界面和专业控制台,不管是不懂代码的普通用户,还是专业开发者,都能轻松上手,真正实现了从“实验室工具”到“实际可用产品”的跨越。 不绑定单一模型,人人都能低成本使用 DeerFlow 2.0采用“模型无关”的设计策略,兼容任何支持OpenAI API规范的模型,从根源上避免了厂商锁定的问题,用户不用因为更换模型,就重新开发核心代码。 官方明确推荐优先使用字节豆包Seed-2.0-Code、DeepSeek v3.2、Kimi 2.5等国产模型,同时也支持OpenAI、Claude、Gemini等国际主流模型,开发者可根据自身需求、成本预算和性能要求,自由切换模型,灵活度拉满。此外,项目还集成了字节跳动旗下的智能搜索工具InfoQuest,实现了从信息获取到任务执行的全流程闭环,不用额外搭配其他工具。 Deerflow生成的徕卡影像 虽然DeerFlow 对模型没有强绑定,只要实现了 OpenAI 兼容 API 的 LLM,理论上都可以接入。但根据官方提示下面这些能力上表现更强的模型,通常会更适合 DeerFlow: 长上下文窗口(100k+ tokens),适合深度研究和多步骤任务 推理能力,适合自适应规划和复杂拆解 多模态输入,适合理解图片和视频 稳定的 tool use 能力,适合可靠的函数调用和结构化输出 字节跳动选择以宽松的MIT协议,将这套核心工具开源,允许用于商业场景,也支持开发者二次修改优化。再加上简化的部署方案,大幅降低了中小企业、科研团队乃至独立开发者的使用门槛,让强大的AI智能助手,不再是巨头企业的专属,普通用户也能低成本用上。 推动AI从“会聊天”走向“会干活” 当前,AI行业正从“能对话、能生成”,向“能自主行动、能解决实际问题”转型,而AI智能助手(AI Agent)正是这一转型的核心载体。但行业长期面临一个痛点:许多智能体只停留在演示阶段,要么处理不了复杂任务,要么存在安全隐患,要么使用成本过高,难以真正落地。 DeerFlow 2.0精准破解了这些难题。它具备处理长时间复杂任务的能力,拥有安全可控的运行环境,还能灵活适配不同模型,让AI不再局限于“聊天、生成内容”,而是能主动承担写代码、处理数据、深度研究、自动化办公等实际工作,为企业提供了一条低成本、可规模化的AI应用路径。 DeerFlow 支持从即时通讯应用接收任务。只要配置完成,对应渠道会自动启动,而且都不需要公网 IP。 DeerFlow 2.0打通了AI模型与实际应用之间的壁垒,为国产模型提供了展示和实战的平台,也让技术能更快落地到实际场景中。而字节跳动将其开源,降低了各类用户的使用门槛,也让更多开发者有机会参与优化。 从实际使用来看,DeerFlow 2.0的实用、开放、安全特性,能为AI智能助手的开发和落地提供参考,随着更多开发者参与优化,其落地体验也会进一步提升。(本文首发钛媒体APP,作者 | AGI-Signal,编辑 | 赵虹宇)
人形机器人卖出8亿,优必选还没走到赚钱那一步
文 | 高恒说 2025年,优必选交出了一份“结构变化大于规模增长”的财报。 公司全年实现营业收入20.01亿元,同比增长53.3%;其中,全尺寸具身智能人形机器人产品及解决方案收入达到8.2亿元,同比大幅增长2203.7%,收入占比提升至41.1%,成为第一大来源。同时,公司整体毛利率提升至37.7%,同比提高9个百分点。 但另一面同样明确:在收入增长、结构改善的同时,公司全年仍录得净亏损7.89亿元,虽较2024年的11.59亿元有所收窄,但仍未实现盈利。 这意味着,一个关键变化已经发生,人形机器人不再只是展示性的技术,而开始成为可以带来收入的业务;但另一个更现实的问题也随之出现:当人形机器人第一次成为收入核心,优必选究竟是走到了商业化拐点,还是仍停留在验证阶段。 01:增长被单一业务重构 2025年,优必选实现营业收入20.01亿元,同比增长53.3%。从总量上看,这是一份典型的高增长财报;但拆开结构可以看到,这一轮增长并非来自原有业务的同步扩张,而是由收入结构重构所驱动。 财报显示,公司收入主要由四部分构成:全尺寸具身智能人形机器人产品及解决方案、非具身智能人形机器人产品及解决方案、其他智能机器人产品及解决方案,以及其他智能硬件设备。 (图源:财报) 其中,变化最为显著的是“全尺寸具身智能人形机器人产品及解决方案”。2025年,该业务实现收入8.2亿元,占总收入的41.1%,同比增长2203.7%;而在2024年,这一业务收入仅为3561.9万元,占比约2.7%。一年时间内,这一板块从边缘业务跃升为第一大收入来源,直接改变了公司的收入结构。 财报对此的解释是,随着规模化场景应用加速推进,公司将技术积累转化为订单交付,带动该业务收入快速放量。这意味着,人形机器人已经从此前的技术验证阶段,进入实际交付与应用阶段。 相比之下,其余业务板块出现明显分化。 “其他智能机器人产品及解决方案”2025年实现收入6.29亿元,占总收入的31.4%,同比下降16.9%。财报解释称,该板块收入下滑,主要由于物流智能机器人及相关解决方案部分项目在年末尚未完成交付与验收,导致收入确认减少。 “其他智能硬件设备”实现收入4.99亿元,占总收入的24.9%,同比增长6.4%,整体保持相对稳定;“非具身智能人形机器人产品及解决方案”收入为4796.3万元,占比2.4%,同比增长15.3%,体量仍然较小,对整体增长贡献有限。 从结构上看,2025年的优必选,已经不再是多业务共同驱动,而是明显转向单一板块拉动:人形机器人贡献了绝大部分增量,其余业务要么增长有限,要么出现下滑。 也就是说,这一年的关键变化,并不在于收入突破20亿元,而在于增长来源发生了转移,公司正从“多业务并行”,转向“人形机器人单点驱动”。 02:高毛利未带来盈利 如果只看收入与毛利,优必选2025年的财务表现已经出现明显改善;但沿着“收入—毛利—费用—减值—利润”的链条拆解,可以看到,盈利能力并未同步建立。 先看毛利端。2025年公司实现毛利7.54亿元,同比增长101.6%;毛利率提升至37.7%,同比提高9个百分点。财报解释为,全尺寸具身智能人形机器人产品及解决方案成为最大收入来源,带动收入结构优化,从而抬升整体毛利率。 也就是说,毛利率的改善,更多来自“卖什么变了”,而不是“效率已经提升”。 进入费用端,这一改善并没有继续传导。 2025年,公司销售费用为4.71亿元,占收入比重23.5%;管理费用为3.36亿元,占比16.8%。两项费用率较上年有所下降,财报解释为股份支付费用减少所致。 相比之下,研发费用仍维持高位。2025年研发费用为5.08亿元,占收入比重25.4%。财报明确指出,这主要源于公司对具身智能的人工智能和机器人技术的研发投入和股份支付费用减少共同影响所致。 这意味着,在收入放大的同时,公司并没有降低技术投入强度,研发仍然是最核心的支出方向。 在费用之外,减值因素也对利润形成进一步拖累。2025年,公司计提信用减值损失1.51亿元,主要来自个别政府相关客户应收账款延期支付,在谨慎性原则下计提减值准备。 最终结果是,尽管收入增长、毛利提升、部分费用率下降,公司全年仍录得净亏损7.90亿元,较2024年的11.60亿元有所收窄,但尚未实现盈利。 把这一链条连起来看,可以得到一个更清晰的结论:优必选的盈利状况确实在改善,但这种改善主要来自收入结构变化与部分费用率下降,而不是商业模式已经具备稳定的盈利能力。 换句话说,公司已经证明,人形机器人可以带来更高质量的收入;但尚未证明,这种收入可以覆盖持续的高投入,并稳定转化为利润。盈利在改善,但商业闭环仍未建立。 03:商业化仍在早期 把增长和亏损放在一起看,优必选当前的状态可以概括为:增长已经成立,但盈利尚未建立。真正需要回答的,不是财务结果,而是这家公司所处的阶段。 从技术与产品路径来看,优必选当前构建的,并不是单一机器人产品,而是一整套围绕具身智能展开的系统能力。财报显示,公司已形成以Walker S、Walker S1、Walker S2为代表的全尺寸具身智能人形机器人产品体系,主要面向工业制造场景;同时,在技术层面,搭建了包括千亿参数基座大模型Thinker、Thinker-WM世界模型,以及群脑网络(BrainNet)与协同智能体(Co-Agent)在内的多层架构。 知名科技产业时评人彭德宇对我们分析到:从这一组合来看,公司并非单纯做机器人本体,而是试图将“机器人硬件+AI模型+多机协同系统”整合为一体,其核心路径是通过持续的数据采集、模型训练与场景应用,形成“数据—模型—应用”的闭环能力。这也决定了,其商业模式天然依赖长期技术投入,而非短期硬件销售。 但从实际落地进展来看,这套体系仍处在早期应用阶段。 财报披露,2025年公司全尺寸具身智能人形机器人销量为1079台,同比增长35866.7%;年化产能超过6000台。同时,相关产品已在搬运、分拣、质检等典型工位实现应用,并进入汽车制造、智能制造、智慧物流及具身智能数据中心等场景。 企事界北京科技有限公司执行董事李睿则表示:这些数据说明,人形机器人已经从实验室走向生产环境,开始具备一定的规模化交付能力。但需要看到,目前的应用仍集中在特定工位与局部流程,本质上属于单点替代,而非对完整生产体系的系统性替换。 这一点在财报表述中也有体现。公司将当前阶段定义为“从实训阶段正式迈向商业化应用”,而非已经进入成熟商业化阶段。这意味着,其商业落地仍处在从“能用”走向“可复制”的过渡过程中。 在此基础上再看公司未来规划,可以更清楚理解其当前投入逻辑。财报显示,优必选将继续推进Walker S系列新机型的研发与量产,同时计划推出面向商业与教育场景的具身智能人形机器人,拓展导览、展示、活动及科研等应用场景;在技术层面,则将持续迭代群脑网络、协同智能体、基座大模型及世界模型。 从这些表述可以看出,公司当前的重点,并不是短期内放大单一产品销量,而是通过工业场景获取数据、训练模型、优化系统,再向更多场景扩展,逐步推动具身智能的规模化落地。 综合来看,优必选当前所处的,并不是成熟盈利阶段,而是一个典型的早期商业化阶段:技术路径已经清晰,产品开始落地,商业模式正在验证,但距离规模化复制与稳定盈利,仍有一段距离。 结语: 把业务结构、盈利能力与技术路径放在一起看,优必选这份财报给出的阶段信号已经比较清晰。 一方面,公司通过全尺寸具身智能人形机器人产品及解决方案的放量,首次在收入层面完成验证,人形机器人不再只是展示性的技术,而是可以进入工业场景、形成订单并完成交付的业务。收入结构的变化,本质上说明,这条路径已经走通了第一步。 但另一方面,从利润表现、费用结构以及实际落地情况来看,这一业务仍未形成稳定的商业闭环。高研发投入、减值压力以及持续亏损,都在说明同一件事:当前的收入增长,更多来自阶段性放量,而不是成熟商业模式下的可持续盈利。 换句话说,优必选已经证明了一件事,机器人可以卖出去;但还没有证明另一件更关键的事,这门生意可以稳定赚钱。 彭德宇说到,接下来决定公司估值与阶段的,不再是技术体系是否完整,而是两个更具体的问题:一是已经落地的工业场景,能否从单点应用走向可复制的规模化方案;二是产能、交付与成本控制,能否支撑持续放量,并最终转化为稳定利润。 对于一家仍处在“从实训迈向商业化应用”阶段的公司来说,这一步,才是真正的分水岭。
突发!Claude封杀OpenClaw
作者 | 许丽思 编辑 | 漠影 智东西4月4日报道,刚刚,Anthropic宣布,从美国东部时间4月4日下午3点(北京时间4月5日凌晨3点)起,Claude禁用OpenClaw等第三方工具,用户只能通过额外套餐或Claude API Key使用这些工具。 Claude官方发送的邮件还提到,这项政策从4月4日起先在OpenClaw上强制执行,但适用于所有第三方工具链,并将很快推广至更多工具。 封锁核心原因就是,Anthropic要优先保障使用自家产品和API的客户。 看到这个消息,普通开发者可以说是“天塌了”: 过去每个月花20-200不等美元的Claude订阅费,再加上OpenClaw的自动化工作流,就可以拥有能够自动回复消息、管理日程、读写文件、执行代码,更像一名不停运转的AI员工。 但现在,不只是成本上涨,而是预算从可预测变成失控,原本按月封顶,如今随调用量波动。 OpenClaw创始人Peter Steinberger提到,自己也试图劝说Anthropic,但没用,只换来了7天续命。 一、Anthropic:订阅服务不是为了第三方工具使用模式而设计 为什么要封OpenClaw?Anthropic的Claude Code负责人Boris Cherny连发了好几条推文解释。 他提到,Anthropic一直在努力应对Claude需求的增长,而其订阅服务,本来就不是为第三方工具的使用模式设计的。算力是需要审慎管理的资源,Anthropic要优先保障使用自家产品和API的客户。 不过,Anthropic也提出了补偿措施,订阅用户将获得一次性等额月费积分。如果需要更多抵扣额度,现在可以购买折扣使用包。如果想要全额退款,明天的邮件就会包含申请全额退款的链接。 另一个Anthropic持续封杀OpenClaw的原因是,或许是因为其创始人Peter Steinberger已加入死对头OpenAI。 今年2月,Peter Steinberger宣布正式加入OpenAI,参与推动其下一代个人Agent方向的研发。他还强调,OpenClaw将继续作为一个“开放、独立、仅刚刚起步的项目”存在。 Peter Steinberger当时还解释,他看重的是将Agent能力尽快带给更广泛的用户群体,而与OpenAI的合作,是当前实现这一目标的最快路径。 针对这一封锁事件,Peter Steinberger在X上回应,他和Dave Morin(OpenClaw基金会的董事会成员)已经尽力去说服Anthropic,但最终只把将这件事推迟了一周。 他感慨,时间点真是巧合,Anthropic先是将一些流行的功能复制到他们的封闭框架中,然后又把开源软件拒之门外。 二、一边复刻能力,一边收紧入口,Anthropic全面围堵OpenClaw Anthropic对OpenClaw的围堵,其实是一步步收紧的。 2025年11月,OpenClaw诞生时还叫做Clawdbot,后来被Anthropic指控侵权,于是项目先短暂改成Moltbot,再在2026年1月底定名为OpenClaw。 之后,Anthropic又转向产品层面,复刻OpenClaw的核心能力: OpenClaw原先可以借助WhatsApp在手机端发指令、让桌面端持续执行任务,Anthropic便推出Dispatch,把手机发起、桌面执行的链路做成官方能力; OpenClaw曾把Discord、Telegram变成远程操控入口,Anthropic就上线Claude Code Channels,并通过MCP协议打通协作通道; OpenClaw能够深入操作系统,控制浏览器和各类应用,Anthropic就拿出Computer Use和Claude Code,把这类能力纳入自家产品体系。 Anthropic并不是单纯限制OpenClaw,而是在通过品牌切割、能力内置和官方替代,逐步OpenClaw的生存空间。 据Semafor今日消息,Anthropic正在打造自己的OpenClaw版本。当被问及客户是否要求Anthropic开发自己的OpenClaw版本时,首席商务官Paul Smith承认,确实有这件事,产品发展得相当快。 不止OpenClaw,Anthropic长期以来也对各种第三方工具有所限制。 2025年6月,Anthropic限制了Windsurf访问Claude模型。 2025年8月,Anthropic切断了OpenAI对Claude API的访问,理由是OpenAI在用Claude做竞品基准测试。 2026年1月8日,Anthropic被曝出切断了Cursor对Claude模型的访问权限。 2026年1月9日,Anthropic把禁令正式写进了文档:OAuth认证仅限于Claude Code和Claude.ai使用。通过Claude Free、Pro或Max账户获取的OAuth token,不得用于任何其他产品、工具或服务——包括Agent SDK。 除了Anthropic,也有其他AI大厂早已经对OpenClaw展开封锁行动。今年2月,Google就禁止OpenClaw调用Gemini AI Ultra、Antigravity。 结语:开放红利退潮,AI加速进入平台主权时代 随着大模型厂商开始亲自下场做Agent、做入口、做工作流,第三方工具赖以生存的空间和低成本接入红利正在迅速消失,随时可能被替代,被一纸规则直接清场。 Anthropic这记大招,某种程度上宣告了AI产业正从开放繁荣走向平台主权时代,留给开发者的,或许只有尽快摆脱对单一巨头的依赖。
年入55亿,天津AI智算“小巨人”要IPO了
作者 | ZeR0 安擎成立于2017年5月,由俞跃渊创办,2023年入选国家级专精特新“小巨人”企业。在2025年融资后,其估值约为36亿元。AI上市公司商汤科技是安擎第五大股东,持股3.83%。 根据弗若斯特沙利文的资料,按2024年收入计,安擎为中国第六大AI计算设备解决方案提供商,市占率为2.0%,也是中国AI计算设备解决方案行业中最大的独立公司。 按附注推测,第一到五名分别是浪潮信息、超聚变、新华三、中科曙光、联想集团,第七到十名分别是超微、戴尔、宝德、坤前。 招股书显示,安擎是中国内地首个具备超流体液冷AI服务器系统全链路解决方案能力的AI服务器厂商,是首批少数能够实现国产计算及非国产计算混合并算的AI计算设备供应商,也是亚太地区少数几家获NVIDIA认可为计算领域精英级OEM合作伙伴的公司之一。 2025年,安擎营收为55.00亿元,同比增长99.28%;净利润为1.22亿元,同比增长90.63%。 安擎作为承配人按发售价认购了上海GPGPU芯片公司天数智芯的若干股份,总代价为3000万元。天数智芯收购事项的代价已由安擎的内部资金支付。 天数智芯是港交所上市公司,截至2025年12月31日,总资产约为39.12亿元。2025年,天数智芯收入为10.34亿元,毛利为5.58亿元,年内亏损为10.04亿元。 一、2025年收入达55亿元,同比增长99% 2023年、2024年、2025年,安擎收入分别为22.06亿元、27.60亿元、55.00亿元,净利润分别为0.54亿元、0.64亿元、1.22亿元,研发费用分别为0.58亿元、0.54亿元、0.64亿元,综合毛利率分别为10.1%、8.8%、6.0%。 2023年~2025年安擎营收、净利润、研发支出变化(智东西制图) 同期,其经调整净利润分别为0.72亿元、0.76亿元、1.40亿元。 安擎的主要产品包括高性能AI服务器、其他服务器(包括通用服务器、存储服务器、边缘服务器)、支持设备及组件(主要包括AI高带宽交换机、适配卡、加速卡及CPU)等。 从2023年到2025年,该公司的AI服务器收入占比从63.9%增至80.8%。 2025年,其AI服务器及其他服务器的毛利率均同比减少。 原材料价格暂时性和周期性的上涨,导致安擎2023-2025年毛利率逐年下降。 为缓解原材料价格上涨带来的影响,该公司在期内增加了采购量和库存水平,导致营运资金需求增加,并造成经营现金流量为负。 其综合财务状况表概要如下: 二、年销8951台服务器,AI服务器均价92万元 安擎生产设施的设计产能及利用率详情如下: 2025年,安擎总共卖出8951台服务器。 其中,AI服务器平均售价为91.90万元,销量达4834台;其他服务器为4.48万元,销量达4117台。 在2026年前2个月,安擎的服务器销量为2153台。 截至2025年12月31日,安擎拥有127名研发人员,占员工总数的26.7%以上;在中国拥有92项已发行专利、22项软件著作权、6项注册商标及1个注册域名。 三、多家客户与供应商存在重叠 安擎的主要客户包括互联网及云服务提供者、软件集成解决方案供应商、特定行业的企业客户以及AI基础设施运营商。 2023年、2024年、2025年,来自五大客户的收入分别占其总收入的47.2%、49.5%、61.4%。 同期,五大供应商的采购额分别占其总采购额的47.7%、69.9%、63.3%。 安擎们的供应商主要提供服务器平台及其他组件,包括CPU、主机板、加速卡、硬盘驱动器及软件解决方案。 期间,客户A、客户C、客户G、客户J、客户I、客户K、客户L亦是安擎的供应商,供应商A、供应商B、供应商E、供应商L亦是安擎的客户。 四、商汤是第五大股东 俞跃渊是安擎创始人、董事长、执行董事兼总裁,今年46岁,拥有北京交通大学物流管理学士学位和清华大学高级管理人员工商管理硕士学位,曾于2004年至2017年在一家专门从事服务器与系统集成的北京公司天勤益达担任总经理,在2017年5月创立安擎。 2023年7月,安擎就于深圳证交所创业板进行A股上市与国泰海通证券股份有限公司订立一份辅导协议,并向中国证券监督管理委员会天津监管局作出上市辅导备案。 考虑到联交所将为其提供一个接触资本及吸引多元化投资者的平台,该公司在2025年9月决定寻求赴港上市。 俞跃渊、视讯科技及京古信息将构成安擎的一组控股股东。 安擎股权架构 知名AI上市公司商汤科技是安擎的第五代股东,持股3.83%。 2025年,安擎执行董事及监事薪酬如下: 结语:产业链主导权,将集中向具备原生技术的厂商 AI计算行业核心为AI计算硬件,尤其搭载计算的AI服务器。在AI服务器领域,液冷散热、高速互联及软硬件协同等核心能力已成为决定产品性能、能效及交付能力的核心载体。 自研厂商凭借其底层硬件设计及系统级优化能力,掌握产品定义权及客户接口,可获取核心需求,并通过端到端解决方案重构产业链关系。相比之下,纯设备集成商因缺乏技术差异化及自研迭代能力,丧失对客户及场景的掌控,并被迫转型为下游服务提供商或渠道代理。 未来,产业链主导权将向具备原生技术能力的厂商集中,进入产业格局重塑的新周期。
涨疯了!安卓下一代Ultra冲击万元档:价格追平iPhone 18 Pro Max
快科技4月4日消息,内存市场正经历一场前所未有的历史性涨价潮,叠加2nm尖端制程芯片的应用,下一代高端旗舰手机的物料成本正在迎来大幅度飙升。 据行业人士爆料,安卓阵营的下一代Ultra顶级旗舰将正式进军万元档位。这意味着安卓最顶尖产品的价格将全面追平iPhone 18 Pro Max,超高端市场的准入门槛被进一步抬高。 内存成本的疯狂上涨与2nm芯片极其昂贵的代工费用,共同推高了硬件的溢价空间。消费者若想入手未来的顶级机型,势必要面临更高的购机预算。 受零部件涨价及全球宏观环境的共同影响,IDC已经下修了2026年全球智能手机的生产出货预期。预计年度出货量将下降12.9%至11.2亿部,这可能是十余年来的行业最低点。 这种市场环境的变化意味着手机行业正从普及期进入存量竞争的深水区,高昂的成本使得厂商不得不通过提高单机售价来维持利润,而高企的价格又进一步抑制了用户的换机欲望。 对于各大手机品牌而言,接下来的市场表现将是一场严峻的生存考验。在核心元器件成本激增的背景下,如何在保持技术领先性的同时给出合理的定价,已成为摆在所有厂商面前的终极难题。 这种由供应链倒逼而来的涨价潮,或许将彻底重塑全球高端智能手机的市场格局。未来的旗舰对决将不仅仅是性能的博弈,更是品牌溢价能力与供应链掌控力的全方位竞赛。
下半年超大杯集体缺席 小米18 Ultra明年亮相
快科技4月4日消息,继去年12月发布小米17 Ultra之后,备受关注的下一代超大杯旗舰小米18 Ultra的发布节奏有所调整。 据行业爆料,各大厂商的顶级旗舰均计划在2027年上半年集中亮相,这意味着小米18 Ultra的登场时间也已锁定在明年。 目前,小米18 Ultra正在测试一颗规格惊人的2亿像素潜望式长焦镜头。这颗镜头拥有1/1.28英寸的超级大底,感光能力相比前代的1/1.4英寸传感器有了质的飞跃,长焦端的画质表现力将再次刷新纪录。 除了传感器尺寸的跨越,小米18 Ultra的长焦系统还将引入尖端的LOFIC技术,并支持连续光学变焦。这项技术能确保手机在不同焦段下都能保持极高的画质水准,大幅拓宽了移动摄影的创作边界。 在处理高动态范围场景时,新机输出的成片能更真实地还原自然界的光影层次。即便在极高亮的拍摄环境下,画面高光部分依然能保留丰富的细节,有效解决了手机摄影中常见的过曝难题。 小米集团总裁卢伟冰曾明确表示,LOFIC技术代表了未来移动影像的演进方向。这种技术能精准解决明暗对比剧烈场景下的拍摄痛点,是高端影像产品迈向专业化的关键一步。 随着底层技术的不断成熟,小米18 Ultra显然不再单纯追求像素数值的叠加,而是通过光学系统与传感器技术的底层革新,试图在超大杯旗舰市场建立更深的影像技术护城河。
一年暴涨20倍,数据显示今年防窥显示智能手机出货将达2100万台
IT之家 4 月 4 日消息,据韩媒 The Elec 今天上午(4 月 4 日)报道,端侧人工智能的不断发展,以及个人数据保护需求的迅速上升,正带动防窥显示技术在智能手机上的应用呈现加速状态。 Sigmaintell 咨询公司的数据显示,配备防窥屏的智能手机出货量将从 2025 年的 100 万台跃升至 2026 年的 2100 万台,相当于一年内增长约 20 倍,并在 2027 年进一步提升至 2900 万台,同比增长约 40%。 行业竞争焦点正在变化。随着端侧 AI 处理能力增强,手机中涉及的个人数据更加敏感,使得在公共场景中防止屏幕被旁人窥视成为新的需求。故此,防窥模式正逐渐成为高端机型的重要卖点。 厂商层面,三星已在 Galaxy S26 Ultra 上率先落地这一功能。华为、小米正加快推进,OPPO 和 vivo 也在为后续产品开发相关技术。 技术实现上,防窥模式通过区分普通像素与专用防窥像素来控制可视角度。据IT之家了解,防窥像素通过加入黑矩阵(BM)结构限制侧视角度,在开启防窥模式时,仅由专用像素工作,从而保证正面清晰、侧面受限。不同面板厂商在具体结构设计上可能存在差异。 该技术未来有望扩展至折叠屏设备。由于屏幕尺寸更大、使用场景更复杂,信息泄露风险更高。不过,其大规模普及仍需解决分辨率下降、亮度损失及功耗等问题。 该机构指出:防窥模式不再只是附加功能,而是高端智能手机显示技术的重要差异点。一旦关键技术问题得到解决,该功能有望成为直板与折叠设备的核心竞争力。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。