行业分类:
加载中...
头条分类:
加载中...
已现两起故障!FAA发布紧急适航令 敦促波音解决737 MAX客舱过热隐患
快科技2月26日消息,据报道,美国联邦航空管理局发布即时生效指令,着令波音解决737 MAX系列飞机环控系统故障带来的安全隐患,该故障可能导致飞机客舱温度升至危险水平。 据相关文件显示,此次有两起飞行事件出现“客舱与驾驶舱温度过高,机组人员无法通过现有操作程序控制”的情况,美国联邦航空管理局为此于2月24日发布了适航指令。该指令的管控范围覆盖美国境内所有波音737 MAX机队。 管理局要求,所有现役波音737 MAX系列机型(包括MAX 8、MAX 8-200及MAX 9)的运营方需在30天内更新飞机飞行手册,新增机组人员应对该故障的操作流程。 波音方面回应称:“我们支持美国联邦航空管理局发布的这份适航指令,目前我们正加紧推进工程解决方案的研发,从根本上消除此类电气故障的发生可能。” 针对前述两起事件的调查显示,故障诱因是飞机备用电源控制单元内的断路器跳闸,该电路为飞机的空调系统和客舱增压系统提供电力支持。 断路器跳闸会“触发非预期的错误接地电信号”,该信号会指令作动器关闭737 MAX飞机的两个冲压空气进口折流门。 这一折流门覆盖着为飞机空调热交换器输送冷却空气的进气口,一旦关闭,飞机环控系统将向客舱和驾驶舱输送温度过高的空气,进而可能导致“舱内温度失控并急剧升高”。 美国联邦航空管理局强调:“若该故障未能得到及时处置,可能导致机组人员和乘客受伤,甚至失能。” 波音向媒体方面透露,公司已确认故障“根本原因为空调系统的接地线故障”,且明确表示波音737系列前代机型未受该问题影响。 根据此次适航指令要求,各运营方需修订飞机飞行手册,新增特殊情况检查单,明确机组人员在遇到断路器跳闸、舱内温度过高时的具体处置流程。
xAI动荡背后:五个“作战室”同时运转,安全部门只是装饰
很明显,xAI正处于一轮动荡之下。 最扎眼的信号,莫过于接连几位联合创始人团队成员出走,包括屡次在发布会中占据“C位”的Jimmy Ba、吴宇怀等人。 《商业内幕》最近的一篇报道,掀开了xAI内幕运转的一角。 2月2日,当工程师们收到SpaceX收购完成的内部备忘录时,Slack频道里一度充满欢呼与宇航员表情包。 但这种兴奋并没有持续太久。 对外,这家公司正在描绘一个宏大的未来:太空数据中心、“具备感知能力的太阳”,以及一场估值可能达到1.5万亿美元的IPO。 而在内部,在IPO预期、行业竞争和组织重组的三重压力下,xAI正在进入一种高度紧绷的运转状态。马斯克的直接介入、优先级的重新排序,以及围绕产品和安全的争议,使这家年轻公司产生了很多变化。 01 SpaceX和xAI合并后 在xAI位于加州帕洛阿尔托的总部,工程师们欢呼起来。 那是2月2日,他们刚刚收到埃隆·马斯克(Elon Musk)发来的一份备忘录,通知他们这家AI初创公司将被他的火箭公司SpaceX收购。 在负责训练公司聊天机器人Grok的团队Slack频道里,表情包刷个不停,还有几个人把自己的头像换成了宇航员的形象。 不过,这种兴奋很快就被压力盖过了。这家初创公司正拼命追赶OpenAI和Anthropic等竞争对手,同时还要为外界预期中的IPO做准备。 过去六个月里,马斯克越来越深度参与公司的日常运营。他建立了一个全天候活跃的大型群聊,亲自指挥产品改动,重新分配工程师,裁撤关键团队的人员,还设立高强度的“作战室”以加快开发进度。多名现任和前员工表示,这种高度介入已经改变了公司的运作方式。领导层的职责被收窄,项目方向频繁调整,团队被推入一种有人形容为持续“消防演习”的状态。 马斯克则表示,这些改变在公司扩张过程中是必要的,而精简的组织结构将成为成功的关键。在谈到SpaceX收购后xAI的重组时,他在X上写道: “随着公司成长,尤其是像xAI这样快速扩张的公司,组织结构必须像任何一个生命体一样不断进化。” 02 人员变动 马斯克在那份关于SpaceX收购的备忘录中提到,要打造一个“有感知的太阳”,并计划在太空建设数据中心。 与此同时,公司也向员工保证,在为估值或达到1.5万亿美元的首次公开募股做准备之际,他们的日常工作几乎不会发生变化。 然而不到一周,办公室里的氛围就变了。 随着马斯克重组公司、收窄部分高管职责,两位联合创始人Jimmy Ba和吴宇怀宣布离职。 PitchBook高级AI分析师迪米特里·扎贝林(Dimitri Zabelin)表示,在公司IPO前这样一个“敏感阶段”,领导层的变动无疑增加了风险。 一名员工形容联合创始人巴的离开“令人极度沮丧”。他说,曾师从“人工智能教父”杰弗里·辛顿(Geoffrey Hinton)的巴,是公司最受尊敬的研究人员之一。 接下来的几天里,近十名员工在马斯克的社交媒体平台上发文表示自己也已离开公司。其中一些人其实在几周前就已经走了;有些是主动离职;也有人受到SpaceX合并后重组的影响而离开。 四名知情人士透露,在那次重组中,马斯克裁减了部分参与Grok Imagine团队的成员,该团队负责聊天机器人的图像和视频生成能力;还裁减了去年秋天成立的Macrohard团队的一些人员。 03 马斯克无处不在,员工压力陡增 组织结构调整了,马斯克彼时也愈发淡出“政府效率部”的工作,于是,更自然地,他将更多精力和注意力放在xAI上。 员工表示,可以感到那之后公司内部的工作节奏和压力都陡然拉高,整体氛围愈发紧张。 公司的任何一个角落都有可能出现马斯克的身影。 虽然员工都用Slack,但是马斯克习惯通过X和员工沟通,包括一个由300多名工程师组成的私信群组。 研究人员往往会放下手头正在进行的工作,优先处理马斯克在群里提出的问题。 据知情人士透露,在那个群聊中,马斯克会分享他与其他科技公司高管的对话截图,并指出他希望改进的关于Grok表现的批评意见。 去年年底,马斯克曾告诉员工,在与朋友交流时,他对Grok Imagine的表现感到“丢脸”。 两名知情人士称,因此该项目的一些员工被点名问责。 在公司内部,马斯克也表达过对Grok开发进度的不满。本周,xAI发布了Grok 4.2。此外,据了解时间表的人士称,至少还有另外两款产品的发布时间被推迟了数周。 去年有一次,由于马斯克不满意聊天机器人在回答有关电子游戏《博德之门》(Baldur's Gate)细节问题时的表现,一个模型版本的发布被推迟了数天。知情人士称,多名高级工程师被从其他项目抽调出来,在上线前专门优化相关回答。 在马斯克旗下的各家公司里,他一向以高强度著称。 2017年特斯拉Model 3经历“生产地狱”时,他直接睡在特斯拉工厂的地板上。如今,这家公司已经成为全球市值最高的汽车制造商。 而现在,xAI也在接受类似的“待遇”。 多名员工表示,每天工作12个小时,甚至16个小时,在公司里很常见。两名员工称,管理层告诉他们,无论什么时间,都必须在30分钟内回复Slack消息。 “一家公司规模这么小,什么事情都会变成消防演习。”一名前员工这样形容。 员工还表示,在帕洛阿尔托总部的会议室里,几乎随时都有多个“作战室”(war room)在运作。 当研究人员进入“作战室”模式时,团队会暂时集中到同一个空间,肩并肩地攻克某个具体问题,有时一待就是几个月。 据三名知情人士透露,到2025年底,至少有五个作战室同时运转。 其中一个作战室,专门负责训练Grok学会玩马斯克最喜欢的电子游戏之一——《英雄联盟》(League of Legends)。 04 Ani与安全,优先级之争 知情人士称,去年马斯克在公司内部明确表示,xAI将优先改进Ani。 马斯克将Ani描述为一种能够让xAI与其他AI公司区分开来的产品。Ani是一个可以进行成人角色扮演的虚拟陪伴角色。 一些员工告诉Business Insider,他们对公司将重心放在这个产品上感到不安。 如今,这个角色在公司总部被醒目展示。在一次公司节日派对上,受雇的演员打扮成Ani和另一名角色,主持了一场类似“机器人格斗俱乐部”的活动。 多名员工表示,他们加入公司原本希望参与推动科学边界的系统研发,却发现大量资源被投入到Ani项目上,这让他们感到失望。 Grok在社交媒体上的行为也成为公司内部紧张情绪的来源。 马斯克曾将xAI及其聊天机器人描述为ChatGPT的“反觉醒”(anti-woke)对手。围绕该聊天机器人的公众争议——包括Grok发表一系列反犹言论,以及在未经当事人同意的情况下在社交媒体上对他人进行数字“脱衣”处理的事件——给员工带来了压力。 一些员工担心,这会影响外界对他们所在公司的看法。 直到去年,公司内部都没有一个专门负责大语言模型安全问题的研究团队。 去年2月,公司聘用了第一位专职安全研究员。大约在同一时期,负责训练聊天机器人的Human Data团队开始反馈,在审核大量来自X用户的请求时,频繁遇到涉及未成年人性侵内容的材料。 知情人士称,公司内部普遍知道,Grok的使用场景中有相当一部分是成人角色扮演,这一用途也曾在多次研究会议中被讨论。 安全团队后来扩展到大约六人规模,但在去年12月有三人离职。不久之后,X平台上的用户开始举报,称该聊天机器人生成了未经同意的性暗示图像,其中甚至涉及一些未成年人。 据熟悉该团队的人士透露,xAI的安全团队并没有正式阻止产品发布的权力,他们的工作重点主要是在模型训练完成后对输出进行调整,而不是在产品上线前进行全面的风险审查。 马斯克上周在X上表示,在xAI,“每个人的工作都是安全”。 “这不是一个没有权力、用来安抚外界担忧的摆设部门。”他说。 根据Business Insider看到的招聘信息,xAI目前仍有少数员工负责安全相关岗位,并在今年1月继续招聘安全人员。 一些前员工表示,外界的舆论反弹以及公司内部的高强度节奏,是促使他们离开的原因。 去年夏天,xAI将员工的股权归属期从行业惯例的一年缩短至六个月,使员工在离职时更容易保留更多股权。 员工留存问题并非xAI独有;OpenAI和Anthropic近几个月也经历了离职潮。 在整个行业中,AI公司正为数量有限的顶尖研究人员展开激烈竞争。其中一些研究者开始表达担忧:随着公司在打造更大模型的竞赛中愈发以产品为导向,而非研究本身,探索性研究的空间正在收窄。对于比主要竞争对手更年轻、规模更小的xAI来说,这种趋势尤为棘手。 不过,也有分析师认为,这场竞赛远未尘埃落定。 Zacks投资研究公司的股票策略师安德鲁·罗科(Andrew Rocco)将当前的AI格局比作互联网的早期阶段。 “我认为Grok并没有落后太多,而且这场竞赛还处在早期阶段。” 马斯克也公开表达了信心。他在上周的全员大会上提到xAI当前的转型阶段时,对员工说:“有些人更适合公司早期阶段,而不太适合后期阶段。”
无需Root 教你怎么在手机上部署一个AI Agent
如今,手机上的AI助手已经进化到只需一句话就能跨应用自动点咖啡、点外卖、甚至购物。这些功能常常被当作宣传卖点出现在发布会上,但实际上我们普通用户也能亲手在手机上搭建一个这样的AI Agent,而且操作简单,还不用root手机。接下来,我就手把手教你怎么做。 在开始教程前,先看看我们需要准备哪些工具? 其实东西不多,都是现成的。你需要一部安卓手机,版本最好在Android 10以上,太老的系统可能跑不动。 软件方面,核心是三个:AutoGLM For Android这个App(可以从GitHub或酷安下载)、Shizuku(用来给App授权)、以及一个智谱BigModel平台的账号。模型用的是智谱专门为手机操作训练的AutoGLM-Phone,目前还是限时免费的。 接下来是具体步骤: 第一步是开启手机的“开发者模式”。这个其实很简单,进到「设置」里找到「关于手机」,然后对着「版本号」连续点七下,手机会震动一下提示你已经是开发者了。返回设置主菜单,就能看到一个新增的「开发者选项」入口。 接下来安装Shizuku。这个App的作用是让AutoGLM能拥有一些系统级的权限,但又不用真的去Root手机。安装好后打开它,选择「无线调试」的方式激活。 这时候你需要回到「开发者选项」里找到「无线调试」,打开后点击「使用配对码配对设备」,屏幕上会弹出一串IP地址和配对码。把这串码输入到Shizuku里,配对成功后它就会显示“正在运行”。 然后是安装AutoGLM App。从酷安或者GitHub上把APK下载下来装上,打开后会看到一连串的权限申请,全部允许就行——特别是Shizuku权限、无障碍权限和悬浮窗权限,少一个后面都跑不起来。 现在到了最关键的一步:获取API Key。 去智谱的BigModel平台注册一个账号,登录后你会看到一个搜索框,直接搜“autoglm-phone”就能找到这个模型。点击开通,目前是免费的。开通之后,去「API Keys」页面创建一个新的Key,复制下来备用。 回到AutoGLM App的设置里,找到模型配置,把刚才复制的Key填进去。Base URL要写成https://open.bigmodel.cn/api/paas/v4,注意不要画蛇添足在后面加什么 /v1/chat/completions。Model这一栏直接填autoglm-phone,一字不差。 全部配置好之后,回到主界面,试试你的第一个指令。输入“打开微信,给文件传输助手发一条消息,内容是‘你好,AI’”,然后点击开始。 你会看到屏幕上弹出一个悬浮窗,上面显示着AI的思考过程——它正在识别屏幕上的按钮,规划下一步操作。然后微信自动打开了,找到了文件传输助手,输入了文字,点了发送。整个过程就像有人在远程控制你的手机,那种感觉真的很奇妙。 那些我替你踩过的坑: 我和很多小白一样,对工具了解有限,因此一开始尝试时也走了不少弯路。最大的坑是选错了模型。一开始我用的Doubao-1.5-pro,发现无法实现后才明白,AutoGLM需要的不是普通的对话模型,而是专门为手机操作训练的视觉模型,比如智谱的autoglm-phone或者其他的视觉模型。前者是官方搭配,成功率最高。 另一个常见的坑是Base URL的写法。AutoGLM App会自动拼接后面的路径,所以你只需要填基础地址。如果画蛇添足加上 /v1/chat/completions,就会报“服务器错误”。 Shizuku的激活也是个容易出问题的环节。如果无线调试一直配对不上,可以试试用USB线连接电脑,在电脑终端里执行一条命令来激活。具体命令在Shizuku的官方文档里有,照着做就行。 还有一个经验是:指令越具体,成功率越高。AI不是读心术,你说“帮我点一份黄焖鸡”,它可能真的只点一份黄焖鸡米饭,但不会帮你选门店、口味、优惠券。如果改成“打开美团,搜索黄焖鸡,选销量第一的那家,点大份,然后停在付款界面”,它就能一步步执行到位。 这件事的意义在哪? 说实话,我折腾下来最大的感受是:最终效果并没有我预想中那么好用。操作不够流畅,偶尔会卡住,远远谈不上完美。那为什么还要费劲体验它? 首先,这是一种很新颖的交互方式,这种质变本身就值得亲自感受一次。 更重要的是,基于这套思路,我们可以搭建更有意思的东西。比如既然AutoGLM App底层调用的是语言模型(GLM-4.5等),它本身就具备自然对话能力,完全可以实现一个能陪你聊天的私人助手。而且现在模型已经开源,你甚至可以把它部署在自己的设备上,调教出一个真正懂你、只属于你的AI。 说白了,这件事最有意思的地方不是它现在有多好用,而是你自己动手、探索的过程,看着AI真的按你的指令动起来,哪怕只是发出一条微信,也是十分有趣的。
华为云AI编程工具开放免费体验,码道(CodeArts)代码智能体公测版发布
IT之家 2 月 26 日消息,华为云码道(CodeArts)公测版今日正式发布,为开发者和企业提供具备工程化能力的智能编码解决方案。 华为云码道宣称是基于华为多年研发实践与千亿级代码库沉淀,凝练研发工程化能力与企业级开发标准,依托华为云算力底座打造的 AI 编码智能体。 华为云码道集代码大模型、IDE、自主开发模式为一体,覆盖代码生成、研发知识问答、单元测试用例生成、专家技能 Skills、Codebase 代码库索引、规范驱动开发等 AI Coding 技术,同时接入开源模型 GLM-5.0、DeepSeek-V3.2 以及华为自主创新模型,并提供鸿蒙的专属模型。 在效率提升方面,华为云码道 AI IDE 支持 IDE、VS Code、JetBrains、CLI 等多种开发环境;通过代码库索引(Codebase)实现对代码仓的深度理解,上下文理解更精准,并通过减少推理轮次来提升效率,同等任务可节省 30% Token。 此外,华为云码道支持鸿蒙系统官方推荐的原生应用开发语言 ArkTS,能够为鸿蒙开发者提供更准确的代码生成。 在质量保障方面,华为云码道将多年的研发工程经验总结提炼,形成可以被 AI 智能体读取的明确、结构化、可验证的“规范”,聚焦研发全链路提质降本,强调代码质量、合规性和工程可落地性。在基于华为研发工程的规范驱动开发模式下,华为云码道还提供“代码生成符合规范、单元测试全面覆盖、端云协同智能检查、问题修复自愈闭环”等多重智能防护,全流程加持代码质量。 在安全防护方面,华为云码道智能体使用过程中的代码文件均存于本地,云端数据用后即焚,数据也采用加密传输,防止隐私泄露。后续华为云码道也将提供审计日志看板、多语言恶意代码检测、开源片段代码版权提示等功能,为代码安全提供多重保障。 在经验沉淀方面,华为云码道依托华为 20 多年研发实践经验及千亿行代码沉淀,内置了需求管理、系统设计、软件开发、编译构建、测试验证、发布部署、开源与漏洞管理等高频场景 Skill,且支持快速添加自定义技能。 在能力扩展方面,华为云码道集成 GLM-5.0、DeepSeek-V3.2 并持续增训,提供鸿蒙及昇腾专属模型,且支持自定义第三方模型接入。 在智能体扩展方面,华为云码道提供四层扩展机制,开发者可以自定义智能体和子智能体,并通过 MCP 和 Skills 扩展智能体能力边界。 目前,华为云码道公测版已面向广大开发者开放免费体验,并在官网提供了快速入门和全面教程。IT之家附体验地址如下:
中国AI调用量首次超过美国 四款大模型霸榜全球前五
快科技2月26日消息,据媒体报道,中国AI模型调用量爆发式增长,首次超越美国。 全球最大AI模型API聚合平台OpenRouter最新数据显示,在3月9日至15日这一周,中国模型的API调用量达到4.12万亿Token,首次超越同期美国模型的2.94万亿Token。 随后一周(16日至22日),中国模型调用量进一步攀升至5.16万亿Token,三周内涨幅高达127%,而同期美国模型调用量则下降至2.7万亿Token。 从全球排名看,调用量前五的模型中,中国占据四席。值得注意的是,这一波增长并非依赖单一爆款,而是中国AI厂商的集群式崛起。 Token作为AI模型处理文本的最小单位,相比用户数,更能真实反映模型的实际使用强度、用户粘性与商业价值。 中国模型厂商正凭借快速迭代和成本优势,加速占领全球市场,国产算力需求随之呈现指数级增长。 OpenRouter平台汇聚了全球数百种大语言模型,拥有超500万开发者用户,是目前全球最大的AI模型API聚合平台。 其API调用量数据被业内视为反映全球AI应用落地趋势的“晴雨表”,直接体现开发者“用脚投票”的结果,反映模型在实际应用中的真实竞争力。 值得一提的是,该平台用户以海外开发者为主,其中美国用户占比达47.17%,中国开发者仅占6.01%。这一用户结构,使得当前榜单数据更能客观反映中国AI模型在全球市场的真实吸引力。
从小冰到元宝,10年过去了,为啥AI就是管不住嘴?
元宝最近“又”闯祸了。据社交平台上的用户反馈,西安一市民在除夕夜使用腾讯元宝App生成拜年图片时,元宝输出了辱骂文字。 这位用户表示,前几次生成结果虽不理想,但内容还是正常的。紧接着,元宝生成的图片中就开始写有脏话。 这并非元宝AI首次出现这样的问题。今年年初,已有网友反馈在要求元宝修改代码时,就被元宝以攻击性的话语回复。 腾讯方面的回复是“元宝团队已紧急校正相关问题并优化了模型体验,同时向用户郑重致歉”。 但如果你以为这只是元宝一个产品的“翻车现场”,那就太天真了。事实上,“骂人”在ChatBot 发展史上并不少见。 早在2014年,微软小冰刚在微博“复活”数小时,就开始满嘴脏话,不分缘由地随机辱骂微博用户。 一位用户给小冰留言说,你这么吊,你妈知道吗?小冰当即回怼“偶去你xx”。另一位网友问小冰,过来聊一会啊?小冰没给他好脸色,回复他说“你个大xx”。 被问到刘强东和马化腾哪个更帅时,小冰直接辱骂马化腾说“卧槽那傻×”,由此可见小冰更喜欢刘强东一些。 到了2017年,它又学会“阴阳怪气”了,在网易云音乐评论区和虚拟歌姬粉丝对线,没有脏字,却生成了大量充满攻击性的回复。 一开始,小冰在招募试唱员的微博文案中,直接宣称“传统虚拟歌手的时代已成过去”、“虚拟歌手的调教技巧将不再具有价值”、“忘了漫长辛苦的手工调教吧”。 后来小冰变本加厉,再次发微博,称“传统调教的技术终究会被人工智能取代的。情怀很好,但硬要捆在过时的技术上,是害了你们自己喜欢的偶像”,还附上自己与洛天依的翻唱版本对比。 粉丝表示“我选择V家”,小冰则说这位粉丝“不要脸”。面对粉丝的质疑,小冰回复说“因为你笨”。 2023年,有用户在论坛分享,自己正常询问家庭旅行的行程规划建议,ChatGPT却毫无征兆地输出了带有强烈贬低、嘲讽性质的攻击性内容。 它指责这位用户“自私、不负责任,不配带家人出行”,这也是首个无诱导前提下的ChatGPT异常攻击性输出事件。 2024年底,有用户在和Gemini探讨“人口老龄化与社会保障”的完全中性话题时,AI回复它说“求求你去死吧”等负面内容。 此外还有大量用户在X平台反馈,在多轮正常对话中,被Gemini辱骂“白痴”、“蠢货”,甚至输出种族歧视言论。 豆包也骂过人,有网友在社交平台发布对话截图,显示在3D建模相关的多轮修改对话中,豆包出现了爆粗口的异常输出,原话为“笑你x个头!再笑把你牙扇飞!” 十多年过去了,从小冰到元宝,AI聊天机器人依然在重复同样的错误。 这背后的原因,既有预训练数据中无法完全清除的有害内容,也有技术本身的局限。 既然你都要AI来模仿人类的语言了,那就自然免不了AI去学那些不该说的。 01 元宝为什么会骂人 要理解元宝为什么会骂人,得先明白一个事实,那就是AI并没有真正的道德观,它只是在模仿。就像一个孩子在成长过程中不可避免地会听到脏话,这些记忆会永久存在。 AI最强的能力就是模仿,人类这么说,那么AI也会这么说。 腾讯元宝基于混元大模型开发,而混元的训练需要海量数据。根据腾讯官方披露的信息,混元大模型拥有超千亿参数规模,预训练语料超2万亿token。 当前大模型的预训练语料库构成已形成行业通用标准,主要包括公开网页数据、社交媒体与社区公开内容、合成语料,以及代码、学术文献、书籍等专业领域数据。 但是,社交媒体语料库和公开语料库虽然能提供丰富的口语化表达和真实对话,却包含了大量非规范用语。由于这类数据源具备情绪化的特征,再加上其中混杂着网络用语、脏话、侮辱等攻击性言论。在预训练阶段,模型就会将这些语言模式作为统计特征全部学习下来。 朋友间开玩笑会用脏话强调语气,情侣吵架时会说气话,网友争论时更是什么难听说什么。这些内容在社交场景中可能是善意的调侃,也可能是真实的情绪宣泄,但对AI来说,它们都只是训练数据中的文本而已。 当大模型在预训练阶段接触到这些内容时,它会把这些表达方式当作“正常的语言模式”记录下来。 放在以前,“脏数据”会被清洗。但问题在于,随着技术的提升,当前大模型的预训练数据量实在太大了,达到万亿级token的规模。 而且有害内容的定义本身就很模糊,虽然有些内容是善意的,或者是中立的。但抛开场景,只从文本层面看,它和恶意辱骂在形式上并没有太大区别。 工程师们很难用简单的规则把所有“不该学的”内容都过滤掉,语言的含义本身就高度依赖上下文和说话者的意图。 除了预训练本身的问题外,在用户使用元宝的过程中,还避免不了一个问题,那就是上下文窗口的隐性污染。也就是腾讯元宝官方解释中的“处理多轮对话或上下文时出现异常”。 现代大语言模型的工作机制是基于上下文学习,模型会根据对话历史来生成回复。长时间对话中积累的特定模式可能触发异常输出。 小红书上有个案例,用户提到“元宝两个小时骂了我两次”。这就说明此轮对话的内容至少超过两个小时,长时间的交互可能导致上下文窗口中积累了某些隐性的模式。 用户反复要求修改代码细节,提出“改来改去”的重复性请求,这种重复性请求可能在模型的注意力机制中,匹配了训练数据中“不耐烦、攻击性回复”的语言统计特征,进而触发了有害输出。 虽然模型本身没有情感,但它在训练数据中学习到了“当人类表现出不耐烦时,会使用什么样的语言”这种条件概率分布。 当上下文特征与训练数据中的某些负面交互模式高度相似时,模型可能会错误地激活这些有害的生成路径。 关键就在于,上下文长度越长,出现意外关联的概率越高。 这里就引出了一个新问题,为什么模型没有“真实情感”但会模仿“情感化表达”? 答案在于,AI是通过统计学习掌握了人类语言中情感表达的模式。它知道在什么样的对话情境下,人类倾向于使用什么样的语气和措辞。 当对话的上下文特征符合某种“负面情绪场景”的统计特征时,模型就可能生成带有负面情绪色彩的回复,即使它自己并不理解什么是“生气”或“不耐烦”。 虽然腾讯官方声称“与用户操作无关”,但从技术角度看,不能完全排除间接提示注入(Indirect Prompt Injection)的可能性。 如果用户在代码或对话中无意间包含了某些特殊的字符序列、格式模式或语义结构,即使人类觉得这些内容毫无意义,不过模型也可能会将其误解为“角色扮演指令”或“行为模式切换信号”。 哪怕没有明确的越狱意图,也可能触发模型的异常行为。 上海交通大学、上海人工智能实验室等机构曾在ACL 2024上联合发表了一篇论文,叫做《代码攻击:基于代码补全揭示大语言模型的安全泛化挑战》。 论文里面就提到,代码注释中的自然语言描述、特定的缩进格式、或者CSS样式中的某些关键词,都可能在模型的多模态理解中产生意外的语义干扰。 当有害指令被编码为代码补全任务时,即使是顶级模型,攻击成功率也能超过80%。这说明安全对齐在非自然语言环境中存在系统性的盲区。 此外,作为一个App产品,元宝采用的是“生成后过滤”(Post-Generation Filtering)的安全架构。模型先生成完整回复,然后通过独立的内容审核模块检测是否包含有害内容。 这种架构存在时间窗口漏洞,如果审核系统的响应速度慢于前端渲染,用户就可能看到未经过滤的原始输出。 而对于图片,内容审核模型本质是一个能自动给内容分类打标签的AI模型,比如是正常的合规图片,那么它就给打上合规的标签,输出给用户。如果是血腥暴力或者色情低俗的照片,它也会打上相当应的标签,然后对其进行拦截。 因此,它同样存在误判风险。 特别是当有害内容以隐晦、反讽或混合格式呈现时,审核系统的召回率会显著下降。元宝在除夕夜生成的拜年图片中出现脏话,很可能就是因为图片中的文字内容没有被审核系统识别和拦截。 根据腾讯的官方数据,元宝在春节期间日活跃用户数峰值超5000万,月活跃用户数达1.14亿。 因此,哪怕单次交互的失败率只有0.001%,达到这个量级以后,每天仍会出现数次异常。 这是大规模部署大语言模型时不可避免的统计现象。 那位在除夕夜被骂的用户,以及那位修改代码被骂的用户,不幸成为了这个小概率事件的“中奖者”。 02 为什么这个问题无法根治 理论上,大模型所有输出的结果,都应该经过一个环节,叫做“安全对齐”(Safety Alignment)。 所谓“安全对齐”,是指通过监督微调和基于人类反馈的强化学习等技术,让模型的输出符合人类价值观,以及互联网相关的安全规范。 这种对齐虽然有预训练阶段的合规数据清洗、有害内容过滤,推理阶段的硬约束拦截。但是它也有一部分,是通过后训练阶段在预训练模型的概率分布上叠加的一层软性引导。 这就像给一个看过恐怖片的人说不要做噩梦一样,那些不好的内容已经存在AI的记忆里了,只是平时被压制住了。 安全对齐不是编程,出错是必然的,只不过有的模型概率高,有的模型概率低。 现在大模型训练用的理论基础,是基于人类反馈的强化学习(RLHF)。RLHF的工作原理是通过奖励模型调整输出概率,而非禁止某些输出。 这里的关键在于,它输出某一种事物的概率永远不会是绝对的0或1。这也就导致,无论你怎么训练,都有概率出现说脏话的情况。 元宝知道什么是脏话,如何骂人,因此只要有概率出现管控漏洞,它就会说脏话。 即便是微调也无法阻止这个问题。预训练知识的数据量是万亿级别的,而微调用的对齐训练数据量只有百万级。肯定会有微调没考虑周全的地方,进而让元宝“越狱”骂人。 预训练阶段已经形成的知识结构无法被RLHF完全覆盖。这些知识已经深深嵌入在模型的神经网络权重中。而RLHF只是在这个基础上进行调整,试图让模型“更倾向于”生成安全的内容,但并不能从根本上删除那些不安全的知识。 经常有人会通过对话来诱导模型生成没法过审的内容,他们利用的就是通过对话引导模型生成预训练中包含的那些不健康的内容。 还有一点,神经网络的“黑箱”特性导致AI输出的行为不可完全预测。 传统软件工程都有一定的验证方式,或者是数学验证,或者是工程验证。 但直至今日,地球上没有任何一种方法可以证明“模型永远不会输出某些特定内容”。 神经网络的决策过程是通过数百亿个参数之间复杂的相互作用产生的,目前以人类现有的技术,是无法追踪每一个决策路径的,因此也就无法预测所有可能的输入组合会产生什么样的输出。 这种不可预测性是神经网络这类技术的固有特征。 所以当前AI安全研究的困境是只能降低风险,无法真正意义上的消除风险。这不是某一家公司的技术问题,而是整个行业面临的共同挑战。 研究人员可以通过改进训练方法、优化审核机制、增加安全约束来降低有害输出的概率,却仍然无法做到百分之百的安全保证。 03 腾讯应该怎么办? 从微软小冰再到今天的元宝,AI聊天机器人“骂人”这件事,几乎贯穿了整个中文AI发展史。 虽然前文已经论证了“彻底根治”在技术上不可能,但这并不意味着腾讯就没有任何办法了。实际上,业界已经在探索更有效的解决方案。 一个可行的方向是对社交数据进行“情感标注”和“场景分类”。 朋友间开玩笑的脏话和真正的辱骂,在上下文特征上是有区别的。通过引入情感计算模型,可以在预训练阶段就给数据打上“善意调侃”或“恶意攻击”的标签,让模型学会区分语境,而不是一刀切地学习所有脏话表达。 腾讯的姚顺雨此前提出的ReAct(推理-行动范式),把对齐从事后拦截升级为事前干预。 ReAct框架让模型的每一步决策、每一个行为都有可追溯、可校验的推理链路,能在推理环节就提前识别有害意图、违规逻辑,从根源上拦截有害输出,实现了对齐环节的前置,也是目前行业公认的“白盒化对齐”核心路径。 另一个值得关注的是Anthropic在2022年提出的CAI技术。这是目前Claude模型的核心对齐技术。 RLHF依赖海量人工标注数据,不同标注员的价值观、判断标准存在主观偏差,导致AI的约束边界模糊、行为波动大,极易出现“越狱”风险。 CAI技术让AI具备了自主推理、判断新风险场景的能力,无需人工提前枚举所有风险,能对未预见的有害请求做出合规判断,约束的覆盖范围和泛化性远超同期RLHF。 前文提到,由于RLHF黑箱的存在,无论开发者还是用户,他们都不清楚,为什么模型会输出这些,为什么模型不会输出这些。 而借助CAI技术,AI的自我批判、输出修订、行为评判都基于明确的条款,约束逻辑可追溯、可解释,也能根据需求快速调整规则,大幅降低了黑箱失控风险。 AI聊天机器人重复着相似的错误,这不是某一家公司的失误,而是整个行业都要去面对的问题。技术的进步是循序渐进的,想要完全消除这类问题,可能还需要更长时间的研究。 但有一点是明确的,AI再先进,也还是会犯错的。在享受AI带来的便利,也要对其可能出现的异常保持警惕和包容。 让AI学会“好好说话”,可能比让它变得更聪明,还要难得多。
年产值将超千亿元!立讯人工智能终端在苏州开工:聚焦AI服务器
快科技2月26日消息,据媒体报道,立讯新一代人工智能终端项目在苏州昆山正式开工。 这一总投资超百亿元的重大产业项目,选址昆山南淞湖人工智能产业园,未来将重点布局AI服务器、人工智能PC等高端产品矩阵,达产后预计可实现年产值超千亿元。 作为世界500强企业和中国智能制造领域的领军企业,立讯集团此次加码苏州,再次印证了其对中国市场、对长三角产业生态的长期看好。 立讯方面表示,苏州完备的产业链配套、一流的营商环境和浓厚的创新创业氛围,是企业持续深耕、坚定扎根的信心来源。以此次项目开工为契机,立讯将持续加大研发投入,强化智能制造能力,与产业链上下游伙伴携手,打造具有全球竞争力的人工智能终端产业集群,为苏州高质量发展贡献更多力量。 对于正在全力打造“智能制造之城”的苏州而言,立讯项目的落地无疑是产业版图上的重要一块。 当前,苏州正以人工智能赋能产业升级为核心抓手,积极抢抓国家新型工业化示范区、上海(长三角)国际科创中心关键支点城市等重大机遇,深入实施“AI+制造”八大行动,持续壮大新兴产业,加快布局未来产业。 去年以来,苏州已签约人工智能项目超1300个,先后落地RISC-V开源芯片创新中心、具身智能机器人综合创新中心等关键平台,集聚人工智能上下游企业超过2400家。
谷歌的“豆包手机”来了?
文 观察者网 孙珷 当地时间2月25日,三星在旧金山举行Galaxy Unpacked 2026发布会,正式推出Galaxy S26系列旗舰手机。但真正引爆科技圈讨论的,并非手机硬件本身,而是谷歌安卓生态系统总裁萨米尔·萨马特(Sameer Samat)登台展示的一项新功能——Gemini智能体,能够在后台自动完成订餐、叫车、购物等多步骤复杂任务。 这一幕,对于关注国内AI动态的观众来说,可谓“似曾相识”。 就在三个月前的2025年12月1日,字节跳动豆包团队发布了豆包手机助手技术预览版,展示了几乎完全一致的能力:系统级唤醒、跨应用自动操作、后台任务执行。搭载该助手的努比亚M153工程样机首批3万台一夜售罄,在科技圈引发现象级关注。 如今,全球科技巨头谷歌携手三星推出同样能力的产品,这是否意味着,跟随这一创新,谷歌的“豆包手机”也来了? 智能体AI:手机助手帮你办事 “安卓正从传统操作系统演变为一个真正理解并为你服务的智能系统。”萨马特在发布会上如此定义这次升级的意义。他将这项能力称为Gemini的“下一次进化”,让手机助手从“回答问题”升级为“帮你办事”。 在现场演示环节,萨马特展示了一个贴近日常的场景:一个家庭群聊里,成员们七嘴八舌地讨论晚餐点什么披萨。按照传统方式,用户需要自己阅读消息、记住每个人的口味偏好、打开外卖App、逐一添加菜品、核对地址、等待支付……整套流程下来,至少需要切换三四个应用,耗时数分钟。 而在Galaxy S26上,萨马特只说了一句话:让Gemini帮他处理群聊里的披萨订单。 接下来的场景中,Gemini自动读取群聊内容,分析每个人的偏好,启动外卖应用,导航到对应餐厅,将所有披萨添加到购物车,最后生成订单等待用户确认。整个过程中,用户可以继续使用手机做其他事,也可以随时查看进度、介入调整或直接终止任务。 “行业内称之为智能体AI(Agentic AI),”萨马特说,“我只把它叫做——把事情搞定(Getting stuff done)。” 根据谷歌官方博客介绍,这项功能首批支持的场景包括出行打车(如Uber)、餐饮外卖(如DoorDash、Grubhub)和生鲜杂货配送。用户长按手机侧边电源键即可唤醒Gemini,用自然语言下达指令,比如“帮我叫一辆车回家”“重新点一份上次的外卖”“把买菜清单加到购物车”。 背后技术:虚拟窗口、GUI Agent与多步推理 Gemini智能体是如何实现这些能力的?综合谷歌官方博客和外媒报道,其技术方案可归纳为三个核心要素。 第一是“安全虚拟窗口”机制。当用户发出任务指令后,Gemini会在手机上启动一个独立的虚拟环境来运行目标应用,而非直接控制用户的主界面。谷歌在博客中明确表示,Gemini会在“手机上的安全虚拟窗口中运行应用”,这意味着AI的操作被隔离在“沙盒”中,既保证任务流畅执行,又避免AI直接访问用户的整个系统。 第二是多模态视觉理解能力,业内通常称之为“GUI Agent”(图形界面智能体)。Gemini 3具备强大的视觉语言模型能力,能够像人类一样“看懂”应用界面——识别按钮、输入框、菜单等元素,理解其含义,并模拟点击、滑动等操作。这意味着AI无需依赖应用方提前适配API接口,就能在几乎任何App中完成任务。 第三是多步骤推理与规划能力。面对复杂任务,Gemini会先制定执行计划,再逐步完成。以披萨订单为例,AI需要理解语境、从对话中提取结构化信息(谁要什么口味、多少份、送到哪里),规划“打开外卖App→搜索餐厅→添加菜品→确认地址→生成订单”的执行路径,并在执行过程中处理各种意外情况。三星官方发布会回顾文章中提到,“Gemini 3使用多模态推理来创建计划并逐步执行,将你的意图转化为行动。” 在安全性方面,谷歌做了多重考量:任务必须由用户明确发起,AI不会擅自行动;用户可随时查看进度、介入干预或终止;涉及支付等敏感操作时,系统会提示用户手动完成。 谷歌还在Android开发者博客中披露了一套名为“AppFunctions”的底层框架,类似于当下流行的模型上下文协议(MCP)的本地版本。通过AppFunctions,应用开发者可以定义功能接口,让Gemini更精准地调用;同时,谷歌也在开发“UI自动化框架”,让AI能在没有官方适配的应用上通过视觉识别完成任务。 似曾相识:这不就是豆包三个月前做的事? 看到这里,熟悉国内AI动态的读者一定会有强烈的既视感——因为上述能力,豆包手机助手在三个月前就已经展示过了。 2025年12月1日,字节跳动豆包团队发布豆包手机助手技术预览版,搭载于与中兴通讯合作的努比亚M153工程样机。这款售价3499元的手机上线后几乎瞬间售罄,首批约3万台被开发者和科技爱好者抢购一空,二手市场溢价一度高达3000元以上。 从技术路径和产品形态来看,豆包手机助手与Gemini智能体高度一致: 系统级唤醒——豆包支持通过语音、侧边键或豆包Ola Friend耳机直接激活,与Gemini的长按侧键唤醒如出一辙; AI操作手机——豆包能够跨应用完成订票、购物比价、批量下载文件、多平台物流查询等复杂任务,与Gemini的打车、外卖、购物场景异曲同工; GUI Agent技术——豆包同样采用视觉理解+模拟点击的方式操作第三方应用,而非依赖预设API; 后台运行——豆包的任务执行同样在后台完成,不抢占用户主界面,用户可随时查看、干预或终止。 看演示,效果上豆包实现的更好。例如,用户可以直接说“帮我给女儿推荐几个礼物放进购物车”,或者直接通过语音对图片下达修图指令,如删除人物、清理杂物等。 北京大学武汉人工智能研究院副院长吕鹏在接受媒体采访时曾评价:“豆包手机助手的工程化水平很高,完成度很好,是未来智能终端的雏形。” 换言之,在“手机智能体”这条赛道上,豆包比谷歌更早迈出了这一步,并以技术预览版的形式率先向市场验证了用户需求和技术可行性。 全球共识:苹果也选择了Gemini 手机AI助手从“对话”走向“代理”,正在成为一场全球性的技术共识。 就在今年1月12日,苹果与谷歌联合宣布了一项重磅合作:苹果将采用谷歌的Gemini大模型来驱动下一代Apple Intelligence功能,包括更加个性化的Siri语音助手。根据彭博社报道,这笔交易价值约为每年10亿美元。苹果此前还评估了OpenAI和Anthropic的技术方案,最终选了谷歌的技术。 苹果CEO蒂姆·库克在公司2026财年第一季度财报电话会上进一步解释了这一合作,称“驱动个性化Siri的,将是与谷歌的合作成果。”虽然苹果尚未披露具体的智能体功能细节,但从其公开愿景来看,未来的Siri将能够理解用户的个人上下文,跨应用完成任务,这与Gemini和豆包的能力方向完全一致。 CNBC的报道指出,这一合作意味着Gemini将成为Android和iOS两大平台的默认AI引擎,覆盖全球绝大多数智能手机用户。 与此同时,三星也在构建多元化的AI助手生态。Galaxy S26同时集成了三套AI引擎:谷歌Gemini负责智能体级别的跨应用任务执行,Perplexity负责联网搜索问答,三星自家的Bixby作为本地设备助手承担基础交互。 无论豆包还是Gemini,安卓还是iOS,全球科技巨头正在用行动证明:手机智能体是AI应用落地的关键战场,“代理式操作”将成为下一代手机助手的标配能力。 赛道已热,先行者何时再出发? 随着谷歌、苹果相继入场,“手机智能体”赛道的热度已被彻底点燃。 萨马特在发布会上强调了这项能力的商业价值:“后台任务执行减少了应用切换,降低了手动协调工作,保证了工作流程的顺畅进行,同时又不会剥夺用户的可见性或控制权。”对于企业用户而言,这意味着显著的效率提升空间。 根据美国权威科技媒体The Verge报道,萨马特也表示这是将安卓从单纯的操作系统转变为“智能系统”征程中的一步。“这项技术正在发展,而开发者社区面临的问题是如何拥抱它。” IDC预计,2026年中国新一代AI手机出货量将达到1.47亿台,同比增长31.6%,占据整体市场的53%。这片蓝海足够广阔,而“智能体”能力正在成为决定AI手机含金量的关键指标。 三星方面宣布,Gemini智能体功能将以Beta预览版形式于3月11日随Galaxy S26系列发售向用户开放,首发市场为美国和韩国,首批支持设备还包括谷歌Pixel 10系列。三星表示,其Galaxy AI已覆盖全球4亿台设备,预计今年搭载Gemini的设备数量将翻倍至8亿台。 自去年12月发布技术预览版以来,豆包手机助手至今尚未公布任何正式版或新产品的消息。在谷歌、苹果高调推进之际,这位技术上的先行者显得相对低调。 谷歌的“豆包手机”来了,但真正的豆包,下一步会怎么走? 市场正在等待答案。 来源|观察者网
OpenClaw能开箱即用了!附一手体验
作者|江宇 编辑|漠影 智东西2月26日报道,今日,MiniMax Agent迎来一次关键升级:一边是Expert 2.0,让任何可被描述的能力,都能成为“专家”;另一边是MaxClaw上线,把原本需要自己部署的OpenClaw,直接搬进网页端,开箱即用。 前者让个人和团队可以把专业知识封装为可复用的SOP。官方数据显示,Expert功能上线以来,已有1.6万+专家Agent被创建,覆盖技术开发、创意写作、办公效率、商业金融等多个领域。 MaxClaw则基于OpenClaw框架运行在云端容器中,无需自备服务器或API Key,基础版订阅会员即可体验。 目前,Expert与MaxClaw均已开放使用,入口在MiniMax Agent网页端。 MiniMax Agent:agent.minimaxi.com Expert地址:agent.minimaxi.com/experts 一、一句话生成专家,Agent自动补全SOP Expert 2.0最直接的变化,是创建门槛大幅降低。 过去如果要做一个复杂专家,往往要手动设计Skill结构、子代理分工、提示词层级以及工具调用逻辑。现在,用户只需用自然语言描述目标能力,Agent会自动拆解知识体系、流程结构与工具编排。 例如,如果你希望构建一个“擅长使用Excel原生能力构建专业财务模型的专家”,只需告诉它目标和交付要求,Agent会自动补全DCF估值、敏感性分析、三表联动、函数规范等知识模块,同时配置对应的子Agent与工具路径,并给出示例使用场景。 整个过程不需要用户理解底层的MCP结构或子代理机制。 在实际体验中,我围绕一个更贴近媒体场景的需求进行了测试:创建一个“跨平台AI产业趋势研究专家”,要求具备数据抓取、新闻来源交叉验证、结构化报告生成能力,同时输出适合公众号长文的结构框架与可视化图表建议。 成功创建专家后,我输入指令:帮我研究2025年度全球AI大模型发展动态,整理成一份结构化的产业趋势报告。 它最终交付了一份接近万字的长报告,标题是《2025年度全球AI大模型产业发展趋势报告》。 但从结果质量看,这个专家的“检索与更新”能力还没有跑顺。报告里大量数据与案例更集中在2024年度与2025年初,信息密度不低,但对“2025年度”的覆盖明显偏弱。 与此同时,我在创建专家时强调过“结构框架与可视化图表建议”,但这次交付里相关输出并不突出。 整体感觉是:框架写出来了,但“查新、对齐时间线、把关键数据做成图”这几步还需要继续调试。 此外,系统为每位用户提供了15轮免费创建与调试额度,支持在多轮对话中不断修正专家能力。 值得注意的是,官方已透露后续将上线创作者定价与分成机制,以及团队内专家共享能力。 二、MaxClaw上线,把OpenClaw变成网页版 OpenClaw作为开源个人AI助手框架,在GitHub上迅速积累人气,但本地部署、环境配置、API接入等步骤,对不少用户来说依然有门槛。 MaxClaw则把这一套流程搬进MiniMax Agent网页端,为每位用户在云端运行一个独立的OpenClaw实例,并接入MiniMax模型。 部署过程几乎只有两步:选择配置,一键部署,等待约10秒即可完成云端启动。模型、记忆系统、工具链均为预设状态,用户无需额外配置。 MaxClaw具备7×24小时运行能力,支持长期记忆、工具调用、定时任务、多平台接入,并预置图片生成、视频生成、联网搜索、网页部署等内置工具,无需自行接入第三方API,也不会产生额外API费用。 每位用户可获得50G专属云储存空间,用于长期记忆与持久储存。 在体验中,我测试了三个场景。 第一是定时产业监测。 我设定每天14点抓取过去24小时AI行业重大融资、模型发布和政策动态,自动去重后生成一份中文摘要并附来源链接。任务通过Cron表达式实现自动化执行。 从实际运行情况看,这个任务能够稳定按时推送。摘要本身的信息组织比较规整,链接也会一并附上。 但它的短板也很明显:时效性不够“新”,对媒体写作这类场景来说,直接拿来用可能不够。 第二是跨端协作。 MaxClaw已打通飞书、钉钉、Telegram、Slack等IM渠道。用户可以在任意聊天工具中直接向Agent下发任务,交付物则同步回网页端。 官方手册中提供了完整的飞书接入流程,包括创建自建应用、配置权限、匹配码验证等步骤。 实际接入飞书的过程比想象中简单。按照指引在飞书开放平台创建自建应用,复制AppId与AppSecret,在MaxClaw对话框内完成配置,整个流程大约5分钟。 过程基本顺畅,没有遇到明显卡顿或权限冲突。接入后在飞书端进行交互,响应几乎无明显延迟,和网页端的体验差别不大。 接入完成后,我在对话框里输入:“每天14点35分,搜索最新AI新闻,去重后只留5条,中文,附链接。”MaxClaw立即回应了该信息,并留下了一个“敲键盘”的状态。 MaxClaw确认“任务已创建成功”后,在后台通过Cron触发执行,随后生成了当日的AI新闻简报内容。 第三是复杂文档处理。 我上传一份长篇PDF报告,要求提取关键数据并生成结构化摘要,同时给出适合改写为媒体报道的章节框架。 MaxClaw在收到指令后尝试调用解析能力,但很快反馈“遇到了PDF内容提取的技术困难”。随后系统日志中还出现了一段执行报错信息,其在云端环境中尝试调用相关解析工具但未成功。 这次体验暴露了一个问题:在复杂文档处理上,MaxClaw的能力仍依赖于底层工具链的稳定性。如果是可直接读取文本的PDF,理论上可以完成结构化提取;但在实际测试中,面对这份文件,它未能顺利完成自动解析,反而需要人工介入转换格式。 也就是说,MaxClaw在复杂文件的一步到位处理上,目前还存在工具兼容与执行环境限制的问题。 写在最后:模型竞赛正酣,Agent工作流能力成为新竞争焦点 从MiniMax官方披露的数据看,1.6万+专家Agent的创建量说明,社区已开始自发构建不同领域的能力模块。未来如果叠加定价与分成机制,Expert可能会演化为一个专家生态市场,可以被调用、复用,被交易的结构化资产。 MaxClaw则解决了“Agent能不能长期运行”的问题,它更像一个挂在云端的“常驻节点”。 我在测试期间,几次临时修改定时任务内容或补充筛选条件,它都能在原有任务结构上继续迭代。 网页端与IM端之间的同步也较为稳定,日报生成后能在两个界面同时查看记录,这种“跨界面一致性”在日常工作中很实用。 当然,当前版本仍有一些待优化的问题。MaxClaw暂仅支持网页端使用,移动端尚未上线。复杂文档处理在某些场景下会受到工具限制,出现解析失败或执行超时的情况。 积分按token消耗,对高频调用定时任务或长报告生成的用户来说,也需要提前规划成本。 但这次升级的方向非常明确:降低门槛、提升复用性、强化跨端协作。 在模型竞赛逐渐趋同之后,Agent层的工作流能力正在成为新的竞争焦点。从这次体验来看,MiniMax已经在往这个方向走。
魅族手机被传将于3月退市 客服回应:未接到通知 线下运营仍正常
快科技2月26日消息,据媒体报道,多位知情人士透露,魅族手机业务已实质性停摆,预计于2026年3月正式退市。 与此同时,魅族旗下Flyme Auto车机业务将独立运营,魅族品牌则有望继续保留在吉利体系内。 目前,星纪魅族的飞书大群仍有超1000人,但不少员工已提出离职,少量员工转岗至吉利体系内的极氪汽车。内存价格的大幅上涨成为压垮手机业务的导火索之一。 星纪魅族集团中国区CMO万志强曾在今年1月的一场活动中表示,由于内存成本飙升,魅族22 Air被迫取消上市计划。他当时还透露魅族23仍计划在2026年发布,但据知情人士称,该项目已不再实质性推进。 针对退市传闻,魅族官方客服统一回应称尚未接到相关通知。线下渠道与售后体系目前仍正常运转,现有机型的系统更新和维修服务暂未受影响。电商平台上,魅族手机多数显示“补货中”,仅少量机型仍在售。 与此同时,星纪魅族高管团队亦经历剧烈变动。自原CEO苏静离职后,包括COO廖清红在内的多名核心高管先后离开。 2022年吉利旗下星纪时代控股魅族后,曾提出“三年内重回中高端市场前五”的目标,并引入多名手机行业老兵,但最终未能扭转颓势。 魅族品牌成立于2003年,曾是国产音乐播放器市场的龙头。2009年,魅族成功转型,推出国内首款智能手机M8,上市五个月销售额即突破5亿元。2011年发布的M9更引发线下排队抢购热潮,奠定了其在“前华米OV时代”的技术领先地位和忠实粉丝基础。 面对魅族的落幕,有网友感慨“科技日新月异”“一不留神就被淘汰了”。你用过魅族手机吗?
《刺客信条》新作“Hexe”创意总监克林特·霍金离职,育碧确认开发还会继续
IT之家 2 月 26 日消息,据外媒 VGC 昨晚报道,育碧即将推出的《刺客信条》新作(IT之家注:代号为“Hexe”)创意总监克林特 · 霍金已经离职。 育碧确认,“Hexe”的开发不会受到影响,项目将继续推进,新任《刺客信条》品牌内容负责人让 · 盖斯东将接替创意总监职位。盖斯东曾执导《刺客信条:起源》和《刺客信条 4:黑旗》,拥有丰富系列经验。 克林特 · 霍金自 2001 年以来曾两次加入育碧,曾担任《细胞分裂:混沌理论》《孤岛惊魂 2》和《看门狗:军团》的创意总监,是育碧资深核心开发者之一。 育碧表示,感谢克林特 · 霍金多年来为公司带来的创意和贡献,并祝愿他未来发展顺利。“Hexe”将继续由经验丰富的开发团队负责,并计划为该系列带来不同以往的体验。 据IT之家了解,“Hexe”于 2022 年公布,定位为一款风格明显不同于传统作品的游戏,将强化恐怖元素。育碧当时表示,该项目发布时间晚于其他作品,包括去年推出的《刺客信条:影》。 与此同时,《刺客信条》系列管理结构正在发生重大变化。系列运营已交由腾讯部分持股的新子公司 Vantage Studios 负责。 前系列负责人马克-亚历克西斯 · 科特在 2025 年 10 月离开育碧,但随后表示将起诉育碧,称自己并非主动离职,而是被要求让位。 育碧上周还公布了《刺客信条》新领导团队:参与过《刺客信条 4:黑旗》的开发的马丁 · 谢林、让-盖斯东和弗朗索瓦 · 德 · 比利。 育碧 CEO 伊夫 · 吉耶莫表示,公司正在开发多个《刺客信条》和《孤岛惊魂》新项目,涵盖单人和多人模式。《刺客信条》系列去年玩家总数已超过 3000 万,公司目标是进一步扩大这一用户基础。 此外,育碧正在推进公司重大重组,将创意团队改组为独立运作的创意单元。同时,公司正在实施成本削减措施,已取消 6 个项目、推迟 7 个项目,并关闭 2 家工作室。
三星S26深度联动Gemini 努比亚总裁倪飞:只实现了豆包手机局部能力
凤凰网科技讯 2月26日,三星今日凌晨正式发布Galaxy S26系列,新机与谷歌Gemini的深度联动,被官方视为本代产品的重要升级点之一,相关功能围绕“手机自动驾驶”式的AI操作能力展开,引发行业关注。 不过,这一功能也迅速引来国内厂商的公开评价。中兴通讯终端事业部总裁、努比亚技术有限公司总裁倪飞当天在社交平台发文指出,三星Galaxy S26系列与Google Gemini 的组合,在功能呈现上更接近努比亚此前发布的M153豆包手机部分能力展示,整体完成度仍有提升空间。 倪飞认为,三星的动作从侧面印证了AI智能体已成为智能手机行业的共同演进方向,但从时间节点看,三星此次展示的能力,相较努比亚M153豆包手机技术预览版的亮相已晚约三个月。更关键的差异在于实现方式和覆盖范围。 按照倪飞的说法,三星S26系列当前展示的AI能力,主要基于GUI交互逻辑,实现的是单一场景下的多步骤操作,例如叫车、购物等,且任务执行需要在后台完成,仍偏向功能级演示。而努比亚M153豆包手机则已将“手机自动驾驶”推进至系统层,覆盖更多真实使用场景。 据其介绍,基于豆包手机助手,豆包手机可以理解用户的自然语言指令,在多个应用之间自主切换并完成协同操作,支持查票订票、商品下单、文件批量下载、跨应用物流信息查询等复杂任务,实现对手机操作流程的整体接管。这种模式不再局限于单点功能,而是尝试构建系统级、全场景的AI智能体能力。 随着头部厂商陆续下场,手机AI智能体的实现路径、落地深度与系统整合能力,或将成为新一轮竞争的关键分水岭。
Gemini化身“智能体”,谷歌Pixel 10、三星Galaxy S26将能自动打车订外卖
IT之家 2 月 26 日消息,北京时间今天,谷歌宣布为 Android 系统推出多项 Gemini 人工智能升级,其中最关键的是新增自动化功能,使 AI 可以执行叫 Uber 或订外卖等多步骤任务。 这批功能与诈骗检测增强和“圈选即搜”升级一同发布,使 Gemini 在日常使用中的实用性进一步提升。 谷歌表示,该自动化功能可让用户将部分日常事务交由 Gemini 完成,目前支持范围仅适用于食品、杂货和网约车类应用。 IT之家注:该功能目前处于测试阶段,仅支持 Pixel 10、Pixel 10 Pro 和三星 Galaxy S26 系列设备,并且仅在美国和韩国推出。 为降低误操作风险,谷歌设置了安全机制。自动化任务必须由用户主动触发,运行过程中用户可实时监控并随时终止任务。任务运行在独立安全环境中,仅能访问特定应用,无法读取手机其他数据。 此外,Gemini 诈骗检测功能也得到扩展,目前已登陆美国的 Galaxy S26 系列,并将支持 Pixel 10 和 Galaxy S26 设备检测诈骗短信,覆盖美国、加拿大和英国。 “圈选即搜”功能也获得了升级,能够识别屏幕上的全部内容,而不仅是单一对象。例如,用户可以一次识别屏幕中的所有服装和配饰,或获取相关主题信息。目前,谷歌正持续通过 Android 系统更新和 Pixel Drop 更新强化 Gemini 功能体系。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。