行业分类:
加载中...
头条分类:
加载中...
纽约州拟议新法案,禁止AI聊天机器人提供法律和医疗建议
IT之家 3 月 5 日消息,当地时间 3 月 3 日,据美媒 Statescoop 报道,纽约州议会正在审议一项法案,拟禁止 AI 聊天机器人提供法律或医疗建议,同时允许用户对违规的聊天机器人运营方提起诉讼。 参议院法案 S7263 在上一会期提出,并于当地时间上周三在互联网与技术委员会以 6 比 0 通过,属于一组旨在规范 AI 聊天机器人的立法方案之一。法案主要针对冒充医生、律师等持证专业人士的 AI 聊天机器人,禁止其提供任何可能违反执业许可法律或构成非法从事法律服务的“实质性回应、信息或建议”。 法案同时要求聊天机器人运营方明确告知用户其正在与 AI 系统互动,且提示必须清晰、醒目,并使用与聊天机器人相同的语言和可读字体显示。不过,法案也强调,这类提示并不能免除运营方的法律责任。 法案还赋予用户提起民事诉讼的权利,用户可以向聊天机器人运营方索赔损失并要求支付律师费用。专家指出,如果缺少这一机制,针对数据或 AI 系统的监管法规往往会削弱。 如果最终通过,该法律将在州长签署后 90 天生效。配套立法还包括保护未成年人免受聊天机器人不安全功能影响的措施,以及对部分未成年人隐私保护力度较弱的在线平台进行监管。此外,立法方案还提出要求生成式 AI 系统提供提示,并对生物识别数据和“合成内容创作”的处理制定新规则。 该法案由纽约州参议员、互联网与技术委员会主席克里斯滕 · 冈萨雷斯提出。冈萨雷斯表示,这一立法方案旨在确保 AI 创新不会以纽约州居民的安全为代价,尤其是儿童的安全。据IT之家了解,今年 1 月,生成式 AI 聊天机器人应用 Character.AI 与谷歌就多起诉讼达成和解,所涉案件涉及聊天机器人在多名未成年人自杀事件中的作用。 冈萨雷斯在新闻稿中表示:“人们应该从真人那里获得真正的关怀,也应该得到透明度、问责机制,并确保在使用技术时其数据能够得到保护。”
中国首次!港口重箱查验实现具身智能应用
快科技3月5日消息,据媒体报道,在宁波舟山港梅山港区的重箱查验场地,一只来自宇树科技的四足“机器狗”正灵活穿行于集装箱之间,对准待检箱体的箱号与铅封进行精准核查。 这是全国港口首次应用查验辅助机器人,承担集装箱箱号和铅封号的自动拍摄与识别任务,标志着海关重箱查验平台在全国范围内率先实现了具身智能的落地应用,开创了关港协同智能化的全新范式,推动重箱查验业务向智能化、高效化加速跃迁。 近年来,随着梅山港区集装箱吞吐量持续攀升,查验工作量年均增长超过10%。在此背景下,信通公司协同梅东公司深入港区一线,反复调试优化,以“乘帆”AI大模型为技术基底,成功搭建起重箱查验辅助机器人系统。 该系统精准破解了海关与码头协同作业中的“时间差”难题,推动查验模式从传统的“人工到场、逐个核验”向“智能感知、高效审批”跨越式升级。 在实际作业中,海关工作人员可通过相关系统下达指令,查验辅助机器人随即自主完成目标集装箱的路径规划与安全避障,借助高清相机与AI识别算法,精准采集箱号和铅封号信息。 全流程的图片记录同步回传至海关,形成可追溯、可核查的完整监管链条。海关关员验核照片质量并确认后,码头操作员即可配合完成开箱倒箱作业。 数据显示,目前查验辅助机器人的箱号识别准确率超过99%,在3台同时作业的情况下,以往需要4到6人耗时1小时以上的工作,现可压缩至20分钟内完成。 此次成功应用,是浙江省海港集团、宁波舟山港集团与宁波海关深化关港协同、推进智慧口岸建设的一次创新实践。 下一步,双方将持续优化AI识别算法精度,完善人机协同调度机制,进一步拓展具身智能在港口更多场景的应用边界,全力打造关港协同智能化的行业新样板,为世界一流强港建设注入更强劲的智慧动能。
OPPO斩获GTI“移动AI应用奖”山海通信技术获国际认可
【CNMO科技消息】近日,在2026年世界移动通信大会期间,OPPO联合中国电信打造的“意图驱动的端网云智能体通信网络试验”项目,凭借其在技术创新领域的突破性表现,荣获GTI国际产业大会颁发的“移动AI应用奖”。作为全球通信行业的重要奖项,这一荣誉标志着以OPPO为代表的国产智能通信技术获得了国际业界的高度认可。 此次获奖的项目成功研制出业界首个意图驱动的端到端智能体通信网络原型。该技术在端侧意图感知与多智能体协同决策领域实现了原创性突破,打造出意图驱动的多智能体协同通信标杆方案。 在具体产品落地方面,OPPO Find X9系列手机采用了自研的山海通信增强芯片。该芯片具备多维度通信感知能力,依托先进的AI算法实现智能动态调优,能够将信号衰减降低58%,从而全面提升通信连接的稳定性与可靠性。同时,OPPO Find X9系列搭载了全新的山海天线架构,使天线有效尺寸增加100%,高穿透频段信号增强100%。 此外,该技术还运用了信号地图智能选网与专网云加速技术,使选网准确率平均提升42.3%。这一改进帮助用户轻松应对演唱会、高铁等高密度或高速移动场景下的网络挑战,真正做到信号时刻在线。在生态互联方面,山海通信深度融入OPPO互联生态,赋能手机与IoT设备的高效协作,实现多端互联互通。
三星今年将在8亿台设备上部署AI 较去年增长超过两倍
【CNMO科技消息】近日,MWC26巴塞罗那论坛在西班牙巴塞罗那开幕。三星电子MX事业部技术战略团队长、副社长沈元根出席并发表主题演讲,阐述了三星在人工智能领域的最新战略布局。 沈元根透露,预计今年将有8亿台三星设备搭载Galaxy AI功能,这一数量较去年增长超过两倍,标志着AI大众化进程将显著加速。 沈元根重点介绍了上周发布的三星S26系列,称其致力于实现“代理型AI智能手机”的愿景。他指出,该系列的核心在于让AI在后台自然接管用户原本需要手动执行的各种应用程序操作,从而带来全新的智能体验。为此,三星在三星S26的开发过程中对AI架构进行了重新设计,确立了个人AI、自适应AI和代理型AI三大核心技术支柱。 其中,个人AI旨在无需用户特别指令,即可根据情境主动提供所需信息;自适应AI能够理解当前屏幕内容,推荐相关信息或可执行的操作;而代理型AI则专注于自动处理那些重复性高、步骤繁琐的复杂任务。 在具体功能展示上,沈元根以“现在简报”作为个人AI的代表,它能基于用户习惯和日常规律提供个性化更新;“现在提示”则是自适应AI的体现,能在关键时刻提供实时建议;而自动化功能则展示了代理型AI自动启动应用的能力。
涉及AI、人形机器人!首场“部长通道”信息量很大
今天(5日),十四届全国人大四次会议首场“部长通道”开启。科学技术部部长阴和俊、工业和信息化部部长李乐成、国务院国有资产监督管理委员会主任张玉卓接受了媒体采访。 科学技术部部长阴和俊: 2025年我国基础研究投入占比创历史新高 阴和俊表示,我国科技事业快速发展,科技实力跃上新台阶,创新指数排名上升至全球第10。2025年,全社会研发投入超过3.92万亿元,强度达到2.8%。基础研究投入接近2800亿元,占比达7.08%,首次破7,创历史新高。 阴和俊介绍,我国科技成果蓬勃发展,大量涌现。人形机器人在春节晚会上大放异彩,从去年的扭秧歌、转手绢到今年的翻跟头、演小品,十八般武艺竞相展示。开源大模型领跑全球,芯片攻关取得新突破,创新药迅猛发展,去年中国批准的创新药达到76个。对外授权交易的总额超过1300亿美金,科技赋能各行各业,有力提升人民生活品质。 工业和信息化部部长李乐成: 我国开源模型下载量全球居首 李乐成表示,中国模型走向世界,过去一年,我国开源模型下载量全球居首;AI工具赋能生产,截至2025年底,规上制造业企业人工智能技术应用普及率超30%;智能终端融入生活,国内企业发布300多款人形机器人产品。 马年春晚人形机器人组团炫技,成为全网热议的顶流,机器人快速进步让我们为之惊艳,其所呈现的不只是武术和才艺,而是中国人工智能从科技攻关走向场景落地亮出的中国功夫,是新质生产力走进大众视野的生动展示。人工智能这个“关键变量”正在成为经济高质量发展的“强劲增量”。 李乐成表示,在人工智能产业发展当中一定要统筹发展和安全,坚持人工智能为人所用、为人服务、为人所控,我们要坚持人工智能的国际合作开放共享,要团结世界各国的朋友们共同探讨,取得更广泛共识的人工智能的治理框架和规则,让人工智能这个产品更好地造福人类,成为全球的公共产品。 国务院国资委主任张玉卓: 中央企业将在战略性新兴产业持续加力 张玉卓介绍,“十四五”时期,中央企业资产总额连续跨上70万亿元、80万亿元、90万亿元三个台阶,利润总额比上一个五年增长了56.2%。 张玉卓介绍,对于中央企业发展战略性新兴产业,大家积极性非常高,将在三方面持续加力。 第一是领跑方面,像新能源、航空航天、新材料都属于领跑。特别在新能源领域,国外发展人工智能碰到了瓶颈,就是电力不足,我们国家在这方面没有问题,不但电力充足,而且是绿电。下一步就是在国际上持续建立优势。 第二是赶超方面,一些行业还处于赶超阶段,比如新能源汽车等。新能源汽车中央企业三年时间里产量和收入翻了一番,自主品牌的新能源汽车市占率已经从10%提高到16.5%。 第三是培育方面,比如量子信息、核聚变、低空经济、生物科技,中央企业在这些方面是加力培育。 ▌本文来源:央视新闻微信公众号(ID:cctvnewscenter) 监制/李浙 制片人/马文佳 主编/王瑄 编辑/林湘瑜 ©央视新闻
麦肯锡:AI时代对毕业生而言并非全是坏事,善于驾驭AI的人才将更受青睐
IT之家 3 月 5 日消息,据英国 BBC 今日报道,咨询公司麦肯锡表示,去年不少企业确实在考虑用 AI 替代员工。与此同时,企业越来越意识到,真正的挑战在于如何管理员工,让员工能够有效使用这些工具。 与此同时,一些 AI 专家认为情况并非完全悲观。专家指出,毕业生作为“AI 原生一代”,在未来就业市场可能反而具备优势。 根据麦肯锡的数据,Divine Jacob 想要进入的行业正经历明显的招聘收缩。该机构指出,受 AI 和大语言模型影响最大的行业,招聘岗位数量下降了 38%。降幅最明显的岗位正是被认为最容易受到生成式 AI 影响的职业。这些岗位包括软件开发人员和其他 IT 专业人员,以及数据、设计、媒体、研究、法律服务、人力资源、金融和商业领域的职位。 麦肯锡表示,年轻毕业生可能正面临“三重打击”:整体劳动力市场放缓、面向毕业生的岗位减少更快,以及低技能岗位需求下降。 不过,一些迹象显示情况正在发生变化。IT之家从报道中获悉,麦肯锡高级顾问 Tera Allas 表示,AI 对就业的影响仍然是一幅不断变化的图景。“去年许多企业确实在考虑哪些岗位可以被 AI 替代,但现在情况似乎不同。受到 AI 影响最大的岗位反而正在增长。企业逐渐意识到,要在组织中有效使用 AI,关键在于如何管理那些需要使用这些新工具的人。”
华为MWC放出绿色AIDC大招:重构AI发展“水电煤”,从技术突围到联合生态共建
作者 | 云鹏 编辑 | 漠影 今天,全球AI大战愈发焦灼,从模型的比拼、算力的较量、人才的争夺到能源的高效利用。 当下,Agentic AI(AI智能体)迅猛发展,数以亿计的Agent加速落地。从个人到企业,从工作、学习、娱乐到日常衣食住行,AI普及按下加速键。 根据权威市研机构Gartner预测,2026年全球AI支出将达到2.5万亿美元(约合人民币17.2万亿元),全球40%的企业应用都将嵌入AI智能体。随之而来的是指数级Token消耗增长,据统计,2025年全球主流模型Token消耗增长超10倍。 在AI重塑社会生产与生活之下,能源层面的挑战正日益凸显。如果说Token像水、电一样成为基础资源,那么算力则是数字大脑、联接是神经网络,而能源则成为主干。 我们看到,全球范围内大规模AI数据中心(AIDC)拔地而起,AI基建竞赛火爆,亚马逊、谷歌、微软、Meta四家公司2026一年AI基建投资或突破6700亿美元(46000亿人民币)。 而AIDC能耗巨大,一家巨头的年耗电量甚至约等于一个中等国家或一个国际大都市。 在这样的背景下,如何破解能源挑战成为突出问题。 单纯“堆规模”是无底洞,绿色AIDC概念成为主流,必须依靠技术创新进行突破。今年MWC 2026,华为在高峰论坛上重磅发布了绿色AIDC解决方案和绿色AI站点,并联合GCC发起AIDC生态共建倡议。 一、华为AIDC解决方案直指行业痛点,让每一瓦特产出更多Token 在面向AI时代的算力基础设施升级进程中,AIDC正成为运营商电力体系中的战略级核心资产。伴随AI业务爆发式增长与芯片迭代持续加速,行业预计未来十年算力规模将实现10万倍提升,这会为运营商带来前所未有的建设窗口期。 但机遇同步叠加挑战:机柜功率密度从10kW快速跃迁至单柜MW级,园区规模由百兆瓦迈向GW级;同时,交付周期由传统18个月压缩至6个月甚至3个月——在10万张AI加速卡月折旧高达3亿元人民币的现实压力下,时间本身已成为核心成本要素。 针对高密度、高可靠、快交付与多元兼容等系统性挑战,华为发布了新一代GW级AIDC整体解决方案,“让每一瓦特产出更多Token”是其核心目标,构建覆盖供电、制冷与运营的全链路能力体系。 方案通过冷电协同等技术创新把全链综合效率提升了5%,依托预制化与模块化设计,将交付周期由“年”缩短到了“月”,并支持多功率密度、多厂家芯片的生命周期兼容。 在供电侧,UPS5000单柜容量达800kVA、效率97.5%,配套Smart Li实现400kW/10分钟备电能力;PowerPOD 5.0单箱密度达3.2MVA,占地降低25%;联合生态伙伴实现“三箱一路电”,16周完成全链交付。 在制冷侧,IT POD系统级交付方案融入AI技术,通过百万小时兼容性验证,实现了3个月快速部署与智能化预测维护。运营侧则通过iCooling等冷电联动方案,把PUE优化到了0.01。 直观来看,在100MW数据中心场景下,这一方案每年可节省约500万元人民币。 目前,该技术体系已在泰国、马来等AIDC项目中规模化落地,8-10个月可以完成交付,验证了GW级AIDC解决方案在智算时代的工程化与商业化成熟度。 华为数字能源副总裁何波特别提到,华为会充分发挥数字技术和电力电子技术的融合技术优势,助力运营商构建面向未来十年的智算底座,让每一瓦特产出更多Token,全面推进智能化与低碳化转型。 二、联合GCC发起AIDC生态共建倡议,从5G、AI到云,华为给行业武装到牙齿 在通过技术创新打造硬核产品及解决方案赋能行业的同时,华为也是AIDC生态共建领域的核心推动者。 MWC期间高峰论坛上,华为数字能源联合GCC发起AIDC生态共建倡议,与众多产学研专家一起共同建设AIDC规范与标准体系。 华为数字能源联合GCC发起AIDC生态共建倡议 当然,规范与标准体系的建设绝非一日之功,需要各方的共同参与长期打磨,需要结合各地政策、环境禀赋与技术需求,提升标准和规范地域兼容性;同时共享实践经验,依托联盟平台构建动态更新的全球AIDC知识库。 用华为的话来说,培育开放共赢的全球AIDC产业生态是他们的目标。 GCC理事长金海特别提到,不同国家和地区在能源结构、政策导向、环境保护、应用场景等方面都存在差异,这既为规范完善带来了挑战,更为产业协同共创提供了宝贵契机。 利用通信站点、数据中心等基础设施,提升设备能效,叠加光储,进而实现绿色可持续发展,这是行业的共同努力方向。 正如华为公司副总裁、华为数字能源营销服体系总裁周建军所提到的,华为为ICT行业提供的5G、AI、云服务等代表性技术和解决方案,加速着各行业的数字化转型。而在AI时代,ICT行业的转型显然需要更绿色、更具韧性、更灵活且安全的能源基础设施。 运营商们正从能源产消者1.0迈向2.0。利用通信站点、数据中心等基础设施,提升设备能效,叠加光储,进而实现绿色可持续发展,这是行业的共同努力方向。 多年来,华为在算力、AI大模型、光储系统、电网等方面都有着深厚积累,AI时代,华为无疑成为最有机会同时也有着过硬实力的角色,帮助运营商抓住AI的新机遇。 结语:为AI高速铺路筑基,绿色AIDC势在必行 今年MWC与年初的CES一样,都以“AI”为核心主题,围绕AI,从C端到B端,各类新产品和新技术不断涌现。在绿色AIDC领域,华为用一系列技术创新带来的“确定性”,很好地消解了AI时代能源效率成本层面的“不确定性”。 围绕着“每一瓦特产出更多Token”这一核心,华为打出了一套漂亮的组合拳,从AI绿色站点到GW级AIDC解决方案,华为把电供得上、电进得去、热出得来落到了实处。运营商甚至从“省钱”来到了“赚钱”阶段,华为帮助运营商重新定义了自身在ICT领域的角色。 展望AI领域未来发展,在Agentic AI加速落地、算力需求指数级增长的未来,“碳竞争力”将成为AI竞争力关键一环,华为一系列技术和解决方案,为这一万亿级AI市场的可持续发展,夯实了绿色底座。
MWC 2026现场:OPPO端侧全模态Omni模型正式亮相
【CNMO科技消息】3月4日,在MWC 2026巴塞罗那举行的联发科技发布会上,OPPO与联发科技联合研发的技术预研成果——端侧全模态Omni模型正式亮相。作为业界首个在手机端侧实现多模态融合理解与交互的AI模型,Omni支持语音、视频、文本等多种输入方式,并能进行实时环境描述与实景问答,使手机端侧AI能够深入感知并理解周遭物理世界,为未来更主动、更自然的人机交互形态奠定了坚实的技术基础。 OPPO OPPO研究院院长廖劲松在发布会上发表演讲,并同台展示了双方携手在端侧AI领域取得的突破性成果。廖劲松表示:“端侧智能计算是OPPO AI战略的重要基石,让AI真正成为用户可实时感知的终端体验。”他指出,双方在旗舰芯片平台上的深度协作,正成为将端侧AI从技术构想转化为规模化商用的关键。 Omni模型的落地离不开底层算力的突破。基于联发科技天玑9500芯片NPU提供的强劲算力支撑,OPPO自研的端侧AI翻译与端侧AI补光功能已可媲美云端体验,并将于近期随ColorOS 16系统更新,正式推送至OPPO Find X9系列。另外,OPPO Find X9 Pro也成功入围本届MWC GLOMO Awards “最佳智能手机”奖项评选。 具体来看,端侧AI翻译依托端侧大模型实现显著突破,其文本翻译准确率相较传统模型平均提升15%,并支持多个语种的互译。在无网或弱网环境下,OPPO端侧AI翻译依然能够稳定输出高质量结果,真正实现全场景可用的翻译体验。 端侧AI补光则聚焦于移动影像中的光影表达。通过对画面光线的智能分析与重塑,该功能可在暗光、逆光等复杂光线条件下,为人像照片还原自然、立体的光影效果,并无需额外考虑网络环境。在画面自然度与场景适应性方面,端侧AI补光均展现出领先行业的表现。
MWC上的一款宠物智能手机,正撬动AI时代跨物种智联新生态
作者 | 程茜 编辑 | 漠影 智东西3月5日报道,3月2日至5日,在全球移动通信领域规模最大、最具影响力的年度行业盛会之一世界移动通信大会MWC 2026上,移动互联通信玩家优克联系统性发布四大技术底座、五大产品线,并正式推出面向宠物的petpogo数字智联生态产品线。 本届MWC上,从终端产品到网络基建,整个通信行业正被AI全方位、深层次重构。 在此行业趋势下,优克联正将自身在端侧的技术与方案优势转化为新的商业机遇:进一步实现全球网络的快速部署与规模化覆盖,同时为合作伙伴与自身开辟全新增长曲线。 其中一大亮点,便是优克联面向千亿级宠物科技市场推出的petphone宠物可穿戴设备,集AI玩乐互动、安全定位、AI健康监测、宠物社交等为一体,支持即时通话、语音逗趣、宠物闹钟、音乐播放等功能。 优克联MWC展台 该设备不仅是其切入高速增长的宠物经济赛道的探索,更重新定义了AI时代的连接价值,让通信连接从传统、单一的数据传输通道,升级为有温度、可交互、能守护的情感陪伴载体。 从优克联的整体布局可以看出,其已跳出传统通信主赛道,将能力延伸至IoT、宠物科技、消费电子、旅行科技等多个高增长领域,通过端侧技术创新,打破通信行业的传统边界。 在MWC期间,智东西与优克联全球品牌市场总监金鸥进行了深入对话。我们从这款专为宠物打造的全新物种切入,拆解优克联掘金千亿宠物科技蓝海的核心底气。 一、连接进化不止于技术,优克联掘金千亿蓝海 AI与6G技术的爆发式进化,正彻底改变连接的本质,其正在从过去的可选服务升级为现代社会的刚需,与数据、算力、存储共同构成人类数字生活的核心组成部分。 然而,传统通信与科技行业仍存在诸多尚未被攻克的难点,这些痛点背后,恰恰蕴藏着千亿规模的蓝海市场。 在深耕通信赛道多年的优克联看来,其痛点集中于通信连接覆盖不充分、响应不精准、服务无温度。 具体来看,首先是国界之间的网络鸿沟,因为不同国家与地区间网络互联互通不足、跨境连接体验存在差异、资源协同效率有待提升。而基于当下AI和6G的技术创新,用户有望在跨境用网时进一步获得更加稳定、一致且高效的网络体验。 其次是万物智联时代物联网设备之间的鸿沟。 物联网设备分散、数据传输碎片化的痛点仍然存在。当下大量智能设备、物联网终端各自孤立,数据不通、协同不足,这使得设备与设备之间存在信息孤岛,无法形成真正的全域智能。 而连接,是让原本分散、独立、难以协同的智能终端形成统一协同的智能体系的关键,实现人、设备、场景与数据的全域互联。 第三大数字鸿沟是技术与温度的集中体现,也就是人和宠物之间的连接错位。 第二十七届亚洲宠物展览会上发布的《2025年中国宠物行业白皮书》显示,中国宠物犬猫数量已超1.2亿只;此前美国兽医协会AVMA的数据也显示,2023年美国宠物犬猫的数量就超过1.64亿只。 但在庞大的宠物数量背后,连接的缺失依然是普遍痛点,一方面主人外出时,无法实时知晓宠物的情绪反馈和状态;另一方面宠物独自在家也难以向主人传递情绪。这使得其之间存在感知差异,传统连接手段难以支撑人宠之间的实时交互与情感数字化传递。 优克联MWC展台 综合来看,AI与6G技术已在MWC等全球行业盛会中成为核心焦点,技术迭代呈现指数级增长。然而,传统连接能力仍相对滞后,难以匹配新一代技术的发展节奏,进一步加剧了上述数字鸿沟。 深处通信连接赛道核心地位的优克联,正通过成熟的端侧技术,解决AI时代通信行业的传统痛点与新兴场景的未被满足需求,进一步释放连接的价值。 二、发布四大技术底座、五大产品线,定义AI时代新基础设施 优克联在MWC上首次系统性发布的四大技术底座、五条产品线,就是其交出的最新答卷。 优克联全球品牌市场总监金鸥提到,这一系列布局均源于优克联以核心数据连接业务为根基,为全球用户构建理想生活网络的愿景。 其四大技术基座包括CloudSIM、AI HyperConn、超级定位与Data AI。 全球云网科技CloudSIM可以将全球390多个运营商网络整合到一个云端SaaS平台上,形成庞大的全球网络,使得用户可以随时使用当地最优质的网络;AI智联中台AI HyperConn通过AI算法赋能,可以自动检测设备的地理位置,查找到周边最好的信号并实时切换优化;融合厘米级定位技术的Hyper-Positioning,同样是通过精准位置感知为更好的网络体验服务。 金鸥称,这些技术可以支撑C端用户的体验,也可以帮助B端小运营商进行补网,一方面能够让运营商网络获得优先接入与流量倾斜,提升网络价值;另一方面助力企业快速拓展全新应用场景。 第四大技术基座也是优克联正在探索的重心。优克联正在将现有业务与全新场景深度打通,而贯穿其中的核心,正是Data AI。金鸥透露,优克联已在全球终端设备上服务超20亿用户,如何激活并运用这一海量数据资产,为AI时代的下一步发展全面加速是关键。 优克联当下的核心是让连接能跟上AI的迭代速率,成为AI时代各类场景智能出行、物联网、宠物陪伴落地的“基础设施”,因此技术是底座,相应的产品才能真正触达企业和用户。 其五大产品线涵盖MBB、SIM、Life、IoT、Pet,整体可划分为两大维度。 一类是优克联已经有所积累的赛道,包括其深耕多年的移动Wi-Fi领域MBB、IoT赛道、Life赛道。他们的产品迭代宗旨就是让设备更好用、便捷,连接同顺畅。 金鸥透露,在Life赛道他们将随身可带的万能插头、数据线都进行了Wi-Fi化处理;IoT赛道他们已经与监控摄像头等相关企业进行了合作,业务每年增速在十倍以上。 优克联MWC展台 还有一类是其围绕连接挖掘到的新蓝海市场——宠物数字智联生态petwoof。 优克联基于petwoof打造的宠物智能手机,搭载了人宠双向电话功能,支持宠物端主动触发呼叫、主人远程语音陪伴,并叠加六重精准定位、AI健康监测、全球宠物专属社区、情绪安抚音乐等多重能力,以宠物与主人的真实需求为核心进行原生设计。 金鸥称,目前petwoof已经上线海内外多家电商平台,并获得了可观的订单量。 从其这次系统性的战略升级来看,优克联的核心发展动力,源于通信行业现存的增长瓶颈与新兴场景下的需求空白。该公司精准切入这片蓝海市场,将行业共性痛点转化为自身商业增长的核心机遇。 因此,可以确定的是优克联选择弥合三大数字鸿沟,并非偶然之举,而是基于AI时代的技术变革、行业痛点与市场机遇形成的必然选择,将AI的人文关怀进一步发挥出来。 三、12年深耕连接赛道,将人文关怀融入企业战略 自2014年成立以来,优克联始终在围绕着连接场景布局。其使命是让数字连接像呼吸一样自然,通过弥合那些被忽视的断层,确保没有任何生命被遗留在数字阴影之中。 如今其所有业务布局都围绕着这一品牌愿景正在落地。 在长期的市场实践中,公司在B端行业解决方案与C端用户服务两大维度均实现深度落地,其通过在全球跨境网络服务、IoT解决方案等领域的应用,积累了丰富的场景化案例和海量高价值的全球连接数据,为后续技术迭代、场景拓展及全球化布局奠定了基础。 与此同时,凭借多年深耕全球数据连接领域形成的深厚核心技术积淀,使得优克联具备对行业趋势快速响应、前瞻布局、持续迭代优化的能力。 这也是优克联当下深入宠物科技赛道的关键原因。其通过对全球通信行业、新兴场景与市场需求的洞察与研判,捕捉产业变革中的机遇与空白,并将自身在全球网络、智能连接、Data AI等领域的核心优势,与市场缺口、用户痛点深度结合,将技术能力转化为产品竞争力。 此外,金鸥特别提到,他们深入宠物赛道还有一大原因是对人文关怀的重视。 因此,在深耕全球连接赛道的同时,优克联将人文关怀与用户共情深度融入企业战略布局,以有温度的连接,打造出融合了技术与情感的设备。 这几大维度的协同发力,使得优克联能够精准切入跨境、宠物、IoT、轻量化出行等蓝海赛道,最终成为AI时代理想网络生活的构建者。 结语:优克联正在重构AI时代的连接本质 从本届MWC可见,相比前几年,运营商、设备商、IoT厂商、宠物科技品牌、出行服务商正通过通信连接协同落地。 优克联进一步用连接技术解决真实痛点,让数字普惠不再是概念,而是可感知、可使用的基础设施,去弥合全球跨境、人宠等之间的数字鸿沟,重新定义AI时代的连接价值。
我,花2700元,用OpenClaw养了支24小时运转的AI团队,秘籍都在这了
编译 | 陈佳 编辑 | 程茜 智东西3月5日消息,近日,谷歌高级AI产品经理Shubham Saboo公开了一套已稳定运行一个月的多智能体自动化系统。不同于停留在演示阶段的AI智能体方案,这套系统基于开源平台OpenClaw搭建,每天真实承接他的六项日常工作:AI动态研究、推文撰写、领英内容生产、新闻简报编辑、代码审查及社区事务处理。 这支由6个AI智能体组成的团队在他睡觉时自动运转,Saboo本人只需在早晨喝咖啡的10分钟里过一遍审批,就能每天腾出4至5小时来专注真正需要人脑的事务。 Saboo还以不同的美剧主角为他的6个AI智能体命名。6个AI智能体,6个岗位;职责分明,各司其职。 这套系统通过SOUL.md人设文件定义每个AI智能体的身份与行为准则,以共享文件系统替代复杂的API通信框架,并借助双层记忆机制持续积累用户偏好。 值得关注的是,Saboo构建的整套系统仅用一台普通电脑即可部署运行,月成本不到400美元(约合人民币2760元)。 Saboo是编程社区Unwind AI创始人,该平台帮助6000+订阅者每天仅需三分钟就学会构建大模型、RAG和Agent应用。此外,他还创建了热门的GitHub仓库Awesome LLM Apps,该仓库专门收录各类大模型应用案例,是目前最受欢迎的AI应用实战教程集合之一,在GitHub上的star数已达到99.5k。 谷歌高级AI产品经理Shubham Saboo(图源:领英) 他在X上发布的这篇长文,详细披露了基于OpenClaw搭建这套系统的完整思路、文件结构、实际成本和踩过的坑,获得超100万次浏览。 Shubham Saboo在X平台的推文截图 一、基于OpenClaw打造多角色智能体协作系统,6个Agent各司其职 在日常工作中,Saboo每天必须完成六件事:追踪AI领域最新动态、写推文、写领英帖子、给订阅用户出新闻简报、审查开源项目的代码贡献、处理社区问题。每件事看似不大,却各需30到60分钟。 Saboo最先尝试的解法是用一个AI智能体包办一切。他把提示词给智能体,让它既研究、又写作还审查,但输出质量并不乐观。一个AI智能体无法同时胜任六种不同的工作。 Saboo基于OpenClaw构建了6个Al智能体,并以不同的美剧主角为其命名。这样做的好处是,他只需要输入名字,模型就能根据已有的数据提炼这个人的性格特点、做事风格。 在Saboo的AI团队里,最核心的角色是Monica,她是Saboo每天打交道最多的AI。这位“参谋长”得名于《老友记》中的Monica Geller。她的职责是看全局、做统筹、把合适的任务派给合适的人,同时处理那些说不清楚归谁管的事。 团队情报员Dwight,以《办公室》里的Dwight Schrute命名。他每天进行三次研究扫描,检查X平台、Hacker News、GitHub热门项目、谷歌AI博客、学术论文,并撰写结构化情报报告供其他所有AI智能体使用。 读完Dwight的报告,第一个行动的是推文写手Kelly。她取名自《办公室》里的Kelly Kapoor,专门用Saboo的语气和风格写推文——单条推文、串推、引用推文,皆样样精通。她的个性定义SOUL.md里写着:“趋势还没成趋势,你就已经知道了。” 同样的情报,到了领英帖子写手Rachel那里,却是完全另一种呈现。她以《老友记》里的Rachel Green命名,面向的是领英上的专业受众——这里的人不看热点,要看行业洞察和专业观点,所以Rachel的写法更沉稳,更像一个思想领袖在发言。 工程师Ross,命名来自《老友记》里的Ross Geller,负责代码审查、Bug修复和技术实现。他的行为准则里写着:“当你处理一个问题时,要完全理解它,不要只修复表象。” 简报编辑Pam,以《办公室》里的Pam Beesly命名。她把Dwight每天的情报报告转换成新闻简报,发给订阅用户。 二、整套系统靠一个文本文件驱动,一台普通电脑即可搭建完整系统 Saboo构建的整套系统运行在一台配备M4芯片的Mac mini上,但Saboo强调,这台机器没什么特别的,任何能持续运行的设备都行。他用配备M4芯片的Mac mini只是因为它小、静音、不费电,方便而已。 他基于两条命令在不到五分钟的时间里安装好了OpenClaw。下面是他构建上述6个AI智能体的操作过程: 1. SOUL.md:一张给AI看的 “员工手册” 整个系统最关键的设计,是一个叫做SOUL.md的普通文本文件。 当前大模型默认不具备持久化记忆能力,每次会话结束后不保留任何交互内容。新会话启动时,模型既不了解用户历史,也不记得自身被赋予的角色与职责。 SOUL.md正是为解决这一“会话失忆”问题而设计。每次智能体启动新会话时,系统都会自动加载该文件,将身份定位、职责范围、行为准则以及与其他智能体的协作关系一并写入上下文。换言之,它相当于一份结构化的“岗位说明书”,在每次运行前完成角色初始化,确保智能体在不同会话之间保持行为一致性。 以情报员Dwight为例,其SOUL.md规定:每条数据必须附有来源链接,不允许估算;不确定的内容标注“未验证”;不知道优于给出错误答案。 参谋长Monica的SOUL.md则规定:直接给出有效帮助,省略冗余表述;推文内容交由Kelly处理,代码问题交由Ross处理,职责不明确的任务由Monica自行承接;允许表达不同意见。 每个SOUL.md大约40到60行,要保持简短。其原因是,AI处理信息的 “工作台” 大小有限(专业术语叫上下文窗口),SOUL.md过长会压缩智能体处理实际任务的可用空间。 2. 智能体协作机制:以文件系统替代API通信 Saboo通过一个共享文件夹,就实现了让6个AI智能体协同工作。 具体流程为:情报员Dwight完成情报收集后,将结果写入DAILY-INTEL.md文件;Kelly、Rachel、Pam的定时任务依次触发后,各自读取该文件,分别生成推文草稿、LinkedIn帖子和新闻简报。Dwight的配置文件规定其将结果写入指定路径,Kelly等智能体的配置文件则规定从该路径读取情报,以此完成信息交接。 这一设计看起来很“简单”,却避免了认证失效、API速率限制等常见的系统集成问题。数据存储上采用双格式:结构化数据以JSON格式保存,用于机器去重和长期追踪;供智能体读取的摘要内容以Markdown格式保存。 3. 记忆系统:让AI越用越聪明 AI每次都失忆,怎么让它越来越了解你的风格和偏好? Saboo为该系统设计了两层记忆结构。每日日志存储于memory/YYYY-MM-DD.md,记录当天的任务执行情况、草稿内容及用户反馈,由智能体在工作过程中实时写入。长期记忆存储于MEMORY.md,定期从每日日志中提炼规律性内容,包括用户偏好、行为准则的调整记录等。 每个智能体会话开始时自动加载的行为规则文件AGENTS.md中明确规定:会话重启后不保留任何临时记录,需要保留的内容必须写入文件。 这一机制在实际使用中的效果体现在:推文写手Kelly最初生成的推文草稿包含大量表情符号和感叹号,经Saboo反馈后,Kelly将该风格规则写入记忆文件,此后生成的草稿自动遵守,无需重复提示。情报员Dwight起初将所有热门内容纳入报告,经Saboo要求聚焦关键信号后,其筛选标准得到更新,后续报告质量随之提升。 AI本身没有变聪明,但它加载的 “经验” 在不断积累,效果就是越来越好用。 4. 定时任务:让AI自动醒来干活 这六个AI智能体不是Saboo手动叫醒的,而是按各自的时间表自动触发。其顺序是:情报员Dwight最先运行,因为其他所有人都要读他的报告。推文写手Kelly和领英写手Rachel在Dwight之后运行,因为他们需要情报文件已经存在。 OpenClaw内置了定时任务调度功能,Saboo设置好时间,关掉终端,AI们自己按点上班。 5. 容错机制:基于心跳文件的任务自动恢复 定时任务不是百分之百可靠的,机器重启、网络中断、API速率限制等因素均可能导致某个定时任务未能按时执行。 针对这一问题,Saboo在系统中引入了心跳文件HEARTBEAT.md。Monica定期检查所有定时任务的上次运行时间,一旦检测到某任务超过26小时未执行,便自动触发强制重跑,无需人工介入。 三、单个智能体跑顺一周再批量扩展,需反复修正智能体设定 1.无需管理后台,通过Telegram与智能体交互 Saboo与6个AI智能体的日常交互不依赖任何管理后台,而是通过Telegram完成。OpenClaw支持将智能体接入Telegram,配置完成后智能体以机器人账号形式运行,用户可直接发送指令、接收草稿并完成审批。 以他的典型工作日为例:早晨打开Telegram,Dwight已发送当日AI动态摘要,Kelly提交了3条待审推文草稿,Rachel的LinkedIn帖子已就绪。在喝杯咖啡的10分钟里,他将智能体们发来的内容审核完毕,正式开始当天的工作。 2.别再写完美提示词,AI智能体要靠反复纠正 Saboo说,很多人搭建AI系统时,倾向于在一开始把提示词写得面面俱到。他认为这行不通,也没必要。 以美剧角色命名为每个AI智能体提供了初始性格基准,但稳定的工作风格需通过持续反馈迭代形成。Saboo将AI智能体的调优过程称为“纠正性提示工程”:也就是让AI给一个粗糙的初版,观察它的实际行为,哪里不对就指出来,让它把修正规则写入记忆文件,以文件形式固化,在后续每次会话中加载生效。Saboo说:“这就像带一个真实的新员工。” Saboo的经验是:第一版智能体是平庸的,第十版是好用的,第三十版才是出色的,需持续投入调优时间。此外,为每个智能体设定单一明确的职责范围和终止条件,有助于提升输出的稳定性。 3.坚持权限隔离,严控数据访问范围 把日常工作交给AI,信息安全怎么办? Saboo的安全策略核心是权限隔离:AI团队运行于专用设备Mac Mini上,所用账号、API密钥均单独申请,与其个人账户完全隔离,各服务的访问权限可独立关闭。他不向智能体直接授权任何个人账户,所有需要智能体处理的内容均通过手动转发或Telegram共享的方式传入,由此确保智能体的数据访问范围完全可控。 Saboo说,这和管理真实员工的逻辑一样,第一天入职,公司不会把所有的系统权限都给你,而是按需分配,随着信任建立再逐步扩大。 4.基础设施总会出故障,这五类问题Saboo都踩过 Saboo在帖子中列出了该系统的几类常见故障及对应解决方案。 网关崩溃时,执行重启命令即可恢复,心跳机制会自动补跑未完成的任务。定时任务因网络中断、设备休眠或API速率限制未能按时执行时,心跳机制在检测到任务超过26小时未运行后自动触发补跑。智能体输出质量下滑通常由记忆文件内容冗余或相互矛盾引起,需定期将有效经验提炼至长期记忆文件,并归档或删除过期日志。多个智能体并发写入同一文件会导致数据冲突,应在设计阶段明确每个文件仅由一个智能体负责写入,其余智能体只读。会话加载文件过多导致上下文溢出时,需将SOUL.md控制在60行以内,每次会话仅加载当日及前一日的记忆日志。 Saboo建议,初期应从单个智能体开始部署,待其稳定运行一周后再逐步扩展,过早铺开会增加问题排查的难度。 四、分四阶段搭建智能体系统,每月成本只要2760 1.每月不到400美元,换来六个全天候AI员工 硬件方面,Saboo使用配备M4芯片的Mac mini,新品起价499美元(约合人民币3443元),任何可持续开机的设备均可替代。模型使用上,大部分智能体任务采用Claude Opus和Sonnet,部分工作流使用Gemini。他也在测试Ollama上的本地模型,试图进一步压低成本。 各项费用明细如下: Claude(Max 套餐):200美元/月(约合人民币1380元/月) Gemini API:50-70美元/月(约合人民币345-483元/月) TinyFish(网页智能体):约50美元/月(约合人民币345元/月) Eleven Labs(语音):约50美元/月(约合人民币345元/月) Telegram:免费 OpenClaw:免费 总计:不到400美元/月(约合人民币2760元/月) 2.省时间是起点,持续积累的记忆文件才是真正的壁垒 在效率提升方面,情报员Dwight每天为Saboo减少2至3小时的研究工作量。此前Saboo需要每天早晨手动检查X、Hacker News、GitHub热门项目和AI博客,现在醒来即可获得一份附有来源链接和行动项目的优先级摘要。推文写手Kelly、简报编辑Pam和领英写手Rachel合计减少1至2小时的内容起草时间,工程师Ross承接了此前需要占用整个晚上的工程任务。6个AI智能体每天合计为Saboo节省4至5小时。 Saboo指出,持续运行这套系统带来的长期价值同样不可忽视。以研究类任务为例,智能体每日执行、持续积累,其信号追踪和趋势判断能力会随记忆文件的丰富而逐步提升,这是单次会话无法实现的效果。目前,他在X上的发帖频率和内容质量均有所提升,发布节奏趋于稳定,开源项目保持持续更新,新闻简报也形成了稳定的内容来源。 需要指出的是,原创性判断、战略决策和创意生成目前仍超出这套系统的能力范围。该系统的价值在于将重复性、规律性的工作稳定执行,从而释放出用于处理更高复杂度任务的时间和精力。 3.分四阶段稳步推进,从零搭建智能体系统 Saboo建议按以下四个阶段逐步推进系统搭建。 第一周,完成OpenClaw安装,部署单个智能体,编写SOUL.md,专注处理一项重复性日常任务,观察运行情况并修复问题。 第二周,针对初期输出持续给出反馈,根据实际表现调整SOUL.md,推动记忆文件逐步完善。 第三周,在现有智能体输出已能稳定使用的基础上,按需引入第二个智能体,并配置文件读写协作关系。 第四周及以后,以实际工作需求为驱动扩展智能体数量,每个新增智能体应对应明确的任务缺口,而非为追求系统完整性而添加。 结语:OpenClaw让本地多智能体自动化真正跑起来 Saboo不仅用这套系统省下了时间,更重要的是,它展示了一种可复制的路径:借助OpenClaw这类开源工具,个人开发者无需依赖云端服务或从头搭建编排框架,即可在本地设备上部署持续运行的多智能体自动化系统。 OpenClaw具备三项多数AI智能体平台不具备的特性:完全开源、本地优先(记忆以Markdown文件存储于用户本地设备)、以及基于心跳守护进程的自主调度能力。这些特性正是Saboo这套系统得以稳定运转的基础。 同样值得关注的是他处理系统复杂度的方式:以文件系统替代编排框架,以记忆文件替代模型微调,以角色命名建立初始性格基准。每一项设计决策都指向同一个原则——在满足需求的前提下保持最低复杂度。 Saboo在帖子中指出,模型本身已成为普遍可及的基础资源,真正形成差异的是围绕模型构建的系统,包括智能体配置文件、记忆机制、协调规则和持续调优的积累。这套系统会随使用时间的增长持续优化,成为属于你的个人化资产。
12万元大电视来了!海信RGB-MiniLED黑科技爆棚,自研芯与苹果模式加持
作者 | 云鹏 编辑 | 李水青 智东西3月5日报道,刚刚,海信正式发布了其最新的RGB-Mini LED旗舰电视UX 2026款,其在背光控制芯片、画质芯片、屏幕抗反、高刷等方面都进行了升级,据称共有7个全球首创的技术融入。 具体来看,UX 2026款搭载了玲珑4芯真彩背光、四芯同控信芯AI画质芯片H7 Pro、4倍黑位低反黑曜屏Ultra、180Hz原生高刷,可以实现110% BT.2020色域。 UX 2026款的峰值亮度达到了10000尼特,控色精度134bits,据称其相较行业当下旗舰电视可以多呈现1.2亿种极限色彩,视觉体验可以达到专业监视器级别。 海信UX系列2026款有85、100、116英寸三种规格,4月18日正式开售,今天开始预售,零售价分别为34999元、54999元、119999元。 在Mini LED电视领域,“色彩受限、光晕难消、还原不准、久用褪色”是四个突出痛点,海信为此研发了玲珑4芯真彩背光技术,是一种新的系统级RGB-Mini LED光学架构,实现了1区控色>3区控光的突破,从根源上解决了普通Mini LED串色、色晕、偏色等顽疾。 针对480-520纳米波段“青色断层”问题,海信玲珑4芯真彩背光在红绿蓝三原色发光芯片基础上加入一颗天青色发光芯片,填平光谱空白,实现了110% BT.2020全程稳定高色域。 配合43008个控色分区与10000尼特亮度,海信UX 2026款据称可以让4K蓝光每帧提升近700个色彩细节,更接近专业监视器的效果。 画质芯片方面,海信UX 2026款搭载了四芯同控信芯AI画质芯片H7 Pro,基于134bits控色精度,搭配AI防串色技术、AI自然光晕算法,相较QD-Mini LED、SQD-Mini LED产品,可以实现“暗场光晕消融”与“亮场色彩饱满”。 此外,在屏幕、音响、体验、设计等方面,海信也掏出了不少黑科技。 视觉体验上,海信UX 2026款独家定制了顶配黑曜屏 Ultra,据称其黑位表现可以领先行业4倍,具有目前业内最低1.28%的反射率,搭配RGB-Mini LED 技术,可以实现更好的黑色效果与画面通透感。 值得一提的是,180Hz高刷可以降低高速运动画面拖影,对游戏用户来说是一大利好。 音响方面,其全球首发对冲式昂扬低音舱,低音功率提升100%,据称其联合帝瓦雷打造的6.2.2声道巴黎歌剧院音响系统,由法国工程师逐台调教。 值得一提的是,海信UX 2026款专为苹果用户打造了Mac原彩图像模式并支持Apple TV校色,用户通过HDMI/DP直连Mac就可以精准还原Studio Display专业显示效果。 结语:押宝RGB-Mini LED路线,补齐木桶“短板” 可以看到,海信在大屏旗舰电视领域走RGB-Mini LED技术路线是比较坚定的,这也成为Mini LED领域技术突破的主流方向之一,通过技术创新,其改善了一些技术固有顽疾,解决了一些行业长期痛点,让Mini LED的“木桶”更无短板。 随着OLED技术的成熟、OLED在电视、显示器领域的渗透率提升,不同技术路线之间的竞争会更加激烈,海信RGB-Mini LED会如何进一步迭代,如何在国际市场与海外巨头竞争,我们拭目以待。
为什么龙虾首先出现在电脑,而不是手机?|AI 器物志
编者按: 智能手机统治了过去十几年的数字生态,它是注意力的黑洞,是我们最私密的随身之物。但手机从设计之初就是为「人盯着它」而生的——它的全部逻辑,都止于屏幕。 AI 的需求却恰恰相反:它需要持续感知物理世界——见你所见,听你所闻,随时在场,而非等你解锁屏幕才醒来。 当 AI 真正成为一种基础能力,它迟早要从屏幕里破壳而出,寻找属于它自己的形状。这将是一个漫长的探索和演化过程。 「AI 器物志」栏目由此而来,爱范儿想和你一起持续观察:AI 如何改变硬件设计,如何重塑人机交互,以及更重要的——AI 将以怎样的形态进入我们的日常生活? 这是「AI 器物志」的第 7 篇文章。 没想到,在这个人人都在找下一个 AI 硬件的新时代,作为「旧时代」终端的电脑,却成为了今年开年最强势的 AI 载体。 原因无他——「龙虾」OpenClaw 更适合部署于电脑之中。 一时间,作为 OpenClaw 最佳容器的 Mac mini,成了这段时间最抢手的科技单品。全世界的开发者和极客,都争相想在上面部署一个自己的 AI 智能体,即使作用还不大,也想体验一把 AI 助理自动化办事的未来交互。 那么问题来了,为什么 AI 新时代来临之际,反而是电脑这个「旧时代」的终端成为了排头兵,而不是被寄予变革厚望,且人手一台的手机? 电脑保留着「机器交互」的底层逻辑 道理其实很简单:比起一开始就为「人类交互」而生的手机,电脑一直保留着「机器交互」的底层逻辑。 还记得吗?在鼠标指针、图标、按钮出现之前,电脑只有「字符」,也就是所谓的「命令行」,黑底白字,闪烁的光标,因此只有少数能用「计算机语言」的人,才能驾驭这台机器。 随着多用户操作系统的出现、硬盘容量的提升等种种技术发展,计算机系统也需要相应做出调整,Unix 带来了树状目录结构的文件系统,时至今日仍在影响现代计算机。 而出于降低门槛、推广计算机的考量,图形界面最终应运而生,成为了现在我们手上的计算机系统的模样。 但值得注意的是,即使发展了数十年,图形化的 OS,依旧保留了「命令行」这一种交互方式,文件存储系统也成为了计算机使用、运行的根基,这和智能手机是相当不同的。 ▲ macOS 的「终端」 电脑,或者说「计算机」,一开始就是作为「生产工具」诞生的,完整的文件存储系统对于生产力来说不可或缺,而不少专深的开发工作都需要用到命令行。用户得到计算机后,要自己配置、选取甚至开发所需要的工具和生产环境,因此「机器交互」得以保留。 21 世纪才出现的智能手机,整个交互逻辑直接「跳级」到了图形界面,设计目标是让操作尽可能简单、直观、零门槛。 可以说,今时今日的电脑和手机,都是面向终端用户的消费产品。但手机是更纯粹的消费产品,电脑则仍然保留了生产力工具,特别是作为开发工具的身份。 为了保证易用性,同时照顾开发者利益,手机上的 App 被设计成封闭、即装即用的模式。虽然 App 之间仍然可以通过 API 接口互通,但本质上每个应用都是独立且功能完整的小岛。 这也导致手机的生产任务,一定程度被「框」在了 App 围栏之中,很难实现电脑那样高效。 如果说,即使图形化的计算机系统,也保留了初期「命令行」和接口等各种「机器交互」的方式,那么智能手机在最初设计时,就只为最符合直觉的「人类交互」而来。 更重要的是,电脑的高度可定制和可编排性虽然强大,也为病毒、黑客、恶意脚本埋下祸根。 智能手机则相反,它必须在安全和隐私上极尽收紧,核心权限被封锁,系统严格管理应用的操作空间。 为什么电脑不会被手机「杀死」,为什么 iPad 始终取代不了 Mac,原因也在于此。 ▲ 大号手机 vs 正经电脑,图源:Tom's Guide 这样截然不同的两种模式运作了十几年,本来没有遇到什么问题,直到 AI 时代的到来。 你很难想象,从 App Store 下载一个 App,能够实现根据给出的指令,自动帮你接外卖电话、看日程安排、购物买东西,因为手机应用的权限和能力几乎仅限于应用内部。 所以才会有「豆包手机助手」这种方案,用多模态图形识别能力,让机器去模仿「人类交互」,实现 App 操作自动化,其实本质上是一种「曲线救国」——即使如此,很快也遭到了应用方面的铁腕封禁。 ▲ 豆包手机助手帮我在各个 App 种草、比价洗发水 但在 AI 诞生之前,人类已经可以写脚本控制浏览器,可以用 Python 操作 Excel,可以用命令行管理服务器,只是曾经我们必须要用「机器的语言和方式」来完成这些操作。 OpenClaw,以及各种设计用途各异但底层大体相同的 agent,就像翻译官,接收人类自然语言的指令,将其转化为机器的语言,和电脑进行交互。 ▲ 图源:腾讯科技 并且比起性能相对有限、后台机制严格的手机,电脑在算力、上下文、续航上都更有显著优势。 最关键的问题是,作为「消费载体」的手机,真的需要一个全自动的 AI 助手,帮我们提高「效率」吗? 当 AI 智能体真的要开始为我们干活时,它也会更倾向于站在,离「生产工具」更近的电脑一侧。 保留了老派「机器交互」方式的电脑,就这样在 AI 新时代下,反超以「人类交互」为核心的手机,成为了 AI 工作流变革最有希望的起始点。 当图形界面退居二线,电脑会成为什么? 从 OpenClaw 身上,我们又一次真切地看到一种可能:那些层层叠叠、彼此割裂的窗口,终有一天会被收归到一个对话框里。 我们使用电脑的方式,将迎来结构性改变。 相信对于大部分人而言,现在使用 AI 的方式,仅仅停留在让它作为一个窗口随时待命,让它帮忙写作、搜索、整理,本质上只是一个孤立的辅助工具。 OpenClaw 则预示了第二个阶段:我们适当放手,对于一些更复杂的工作,也可以只下达指令,让 AI 执行一切,交付结果。 用编辑的工作举例,以往我们写早报周报,免不了要往返于各大媒体收集新闻源,收集新闻的过程必须手动完成,才能交给 AI 进行整理和写作。 以后,只需要在对话框中输入一句「帮我整理今天的科技独家写一个汇总」,智能体可以完成所有工作——它自动从新闻源抓新闻,然后再自动整理写作,我们只需要最后验收结果,这样的工作流甚至可以彻底自动化。 人类使用电脑的方式从来不是一成不变的。今天很多人部署「龙虾」在一台 Mac mini上,自己却未必坐在它面前。反而更常见的画面是:在手机上的 Telegram、飞书里对着一个机器人发一句话,让它去那台电脑上跑脚本、抓信息、生成文件,再把结果回传回来。 这其实很像一种新时代的 SSH。执行发生在那台机器上,但控制界面可以漂浮在任何地方。区别只是,过去我们用命令行把指令敲进去,现在我们把意图写成一句自然语言,再由智能体把它翻译成命令、API 调用与文件操作。 这几年,电脑厂商都在卷「AIPC」,但卷的方向还停留在第一个阶段,即出厂预装一个「AI 助手」的应用,只能简单辅助用户一些简单的文字工作。 如何把类似 OpenClaw 的能力,直接集成到系统底层,让消费者不需要复杂配置,也不需要担心安全问题,开箱就能指挥 AI 智能体帮忙快速完成任务,这才是厂商们下个阶段应该去捣鼓的「AIPC」。 早在 1982 年,人机交互领域的先驱 Bill Buxton 就在论文中提到,「自然用户界面」应该遵循的原则:「简单性高于一切」,应该利用人类在现实世界中已有的技能,减少认知负担。 回看计算机的普及史,也正是连完全不懂编程语言的普罗大众,也能轻易上手可视化的表格软件界面,比手动计算更高效地完成财务报表,本质上也是将复杂的能力进行简化。 ▲ 电子表格程序 VisiCalc 成功将向大众推广了电脑 而千百年来,人类都在用语言交流,这就是门槛最低的交互方式。 所以,五十年后的电脑,我们是不是就再也看不到图标、窗口、按钮,只剩下一个对话框,就像当年 DOS 电脑的命令行界面? 我认为不尽然,图形界面还会被保留,以方便人类直接上手微调、审核、最终控制,只是最重要的还是那个和 AI 交流的「框」。 ▲ 未来用 AI 修图的方式 经过这样改造之后的「电脑」,似乎已经不再需要大屏幕、键盘和鼠标,在性能足够的条件下,完全可以成为我们手掌上的一个屏幕。 等等,这不就是手机吗? 是,但又和我们现在的手机很不同,这让我不禁去想,似乎我们现在的移动终端,走在了一条弯路上。 这条我们曾经以为是未来,还正在带来便利创造价值的弯路,名字叫「App」。 结果付费时代,人类的价值在于「方向感」 在 OpenClaw 大火之后,Adobe、Salesforce 等软件商巨头都遭到冲击,股价大跌。 ▲ 今年 2 月,软件股受到 OpenClaw 冲击 乍一看好像有点奇怪,为什么一个免费的开源项目,能威胁到这些商业模式成熟的软件商? Adobe 和微软,他们卖的是「工具」,而 AI 厂商,直接卖「结果」。 OpenClaw 预示了一个新时代的到来:以后,想要剪视频、修图片,我们不需要再去购买订阅什么剪映和 Photoshop,把钱留着买 token 给 AI 使用,为结果而不是工具本身付费。 说到底,Photoshop、Office 这些应用,都是给人类设计的,未来我们需要的是给「机器」设计的软件,这无疑是对软件业的一次彻底颠覆。 随着大部分的交互、操作,都被一个 AI 的对话框代替,生产流程将变成一个「黑箱」——我们下达需求,直接获得结果。 未来,我们学习的将是如何定义目标、拆解任务、设定边界条件,以及如何校正 AI 的输出。 至于中间 AI 调用了哪些接口、拆解了多少步骤、组合了哪些工具,用了什么模型,并不重要。对绝大多数人来说,过程将被折叠、隐藏、自动完成。 人类的生产方式,将从「操作界面」转向「表达意图」,以及「验收成果」。 当 AI 编程能力真正成熟之后,可能都不需要「软件」,AI 响应用户需求后,直接生成需要的工具和流程完成交互。 这会是一个相当长期的过程,在当下,依旧阻力重重:国内的「豆包手机」遭到 App 方面的顽强抵抗,而国外像 Meta、LinkedIn 等平台,也在明确封禁任何自动化操作。 争抢「入口」这回事,一直是互联网和技术发展绕不开的一个节点。作为一个正在发生的技术,手握 Android 的 Google 也已经选择了「自动化」的道路,一切都是大势所趋。 未来,不兼容 AI Agent 的服务、平台和终端,会逐渐失去存在感;强势的工作流会倒逼软件开放接口、重构逻辑,甚至重做商业模式。谁不能被调度,谁就会被绕开。 ▲ Google Gemini 自动化任务处理,图源:9To5Google 谈论了这么多「机器做事」以及「机器生产」,我们作为人类的价值,又会走向何方呢? 恰恰在那些无法完全被「计算」的地方——眼光、判断、观点、问题意识。AI 可以执行复杂流程,可以完成非人之事,但它没有感情,没有灵感,更无法替代人类对「做什么」以及「为什么做」的思考。 我也相信,对于人类来说,「创造力」更接近一种本能,这是任何 AI 都无法取代的。 Anthropic 公司联合创始人 Daniela Amodei,在《华尔街日报》的一个访谈中,也表达了她对人类创造力的期待: 关于人类创造力,有两种截然不同的观点。一种观点认为:人工智能在所有方面都会超越我们,到时候没人愿意再做任何事了。那将是多么糟糕。 但我是一个乐观主义者,所以我倾向于第二种观点,即人类天生就渴望创造意义和创造事物,仅仅因为他们享受创造的过程。 文|苏伟鸿
内存、SSD还得涨 韩国为涨价找到新理由:一关键资源紧缺
快科技3月5日消息,内存、SSD涨价已经持续了一年了,目前还看不到什么时候降价,韩国作为全球最大的存储芯片生产国,已经大赚特赚,然而他们现在又发现了新的危机,暗示芯片还得继续涨价。 最近中东地区的危机引发全球震荡,韩国股市不仅连续2天熔断,今天又暴涨10个点,现在还引发芯片行业的担忧。 韩国多名议员在跟企业高层做了沟通之后表示,如果这次的危机持续下去,可能会扰乱来自中东的关键原材料供应,并且能源成本飙升,进而推动芯片价格上涨。 另一个影响则是危机会打乱大型科技公司在中东地区建设AI数据中心的计划,这又会削弱芯片需求。 中东地区会影响能源成本,这个问题很多人都明白原理,但会影响哪些关键半导体材料就没多少人了解了,主要是特种气体——氦气,它的沸点低至-268.9℃,是自然界中最难液化的物质,具备极强的化学稳定性、导热性与渗透性。 在半导体生产过程中,光刻机及离子注入机都需要用氦气冷却,还是晶圆清洗、蚀刻工艺中的保护气体,因此对生产也很重要。 全球氦气资源主要集中在美国、俄罗斯、加拿大及中东地区,其中卡塔尔近年来成为全球数一数二的生产国,但该国也受到了影响。
2026年最好的AI PC,是Mac
今年年初,苹果美国官网的 Mac Mini 一度缺货,等待时间甚至长达一个半月。 Mac mini 是个好产品,这件事大家一直很清楚。国内渠道价格诚意高,M 芯片性能又好,入门配置不到三千人民币就可拿下,很适合作为创作新手的主力机。 然而最近这次 Mac mini 爆红,跟创作或日常使用没什么关系。 关注科技新闻的朋友们应该知道怎么回事:OpenClaw(前身叫 Clawdbot)突然火了。 它的逻辑很简单,是一个持续工作的 AI 代理,能替你读邮件、管日历、执行脚本、发送回复——做各种各样的任务。你可以主动发消息给它,像在用 AI 产品一样。 它自己也内置循环启动机制,每隔一段时间自动触发,检查要做的事情并工作——像一个真的给你打工的手下,而且从来不会下班。它还能创建和管理更多不同的子代理,就像管理自己的员工一样。 OpenClaw 有多种部署方式:你可以装到自己的电脑上,也可以单给它配一台电脑;把它部署在云端的虚拟机/沙箱环境里也没问题;后来,一些主流 AI 服务也推出了云端一键部署的替代方案,显著降低小白玩家的门槛。 但在刚开始的那段时间,最主流的部署方案就是单买一台 Mac mini。 理由肯定不是因为它便宜,更主要在于:要让 AI 代理有意义,需要给它一个「肉身」,让 OpenClaw 可以访问文件、操作软件。 云服务器能运行OpenClaw,但那仍然不是你的电脑,没有你的文件、软件、浏览器上登录的各种账号,没有所谓的「上下文」。Mac mini 放在桌上,7 × 24 小时不用关机,甚至通过聊天机器人远程操控的话都不用单配一台显示器。 给 OpenClaw 一台自己的电脑工作,唯一可观成本是后端接入的大模型 API 的 token 费用,很多早期玩家都在这上面吃过亏。但如果你买一台配置够高的 Mac mini,下载一个尺寸足够大的模型到本地来运行,可以说除了电费和网费之外,简直就像获得了一个免费的劳动力…… MacBook 也行,但是…… 据 Tom's Hardware 和 TechRadar 等媒体报道,OpenClaw 走红后,Mac mini 24GB 和 32GB 配置的等待期延至 6 天到 6 周不等;更强大的 Mac Studio,交货时间也从两周涨到了近两个月。 这些等待时间,是 OpenClaw 的早期玩家们,用真实购买投出来的票。 (注:部分机型的缺货也和苹果近期推出新款 Mac 台式机电脑有关系,以往每次推出临近新机发布时,老机型都会进入售罄状态。OpenClaw 的爆红并非唯一原因。) 冥冥之中,Mac 成为了 2026 年首选的「AI PC」;反倒是鼓吹了「AI PC」好几年的 Windows PC 行业,一点热乎的都没吃上。 英特尔、AMD、高通等芯片商,以及主流 PC 品牌们,从 2023 年就开始贩卖「AI PC」的概念了。这些最新的 Windows 电脑当中,认证过 Copilot+ PC 的比比皆是,GPU、NPU 性能并不差,有的整机价格比 Mac 对等产品要便宜的多。 但问题是,为什么大家还是一窝蜂地冲向 Mac? 01 为什么是 Mac? Windows PC 和 Mac 谁更好的争论,永远没有绝对答案。但如果限定在 AI 开发上,Mac 成为了心照不宣的选择。 虽然大模型的「大脑」都在云端服务器,开发者的手却都在 Mac 上。这跟 Mac 电脑的外形和操作体验关系不大:macOS 流着 UNIX 的血液,才是关键。 AI Agent 的核心工作是操作文件、调用命令行工具、调度 API 甚至控制图形界面等。说的更直白一点,Agent 就是一个智能且自动化的「脚本工程师」,只是脚本由大语言模型实时生成。而 macOS 属于类 UNIX 系统,bash、zsh 命令原生支持优秀。 这解决了 AI 开发中最基础的环境搭建。在 Windows 上,你可能得先安装 WSL2 虚拟机。但在 Mac 上,从 Python 环境到复杂的 C++ 编译工具链,基本都是开箱即用。Homebrew 等包管理器,让安装各种工具和依赖通过一行命令就能搞定。 另外,macOS 符合 POSIX 标准,处理文件路径、多线程任务和网络协议时可靠性稍高。Agent 往往需要频繁读写数据、调用 API,系统级的高效调度让 agent 在 Mac 上的节奏更快。 这种原生感和稳定性,让开发者、尝鲜用户可以更快完成入门,把更多时间花在真正的 agent 编排工作上。 Windows 有 WSL、PowerShell,功能上大部分也都能覆盖。但 WSL 是叠加在 Windows 上的兼容层,存在路径约定、注册表机制、权限模型等历史遗留问题。AI 模型和 agent 项目在 Windows 上运行的摩擦,确实会更多一些。 以 Ollama 和 LM Studio 为例,这两个工具让端侧推理大模型变得像「下载、安装、运行」一样简单。Ollama 的 Windows 版比 macOS 晚了半年;LM Studio 虽然从一开始就支持两个平台,但在社区里 Mac 的体验口碑始终更好;OpenClaw 也是如此。 往硬件层面继续深入,内存是大语言模型推理运行的命脉。 还是以 OpenClaw 举例,用户可以通过 token 付费的方式来接入云端模型,但它更擅长的能力是在端侧模型推理驱动。经过普遍调研,想要让 OpenClaw 像个智商合格的人一样工作,后端的模型参数量的底线在 70 亿左右,往往要上到至少 320 亿参数量才能比较稳定地工作。 这么大的模型即便在 4-bit 量化之后,仍然需要大约 20GB 内存(还要留一些给上下文窗口)。 此时,Windows PC 的架构会显得捉襟见肘。CPU 内存和显存之间存在物理隔离,数据经由 PCIe 总线传输,受到带宽瓶颈的影响。频繁的数据搬运,会对推理过程带来速率的影响。 更别提,大模型普遍依赖 GPU 加速推理,显存得足够装得下模型。在英伟达消费级显卡线中,只有 90 后缀的 24GB 显存达到了配置要求,但配出整机(只考虑新机)的话合计成本至少在万元人民币以上,用新卡的话会飙到 4、5 万不等。 而苹果的统一内存架构 (Unified Memory Architecture) ,让 M 系芯片的 Mac 在端侧推理更大规模的模型时游刃有余。 简单来说,统一内存架构的效果,是 CPU、GPU、神经计算引擎能够共享同一个内存池,不再有物理总线搬运的损耗,让 Mac 可以获得极高的内存带宽,并且对于多机串联的扩展性能更好。 以 Mac mini 为例,选择性能更高的 M4 Pro 处理器,搭配 48GB 内存,其它选基础配置,整机价格在 1.3 万元上下,即可达到 OpenClaw 社区普遍推荐的 320 亿参数量模型的配置水平。 当然这还只是对 token 吞吐速度有要求的专业配置。如果你属于爱好者、尝鲜玩一下 OpenClaw,配置下降到常规 M4 芯片和 32GB 内存也是能跑起来的。 当然,这个成本对比还是有前提:专用于端侧推理/跑 OpenClaw,而不是当做主力机。同等价位的 Windows PC 还能打游戏、剪视频,通用性更强。 另外,Mac 的统一内存和 PC 平台独显的显存也不是一回事。统一内存由系统和模型共享,一台 32GB 内存的 Mac mini,macOS 系统和其他软件仍需占据几个 GB。而 RTX 3090 的显存独立,模型可以全部占用,甚至配合 CPU 内存跑更大的量化模型。 如果你只用云端 API 做 OpenClaw 的大脑,不考虑端侧部署,那 Mac 的易用性优势依然在。 另外,CUDA 虽然提供了统一内存编程接口,但物理上 CPU 内存和 GPU 显存依然分离,数据搬运和带宽瓶颈并未消除。 再来看功耗。 Agent 的工作方式是持续循环的:任务触发、思考推理、执行、等待、再触发。前述配置的 Windows PC 会跑到 300-400W 左右(本地部署),散热噪音和电费都不是小数目。 Mac mini 通常稳定功耗在 10-40W 左右,峰值功率 65W(M4)或 155W(M4 Pro),散热可控,几乎没有风扇噪音,运行更安静。这种低延迟、低功耗的持续工作方式,会产生潜移默化的体验差异。 网友 3D 打印的套件「Clawy MacOpenClawface」 当然我们更多还是围绕 OpenClaw 这个以推理为主的场景进行讨论。如果工作涉及本地微调,并且对于效率有追求的话,那么在 macOS 平台要往往要到 Mac Studio,或至少顶配的 MacBook Pro,才能算摸到门槛。 与此同时,Mac 不支持 CUDA 也是个可能永远都无法改变的事实。不过,CUDA 的真正战场是模型训练,推理场景对它的依赖小得多,毕竟苹果在推理上有 MLX 这张王牌(后面会详述)。 再回到 OpenClaw:它的创造者 Peter Steinberger 曾经公开表示,自己很喜欢 Windows,觉得它的功能更强。他在 Lex Fridman 播客中说,Mac mini 不是唯一的「肉身」选择,通过 WSL2 方式运行 OpenClaw 已经非常成熟了;他甚至公开吐槽苹果在 AI 领域「搞砸了」,并且对苹果生态的封闭性感到不满。 但客观来讲,对于技术小白型用户的部署门槛,Mac mini 确实是最省心、最容易上手的方案。主要原因就是它的功耗、静音、尺寸足够小,像是一个可以插在墙角、24 小时待机且不需要维护的「服务器节点」。 还有一个和功耗有关的例证:前几天有一位工程师 Manjeet Singh 成功实现了对 M4 处理器上「神经引擎」(Neural Engine,简称 ANE)的逆向工程,发现 ANE 的功耗效率极高:算力跑满时的效率高达 6.6 TOPS/W。 对比苹果的 M4 GPU,约合 1TOPS/W;英伟达 H100 大约 0.13,A100 是 0.08 TOPS/W。 折算一下,A100 单卡的吞吐性能是 M4 ANE 的 50 倍,但 M4 ANE 的功耗性能却是 A100 的 80 倍。原作者在文章里写道:对于端侧推理,ANE 的性能是非常出色的。 02 由神经引擎说开 2011 年,苹果在 A5 处理器的图像处理单元 (ISP) 中首次通过硬写入的方式,实现了人脸实时检测等后来被视为 AI 任务的功能。 2014 年,苹果收购了 PrimeSense 公司,并开始研发一种全新的、专门用于神经网络计算的协处理器。这方面的工作在三年后的 iPhone X 上问世:A11 Bionic 处理器当中加入了前面提到的神经引擎 ANE,算力只有区区 0.6 TOPS,用来驱动 Face ID 和拍照人像模式。 那时 AI 还没到大模型时代,跑的主要是各种机器学习算法。市场对苹果这块协处理器的推出并没什么特别的反应。但苹果从未放弃过,持续加码。 三年后,M1 发布,统一内存架构同时到位, ANE 也进驻了 Mac。桌面平台的功率预算更充足,也让 ANE 的算力跳到 11 TOPS。此后每代更新:M2 是 15.8 TOPS,M3 是 18 TOPS,M4 是 38 TOPS,到了 2025年底的 M5 ,达到了 57 TOPS。从 M1 到 M5,苹果的 ANE 算力涨了超过 5 倍。 这个增长背后的逻辑,其它 PC 厂商不能说不羡慕。苹果为 Mac 加入 AI 加速硬件之前,已经有数千万甚至上亿台 iPhone 在跑同一套 ANE 架构了。功耗表现、稳定性、极端情况下的边缘案例,在市售机型上已经得到验证,再搬到 Mac 上来。 英特尔和 AMD 在移动端几乎没有消费级规模;高通虽然同样把 Snapdragon 芯片放进了数亿台 Android 手机,但它只是芯片供应商。Android 上的 AI 是谷歌 (Gemini) 以及各大手机厂商联合第三方 AI 实验室做的;Windows 的 AI (Copilot) 是微软做的。 苹果的不同在于,它实现了垂直整合,同时掌控硬件和软件。其他芯片厂商没有这种统一控制权。 当然,在 Mac 上推理大语言模型,其实跟 ANE 没什么关系,它更擅长处理 Face ID、人像识别这类固定模式的 AI 任务。真正承担主要计算量的是 GPU。 (注:最近情况发生了细微的变化。首先,M 系列芯片上的 ANE 已经承担提示词注入 prefill 阶段的工作了;以及刚才提过的 M4 ANE 逆向工程:该工程师还实现了跳过 CoreML 直接调用 ANE,吞吐量显著提升。通过这种思路,或许可以找到直接利用 ANE,来加速推理甚至训练的通用方法。) 2023 年底,苹果开源了 MLX,把专门针对 M 系列芯片优化的模型推理框架直接给了开发者。去年,基础模型框架随 Apple 智能发布,App 开发者可以在 iPhone 和 Mac 上调用系统内置的基础模型,无需联网,数据不离开设备。 Apple 智能一再跳票,这件事确实没什么好辩护的。不过,苹果远在 10 年前就开始试水,在多年以前就为桌面级 AI 开发打下了基础,是不争的事实。 而在 Windows 那边,「AI PC」这个词开始出现在英特尔、AMD 和 PC 厂商的新闻稿和 ppt 里,要到 2023 年底了。 2024 年 5 月,微软发布 Copilot+ PC 认证体系,旗舰功能名叫「Recall」,大概的逻辑是系统持续对屏幕内容截图,然后 Windows 的系统级 AI 能够帮你回忆过去看到过的东西。 先不说这个功能在发布当时的实际意义是什么,它的安全性首先被发现有严重问题:仅在发布一个月后,研究人员就发现 Recall 功能会把所有截图存在一个未加密的本地明文数据库里。 微软紧急撤下了 Recall 功能。过了半年微软再次推出测试版,结果再次因为新的安全问题而延迟。直到 2025 年 4 月,Recall 才正式上线,但改成了默认关闭,启动后数据改为加密存储。 从发布会宣传到真正能用,将近一年,可以说整个 Windows 生态 AI PC 的旗舰功能,经历了一整次从头重新设计,尴尬程度其实不亚于 Apple 智能/新版 Siri 的一跳再跳,但可能因为 Windows 生态的声量实在太低,AI PC 没多少人关注,很多人都没听说过这回事。 在 Copilot+ PC 这个体系的认证标准方面,微软主要针对的是神经处理引擎 NPU,要求是 40TOPS。不过,这个算力的用途是实时字幕、背景虚化、照片增强,诸如此类的消费端窄任务,大语言模型推理从来不在它的射程里(和苹果 ANE 同理)。 当开发者尝试去做端侧大语言模型推理时,会发现虽然这些电脑名为 AI PC,但并没针对 AI 推理用途做什么优化。微软 Copilot 本身的核心算力来自 Azure 云端,和端侧自身的算力几乎无关。买了一台 Windows AI PC 的用户,最能感知到的 AI 提升,大概是实时字幕和照片自动分类。 说到端侧推理,还有一个关键因素:Windows AI 生态的优化路径是分散的。 NVIDIA GPU 用 CUDA 和 TensorRT,Intel NPU 用 OpenVINO,高通 NPU 用 QNN SDK,AMD NPU 用自家驱动栈。模型存储格式也较为碎片化,有 CPU+GPU 推理的通用格式(GGUF,准确来说是 CPU 推理 + GPU 分层卸载),也有 GPU-only 的格式(EXL2)。 这意味着想让模型以及模型驱动的功能运行在 Windows AI PC 上,在推理后端方面的工作会更加复杂。微软有 ONNX Runtime 和 DirectML(已进入续命状态)作为统一抽象层,但统一的代价是牺牲各厂商的峰值性能。苹果是目前唯一一家为自家 PC 硬件专门开发并持续维护 LLM 推理框架的 PC 厂商,这个框架就是 MLX。 在 Hugging Face 等开源模型平台上,你会很容易找到大量采用 MLX 框架的模型,只要带有 MLX 后缀,并且内存/处理器允许,可以直接「开箱即用」。 不过,这几天 MLX 的主要贡献者之一 Awni Hannun 刚从苹果离职,为该项目的后续发展增添了些许变数。Hannun 也表示 MLX 团队仍有许多优秀员工,可以放心。 03 我们自己的体验 过去一年,APPSO 自己做了不少端侧部署 AI 模型的测试,也采访过一些相关的外部开发者。有两次值得一提。 去年春节,DeepSeek 横空出世,新款 Mac Studio 也在节后不久面市。 我们用一台售价快到 10 万元人民币的 M3 Ultra Mac Studio(512GB + 16TB)跑了 DeepSeek R1 671B 模型(注:实际上只需要内存,硬盘不用那么大,1TB SSD 售价七万多的型号就够了),以及蒸馏过的 70B 版本。 我们当时得出结论:对于端侧部署对话,日常用 70B 足矣,花大几万买台机器只为了跟 AI 聊天,实在是有钱烧的慌。当时的模型能力确实也就不太行,后来才有新的多模态模型和 agent 能力出来。 但 671B 模型的天量参数模型能够在一台桌面机上端侧推理,仍然是一种奇观。512GB 的统一内存上,671B 模型占用了 400GB,加上上下文、macOS 系统本身以及其他任务占用,基本接近满载,但机器全程运行安静,噪音在正常范围,也没有过热。 这个参数规模,在传统 AI 基础设施逻辑里,属于数据中心级别,消费级硬件理论上不该出现在这个场景里。但那台 M3 Ultra Mac Studio,真就硬生生也静悄悄地出现了。 后来,我们采访过一个英国牛津大学的创业团队 Exo Labs。他们用 4 台 512GB 统一内存的 Mac Studio,通过串联的方式组成了一个 128 核 CPU、320 核 GPU、2TB 统一内存、总内存带宽超过 3TB/s 的算力集群。 团队为这个 Mac 集群开发了调度平台 Exo V2,可以同时加载 2 个 DeepSeek 模型(V3+R1,8-bit 量化)。不但两个模型并行推理,研究人员甚至可以通过 QLoRA 技术来做一些本地微调工作,显著缩短了训练任务的用时。整套系统功耗控制在 400W 以内,运行时同样几乎没有风扇噪音。 同等算力的传统方案,需要大约 20 张 NVIDIA A100,当时的成本超过 200 万人民币;相比之下,Exo Labs 这套方案的总成本才不过 40 万人民币(同理 SSD 严重溢出,其实可以 30 万内就够)。 Exo Labs 创始人当时告诉我们,牛津有自己的 GPU 集群,但申请需要提前几个月排队,而且一次只能申请一张卡。这些桎梏,逼迫他们创新,而他们又正好遇到了趁手的工具:统一内存架构、MLX,以及 Mac 电脑。 我们在当时的文章里写道:「如果说英伟达的 H 系显卡是 AI 开发的金字塔尖,那么 Mac Studio 正在成为中小团队手中的瑞士军刀。」 这件事,苹果其实早就知道。 04 真正的 AI PC 是什么? 去年苹果发布的基础模型框架,让 iOS 和 macOS 开发者可以调用系统内置的基础模型,零网络延迟,零 API 费用,数据不离开设备。 尽管后来苹果基模团队几近分崩离析,但在迭代方面苹果没有停在原地。它其实一直知道开发者在哪里、想要什么。它的回应,就是将大模型驱动的 AI 能力变成操作系统的基础设施,让开发者更方便调用。 上周,苹果开源了 python-apple-fm-sdk。以往苹果基模的完整测试和调优,需要 Swift 环境完成;现在这套 SDK 让路变宽了,习惯 Python 工作流的开发者也能参与进来。 苹果的隐私设计哲学贯穿始终:python-apple-fm-sdk 调用的基础模型完全在本地运行,数据不离开设备。苹果整套 AI 体系在必须上云的场景里,走的是 Private Cloud Compute,数据处理完即删除,苹果无法访问。 反过来看 Recall,同样是让 AI 访问用户的私人数据,第一版存的是未加密的明文数据库。一个在架构上阻断泄密,一个是出事了再打补丁。 但话说回来,Mac 作为 AI 开发和部署工具的优势,严格来讲更像是一种「适配度优势」,也可以说是后天意外获得的。 意思是:苹果做神经引擎,最初是为了服务 Face ID 和人像模式;做统一内存架构,是摆脱对 Intel 长久依赖的一部分必要工作;开源 MLX,是响应开发者对高效推理工具的需求——AI Agent 场景爆发,Mac 正好赶上,是上述这些以及更多没提到的工程决策的意外收益。 Mac 一开始并没有为 AI 而设计,它始终的产品定位都更接近「创作者工具」。苹果长久以来的目标用户,是视频剪辑师、艺术家、软件工程师。他们需要的是低噪声、持续性能、高内存容量、可以全天候运行的机器。 AI 模型推理,以及时下最火的 Agent 部署,只是恰好需要一模一样的东西。 回头看,十多年前苹果在机器学习上加大投入时,大概率是不会预见到 2025 年 OpenClaw 的爆红的。甚至你可以说,如果放在十年前,苹果大概率是不会喜欢 OpenClaw 这样一个「回报高风向更高」,一旦出现幻觉就把用户隐私、数据安全抛在脑后,无视各种软件工程方面的规章制度的东西的…… 但怎么说呢,如今就算苹果不喜欢它,也由不得了。就像墨菲定律那样,或许冥冥之中有些东西早已注定。多年以来苹果打下的每一张牌,无论有意为之还是出于意外,这些牌在今年这个 Agent 元年(希望这次是真的),成了一套很难不赢的牌组。 2023 年开始力推 AI PC 的 Windows 阵营,其实一直在追赶苹果在 2020 年 M1 推出时就已经定下来的架构优势。当然,25 年苹果在 AI 方面坏消息不断,这个差距是有追上的可能的。但苹果不会停下来等。 就在本周,苹果推出了 M5 Pro 和 M5 Max,芯片采用双芯融合架构 (Fusion Architecture),还在新闻稿中上点名 LM Studio 作为 LLM 性能基准。 苹果过去的硬件新品发布里,不怎么说「大语言模型」,特别是在端侧推理的语境下——现在不一样了。 说在最后 吹了苹果一整篇文章了,我们冷静一下,反问一下文章的标题:今天的 Mac,就是真正的 AI PC 吗? APPSO 倒觉得,苹果做的还不够。在今天,我们还没有看到一款个人计算产品,可以称之为 AI PC,抑或真正「原生的 AI 硬件」。 还是回到 OpenClaw,从今天的端侧部署 agent 身上,真正的 AI PC 应该长什么样子,其实已经隐约可见。 梗图,AI 生成 在应用层面,面向人类的「应用」概念,可能会部分退化回并无图形界面的状态。毕竟人才需要图形界面,agent 不需要。而且你会发现,最近越来越多人开始习惯基于对话和命令行的互动方式了。 今天 agent 的尝鲜者们,去找工具和技能塞给 agent;未来,agent 会自己去公开代码库拉取新工具和插件来补强自己。 在系统层面,权限体系将为 agent 的工作原理重构,agent 能直接操控各种接口。在底层,会有一套模型的编排调度机制,根据任务随时切换。 本地推理和隐私云端推理也会形成完整、安全、隐私的闭环。数据无论传到哪里,都经过向量化、加密存储,即用即焚…… 换句话说,真正意义上的 AI PC,应该是从底层开始,从设计之初,就把 AI 当作「一等公民」的系统。 梗图,AI 生成 按照这样的衡量标准,Mac 和 Windows 目前都处于过渡阶段。Mac 更接近,因为 Unix 环境、硬件统一、生态成熟,这些条件在 AI agent 的时代到来之前已经达成了。Windows 的历史包袱更重,改起来更难,还在补课。 但我们绕了一大圈,其实还没问到最本质的问题:真正的 AI PC,真的需要是一台「PC」吗? 如果换个思路,所有的 agent 部署和运行全都在云上;与用户有关的数据,也即「上下文」也在云端安全和隐私存储;人类只需要一个终端的设备作为「对话器」(communicator) ,以及传感器 (sensor),拍照和录音来上传所需要的数据给 agent,这台设备甚至不需要太多端侧算力。 Mac 是今天最好的 AI PC,但未来的「AI PC」,却可能更像……iPhone?

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。