行业分类:
加载中...
头条分类:
加载中...
某国军官跑步佩戴智能手表引发泄密,国安部发文提示
近日,某国发生一起因智能穿戴设备导致的军事机密泄露事件,引发全球关注。 当时该国某重要军事装备正在执行任务,一名军官跑步时佩戴的智能运动手表持续记录并公开了高精度GPS数据,致使该军事装备实时位置等重要敏感信息泄露,给该国国防安全造成难以弥补的重大损失,也让智能穿戴设备的泄密风险再次走入人们的视线。 风险频发,警钟长鸣 智能穿戴设备引发的泄密事件并非偶发个案,近年来在全球范围内反复上演,已然成为信息安全领域的突出痛点。 公开案例1:某团队汇总全球某智能手环6460名用户的健身数据,还原出48处核武器存储场所、18处情报机构办公场所等众多敏感信息。 公开案例2:某国领导人出访前,安保人员在其即将下榻酒店附近跑步并留下数字足迹,致使酒店位置信息提前泄露。 公开案例3:某国特工执勤期间佩戴智能穿戴设备记录跑步路线,致使重要会晤的酒店位置遭到泄露。 公开案例4:境内多个健身APP存在违规收集个人信息问题,可能导致个人位置、工作单位等信息泄露。 从国家层面的军事机密、涉密信息,到社会层面的机构数据、个人隐私,都可能因为一次智能穿戴设备的不当使用而出现失泄密,需引起全社会的高度重视。 数据失守,挑战加剧 当前,各类商业APP通过获取用户的位置信息、终端设备、使用习惯等广告标识数据,能够精准构建用户画像,进而有效提升用户黏性和市场转化率。但部分商业公司大批量、长时段、全方位收集用户信息,可能会增加信息泄露风险。如果这些数据被别有用心之人加以分析,就会给国家安全带来威胁。 ——特殊身份暴露。境外间谍情报机关可能将智能穿戴设备数据,作为渗透策反的突破口,通过抓取各类数据,精准锁定涉密人员、公职人员、科研从业者等目标,直接危害国家安全。 ——涉密信息外泄。智能穿戴设备会持续采集位置、环境等数据,若在军事管理区、涉密科研院所、党政机关办公区等敏感区域使用,极易泄露涉密敏感信息。 ——隐私安全失守。智能穿戴设备采集的家庭住址、日常通勤、健康数据、消费轨迹等隐私信息,一旦被不法分子窃取,可能危害个人财产安全与人身安全。 多维防护,防患未然 智能穿戴设备本是便利生活的助手,但使用不当就会带来风险。我们要在享受科技便利的同时,绷紧安全之弦、守住保密底线。 ——严控使用场景,敏感区域“慎触碰”。涉密人员及敏感岗位人员,要安全规范使用智能穿戴设备,避免运动轨迹标记出敏感坐标,危害国家安全。 ——严控权限开关,“精打细算”给权限。定期审查智能穿戴设备的APP权限,遵循“最小必要”原则,对多数应用“仅在使用期间允许”定位,最小化运动日记、轨迹图的被访问权限,彻底关闭公开访问通道。 ——严控数据分享,织牢信息“防护网”。审慎对待每一次运动成果分享,清除地理位置信息。注册时使用虚拟身份信息,不填写真实姓名、家庭住址、工作单位等隐私数据。定期删除APP内以及云端存储的运动历史记录、位置轨迹信息。
字节Seed启动大模型校招 全球招募百位AI人才
快科技4月1日消息,“字节跳动Seed”公众号官宣,字节跳动Seed正式启动大模型人才校园招聘,面向2027届应届生及在校实习生开放岗位。 据悉,今年Seed将进一步加大人才投入,计划在全球范围内招募约100位2027届大模型方向优秀人才。 在招聘标准上,Seed延续了业界最高水准,寻找具备极强技术信仰与高远目标、出色研究与实战能力,以及强烈好奇心与自驱力的人才。 除要求在大模型某一领域拥有深刻技术见解和代表性工作外,Seed更看重候选人是否真正以追求智能上限为目标,敢于直面行业最难问题,并具备长期主义的定力。 字节Seed将为入选者提供极具竞争力的薪酬,符合要求的应届生与优秀实习生有机会获得具备增值空间的“豆包股”。 目前,在头部大厂中,字节是唯一为强化大模型人才长期吸引与激励而设立专门“虚拟股”的企业,现阶段授予价格较为可观。 近期,字节AI业务发展迅速,其对大模型人才的吸引力持续提升。2月发布的视频生成模型Seedance 2.0被评价为“业界最强”,基础大模型Seed 2.0在多模态理解、复杂任务执行等核心能力上也实现突破,跻身全球第一梯队。 与此同时,字节AI业务在C端和B端均取得领先优势,据第三方数据,豆包App用户量及火山引擎上的大模型调用量均位居国内第一。
史上最严AI三大新规将落地!强制捆绑 暗地扣费等乱象要终结了
快科技4月1日消息,今日市场传出重磅消息:国内18 家大模型厂商联合 233 家上下游企业,共同发布《新一代人工智能产业功能规范管理倡议与实施要求》。 该规定聚焦当下行业痛点,针对 AI 功能强制捆绑、数据安全存隐患、收费规则不透明、用户体验不佳等乱象,推出业内首个自发性优化整改举措与产业规范,明确划定 AI 技术研发与商业化落地的三大核心原则,为行业长期健康、可持续发展筑牢基础。 以下为此次公布的 AI 三大原则详细解读: 一、可关闭的 AI 原则 针对手机 App、智能手机、电脑终端普遍存在的 “万物强行叠加 AI” 乱象,《要求》明确落地可关闭的 AI准则。 所有软件及智能终端,必须标配一键直关AI 功能入口;用户关闭后,需彻底终止 AI 后台运行、暂停数据采集、释放设备资源。严禁设置多层隐藏开关,不得私自增设 7 天、30 天自动重启 AI 的隐性套路,充分保障用户自主选择权。 二、硬件只是硬件原则 该原则明确:用户购置硬件产品时已完成全额付费,厂商若无明确告知,不得增设任何软件二次付费入口,消费者应一次性享有产品全部原生功能,杜绝变相诱导额外消费。 值得一提的是,上述规定包含电视、汽车两大高频重灾区:全面取缔电视开机广告、待机弹窗、开屏推送等各类广告,要求开机 10 秒内直达直播界面;严打会员套娃收费,同品牌、同平台内容实现一次付费全域观看,投屏、清晰度调节、基础 AI 助手等固有功能,严禁单独加价收费。 同时明令禁止车企将车辆基础功能设置为付费解锁项目,斩断硬件后续隐性收割利益链。 三、人类信息安全至上原则 新规划定数据红线:个人隐私数据严禁擅自用作 AI 模型训练素材,用户信息不得被 AI 私自记录、学习,更不能以此作为精准营销、大数据杀熟的依据,同时严禁违规篡改、污染大模型数据等不当操作。 核心要求清晰明确:当 AI 能力迭代、商业盈利需求与个人信息安全产生冲突时,必须优先无条件守护用户隐私权益。 在 AIGC 版权层面,新规界定:AI 仅为创作辅助工具,生成内容版权归属实际创作用户。但该规则也带来连锁影响 —— 为规避侵权风险,AI 将无法生成明星形象、知名 IP、动漫角色等版权相关内容,或将对部分 AIGC 创作场景形成限制。 不过,目前唯一待明确的是:这套 AI 三大原则的正式落地执行时间,暂未对外公布。 有业内分析师评价,这份自律规范堪称史上最严苛的 AI 行业自发标准。待到全面实施,长久笼罩行业的消费套路、安全隐患将被彻底清除,AI 产业也将告别野蛮生长,迎来透明合规、良性发展的全新阶段。
华为的天才少年们,扎堆拥抱机器人
又一位华为“天才少年”进军具身智能赛道。 近日,前华为人机交互(HCI)科学家Yeo Hui Shyong从华为离职,正式加入具身智能公司数字华夏。2021年,Yeo Hui Shyong曾以“天才少年”的身份加入华为,任职于华为终端BG及2012实验室。 这是目前为止第8个入局具身智能赛道的华为天才少年。 更早之前还有丁文超、黄青虬等,其中最出名的当属稚晖君彭志辉。他创办的智元机器人备受资本青睐,估值已超百亿元,不久前第10000台人形机器人量产下线,智元也成为公开报道中量产规模最高的机器人公司。 在国内具身智能公司中,宇树无疑是佼佼者,但稚晖君和其他华为天才少年,已经成为机器人赛道不可忽视的强大势力。 A “今年我们将从全世界招进20-30名天才少年,明年我们还想从全世界范围招进200-300名。” 2019年6月,任正非签署了一份内部文件,发起“天才少年”计划。他说,要打赢未来的技术与商业战争,首先要用顶级薪酬吸引顶尖人才。最高一档年薪为201万元。入选者需经历七轮面试,不限学校和背景,但必须拥有世界级挑战性课题的能力、优秀的团队协作能力以及全球化视野。 如此严苛标准之下,一批顶尖年轻人从全球各地被搜罗而来。稚晖君、丁文超、李银川、黄青虬,都是2020年入选的天才少年。彼时,他们分属于不同的业务部门,多年后却踏入了同一赛道。 稚晖君的故事大家都很熟悉了。大学期间就鼓捣出了个双足机器人,后来成为一名UP主,被华为天才少年计划组关注到,最终经历7次面试以“天才少年”身份加入华为,进入计算产品线昇腾部门。 在华为期间,稚晖君还曾被任正非在演讲中表扬,称其是“华为创新的动力”。但是2022年底,稚晖君还是选择离开了华为,成为了智元机器人联合创始人和CTO。而他在华为时的领导邓泰华,后来也成为智元创始人兼董事长。 稚晖君开了个口子,他是第一个离开华为且投身具身智能赛道的天才少年。 李银川同样是2020年入选华为的天才少年。 李银川从小就对机器人感兴趣,本科在北理工读电子工程,后被保送北理工读博,期间作为联培博士在美国哥伦比亚大学电子工程系深造。美国留学期间,李银川还做了一个基于强化学习的量化软件,卖给了华尔街一家投资公司。 又是量化。量化出AI人才,前有DeepSeek梁文锋,后有自变量机器人王潜,现在又多了一个李银川。 2020年,李银川以“天才少年”身份进入华为诺亚方舟实验室决策推理实验室,负责生成式决策等基础研究与工程化落地。在这里,李银川几乎拿遍了公司主流大奖。 ChatGPT大火那年,李银川成立了生成模型理论项目组,研究方向之一是AIGA,最后一个A就是action,包括自动驾驶、具身智能等多个领域。 李银川说,他在23年早期就提出过类似后来OpenAI o1推理架构的想法,但是没有推进下去。原因有很多,“归根结底很多时候你没法证明你的直觉是对的”。 李银川进入华为诺亚方舟实验室的两年后,这个实验室又进来一个天才少年。三年后,这两个人一起创办了具身智能公司诺因智能,这个人就是周凯文。 周凯文,硕士和博士均就读于香港中文大学,2022以天才少年身份进入华为,加入华为诺亚方舟实验室决策与推理实验室,出任首席研究科学家。 2025年,30岁的李银川从华为离职,创办了具身智能公司诺因智能;后来,周凯文也以合伙人身份加入了诺因智能。 同为2020年,还有两位天才少年进入华为,入职智能汽车解决方案BU(以下简称车BU)。那时候,华为车BU刚成立一年,正是招揽人才的时候。 其中一位是丁文超。1993年出生的丁文超,博士毕业于香港科技大学电子与计算机工程系。2020年,入选华为天才少年后,在华为车BU担任技术专家。 在华为期间,丁文超主导了华为ADS1.0及ADS2.0智能驾驶系统的端到端决策网络研发,该方案后来被应用于北汽极狐、问界2023智驾版等量产车型。 当时,华为车BU自动驾驶系统CTO、首席科学家是陈亦伦。2020年,华为的自动驾驶系统至少有200万行代码,维护成本极高。陈亦伦和丁文超就训练出了一个端到端网络,将这200万行代码精简掉,实现了端到端自动驾驶技术的突破。 后来两人先后离开华为进入院校工作。2024年,这对曾经的战友再次相聚,陈亦伦创立了具身智能公司它石智航,丁文超担任首席科学家。 另外一位是黄青虬。作为2020年批次的“天才少年”,他进入华为后加入车BU,主导激光雷达感知算法的研发。 黄青虬自小就是学霸,高考时以692分、全省40名成绩考入清华大学自动化系。那时候,他就开始捣鼓起了机器人,并作为队长,带领清华大学“火神机器人战队”,获得RoboCup(机器人足球世界杯)第四名。 2020年,黄青虬从香港中文大学多媒体实验室博士毕业后,入选华为天才少年,加入车BU智能驾驶的视觉感知小组。 当时的黄青虬很纠结,到底是去自己熟悉的视频分析领域继续深耕,还是转到自动驾驶这个方向上?深思熟虑之后,他最终选择了车BU。 进入车BU后,黄青虬负责激光雷达感知算法,并参与研发了业界第一个部署车规级激光雷达量产车型——搭载华为智驾的极狐汽车。 2021年,极狐项目遇到了一个棘手的问题。在导师的提议下,黄青虬带领激光感知算法团队仅用一个月,便成功解决了问题。攻关之后,黄青虬升任激光感知团队的leader。 在华为工作五年后,黄青虬离开了这里,和他人联合创办了具身智能公司墨奇智能,担任‌联合创始人兼CTO‌。 B 2021年起,更多“天才少年”加入华为,此后又纷纷投身具身智能浪潮。 Yeo Hui Shyong,博士毕业于英国圣安德鲁斯大学,2021年4月以“天才少年”身份加入华为,任职于华为终端BG及2012实验室,主导了可穿戴手势识别、跨设备协同、AI Agent等多项技术的探索与落地。 2026年3月,他加入具身智能公司数字华夏,进入前沿技术实验室H LAB,深耕具身智能领域的人机交互技术。 周顺波,2021年9月以天才少年身份进入华为,后成为华为云物理智能创新Lab负责人。周顺波是这几个人中比较特殊的,因为他是历届“天才少年”中,智能机器人方向的唯一入选人。 周顺波是一个机器人老兵。早年间,他在香港物流机器人中心与香港中文大学机器人研究所担任联合博士后研究员,研究机器人技术。 他的一篇关于机器人视觉控制的论文,曾获国际顶刊 IEEE RAL Honorary Mention Best Paper Award。这是华人研究者在全球范围内首次获此殊荣。 进入华为后,他从0到1搭建了华为第一个具身智能团队,连续多年负责华为云具身智能战略规划。 从华为离开当日,他曾在朋友圈表示“机器人赛道长坡厚雪,离职不是结束,而是换一种方式守望相助。” 2026年3月,周顺波成立了具身智能公司欧拉万象。 作为这里面少有的00后,陈源培是2024年那一批的天才少年,不过虽然陈源培通过了“天才少年”计划的考核,但是并未入职华为。 陈源培本科是土木工程专业,大二那年,他参加了一场RoboMaster的机器人比赛,开始对机器人产生兴趣。 后来陈源培到北大读书,师从杨耀东教授;后来又给李飞飞实验室发邮件,前往斯坦福访学,以斯坦福访问学者身份跟随李飞飞进行研究。 2024年,陈源培手握华为“天才少年”offer和斯坦福的深造邀请。最终,在杨耀东的推荐下,陈源培认识了灵初智能的创始人王启斌,并以联创身份加入灵初智能,负责技术上的研发。 C 这几位天才少年大多在2020年-2021年间加入华为,他们在华为研究前沿科技,聚焦智能驾驶或者和AI相关业务。当具身智能浪潮来临时,他们又在2024年-2025年投身其中,踏上具身智能的创业之路。 正如他们所说,时机到了。当外部浪潮涌起时,最早感知到变化的人,往往最先做出选择。稚晖君说,“我在华为昇腾就做AI计算,这个趋势看得比较清楚。” 2022年底,稚晖君从华为离职时,就有知情人士透露称,稚晖君觉得机器人业务华为短期不太可能大规模投入,所以决定出去做。后来稚晖君在接受《晚点LatePost》采访中说,是由于风格问题离开,华为在技术方面主要是搞基建,偏向底层技术。而机器人是一个非常新的赛道,适合迭代较快的团队。 智元机器人也因稚晖君顶着“天才少年”的头衔,一开始就拿到陆奇的天使轮融资。成立以来,智元累计融资12次,估值超150亿元,背后站有京东、腾讯等互联网资本。 珠玉在前,更多投资人看重华为天才少年这个群体。丁文超的它石智航,半年内获得超2.4亿美元的融资;李银川的诺因智能成立半年,获得三次融资,估值超20亿元。 当这些天才少年们高歌猛进时,他们的老东家华为,在具身智能业务进展较慢。一边是创业者的孤注一掷,一边是大厂面对不确定性的审慎权衡。华为并非没有布局,2024年11月,华为正式宣布运营华为具身智能中心。 但与天才少年们创业公司的融资速度和产品迭代节奏相比,这个动作来得相对较晚。 话说回来,这并非华为一家的问题,而是大厂的普遍现象。 具身智能作为未来的方向,虽然是国家重点扶持项目,但是回报周期太长,商业化前景不甚明朗,目前公开报道中盈利的仅有宇树一家。所以大厂对这个赛道的普遍做法是作为投资人去投资,这样损失可控,甚至可以多押注几个。 最典型的就是美团。可以说,王兴是中国具身智能第一投资人。此外,京东、阿里、腾讯都开始投资这个赛道,甚至是字节也悄然入局。 每家互联网公司手里都握着几家具身智能公司,甚至是押注同一家。譬如自变量机器人背后就有美团、阿里和字节;即将上市的宇树背后有腾讯、美团、小米,其中美团更是两度出手,如今是宇树第二大股东。 大厂选择“广撒网”,而天才少年们则选择“亲自下场”。这个赛道太激烈,当这群昔日的同事、同门纷纷涌入,并不约而同选择了模型研发时,竞争就悄然埋下。他们未来的对手,可能正是当年在华为共事过的同僚。 智元自不必说,专注于做具身智能大模型,已发布通用具身基座大模型GO-1;李银川在华为就负责研究AIGA,诺因智能也专注于具身智能模型;丁文超在华为和陈亦伦等人实现了端到端自动驾驶技术的突破,不久前它石智航发布了真正“能干活”的通用具身大模型AWE3.0。 有意思的是,即便是以硬件见长的宇树,也开始向“大脑”发力。宇树的招股书中写到,募集资金的一半将用于具身智能模型的研发。 某种意义上来说,对于王兴兴而言,这是一道不得不面对的命题,在具身智能牌桌上,聪明的“大脑”才是终局之战的关键。 而这场关于“大脑”的竞赛,也恰恰是华为天才少年们最擅长的领域。 参考资料: 《又一位华为天才少年离职,加盟具身智能企业》鲸犀 《华为具身智能「1号员工」周顺波离职创业》鲸犀 《对话诺因李银川:华为出身的天才科学家,想用合成数据造家务机器人》晚点AI 《陈亦伦和李震宇创立的具身公司它石智航,不做 VLA、不仿真,不走主流路线》晚点LatePost 《26岁从计算机视觉界“黄埔军校”博士毕业,他想为车打造一双慧眼》心声社区
国内最强生图模型阿里Wan2.7-Image来了!千人千面 告别AI标准脸
快科技4月1日消息,阿里巴巴今日正式发布图像生成与编辑统一模型Wan2.7-Image,直击当前 AI 生图领域“标准脸”审美疲劳和“色彩盲盒”等痛点。 该模型可实现“千人千面”,捏出“活人感”,全新的“调色盘”功能可精准控制色彩。 即日起,用户可在https://tongyi.aliyun.com/wan/、wan.video网站和阿里云百炼体验Wan2.7-Image,千问App也即将接入。 据介绍,Wan2.7-Image具备文生图、图生组图、图像指令编辑和交互式编辑等全链路能力。 在人类偏好盲测中,“文生图”能力超过GPT-Image1.5和国内主流模型,在文本渲染、照片级成像和世界知识指标上,接近Nano Banana Pro。 针对目前千篇一律的“AI脸”情况,Wan2.7-Image强化了虚拟形象捏脸功能,支持从骨相、眼眸到五官细微处的全方位定制。 例如更换提示词中的脸型(鹅蛋脸、圆脸、方脸、长方脸等)、眼部特征(杏仁眼、深邃眼窝、圆眼、丹凤眼等),实现“千人千面”。 此外,Wan2.7-Image全新支持“调色盘”功能,用户可通过Hex Code,一键提取或输入参考图的各种颜色和占比,并可自由调控颜色的数量和占比,自定义配色方案。 当前,超长文字渲染是AI生图的痛点,容易文字模糊、内容错乱甚至直接漏写。 而Wan2.7-Image对超长文字、表格和复杂公式的渲染可达印刷级,支持12种语言,最高3K tokens的超长文字输入,可输出一页A4纸的论文。 Wan2.7-Image还具备强大的组图生成能力,可生成多达12张,用于批量制作同风格系列图、PPT配图、分镜脚本、电商模特套图及多视角建筑图。 而Wan2.7-Image的多主体一致性最高支持输入9张图片作为参考源,对于合影、电影海报及家具组合图等,可保持风格与特征的统一,告别“抽卡”式创作。 值的注意的是,Wan2.7-Image不只会生图,还更懂图。 在训练数据上,超大规模的异构数据底座涵盖全域品类的视觉素材,还整合了理解类数据。 在模型架构上,模型采用了领先的生成与理解统一模型架构,模型不需费力去猜文字对应的画面。 此外,在数据工程维度,根据图像的布局、文字、光影、拍摄角度和用途等,模型团队构建了多维精细标注体系。 基于更大规模数据及尺寸训练而成的Wan2.7-Image-Pro也同步上线,生成图像的构图更加稳定,语义理解更强更精准。 目前,Wan2.7-Image的强大功能可应用于多个行业。 对于短剧与影视团队,可低成本完成角色设定、动作模仿与特效预览;对于自媒体与内容创作者,可轻松生成多风格封面、OOTD穿搭。 而在电商领域,可裂变生成特写图、不同场景的卖点图,大幅降低拍摄成本;教育和科研从业者也可直接调用模型生成论文配图、信息图表与儿童绘本。 针对时下大火的龙虾热,Wan2.7-Image 现已支持skill调用,让龙虾画画,全面解锁生成模型的应用场景。
逆天,ClaudeCode源代码泄露,几小时就被扒的底朝天
大瓜!ClaudeCode源代码泄露了! 然后,被开源了! 1906个源文件完整暴露,51万行代码,全部公开可读! 刚看了下,被开源项目已获得6W+星,目前还在猛涨中。 要说起来,事情其实不复杂,但细节越看越离谱。 先说怎么泄露的? Claude Code在发布新版本v2.1.88的时候,不小心把一个60MB的source map文件一起打包进了npm发布包。 source map是个啥? 你可以把它理解成一份“翻译字典”。 开发者写的代码,发布时通常会被压缩、混淆,变成一坨人类看不懂但机器能跑的东西。而source map的作用,就是把这坨“乱码”重新映射回原始源码,方便调试。 重点来了! 这玩意,本来就不该出现在生产环境。 结果这次,不但出现了,还直接把整套源码“明文送出”。 规模有多大? 1906个源文件,51万行代码,完整可读。 不是片段,是“全套菜单”。 换句话说: 如果你懂代码,现在真的可以自己复刻一个了。 代码一泄露,全球开发者就像开盲盒一样开始“考古”。 短短数小时内,基本被扒了个底朝天。 结果发现,这不仅是源码泄露,还是一份“未来功能路线图”。 比如: Claude Code里,藏了个电子宠物系统。 代号Buddy。 Tamagotchi风格的终端宠物,纯ASCII画风,会在你的命令行里陪你。 还不是随便生成的。 18种物种,6种稀有度,还有“闪光款”。 每个人的宠物根据账号ID唯一生成。 听起来像什么? ——程序员版抽卡游戏。 不过从时间戳来看,大概率是愚人节彩蛋。 但你不得不承认,这帮人是真会玩。 再比如: 一个叫Kairos的功能,被很多人盯上了。 简单说,它是一个“长期记忆助手”。 你不用Claude Code的时候,它在后台帮你干活: 整理你之前的对话、提取重点、压缩信息、生成结构化笔记。 除此之外,还有一堆没发布的功能: 最长30分钟的深度任务规划(Ultraplan) 多Agent协同工作 多会话之间互相通信 后台守护进程模式 还有26个隐藏指令。 当然,不只是“新功能八卦”。 真正让人五味杂陈的,是它的代码质量。 一方面,架构设计是真的强。 安全机制堪称“变态级别”: 每一次工具调用,要经过六级权限验证+四层决策管道; 所有外部命令都跑在沙箱里; 还能一边输出、一边后台处理; 对话太长还会自动压缩上下文。 说实话,这套设计,很多公司都做不到。 但另一方面—— 代码里也有“屎山”。 比如一个文件里的函数,3000多行,12层嵌套,复杂度直接爆表。 还有更搞笑的: 情绪识别不是用AI,而是用正则表达式匹配“ffs”“shitty”这种词。 你看,这就是现实世界的工程: 顶级架构+人类本能的偷懒。 那这件事到底意味着什么?影响有多大?各有各的说法,咱也不关心。 但对普通用户来说,这事有意思。 因为对开发者来说,这绝对是一份“超豪华学习资料”啊。 你要真想提升自己—— 这比很多付费课程都值钱。 至于能不能复刻一个Claude Code? 那就看你本事了。 反正代码已经在那儿了。 代码备份仓库:https://github.com/instructkr/claude-code
深扒科技大厂裁员潮:一边裁一边招,全职换成了合同工,AI背锅?
编译 | 佳扬 编辑 | 云鹏 智东西4月1日消息,据Business Insider报道,近期,科技圈裁员潮再度蔓延。Meta砍掉数百岗位,Oracle计划裁员30000人筹措数据中心建设资金,Atlassian直接砍掉 10% 员工,全力押注AI业务重组;而早在今年2月,Block更是一次性裁掉近4000人,占总员工数的近四成。 科技公司高管们总在高调宣称,AI会帮人类 “减负”、缩短工作时长。可他们口中的 “减负”,根本不是让在岗员工少干活,而是直接把一部分全职打工人从岗位上 “精简” 掉了。 越来越多的公司开始转向合同工用工模式。美国劳工统计局曾估算,1999年临时工占整体劳动力的比例仅为4.3%;而按照更广义的统计口径,如今这一比例已接近40%。 一、AI裁员的真相:资源重分配与用工替代 从数据上看,AI裁员已成为一种显性趋势。职业转型咨询机构Challenger, Gray & Christmas统计显示,自2023年以来,美国企业以AI为由裁员约9.2万人,其中近三分之二发生在2025年。 但这并不意味着AI已经具备大规模替代白领工作的能力。更真实的情况是,企业正在将资源从传统业务转向生成式AI,裁员成为这一过程中最直接的手段。 值得注意的是,不少公司在裁员后并未彻底冻结人力需求,反而转向成本更低的用工方式。咨询机构Robert Hal的调查显示,29%的招聘经理表示会重新启用被裁岗位,55%计划增加合同工或临时工。Gartner也给出预测,到明年,一半因AI裁减客服岗位的企业将考虑重新招聘。 Gartner高级分析总监凯西・罗斯一语道破本质:多数裁员并非AI直接替代人力,而是企业主动进行的资源再分配,“本质上是为AI投入腾挪空间,而非技术成熟的结果”。 这种转向正在深刻重塑劳动力结构。随着企业加大AI投资力度,成本压力被直接转嫁至用工端,传统意义上稳定的全职雇佣关系开始松动,灵活用工正在成为科技行业越来越普遍的选择。 学界普遍认为,这一变化并非短期行业波动,而是企业长期试图降低固定用工成本的必然结果,只是在AI浪潮的催化下,被进一步放大与显性化。 二、从“硅谷福利”到“零工模式”:先裁员再外包 在互联网行业的黄金时代,成为科技公司全职员工,曾意味着进入一套高福利体系。高薪、股权激励、超长带薪假期与完善的福利保障,共同构成了 “硅谷叙事” 的核心吸引力。 但这一模式正在发生变化。在就业市场整体趋紧的背景下,降薪已逐渐成为科技圈的常态。研究机构Revelio Labs数据显示,到2025年底,约40%的白领跳槽者接受了10%及以上的降薪,这一比例创下十年来新高。 裁员与外包也同步推进,企业与员工之间的关系趋于松动。杜兰大学教授罗伯·拉尔卡认为,这种变化让企业文化更强调效率与控制,“用马克·扎克伯格的话来说,是更具主导性的风格正在占据主流”。布兰迪斯大学经济学教授大卫·韦尔则指出,这其实是科技行业长期趋势的延续,AI只是加速了企业减少长期用工的进程。 个体层面的冲击已经真实显现。 一名曾被Microsoft裁员的员工透露,公司虽然没有直接将裁员归因于AI,但战略转向的信号早已十分明确。他离职时不仅失去了未兑现的股票期权,随后还被外包公司邀请以合同工身份回归原团队。 经历一年的求职拉锯战后,他最终重返微软,却只能接受更低的职位,以及约三分之一的薪资降幅。“我几乎没有选择的余地。” 这位员工无奈表示。 类似的案例正在科技圈不断上演。一些公司在裁员的同时仍保留招聘需求,甚至重新吸纳部分被裁员工。Klarna为甚至在大幅削减员工规模后,引入AI客服系统降低基础人力成本,同时增加合同工团队以处理复杂客户投诉问题,其CEO甚至直接提出要打造 “类似零工平台” 的客服用工模式。 数据更能直观反映这一变化:美国劳工统计局曾估算,1999年临时工占整体劳动力的比例仅为4.3%;而按照更广义的统计口径,如今这一比例已接近40%。人才平台MBO Partners的测算也显示,美国约有7300万人以独立工作者的身份参与劳动力市场。 这种模式的代价同样显而易见。合同工往往缺乏医疗保险、退休金等基础保障,更没有全职岗位的稳定性,在面对行业波动与个人风险时更为脆弱。尽管企业反复强调灵活用工的优势,但其背后的核心逻辑,始终是成本控制与利润最大化。 与普通岗位的收缩形成鲜明对比的是,AI相关人才的价值正在水涨船高。Meta曾抛出数亿美元级别的薪酬包争夺顶级AI人才,行业呈现出明显的 “赢家通吃” 趋势,而技术门槛较低的普通岗位,则面临持续压缩甚至边缘化的困境。 事实上,科技公司依赖合同工并非新鲜事。早在上世纪90年代,Microsoft就曾大量使用 “长期临时工”,并因此在2000年支付9700万美元与相关诉讼达成和解。此后,Google、Amazon、Uber等公司在扩张过程中,也广泛采用合同工模式降低用工成本。Upwork的研究进一步证实,77%的企业管理者认为,AI时代对具备专业技能的合同工需求正在持续上升。 需要警惕的是,过快的裁员节奏可能给企业带来反噬。Gartner指出,大规模裁员不仅会损害企业的市场声誉,还可能导致核心技术知识流失,最终拖累组织长期运营效率。 更值得关注的是,AI带来的生产力提升尚未完全兑现,MIT的研究显示,95%的AI试点项目未能实现预期的效率提升或成本节约,甚至有部分企业反映,AI的应用反而在一定程度上加剧了在岗员工的工作强度。 结语:AI时代,劳动力规则正在被改写 在这场转型中,真正被改写的,不只是工作方式,还有“谁来工作、以什么身份工作”的基本规则。 如果企业持续削弱雇佣关系,无论是频繁裁员,还是加速外包,都可能进一步侵蚀本已脆弱的劳资信任。这或许才是AI浪潮之下,更深层的结构性变化。
足足51万行!明星AI编程工具Claude Code源码意外泄露
快科技4月1日消息,当地时间3月31日,AI巨头Anthropic遭遇重大安全事故,其核心AI编程工具Claude Code的完整源代码意外泄露,规模达51.2万行TypeScript代码、超1900个文件,此事引发全球AI行业震动,被业内称为AI界的“核泄漏”事件。 更让人大跌眼镜的是,此次泄露并非黑客攻击所致,而是一场低级的发布打包失误,据悉,Web3安全公司实习研究员未正确排除调试文件(.npm文件),导致一个57MB的源映射文件被公开发布。 该文件包含完整的源码映射信息,开发者只需简单脚本即可还原1900多个TypeScript原始文件,涵盖Claude Code的内部架构、核心算法和工具调用机制,包括代码执行沙箱安全机制、多模态上下文理解模块等多项未发布功能。 讽刺的是,泄露代码中甚至包含名为“卧底模式”的反泄密模块——专门防止员工在公开仓库暴露内部信息,却未能阻止自身源码泄露。 消息曝光后,代码迅速在开发者社区传播留存,即便Anthropic紧急删除原文件,也无法挽回技术资产流失的损失。 万幸的是,核心模型权重、客户敏感数据及相关凭证未被泄露,Anthropic官方也第一时间声明,确认此次事件为发布失误,而非安全漏洞,并表示将推出防控措施避免类似问题重演。 此次事件已是Anthropic短期内第二次安全失误,此前该公司曾意外泄露未发布的顶级模型信息,暴露其在软件发布流程和供应链安全管理上的薄弱环节。
App时代终结?Rokid新视频爆火背后:AIUI正重塑下一代人机交互
作者 | 云鹏 编辑 | 漠影 AI模型大战火爆,月更周更成为常态,虽然底层算力和模型都在“狂奔”,但用户触达的“最后一公里”却始终推进的很慢,应用层的爆发相对滞后,直到OpenClaw(龙虾)爆火全球,AI才第一次真正意义上推开了“大众化”的门。 优秀大模型就像AI的聪明“大脑”,但我们还在用原始的“手脚(GUI图形用户界面)”与之沟通,通过触摸、点击与屏幕上的图标、菜单交互。 AI交互方式的变革,或许会成为AI技术发展的一个关键节点。 龙虾爆火主要因素之一,就是无需复杂操作,一句话帮你做事,这实则已经是对既有人机交互方式的一种打破:用户其实并不想学习如何写出完美Prompt(提示词),用户真正需要的是“意图直达”,一键搞定、一句话搞定。 就在最近,国内AI眼镜赛道头部玩家之一乐奇Rokid的创始人兼CEO祝铭明在网上发布了一条视频,这一功能演示视频迅速窜热,被各路业内人士频频转发。 Demo视频 Demo视频中,佩戴乐奇Rokid眼镜的他,基于纯自然语言与AI交互,AI直接实现复杂任务处理和多模态信息呈现,从查股价到查天气,AI都给出了定制的、可视化图像结果。 这一Demo视频,像我们展示了AI人机交互未来的一个重要趋势——AIUI(以AI为核心的交互)的到来: App边界被打破,AI成为核心中枢调用一切;更简洁高效的纯自然语言交互替代繁琐触控操作;内容形态限制打破,AI多模态内容的生成与呈现成为现实。 AIUI已经不再是未来,属于AI时代的交互,我们已经看到了雏形。或许AI时代的“终极应用”就是没有应用,最适合的交互,就是最自然无感的交互。 一、深度拆解Demo视频:从“触控搜索”到“意图直达” 所以乐奇Rokid这个短短一分多钟的Demo视频为何引起如此多的关注?实则重点并不是视频中所展示的功能有多么“超乎想象”,而是功能背后所预示的AI交互变革,以及这份变革所蕴含的巨大潜力,令所有人不敢忽视。 我们看到,在视频中,用户让AI查股价,AI直接生成了一副动态股价曲线图,我们让AI查询天气,AI直接生成天气相关的图像显示,更直观、也不需要任何其他操作,用户只需要用自然语言与AI沟通。 在传统AI交互操作模式下,我们往往需要先解锁手机,然后找App、输入查询内容、查看页面获取信息,进行一系列操作,而基于AIUI交互模式,一句话AI就直接呈现出“完美结果”。更重要的是,这些内容是AI实时生成的、符合当前语境和用户需求的。 传统模式下,我们只能通过文本与AI“交流”,形式为纯文字,这种“说明书式”的沟通,没有交互感,无法呈现图表、菜单、卡片、功能面板。我们必须进入特定App或者特定的功能中才能使用,无法随时随地无感交互。 传统GUI(图形用户界面)之下,用户直接充当了“路由器”的角色,在不同的信息孤岛(App)之间手动寻找、组合信息。 而在AIUI中,交互路径大幅缩短,几乎完全省去手的操作,只需要语言交互;AI多模态内容生成输出可以实现从理解文本到呈现可视化图文信息的完整链路,AI可以精准识别意图、提供多模态信息的按需呈现。 AI接管了中间所有繁琐的步骤,就如同“龙虾”一句话搞定复杂工作流程。 可以说,眼镜上的AIUI,就像把“龙虾”搬上了眼镜,但更加系统级、更加原生,并且更加安全可控。跟AI眼镜交互,一句话帮你搞定各类复杂操作,并直接呈现可视化直观结果。 设想一下,在双手提着行李的高铁站、在需要双手操作仪器的维修现场,或者在专心驾驶的座舱内,衣食住行,办公、学习、娱乐、出行,基于AIUI交互的智能眼镜几乎在所有场景均有高应用潜力价值。 从信息获取模式上来看,从传统交互到AIUI,就是从“人找App”变为“AI找人”——AI精准识别意图、呈现定制化内容。 二、到底什么是AIUI,它凭什么颠覆传统OS? AI时代,人机交互的改变几乎是必然的,纵观技术和人类社会发展,每一次“生产力革命”,几乎都伴随着交互的大变革。 从PC时代的命令行交互CLI(通过输入代码指令执行操作),到移动互联网智能手机时代的图形交互(GUI),再到如今AI智能硬件时代,从AI眼镜到各类AI可穿戴设备,人与机器的交互模式、人与AI的交互模式必然会发生改变。 在GUI时代,人需要适应机器的逻辑,学习各类功能、如何操作设备,比如用户要记住微信App在第二屏的左上角,要知道手机设置里的哪个选项控制蓝牙开关,但在AIUI时代,这些“物理路径”被彻底抹除,机器理解人类的需求,直接呈现最终结果。 这种差异进一步延伸至生态层面,传统OS是“App的集合”,数据彼此独立于各类App中,而AIUI以大模型Agent为中枢,调用各类API和数据,直接将最终结果打包呈现。 这意味着iOS和安卓庞大的“应用商店”模式可能面临挑战,既有移动应用生态或面临重构,流量入口或许会从具体的App转移到系统底层的Agent手中。 原生AIUI架构真正解决了什么问题?首先,其打破了信息、内容、服务呈现的形态限制,AI可以直接渲染“图形界面”,呈现多模态信息、呈现形式更丰富,比如菜单、卡片、面板、按钮、列表、弹窗、功能页等。 更直观地来看:系统不再预设所有固定的UI框架,而是通过大模型实时“生成”UI,甚至AIUI交互是否真的要有“UI界面”都不一定。 在开发层面,AIUI可能会彻底改变开发逻辑,在开发者生态中掀起波浪,由于乐奇Rokid的AIUI支持JS渲染,底层开发可以直接以AI为核心,而非以App为核心。直接提供AI可以调用的服务接口,让开发更加轻量化。 这种转变也带来了内容的升维:从“发短信”到“发送打包小程序”,用户一键获取结果,还可交互,用户可以进行二次指令调整与追问。 人与AI智能体交互模式从“进进出出”转变为“即用即走”。最终AI真正成为交互中枢、思考中枢,主动判断用户意图、自动调用、汇总、呈现,AI真正可以做到无感、随时随地、陪伴、主动式、个性化服务。 这是传统操作交互模式无法企及的体验上限。在当前的AI Agent时代,AIUI的这些优势更加凸显。 从AI智能体(Agentic AI)的爆发到多模态交互的成熟,AI智能体需要主动拆解用户需求、理解意图、执行复杂任务、调用各类工具,AI主动服务、伴随式的特点日益突出,解放双手成为重要需求。 手机的屏幕和手持形态限制了AI体验上限。实际上,如果你需要时刻将手机举在面前才能让AI“看到”你所处的环境,这种“伴随”显然是伪命题。 AI可穿戴设备成为先天具有无感伴随式特点的品类,其中AI眼镜更是相对来说形态、技术、生态更为成熟,也得到巨头和创企共同认可的一类产品,尤其是带显示功能的AI眼镜,这两年持续火热。 对于AIUI,我们可以用一个非常具象的比喻来概括,如果将找信息或服务比作复杂的“迷宫寻宝”,那么AIUI就相当于直接坐着“飞机”飞越迷宫直抵重点,高效精准获取结果。 对于用户来说,体验升级十分明显——可视化呈现、更自然的交互、AI更易用、好用,信息、服务获取更高效、操作更便捷;对开发者来说,AIUI生态更加开放,前端/JS开发者都可以快速加入AI Agent生态,快速让这套交互模式应用在自己的产品上,大幅降低门槛。 从行业层面来看,从“文字对话AI”升级为“原生融合AI”,这种AI交互范式的革新,为AR眼镜、空间计算、智能助手等场景奠定了下一代交互基础。 乐奇Rokid宣布近期推送基于AIUI架构的OTA 三、Rokid的阳谋:为什么是“AI眼镜”?空间计算的轻量化破局 实际上,近年来类似AIUI的概念我们已经见过,比如AI手机领域如雨后春笋般涌现的AI OS,但至今手机AI OS仍然是“雷声大雨点小”,局限于手机的形态,交互模式很难有实质性突破。 而在AI眼镜上,以AI为核心的交互模式可以说是先天极为契合的,也是行业都能看得到的未来,那么为何在竞争如此激烈的AI眼镜赛道,是乐奇Rokid第一个让我们看到了AIUI的未来长什么样? 实际上,将AIUI拆解来看,核心需要系统、交互以及大模型等方面的深厚技术积累,如何在眼镜这一“寸土寸金”、“螺蛳壳里做道场”级别的地狱难度下实现好的AIUI体验,是极具挑战的。 在系统层面,乐奇Rokid很早就自研了全栈开源的XR操作系统YodaOS——一个低功耗、快响应、易扩展的操作系统,可以灵活接入配置各种主流大模型,这是让AI眼镜快速响应流畅交互的关键。 交互层面,在光学显示、交互技术等方面,乐奇Rokid同样实现了自研技术的储备,包括衍射光波导成像技术的优化、3D手势识别算法、空间音频技术等。 大模型层面,今年2月初,乐奇Rokid已经与国内头部大模型公司合作,研发专属端侧多模态模型,当时就已经有报道指出,其下一代AI眼镜产品会聚焦生成式AI以及AI Agent为驱动的全新操作系统和UI。 今天,靴子初步落地,让我们略窥一斑。 面向未来,AI眼镜会成为AIUI时代的核心入口之一吗?从当前的产业发展逻辑来看,答案似乎已是必然。 AI发展至今,Agent主动、无感、多模态的服务特点,会被手机的操作方式和屏幕信息的呈现方式所限制,而AI眼镜几个关键特点:轻量化、全天候佩戴、无感式、多模态感知、解放双手,都精准命中AI交互需求。 很多业内人士普遍认为AI穿戴设备将成为下一代AI人机交互的关键入口,像阿里巴巴、小米等巨头也都重点押宝AI眼镜这一赛道。头部大厂强强联合,也让各类行业方案更快速走向成熟。 AI方面,从大厂到创企,AI眼镜赛道玩家都在联合大模型公司,研发专属端侧多模态模型,AI眼镜的AI体验不断优化。软硬件厂商的双向奔赴,夯实了整个赛道的地基。 今天,AI眼镜已经成为新一轮AI硬件革命中相对跑得最快、最成熟的产品形态。 从销量上来看,根据全球知名科技市场研究机构Omdia最新数据,2025年全球AI眼镜出货量达870万台,同比增长322%,市场初步进入爆发期。 而乐奇Rokid作为赛道头部玩家,在今年2月初就已经实现了日销1200台的战绩,更是在“带显示的AI+AR眼镜”这一更重要的品类中跻身前列,AI眼镜真正不再是极客的玩具,而是普通大众消费者所能接受、认可的消费品。 戴在脸上的AI眼镜,让大模型“上脸”,实现真正轻量无感的AI交互,AIUI无疑成为未来变革人机交互的重要方式和技术路线。 结语:AI交互变革“奇点”已至 第一代苹果iPhone发布时,行业惊叹于多点触控的“魔法”,而今天,当我们直接用自然语言唤起AI呈现动态图形UI时,我们已经站在了另一个时代交替的十字路口。 短短一分多钟的乐奇Rokid视频Demo绝不是一次炫技,而是让我们窥见了AI时代人机交互未发展未来的“一角”,它证明抛弃冗杂的传统应用形态,直接由大模型接管整个链路是完全可行的。 AIUI带来的是从用户体验、开发生态到商业模式的多方位变革。可以预见,未来会有越来越多的AI智能硬件向这一方向靠拢。 当然,向着这一方向,还有诸多技术层面的挑战,从硬件、软件、系统到生态、商业模式探索,再到如何解决用户隐私安全保护,诸多问题需要解决,这不是一家公司可以解决的,需要行业的共同努力。 但不可否认的是,技术的车轮已经滚滚向前,展望未来,一款小小的AI眼镜,或许真的会成为AI交互革命变革的奇点,AI与物理现实世界的交互、我们与AI的交互,都有了更优解。属于AI眼镜的“iPhone时刻”,已经在不远处招手了。
刚刚,阿里发了款能“捏脸”的新模型
作者 | 陈佳 编辑 | 心缘 智东西4月1日报道,刚刚,阿里正式发布新一代图像生成与编辑统一模型Wan2.7-Image,一举将文生图、图生组图、图像指令编辑和交互式编辑整合进同一套模型架构。 新模型主打四大能力:可自由定制五官骨相的“千人千面”捏脸功能、能精准提取和控制色彩配比的“调色盘”功能、最高支持3K token超长文字渲染的印刷级排版能力,以及支持框选区域精准操作的像素级交互式编辑能力。 我们重点测试了该模型“千人千面”、交互式编辑和多主体一致性三个方面的能力。 在人物生成测试中,无需精细控制提示词,该模型已能在同一组输出中呈现脸型轮廓、颧骨位置、下颌线各异的差异化人像,告别批量同脸问题。加入脸型关键词后,不同轮廓的响应可感知,但方脸、长脸等强特征的精准度仍有提升空间。 在交互式编辑测试中,我们以《唐顿庄园》电影剧照为素材执行人物位置互换,模型在保留服饰特征和背景环境的前提下完成了对调。 在多主体一致性测试中,我们基于参考人物要求模型生成咖啡馆、户外街拍、正式会议室三大场景共12张图像,模型精准保留了参考人物的面部特征、发型轮廓与整体气质,跨场景辨识度稳定,同时对不同场景的光影逻辑和环境氛围适配良好,是三项测试中表现最为亮眼的一项。 同步上线的Wan2.7-Image-pro在构图稳定性和语义理解上进一步提升。 从官方盲测结果来看,Wan2.7-Image多项能力已位列国内第一,整体水平接近Nano Banana Pro。 目前,两款模型均已在阿里云百炼平台开放API调用,万相官网也支持直接体验。 万相官网:https://tongyi.aliyun.com/wan 百炼国内站:https://bailian.console.aliyun.com/cn-beijing?tab=api#/api/?type=model&url=3026980 百炼国际站:https://modelstudio.console.alibabacloud.com/ap-southeast-1?tab=api#/api/?type=model&url=3026980 一、告别“AI标准脸”,还能写满一页A4纸 AI生成人像“千篇一律”是业界长期的痛点,Wan2.7-Image强化了虚拟形象“捏脸”功能,支持从骨相到五官细节的全方位定制——脸型可在鹅蛋脸、圆脸、方脸、长方脸之间切换。 在人物生成能力上,我们使用了一条基础的提示词进行测试:“一个年轻女性肖像,半身照,电影感光影,高清细节,真实皮肤质感”。 在未加入任何脸型、五官或身份限定的情况下,Wan2.7-Image一次生成了4张人像。从结果来看,这组图已经明显不同于以往常见的“AI标准脸”,人物之间呈现出较为自然的差异。 四张图中的人物在脸型轮廓、颧骨位置和下颌线条上各不相同,并非简单的“同一张脸微调”。 同时,皮肤纹理、毛孔及轻微瑕疵(如泛红、肌理不均)均被真实保留,未出现过度磨皮的失真感。 在光影控制与整体氛围营造方面,Wan2.7-Image表现出色。四张图像均采用自然窗光作为主光源,形成强烈的明暗对比与电影化质感,背景环境元素虚实得当,未对主体造成干扰,且不同图像间的人物特征保持了较高的一致性。 整体来看,在无精细控制提示词的情况下,Wan2.7-Image已经可以生成风格统一但人物不同的人像结果,相比以往容易出现的“批量同脸”问题,有明显改善。 在基础人像生成测试后,我们进一步加入明确的脸型约束,对Wan2.7-Image的“捏脸能力”进行验证。测试提示词在原有基础上增加:鹅蛋脸/圆脸/方脸/长脸。 从实测结果来看,Wan2.7-Image模型能够对脸型特征做出差异化响应,不同生成样本中,人物面部轮廓呈现出从鹅蛋脸到圆脸、方脸的明显区分,下颌线、颧骨宽度、面部长宽比等核心脸型指标存在可感知的差异。 在皮肤质感、电影感光影等方面,限定脸型后生成的图片画面细节保留度基本稳定。但该模型的脸型控制仍存在精度与一致性的不足。部分图片存在特征模糊、脸型特征不典型的问题,难以完全匹配“方脸”“长脸”等强特征的严格定义。 对比未添加脸型关键词的基础生成版本,限定脸型后生成的图片人物面部占比整体偏大,脸部视觉尺寸有所扩增,头身比例、半身构图的原有平衡被打破。 在官方演示案例当中,Wan2.7-Image模型生成的图片人物眼部特征支持杏仁眼、深邃眼窝、圆眼、丹凤眼等多种选项,并能跨越国籍与年龄生成差异化人像。 另一大亮点是“调色盘”功能。用户可一键提取参考图的颜色及其占比,并以此为基础生成同色系图片,同时自由调控各颜色的数量和比例,构建个性化配色方案。无论是马蒂斯浓郁的红色系、梵高明媚的黄色系,还是毕加索清冷的蓝色系,都可作为输入参考,输出色调高度一致的全新画面。 在文字渲染方面,Wan2.7-Image支持12种语言,最高可处理3K token的超长文字输入,输出效果达到印刷级质量。这一能力让其在信息图、教育插画、旅游攻略长图海报等场景中颇具实用价值——理论上可以一口气生成排满一页A4纸的论文。 二、一次生成12张图,还能“哪里不爽改哪里” Wan2.7-Image的编辑能力也迎来了显著升级,其“交互式编辑”功能支持用户在指定区域内精准框选,对框内元素进行添加、对齐、移动操作,也可进行Logo插入和人物位置互换,实现像素级意图对齐。 实测中,我们用《唐顿庄园》电影剧照图片执行“两人位置调换”的编辑指令,Wan2.7-Image成功将原图中左侧蓝裙人物与右侧黄裙人物的站位进行了对调。 人物主体、服饰特征(蓝/黄缎面礼服、头饰、项链、长手套)均完整保留,未出现主体丢失、严重变形等致命问题,整体场景的背景环境(宴会厅装饰、背景人物、花艺陈设)也基本维持了原图的一致性,实现了编辑指令的核心诉求。 官方演示中,用户框选图中两个人物后输入“互换位置”指令,模型准确完成了人物交换,且背景及其他元素保持不变。 在另一官方案例中,用户通过框选区域、指定对话气泡风格和文字内容,直接生成了毛毡风格的对话场景,文字与画面风格统一。 多主体一致性是图像生成中难度较高的任务。Wan2.7-Image在这一方向支持最多9图的风格与特征统一,可用于合影生成、电影海报及家具组合图等场景。官方展示了AI女团海报和家具组合图的生成效果,多人物之间的风格一致性较高。 我们基于参考人物进行多场景生成测试,发现Wan2.7-Image在核心人物特征的一致性还原上展现出较高水准。模型根据提示词“基于参考人物,生成3张图:(1)咖啡馆内看书;(2)户外街拍;(3)正式会议室”,输出了一组共12张图像。 从输出结果来看,模型精准保留了参考人物的核心面部特征、发型轮廓与整体气质,在咖啡馆、户外街拍、正式会议室三大场景中,人物主体的辨识度始终稳定,未出现五官变形缺陷。 同时,模型对场景环境的适配性表现优异,不同场景的光影逻辑、环境氛围与人物状态高度匹配,咖啡馆的暖光、户外的自然光、会议室的室内冷光均符合场景逻辑,人物服饰、姿态也与场景属性高度契合。 三、不只会画图,还开始“理解图” 从技术层面看,Wan2.7-Image有三个维度的升级。 在训练数据上,模型底座整合了超大规模异构视觉素材,并额外加入了理解类数据,使模型不止于像素级拟合,还具备底层语义认知能力。 在模型架构上,Wan2.7-Image采用生成与理解统一的模型架构,在共享隐空间(Latent Space)内实现语义映射——文字紧挨着画面,模型不需要费力推断文字对应的画面区域。同时,训练流程中引入了多模态指令(文字+图片),进一步强化了从“像素拟合”到“语义认知”的跨越。 此外,模型还支持调用WanImage Skill工具,据官方介绍可实现“让龙虾画画”等创意指令编排。 在人类偏好盲测中,Wan2.7-Image多项能力位列全国第一,综合成绩接近Nano Banana Pro。同步上线的Wan2.7-Image-pro版本在训练数据规模和模型尺寸上进一步扩大,构图稳定性和语义理解精准度更高。 四、从电商到短剧,图像模型开始全面落地 Wan2.7-Image在多个垂直场景展示了行业落地潜力。 在短剧制作方向,模型支持角色生成中的“一人分饰多角”,通过多主体一致性能力保持同一角色在不同场景中的特征稳定;分镜生成可将人物自然融入场景,并通过交互式编辑精准调整人物位置和大小。 在电商广告场景,模型支持从单张模特图一键裂变出多张不同角度、不同场景的展示图,并可按电商上架格式自动输出场景图、特写图、尺寸图和卖点图等套图组合。 颜色变装(通过调色盘功能切换服装色彩)、四季拼图生成以及“拯救废片”(消除闭眼)等功能,可满足小红书、B站等社交平台的内容创作需求。OOTD穿搭生成和不露脸服装替换也在演示中效果稳定。 该模型可生成图文并茂的知识卡片和教育插画,内容创作方向支持B站封面、小红书封面、种草图文等常见内容格式。 结语:图像模型正在走向“可控化”和“生产力工具” 从Wan2.7-Image的技术突破中可见,图像模型的技术竞赛已转向更深层的维度。其核心价值不再局限于“画得像不像”的表象还原,而是能否精准控制人物形象、颜色搭配和画面布局,能否深入理解文本与语义内涵,能否无缝融入设计、电商、内容创作等工作流程。 随着长文本渲染能力的突破、交互式编辑的灵活操作以及多主体风格一致性的显著提升,图像模型正从辅助性的“创意工具”蜕变成为驱动产业效率的“高效生产力工具”。“千人千面”和“调色盘”这类能力,也意味着AI生成内容开始走向个性化与可控化。
Claude Code开源发酵:负责人反省,平替版狂飙10万星,Anthropic紧急封杀
作者 | 杨京丽 编辑 | 心缘 智东西4月1日报道,今天下午,Claude Code负责人鲍里斯·切尔尼(Boris Cherny)在X上回应了Claude Code开源事件。他坦言,此次事故是团队问题,一个本应自动化的部署步骤却以手动方式完成,团队已着手改进自动化流程,更多改进措施仍在进行中。 Claude Code负责人在X上回应泄露事件 昨天下午,Claude Code在打包发布时误将source map文件(.map)捆绑进了npm包,导致约1900个TypeScript文件以及超过51.2万行代码遭泄露。 泄露发生后,全球开发者连夜搬运代码,事态走向了Anthropic完全无法控制的方向。 有人在两小时内重写了整套系统并创下GitHub历史纪录,有人将源码搬上去中心化平台并宣称“永远不会被删除”,Anthropic的DMCA封杀令也未能阻止代码的扩散。(注:DMCA,即美国《数字千年版权法》,通常被版权方用来要求平台下架涉嫌侵权内容。) 一、两小时5万星:泄露引爆GitHub史上最快“克隆”狂欢 泄露发生后,全球开发者几乎是以“抢”的速度扑向了这批代码。 一位韩国开发者Sigrid Jin迅速对其进行了重写,他去年累计消耗250亿个Claude Code token,是全球最活跃的Claude用户之一,此前曾被《华尔街日报》报道。 据他本人在claw-code的readme中写到,他凌晨被消息惊醒,女朋友担心持有Claude源码会惹上官司,于是他用Python重写了一套功能类似的系统,命名为“claw-code”推上GitHub。 claw-code仓库中的背景介绍(中文转译版) 不管动机是规避法律风险,还是蹭一波泼天的流量,结果是实打实的: 发布仅2小时突破5万星标,创下GitHub历史上最快纪录 目前,claw-code星标数近10万,fork数超过9万 fork数一度反超星标数,超9万名开发者“复刻”了这套代码 这波热度的本质在于Anthropic泄露的源码实在太有价值了,51.2万行顶级AI编程工具的完整实现,正常情况下花多少钱都看不到。 值得一提的是,开发者采用的是所谓“clean-room”重写方式,即不直接复制原始代码,独立实现相同功能。这种做法在法律上构成“全新”创作,Anthropic想靠DMCA一网打尽所有衍生项目,恐怕没那么容易。 claw-code项目开源地址:https://github.com/instructkr/claw-code 二、8100个仓库被封杀,但代码已在去中心化平台“永生” 发现泄露后,Anthropic迅速祭出法律武器,GitHub的DMCA存档显示,Anthropic在3月31日当天便提交了版权投诉,主张“大部分甚至所有fork均构成侵权”。 GitHub随即配合执行,超过8100个仓库被禁用,覆盖原始泄露仓库及其整个fork网络。有开发者在社交媒体上无奈发帖:“Anthropic的律师刚睡醒就把我的仓库干掉了。” 然而,DMCA的长臂管辖在去中心化面前失灵了。去中心化Git平台Gitlawb将完整源码做了镜像,并在X上公开喊话:“永远不会被下架。” Gitlawb在X上宣布镜像Claude Code泄露源码 镜像Claude Code项目开源地址:https://gitlawb.com/node/repos/z6MkgKkb/instructkr-claude-code 这恰恰是互联网的经典悖论:DMCA之所以对GitHub有效,是因为中心化平台有合规义务、有单点可以施压;而去中心化基础设施天然不存在这样的单点故障。 值得一提的是,这并非Anthropic第一次围堵Claude Code的逆向工程。早在2025年4月,Anthropic就曾对一名尝试逆向Claude Code的开发者发起过DMCA下架。 另外,Anthropic还专门打造了名为“Undercover Mode”系统,防止AI泄露内部机密。如今,他们亲手泄露了曾经不惜动用法律手段保护的全部代码。 三、“安全至上”的AI公司,5天内两次泄露 Claude Code负责人的推文试图将外界的关注从“追责个人”引向“团队反思”,但开发者社区的质疑已经超出了这起事故本身。 同样的泄露事件已经不是第一次发生了,2025年2月,Claude Code就曾发生过几乎一模一样的source map泄露,同样的失误在13个月内重演,让“我们已改进流程”的承诺显得格外苍白。 另外,就在3月27日,Anthropic的模型规范文件也被意外公开。五天内,接连两次泄露,对于一家天天把“AI安全”挂在嘴边的公司而言,动摇的不只是技术信誉,更是其品牌叙事的根基。 Anthropic此前泄露的内部文件 从商业层面看,Anthropic当前年化收入已达190亿美元(约合人民币1311亿元),Claude Code单一产品的年度经常性收入(ARR)便高达25亿美元(约合人民币172.5亿元)。 而此次泄露的源码中,包含KAIROS(自主守护进程模式)、ULTRAPLAN(云端深度规划)、COORDINATOR MODE(多Agent协调)等44个功能开关,这几乎等于将一份完整的未发布产品路线图,拱手递到了竞争对手面前。 结语:Anthropic的愚人节“大礼” 一家致力于AI安全的公司,专门打造了名为“Undercover Mode”系统,防止AI泄露内部机密,最终却因一个配置的疏忽,将51.2万行源码完整曝光于世。同样的错误屡次上演,Anthropic恐怕需要先把自己的安全问题搞明白。 但换个角度看,全球开发者倒是实实在在地“爽”了一把,51.2万行顶级AI编程工具的完整源码、三层记忆架构的设计思路、44个未发布功能的技术细节,这些在任何正常情况下都不可能公开的东西,如今被摊在了所有人面前。 两小时5万星的GitHub狂欢、去中心化平台上“永不下架”的镜像……Anthropic的失手,意外成了开源社区的一场狂欢,恐怕这是今年愚人节的最大乐子了。
OPPO发布K15 Pro系列手机:搭载新一代疾风散热引擎 国补后2464.15元起
凤凰网科技讯 4月1日,OPPO发布K15 Pro系列智能手机,包含K15 Pro和K15 Pro+两款机型。K15 Pro搭载天玑8500 SUPER处理器,配备6.59英寸144Hz屏幕;K15 Pro+搭载天玑9500S处理器,配备6.78英寸165Hz屏幕。两款机型均搭载新一代疾风散热引擎,采用疏密错位散热鳍片、VC均热板及石墨凝胶,风扇进风口微凸不足1毫米,50%转速下噪音低至19dB,整机通过IP69防尘防水认证。 续航方面,K15 Pro内置7500mAh冰川电池,支持80W超级闪充;K15 Pro+内置8000mAh冰川电池,支持100W超级闪充。全系首发自研冰川电池聚能芯片,在20%低电量下仍可维持性能释放。 影像方面,后置5000万像素光学防抖主摄与800万像素超广角镜头,支持实况拼图、AI人像补光、AI消除等功能。K15 Pro系列配备三颗岚影呼吸灯,支持色彩自定义及游戏、音乐联动。Pro版专属“金色传说”配色采用锻造碳后盖,随机分布金色纹理。两款机型均支持DIY磁吸镜头盖玩法,可更换镜头装饰。 K15 Pro系列搭载ColorOS 16系统,支持与苹果生态的部分互联功能,包括iPhone来电提醒、Apple Watch信息同步、AirPods原生连接及苹果备忘录迁移。 售价方面,OPPO K15 Pro 12GB+256GB简装版首销7天内叠加国补后2464.15元;12GB+256GB标准版国补价2719.15元;12GB+512GB标准版国补价2999元。 OPPO K15 Pro+ 12GB+256GB简装版首销7天内叠加国补后2634.15元;12GB+256GB标准版国补价2999元;12GB+512GB标准版国补价3499元。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。