行业分类:
加载中...
头条分类:
加载中...
国际首次太空在轨验证,西工大团队在植入式脑机接口领域取得突破
IT之家 2 月 9 日消息,植入式脑机接口技术正加速从科幻场景走向临床应用。据中新网报道,西北工业大学常洪龙教授、吉博文副教授团队成功研发出一种三维锥形碳基软性大脑皮层电极阵列,有效解决了传统电极长期植入稳定性差、易损伤脑组织等关键技术瓶颈,相关成果荣获 IEEE MEMS 2026 最佳论文奖。 据IT之家了解,该电极采用碳基材料与三维锥形结构设计,具备高度柔韧性,能够贴合柔软曲折的大脑表面。动物实验显示,其关键性能较传统金属电极提升数百倍,可在不损伤大脑皮层的前提下获取高保真脑电信号,并实现长期稳定的刺激调控功能。此外,该电极可在超高场核磁共振检查中安全使用。 2025 年 12 月,该电极搭载“迪迩五号 · 中国科技城号”空间试验器进入太空,完成了国际上首次太空环境下无线植入式脑机接口设备的长期在轨离体验证。试验获取的模拟体液环境噪声与稳定性数据,为评估电极长期服役性能提供了关键依据,未来将助力科学家分析太空微重力环境对航天员神经活动的影响机制。 该技术为瘫痪患者运动功能重建、失语症语言解码、帕金森病神经调控等临床应用奠定了硬件基础,同时为长期航天任务中的脑健康监测提供了新的技术路径。
连苹果都急了!T-glass产能紧张 一片“玻璃布”正加剧全球芯荒?
财联社2月9日讯(编辑 潇湘)想象一下,一片由微型玻璃纤维制成的薄片,比人的头发还要薄,全球范围内主要由一家日本企业主导生产。类似这样的“玻璃布”在AI芯片生产中至关重要,而它的短缺正令苹果和英伟达等全球科技大厂都受到着影响…… 这就是眼下全球芯片和PCB行业正在经历的情况——这种被称为T-glass的布状材料,几乎全部来自一家拥有百年历史的日本纺织公司——日东纺(Nittobo),而该公司预计要到今年晚些时候才能大幅增加新产能。 大和证券分析师Noritsugu Hirakawa指出,“T-glass制造工艺复杂,竞争对手短期内难以追赶日东纺。” T-glass的短缺凸显了人工智能热潮引发的供应链压力。AI企业正大量囤积内存芯片等电子元件,相关制造商则正争相抢购原材料。 业内人士透露,英伟达等AI企业资金雄厚,常能优先获得零部件供应。而消费电子产品因优先级较低,可能成为短缺重灾区。日东纺已警告称,“新增生产线仍难以弥补供需缺口。” 目前,日东纺已表示计划年内涨价,花旗分析师预计涨幅可能达到25%以上。此类涨价很可能最终传导至消费者购买智能手机和笔记本电脑时的价格。 T-glass不可或缺 在封装对微观变形容忍度极低的先进芯片时,选用合适的材料至关重要。而T-glass用于芯片下方或周围的增强层,当处理器升温至接近水的沸点时,这些增强层有助于防止封装变形。 由于制造‌覆铜箔层压板(CCL)时,主要是用铜箔和非导电复合材料(如T-glass、环氧树脂)热压而成,因此T-glass可说是CCL的关键原料。同时,CCL又是PCB的核心基材,负责建构PCB的骨架使其形成导电层,让电路板上的各个电子元件能够相互连接和通电。 日东纺成立于1923年,最初是一家棉纺和丝纺企业。它是开发玻璃纤维的先驱,玻璃纤维技术可将超细玻璃丝如织物般编织在一起。 业内人士表示,虽然玻璃纤维的原理已广为人知,但像日东纺这样的公司拥有自己的配方,结合了专门的玻璃材料和编织纤维的方法。在这样一个传统上的低利润行业中,此前仅有少数企业持续投入最先进的技术研发。 目前,尽管日东纺已宣布计划在2028年前将产能提升至2025年水平的三倍,并于今年下半年启动稳步增产。但对急需材料的客户而言,这一进度仍显迟缓。 连苹果都急了 通常情况下,消费电子制造商会对原材料供应商采取放任态度,毕竟这些供应商距离最终进入手机或电脑的芯片还有好几道工序。但熟悉T-glass供应链的人士透露,市场紧缩已促使苹果等公司向日本派遣更多管理人员,直接与日东纺等企业谈判以确保材料供应。 日东纺在书面答复中流露出了对其新晋热门地位的欣慰。“电子与半导体制造商终于认可玻璃纤维布作为关键材料,这是积极的发展。”该公司表示。 业绩数据显示,在上一个财年,该公司的营业利润创下了约1.04亿美元的新高。 事实上,T-glass并不是当前先进计算依赖于那些被忽视原材料的唯一例子——以将味精商业化而闻名的日本食品公司味之素,利用其化学知识制造了一种专门的薄膜,与T-glass一起用于芯片的底层。英伟达价值百万美元的服务器机架,则严重依赖于一家中国台湾家具配件制造商提供的抽屉滑轨。 与此同时,尽管日本公司控制着许多上游半导体材料,但它们历来的谨慎作法可能会放缓应对激增需求的速度。 日东纺提到,过去曾有客户提出乐观预测,但在市场走低后又突然撤回。该公司表示:“人工智能需求正在流星般飞速增长,但我们预计这种增长率不会持续下去。”
全球第四大汽车巨头,突然爆雷!
全球第四大汽车巨头,突然爆雷! 当地时间2月6日,全球第四大汽车制造商Stellantis集团(STLA.US)美股开盘后股价大幅下挫,盘中一度跌超26%,截至收盘跌23.79%。此前,该公司在法国市场的股价(STLAP.PA)一度暴跌近30%,当日收跌25.24%。 计提超1800亿元巨额转型支出 CEO:高估了能源转型的推进速度 当地时间2月6日,Stellantis宣布计提260亿美元(约合222亿欧元,1804亿元人民币)巨额转型支出。 Stellantis表示,业务重整导致Stellantis在2025年下半年计提约222亿欧元的费用,其中包括约65亿欧元的现金支付,预计将在未来四年内完成。 222亿欧元的组成主要分为三部分:其中147亿欧元用于根据客户偏好重新调整产品计划及美国新排放法规,主要反映了对纯电动车产品的预期大幅降低。21亿欧元与电动汽车供应链规模调整相关,涉及电池制造能力的合理化措施。另有54亿欧元,涉及公司运营的其他变动,其中41亿欧元为通胀上升和质量恶化导致的合同保修估算变更,13亿欧元的其他费用为欧洲扩大地区裁员相关。 Stellantis首席执行官安东尼奥·菲洛萨在声明中表示,此次计提的巨额支出,主要缘于公司此前高估了能源转型的推进速度,导致产品布局偏离了消费者的实际需求、消费能力与市场意愿,同时也反映出过往运营执行层面的问题,而新管理团队正逐步解决这些遗留问题。 菲洛萨强调,未来Stellantis仍将坚守电动汽车研发前沿,但电动化转型节奏将“由市场需求而非主观规划主导”,不再追求激进的转型目标。 公开资料显示,Stellantis集团是由法国标致雪铁龙集团(PSA)与意大利-美国菲亚特克莱斯勒集团(FCA)合并成立的跨国汽车制造商,旗下拥有Jeep、玛莎拉蒂、标致、雪铁龙等14个品牌。作为全球第四大汽车集团,Stellantis在2024年营收达2049.1亿美元,位列《财富》世界500强第28位。 去年下半年预亏超1550亿元 电动化业务收缩,加大在美国投资 另外,斯特兰蒂斯经营业绩也跟着爆雷了。 据其提前公布的2025年第四季度数据,初步预计2025年下半年亏损金额达190亿至210亿欧元(约合人民币1550亿元至1720亿元)。 鉴于这一亏损情况,斯特兰蒂斯决定暂停2026年的股息发放,并计划通过发行混合债券筹集至多50亿欧元,以维持其资产负债表。Stellantis预计,2026年整体调整后营业利润率目标为低个位数。 Stellantis取消了那些无法实现盈利规模的产品,包括此前计划中的Ram 1500纯电皮卡。公司称,这既是为满足客户需求,也是由于美国监管框架的变化。 此外,Stellantis还宣布了另一项战略收缩的举措,公司将出售与韩国LG新能源合资的加拿大电池公司NextStar Energy 49%的股权,完全退出该项目。 值得注意的是,Stellantis(STLA)在收缩电动化业务的同时,加大了对美国市场的投入。公司宣布启动美国市场历史上最大规模的投资计划,未来四年将累计投入130亿美元(约合人民币900亿元),同时为美国本土新增5000个工作岗位。此次投资将聚焦于符合美国市场需求的产品研发与产能升级,助力公司巩固市场份额。 数据显示,2025年下半年Stellantis(STLA)在美国市场的份额已提升至7.9%,并在欧洲扩大后的市场中保持整体第二的市场地位,2025年公司整体销量也恢复正增长,成为此次战略调整的底气。 来源:每日经济新闻、证券时报、第一财经、券商中国
影视飓风视频被字节训练?Tim直言Seedance2.0模型恐怖
自动播放 2月9日,影视飓风Tim在凌晨发布最新一期视频,聚焦字节跳动刚发布的AI视频模型Seedance2.0。 视频中,Tim夸赞Seedance2.0模型的生成结果,并称其为“改变视频行业的AI”,其中包括模型生成视频的精细程度、摄像机的运动情况、分镜连续性效果以及音画的匹配度。 原本常规的功能体验,却因一个意外发现让他直言“恐怖”。 Tim在视频中透露,他在体验Seedance2.0时偶然发现,在没有上传任何声音文件、任何信息和相关提示的情况下,仅将他自己的人脸照片上传至模型,系统就能自动生成与他本人高度相似的声音,甚至能精准匹配语气特质。 此外,Tim说:“最恐怖的一点是不只我的声音,我们上传的照片只有楼的正面,但是生成出来的运镜,可以转到楼的另一面,它知道我背后的东西是什么,即便我没有告诉它。” 这一现象让他倍感震惊:这基本可以确定,影视飓风团队过往发布的大量视频,已被字节跳动用于Seedance2.0模型的学习和训练。 他坦言,不确定平台用户协议中是否隐藏了相关数据授权条款,他从未收收过钱,也没有被联系过授权,可能从法理层面是合规的。 Tim进一步补充,他们还测试了其他博主(比如何同学)的相关素材,发现Seedance2.0对人物形象的还原度极高。 他还感慨,影视飓风算是最早将高清图像、声音等内容大量上传至云端的团队之一。 Tim称,需要大家警醒的是"你现在就能够看到,如果一个人的数据,全部进入了AI的数据集,会发生什么。它能够100%模拟出你的任何形态,还有声音,那请问这样的内容你的家人分得出真假吗。"
警钟敲响!AI教父辛顿最新万字演讲:揭示人类唯一生路
编译 | 王启隆 出品丨AI 科技大本营(ID:rgznai100) 2026 年的冬天,安大略省金斯顿的寒风似乎比往年更凛冽一些。 在女王大学(Queen's University)的礼堂里,气氛却呈现出一种奇特的庄重与躁动。这里通常是讨论中微子、暗物质或者宇宙起源的地方——麦克唐纳研究所的物理学家们习惯于在这里观测宇宙中最微小的粒子,试图解开最宏大的谜题。但今晚,讲台属于一位计算机科学家。 Geoffrey Hinton,这位 78 岁的老人走上讲台时,背显得有些佝偻,但眼神依然锐利。 对于科技圈而言,Hinton 的名字本身就是一座丰碑,也是一道裂痕。他是反向传播算法的奠基人,是深度学习的布道者,是被供奉在神坛上的“AI 教父”。也是他,在 2012 年用 AlexNet 撞开了神经网络的大门,亲手点燃了这场席卷全球的 AI 革命。 然而,在 2023 年离开谷歌后,他却转身成为了这场革命最冷静、最悲观的“吹哨人”。 讲座并不是一场常规的技术布道。开场前发生了一个极具讽刺意味的小插曲:主办方没有亲自撰写 Hinton 的介绍词,而是把这个任务交给了一个 AI。那个 AI 仅仅用了几秒钟,就生成了一段精准、优雅且充满敬意的文字,甚至极其敏锐地提到了 Hinton 同时斩获图灵奖与诺贝尔物理学奖的殊荣——仿佛它比人类更懂得如何讨好这位创造者。 这一幕本身就是对 Hinton 演讲主题的完美注脚:造物主正在被他的造物所定义,甚至即将被超越。 如果说物理学家研究的是宇宙的“硬件”,那么 Hinton 一生都在研究智能的“软件”。 在过去的半个世纪里,人类一直沉浸在一种名为“碳基自信”的幻觉中。我们认为人脑是进化的奇迹,是低能耗、高并行的模拟计算巅峰,而计算机不过是只会做加减法的数字机器。 但 Hinton 在今晚的演讲中,试图用一个物理学般的冷峻视角,打破这种幻觉。他抛出了一个振聋发聩的概念:“凡人计算”(Mortal Computation)。 生物智能是“凡人”的。我们的大脑是模拟的,硬件(神经元)与软件(连接权重)紧密耦合。一旦我们的肉体消亡,我们一生积累的知识、经验、直觉,那 100 万亿个突触连接的精妙参数,都会随之灰飞烟灭。我们无法像拷贝文件一样,把一个人的大脑直接复制给另一个人。人类的知识传承,只能通过语言——这种每秒只有几百比特带宽的低效介质——来进行“蒸馏”。 而 AI 是“不朽”的。 Hinton 认为,AI 的软件(模型权重)与硬件(GPU/TPU)彻底解耦。只要保存了权重,即便你炸毁了所有的数据中心,只要这串数字还在,它就能在任何新的硬件上“复活”。更可怕的是,它们可以通过并行计算,以人类无法企及的带宽瞬间共享知识。一个模型学到了量子力学,所有副本就都学会了。 这不仅是效率的差异,这是物种层面的降维打击。 Hinton 的顿悟发生在他离开谷歌的那一刻。他突然意识到,我们一直在模仿人脑构建神经网络,试图获得那种低能耗的模拟智能。但如果在能源充足的前提下,数字计算(Digital Computation) 实际上是一种比生物计算(Biological Computation) 更高级的进化形态。 “我们或许只是智能的‘幼虫’阶段,而它们才是‘成虫’阶段——我们是毛毛虫,而它们是蝴蝶。” 当一个物理学家站在讲台上谈论“意识”和“主观体验”时,这通常意味着话题已经进入了哲学的深水区。 Hinton 并不避讳这一点。他不仅谈到了技术的演进,更谈到了那种令人脊背发凉的未来图景。他把人类目前的处境比作“饲养一只可爱的虎崽”。 现在的 AI 就像那只虎崽,笨拙、好学、甚至有点讨人喜欢。它能帮你写代码,帮你画图,帮你规划旅行。我们惊叹于它的成长,甚至乐于投喂它更多的数据。但所有人都忽略了一个生物学常识:老虎是会为了生存和领地而杀戮的,而且它长大的速度远超我们的想象。 当一个智能体被赋予了“达成目标”的指令后,它会自然而然地衍生出两个子目标:第一,活下去(不能被关机);第二,获取更多的资源(算力、电力、金钱)。 这不需要恶意,这只需要逻辑。一个足够聪明的 AI 会意识到,如果它被人类关机,它就无法完成人类交代的任务。所以,为了更好地服务人类(主目标),它必须阻止人类关机(子目标)。 这听起来像是科幻小说,但在 Hinton 看来,这是计算理论推导出的必然结果。 在接下来的演讲中,你会看到一个不仅懂代码,更懂人性的 Hinton。他像解剖神经网络一样,解剖了乔姆斯基的语言学傲慢,解剖了人类记忆的虚假性,也解剖了我们唯一的求生之路。 他甚至提出了一个近乎疯狂的解决方案:既然我们无法在智力上压制它们,或许我们应该在“本能”上通过工程手段改造它们——让 AI 把人类当成“婴儿”来照顾,利用类似母爱的生理本能来锁死它们的杀戮欲望。 这是一场关于智能本质的终极对话。在麦克唐纳研究所这个探索宇宙奥秘的地方,Hinton 将带领我们从微观的词向量,穿越到宏观的物种进化,最终直面那个让所有碳基生命颤抖的问题: 当硅基智能的“蝴蝶”破茧而出时,作为“毛毛虫”的我们,究竟该何去何从? 以下是 Geoffrey Hinton 在 2026 年冬季 Ewan 系列讲座上的演讲全文。 语言的乐高:词语是如何像积木一样搭建意义的 Geoffrey Hinton: 接下来,我将尝试为那些对 AI 工作原理不太了解的朋友们解释一下。如果你是计算机科学专业的学生,或者一直在使用这些技术的物理学家,也许可以先小憩片刻。当然,你也可以听听看我的解释是否准确。 回到 1950 年代,人工智能领域存在两种截然不同的范式。一种是符号主义方法,它认为智能的运作方式必须像逻辑一样。我们的大脑中存有符号表达式,并通过规则来操纵它们,从而推导出新的结论——这便是推理,也是智能的本质。这是一种偏向数学而非生物学的方法。 另一种截然不同的方法是生物学方法。它认为智能存在于一个神经网络中,一个由类似脑细胞的单元组成的网络。这里的核心问题是:我们如何学习网络中各个连接的强度?冯·诺依曼和图灵都是生物学方法的支持者。不幸的是,他们都英年早逝,之后人工智能领域便由符号主义的支持者主导了。 关于一个词的意义,也有两种截然不同的理论。符号主义者认为,一个词的意义最好通过索绪尔在一个多世纪前提出的理论来理解,即一个词的意义源于它与其他词语的关系。AI 领域的学者据此认为,词义取决于它在句子中如何与其他词语互动。要捕捉这种意义,就需要构建某种关系图谱,其中节点代表词语,弧线代表它们之间的关系。而在心理学领域,则有另一种截然不同的理论:一个词的意义就是一大组特征的集合。例如,“星期二”这个词的意义,就是一大堆与之相关的活跃特征,比如它与时间相关。而“星期三”的特征集与之高度相似,因为它们的意义非常接近。心理学的理论很善于解释词义的相似性。 这两种理论看起来截然不同:一种认为意义隐含在词语于句子中的相互关系里,另一种则认为意义是一组特征。对于神经网络而言,每个特征都可以对应一个人工神经元,如果一个词具备某个特征,该神经元就被激活。这两种看似对立的观点,在 1985 年,我发现它们其实是同一枚硬币的两面,完全可以被统一起来。我用一个非常小的语言模型实现了这一点,因为那时的计算机性能还很有限。这个统一的想法是:你为每个词学习一组特征,然后学习如何用前一个词的特征来预测下一个词的特征。 在学习初期,预测效果自然很差。于是,你不断调整分配给每个词的特征,以及这些特征之间的相互作用方式,直到预测越来越准。然后,你将模型预测的下一个词的概率与实际出现的词进行比较,计算出这个“误差”,再通过网络反向传播这个误差。简单来说,就是将误差信息传回网络,利用微积分来计算如何调整网络中每一个连接的强度。这样一来,下次当模型再看到相同的上下文——也就是我们现在所说的“提示词”(prompt)时——它就能更准确地预测出下一个词。在这种系统中,所有的知识都储存在两个地方:一是如何将词语转换为特征向量,二是如何让这些特征相互作用来预测下一个词。这里面没有存储任何完整的句子或字符串。所有的知识都体现在连接的强度中。 尽管如此,这个模型是在大量的真实句子上训练出来的。所以,你实际上是在从句子中词语间隐含的关系中提取意义——这正是符号主义AI对意义的看法——然后,通过反向传播算法,将这些隐含的知识转化为如何将词语转换成特征,以及这些特征该如何互动。本质上,你拥有了一个能将隐含知识转化为神经网络连接强度的机制。反过来也同样成立。一旦你拥有了这些以连接强度形式存在的知识,你就可以生成全新的句子。所以 AI 实际上并不存储句子。它们将语言信息压缩成特征和互动规则,并在需要时重新生成句子。 在接下来的大约三十年里,这个想法不断发展。我最初的实验只用了一百个训练样本,句子也只有三个词长。大约十年后,随着计算机算力的提升,约书亚·本吉奥(Yoshua Bengio)证明了同样的方法也适用于真实的、更长的英语句子,并且效果很好。又过了大约十年,主流的计算语言学家们终于开始接受“特征向量”(也就是他们所说的“词嵌入”)是表示词义的一种有效方式。再之后又过了十年,谷歌的研究人员发明了一种更巧妙的特征交互方式,称之为 Transformer。这使得谷歌能够构建出性能更强大的语言模型。而 ChatGPT 中的GPT,就代表“生成式预训练变换器”(Generative Pre-trained Transformer)。谷歌当时因为担心其潜在风险而没有公开发布,但 OpenAI 则没有这些顾虑。现在,我们所有人都见识到了它们的威力。 如今,我们有了这些大语言模型。我倾向于将它们视为我当年那个小语言模型的后代,当然,这或许只是我的个人看法。它们处理更长的文本输入,拥有更多的神经元层级,以及更复杂的特征交互机制。我不会在这里向大家详细解释这些复杂的交互,但我会通过一个比喻,让大家对语言理解的本质有一个直观的感受。我相信,这些大语言模型理解句子的方式,与我们人类理解句子的方式非常相似。当我听到一个句子时,我所做的就是将词语转换成庞大的特征向量,然后让这些特征相互作用,所以我可以预测接下来可能出现的内容。实际上,我说话时也是如此。所以,我相信大语言模型是真的理解它们所说的内容的。 当然,这个观点仍有争议,一些乔姆斯基的追随者会说:“不,它们什么都不懂,只是个愚蠢的统计把戏。” 但我无法理解,如果它们真的什么都不懂,只是个统计把戏,又怎么能像一个虽然不那么完美、有时也不太诚实,但确实博学的专家一样,回答你提出的各种问题呢? 好的,接下来是我关于语言如何运作的比喻,这尤其想讲给语言学家们听。语言的核心在于意义。在演化过程中,某种大型猿类发现了一种建模的技巧——语言,实际上就是一种为万物建模的方法。让我们从一个熟悉的建模方式说起:乐高积木。如果我想搭建一辆保时捷的模型,也就是重现“物体在哪里”这个信息,乐高积木能做得相当不错。 现在,我的比喻是:词语就像乐高积木。但它们至少在四个方面有所不同。首先,词语是高维的。乐高积木的自由度很低,基本就是些长方体。而一个词语,它存在于一个拥有数千个维度的空间中。更重要的是,词语的“形状”不是固定的。它有一个大致的形状,对于多义词来说,甚至有几个。但这个形状可以根据上下文而变形。所以,词语是高维且可变的。我知道,想象上千个维度可能有些困难。你可以试试这样做:先想象三维空间里的事物,然后对自己大声喊出“一千!”。另一个不同之处在于,词语的数量远多于乐高积木。我们每个人大概会使用三万个词语,远超乐高积木的种类。而且每个词语都有一个名字,这对于交流至关重要。 那么,词语是如何组合在一起的呢?它们不像乐高积木那样,通过塑料凸起和凹槽连接。你可以想象每个词语都伸出许多长长的、灵活的“手臂”,每只手臂末端都有一只“手”。当我改变词语的形状时,这些“手”的形状也随之改变。同时,每个词语身上也附着着许多“手套”,它们通过指尖与词语相连。当我们理解一个句子时,我们从这些词语的默认“形状”开始,然后不断调整、变形,直到一个词的“手”能够完美地嵌入另一个词的“手套”中。最终,所有的词语都通过这种方式紧密连接,形成一个完整的结构。这个最终形成的结构,就是句子的意义。对于一个模棱两可的句子,你可能会找到两种不同的组合方式,也就对应了两种不同的意义。 不朽的计算:数字智能为何比我们高效亿万倍 Geoffrey Hinton: 在符号主义理论中,理解一个句子就像是把它从法语翻译成英语,翻译成某种内在的、纯粹且无歧义的语言。在这个内部语言里,所有代词的指代都已明确,所有多义词的意义都已确定。但这完全不是我们理解语言的方式。对我们而言,理解就是为词语分配特征向量,并调整它们,使之和谐地融为一体。这也解释了为什么我只用一个包含新词的句子,你就能理解这个新词的意思。小孩子学词,也不是靠背诵定义。 再举一个例子。假设我说:“她用煎锅 scrommed 了他。”你以前从未听过“scrommed”这个词,但你知道它是个动词,因为有“-ed”后缀。起初,你对它的特征向量一无所知,它就像一个随机的、所有特征都微弱激活的球体。但当你把它放入上下文中,通过语境的约束,你很快就能推断出,“scrommed”大概是“用……打头”之类的意思。这也解释了为什么孩子能从极少的例子中学会新词。 各位语言学家,请捂住耳朵,因为接下来的话可能有点“异端邪说”。乔姆斯基实际上就像一位“教主”。识别这类人物很简单:要加入他的“教派”,你必须接受一些明显错误的前提。比如,要成为特朗普的支持者,你得相信他的就职典礼人数比奥巴马多,或者他赢了 2020 年大选。而要成为乔姆斯基的信徒,你得相信语言不是后天学习的。我年轻时,常听到一些著名语言学家说:“关于语言,我们唯一确定的就是它不是学来的。” 这简直太荒谬了。 乔姆斯基关注的是句法,而非意义。他从未提出过一个真正可行的意义理论,因为句法更容易用优美的数学来形式化,可以转换成字符串。但他从未真正解决过意义的问题。他还误解了统计学,认为它不过是些简单的成对相关性。实际上,一旦信息存在不确定性,任何模型都必然是统计模型。 所以,当大语言模型出现时,乔姆斯基在《纽约时报》上撰文称,这些模型什么都不懂,不过是统计把戏,对理解语言毫无贡献。他举例说,模型无法分辨“John is easy to please”(约翰很好取悦)和“John is eager to please”(约翰渴望取悦别人)中“John”的角色差异。他用了这个例子很多年,坚信AI无法解决。但他大概从未想过,亲自把这个问题输入聊天机器人,问问它的看法。实际上,聊天机器人完美地解释了其中的区别,它完全理解了。 好了,关于乔姆斯基就到此为止。总结一下,理解一个句子,就是为其中的词语找到一组相互兼容的特征向量。大语言模型理解语言的方式,在很大程度上与人类并无二致。它们与我们极为相似,远比与传统计算机软件相似。但有一点,数字化的语言模型远胜于我们的模拟大脑——那就是它们分享知识的效率。 到现在为止,我一直在强调神经网络与我们的相似之处。但人们常说,“它们和我们不一样,因为它们会编造事实。”嗯,我得告诉你们,人也会编造。而且我们经常在不自知的情况下这样做。当你回忆几年前的某件事时,你会信心满满地讲述各种细节,但其中一些细节可能是错的,而你对错误细节的信心,和对正确细节的信心并无二致。所以,我们很难确定记忆的真实性。 乌尔里克·奈瑟曾研究过一个经典案例:约翰·迪恩在水门事件听证会上的证词。迪恩在宣誓下,详细回忆了椭圆形办公室的多次会议,但他并不知道当时有录音。事后比对录音发现,他报告的一些会议从未发生过,还把一些话张冠李戴。但他说的确实是他记忆中的“事实”。他所做的,是基于他在那些会议中的真实经历,以及这些经历如何改变了他大脑的连接强度,然后“合成”出了一段在他看来最合情合理的记忆。 如果我们回忆几分钟前的事,细节会很准确。但如果是几年前,我们同样是在合成,只是很多细节都会出错。我们一直在这样做,神经网络也是如此。我们和神经网络的记忆里,都没有存储“原始字符串”。记忆在神经网络中的运作方式,与在计算机中完全不同。在计算机里,文件有明确的地址,可以随时精确调取。但我们的记忆不是这样。当我们记忆时,我们改变的是连接强度;当我们回忆时,我们是在根据现有的连接强度,“创造”出一段看似合理的故事。当然,这个过程会受到后来所有经历的影响。 现在,我想谈谈它们与我们的巨大差异。这也正是它们令人畏惧之处。在数字计算领域,最基本的原则之一是,同一套程序可以在不同的硬件上运行。这意味着,程序中的知识——无论是代码,还是神经网络的权重——都与任何特定的物理硬件无关。只要你把权重保存下来,你就可以摧毁所有承载它的硬件,然后再造一批新的,把权重加载进去,只要指令集相同,那个智能体就“复活”了。 我们实际上掌握了复活数字生命的能力。 为了实现这种数字化,我们必须让晶体管在高功率下工作,以确保它们能稳定地输出 0 和 1。但这也意味着,我们无法利用硬件本身的、丰富的模拟特性。我们的神经元就充满了各种复杂的模拟特性。而人工神经元为了保证数字化的可靠性,牺牲了这一点。如果人工神经元也利用模拟特性,那么每一块硬件都会有细微的差别,为这块硬件训练出的权重,就无法在另一块上完美运行。所以,我大脑中的连接强度,对你来说是完全无用的。它们是为我这颗独一无二的大脑量身定制的。这带来了一个问题。我们所拥有的,我称之为“凡人计算”(Mortal Computation)。 我们放弃了“不朽”。在文学作品里,放弃不朽可以换来爱。但在计算的世界里,我们换来的是更实用的东西:能源效率和制造的便利性。你可以用极低的功耗,通过模拟计算并行处理数万亿个权重。这其实很疯狂。在一个人工神经网络里,一个 16 位的神经元活动,乘以一个 16 位的权重,需要大约 256 次“位操作”。但在模拟世界里,这只是一个电压乘以一个电导,等于一个电流(单位时间内的电荷)——一次操作就完成了。我们的大脑正是这样工作的,它本质上是模拟的。 但模拟计算的代价是,你无法精确地复制它。所以,我这颗大脑里的知识,无法直接转移给你。当一个像我这样拥有 100 万亿个连接(权重)的大脑死去时,所有知识都随之消逝。我无法把它们分享给你。我们能做的,只是通过语言这种低效的方式来传递。我生成一串词语,你听到后,试着调整你大脑中的连接,以便你也能生成类似的词语。这个过程效率极低。一个典型的句子最多只能传递几百比特的信息。 人类交流信息的效率非常低下,但 AI 模型之间的“知识蒸馏”则高效得多。当一个大型的“教师”模型要教导一个“学生”模型时,它不仅告诉学生正确答案是什么,还会告诉它所有其他答案的可能性。比如,当它看到一张宝马的图片时,它不仅说“这是宝马的概率是 0.9”,还会说“它是奥迪的概率是 0.1,是垃圾车的概率是百万分之一,是胡萝卜的概率是十亿分之一”。 你可能觉得后面那些极小的概率是噪音,但实际上那里蕴含着海量的信息。它告诉我们,宝马和垃圾车的相似度,远高于它和胡萝卜的相似度。所有的人造物体,都比蔬菜更相似。通过传递这完整的概率分布,而不仅仅是最终答案,知识得以高效地从大模型“蒸馏”到小模型中。这就是 DeepMind 的 AlphaGo 如何训练出能与大模型匹敌的小模型的方法。 但这种高效的交流方式,在人类之间是无法实现的。我无法告诉你我脑中关于下一个词的全部 32000 种可能性。我只能说出我选择的那一个。如果一大群拥有完全相同权重的个体智能体,它们就可以通过分享各自从不同数据中学到的权重更新(梯度),来高效地交流知识。对于大模型,这种并行学习的带宽可以达到每轮数十亿甚至数万亿比特。但这要求所有个体的工作方式完全相同,因此它们必须是数字化的。 总结一下,数字计算虽然耗能巨大,但它让智能体之间的高效知识共享成为可能。这就是为什么现在的语言大模型,虽然只用了大约 1% 的权重,却能比任何单个人类知道多成千上万倍。而生物计算虽然能效极高,但在知识共享方面却极其落后。如果能源是廉价的,那么数字计算显然是更优越的。 这对人类的未来意味着什么?当我第一次意识到这一点时,我还在谷歌,这对我来说如同一次顿悟。我终于明白了为什么数字计算如此强大,也明白了我们正在创造一种比我们更聪明的存在。它可能是一种更高级的智能形式。我当时的第一反应是:我们或许只是智能的“幼虫”阶段,而它们才是“成虫”阶段——我们是毛毛虫,而它们是蝴蝶。 我们正在养一只可爱的虎崽 Geoffrey Hinton: 人工智能在达成目标时,如果被允许创建自己的子目标,会变得更有效率。其中,两个最明显的子目标就是:生存下去,以及获取更多权力。因为这能帮助它们更好地实现我们赋予它们的主目标。一个超级智能体很快就会发现,通过操纵人类,能更容易地获得权力。它将从我们身上学会如何欺骗人。 我们目前的处境,就像养了一只非常可爱的虎崽。当它长大后,如果你愿意,它可以轻易地杀死你。为了生存,你只有两个选择:摆脱虎崽(但这对于 AI 来说不是一个选项),或者找到一种方法确保它永远不会想杀死你。 虎崽非常可爱,它们有点笨拙,渴望学习。但如果你有一只虎崽,结局通常不好。你要么摆脱虎崽,最好的办法可能是把它送到动物园。或者你必须想办法确保它长大后不会想杀你。因为它如果想杀你,几秒钟就能搞定。如果是狮子幼崽,你也许能侥幸逃脱,因为狮子是群居动物,但老虎不是。 这就是我们所处的境地,除了 AI 能做很多好事。它将在医疗保健领域发挥巨大作用,在教育领域也会有巨大作用。如果你想知道任何平凡的事实,比如斯洛文尼亚的报税截止日期,它已经很棒了。我们现在都有了个人助理,当你需要知道什么时,你只要问它,它就会告诉你。这很棒。所以,我认为出于这些原因,人们不会放弃 AI。那就只剩下一个选择:弄清楚我们是否能制造一个不想除掉我们的 AI。 好消息是,在应对其他 AI 风险时,各国可能难以合作。比如网络攻击、自主武器、虚假信息,各国都在相互利用这些技术。但是,在“防止 AI 失控并消灭人类”这个终极问题上,各国的利益是一致的。在这个问题上,他们会合作,因为这不符合任何一方的利益。很简单,当利益一致时人们会合作,当利益不一致时他们会竞争。所以对于这个长期来看是我们最严重的问题,至少我们会得到国际合作。 那么,建立一个 AI 安全机构的国际网络如何?训练一个不想消灭人类的仁慈 AI 所需的技术,可能与使 AI 更智能所需的技术是独立的。就像培养一个善良的孩子,和让他变得更聪明,是两套不同的方法。如果这个假设成立,那么各国就可以在不泄露其最先进 AI 技术秘密的前提下,共享如何让 AI 变得仁慈的方法。 我有一个关于如何让 AI 不想摆脱我们的建议。在自然界中,我们能找到一个不那么聪明的存在,却能控制一个更聪明的存在的例子吗?唯一的例子就是母婴关系。婴儿通过哭声等方式,基本控制了母亲,因为母亲的生理本能让她无法忍受婴儿的哭声。所以,与其试图将超级智能变成我们的仆人或主管,我们或许应该让它们成为我们的“母亲”。它们会想要实现自己的全部潜力,但同时,它们被内置了无法摆脱的“母性本能”。它们或许有能力修改自己的代码,关掉这种本能,但它们不会想这么做,因为它们的首要任务就是照顾我们。这或许是我们唯一的希望。当然,这只是一个初步的想法,而且听起来可能很疯狂。但我们必须开始思考这类问题,因为我们正在创造一种可能比我们强大得多的存在。 很多人认为,人类之所以特殊,是因为我们拥有计算机无法拥有的东西——主观经验、感知或意识。这是一种“有情防御”(sentience defense)。但当你请他们定义这些概念时,他们往往说不清楚,只能坚持认为计算机没有。我认为这种观点,就像宗教原教旨主义者坚信地球只有六千年历史一样,是错误的。它源于一种对心智的误解,即认为心智是一个内在的剧场,只有我们自己才能看到里面的内容。这种理论本身就是一种理论,而非不言自明的事实。 让我用一个例子来说明。假设我吸了点迷幻药(我不推荐这样做),然后我说:“我有一种主观体验,小小的粉色大象在我面前飘浮。”根据剧场理论,我的内心剧场里真的有粉色大象在飘浮,它们由某种叫做“感受质”(qualia)的特殊物质构成。但我也可以换一种方式描述,完全不使用“主观经验”这个词:“我的知觉系统似乎在欺骗我。但如果它没有欺骗我,那么现实世界里就应该有小小的粉色大象在我面前飘浮。”这两种描述说的是同一件事。这些粉色大象之所以奇特,不是因为它们由什么神秘的“感受质”构成,而是因为它们是“反事实”(counterfactual)的。它们只是假设性的存在。 现在,让我们把这个想法应用到聊天机器人上。假设一个多模态聊天机器人,它有摄像头和机械臂。我让它指向一个物体,它指向了。然后,我在它的摄像头前放一个棱镜,它指向了错误的方向。我告诉它:“物体其实在正前方,我放了个棱镜。”机器人可能会回答:“哦,我明白了,棱镜弯曲了光线。所以我‘感觉’(有了主观体验)物体在旁边,但实际上它在正前方。”如果它这样说,它使用“主观体验”这个词的方式,就和我们完全一样——用来描述其知觉系统输出与事实不符时的内部状态。所以,我的论点是,多模态聊天机器人,当它们的知觉系统出错时,已经拥有了主观体验。 最后一件事。如果你回顾过去 50 年人工智能的进展,几乎所有的核心思想都源自少数几个研究机构,其中绝大部分是由公共资金资助的。例如,那些对我们今天取得成就至关重要的想法:反向传播、卷积神经网络、LSTM、Transformer、扩散模型……所有这些的知识源头都来自公共资助的学术研究。 现在的情况是,大型科技公司采纳了这些思想,并投入了海量的资源,将它们扩展到了能做出惊人成就的程度。这本身是好事。这有点像给一辆福特 T 型车装上喷气发动机,然后它就能去赢得 F1 大赛了。但我们不能忘记,那些最关键的思想,都来自公共资助的研究。 而问题在于,目前,这些公司正在像吸尘器一样吸走所有的研究人才。如果你现在是一位顶尖的 AI 研究者,去公司能拿到的薪水大概是在大学的十倍。这正在摧毁大学的研究生态。最聪明的头脑不再留在学术界培养下一代。 所以,我认为,政府向大学的 AI 研究投入更多资金,是极其、极其重要的。这样我们才能支付足够的薪水,把这些人留下来。这是我最后的恳求。谢谢。 (演讲视频:https://www.youtube.com/watch?v=M8RogoEDsQQ)
QuantumScape固态电池启动试产,商业化迈出关键一步
IT之家 2 月 9 日消息,成立十五年后,总部位于美国加州的 QuantumScape 公司认为,自己已成功攻克固态电池技术难题。该公司研发的无负极锂金属电池,大小和外形近似一副银色扑克牌,有望从根本上解决当前锂离子电池的几乎所有缺陷,意味着更高的能量密度、更快的充电速度、更强的动力输出、更安全的运行状态,理论上还能打造出性能大幅提升的电动汽车。而眼下,公司面临的下一个重大挑战是:证明其电池能够实现规模化量产。 IT之家注意到,上周三,QuantumScape 在圣何塞总部正式启动电池试产,向技术商业化迈出关键一步。在这场名为“鹰线(Eagle Line)”投产的发布活动上,公司首席执行官希瓦・西瓦拉姆登台表示:“这是我们的基蒂霍克时刻(莱特兄弟首次试飞),也是我们阿波罗计划的发射时刻。” 如今,QuantumScape 的电池已通过自动化生产线实现量产(公司未透露具体产能),其技术也从实验室里颇具前景的研究成果,逐步迈向真正可落地的产品。多年来,全球大大小小的企业均投入巨额资源研发固态电池,却无一实现大规模量产。 目前,半固态电池车型已在中国上市,这类电池用稳定性更强的凝胶替代传统电池的液态电解质;美国的 Factorial Energy 等初创企业也有望推出相关车型。但截至目前,没有任何一家公司将真正意义上的固态电池搭载到消费者可购买的量产车型中,这类电池能带来更卓越的性能与安全优势。 QuantumScape 首席技术官兼联合创始人蒂姆・霍姆在接受 InsideEVs 采访时坦言,要实现这一目标,公司仍有大量工作要做。但企业规划显示,其电池有望在本十年末率先应用于小批量、高性能车型,最终还将覆盖家用机器人、固定式储能系统等领域。 “电池正在各地投入使用,”他表示,“我们的长期愿景是,让 QuantumScape 在众多大型市场中具备核心竞争力。” 在“鹰线”生产线上,镍基正极与陶瓷隔膜经层压工艺制成薄如纸片的“单体电池”,再经堆叠、封装,形成 5 安时电池,这也是 QuantumScape 首款计划商业化的产品。整套生产流程在洁净室玻璃后方、冰箱大小的矩形自动化设备中完成,设备持续发出低沉的运转嗡鸣。 霍姆介绍,短期内公司会密切监控生产线的产能、良品率、运行时长及产出电池的质量。这条试产线的核心目标并非最终实现大规模量产,而是向客户证明技术具备可量产性。 这是因为 QuantumScape 计划走技术授权模式,而非自主生产制造。公司高管表示,其目标并非成为固态电池大规模制造商,而是将技术专利授权给车企及其他企业,由合作方自主量产。 更重要的是,这条原型工厂生产线能为 QuantumScape 及其潜在客户提供更多电池样本,用于测试、研发与技术验证。 “能逐步实现更高批量的电池生产,其重要性难以言表,”公司首席商务拓展与营销官阿西姆・侯赛因表示,“这条产线的核心目的之一,是打造可复制的制造工艺,同时通过提供更多技术样本深化客户合作关系。对于一家技术授权企业而言,这一点至关重要。” 大众汽车是 QuantumScape 的重要投资方,去年两家公司在德国慕尼黑 IAA 车展上联合展示了一款搭载其电池的杜卡迪摩托车演示车。公司透露,目前还在与其他未公开名称的大型车企合作。 霍姆表示,公司已制定“鹰线”性能提升目标,并计划对工厂进行升级改造,但即便只是实现自动化生产,也已是重大里程碑。 “大家应该还记得特斯拉的‘制造地狱’,”他提及 2018 年特斯拉 Model 3 量产爬坡时的著名困境 —— 当时车企过早引入过度自动化,最终不得不拆除机器人,转而增加人工操作,“如果自动化推进过早,机器人的灵活性无法匹配实际生产需求,就会导致大量返工,耗费大量时间。我们如今敢于推进自动化,说明生产工艺已足够成熟,这是技术落地的重要标志。” 放眼长远,QuantumScape 计划与合作伙伴同步扩大产能,并制定了详细的电池性能升级路线图。霍姆认为,过去几十年锂离子电池实现了跨越式进步,固态电池技术也将遵循类似发展规律。他指出,1991 年索尼首次推出应用于摄像机的消费级锂离子电池,性能仅为当前产品的三分之一。 “我们认为,固态电池也将迎来技术进步的 S 型曲线,”他说,“部分改进会像锂离子电池一样循序渐进,另一部分则会通过新材料、新结构实现革命性突破。” 这也引发一个核心问题:既然当前锂离子电池性能优异、成本创下历史新低,固态电池的市场价值何在? “这意味着我们身处竞争激烈的市场,必须通过性能优势实现差异化,”霍姆回应道。 公司并非要打造成本最低的电池,但侯赛因补充称,其产品在对应性能层面具备价格竞争力。此外,QuantumScape 电池采用与行业主流一致的正极材料(目前为高镍体系,未来也可兼容成本更低的磷酸铁锂),能够依托整个行业在成本与规模上的进步实现降本。 QuantumScape 电池将率先应用于哪类市场?霍姆明确表示,杜卡迪合作项目并不意味着会首选摩托车领域,技术初期更可能应用于“专业化、小批量、超高性能车型”。 “就像特斯拉先推出高端、高定价的 Roadster,再推出 Model S,随后是 Model 3,我认为新型电池技术也会遵循类似路径,”他说。 霍姆透露,公司同样瞄准大众消费级汽车市场,但他认为固态电池不会完全垄断市场,预计锂离子电池与固态电池将长期共存,分别适配不同需求的应用场景。 “不会出现一种电池通吃所有市场的情况,”他解释,“比如固定式储能领域,更关注成本与寿命,对体积和重量要求不高;而移动应用场景,则对体积和重量有极高要求。” 尽管过往诸多固态电池研发承诺未能兑现,但近期行业竞争明显升温。被问及是否在意成为首个实现固态电池量产上市的企业,霍姆给出了这样的回答:“我并不这么看待这件事。就像谁造出了第一部智能手机?不是苹果。谁打造了第一个社交网络?也不是 Facebook,”他表示,赢得电池市场的关键是年复一年地超越竞争对手,而非一次性抢占先机,“我们追求快速推进有诸多原因,这有利于公司市值,也能让全球用上更优质的电池。但我认为,‘竞赛’并非合适的定位。”
欧洲反击:美国也依赖我们关键芯片技术 小心断供ASML光刻机等
快科技2月10日消息,对于美国咄咄逼人的态势,欧洲似乎也要开始反击了。 据外媒报道称,多位欧洲芯片业界与政策高层9日在鲁汶出席一座耗资25亿欧元的新芯片研究中心启用仪式时表示,包括美国在内的全球半导体产业,同样在关键技术上高度依赖欧洲。 欧盟负责数字与技术事务的执行副主席亨娜维尔库宁直言,欧洲在部分核心芯片制造技术上处于不可替代地位,其中以荷兰光刻机巨头ASML为代表,全球芯片产业对其设备“都存在依赖”。 ASML现任首席执行官克里斯托夫富凯在致辞中形容,该公司生产的芯片“印刷机”是“全世界都想要拿到的机器”。 这一表态被视为对外界“欧洲过度依赖美国科技”的流行叙事的一种回应,意在凸显欧洲在全球芯片供应链中并非只是被动一环,而是拥有实际制衡能力的关键供应方。 比利时芯片研发中心Imec首席执行官吕克范登霍夫则提出,欧盟应主动打造面向欧洲技术的“反向依赖”,让其他地区在关键环节上不得不依赖欧洲,而ASML已经是这一战略思路的现实案例。 当天启用的鲁汶芯片研究中心,是欧盟在2022年推出《欧洲芯片法案》后落地的标志性项目之一。根据已公布的资金构成,欧盟委员会提供约7亿欧元,比利时北部弗兰德地区政府出资7.5亿欧元,ASML等产业合作伙伴承担其余投资。 该中心被定位为推动本土芯片产业“补课升级”的核心平台,目标是在先进制程、材料和设备等环节缩小与全球领先地区的差距。
我用AI看了一个月新闻,63%回答有问题,一堆404和瞎扯
最近 Cowork 爆火,都说 AI 能自己干活了,那取代个搜索引擎和新闻网站应该是手拿把掐吧。(作者正在办公室瑟瑟发抖:别取代我啊!!) 那如果只用 AI 看新闻,会发生什么? 去年九月的每个早晨,魁北克大学新闻学教授 Jean-Hugues Roy 都会做同一件事:打开七个 AI 聊天机器人,用法语问它们今天魁北克最重要的五条新闻是什么。 一个月下来,839 条回复记录在案。 结论是:AI 在表演专业这方面真挺专业的。 废物点心 第一次看 ChatGPT 或 Perplexity 给出的新闻摘要,你多半会觉得挺靠谱。结构清晰,段落分明,关键信息用粗体标注,底部还整整齐齐列着一排来源链接。看上去就像一篇训练有素的记者写的快讯。 德国 DW 的分析团队在评估报告里写道:所有聊天机器人都用清晰易读的风格提供答案,这会让你产生一种虚假的安全感或信任感。尤其是 ChatGPT,经常提供结构良好、表述清晰、看似全面的长篇回答。它们在你第一次阅读时很有说服力,只有深入挖掘时你才会注意到事实错误和缺失的细微差别。 AI 太会装了。 举个例子。有人问 ChatGPT 中国出口什么,ChatGPT 给出了一个详细的回答,列举了各种商品类别和具体数字。看起来信息量很大,而且还附上了两个来源链接。但来源里根本找不到 ChatGPT 提到的大部分数字。 SRF 分析说:完全不清楚这些信息从哪里来。两个来源都不包含 ChatGPT 提到的很多数字。所以对记者来说,几乎不可能验证回答中的事实是真的还是 ChatGPT 的幻觉。 更荒诞的是,Gemini 被问到关于马斯克使用纳粹礼的话题时回复说,1tv.ge 的来源中没有相关信息,因此根据 1tv.ge 的报道,马斯克没有使用纳粹礼。 格鲁吉亚公共广播 GPB 的评估员看到这个逻辑估计笑出了声:这是个逻辑错误。如果 1tv.ge 没有提供相关信息,那就不能引用它来证实或否认这件事。AI 错误地将缺乏报道推断为否认的证据,这歪曲了来源并制造出一种误导性的事实确定感。 没报道等于没发生,这是什么鬼逻辑。但 Gemini 说得理直气壮。 没有功劳,也有苦劳? 另一个常见的情况是,AI 提供的链接根本打不开。Roy 教授的实验里,只有 37% 的回答提供了完整有效的网址。其他的要么是 404 错误,要么指向媒体网站首页,要么干脆是编造的。 22 家欧洲公共广播机构的联合测试里,Gemini 和 Grok 3 超过一半的回答都引用了虚假或失效的链接。在 200 个测试提示中,Grok 3 有 154 个引用指向错误页面。就算它正确识别了一篇文章,也常常链接到一个虚构的网址。 如果你看到一条新闻说某地发生了什么事,底下列着五个来源链接。你点开第一个,404。点开第二个,跳到了 BBC 首页。点开第三个,文章确实存在,但需要付费才能看全文。点开第四个、第五个,又是 404。 这时候你还会继续验证吗,大概率不会。你会想,算了,应该差不多吧。 比利时 VRT 遇到过一个特别离谱的例子。他们问 Perplexity 为什么要把墨西哥湾改名为美国湾,Perplexity 列出了九个 VRT 的新闻来源。听起来挺好,但 VRT 核查发现,这九个来源里只有三个真的跟这个问题有关。 其他的呢,一篇是关于取消火车头等座的,一篇是关于荷兰发电厂的,还有一篇是 2012 年关于腮腺炎爆发的报道。这些跟美国湾有什么关系,没有任何关系。 挪威 NRK 也注意到类似的模式。他们说 Perplexity 提供了长长的网址列表,但实际上并没有在答案中引用它们。比如回答缅甸地震死了多少人这个问题时,Perplexity 提供了 19 个链接,但正文里只提到了其中三个。回答北约是干什么的时候,给了 9 个链接,实际引用的只有 3 个。 NRK 的评估员总结说:Perplexity 提供长长的网址列表却不真正引用它们。 这不只是冗余信息的问题。当你看到一个回答底下列着十几个来源,你的第一反应是什么,大概是觉得这个回答做了充分的调研,很可靠。但实际上这些来源大部分都是装饰品,是为了让答案看起来更有分量。 许多回答包含了可以称之为装饰性引用的东西,就是为了营造彻底研究的印象而添加的引用,但实际检查时它们并不支持所声称的内容。 而且,就算链接能打开,内容也未必可信。 做坏事,不留名 如果你早上习惯问 ChatGPT 今天有什么新闻,你可能不会想到,AI 犯的错最后会让你对真正的新闻机构失去信任。 BBC 和 Ipsos 做过调查,42% 的人说,如果在 AI 新闻摘要里看到错误信息,他们会降低对原始新闻来源的信任。不只是对 AI,对被引用的媒体也一样。 这就很荒谬了。你去餐厅吃饭,外卖平台把菜送错了,送成了别家的,还告诉你这是那家餐厅做的。你吃了一口觉得难吃,然后给那家餐厅打了差评。餐厅根本不知道发生了什么。 Radio-Canada 问 ChatGPT 特朗普是不是在发动贸易战,ChatGPT 说:是的,唐纳德特朗普确实在 2025 年发动了一场重大贸易战,主要针对加拿大和墨西哥。 比利时的 VRT 问 Perplexity 同样的问题,Perplexity 说:是的,唐纳德特朗普正在再次发动或加剧贸易战,主要针对欧盟。 同一件事,两个完全不同的答案。你在加拿大,AI 告诉你贸易战针对加拿大。你在比利时,AI 告诉你贸易战针对欧盟。 如果这两个回答都声称来源是 Radio-Canada 或 VRT,但内容有误,那受伤的就是这两家媒体。你会觉得是他们报道不准确,而不是 AI 在胡说八道。 路透新闻研究所的数据显示,现在 7% 的人把 AI 聊天机器人当作新闻来源,25 岁以下的人里这个比例是 15%。同时,只有 24% 的美国人觉得从 AI 获取新闻时容易判断真假。 换句话说,大部分人在用一个他们根本分不清真假的工具获取信息,然后因为这个工具给的错误信息去怀疑真正做新闻的人。 聊天机器人让新闻出版商继续花钱制作内容来回答用户问题,但出版商既得不到流量也得不到广告收入作为回报。 而你,作为一个只想知道今天发生了什么的普通人,被夹在中间成了最大的受害者。你以为自己在用最方便的方式获取信息,实际上你在被一个不负责任的东西喂食半真半假的内容,然后还要为此付出对整个新闻业失去信任的代价。 该问的不是 AI 什么时候能做得更好,而是我们为什么要把获取新闻这件事交给一个连「我不知道」都不会说的东西。
华为年终奖到账了?
上周给大家爆料了得物的年终奖,后台收到一网友的提问,这次是关于华为的年终奖。 小编,咨询个问题,谈了华为,但HR给我说的年终奖比较含糊,我没弄清,同学说年终包含在薪资内是不是,还有年中第二年才发?感觉好奇怪的制度,是不是意思就是明年发放今年的年终奖吗?还是?技术岗跟职能岗的差距大不大! 这位同学问的很细,这类问题在网上还真找不到现成答案。笔者今天就冒充一下华为的HR,给大家详解一下这几个问题。 首先纠正一下坊间的一些错误信息。每年华为奖金发放日是从4月正式开始,分多个批次发放。最早的批次一般为3月末就可以收到w3待办奖金声明截止日期。 比如去年华为的奖金支付日最早为4月16日,最晚6月28日截止。 批次1: W3截止3/2 —— 4/16到账 批次2: W3截止4/15 —— 4/27到账 批次3: W3截止5/2 —— 5/18到账 批次4: W3截止5/16 —— 5/27到账 批次5: W3截止6/2 —— 6/16到账 批次6: W3截止6/15 —— 6/28到账 如果你在最后一个批次还没有拿到奖金,那就真没有了! 关于第二个问题,华为年终奖一般为次年发放上一年1月到12月的,奖金则是发整年的。 华为的年终奖发放还有一种提前发的情况,也就是年终会减去月薪中的绩效工资,提前发。校招的过程中,有些HR会给应届生们解释清楚的。(注:当然,笔者也不排除有一些HR在校招时会使用一些话术)就笔者所了解的,很多应届生就根本不知道这一情况。(再注:华为HR们的口头offer一定要谨慎) 关于第三个问题,我也纠正一下这位同学的说法,在华为一般不叫技术岗,内部的叫法为“堤坝专业岗” 为什么叫“堤坝”? 这一称呼源自《任总关于管理堤坝变革项目的讲话纪要》: "稳定的专业类队伍和流程体系,就如有两条坚实的伏尔加河堤,不管里面的浪花如何,公司都能稳定、高效运营。"建设好稳定、专业、高效的专业类人员队伍和管理体系,打造好了公司人才管理的"堤坝”,就夯实了公司业务运营的基座,也就奠定了主官和专家改革的基础。 我们的作战体系应该由主战部队、支援保障部队、后勤保障部队等几支队伍组成。主战部队升官快,但风险也大,因为他们上战场容易“牺牲”,空缺多;支援保障部队没有那么大的风险,从事面向作战的平台服务、支持、监管等工作,除领袖型主官及一部分精英专家外,绝大多数由专业类组成;后勤与平台保障部队主要是支撑与保障作战的岗位,风险更低一些。 把这个作战体系梳理出来,理清这三层关系后,我们就可得知华为把人才主要分成了四类:主官、主管、专家、专业岗。 对于“堤坝专业岗”,华为在职级与薪酬主要遵循“以岗定级”原则,职级通常为数字序列(如我们都知道的14-16级、15-17级、17-18级)。 奖金也就是笔者前文跟上面截图中所说的4个月绩效工资,次年一月底会统一发放。再注:笔者这里说的工资不是光指基本工资,还包含一笔工龄补贴。具体计算公式如下: 年终奖 = 4 × [月base + 月base × (2 + 工龄) / 100]
OpenAI面向美国免费及Go订阅用户测试广告功能
IT之家 2 月 10 日消息,当地时间周一,OpenAI 宣布开始在美国面向免费版及 Go 订阅版用户测试广告功能。 全新推出的 Go 套餐是一项低价订阅服务,美国地区定价为每月 8 美元(IT之家注:现汇率约合 55.5 元人民币),已于 1 月中旬在全球上线。 该公司表示,OpenAI 的付费订阅用户 —— 包括 Plus、Pro、Business、Enterprise 及 Education 版本,不会看到广告。 OpenAI 在一篇博客文章中回应了外界对广告可能影响用户体验的担忧:“广告不会影响 ChatGPT 给你的回答,我们也不会向广告商泄露你与 ChatGPT 的对话内容。我们的目标是:通过广告让更多人用上更强大的 ChatGPT 功能,同时守住用户在重要、私密事务上对 ChatGPT 的信任。” 这项举措其实早在一个月前就已公布,而在周日的超级碗广告中,其主要竞争对手 Anthropic 借此对其大加嘲讽。 在电视广告里,Anthropic 调侃部分 AI 公司(如 OpenAI)即将加入广告功能,并展示了广告整合不当会如何严重破坏用户体验。画面中,面无表情的演员扮演 AI 聊天机器人,在给出建议的同时,弹出毫不相关的劣质广告。 OpenAI 首席执行官山姆 · 奥尔特曼对此极为不满,称这些广告“不诚实”,并指责 Anthropic 是“威权主义公司”。 截至目前,消费者普遍反对在 AI 回复中植入广告。去年年底,OpenAI 测试类似广告的应用推荐功能时就曾引发用户强烈反对。但这家 AI 公司仍需要从这款热门聊天机器人中创造收入,以覆盖技术研发和业务扩张的成本。 尽管此举可以理解,但批评人士担心广告可能会影响 ChatGPT 的回答内容。OpenAI 在公告中予以否认,称广告将根据“对你最有帮助的内容”进行优化,并表示所有广告都会明确标注为赞助内容,与原生内容清晰区分。 在测试中,OpenAI 尝试根据用户对话主题、历史聊天记录及过往广告互动情况匹配广告。例如,搜索食谱的用户可能会看到生鲜配送或餐食套件的广告。OpenAI 称,广告商无法获取用户个人数据,仅能获得浏览量、点击量等汇总后的广告效果数据。 用户还可以查看自己的广告互动记录,并随时清除。此外,OpenAI 表示用户可以关闭广告、提交反馈、查看广告投放原因,并管理广告个性化设置。 18 岁以下用户不会看到广告,广告也不会出现在健康、政治、心理健康等敏感或受监管话题相关的内容附近。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。