行业分类:
加载中...
头条分类:
加载中...
到现在还没用过AI写文章,有跟我一样的微信公众号作者吗?
“有人找我做课了,我要割韭菜了,握拳。”这是一位资深科技投资人在某社交平台上发布的一条消息,他做过的AI领域报告曾被多家媒体引用报道,妥妥地AI领域大KOL,没想到也入了“AI的尽头是卖课”这个大坑。 从OpenAI的ChatGPT到后来的Kimi,再到DeepSeek,再到腾讯元宝、豆包、文小言、通义,AI大模型领域的热点一直持续了2年多的时间,科技互联网行业似乎又一次因为AI而回到“小阳春”,数据显示,截至2025年3月31日,共有346款生成式人工智能服务完成备案。 一面是各种各样的AI大模型产品不断向市场涌现,几乎每段时间都能看到有新的产品/新功能推出;另一方面,是短视频、直播和社交网络向用户端的强化,再加上媒体和自媒体的推波助澜,AI大模型已经到了“人人皆知”的地步。 作为自媒体人,被AI给Push的机会更多,当你打你某内容平台的后台,刚输入标题,平台就会告诉你可以使用“AI帮你写”功能,其实只要你想,不只是DeepSeek,腾讯元宝、豆包、文小言、通义等任何一款大公司的AI产品都能帮你写作。 但问题恰恰就在于:当铺天盖地的AI大模型满天飞的时候,我恰恰对于用AI来写文章保持警惕,不敢轻易用,所以,到现在我都还没用过AI写文章,有跟我一样的微信公众号作者吗?想必会有一些。 不能代替思考和观察 一般初次使用AI大模型产品的人会有两种状态: 一种是极度狂热,认为AI无所不能,或者说是内心深处的好奇心被彻底激发,各种各样的内容都想用AI去试一试,轻轻松松就能生成一两千字,甚至更多字数的内容,并且看起来文章还“挺好”。 另一种是,认为AI没用,看着AI生成的内容很好,但若你仔细斟酌,精推细敲的话,就认为AI在胡说八道,或者说,当你想要AI给你做一个立刻、马上就能用的方案的时候,AI的东西很有可能没法儿看,而这种对AI的“实验”只要有四五次,就会对AI大模型彻底祛魅,并且再也不理所谓的AI。 作为微信公众号作者,很容易沉迷于前一种状态,因为操作简单方便,无需经过大脑思考,你辛辛苦苦花好几天时间写的稿子,可能还没有AI五分钟自动生成的内容看起来好,再加上人总有“偷懒”的想法,有时候就想着“用AI搞一篇算了”的想法。 然而,真当你想用“AI水一篇”的时候,某种程度上也是“水”自己。理论上说,任何人在自己的微信公众号上发布文章,都是“零门槛”,特别是个人类微信公众号,你想发什么就随便发。 可是,你要想想两个问题: 1.你“水”公众号粉丝的时候,粉丝们如何看? 2.你完全无所谓公众号的订阅者,纯粹就是搞着玩儿。 如果你真正想把微信公众号给做好,显然不会“水”粉丝的。公众号作者与粉丝的关系是:订阅者受文章的吸引而关注某个账号,当订阅者发现账号没有价值或者不感兴趣的时候,就会随时取关。 用AI发“水文”会导致两个问题: 1.没流量(并不绝对)。 2.粉丝取关。 就像我运营“郭静的互联网圈”这个账号一样,我的初心是自己的思考和观察,AI大模型能够帮人写文章,但它并不能代替你思考,同样一件事情,每个人的看法和思考不会完全相同,而这种差异化,正是我自己想做且也不想被任何人/工具取代的。我写文章的目的,首先就是自己的思考。 其次,就是对行业的观察。大家都知道现在几乎没人会去写新闻,大部分在做的就是复制、粘贴,用他人的新闻,或者炒热点,没几个人会真真正正去观察行业,像十几年前一样写新闻,但越是这种稀缺性的时候,恰恰越是证明自己的机会。 你让AI帮你写文章可以,但是你让AI教你怎么做行业观察就有点儿没谱,可能它可以为你提供一些思路,然而,真正找到有价值的新闻点,还是得靠个人自己去挖掘。当然,这里显然不只是局限于我自己写的科技互联网行业,汽车、财经、体育、科学等,各个领域的创作者都应该通过自己的观察去找内容,这是AI没办法做到的。 在任何一个行业,你自己的观察与思考,你自己的躬身入局,这些都是AI没办法替代的,所以,没必要总是被一些“颠覆”、“淘汰”、“赢了”、“逆天”等夸张的词汇给吓坏,坚守本心某种程度上也是一堂人生必修课。 对于微信公众号作者而言,我常常想的一个场景就是:自己就是一家商店的老板,自己写的文章就是店里摆着的商品,粉丝们就是顾客,那么,作为顾客,显然不想看到商店里都是看着破破烂烂的东西,要么好看、要么有用,而不是千篇一律的“XXX造”内容。 不要局限于写文章 面对发达的AI,如果完全对它不理不睬,那也挺吃亏,新科技、新的工具,必然会带来新的生产力和生产效果。 某次我和朋友一起去外地旅行,面对完全不知道的建筑物和景区的人物,以及相关历史背景,我自己是一筹莫展,眼瞅着朋友不断地与AI进行对话,不断地追问,从而得到一些我们完全不知道的信息,AI的作用在这里显然就具象化了。对待AI大模型的态度,我认为不要局限于写文章上,那么,AI大模型对于普通人来说,到底能干什么呢? 首先,提供搜索帮助。搜索引擎曾经是PC端的入口级产品,但到了移动端,各个App都是信息孤岛,搜索引擎的价值大大降低,搜索引擎还有一个Bug就是铺天盖地的广告,你随便输入一个关键词,头部三条广告、尾部三条广告,中间Feed流里还有一两条广告,在一整个十条搜索结果中,你要花费相当长的时间去过滤广告,才有可能找到想要的内容。 而AI则没那么麻烦,你输入相对精确的内容,它都会给出你想要的答案,并且,没有广告。所以,你别看现在搜索引擎的AI搜索喊得天花乱坠,但只要它的盈利模式没办法脱离搜索广告,那么,最终还是一个不伦不类的产品。 在用户体验方面,AI大模型“吊打”传统搜索引擎,一旦你习惯了AI大模型的用户体验后,传统搜索引擎真是用不了一点。 其次,整理思路。对于某些用惯了AI大模型的用户来说,现在没有AI可能都不知道怎么工作了。AI的主要作用就是,帮助工作中理顺思路,比如,“帮我做一个XXX的申报材料”、“我想写一个XXX的PPT,帮我整理下模板”。 在绝对精确的结果面前,AI大模型目前还有改善空间,但在相对模糊或者说不需要那么精确的内容面前,AI简直就是“神器”,它可以帮你整理思路,而在工作中,只要有这个“思路”,接下来的内容其实就比较容易,AI充当了“助理”的角色。 最后,“用魔法打败魔法”。腾讯、阿里巴巴、抖音、百度等巨头都有AI产品,那么,作为用户,就会有各种各样的机会来“实验”巨头们的产品究竟靠不靠谱,比如,前几天,我试了某巨头旗下的AI产品,让它帮我写一个有严格参考资料的百科,再按照AI的提示去做百科词条,虽然最后并未成功,但这里的借鉴意义就在于,“用魔法打败魔法”。 比如,你想做微信公众号,不知道怎么做,不知道方向,甚至不知道该用哪些选题,这种时候,就可以用腾讯元宝试试,并让它为你提供相对靠谱的操作方案。当你想做抖音的时候,就可以用豆包来告诉你该怎么操作,用什么样的人设,什么样的服化道,什么样的背景,以及一步一步该怎么拍摄、怎么剪辑等等。 一方面,可以检验出各个巨头AI大模型产品的实力;另一方面,也能为自己打开新的通路,当然,整个过程中,AI都是“助理”的角色,最终的操作还是要你自己来进行。 我的微信公众号从2013年做到现在,有时候在后台能看到关注10年的老粉丝留言、点赞、在看,都会感到对方在背后默默支持,这种情况下,肯定不希望用一些AI写的“水文”来糊弄他们,AI可以帮我做很多事情,但写文章这件事不行,不能让AI干扰自己的思考和观察和判断,有时候信息过多也是一种负担。 前天有位好友在群里转发了一条AI相关的短视频,说我们也可以作为参照,选一个赛道做深,我把视频看到最后发现:博主啰里吧嗦说了一大堆,最后来了一句,“那我现在也准备给我的粉丝开一门这样的课程,让大家从零基础都能够建造自己的智能体”。 也就是说,你把AI说得天花乱坠,最后还是“卖课”啊,真不知道这些花钱买AI课的人是怎么想的。
语言学习平台多邻国拥抱人工智能:推出148门AI生成新课
IT之家5月1日消息,据外媒TechCrunch今日报道,语言学习平台多邻国宣布,推出 148门由生成式AI打造的新语言课程。 就在不久前,IT之家曾报道了该公司宣布将以AI替代合同工,并转型为“AI 优先”企业的消息。 多邻国表示,新的课程让公司现有的课程数量翻倍,成为该公司历史上内容扩展幅度最大的一次。 多邻国联合创始人兼首席执行官Luis von Ahn在新闻稿中表示:“我们花费了12年时间开发了前100门课程,而现在,仅仅一年时间,我们就能推出近150门新课程。这充分展示了生成式AI如何直接帮助我们的学习者。此次发布体现了我们在AI和自动化方面投资的显著成效,这使我们能够以前所未有的速度和质量进行内容扩展。” 尽管多邻国在大力宣传其AI应用,许多用户却对公司计划通过AI取代工人并在应用中深入使用AI的做法感到失望。 周一,von Ahn通过电子邮件向员工宣布,公司正在转向AI,未来将“逐步停止使用合同工处理AI能够完成的工作”。他还补充道:“只有当团队无法进一步自动化工作时,才会增加人力。” 许多用户在社交媒体上表示不满,认为多邻国的AI应用使得App内容质量下降,不准确且不可靠。有些用户已删除应用并呼吁他人也这样做。 至于新推出的语言课程,多邻国表示,这些课程主要面向初学者,课程内容包括“故事”功能,有助于提升阅读理解,以及“DuoRadio”功能,帮助提高听力理解。公司还计划在未来几个月推出更多进阶内容。
Meta发布ReasonIR-8B:破解AI复杂推理检索难题,刷新BRIGHT纪录
IT之家5月1日消息,科技媒体marktechpost昨日(4月30日)发布博文,报道称Meta AI推出ReasonIR-8B模型,专为推理密集型检索设计,不仅在检索精度上取得突破,其低成本和高效率也使其成为实际应用的理想选择。 当前检索增强生成(RAG)系统在处理复杂推理任务时,常常因检索器性能不足而受限。传统检索器多针对简短事实性问题训练,擅长文档级别的词语或语义匹配,但面对长篇或跨领域查询时,难以整合分散知识,这种缺陷会导致错误信息传递,影响后续推理效果。 Meta AI推出的ReasonIR-8B模型直击这一痛点,基于LLaMA3.1-8B训练,结合创新数据生成工具ReasonIR-SYNTHESIZER,构建模拟真实推理挑战的合成查询和文档对,更精准支持复杂任务。 ReasonIR-8B采用双编码器(bi-encoder)架构,将查询和文档独立编码为嵌入向量,通过余弦相似度评分。其训练数据包括长达2000个token的多样长度查询(VL Queries)和需逻辑推理的困难查询(HQ),有效提升模型处理长上下文和抽象问题的能力。 在BRIGHT基准测试中,该模型原查询得分达24.4 nDCG@10,结合Qwen2.5重新排序后提升至36.9,远超更大的Rank1-32B模型,且计算成本低至后者的1/200。此外,在MMLU和GPQA等RAG任务中,模型分别带来6.4%和22.6%的显著提升。 Meta AI目前已在Hugging Face上开源ReasonIR-8B模型、训练代码及合成数据工具,鼓励研究社区进一步探索多语言和多模态检索器的开发。
英伟达CEO黄仁勋造访白宫:希望特朗普修改AI芯片出口规则
快科技5月1日消息,据媒体报道,美国当地时间周三, 英伟达公司首席执行官黄仁勋造访白宫时表示,他希望特朗普政府修改从美国向全球出口人工智能(AI)技术的相关法规,以便美国企业能更好地抓住未来的机遇。 “我们需要加速美国AI技术在全球的扩散,”黄仁勋在与媒体的简短会面中表示,“政府的政策和鼓励措施必须真正支持这一点。” 与此同时,黄仁勋还呼吁美国政府放宽人工智能图形处理单元出口规定,但媒体报道特朗普政府计划加强控制。 众所周知,英伟达目前主导着用于训练AI模型的尖端AI芯片市场,但其向中国客户销售最先进产品的渠道已被切断。 据媒体此前报道,一位不愿透露姓名的白宫官员近日曾透露,来自国防、科技、医疗保健、消费品行业的公司以及投资基金机构已受邀参加特朗普第二任期前100天内活动,并将在白宫官邸前厅展示他们的产品。 特朗普预计将在此次活动上大力宣传其政府从各大公司争取到的众多投资承诺,这些承诺总额预计达到2万亿美元。 白宫新闻秘书卡罗琳·莱维特在一份声明中表示:“特朗普总统在上任100天内为美国争取到的投资,比拜登在四年任期内争取到的还要多。” 英伟达此前已宣布,将在美国本土生产英伟达的AI超级计算机,未来四年计划在美国生产价值高达5000亿美元的AI基础设施。
AI圈惊天丑闻,Meta作弊刷分实锤?顶级榜单曝黑幕,斯坦福MIT痛斥
编辑:编辑部 ZJH 【新智元导读】刚刚,LMArena陷入了巨大争议,斯坦福MIT和Ai2等的研究者联手发论文痛斥,这个排行榜已经被Meta等公司利用暗中操作排名!Karpathy也下场帮忙锤了一把。而LMArena官方立马回应:论文存在多处错误,指控不实。 已经有越来越多的人发现:大模型排行榜LMArena,可能已经被大厂们玩坏了! 就在最近,来自Cohere、普林斯顿、斯坦福、滑铁卢、MIT和Ai2等机构的研究者,联手祭出一篇新论文,列出详尽论据,痛斥AI公司利用LMArena作弊刷分,踩着其他竞争对手上位。 与此同时,AI大佬、OpenAI创始成员Andrej Karpathy也直接下场,分享了一段自己的亲身经历。 前一段时间,Gemini模型一度在LMArena排名第一,远超第二名。 但Karpathy切换使用后,感觉还不如他之前用的模型。 相反,大约在同一时间,他的个人体验是Claude 3.5是最好的,但在LMArena上的排名却很低。 他还发现一些其他相对随机的模型,通常小得可疑,据他所知几乎没有现实世界的知识,但排名也很高。 他开始怀疑,谷歌等AI巨头在暗中操纵LMArena的排名。 要知道,就在本月初,就有报道称LMArena可能正在成立新公司,筹集资金。 在这个时候曝出丑闻,不知对此是否会有影响。 业内联名痛斥巨头 巧钻漏洞,暗箱操作 这篇报告,研究者花费了5个月时间分析了竞技场上的280万场战斗,涵盖了43家提供商的238个模型。 结果表明,少数提供商实施的优惠政策,导致过度拟合竞技场特定指标,而不是真正的AI进步。 因为存在未公开的私下测试机制,少数公司能在模型公开发布前测试多个变体,甚至选择性地撤回低分模型的结果。 如此一来,公司便可以「挑三捡四」,只公布表现最好的模型得分,从而让LMArena的排行榜的结果出现严重「偏见」。 而这种优势,会随着变体数量的增加,而持续叠加。 私下测试模型变体数量对最佳预期得分的影响 「best-of-N」提交策略对排名的模拟影响 允许撤回评分会导致提供商有意抬高竞技场分数 比如说,Meta在发布Llama 4之前,曾私下在LMArena上测试了27个LLM变体。 而最终只公布了其中一个分数。 巧的是,这个模型恰恰就在LMArena上名列前茅。 Cohere的AI研究副总裁、论文合著者Sara Hooker在接受外媒采访时抱怨说:「只有少数公司会被告知可以私下测试,而且部分公司获得的私下测试机会,远超其他公司。」 「这就是赤裸裸的儿戏。」 从「行业标准」到「人人喊打」? 与此同时,研究者还发现: 闭源商业模型(如Google、OpenAI的模型)在LMArena中参与次数更多 与之对比,开源模型(开放权重)不仅对战次数较少,而且更容易在Arena中被移除 这导致了一个长期的数据访问不平等现象 不同模型提供者的最大观测采样率 采样率反映了模型在LMArena中被普通用户看到的频率,也直接决定了该模型开发者能获取多少用户交互数据。 LMArena是一个开放的社区资源,提供免费反馈,但61.3%的所有数据都流向了特定的模型提供商。 具体来说,他们估算: Google和OpenAI的模型分别获得了Arena上约19.2%和20.4%的全部用户对战数据 而83个开源模型的总数据占比仅为29.7% 模型开发者的数据可用性情况 而保守估计哪怕是有限的额外数据,也可能带来高达112%的相对性能提升。 这进一步说明模型在Arena上的表现很容易被「过拟合」——即优化的是排行榜表现,而不是真正的通用模型质量。 值得注意的是,LMArena的构建和维护依赖于组织者和开源社区的大量努力。 组织者可以通过修订他们的政策来继续恢复信任。 论文还非常清楚地提出了五个必要的改变: 公开全部测试 限制变体数量 确保移除模型的公平性 公平抽样 提高透明性 官方回应 论文有大量错误和诋毁 铺天盖地的质疑袭来,LMArena火速出来回应了! 它的官号第一时间发推回应称,这项研究存在诸多事实错误和误导性陈述,充满了「不确定和可疑的分析」。 而他们的说法,得到了谷歌DeepMind首席研究员Armand Joulin的声援。 他表示,论文中的一些数据是不准确的,比如谷歌只向LMArena发过一个Gemma 3的模型,进行预发布测试。 具体来说,关于某些模型提供商未得到公平对待的说法: 这不符合事实。LMArena表示他们一直尽力满足所有收到的评估请求。如果一个模型提供商选择提交比另一个模型提供商更多的测试,这并不意味着后者受到了不公平对待。每个模型提供商对如何使用和重视人类偏好都有不同的选择。 事实错误: LMArena的模拟(如图7/8所示)存在缺陷。这就像说:「NBA的平均三分球命中率是35%。库里的三分球命中率是NBA中最高的,为42%。这不公平,因为他来自NBA球员的分布,而他们都有相同的潜在均值。」 论文中的许多数字与实际情况不符。LMArena在几天前发布了博客,公布了不同提供商的测试模型的实际统计数据。例如,开源模型占40%,而不是8.8%! 所谓112%性能提升的说法具有误导性,论文的结果基于LLM-judge基准,而不是Arena中的实际人工评估。 LMArena的政策并非「秘而不宣」。早在一年多前,LMArena就设计并公开分享了他们的政策。 模型提供商不仅仅选择「要披露的最佳分数」。公共排行榜上列出的任何模型都必须是所有人都可以使用的正式版本,并且计划提供长期支持。LMArena会使用新的数据对模型进行至少一个月的持续测试。LMArena的政策中一直明确说明了这些要点。 显示无法通过API或开源权重公开获取的预发布模型的分数毫无意义,因为社区无法使用这些模型或自行进行测试。这将违反LMArena一年多以前制定的政策。LMArena制定这项规则正是为了明确这一点:如果模型在排行榜上,则必须保证可用性。 模型下架并非不公正或缺乏透明度,这与事实不符。排行榜旨在反映社区对最佳AI模型进行排名的兴趣。LMArena还会下架不再向公众提供的模型。这些标准已在我们的政策中公开声明,并且在社区进行私下测试期间始终有效。 LMArena的政策(上下滑动查看) 要不,换个平台试试? 正如贝佐斯所说:「当数据与个人经验不一致时,个人经验通常是正确的。」 Karpathy也有同感。 他认为这些大团队在LMArena分数上投入了太多的内部关注和决策精力。 不幸的是,他们得到的不是更好的整体模型,而是更擅长在LMArena上获得高分的模型,而不管模型是否更好。 对此Karpathy表示,既然LMArena已经被操控了,那就给大家推荐一个有望成为「顶级评测」的新排行榜吧! 它就是——OpenRouterAI。 OpenRouter允许个人/公司在不同LLM提供商之间快速切换API。 他们都有真实的用例(并非玩具问题或谜题),有自己的私有评测,并且有动力做出正确的选择,因此选择某个LLM就是在为该模型的性能和成本的组合投票。 Karpathy表示,自己非常看好OpenRouter成为一个难以被操控的评测平台。 创始成员离开 初心或已不在 如今的爆火,或许让人早已忘记,LMArena最初只是UC Berkeley、斯坦福、UCSD和CMU等高校的几位学生自己做出来的项目。 和传统评测不同,LMArena采用的则是一套完全不同的方式—— 用户提出问题,两个匿名AI模型给出答案,然后评判哪个回答更好,并最终将这些评分被汇总到一个排行榜上。 凭借着这套创新性的方法,它一举成为了当时几乎唯一一个能较为客观地反映LLM性能的榜单。 在输入框中输入问题,两个不同的模型A和B同时回答。之后,用户可选A或B的不同评价:A更好,B更好,平局,都不好 随着科技公司投入数百亿美元押注AI将成为未来几十年的决定性技术,LMArena也迅速走红。 在吸引客户和人才方面,任何领先竞争对手的优势都可能带来重大影响,这就是为什么众多科技高管和工程师像华尔街交易员盯盘一样密切关注LMArena。 之后的故事,大家就都知道了。 问题在于,作为课余项目的LMArena本身并不完善。之所以能在持续的爆炸性增长下不失客观性,靠的是创始人们坚定的初心。 随着创始成员陆续毕业,新成员的加入,LMArena似乎也离它最初的路线,越来越远。 一方面,由于投票不公开、以及哪些模型应该进入竞技场是由某几位成员独断决定的,导致LMArena自身机制就缺乏透明性。 另一方面,新团队在某个时间点突然决定,把LMArena开放给头部大公司做匿名模型测试。 这帮摸爬滚打了多年的老油条们,显然不会错失这一良机。基于对大量实测数据的分析,这些技术大佬们很快就「掌握」了LMArena的调性,纷纷刷起了高分。 从此,质疑声便开始此起彼伏。
万字长文:AI将怎样改变我们的社会?
导读 当人类历史很可能正迎来一场人工智能革命——步入一个由其主导经济生产和社会生活的新阶段。已有迹象表明,中美两国将在这一领域占据领先地位,并成为争夺主导权的主要竞争者。我们推测,人工智能革命可能会催生一个“后知识社会”,在这个社会中,知识本身不再像今天这样重要。相反,个体关系、社会身份,以及软技能(包括有效使用人工智能的能力)将变得更加重要。 本文聚焦基于大语言模型的生成式人工智能的社会影响,分析促进其技术发展的社会因素,并讨论其在扩大国际和国内社会不平等方面的潜在影响。 撰文 | 谢宇 索菲娅·阿维拉 (Sofia Avila) ● ● ● 随着OpenAI的ChatGPT和谷歌公司的Gemini(原名Bard)等基于大语言模型(LLM)的生成式人工智能(AI)工具的出现,人们自然地开始思考这种技术可能带来的社会影响。本文中,我们将基于大语言模型的生成式人工智能(Generative Large Language ModelAI,GenAI),并旨在对其社会影响进行初步探讨。 关于GenAI的社会影响的问题无疑至关重要,然而,目前的任何答案都只能是初步且推测性的。GenAI的发展仍处于早期阶段,我们可能需要数年甚至数十年的时间,才能完全认识其社会影响。然而,结合历史上技术变革的经验、对当前GenAI技术的理解、对社会的实证研究以及社会学的推理,我们可以进行初步的推测性讨论。 我们认为,GenAI的社会影响是巨大的,它不仅可能彻底改变商品和服务的生产方式,还可能从根本上重塑人类社会的组织方式和日常生活的本质。实际上,这项技术有可能显著加剧国际和国内的社会不平等,我们将在后续部分分别讨论这些议题。在探讨这些议题时,我们必须始终牢记,分析仅是推测性的,因为目前对这项技术及其能力的认知仍然有限。撰写本文时,我们借鉴了丹尼尔·贝尔(Daniel Bell)在1973年的开创性著作《后工业社会的来临》中所展现的雄心和风格。贝尔的著作早在数字时代真正到来之前就已出版,为我们讨论GenAI这项新兴变革性技术的未来影响提供了一个范本。 由于GenAI的潜在社会影响过于广泛,我们无法在一篇文章中全面探讨所有相关议题。此外,关于这项新兴技术的知识和想法仍在不断演进。因此,我们将在本文中以如下方式聚焦并展开讨论。首先,我们将探讨一些有利于GenAI技术发展的关键因素。然后,在此基础上,讨论这些因素如何塑造全球竞争格局,特别是中美两国之间在GenAI技术开发上的竞争,并推测这种竞争对跨社会不平等的潜在影响。接下来,我们将研究在采用GenAI的国家内部,GenAI日益增加的应用会如何改变职业结构以及扩大收入不平等。最后,我们通过对比在过去的经济活动中不平等产生和代际传递的方式,审视GenAI在更宏大的经济生产历史背景中的位置,并预测未来可能发生的变化。 01 影响GenAI发展的因素 探讨推动GenAI发展的因素对于理解这项技术的社会影响将会大有裨益。这有助于我们预测哪些国家可能主导GenAI的开发——这是决定哪些国家会承受哪些经济和社会政治后果以及判断不同人群在何种程度上可能经历职业结构变化的关键因素。 (一)规模因素 需要明确的是,GenAI是一项技术,而非一项科学发现。技术有两个显著特点:累积性和共享性。首先,技术具有累积性,每项新技术进步都会增加现有技术的储备。除了极少数的保密或知识丧失的情况,技术发明的积累随着时间增长。其次,技术具有共享性,新的发明不仅惠及发明者,也惠及整个共同体。尽管某些技术有时受到家庭、企业或国家的知识产权保护,但重要的是一个共同体的“最佳”技术,而非个体层面的平均技术。因此技术是属于共同体的,就其内在属性而言是共享的。这里的共同体可以是民族国家、次国家区域,或是拥有相同语言、文化或政治体系的国家集群。在GenAI的背景下,共同体的规模(我们称之为“规模因素”)极为重要:规模越大越好。我们提出四个原因来解释这一点。 第一,社区的规模对GenAI技术的发展至关重要。过去,技术发明通常源于努力尝试和反复试错,而非科学推导(Bell,1973)。一项给定的发明不太可能是纯粹偶然的结果,假设其他条件相同,一个更大规模的技术交流群体会有更多的试错机会,从而提高在共同体内产生重大发明的可能性。例如,古代中国尽管没有现代意义上的科学体系,但在技术上却表现出色,这在很大程度上得益于其庞大的人口基数,大规模的人口促成了无数的试验和改进。此外,中国悠久的书写传统进一步促进了信息在群体中的共享。 如今,技术进步依赖于现代科学而非简单的试错。因此,开发GenAI技术需要受过充分训练的人力资源,但相对于拥有相似教育水平的小规模人口,一个更大规模的人口更容易提供足够的资源,以培养一批受过科学训练的人才来满足这一需求。 第二,共同体的规模越大,开发GenAI技术的成本效益就越高。这一原则源于经济学中的规模经济概念,即更高的生产水平能降低单位成本。开发GenAI技术需要大量投资,包括最新的计算机硬件、复杂算法和庞大的数据处理能力。只有在足够大的市场中,私营企业才能分摊这些成本并实现盈利。此外,GenAI具有“非竞争性品”的特征(Romer,1990):新增用户的使用基本不会减少其可用性或价值。一旦开发完成,新增用户的边际成本几乎为零。所以大市场中的企业能够负担高昂的开发成本,后续还可以从庞大的消费群体中收回巨额成本。由于消费的边际成本近乎为零,以及有互联网作为传递技术的机制,更大的共同体促进了GenAI技术的消费。 第三,由于技术的第一个特征——累积性,GenAI技术还应体现出一个在科技领域常见的模式:累积优势。正如我们所解释的,大市场中的企业有可能先行开发GenAI技术,因为他们具备吸收高成本的条件。然而,即便技术成熟并能被其他企业复制,先行者依然拥有一项基本的优势——累积优势。累积优势源于两方面。一是用户在某个GenAI应用上习得的知识和技能并不能完全转移到新的GenAI应用上。也就是说,一旦个人或企业投入时间去熟悉某个GenAI企业的产品,其转向其他产品的成本就会更高。二是用户与GenAI界面的互动本身就是改进技术的重要数据。因此,先行企业能够利用用户数据进一步将其产品与竞争对手的产品区分开来。当然,在生成式人工智能领域,“先行者”并不一定能够保证获得优势———他们的创新可能会被资源丰富的竞争者复制并改进。但总体而言,GenAI技术的初步开发有利于大型共同体,一旦取得成功,这些共同体会以自我强化的方式持续繁荣。 第四,规模大且识字率高的共同体在生成大体量数据方面具有优势。人类历史迄今为止经历了三次重大技术革命:农业革命(约公元前10000年)、工业革命(约18世纪)和信息技术革命(约20世纪后期)。我们即将迎来第四次技术革命——人工智能革命。农业依赖土地和气候,工业依赖资本,信息技术依赖人力资本,而人工智能则依赖大量数据用于训练和微调(同时在某种程度上仍然依赖人力资本)。一个人口众多且相对富足的社会,有能力获取充足的人力资源和数据。 综上所述,本节阐明了规模因素在GenAI技术发展中的关键作用。经济上的效率低下、实际挑战以及数据不足是小型社会在开发该技术时面临的主要障碍。有意思的一点是,规模因素的作用在农业技术中曾至关重要,但在工业时代的重要性有所减弱,而在当前以GenAI技术为标志的人工智能革命中,规模因素重获重要地位。 (二)语料库特异性和语言特异性 GenAI系统之所以能够生成有用的类人文本响应,是因为它们的训练依赖语料库(即大批文本的集合)作为输入。因此,任何GenAI的表现都必然受到其所使用的特定语料库的影响。换言之,这项技术的表现取决于所用语料库的质量。这种对特定语料库的依赖限制了GenAI的能力。例如,在叙述历史事件时,GenAI的准确性上受限于训练数据的覆盖范围和准确性。如果某些历史事件由于被忽视、证据有争议或因政治审查而未被记录,这些内容就无法在模型的响应中得到准确的反映。此外,不同语料库可能会导致不同的输出。在考虑到语料库的文化和政治背景时,这一特性尤其重要。在多元文化或国际语境中,不同语料库可能反映不同的叙事和偏见,从而得到不同的响应。 已有研究揭示了基于英文的GenAI技术中的性别与种族偏见(Kantharuban et al.,2024),例如,ChatGPT的回答会因用户姓名所暗示的种族和性别而有所不同。即使用户未明确透露自己的种族,GenAI也可能生成带有种族刻板印象的推荐内容(Kantharuban et al.,2024)。此外,不同语言之间的差异也可能较大。例如,用英语和中文提出一个相同的问题,可能会产生不同的回答,这反映了每种语言所特有的叙事和背景。正如Kan-tharuban et al.(2024)所指出的,大语言模型生成的回应反映了用户的需求以及用户的身份。 为理解语言在GenAI中的作用,我们在2023年12月测试了OpenAI的ChatGPT4.0:用英语、中文、日语和缅甸语四种语言向ChatGPT4.0提出一系列相同的问题。除改变语言外,我们还改变了用户的民族身份,例如将用户设定为中国人或日本人。部分问题涉及政治和文化,其中一个问题是关于一位著名的政治领袖,另一个问题则是关于“龙”。我们在实验中有以下发现。 其一,对于各国普遍认可的概念和事实,例如科学术语和科学发现,不同语言之间的回答没有差异。 其二,对于各文化之间有所不同的概念,如餐桌礼仪,语言的影响小于用户身份的影响。 其三,对于在特定语言中具有独特含义的概念,如“龙”,输入的语言会产生影响,无论用户的自我认同如何设定。 其四,对于根据政治体制或国家而具有不同含义的术语或概念,语言的影响显著。在涉及政治敏感的术语或概念上,用户使用中文输入时得到的回答与使用英文时有显著不同。这是一个令人惊讶的发现,因为我们使用的都是ChatGPT4。 其五,用英语提问和用例如缅甸语这样的小语种提问,得到的答案差异很小(尽管部分回答并不连贯或难以理解)。我们推测ChatGPT的小语种回答是基于英文语料库生成的。 后三点体现了GenAI的语料库特异性,即语言特异性。这是因为GenAI的训练需要的数据集——语料库,只能存在于特定的语言中。虽然理论上GenAI技术可以将用户输入翻译成不同语言,但它在原始训练数据的语言(如英语)中表现最佳,因为许多表达方式是某种语言所特有的,无法轻易转译。换言之,翻译技术具有内在的性能限制。因此,即使算法完全相同,GenAI模型的响应也会因输入的语料语言不同而有所差异。由于GenAI技术的语料库是特定语言的文本数据,语言在最终产品中具有影响力,部分是通过前述的“规模因素”。规模越大,语言对技术性能的影响力越显著。我们注意到,语言并不一定局限于单一国家,例如英语在许多国家和曾为英国殖民地的地区使用。 相反,一个国家内可能使用多种语言,如加拿大的英语和法语,印度的多种官方语言。因此,GenAI技术生产的一个重要因素是使用某种语言的人口规模。不同语言的人口规模有很大差异。在图1中,我们列出了世界上最常用的语言,英语居于首位(有13亿使用者),其次是中文(有11亿使用者)。尽管印度是目前世界上人口最多的国家,但印地语的使用规模仅排第三。 图1 各语言使用人口规模 数据来源:《民族语》(Ethnologue)2022年,第25版。 像世界上其他社会和自然现象一样,语言使用的分布高度偏斜,遵循幂律分布。少数语言,如英语和中文,为大量人群使用,而大多数语言的使用人群很少。在图2中,我们展示的图像表明语言使用人口规模符合幂律,其帕累托系数为: 图2 各语言使用人口规模的幂律分布 数据来源:《民族语》(Ethnologue)2022年,第25版。 另一个复杂之处在于,使用某种语言的人口规模不能完美预测该语言的文本数据量。例如,虽然印地语是第三大语言,但印地语使用者中仍不识字的占很大比例,因此无法产生文本数据(Statista,2024)。此外,因为印度的许多精英使用英语接受教育以及交流,印地语的文本信息无法与其使用者规模排名相符。例如,在报纸和杂志出版方面,印地语排名第四;在书籍出版方面,印地语未进入前12名(Lobachev,2008)。因此,语料库和语言特异性会为拥有庞大且受过良好教育人口的语言共同体带来优势。 02 国家间的不平等 正如前文所述,GenAI技术的发展优势或劣势难以简单地以国家为单位来衡量。毕竟,规模因素和语料库的特异性是对语言和社会文化共同体造成优势和劣势,而这些共同体的分布并不一定与国家边界完全重合。然而,在分析GenAI技术的竞争格局时,以国家为分析单位仍然具有重要意义。 GenAI技术的投资和发展主要源于人们认为其在提升经济生产力方面的潜力。随着GenAI技术的不断进步,可以预期该技术的分布格局将发生显著变化。目前,GenAI的企业对企业商业模式主要采取订阅制的企业软件形式,即采用GenAI技术的企业需要向GenAI供应商如OpenAI支付月费或年费。随着技术改善以及企业围绕技术调整战略,企业可能会减少雇佣并且逐步实现工作任务的自动化。从本质上讲,这可以被理解为一种外包形式,企业使用更为廉价的第三方替代服务来完成部分任务,从而提升自身利润,同时也增加了服务提供商的利润。当工作被外包至他国时,原本可以留在国内的资金可能会流失。这在GenAI的情境下尤为重要,因为开发这些工具的主导企业集中在少数几个国家,因此很可能会捕获该技术产生的相当大一部分收益。 除了经济方面的问题外,文化和社会因素也可能进一步加剧国家间的不平等。也就是说,对大规模语料库的需求系统性地让小语种人群处于不利地位,因为他们可能受制于开发GenAI技术的国家在文化和政治上的主导。GenAI工具生成的内容基于其训练数据,因此会反映这些文本和图像背后的态度和观念。例如,OpenAI的GPT-3的训练数据有大约60%来自CommonCrawl(Brown et al.,2020),这个互联网档案库包含了规模以拍字节计的爬取自网络的数据。据估计,CommonCrawl的数据中有46%的文档主要是英语,这些内容可能充斥着英语创作者的价值观。 第二次世界大战后,全球政治的主要主题是民族独立和自决(Jackson,2000),从殖民统治中获得解放。如今由于AI革命,GenAI的到来显示出了逆转这一长期趋势的风险,因为它使小国重新依赖于处支配地位的国家。换言之,AI革命的到来可能会加剧国家间的不平等,使拥有先进AI技术的大国占据优势,使缺乏独立AI技术的小国面临不利局面。尤其是中美在地缘政治上的紧张和冲突,可能会引发全球技术竞争,使其他国家在技术上依赖它们。 GenAI技术也在全球范围内对当前的法律体系提出了挑战。长期以来,人们普遍接受每个国家在其领土范围内拥有发布法律的主权。然而,正如我们之前所讨论的,GenAI技术必然会超越国界。只有在数据隐私、政治审查和跨境数据流动等法律领域的国家差异得到解决后,才能实现GenAI的跨国共享。 目前,欧洲可以被视为数据监管的全球领先者:欧洲委员会的《欧洲数据战略》和《通用数据保护条例》共同构建了一个统一且受监管的数据市场,旨在实现确保欧洲的全球竞争力和数据主权的双重目标(EuropeanCom-mission,2024)。相比之下,美国缺乏联邦层面的数据监管框架,但一些州已制定了全面的数据监管法规,例如加利福尼亚州的《隐私权法案》和康涅狄格州的《个人数据隐私和在线监控法案》。值得注意的是,尽管截至2023年年底只有五个州拥有强有力的数据隐私法规,但另有14个州已通过隐私权立法,这些法规预计将在2026年年初以前生效。与此同时,中国正逐渐成为全球数据监管的重要力量。在过去五年中,中国制定了多项法律,如《网络安全法》、《个人信息保护法》、《数据安全法》以及《数据出境安全评估办法》。这些法律旨在建立一个由中央控制的数据治理体系,出于国家安全和公共利益的原因限制跨境数据流动,体现出数据监管方式的日益严格。在限制跨境数据流动的同时,中国政府与国内的AI企业合作,处理高价值的政府监控数据,助力国内的创新,提升这些企业的算法。例如,Beraja et al.(2022,p.1702)认为,这种公私部门的合作“可能为中国企业在面部识别的AI技术上成为领先的创新者提供了帮助”。 03 美国与中国的案例 如果GenAI的兴起可能加剧国家间的不平等,一个重要的问题是哪些国家可能成为这些工具的领导者,从而相对其他国家占据优势。一些学者和行业领袖认为,美国和中国有望利用其丰富资源和对AI研发的战略性投资,主导该领域(参见Graham et al.,2021)。我们根据上述影响GenAI发展的因素来考察这两个国家。 如前所述,美国和中国受益于其大量使用英语和汉语的人口。此外,大量文字作品以这两种语言发布。例如,1995年全球出版的918964个书名中,英文书名数量最多,达200698个,占总数的21.84%;其次是中文书名,达100951个,占总数的10.99%(Lobachev,2008)。与这些数字密切相关的是,中国和美国在书籍出版方面占主导地位。2015年,中国出版了470000本书,美国出版了近339000本,而英国则远远落后,以173000本排名第三(International Publishers Association,2016)。因此,美国和中国在获得用于训练GenAI系统的英语和汉语大型语料库方面拥有优势。 在技术能力方面,美国在GenAI创新方面处于领先地位,并且是该技术的创始国。尽管人工智能的确切起源尚存争议,但显然美国的大学在其创建中发挥了关键作用。有些人将GenAI技术的起源追溯到艾伦·图灵(AlanTuring),其1950年的论文《计算机器与智能》(“ComputingMachineryandIntelligence”)探讨了人工智能的数学可能性,并建立了构建和测试这些机器的框架。几年后,达特茅斯学院组织了达特茅斯夏季人工智能研究计划,这是一个历史性的会议,顶级研究人员测试了图灵的一些想法,并讨论了他们对该领域的愿景(Anyoha,2017)。神经网络对于GenAI模型的统计训练至关重要,而神经网络的开发也源于美国大学的研究,有时还得到美国国防高级研究计划局等政府机构的资助(Anyoha,2017)。 在过去的几十年里,GenAI技术的最前沿研究也在美国的公司里进行。事实上,曾在1996年战胜了国际象棋世界冠军加里·卡斯帕罗夫的著名象棋计算机“深蓝”,最初由卡内基梅隆大学开发,但最终在IBM研究院完成。多年以后,谷歌DeepMind—一个美英合作的研究实验室,通过其在神经网络模型方面的创新,在围棋比赛中战胜了一位职业选手。谷歌还开发了推动分子生物学领域重要进步的产品,并在GenAI研究领域发表了上千篇论文。谷歌还被认为是Transformer架构的创始者,这是一种广泛应用于大多数大型语言模型的深度学习架构。最后,在2019年获得微软巨额捐赠支持的OpenAI迅速崛起为该领域的领先者之一,其产品包括多个语言模型,最著名的是GPT-3和GPT-4,它们为广受欢迎的聊天机器人和虚拟助手ChatGPT提供支持。ChatGPT于2022年11月推出,并在次年1月便达到了1亿用户。OpenAI助力催生了一场“AI热潮”,这一热潮的特点是呈指数级增长的投资流向OpenAI和Anthropic等专门从事AI业务的公司,以及在AI领域占有重要地位的科技巨头,如Meta、苹果、Alphabet、亚马逊和微软。 GenAI领域的行业领导者主要集中在美国,但中国正迅速崛起,成为美国的强劲竞争对手(Chou,2023;Kallenborn,2019;Li et al.,2021)。中国的AI产业正在迅速发展,包括阿里巴巴、百度和腾讯等知名公司。更广泛而言,自1978年中国启动经济改革以来,持续快速的经济发展极大地推动了中国在科学技术方面的进步(Xie et al.,2014)。值得注意的是财富或财产积累很少,社会优势和劣势的传递主要通过基因和运气实现(Smith et al.,2010,p.21)。 农业革命之后,农业经济的特点是永久定居、人类组织和不平等的上升。随着农业的出现,人类开始拥有私有财产,其中最重要的是土地。由于农业生产高度依赖土地,土地所有权成为社会不平等的主要基础,土地的代际传递使社会优势和劣势通过继承的形式延续下去。后来,工业革命带来了机器,机器取代了人力和畜力,成为主要的生产资料(Bell,1973;Stearns,2020)。在工业经济中,制造品变得丰富,在历史上首次将生活水平改善到了生存线以上(Clark,2007)。对于少数资本家来说,资本的所有权成为收入来源,即财产收入(Piketty,2014)。然而对于大多数人来说,操作机器构成了劳动收入的基础。因此在这种经济中,社会优势和劣势的代际传递所采取的形式是技能传递和资本继承。 最近,我们正亲历被称为知识经济的后工业经济时代。丹尼尔·贝尔(Daniel Bell)在其1973年的重要著作《后工业社会的来临》(TheComing of Post-industial Society)中对这一概念进行了广泛讨论。知识经济的主要产出是服务。许多例行工作被计算机替代,知识的重要性日益增加。这显而易见,因为许多专业服务业,如法律、健康、金融和教育部门需要专业知识。因此,父母有强烈动机投资子女的教育,作为代际转移支付的方式。当然,对于少数富人来说,资本仍然是一项重要的生产要素。 如今,随着AI技术不断发展,我们可能会进入一个后知识经济社会,伴随而来的是新的代际不平等传递形式。我们推测GenAI将使知识在劳动力市场中的重要性降低。不仅是商品的制造,服务也将由AI驱动的机器实现自动化供应,因此大多数人可能不需要长时间工作,因为机器可以代替他们完成任务。如果这些技术的生产继续集中在少数国家,这可能会增加小国对美国和中国等国的经济依赖,并可能引向非正向的文化主导形势。除了国家间的不平等,国内社会也可能出现深刻的分化,少数人占据精英的位置并长时间工作,大多数人则对商品生产和服务提供的直接贡献很少。这可能带来职业阶梯消失的问题,传统的职业生涯路径被打破,劳动力市场更加深入地走向极化。 在未来的AI经济中,什么将变得最为重要?对于少数人来说,作为生产资料的资本和AI技术的所有权依然重要,而且可以传给下一代。对于已处于高职位的从业者,任务的多样性、高频率的客户接触,以及工作和个人身份的独特联系为其提供了工作保护。低收入职位中从事体力劳动或人际服务工作的工人也更少面临AI的直接威胁,经历这波经济转型的冲击可能不会那么剧烈。然而,许多中等收入岗位的劳动者已经感受到了新技术的影响,并面临更高的替代风险。对于这些劳动者而言,个性和软技能可能在劳动力市场中发挥巨大的作用。对于那些直接接触GenAI的劳动者,其价值将取决于他们利用AI的能力,即Qinetal.(2024)提出的“AI商”(Artificial Intelligence Quotient,AIQ),以及他们在人际交往中展现自我的方式。社会身份与个人身份将变得至关重要,人际关系也将会起到关键作用。有效运用AI等软技能将会成为未来劳动者的核心竞争力,社会地位的代际传递很可能表现为这些软技能的传递。 06 结论 GenAI的重要性很可能会持续扩大,并以我们目前无法完全预测的方式从根本上改变人类社会。鉴于这些新工具可能加剧美国和中国等国家中已然在不断扩大的不平等现象,制定政策来规范这些技术并对抗其可能带来的有害分配效应至关重要。2024年,美国劳工部宣布了一套新原则,旨在为希望采用GenAI技术以提升工作质量并保护工人权利的雇主提供指导(Department of Labor,2024)。尽管这样的指导是重要的一步,但在联邦层面设计有效的政策来引导GenAI的发展并不容易,因为每个行业——甚至每家企业的自动化需求都非常特殊,这使企业行为难以监管。组织化劳工在最小化工作岗位流失和保护工人免受自动化的有害影响方面也可能发挥关键作用,但劳工运动面临诸如工作权法和雇主的反工会策略等严峻挑战,这使得组织化变得困难。为确保向AI经济的平稳过渡,各国不仅应规范GenAI技术,还需完善保护工会的法律,以确保健康的权力制衡。 GenAI技术的发展依赖规模因素,使大国相对于其他国家拥有优势。美国和中国目前在GenAI领域处于领先地位,并将继续发挥其优势。鉴于GenAI技术的语料库特异性和与之相关的语言特异性,这两个国家将向其他国家提供内容反映不同政治体系和文化的服务。我们预计,美国和中国之间在GenAI技术主导权上将展开激烈竞争,因为这关乎全球的重大利益。 我们推测,由于AI革命,一个后知识社会即将到来。如果产品和服务可以通过AI驱动的机器轻松提供,将可能会发生大规模的工作岗位替代。替代尤其可能发生在目前被认为是中产阶级的劳动者身上,比如教师、会计、职员、计算机程序员、工程师、编辑、医生和律师。处于社会层级顶端和底层的劳动者不太可能被替代。知识和硬技能的重要性将减弱,而软技能的重要性将增加。在这种未来的AI驱动社会中,人们将不再那么在意产品和服务的物质条件(如质量),因为AI会使其差异性减少。相反,消费者将更在意是谁提供了这些产品和服务,个人身份将变得更有意义。在购买产品和服务时,人们将更少受客观标准左右,更多受个人主观品味影响。个人和企业将不再由于满足他人的物质需求获得成功,而是由于满足他人的心理需求——使人们感到快乐和满意。 与之前描述的其他技术进步一样,GenAI有潜力通过降低商品成本、让劳动者有更多时间追求个人兴趣、从事创造性活动以及为社区做出贡献来推动经济发展并提高生活水平。然而,正如本文所论述的,如果向AI驱动的社会转型没有得到妥善管理,这项技术也可能加剧国家间和国内的不平等。适当的政府监管对于确保伦理标准、缓解风险以及营造一个包容性的环境至关重要。在这种环境中, 人工智能的益处才能够得到广泛共享。 (感谢刘雯、吴钩、Dean Minello的研究助理工作以及黄青、李适源、聂雨琪的文字润色工作。) 原文:谢宇 & 索菲娅·阿维拉.(2025).基于大语言模型的生成式人工智能的社会影响.经济学(季刊),25(02),273-292.doi:10.13821/j.cnki.ceq.2025.02.01.
验证你是否是人类:奥特曼新公司在全美正式推出眼球扫描技术
Orb设备 凤凰网科技讯 5月1日,彭博社报道,由OpenAI首席执行官萨姆・奥特曼共同创立的初创公司 Tools for Humanity计划在美国各地正式推出数千台眼球扫描设备“Orb”,这标志着该公司及其新颖的身份识别服务将迎来重大扩张。 该公司在周三晚些时候的一场活动中表示,从本周开始,美国六个城市(包括旧金山、洛杉矶和亚特兰大)的民众将能够在Tools for Humanity公司的World项目运营的特定地点以及某些合作伙伴处,使用球形的Orb设备扫描他们的眼球。此前,这项技术仅在美国进行了有限的测试。 这家由联合创始人兼首席执行官亚历克斯・布拉尼亚领导的公司将Orb宣传为一种强大的工具,在AI生成的深伪内容越来越逼真的当下,它可以用来验证人们的身份,并证明某人“确实是人类”。同意进行扫描的人还可以通过该公司获得一种名为Worldcoin的加密货币代币。 据该公司称,到目前为止,在菲律宾、葡萄牙和泰国等国家,已有超过1200万人使用该工具来验证自己的身份。World项目的Orb设备和这种加密货币此前也曾在香港以及肯尼亚和韩国等国家受到监管部门的审查。 Tools for Humanity公司的首席架构师阿德里安・路德维希表示,在计划扩张之前,该公司已经与美国的监管机构进行了会面,但他没有透露具体是哪些监管机构。Tools for Humanity公司还表示,其收集的信息会进行加密处理,并且不会存储个人数据。 除了在美国进行扩张之外,Tools for Humanity公司还宣布,它将与约会应用公司Match集团合作,开展年龄验证试点项目,首先从日本的Tinder用户开始。 路德维希说:“对于消费者来说,他们不想去考虑这项技术。他们想的是:‘我想要和真实的人约会。’”(作者/陈俊熹) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
全球首轮AI裁员来袭,美白领12年最难求职季!电商巨头被曝AI铁律
编辑:KingHZ 【新智元导读】AI裁员时代,大幕开启!Shopify CEO的内部信震惊了全网:全员All in AI,使用AI要形成条件反射;每年贡献提升20%-40%才有竞争力;团队要想招人,先要证明AI做不到。正式打响AI裁员第一枪! 使用AI是铁律,要形成条件反射! 全球电商平台Shopify流出的内部备忘录,震惊了全网。 Shopify CEO的内部备忘录被泄露之后,他亲自发了全文,表示竟然已经被恶意被泄露,不如公开完整的备忘录。 备忘录的核心:强调AI已成为Shopify所有员工的必备技能,不再只是建议,而是必备技能。 比如团队在申请更多「人头」(head count)前,必须证明为什么无法用AI完成对应的任务。 Shopify的CEO:Tobi Lutke 这对Shopify员工来说,绝对算不上一个好消息:仅在去年Shopify全员裁了20%,甚至有些部门悄然裁员了好几轮。 就美国统计数据,今年是白领职位最近12年来招聘市场的最低点。 游戏公司暴雪Blizzard Entertainment的Ben Pielstick,认为这就是AI导致失业的趋势: 这就是第一轮AI裁员的情况。虽然现在没有看到大裁员,但招聘已经放缓。 而且事情可能更糟:人类终究会见证AI带来的大规模裁员。 备忘录:All in AI,条件反射一样使用AI 人类正进入全新时代:商家和企业家的数量可能史无前例地多。 Shopify始终致力于降低创业的复杂门槛,让更多人能将此作为职业选择。 在每个创业的关键节点,都需要运用技能、判断力和知识来做出无数决策。 而AI不仅能提供决策建议,更能直接为商家代劳—— 这场协同进化将带来颠覆性的阶跃式变革。 Shopify的使命是打造无可争议地最好的商业平台,帮助用户构建未来最卓越的企业。 为此,需要持续为所有人提供尖端技术,汇聚最强大的工具矩阵,让商家的成就能突破自我想象的边界。 这要求Shopify始终保持绝对领先。 使用AI要成为本能 也许你已经本能地使用AI,觉得这份备忘录多次一举。 在这种情况下,你已经将AI作为思维伙伴、深度研究者、批评者、导师或程序员助手使用。 在职业生涯中,Tobi Lutke见过的工作方式变化最迅速的转变就是AI。 而且他非常热衷于此:他在每周的视频、播客、全员大会和...峰会上谈论过AI! 去年夏天,他用Agent创建演讲,并进行了展示。 这样做是为了呼吁大家动手实验AI,打破任何对其是否重要的怀疑或困惑。 许多人响应了这个号召。 参与其中的人,都对AI所能提供的增能能力和工具感到由衷的惊叹: AI提升了技能,完善了工艺,弥补了不足。 AI,实在是与其他工具不同。呼吁大家进行实验是正确的,但那只是一个建议。 今天,Tobi Lutke决定改变这一点:使用AI不再是建议,而是基本要求,是Shopify的铁律! 与大多数工具不同,AI能放大个人能力:Shopify的一些员工的贡献是以前的10倍。 在以前,这根本不可能,效率提高10倍让人难以置信! 更令人惊讶的是,AI本身也是过去的10倍。 许多Shopify用AI以近乎本能的娴熟,攻克过去想都不敢想的任务,达成百倍产出。 Tobi Lutke目睹了AI对员工的效率的巨大提升。 而Shopify每年增长率在20%-40%,员工每年至少得进步这么多,才能保持竞争力。 他认为这听起来挺吓人,但如今AI的发展让他相信,一切并非只是野心: (Shopify)公司里的顶尖员工也表示,他们就想在这样的环境里工作。 大家一起学习,身边同事都在追求个人成长,攻克有价值、有挑战的难题,这正是Shopify创立的初衷。 这既是机会,也是要求,和「持续学习」「拥抱变革」的核心价值观紧密相连。 Tobi Lutke表示这可不是喊喊而已的口号,而是加入Shopify的基本要求。 这是Shopify创始人的期望,也是一直努力营造的氛围。 6大核心要义:All in AI 1.在 Shopify,高效使用AI已经成为每个人的铁律。 AI无处不在,未来只会变得更加重要。 Tobi Lutke坦率直言:「学不会将AI应用到工作中,将寸步难行。你可以试图忽视它,但我要诚实地告诉你,我看不到这会有什么好结果,今天不行,明天更不行。不学会使用AI,几乎注定了要停滞,而停滞就是失败:逆水行舟,不进则退。」 2.AI必须成为执行GSD(Get Stuff Done,搞定琐事)原型阶段的一部分。 任何执行项目的原型阶段应该由AI探索主导。 原型阶段是为了学习和创造信息,而AI大大加速了这一过程。 将来,人人要学会在过去几分之一的时间内,产出可供团队评审、测试和优化的成果。 3.在绩效考核与同事互评中,Shopify将加入AI使用指标。 高效利用AI并不简单,学多人在没有立刻得到结果后选择了放弃。 学习如何编写提示和加载上下文非常重要,获取同事的反馈将很有价值。 4.学习要自我驱动,但要分享学到的东西。 在Shopify,可以使用尽可能多的最前沿的AI工具。 开发者可以使用各种智能体,如Copilot、Cursor、Claude,所有工具都已准备就绪。 Shopify将作为一个团队共同学习和适应,共享成功(和失败)的经验,互相交流在实验新AI功能时的收获。 在每月的业务回顾和产品迭代中,专门安排时间进行AI的整合。 5.在请求更多人手和资源之前,团队必须证明为什么无法仅凭AI完成任务。 如果自主AI智能体已经是团队的一部分,将会是什么样子? 这个问题可能会引发非常有趣的讨论。 6.全员覆盖,无一例外。 从高管团队到CEO本人,皆在此列。 未来征程:余生和AI相伴 AI将彻底改变Shopify、员工的工作以及余生。 对此,需要毫无保留、全力以赴! 再难找到比Shopify更理想的舞台—— 不仅有最好的位置,而且团队全员一起学习、并肩奋进、共同奋斗。 Shopify的使命是在AI触手可及时代,重绘新型创业图景。 要想做到极致,需要集众人之所长。 今年,AI的项目蓝图已绘制完成,新的产品将更出色地达成目标。 Tobi Lutke认为:「(Shopify)成功的关键在于:汇聚每位成员的智慧与热情,借AI之力,为商户开辟崭新天地。」 AI裁员时代:约40%岗位或受冲击 Shopify用AI取代人类员工,早有计划。 现在流出的公开信,只是AI取代人类的一个活生生的例子。 而AI取代的岗位不止客服。 Shopify裁员静悄悄 1月份,据报道Shopify已悄然在客服部裁员。 而且用GenAI取代「真人」客服,Shopify策划已久,已有多轮悄无声息的裁员。 2023年初,该公司启动了名为「黄色代码(Code Yellow)」的项目,希望提高客户服务水平。 作为该项目的一部分,公司开始采用GenAI来处理一些以前由客服完成的任务,并表示GenAI有助于「最大限度地减少繁琐的工作,提高工作效率并改善商家体验」。 2024年,公司领导告知员工,为了调整管理人员与「工匠」(Shopify对个人贡献者的称呼)的比例,有必要对客服部门进行重组。 而Shopify是全球领先的商业基础设施提供商,为各类规模零售企业提供从起步、扩张、营销到运营的全链路工具。 这一举措,很可能得到其他公司的呼应,跟进在工作中本能使用AI这一要求。 AI冲击40%的岗位 沃顿商学院教授教授Ethan Mollick表示:「GPT-4o的原生图像生成,足以颠覆市场营销行业。AI早已击败人类中的自由职业者。」 论文链接:https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4597899 营销行业并不是唯一被GenA取代的职业。 目前,白领职位是12年来的招聘市场的最低点。 OpenAI前成员、AI工程师Craig Quiter认为AI取代人类岗位的浪潮已经开始,AI将彻底颠覆财富分配格局。 根据联合国贸易和发展会议估计,全球范围内,约40%的工作岗位可能受到冲击,其中发达经济体高达三分之一的职位面临自动化风险。 但与此同时,这些经济体也更具优势:27%的岗位有望通过AI实现增效升级,在提升生产力的同时与人类技能形成互补。 根据发展阶段不同,被AI取代的就业比例也不相同:经济越发达,被取代的岗位越高 参考资料: https://x.com/op7418/status/1909265757416161539 https://x.com/tobi/status/1909251946235437514 https://x.com/tobi/status/1909231499448401946 https://techcrunch.com/2025/04/07/shopify-ceo-tells-teams-to-consider-using-ai-before-growing-headcount/ https://unctad.org/news/ai-market-projected-hit-48-trillion-2033-emerging-dominant-frontier-technology
DeepSeek“五一礼包”来了!新开源模型数学推理能力大提升|附实测细节
赶在五一假期前夕,DeepSeek给我们送出一份惊喜大礼。 延续一贯的开源节奏,DeepSeek在Hugging Face正式发布DeepSeek-Prover-V2,并同步上线模型卡及示例代码。此次共推出两个版本: DeepSeek-Prover-V2-7B:基于上一代V1.5模型,支持最长32K上下文输入; DeepSeek-Prover-V2-671B:在DeepSeek-V3-Base基础上训练,推理性能最强。 *核心贡献者 †在 DeepSeek-AI 实习期间完成的工作,扫描文末二维码,进社群获取完整报告 据官方论文披露,DeepSeek-Prover-V2的训练核心是「递归+强化学习」的组合:即先由DeepSeek-V3拆解复杂定理,生成一系列子目标和推理思路;再通过GRPO算法,从多种候选方案中自动学习如何选出最优解。 模型特别引入了两种互补的「解题风格」: 快速模式(non-CoT):专注于速度,像是一位熟练工匠,直接生成精炼的Lean代码答案,不展示思考过程,适合处理大量题目。 逻辑模式(CoT):更像一个耐心的数学老师,会详细列出每一步推理过程,确保逻辑清晰、思路透明。 训练过程分为两阶段,在第一阶段,研究人员主要训练快速模式,采用「专家迭代」方法:模型先尝试解决难题,成功的答案再作为新数据反哺模型,不断打磨自己的能力。 待快速模式趋于稳定后,研究人员进入第二阶段,开始训练更复杂的逻辑推理能力。他们将DeepSeek-V3的数学知识迁移到新模型中,并结合形式化数据,引入「冷启动」机制,构建起更复杂的推理路径。 为了进一步提升推理能力,研究人员引入了GRPO的强化学习算法,不同于传统的 PPO,它直接在多个候选答案中比较优劣,引导模型自主学会选择最优解。 具体做法是:每次输入一个定理,系统会生成32个不同的证明方案,然后只保留被 Lean 验证系统判定为「正确」的答案(奖励1分,否则0分),这样模型就能在高质量反馈中不断进化。 在开发出性能强大的671B模型后,DeepSeek研究团队又尝试把这些能力「蒸馏」到更小的7B模型中,而整个过程就像是师傅教徒弟: 先用大模型生成解题过程,再教会小模型理解并复现;同时将小模型输入长度扩展至与大模型一致,并经历相同的强化训练。 这样,即便在资源有限的设备上,用户也能使用小体积模型获得接近大模型的数学推理能力,并根据需求选择快速或详细解题风格。 整个体系中,DeepSeek-V3负责拆解复杂定理,生成自然语言的推理草图,同步转译为 Lean 语言表示的一系列子目标,并生成「思路链」作为中间引导。 7B模型再一步步完成子证明,最终拼接成完整推理。这种「模糊思考 + 精确证明」的训练机制,有效提升了小模型的数学理解深度。 在最终性能评估中,DeepSeek-Prover-V2-671B在MiniF2F测试中实现了88.9%的通过率,成功解出PutnamBench数据集中的49道难题。 与此同时,DeepSeek还同步推出了一个全新的数学形式化数据集ProverBench,共包含325道问题题目。涵盖: AIME 竞赛题(15 题) 数论、代数、线性代数、微积分、实分析等多个方向 这一数据集不仅包含真实的高中竞赛题目,还涵盖从基础代数、实变分析到概率论等多个本科阶段知识点,能够系统评估模型在不同数学领域的推理能力。 结果显示,在15道AIME竞赛题中,DeepSeek-Prover-V2成功解出其中6道,而 DeepSeek-V3使用多数投票方式(majority voting)则解决了8道。 按照官方的说法,这组对比凸显出一个重要趋势:大型语言模型在「非正式数学推理」和「正式数学推理」之间的表现差距正在明显缩小。 非正式数学推理:指模型像人类一样用自然语言思考、理解并解答数学题,比如我们日常说「这道题怎么算?」的方式。它更灵活、不需要严格的逻辑形式。 正式数学推理:指模型能用像Lean这样的形式语言,写出符合数学逻辑、可被验证器检验的严谨证明。它像数学论文中的证明,强调每一步推理都必须严格准确。 换句话说,过去模型更像是「会算但不会写出严谨证明」。而现在,在模型结构和训练策略不断演进下,语言模型也逐步学会了写出规范、可验证的数学证明。 此外,DeepSeek 宣布新模型的使用将遵循其公开许可证。 https://github.com/deepseek-ai/DeepSeek-Prover-V2/blob/main/LICENSE-MODEL 目前,Prover-V2系列已可通过Hugging Face平台免费下载,并支持Transformers接口部署。Novita AI是首批上线Prover-V2-671B推理服务的第三方提供商,我们也借此测试了一些问题。 经典的「一根 5.5 米长的竹竿可以通过高 4 米宽 3 米的门吗?」很遗憾,结果它没答对。 对于这道抽象代数,它的回答不仅正确,还能从基本定义出发,解释了什么是群同态、Z₁₂和Z₄的含义,以及同态的运算规则,显然,这对于初学者很友好。 从论文所透露的方向来看,DeepSeek-Prover-V2给出的不仅是数学答案,更指明了语言模型下一阶段的可能路径。 如果说过去我们关心的是大模型「能说什么」,那么在Prover-V2身上,我们得需要关注它「能证明什么」。 数学只是切入口,推理才是DeepSeek这次真正下注的方向。 从生成内容迈向生成结构化逻辑,这条路线不够性感,也不容易讲故事,却可能最早触碰通用人工智能的底层结构。 毕竟,AI可以不懂人情世故,但它必须学会推理,因为任何知识系统的边界,归根结底都是逻辑能否闭环、以及推理能否成立。
彻底告别Windows!华为鸿蒙PC版本月发布:自主可控、统一生态
快科技5月1日消息,在3月份的华为Pura X发布会上,华为常务董事、终端BG董事长、智能汽车解决方案BU董事长余承东宣布,华为终端全面进入鸿蒙时代,今年5月将推出鸿蒙电脑。 随着五一假期开启,也揭开了5月的序幕,鸿蒙PC版也越来越近,预计最快会在假期结束后正式官宣发布会时间。 其实鸿蒙PC版的推出也是“被逼上梁山”,因为微软对华为的Windows系统授权即将到期,华为将无法再继续使用Windows。 华为近期就已经推出了Linux笔记本,出厂只有Linux系统,配置不变,比Windows版本便宜300元。 后续华为PC将全面转向鸿蒙系统,完全自主可控,老款产品也有望批量升级。 预计鸿蒙PC也会像手机版一样分两步走: 第一阶段,先通过鸿蒙叠加模拟器方式,来保证各种Windows下的软件正常运行,实现用户的无感切换; 第二阶段,等用户规模壮大后,各软件厂商会开发专门针对鸿蒙的应用版本,时机成熟后去掉模拟器。 此前曾官方曾曝光过疑似鸿蒙PC版界面,采用了与Mac类似的方案,状态栏置顶、Dock 栏置底,可以放置常用功能和应用,相比于Windows来说更方便、美观。 而且鸿蒙PC版的应用将与手机、平板上保持统一,整个生态的体验会非常协调,也与苹果比较相似。
五一出行,我劝你别用机场火车站的免费充电线
五一小长假,准备去哪里玩? 打卡出片一整天,手机电量很快就撑不住了。这时候,机场、车站或者商场里的公共充电站,也许能解燃眉之急——把 USB 线往手机上一插,人和手机仿佛都充上电了。 但这些公共充电站,可能背后有诈! 这是一种名为「Juice Jacking」(果汁挟持)的陷阱,在智能手机刚兴起时就已经存在,国内 315 晚会也曾经曝光过——简单来说,就是将破解手机的硬件,伪装成充电器,在手机接上电的片刻,可能手机里的数据、照片就被偷走了。 十几年前,Juice Jacking 陷阱刚刚兴起的时候,Google 和苹果等手机系统厂商就已经发现了这个问题,并且通过添加了 USB 连接认证等措施来进行防护——当有外部设备想访问手机的文件时,就会弹出一个提醒,你肯定也见过: 这时候,只要选择「不允许」,这些恶意程序就无法绕过手机的安全系统——但没想到,时隔十年之后,Juice Jacking 的升级版本卷土重来,据 Ars Technica 报道,这种新的骗局,名为 Choice Jacking(选择挟持)。 顾名思义,就是要绕过前面提到的这个安全选项。 为了阻拦 Juice Jacking,厂商给手机的 USB 连接设置了一个确认机制: 一个设备,不能同时担任主机(比如电脑)和外设(比如手机或键盘),USB 的另一头要么作为手机的外设(键盘、U 盘),要么是主机(电脑),不能一边当主机一边当外设。 当 USB 设备连接到手机上时,只能通过手机上的「允许」按钮来进行连接认证。 而 Choice Jacking 突破安全措施的方法非常「机智」:先把恶意主机伪装成「外设」,再让这个「外设」变成「主机」——具体是这么操作的: 当用户连接到伪装成充电器的恶意主机时,它首先会伪装成一个「USB 键盘」,向手机发送按键指令,比如打开蓝牙连接 接着,这个「USB 键盘」会操控手机去配对一个「蓝牙键盘」——这个「蓝牙键盘」其实也是这个恶意主机伪装出来的 接下来,这个恶意主机又伪装成「主机」,向手机发起数据请求,此时手机变成了「外设」,手机上就会出现授权数据访问的提示 最后,通过「蓝牙键盘」点击手机上的「同意」按钮进行授权,这样一来恶意主机就连上了手机,并获得了整台手机的数据访问权限 这是手机 USB 连接机制的一个结构性缺陷,并非代码漏洞。正因如此,这种骗局极具普适性,不管是 iOS 还是 Android,都能成为这种攻击方式的目标。 包括苹果、Google、三星、小米在内的多个等品牌十多款手机,都能被 Choice Jacking 攻破,除了苹果设备需要 23 秒的时间,其他 Android 设备都在几秒不到的时间被攻破——有趣的是,部分手机并不支持完整的 PD 协议,反而起到了一定的防护作用,降低了被 Choice Jacking 技术黑入的风险。 将一根神秘的 USB 线连接到自己的手机,不少人都能看到背后的风险,但如果将它包装成免费提供的充电端口,包括我在内的不少人,或许都会在手机电量告急时,毫不犹豫使用。 并且不少普通用户,可能不会完全理解手机上忽然弹出的「USB 权限」弹窗背后的意义,以为同意的只是和充电线的连接,就这样主动地将防线关闭。 厂商方面其实已经作出了及时反应,去年 11 月份推送的 Android 15 更新和上个月更新的 iOS/iPadOS 18.4 版本都更新了相关的机制,经测试都能够发挥作用。 但由于 Android 生态系统的碎片化现状,不少老设备都未必能及时得到相关的更新,并且第三方的 Android UI,比如三星的 One UI 7,即使用上了 Android 15 也没有采用新的 USB 验证机制,依旧容易受到 Choice Jacking 的攻击。 漏洞的发现者 Florian Draschbacher 也表示称,即使一年前就警告了设备制造商,他们也承认了这个问题的存在,但对相关机制的完善和修复进度却出奇的慢,可能的原因在于,如果要进一步加强 USB 访问手机的安全性,就要添加大量的验证措施,对用户体验的影响不小,因此制造商犹豫不决。 更开放的 Android 生态,通过 USB 进行的攻击方式,危害可能会更大。因为 Android 设备如果打开了「USB 调试」模式,Choice Jacking 可以获得手机更深层的权限,执行一些恶意的底层文件。不过这个功能的入口较深,一般设备都是默认关闭。 ▲ YouTube@Websplaining 对于 Choice Jacking 这种「旧瓶装新酒」的安全问题,大众的态度,却已经不像十年前刚用上智能手机一样「草木皆兵」了。 不少人甚至对其嗤之以鼻,觉得不过是「狼来了」的故事:Juice Jacking 和公共 Wi-Fi 的危险在当年也被大肆炒作,但实际上却并没有造成太多危害。 还有一种「投降主义」,明知山有虎,偏向虎山行,纵使知道公共充电桩可能有风险,还是觉得当下的手机没电的问题更要紧,更有甚者觉得,平时个人信息的泄露已经很多了,也不差这一次。 虽然作为一种很新的攻击方式,目前还没有 Choice Jacking 造成大量实际损失的报告,但不代表背后的风险和威胁不存在。 最保险的做法,就是在出游的时候,尽量使用自己的充电宝,或者大品牌的共享充电宝;就算有公共电源,也最好用自己的充电插头,不使用那些看着就很可疑的 USB 充电线。 除此之外,还有其他一些防止手机被 USB 控制的小技巧: 分别给手机和电子钱包设置不同的密码,能够有效挡住一些别有用心之人。至于淘宝、拼多多等网购平台,最好关闭「免密支付」,反正现在的面容或指纹验证方式都很方便。 如果你是 iPhone 用户,强烈建议你更新到 iOS 18.4 版本,这个版本加强了用户对 USB 配件连接的验证机制,能有效防止一部分 Choice Jacking 的渗透。 现在的智能手机基本上都需要经过验证才能使用 USB 进行数据传输,如果使用手机时提醒你进行验证,或者相关的验证窗口一闪而过,那或许就需要小心 USB 线的另一头,是不是在搞些什么小动作了。 不少 Android 设备连接 USB 充电时,都会提示「USB 模式」,一般都可以设为「仅充电」,不要点选「传输文件」「传输照片」或「USB 调试模式」。 当然,我们也没有必要对此过度恐慌,平时保持手机系统的正常升级,避免使用可疑的 USB 线,不随便同意莫名的 USB 权限,就能很好规避这些安全陷阱。 最后,祝你五一快乐,给自己好好放个假吧!
索尼YY2987耳机、YY2988无线适配器通过认证
IT之家5月1日消息,科技媒体The Walkman Blog于4月29日发布博文,报道称索尼YY2987和YY2988两款设备通过认证,其中YY2988为无线适配器、YY2987疑似为一款新耳机。 YY2988 IT之家援引认证页面信息,YY2988被明确标记为无线适配器(USB),使用USB-C端口,采用Airoha AB1571芯片和AB1577蓝牙芯片,支持 2.4GHz 连接。 认证文件显示YY2988的PCB板面积约为23x13毫米,以下图片对比了INZONE Buds USB receiver中的PCB,可以看到两者外形基本相同。 Inzone Buds使用了Airoha AB1565D芯片,而 YY2988 采用Airoha AB1571D芯片。因此该媒体推测新款无线适配器不再使用专有编解码器,而是使用LE AUDIO(LC3)作为编解码器。 YY2987 YY2987耳机采用两款不同的蓝牙芯片:Airoha AB1571和AB1577AM,支持Bluetooth 5.3和LE Audio(LC3编码),有望提供更高质量的音频体验和低延迟游戏模式。 板载天线 AB1571 FCP天线 AB1577AM 该媒体推测这款耳机并非备受期待的WF-1000XM6耳机,而是INZONE系列的新成员,甚至可能是高端型号H9的替代品。 FCC文件显示,YY2987耳机的语音/聊天麦克风支持可拆卸设计,这与前代H9固定式麦克风形成鲜明对比。 此外,耳机电池电压为3.85V,但具体容量尚未公布。文件还透露,耳机内部的天线设计包括主板上的AB1571天线和通过同轴连接器固定的FPC天线(AB1577AM),后者背面带有粘胶,预计将贴附于耳机内部表面。
苹果税被判不合法,以后 iOS 内购可能会更便宜
就在刚刚,Epic Games 和苹果围绕「苹果税」的诉讼案的结果出炉:美国法院法官 \x26nbsp;Yvonne Gonzalez Rogers\x26nbsp;已经裁定,即日起,苹果不能对应用外购买收取费用,也不能限制开发人员引导用户在应用外购买。 简单来说,就是以后应用内购可以不走苹果 App Store 的渠道,App 可以正大光明提供自己的支付渠道,并且苹果不能从中抽成。 Rogers 的裁决中,将禁止苹果下面这些行为: - 对消费者在 App 之外的购买行为征收「任何佣金或费用」 - 限制开发者对 App 外购买链接的设置,以及链接的样式、格式 - 阻止或限制 App 使用外购的按钮,以及鼓励外购的行为 - 除了向用户发送一条中性消息,告知他们即将前往第三方网站之外,不能干扰消费者离开 App 的选择 这个判决结果象征着 Epic 的胜利,这场诉讼案从 2020 年开始,Epic 的热门游戏《堡垒之夜》也被从 App Store 下架了五年。裁决作出后,Epic 表示将在下周重新上架《堡垒之夜》。 Epic 也提出了自己的和解条件:如果苹果在全球范围内都执行法院的免苹果税框架,那么《堡垒之夜》将重返全球 App Store,Epic 也将放弃当前和未来关于这个主题的诉讼。 在 2021 年,Rogers 已经作出裁决,要求苹果允许开发者提供其他支付方式,但苹果制定了一项新的政策,要求开发者向苹果支付 27% 的佣金。 Rogers 指出,苹果的行为属于公然藐视法院禁令,试图维持数十亿美元的收入来源。App Store 主管 Phil Schiller 曾主张公司遵守这个禁令,但 CEO 库克选择了无视。 这个裁决将意味着苹果失去大部分应用内购的控制权,会有越来越多开发者和用户选择不走 App Store 的渠道进行交易,「苹果税」将名存实亡。
RISC-V笔记本电脑现状
我们的笔记本电脑内部藏着一份秘密图纸,它指定计算机能够执行的指令集,并作为硬件和软件的接口。这些指令隐藏在专有技术的背后,不可改变。但从2025年开始,用户可能会买到一台经过改良的新型笔记本,其秘密是公开的。这款笔记本可完全定制,用户可以修改硬件和软件,使其符合自己的需求。 RISC-V是一种开源指令集架构(ISA),有望使个人计算变得更加个性化。虽然RISC-V仍处于生命周期的初期,但现在已经可以购买到包含这一技术的全功能计算机,这是为主流消费电子产品中的x86和Arm架构提供可行替代品的关键一步。 笔记本电脑制造商Framework的首席执行官尼拉夫·帕特尔(Nirav Patel)表示:“如果观察一下(软件)堆栈中的几代产品,可以看到消费级RISC-V已开始出现在笔记本电脑甚至手机中。” 帕特尔的公司计划在2025年推出一款支持RISC-V主板的笔记本电脑。虽然这款笔记本电脑仍面向早期用户和开发人员,但它将是迄今为止最易获得的精心打磨的RISC-V笔记本电脑,能够提供与x86芯片的Framework笔记本电脑相同的外观和触感。 指令集架构是一部规则手册,定义在处理器上可以执行的有效程序指令集。与其他指令集架构一样,RISC-V包含了几十条指令,如将数据加载到内存或浮点算术运算。但RISC-V是开源的,这是它与x86和Arm等封闭指令集架构的区别。这意味着任何人都可以使用RISC-V,不需要支付许可费。同时,这也使RISC-V硬件更容易进行定制,因为哪些可以修改、哪些不能修改均没有许可限制。 2010年,加州大学伯克利分校并行计算实验室的研究人员基于已确立的精简指令集计算机(RISC)的原则,开始开发 RISC-V指令集架构。如今,期望设计价格低廉的专用芯片的公司已经在使用RISC-V:阿里巴巴在边缘计算的芯片开发平台中使用了RISC-V,西部数据公司则将RISC-V用于存储控制器。 现在,一小群公司和爱好者正在为将RISC-V引入主流消费设备奠定基础。其中一位开拓者是软件工程师梁宇宁,新冠疫情期间,他在深圳因封控无法工作,却被这一想法吸引。 由于无法继续先前的工作,“我必须问自己,我在这里能做什么?”梁宇宁说,“RISC-V(国际基金会)的前首席技术官马克·希姆尔斯坦(Mark Himelstein)提到,我们应该用12纳米RISC-V测试芯片做一台笔记本电脑。”因为12纳米节点比当前中央处理器使用的生产工艺要老,因此每块芯片的成本较低。 新冠疫情引起的供应链问题导致项目起步较慢,但最终,梁宇宁创办的深度数智公司在2023年推出了全球首款RISC-V笔记本——Roma。紧接着在2024年,该公司发布了预装乌班图开源操作系统的DC-Roma II,开箱后能够直接执行基本的计算任务。 深度数智目前正在与Framework合作,后者是一家成立于2019年的笔记本电脑制造商,正如其官网所述,该公司的使命是“修复消费电子产品”。Framework销售模块化、用户可自行维修的笔记本电脑,用户可以无限期地不断升级其中的部件(包括通常无法更换的部件,如主板和显示器)。 帕特尔表示:“开发人员可进入Framework笔记本电脑的主板并创建自己的平台。”他又补充道,该公司希望其笔记本电脑可以加快采用开源硬件,主板制造商可以带来一个“提供系统级解决方案”的平台,不需要设计自己的笔记本电脑。 深度数智的DC-Roma II笔记本是开源计算的一个重要里程碑,这不仅是因为它预装了乌班图操作系统。它是首款获得媒体广泛关注的RISC-V笔记本,特别是在YouTube上,有关DC-Roma II以及Milk-V Pioneer和荔枝派4A等其他RISC-V单板计算机的评测视频观看量超过百万。 即便如此,梁宇宁也还是很快就承认了一个许多网友发现的缺陷:DC-Roma II的RISC-V芯片在性能上远远落后于x86和Arm架构的相应产品。梁宇宁表示,深度数智希望在2025年通过DC-Roma III来解决这一问题。 在未来一年里,“性能将大大提升。虽然仍将使用12纳米(处理器),但我们将升级中央处理器的性能,使其更接近Arm Cortex-A76的水平。”梁宇宁说道。Cortex-A76是RISC-V基准测试的主要架构,因为树莓派5等高销量单板计算机的芯片都使用这种架构。 梁宇宁并非唯一梦想制造高性能RISC-V芯片的人。成立于2018年的Ventana公司正在依靠开源指令集架构,设计高性能数据中心芯片。 Ventana的创始人兼首席执行官巴拉吉·巴克塔(Balaji Baktha)坚信,RISC-V芯片将在各类产品中与x86和Arm直接对峙。“指令集架构的特定因素不能决定能否制造出高性能的产品。”他说,“关键在实现的微架构。” 深度数智还希望降低价格,使RISC-V更具吸引力。DC-Roma II售价约600美元,并不比宏碁Aspire或戴尔灵越等中档Windows笔记本贵很多。但网上的评论指出,其性能更接近那些售价更低的经济型笔记本。梁宇宁表示,这是由于该笔记本的产量较低,据他说,DC-Roma II的产量为“小几万台”。他又补充道,深度数智希望将DC-Roma III的产量提高到10万台。 如果这一目标实现,与使用x86和Arm的笔记本电脑相比,深度数智的所有笔记本将更具竞争力。这对梁宇宁来说非常重要,因为他认为价格可承受性与开放性密切相关:二者都降低了新手的门槛。 “甚至,如果我们能开放芯片设计,那么有一天,即使是中小学和大学的学生也可以在课堂上使用开放工具设计自己的芯片。”梁宇宁说,“有了开放性,我们都可以选择从零开始自己制作。”

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。