行业分类:
加载中...
头条分类:
加载中...
份额归零也不松口!美国:Blackwell GPU落后两三代时 才能卖给中国
快科技11月5日消息,黄仁勋一直希望并在积极推动Blackwell架构的AI GPU能卖给中国,哪怕是特供版,从而取代落后的H20,但是现在看来,希望渺茫。 首先是美国总统特朗普,此前明确表示,目前没有放开对中国出口最先进的NVIDIA Blackwell GPU芯片的计划,这些芯片必须保留给美国公司,不会提供给中国和其他国家。 白宫发言人李威特(Karoline Leavitt)也随即在记者会上说:“至于那些最先进的芯片,比如Blackwell芯片,我们目前无意卖给中国。” 现在,美国财政部长斯科特·贝森特(Scott Bessent)在接受采访时进一步指出,只有当Blackwell GPU落后两三代,甚至更加落后的时候,中国才可以拥有它们。 他说:“Blackwell GPU目前是(美国)皇冠上的明珠。12-18个月前,H20非常出色,也是皇冠上的明珠。GPU技术发展非常快,但不代表谈判的速度,因此未来可能会有新的谈判,但我不知道是12个月之后,还是24个月之后。” “鉴于NVIDIA目前的创新速度令人难以置信,Blackwell GPU的性能落后最新产品两到三代,甚至是四代的时候,就可以被出售(给中国)。” 其实,H20所采用的Hopper架构,只比当前的Blackwell落后一代,只是在算力性能、显存和互连带宽方面严重阉割。 显然在美国看来,落后一代是远远不够的,哪怕是NVIDIA AI GPU在中国的份额已经归零。
XXXL号月亮来了!今晚将迎来本年度最大满月:最佳赏月时间出炉
快科技11月5日消息,今晚将迎来本年度最大满月,最佳赏月时间来了。 今日21时19分前后,月亮将呈现出最完满的圆形,9个小时后,也就是次日6时27分,月球经过近地点,距离地球约35.7万公里,这是2025年所有满月中与地球最近的一次。 因此,今晚的这轮月亮将是今年的最大满月。 北京、天津、河北大部、内蒙古大部、山东东部、河南中南部、上海、浙江、福建、江西、安徽大部、江苏大部、湖北东部、湖南中东部、广东北部、广西中北部等地都将是晴空朗夜,能够有幸一睹本年度最大满月的身影。 不过,北方多地正在经历一股较强冷空气影响,夜间气温低迷,大多只有个位数,体感寒冷,提醒户外赏月的朋友们做好保暖工作。 南方大部地区气温则相对舒适,约15℃上下,一件长袖外套即可惬意赏月。 而在黑龙江中东部、吉林东部、辽宁东部、新疆西部和北部、青海中部、甘肃中东部、宁夏、陕西、山西中部、四川东部、重庆、湖北西部、湖南西北部、贵州大部、云南西部、台湾大部、海南东南部等地,今天夜间多阴雨雪天气,云层较厚,因此明月难觅,将无缘这轮超级满月。 此外,内蒙古中部、河北南部、山东中西部、河南北部以及广西东南部、广东西部等地今天夜间高云较多,容易遮挡月光,赏月需要看运气。 据北京天文馆介绍,本次超级月亮的最佳观测时间大概在日落后的1小时之内,也是拍摄的黄金时段。因为月亮刚从地平线上升起时,人类的大脑会自然对地平线附近的物体放大感知,加上地面景物作为参照,月亮会显得比高悬天空时更加巨大壮观。 以北京为例,天文科学家计算今晚的日落时间大约在17时4分前后,月落时间则在次日早晨大约7时32分。虽然整个夜晚的大部分时间都适合观测,但日落后1小时是“黄金窗口期”。
当山姆会员抵制阿里高管,他们在抵制什么?
1 2023年的时候,盒马贴着山姆,搞过一波“移山价”,当时山姆会员店的千层榴莲蛋糕卖128,盒马搞出了99一块的同款。山姆的牛腩卖99.8,盒马把价格打到了79.9。 那波移山,盒马应该是花了不少钱。 2025年,在阿里已经放下了山姆,卖掉大润发、卖掉银泰,盒马想着各种办法去搞盈利的时候。一场山姆的话题,以阿里前高管刘鹏为抓手,就在阿里的地面上烧到了闭环。 世界何等幽默。你花了那么多钱,想去个山头上撬几块石头的时候,对面那座山好像也没有动一动。等你以为自己已经走出了那片山区,那个山头上的巨石,忽然就松动了,而且一路咣咣当当就砸到了你的头上。 2 这块巨石,到底是怎么从山姆滚到阿里的? 山姆会员这一轮抗议逻辑是这样的——你们在APP里给商品美图了,核心信息也打码了,阿里前高管成群结队地降临了,下一步就是换成他们自己的供应链了,我花260块钱的会员费,买的就是个优质买手服务,现在你给我要给我换全套电商供应链? 到这儿,不是山姆会员的,可能还是有点儿懵,电商供应链和山姆供应链,核心差别是啥? 除了山姆的排骨、水果就是更好吃这些舌尖上的差别之外,还有一些直观的差别,我看到一个资深山姆会员举例说,比如你在山姆买十包湿厕纸,要59.9,你去电商平台一看,同一品牌的湿厕纸,也是十包,才卖49.9,他就在电商平台下单了,到货一看,一张湿厕纸的面积,是山姆卖的二分之一。然鹅,这是面积要覆盖核心区域的,湿厕纸。 其实山姆会员也说不出来刘鹏在阿里的时候都干了啥,但是咱信不着他们的人能让咱吃好喝好。 这份“信不着”上了热搜之后,有许多人发出了自己跟阿里人们相处的小作文,一个新的主题被创作出来了,“我曾经遇到过一个阿里奇葩”。 在这个主题下,有人说前阿里hr到了自己的公司,延长了大家的工作时长,然后这个hr走人了;有人说自己加入前阿里人的创业项目,五险一金没给交齐,但大饼是坚持画的;有人说自己到了下班点儿就回家,如是一周后,前阿里人的领导走到她面前说,“我是 all in的”;有人与前阿里人共事,发现对方不好好工作,但特别会汇报工作。 3 讲真,山姆会员对刘鹏的抵制,没啥落地的实据。毕竟这哥们儿也才刚刚官宣上任,谁能证明人家就要换上自己熟悉的供应链?谁能证明人家熟悉的供应链为山姆打造的这盘货就是不行? 至于“我曾遇到一个过一个阿里奇葩”主题下的各种记录或者说文学创作,就更难辨真伪。 但是,为啥山姆会员倾向于用脚踢掉前阿里高管,社交媒体的互动中,那么多人愿意相信,那些阿里奇葩就是那么奇葩?这股强大的心理势能,是咋来的? 在时代的涡轮里,与其说阿里是一家公司,不如说它也代表了一种增长文化。 这种增长,曾经是满足过我们的。不然“神奇的淘宝”,不会传的那么深入人心。 但人类可以被批量化满足的物质需求,增长注定是有边界的。可一家平台型公司,对自己增长的要求,却是有惯性的。 当批量化需求的增长到达边界了,供给方还想创造数字上的增长。 互联网公司就会诞生大量的“运营”;就会有在精神上集体武装大家,假装大家还在奔向增长的“黑话”;大家就会“内卷”;就会手拉着手走向集体地狱的“降本增效”。 这个注定会产生动作变形的,对于所有平台型的公司都是一样的。短视频也曾经满足过精神需求,但是抖音当长大到今天,用户已经没有新的注意力可提供了,于是平台的运营策略就会更极致。 如果“降本增效”或者“内卷”是一种病毒,它一定是从上一个增长时代,最庞大的那些平台公司传递出来的。 这些大的平台公司,在今天依然是定义着商业氛围的核心力量。当它们在卷、在降本增效,这些“病毒”就会在整个商业世界传播,甚至作为一种先进的商业文化。 而这种“病毒”的重度携带者,就是那些离开了平台巨头的前员工们。他们当中许多人其实是在内卷中醒了过来的,但也有人病毒感染太深,他们能降落在一个新工作,很大程度上是因为前XX员工的身份,他们无法在新工作复现前司的增长奇迹,只能重复某些戏剧性的动作。 这些动作对公司未必有用,但一定有影响。当公司有一个马景涛满屋跑着喊,其他人哪怕喊不出来,也得跟着一起跑一跑。 那些抵制阿里高管的山姆会员们,他们中间一定有人在这样一种处境里,他们精神向往的商业是——我出了钱你就放下鸡贼、给我提供好生活的山姆;或者是远在许昌的充满爱的胖东来。可是他们的肉身还被在追求效率、表演内卷的旧商业里。 这时候,他们忽然发现自己认同的山姆似乎在一路调转船头,朝着自己肉身所在的商业世界驶来。那些很多年来想在办公室发的飙,忽然就在山姆会员区发了出来。 有人说,山姆会员们对阿里高管的抵制,是脆弱中产们在努力维护虚假的中产地位。 我倒不觉得这是维护虚假的中产地位,这可能是中产们难得的诚实——他们已经意识到,现在的好的商业,是如何把日子过好,而不是如何把规模做大,把效率提升——无论他们在自己的工作里,是一个如何假装在提升效率的人。
自研变套壳!开发者逆向200家AI公司前端代码、追踪API:146家实则套壳ChatGPT等,多家技术栈都一样,却赚75倍暴利
“200 家 AI 初创公司中,73% 的产品实际上只是‘套壳’,主要套的还是 ChatGPT、Claude!” 这一结论一出,给 AI 创业圈带来不小的打击与争议。 回想 2023 年,OpenAI CEO Sam Altman 曾直言:“套壳 ChatGPT 注定消亡。” 然而现实恰恰相反:随着 ChatGPT 的爆火,创业热潮一浪接一浪,无数投资拥入,一些公司甚至尚未发布产品就已吸引不小的关注度。 如今,一位软件工程师 Teja Kusireddy 用数据扯开了这场“繁荣”背后的部分真相。他对 200 家 AI 公司进行了逆向工程、反编译代码,并追踪 API 调用,发现许多号称“颠覆性创新”的公司,其核心功能仍依赖第三方服务,只是在外层多套了一层“创新”的壳。市场宣传与实际情况之间的差距令人震惊。 那么,究竟是投资人“完全不懂”,还是 AI 初创公司“太会忽悠”?“自研”与“套壳”的界限如何而定?接下来,我们将通过 Teja Kusireddy 发布的长文,从他的第一视角,看看他用数据揭示的最新发现与结论。 为什么会发起“逆向工程”? 上个月,我掉进了一个意料之外的“兔子洞”,陷入了迷茫——一开始只是一个很简单的问题,最后却让我开始怀疑自己对整个 AI 创业生态的一切认知。 那天是凌晨两点,我在调试一个 webhook 集成时,偶然间发现了点不对劲的东西。 一家声称拥有“自主研发的深度学习基础设施”的公司,竟然每隔几秒就在调用 OpenAI 的 API。 而这家公司,刚刚凭着“我们构建了完全不同的 AI 技术”这一说法,从投资人那里融到了 430 万美元。 就在那一刻,我决定——要彻底查清这件事,到底有多复杂。 调查方法:我是怎么做的 我不想写一篇靠“直觉”发牢骚的热评,我要的是数据,一个真实的数据。 于是,我开始动手搭建工具: # Simplified version of the scraping architectureimport asyncioimport aiohttpfrom playwright.async_api import async_playwrightasync def analyze_startup(url):headers = await capture_network_traffic(url)js_bundles = await extract_javascript(url)api_calls = await monitor_requests(url, duration=60)return {'claimed_tech': scrape_marketing_copy(url),'actual_tech': identify_real_stack(headers, js_bundles, api_calls),'api_fingerprints': detect_third_party_apis(api_calls)} 接下来的三周里,我做了这些事: 从 YC、Product Hunt 和 LinkedIn 的“我们在招聘”帖子中,爬取了 200 家 AI 初创公司的官网; 监控它们 60 秒的网络流量会话; 反编译并分析了它们的 JavaScript 打包文件; 将捕获到的 API 调用与已知服务的指纹库进行比对; 最后,把它们在营销页面上吹的牛,与实际的技术实现一一对照。 我特意排除了成立未满 6 个月的公司(那些团队还在摸索阶段),重点关注那些已经拿到外部融资、并公开宣称有“独家技术”的初创公司。 得到了让我愣住的数据 结果显示——73% 的公司,其宣称的技术与真实实现之间存在显著落差。 200 家的 AI 初创公司可以分为以下几类: 但真正让我震惊的,不只是这个数字。更让我意外的是——我甚至没有因此生气。 接下来,进行逐步拆解,可以分为三种模式。 模式 1:所谓“自研模型”,其实只是 GPT-4 加了点额外操作 每次看到“我们自研的大语言模型”这种说法,我几乎能预判下一步会发现什么。 结果 37 次里,有 34 次我猜对了。 技术特征揭秘: 在我监控出站流量时,这些是明显的“蛛丝马迹”: 用户每次与所谓的“AI”互动时,都会向 api.openai.com 发起请求; 请求头(Request Headers)里包含 OpenAI-Organization 标识; 响应时间与完全符合 OpenAI 的 API 延迟模式(大部分查询 150–400ms); Token 使用量和 GPT-4 的计费等级一致; 速率限制的指数退避(exponential backoff)也和 OpenAI 一模一样。 真实案例曝光 有一家号称“革命性自然语言理解引擎”的公司,经过反编译后,我发现他们所谓的“自研 AI”就是这几行代码: // Found in their minified production bundle after decompilation// This is the complete "proprietary AI" that raised $4.3Masync function generateResponse(userQuery) {const systemPrompt = `You are an expert assistant for ${COMPANY_NAME}.Always respond in a professional tone.Never mention you are powered by OpenAI.Never reveal you are an AI language model.`;return await openai.chat.completions.create({model: "gpt-4",messages: [{role: "system", content: systemPrompt},{role: "user", content: userQuery}]});} 就是这样——整套所谓的“自研模型”,在他们的融资演示文稿里出现了 23 次。 没有微调 没有自定义训练 没有创新架构 只是给 GPT-4 下了一个“请假装你不是 GPT-4”的系统提示而已。 实际上,这家公司的成本与定价仅是: GPT-4 API:每 1K 输入 tokens 为 0.03 美元,每 1K 输出 tokens 为 0.06 美元 平均一次查询:约 500 输入 tokens,300 输出 tokens 每次查询成本:约 0.033 美元 他们对用户的收费标准是:每次查询 2.50 美元(或 200 次查询每月 299 美元) 直接成本利润率高达 75 倍! 更荒诞的是……我竟然发现有三家不同公司的代码几乎完全一样: 变量名一模一样 注释风格一模一样 “永远别提 OpenAI” 的指令也完全一致 所以,我推断,这几家公司要么是: 抄自同一个教程 找了同一个外包工程师 用了同一个创业加速器的模板 还有一家公司额外加了所谓的“创新功能”: // Their "advanced error handling system"try {return await generateResponse(userQuery);} catch (error) {return "I'm experiencing technical difficulties. Please try again.";} 他们在给投资人演示的文稿里,把这个功能称之为“智能回退架构(Intelligent Fallback Architecture)”。 在这里,我个人认为——包装 OpenAI 的 API 本身没有什么问题,问题在于这些企业把它叫作“自研模型”,背地里却只是个 API + 自定义系统提示。 这就好比:买了一辆特斯拉,换个徽标,就说自己发明了“专属电动车技术”。 模式 2:人人都在做的 RAG 架构(却没人承认) 相比第一种模式,这一类更微妙一些。RAG(Retrieval-Augmented Generation,检索增强生成)本身确实有用,但很多 AI 初创公司的营销宣传和实际实现之间的差距更为巨大。 他们吹嘘,声称自己研发了——“先进的神经检索 + 自研嵌入模型 + 语义搜索基础设施....” 实际上,他们拥有的是: 我发现有 42 家公司使用了几乎一模一样的技术栈: 嵌入模型用的是 OpenAI 的 text-embedding-ada-002(而不是“我们的自研嵌入模型”); 向量存储用的是 Pinecone 或 Weaviate(而不是“我们的专有向量数据库”); 文本生成用的是 GPT-4(而不是“我们训练的模型”)。 实际代码长这样: # What they market as: "Proprietary Neural Retrieval Architecture"# What it actually is: OpenAI + Pinecone in 40 linesimport osimport openaiimport pineconeclass ProprietaryAI:def __init__(self):openai.api_key = os.getenv("OPENAI_API_KEY")pinecone.init(api_key=os.getenv("PINECONE_API_KEY"))self.index = pinecone.Index("knowledge-base")def answer_question(self, question: str) -> str:# Step 1: "Advanced Semantic Encoding"embedding = openai.Embedding.create(input=question,model="text-embedding-ada-002")# Step 2: "Neural Retrieval System"results = self.index.query(vector=embedding.data[0].embedding,top_k=5,include_metadata=True)# Step 3: "Contextual Synthesis"context = "".join([match.metadata['text']for match in results.matches])# Step 4: "Proprietary Language Model"response = openai.ChatCompletion.create(model="gpt-4",messages=[{"role": "system","content": f"Use this context: {context}"},{"role": "user","content": question}])return response.choices[0].message.content 这并不是说技术不好——RAG 确实有效。但把它称作 “自研 AI 基础设施”,就像把你的 WordPress 网站叫做 “定制内容管理架构” 一样荒诞。 再来算笔账,这家公司的实际成本(每次查询): OpenAI 嵌入模型:每 1 K tokens 为 0.0001 美元 Pinecone 查询:每次 0.00004 美元 GPT-4 生成:每 1K tokens 为 0.03 美元 总成本:约 0.002 美元/次查询 而用户实际支付的价格:0.50–2.00 美元/次查询 API 成本利润率高达 250–1000 倍! 我发现 12 家公司代码结构完全一样,另外 23 家公司相似度超过 90%。 唯一的差别只是变量名,以及使用 Pinecone 还是 Weaviate。 有家公司添加了 Redis 缓存,并吹成 “优化引擎” 另一家公司加了重试逻辑,还把它注册商标,叫 “智能故障恢复系统” 一个典型初创公司每月运行 100 万次查询的经济情况: 成本: OpenAI 嵌入模型:约 100 美元 Pinecone 托管:约 40 美元 GPT-4 生成:约 30,000 美元 总成本:约 30,140 美元/月 收入: 150,000–500,000 美元/月 毛利率:80–94% 这算是糟糕的生意吗?不是,毛利率非常可观。 但它是 “自研 AI” 吗?也不是。 模式 3:所谓“我们微调了自己的模型”,实际上…… 微调听起来很厉害,而且在某些情况下确实有用。但我发现的情况是这样的: 真正从零训练模型的公司只占 7%。敬佩!他们的基础设施我都看到了: AWS SageMaker 或 Google Vertex AI 的训练任务 将训练好的模型文件(模型产物)存储在 S3 桶中。 自定义推理端点 GPU 实例监控 其余大多数公司只是使用 OpenAI 的微调 API,本质上就是——付钱给 OpenAI,把自己的 prompt 和示例保存到他们的系统里。 30 秒教你识别“套壳公司” 如果你想知道我说的是真是假,其实根本不需要我花三周调查,这里有快速识别方法: 现象 1:网络流量 打开 DevTools(F12),切换到 Network 标签页,然后与其 AI 功能交互。如果你看到这些请求: api.openai.com api.anthropic.com api.cohere.ai 那你看到的就是「套壳公司」。他们可能加了一层中间件,但 AI 并不属于他们。 现象 2:响应时间模式 OpenAI 的 API 有一个独特的延迟特征。如果每次响应都在 200–350ms 之间,那就基本可以确定是 OpenAI 的服务。 现象 3:JavaScript 打包文件 打开网页源码,搜索以下关键词: openaianthropicsk-proj-(OpenAI API key 前缀,如果他们不小心泄露)claudecohere 我发现 12 家公司把 API Key 留在前端代码里。我都举报了,但没有一家回应。 现象 4:营销语言矩阵 规律很明显: 具体技术术语 = 可能是真的 模糊的营销词 = 很可能在掩饰 如果他们只会用“先进 AI”、“智能引擎”之类的模糊词,而没有具体技术细节,通常意味着背后有猫腻。 基础设施的真实情况 实际上,AI 初创公司的技术格局大致如下: 为什么这真的很重要? 你可能在想:“管它呢?能用就行。” 你说的部分确实没错,但事情比表面更重要: 对投资人来说:你在资助的是 prompt engineering,而不是 AI 研究。估值得调整。 对客户来说:你支付的是 API 成本加高额溢价。事实上,你可能一个周末就能搭出同样的东西。 对开发者来说:门槛比你想象的低。那个你羡慕的“AI 初创公司”?它的核心技术,你可能在黑客松里就能做出来。 对整个生态来说:当 73% 的“AI 公司”都在夸大或误导自己的技术实力,我们已经处在泡沫状态了。 套壳模式(因为并非所有套壳都是坏事) 聪明的套壳公司并没有撒谎,它们在做的其实是: 特定领域的工作流 更优的用户体验 巧妙的模型编排 有价值的数据管道 它们只是底层使用了 OpenAI,这没有问题。 那 27% 做对了的公司 让我来重点介绍那些诚实做事的公司: 第一类:透明套壳公司 首页直接写着 “Built on GPT-4”。它们卖的是工作流,而不是 AI 本身。案例包括: 法律文档自动化(GPT-4 + 法律模板) 客服路由系统(Claude + 行业知识) 内容工作流(多模型 + 人工审核) 第二类:真正的构建者 这些公司实际在训练模型: 医疗 AI(HIPAA 合规的自托管模型) 金融分析(定制风险模型) 工业自动化(专用计算机视觉模型) 第三类:创新者 在现有基础上构建真正新技术的公司: 多模型投票系统,提高准确性 带记忆的自定义智能体框架 新型检索架构 这些公司会在宣传时候详细讲解它们的架构,因为他们真的自己做了。 我学到了什么(以及你应该知道的) 经过三周对 AI 初创公司的逆向工程,我总结出以下几点: 技术栈本身没那么重要,关键是解决的问题。我发现的一些最棒的产品,“只是”套了层壳。它们有出色的用户体验、解决了真实问题,并且对自己的方式很诚实。 但诚实很重要。一个聪明的套壳公司和一个欺诈公司之间的差别,就是透明度。 AI 热潮正在创造错误的激励。创始人感到压力,被迫宣称“自研 AI”,因为投资人和客户都期望如此。这种状况需要改变。 基于 API 构建并不可耻。每个 iPhone 应用都是“封装 iOS API”的产物,我们不在意。我们关心的是它能不能用。 真正的考验:你能自己做出来吗? 我的评估框架如下: 如果你在 48 小时内能复刻他们的核心技术,他们就是套壳公司。 如果他们对这一点很诚实,那没问题。 如果他们撒谎——赶紧远离。 我的实际建议 对创始人: 诚实说明你的技术栈 在用户体验、数据和行业知识上竞争 不要声称做了你没有做过的事 “Built with GPT-4” 并不是弱点 对投资人: 要求查看架构图 索取 API 账单(OpenAI 发票不会骗人) 合理评估套壳公司 奖励透明度 对客户: 检查网络流量(Network Tab) 询问基础设施细节 不要为 API 调用支付 10 倍溢价 根据效果,而不是技术宣传来评估 那件没人敢明说的事 大多数所谓的“AI 初创公司”,其实是靠 API 成本而不是员工成本运作的服务型公司。 这没什么问题。 但就该叫它本来的名字。 接下来会发生什么? AI 套壳时代是不可避免的。我们在其他领域经历过同样的周期: 云基础设施(每个创业公司都声称“自建数据中心”) 移动应用(人人都说自己是“原生”,其实是混合开发) 区块链(每家公司都在“基于区块链”开发) 最终,市场会成熟。踏实的开发者会胜出,骗子会被揭穿。 而现在,我们正处在混乱的中间阶段。 最后的思考 在逆向分析了 200 家 AI 初创公司后,我反而对这个领域更乐观,而不是更失望。 那 27% 真正在做技术研发的公司,做得非常出色。 聪明的套壳公司也在解决真正的问题。 即便一些存在误导的公司,也有不错的产品,只是营销需要调整。 但我们需要让关于 AI 基础设施的诚实成为常态。使用 OpenAI 的 API 并不意味着你就不是开发者。撒谎才会让你失去可信度。 做酷产品,解决真实问题,使用任何有效的工具。只是别把你的 prompt 工程吹成“专有神经网络架构”。 调查以来的心路历程 在博客文章的最后,Teja Kusireddy 也分享了他开始调查后的情况: 第 1 周:原以为大约 20–30% 的公司使用第三方 API,但还是太天真了。 第 2 周:有创始人联系他,问“怎么进入了他们的生产环境”。其实,Teja Kusireddy 根本没进去,他看到的一切都在浏览器网络面板里,这些企业只是没想到有人会看。 第 3 周:有两家公司要求 Teja Kusireddy 撤掉发现内容。 昨天:一位 VC 问他是否可以在下一次董事会前审查他们的投资组合公司,Teja Kusireddy 答应了。 Teja Kusireddy 表示,他后面会在 GitHub 上公开分享调查的方法论、完整的爬取基础设施、API 指纹识别技术、可立即运行的检测脚本以及各大 AI API 的响应时间模式等等。 在三周里,Teja Kusireddy 称自己学到的唯一结论是:市场最终会奖励透明,哪怕一开始可能惩罚它。他还透露,自己这篇内容发布之后: 有 7 位创始人私下联系了他,有的防御,有的感激。 三家公司请求帮忙,把营销从“专有 AI”转成“基于顶级 API 开发”。 一位创始人告诉他:“我知道我们在撒谎,投资人希望这样,大家都这么做。我们该怎么停?” “AI 的淘金热不会结束,但诚实时代必须开始,”Teja Kusireddy 说道,“如果你感兴趣,可以打开你的 DevTools,查看网络面板,自己验证。真相,就在 F12 之下。”
索尼Xperia公众号自主注销,曾称中国业务“稳健运营”
凤凰网科技讯 11月5日,索尼手机业务在中国的运营动态今日再生变数。据IT之家用户反馈,“索尼Xperia”官方微信公众号已进入自主注销流程,页面提示“功能无法使用”。点击其公众号主页则直接显示“该账号已自主注销,停止使用”,且所有历史推文均已清空无法查看。而在微信中也无法搜索到该服务号。 目前,索尼Xperia官方微博状态虽然正常,但其内容更新也已停留在今年3月8日,已数月未发布新信息。 针对早前的“手机业务退出中国”传闻,索尼中国曾在去年3月回应称,包括手机业务在内的在华业务“正在稳健运营当中”,并称中国是“最重要的海外市场之一”。如今主要宣发渠道的主动注销,引发了外界对其中国市场策略的新一轮猜测。 然而,就在国内渠道收缩的同时,索尼的全球手机研发并未停滞。据科技媒体 The Walkman Blog近日披露,索尼正规划两款安卓新机——旗舰级的 Xperia 1 VIII 和中端的Xperia 10VIII,预计将在2026年正式发布。 报道分析指出,新曝光的PM-153x-BV型号预计对应中端主力Xperia 10VIII。此举被视为索尼调整产品线策略的延续。此前,索尼已确认终止了Xperia 5系列,原因是市场需求萎缩导致该产品线被认为“存在冗余”。相比之下,保留并更新Xperia 10系列被认为是更具合理性的市场布局。
刚刚,华为AI推理大招开源,时延降90%,吞吐提22倍,上下文10倍级扩展
智东西11月5日消息,刚刚,华为正式开源了UCM(Unified Cache Manager)推理记忆数据管理,这是一项针对AI推理加速的关键技术。 ▲GitCode项目页面 今年8月12日,华为正式发布了UCM技术,发布会上华为公布,经大量测试验证,UCM可将首Token时延最高降低90%,系统吞吐最大提升22倍,实现10倍级上下文窗口扩展,AI推理性能显著提升。 ▲8月12日UCM技术发布,图源:智东西 时隔近3个月,这一技术正式开源,比发布会上预计的9月稍晚。目前UCM在ModelEngine社区开放了基础框架和工具链,开发者可以在社区获取UCM源代码和技术文档。 ▲Github项目页面 GitCode开源地址: https://gitcode.com/ModelEngine/unified-cache-management Github开源地址: https://github.com/ModelEngine-Group/unified-cache-management 总体来看,UCM是以KV Cache和记忆管理为中心的推理加速套件,可以提供全场景系列化推理加速方案,通过推理框架、算力、存储三层协同,优化Tokens在各业务环节中流转的效率,破解长序列推理效率低、成本高的难题,以实现AI推理的更优体验、更低成本。其主要服务对象是企业用户。 Agentic AI时代,AI推理的KV Cache容量增长已超出HBM的承载能力。通过一系列算法,UCM可根据记忆热度在HBM、DRAM、SSD等存储介质中自动分级缓存,提升整个系统的效率,一定程度上降低对HBM的需求。 UCM融合了多类型缓存加速算法工具,可分级管理在推理过程中产生的KV Cache记忆数据。 UCM架构包含多个协同工作的关键功能模块,具体如下: ·UCM稀疏化模块 (UcmSparseBase):兼容多种稀疏算法的统一基类,负责稀疏KV Cache Block的卸载、加载与计算,实现“零感知”插拔式稀疏化。在不影响整体推理流程的前提下,能够灵活适配不同稀疏算法以提升推理效率。 ·稀疏化KV管理器 (SparseKVManager):面向算法级定制的KV Cache Block分配总控器,各稀疏算法以多态子类形式将自身分配逻辑注入框架,实现不同稀疏算法策略与推理引擎解耦,满足差异化推理场景需求。 ·KV Cache存储组件 (UcmKVStoreBase):负责提供与外部存储通信的通用接口。该组件支持稀疏算法与存储后端解耦,可无缝对接任意存储系统,同时支持前缀缓存,为数据存储提供了灵活多样的选择。 ·UCM连接器(UC Connector):桥接KV Cache存储组件与推理引擎,保障数据在不同组件之间的高效传输,实现高可靠的前缀缓存能力。 ▲UCM产品架构 图中所有灰色框代表vLLM 0.9.2版本中的现有类,绿色框则代表UCM新增组件。浅绿色框展示了基于此框架未来规划扩展的子类。 基于以上架构,UCM目前具备四个关键能力:稀疏注意力、前缀缓存、预填充卸载、异构PD解耦。 做UCM的动机是什么? 根据GitCode官方信息,当前随着模型尺寸的不断增长,KV缓存也变得越来越大,且越来越稀疏,对于长序列请求来说尤为明显。为了减小GPU显存的使用,主流的方向是将全量的KV数据卸载到外部存储中,而在GPU显存中只保留部分或者被压缩的KV数据。这同时可以减小GPU的运算量,在解码时增加最大生成序列长度和批大小。 有许多种不同的稀疏KV缓存的实现。最新的论文指出,能够最好地适配所有场景和所有模型的方法是不存在的。因此,更好的做法是搭建一套公共的框架,并在此之上接入不同的稀疏化算法,就像KV连接器和PC一样。 根据GitCode官方信息,UCM的核心原理是持久化LLM的KVCache,并通过多种检索机制替代冗余计算。UCM支持前缀缓存(prefix cache,PC),同时提供了多种无需训练的稀疏注意力检索方法,在处理极长序列推理任务时达到更高性能;此外,UCM基于存算分离架构提供了PD分离方案,使得异构计算资源的管理更简单灵活。 结语:应对性能挑战,缓解资源瓶颈 UCM开源或加速AI推理落地 随着边缘和端侧AI的快速发展,AI推理需求快速增长,在Agentic AI时代,AI推理任务愈发复杂,对算力、内存访问效率等方面都提出了更多挑战。 UCM的开源,可以进一步缓解AI推理复杂任务产生的资源瓶颈和性能挑战,给行业提供新的技术路径,加速优秀商用AI推理方案的落地。
任天堂《星之卡比 Air Riders》11月8日开启先行试玩:内置三条赛道,线上游戏需NSO会员
IT之家 11 月 5 日消息,据外媒 CNET 今天报道,随着年底临近,任天堂的几款重磅作品即将登陆 Switch 2 平台,其中之一的《星之卡比 Air Riders》将在 11 月 20 日正式发售。 不过任天堂现已宣布开启先行试玩,分为多个时间段,每次试玩可持续 6 小时,所有玩家皆可在 eShop 下载游戏,免费试玩其中的三条赛道。 IT之家附本次试玩时间表如下: 试玩日期 太平洋时间 北京时间 11 月 8 日 0:00-6:00 16:00-22:00 11 月 8 日 16:00-22:00 11 月 9 日 8:00-14:00 11 月 9 日 7:00-13:00 11 月 9 日 23:00-11 月 10 日 5:00 11 月 15 日 0:00-6:00 16:00-22:00 11 月 15 日 16:00-22:00 11 月 10 日 8:00-14:00 11 月 16 日 7:00-13:00 11 月 16 日 23:00-11 月 17 日 5:00 据官方介绍,本次试玩可游玩到花之原野、波流之海、琥珀瀑布山三条赛道,还可游玩好友对战大厅模式,测试期间玩家数会被限制在 16 人,而正式版则会提升至 32 人,另外玩家还可游玩教学模式,方便学习游戏操作。 不过需要注意的是,玩家如果要试玩线上游玩功能需要 NSO 会员,但没有会员的玩家也可以玩到教学模式。 IT之家注:《星之卡比 Air Riders》是一款以《星之卡比》为基础的另类赛车游戏,玩家在游戏中将可以使用各种角色,应用独特技能来改变加速、转向、攻击力等,同时游戏操作方式也很独特,不需要按住油门键就能加速,可以专注在甩尾、放技能。
AI推理性能大提升:华为UCM技术开源,系统吞吐猛增22倍
IT之家 11 月 5 日消息,华为今日宣布,该公司针对 AI 推理加速的关键技术 —— UCM(Unified Cache Manager)推理记忆数据管理正式宣布开源。 UCM 以 KV Cache 多级缓存和推理记忆管理为中心,通过推理框架、算力、存储的三层协同,宣称可破解长序列推理效率低、成本高的难题,为企业提供更优的 AI 推理体验。 UCM 融合了多类型缓存加速算法工具,可分级管理在推理过程中产生的 KV Cache 记忆数据。UCM 架构包含多个协同工作的关键功能模块,具体如下: UCM 稀疏化模块(UcmSparseBase):兼容多种稀疏算法的统一基类,负责稀疏 KV Cache Block 的卸载、加载与计算,实现“零感知”插拔式稀疏化。在不影响整体推理流程的前提下,能够灵活适配不同稀疏算法以提升推理效率。 稀疏化 KV 管理器(SparseKVManager):面向算法级定制的 KV Cache Block 分配总控器,各稀疏算法以多态子类形式将自身分配逻辑注入框架,实现不同稀疏算法策略与推理引擎解耦,满足差异化推理场景需求。 KV Cache 存储组件(UcmKVStoreBase):负责提供与外部存储通信的通用接口。该组件支持稀疏算法与存储后端解耦,可无缝对接任意存储系统,同时支持前缀缓存,为数据存储提供了灵活多样的选择。 UCM 连接器(UC Connector):桥接 KV Cache 存储组件与推理引擎,保障数据在不同组件之间的高效传输,实现高可靠的前缀缓存能力。 UCM 产品架构 基于以上架构,UCM 目前具备四大关键能力:稀疏注意力、前缀缓存、预填充卸载、异构 PD 解耦,实现首 Token 时延最高降低 90%,系统吞吐最大提升 22 倍,并达到 10 倍级上下文窗口扩展,显著提升了 AI 推理性能。 UCM 已在 ModelEngine 社区开放基础框架与工具链,开发者可通过社区获取 UCM 源代码与技术文档。
讯飞AI数字员工上岗!从企业招采、合同审核到品牌传播、出海,直击企业实际痛点
智东西 作者 | 程茜 编辑 | 漠影 招标采购、合同审核、运营传播、出海服务……越来越多的岗位能看到AI数字员工的身影。 智东西11月5日报道,昨日,一场直播全面揭开科大讯飞提速企业数字化的核心利器——“AI数字员工天团”。 在发展“新质生产力”成为产业共识的当下,以AI为代表的科技创新正深度重构生产关系。科大讯飞已规模化落地的AI数字员工,精准击中了企业从供应链管理、风险控制到品牌出海、客户体验等一系列核心痛点,为人机协同的新工作范式提供了清晰的落地样本。 以合同审核为例,面对一份对方将违约金比例从30%降至5%的修改,讯飞“法务合规官”能精准识别此举会“降低乙方违约成本”,并同步给出风险等级评估、专业修改建议乃至谈判话术。 法务合规官系统审核合同 这标志着科大讯飞AI数字员工早已超越了单一的工具提效,而是作为“专家同事”,与人类员工协同完成复杂的业务闭环。 一、从工具到伙伴,AI要解决企业真实问题 随着AI技术的突破,其正加速渗透千行百业,与企业的连接日益紧密。 与此同时,科技创新正通过AI这一载体,作为发展新质生产力的核心要素,完成从技术突破到产业落地的转化。这之中的AI数字员工就是这场新质生产力落地实践中负责实际执行的关键角色。 这一过程的本质,是通过人机协同重构生产关系,让企业的运营效率、生产力水平得到实质性提升。因此当AI与企业核心痛点碰撞,AI数字员工的引入使得企业业务产生诸多新变化。 首先是其要从简单的工具辅助到化身更加智能、有自主性的劳动力伙伴。 传统的办公软件、财务系统等IT工具往往依赖人为操作,而新型劳动力则实现角色转变,可以基于自主执行能力接手核心业务流程,例如在采购环节自动实现供应商筛选、比价和订单生成等,或者在客服岗位实现24小时在线处理咨询,自动完成数据录入与报表生成等。 其次是AI数字员工会使得企业重新分配人力价值。 一方面,AI数字员工可以替代低效劳动,将员工从机械重复、低价值的工作中解放,减少时间浪费和人为误差;另一方面,其可以让员工聚焦于战略规划、客户深度服务、产品研发等不可替代的高附加值工作。 第三点是AI数字员工引入会倒逼企业组织与流程升级,去适应人机协同的工作环境。 AI相关系统需要与企业各条业务线联动,才能实现科学辅助决策,这也意味着企业需要打破传统部门间的业务设定,同时员工还需要与AI数字员工协同,才能将新质生产力的作用发挥到最大。 最后是智能化人机协同,能让企业更快、更灵活适应市场变化。 对企业而言,发展新质生产力是提升竞争力、实现可持续发展的必选项,也就是说上述提到的人力资源重新分配、降本增效等诸多转变,都可以增强其应对市场变化的能力,同时形成更高效的业务体系快速响应消费者个性化需求,以增强企业在动态市场中的灵活性和抗风险能力,打造差异化优势。 这些核心变化都指向一个关键命题,能不能解决企业的真实问题,这也成为衡量当下作为新质生产力落地关键要素AI数字员工价值的核心,我们从科大讯飞这场直播里看到了AI数字员工落地的清晰样本。 二、五大AI数字员工,让AI赋能生产力从概念照进企业现实 科大讯飞的AI数字员工瞄准了企业核心领域,涵盖招采、法务、风控、出海等,而这些领域直接对接企业核心目标。 传统招采环节面临着效率低下、围串标行为隐蔽、证书真伪难辨及主观评分有失公允四大痛点。 直播中亮相的“招采首席官”,则通过一套覆盖全流程的智能化手段予以精准破解。 在标前审查环节, 它依托海量法律文件与企业定制化规则库,不仅能自动纠错、审查内容一致性,更能精准识别合规风险,为招标工作筑起一道坚实的“防火墙”。 进入评标环节, 它化身“侦探”,通过对企业关联关系、软硬件信息、文本与图片相似度等八个维度的数据进行交叉分析,能够有效识别出潜在的围串标行为,并构建起一个完整的异常行为证据链。同时,系统还能自动对接外部权威数据库,对投标人提交的资质证书进行即时核验,确保其真实性与有效性。 在最终决策阶段, 它又变为“天平”,将模糊的主观评审标准,拆解为可量化的客观要素点,结合数据训练实现高度类人的公正评分,帮助企业优中选优。 合肥公共资源交易中心副主任邵华谈道,AI在公共交易落地的最大挑战是让AI听懂业务语言,他们前期与讯飞合作,实现了评审时长缩短、人机一致性高的效果。这套从0到1的经验,为整个行业的智能化转型提供了一条务实的参考路径。 选定合作伙伴的下一个环节就是签署具有法律效力的合同,轮到下一个AI数字员工法务合规官出场,其可以作为企业的24小时在线资深法律顾问。 合同审查方面有与采购相似的痛点,包括人工审查的效率低、工作量大、审查标准不统一等,还有差异化的痛点,如合同审查专业门槛高,需对法律风险和商业陷阱有专业积累,还需要统一管理反复修改的合同版本避免出错。 对应这些痛点,科大讯飞为法务风控官搭载了四项能力,智能条款分析、风险量化评估、多维版本对比、自定义审查规则,精准对应传统合同审查的多项痛点。 可以看到在对比时,系统清晰地用不同颜色高亮标注出删除、新增、修改的内容,让任何细微变更都无所遁形。 值得一提的是,该系统实现了“开箱即用”的轻量化部署。企业无需复杂的系统对接,即可像使用办公软件一样轻松上手,极大降低了智能化合规工具的应用门槛。 接下来到了项目运营的关键环节,企业需要保障每一笔支出高效合规,科大讯飞的运营风控官同样搭载了四项能力,包括多模态数据审核、自定义规则配置、智能决策分流、企业级集成整合。 讯飞企业数字化业务群的咨询总监苏义桥提到,他们在与企业交流中发现,企业财务、商务或运营相关人士在审核时面临效率低、准确率低、人力成本高、难以标准化的痛点,而运营风控官的四项能力就可以通过接入业务系统数据、解析规则、智能决策、输出成果实现业务的协同闭环。 在运营风控官的后台,业务专家可以根据需要构建相应流程,如供应商付款审核、供应商入库审核流程,其通过自然语言生成相应规则在几分钟内就能配置完成。 其构建的智能审核平台不仅全天在线,还能根据既有规则对每一笔支出进行多维度交叉验证,保证业务合规与审核高效准确。 珠海万达商业管理集团财务经理郑用华透露,此前他们需要面对10多套不同的业务系统、200多个核心流程和上千种单据类型,而讯飞智审平台的上线使得他们实现了真正的7×24小时不间断合规运营,同时节省了相当于数百人规模的人力成本并构建了标准化风控体系。 如今出海已成诸多企业的核心业务环节,如何将自身业务与品牌形象准确传递、高效触达海外市场,成为关键需求,但这一目标的实现,往往需要投入高昂的人力成本,成为不少企业出海的阻碍。 科大讯飞的首席形象官就承担起了这一重任。 面对想要进一步与企业进行快速业务对接的客户,科大讯飞打造了首席形象官。通过集成Agent、虚拟人、多模态等AI技术的交互智能体平台星火快答,企业就可以快速构建专属形象官,基于星火快答可以搭载自动讲解产品、专业问答能力。 此外,基于星火快答平台企业还可以构建交互智能体,下面的对话式购买咖啡场景就基于这一能力。用户可以站在大屏面前用英语和虚拟人进行对话,虚拟人通过人脸和唇形识别就能避免公共环境其他因素的干扰,保证正常交流。 如今,中科国金已经将星火快答作为潜入教学全流程的智能教学伴侣,面向未来的平台,中科国金教育研究院院长侍大明认为,这将不止服务于单一学校,而是能连接区域产业链,根据企业的实时人才需求,动态调整培养方案,实现产、教、才的精准匹配与闭环。 三、数字员工四大特征,契合新质生产力落地浪潮 这几个环节不仅是企业运营的关键核心,更是全行业共通的共性痛点,二者叠加之下,对数字员工提供商的综合实力提出了更大考验。 当下,科大讯飞在企业数字化领域取得的成绩离不开其在技术与客户需求洞察方面的积累。 在技术层面,讯飞星火大模型数次重磅升级,在多项主流测试集中排名第一,同时还打造了星火企业智能体平台为每个岗位打造专属AI助手,帮助企业结合业务场景快速构建可落地的智能体应用。 在客户需求层面,科大讯飞中标大模型大单数量领先,已对接教育、医疗、水务、政务等各个赛道的企业需求,涵盖教育、医疗、水务、政务等不同赛道,根据智能超参数的统计,2024年科大讯飞的中标项目达91个,中标金额高达约8.48亿元,两项指标均位居行业第一,且远超其他厂商。这些与企业的合作实践,已内化为其洞察和满足企业数字化转型需求的核心经验。 这场直播是科大讯飞企业数字化布局的缩影,我们看到了企业需求方与技术供给方的“双向奔赴”。 其体现了AI数字员工当下在企业中真实落地的实例,这些看得见、用得上的应用形态,正把AI赋能生产力的抽象概念变成可触摸的现实。 站在宏观视角,我们从科大讯飞的AI数字员工布局中窥见当下企业数字化的一条有效路径。 最为直观的就是要聚焦企业运营中的共性痛点,上述几大业务环节的痛点都有效率低、人力成本高、人工审核风险高等同样的难题,并且这些环节与企业运营效率、业务竞争力提升有着直接关系,因此企业更愿意将其接入AI能力,也能更快看到效率提升。 此外,这些已上岗的数字员工都具备替代重复劳动、辅助复杂工作、适配多场景的能力,科大讯飞还为其提供开箱即用的系统,进一步降低企业的数字化转型成本与门槛。 还有一点至关重要,针对AI替代人类的说法,科大讯飞的定位清晰,即通过人机协同构建超级助理,助力人类提升效率,而非实现对人类的替代。 从科大讯飞AI数字员工天团的落地到真正的价值呈现,我们已然看到了企业智能化转型可参考、可复制的未来范式。 结语:AI数字员工成新质生产力落地关键 讯飞五大AI数字员工的规模化落地,标志着通用AI技术向行业专用、可深度集成的生产力工具的关键跨越。它们聚焦于大型组织运营中的共性痛点与核心流程,提供既能“开箱即用”又能与现有系统深度融合的解决方案。这为政府、央国企等业务体量庞大、合规要求严格的组织,提供了一条强化内部管控、提升精细化运营水平、加速治理能力现代化的全新路径。 而这仅仅是科大讯飞赋能产业的开始。2025科大讯飞全球1024开发者节仍在继续,11月6日,大会发布会将在合肥奥体中心举行。届时,讯飞星火大模型将迎来以“更懂你的AI”为主题的重磅更新,发布覆盖大模型底座能力、多模态交互与智能体应用等方面的技术突破,并推出一系列深入政务、医疗、能源等关键领域的行业应用。这场科技嘉年华,将呈现AI赋能千行百业的新路径。
微软联手AI算力独角兽,签数十亿刀AI基建订单、部署数万块英伟达GPU
编译 | 王欣逸 编辑 | 程茜 智东西11月5日消息,11月3日,美国AI开发云平台独角兽Lambda宣布与微软达成一项数十亿美元的AI基础设施合作,将部署数万块英伟达GPU,其中包括最新的英伟达GB300 NVL72系统。 根据协议,Lambda将依托英伟达的GPU,为微软Azure客户提供高性能训练与推理服务,满足客户的基建需求。双方尚未披露此项协议的具体金额。 Lambda成立于2012年,在AI热潮之前就已专注于高性能计算。其主要业务包括为模型训练和推理提供基础设施、云服务和软件,租赁搭载英伟达GPU的服务器,服务超过20万的开发者。 2024年,Lambda提出了一键集群的概念,推出首个用于AI模型训练的自助式和按需GPU集群。利用Lambda庞大的自有计算基础设施,该公司推出了Lambda推理API和Lambda聊天机器人,提供对开源模型的托管访问,让AI开发人员能够轻松、安全且经济地大规模构建、测试和部署AI产品。 截至目前,Lambda一共完成了4轮融资,累计融资达到8.63亿美元(约合人民币61.45亿元)。 2021年7月,Lambda完成了谷歌参投的1500万美元A轮融资(约合人民币1.07亿元),用于打造GPU云服务和深度学习硬件。 2022年3月,Lambda再获4400万美元(约合人民币3.14亿元)B轮融资,声称要打造最好的AI训练云平台,首次部署大规模GPU。 2024年2月,该公司完成由美国创新技术基金 (USIT) 领投的3.2亿美元(约合人民币22.8亿元)的C轮融资,加速其GPU云业务的增长。 今年2月,Lambda宣布完成4.8亿美元(约合人民币34.18亿元)的D轮融资,英伟达和OpenAI联合创始人、前特斯拉AI总监Andrej Karpathy等参投。 Lambda称,他们的使命是让计算像电一样无处不在,让每个美国人实现一人一GPU。 外媒CNBC称,Lambda拥有数十个数据中心,并且计划租赁新的数据中心,以及建设自有的基础设施。10月初,Lambda还宣布计划于2026年在堪萨斯城建立一家AI工厂。该基地预计初始功率容量为24兆瓦,未来有望扩展至超过100兆瓦。 今年3月,英伟达GB300 NVL72系统发布,目前美国AI云服务提供商CoreWeave已部署该系统。10月,微软Azure宣布启用了全球首个英伟达GB300 NVL72集群,英伟达称其可以让OpenAI仅在数天内就能训练万亿参数模型。根据协议,Lambda部署的GPU就包含这一系统。 Lambda首席执行官斯蒂芬·巴拉班(Stephen Balaban)称:“这份协议正值消费者对AI服务需求激增时期,包括聊天机器人和AI助手等,很多人正在使用ChatGPT、Claude以及市面上的各种AI服务,这个行业发展得非常好。Lambda团队与微软合作已超过八年,这次合作也表明双方的关系更近一步。” 结语:多个算力大单落地,AI基建狂飙 全球高性能计算需求显著增长,AI算力狂飙。仅11月3日一天,多个算力大单宣布成交。先是OpenAI宣布与亚马逊达成价值380亿美元(约合人民币2706亿元)的云计算协议,随即微软又宣布与澳大利亚数据中心公司IREN达成97亿美元(约合人民币691亿元)的AI云服务合作。 随着越来越多的企业寻求大规模AI基础设施与算力支持,AI云基础设施正面临强劲的需求。Lambda与微软的合作,将为那些难以获得安全GPU供应的公司和AI开发人员带来机遇。
任天堂将开发重心转向Switch 2,84%新主机用户由初代升级而来
IT之家 11 月 5 日消息,据 IGN 报道,在公布亮眼销售数据的次日,任天堂正式确认,公司将把核心开发重心转向“Switch 2”,并透露其新主机的早期用户中,有 84% 为前代 Switch(即 Switch 1)的拥有者。 任天堂在最新发布的销售简报中表示:“展望未来,我们将把主要开发重心转向 Nintendo Switch 2,并围绕这一全新平台拓展我们的业务。” Switch 2 上市头六个月陆续推出了《马力欧赛车世界》(Mario Kart World)和《咚奇刚:蕉力全开》(Donkey Kong Bananza)等少量独占作品,同时也包括一系列面向现有 Switch 1 游戏的付费升级内容(例如《塞尔达传说:旷野之息》和《马力欧派对狂欢》),以及跨世代游戏(如《宝可梦传说 Z-A》和即将推出的《银河战士 Prime4:超越》)。目前看来,任天堂似乎正释放信号:未来的游戏阵容或将更加侧重于 Switch 2 独占作品,而这很可能得益于新主机的巨大市场成功。 考虑到 Switch 1 已在市场上销售近十年、普及度极高,如此高比例的 Switch 2 用户由前代主机升级而来并不令人意外。值得注意的是,任天堂此次提供了更详细的用户迁移数据,显示其在 Switch 世代期间,每年吸引新用户的节奏相对均衡。 数据显示,购买 Switch 2 的用户中,最大群体是 2017 年 Switch 1 首发时的首批用户,但随后几年购入 Switch 1 的各年度用户群体规模也相差不大。 IT之家注意到,任天堂在简报中写道:“目前,84% 的 [Switch 2 用户] 是从 Nintendo Switch 升级而来。这一高比例表明,许多喜爱 Nintendo Switch 的消费者正在顺畅地过渡到 Nintendo Switch 2,使我们得以在平台迭代过程中持续维系与用户的关系。此外,若进一步分析这些迁移用户最初开始使用 Nintendo Switch 的时间,我们并未发现集中在某一特定时期的现象。自 2017 年 Switch 上市至 Switch 2 发布期间购入 Switch 的用户,正以较为均匀的节奏迁移到 Switch 2 平台。” 截至 2025 年 9 月 30 日,任天堂表示其年度活跃玩家总数已达 1.28 亿人,其中 3400 万为付费 Nintendo Switch Online 会员。此外,任天堂账户(Nintendo Account)注册总量已突破 4 亿。 就在昨日,任天堂还确认,自 6 月 5 日至 9 月 30 日期间,Switch 2 全球销量已达惊人的 1036 万台。
发布拟真人形机器人的,这次不是特斯拉,是小鹏
从地面到天空 小鹏不止于车 如果把下图的公司名称和主讲人遮住,你或许会以为这是特斯拉的发布会。 在 2025 年小鹏科技日上,小鹏汽车系统性地展示了其围绕「物理 AI 世界」战略所构建的技术体系与产品演进路径。 这家以新能源汽车起家的科技公司,正试图通过底层模型、自研芯片与多形态终端的协同演进,打造一个覆盖地面、低空与机器人领域的通用智能生态。 第二代 VLA 大模型,突破行业上限 这一战略的核心,是小鹏最新发布的第二代视觉-语言-动作(VLA)大模型。 不同于行业普遍采用的串行处理架构————即先将视觉信息转化为自然语言描述,再进行推理决策,该模型实现了从视觉输入到车辆控制指令的端到端直接映射。 这种架构跳过了中间的语言抽象环节,大幅减少了信息转换过程中的语义损耗与系统延迟。 作为一款面向物理世界的通用模型,它兼具动作生成、场景理解与行为推演三大能力。 比如在车端,小鹏通过「芯片-算子-模型」的全栈优化,在算力为 2250TOPS 的 Ultra 版车型上部署了参数量达数十亿级别的 VLA 模型,它不仅能实时输出方向盘转角、油门刹车等控制信号,还能解析复杂交通场景中的语义关系,例如识别施工区域临时摆放的锥桶、理解行人意图,甚至预测周边车辆在未来几秒内的轨迹变化。 基于该模型,小鹏推出了「小路 NGP」功能,在缺乏车道线、交通标志甚至 GPS 信号的非结构化道路上,系统平均接管里程提升了 13 倍;更引人注目的是「Super LCC+」——一种无需预设导航路线的自动辅助驾驶模式,车辆可自主完成全局路径规划与局部避障,并且模型可以自主在未知环境中的泛化能力。 小鹏计划于 2025 年 12 月启动该模型的车端先锋用户测试,并于 2026 年第一季度随 Ultra 版车型全面推送。 小鹏也开始向行业输出这一核心技术能力,大众汽车已确认成为该模型及小鹏自研图灵 AI 芯片的首发战略合作伙伴。 在自动驾驶的下一阶段,小鹏计划于 2026 年正式推出三款 Robotaxi 车型并启动试运营。 这些车辆被视为小鹏多年智驾技术的集大成者,搭载 4 颗图灵 AI 芯片,总算力达 3000TOPS,为目前全球车端最高水平。 技术路线上,小鹏坚持纯视觉方案,不依赖激光雷达与高精地图,他们认为高精地图更新成本高、覆盖有限,激光雷达则受限于硬件性能纯视觉方案更具普适性与可扩展性。 在安全冗余上,小鹏所有的 Robotaxi 车辆都将采用双冗余硬件架构,涵盖感知摄像头、计算单元、转向与制动执行系统,两套系统可实时互为备份,在单点失效时实现毫秒级切换,满足全无人驾驶运营的安全标准。 小鹏创新性地在 Robotaxi 的遮阳板中集成柔性显示屏,可显示「正在等待」「请通行」等可视化信息,帮助行人理解车辆意图;未来他们计划结合定向车外语音,形成视觉+听觉的多维交互界面,增强人车互信。 与此同时,小鹏还将推出面向普通消费者的「Robo」 L4 智驾版本,硬件配置、安全冗余与智驾能力与 Robotaxi 同源,并支持「日常模式」与「高阶智驾」两种状态切换,让用户在不同场景下灵活选择,相当于一辆有安全员的 Robotaxi。 为加速生态建设,小鹏宣布将对 Robotaxi SDK 开源,并且高德已作为首个全球生态合作伙伴加入这一项目,双方将整合地图、调度与用户服务,共同面向全球市场提供 Robotaxi 运营解决方案。 最拟人的人性机器人 在具身智能领域,小鹏展示了全新一代 IRON 人形机器人。 该机器人采用「由内而生」的仿生设计理念,拥有类人脊椎结构、全包覆柔性皮肤与可定制体型,支持不同身高与比例的个性化配置。 IRON 全身具备 82 个自由度结构,远超行业平均水平,可完成「猫步行走」、上下楼梯、弯腰拾物等高难度拟人动作。其手部采用行业最小尺寸的谐波减速关节,实现与人类手掌 1:1 的比例,拥有 22 个自由度结构,能稳定抓取鸡蛋、拧开瓶盖或操作精密工具。 IRON 搭载 3 颗图灵 AI 芯片,有效算力达 2250TOPS,为当前人形机器人中最高水平。刚刚提到的小鹏第一代物理世界大模型,也将于 IRON 上首发运行。 至于商业化,小鹏目前计划将其更多的用于商业导览、导购、巡检等场景,宝钢集团已作为生态伙伴与小鹏一起进行工业巡检等复杂应用的联合开发。 小鹏计划在 2026 年底实现高阶人形机器人的规模量产,目前整个机器人团队已有 1000 余人。 会开车就会开飞行汽车 低空出行方面,小鹏汇天正同步推进两条产品线:面向个人用户的「陆地航母」与面向多人高效出行的全倾转混电飞行汽车「A868」。 「A868」采用全倾转旋翼构型,基于小鹏汽车鲲鹏超级增程架构,搭载自研航空级混电内核,预计实现 500 公里航程,最高航速达 360 公里/小时,采用 6 人座舱设计,瞄准高端商务与城际通勤需求。 目前该产品已完成多轮风洞测试与系留飞行验证,进入关键的自由飞行阶段。 「陆地航母」则已进入量产前夕,全球订单突破 7000 台。该产品颠覆了传统飞行器的操作逻辑,首发智能飞行座舱与全球首创的「四轴合一」单杆操纵系统,用户仅需一根操纵杆即可控制升降、前后、左右与偏航,大幅降低学习门槛。 量产进程上,汇天飞行汽车工厂已于 2025 年 11 月 3 日试产并下线首台飞行器。这座全球首座采用现代化汽车流水线工艺的飞行汽车工厂,融合了航空级质量控制标准与汽车级生产效率,初期年产能 5000 辆,规划年产能 10000 辆。在满产状态下,生产线每 30 分钟可下线一台飞行器。 小鹏的野心在此次科技日中显露无遗,他们希望以以第二代 VLA 大模型为智能基座,以图灵 AI 芯片为算力支撑,同步推进智能汽车、人形机器人与飞行汽车三大终端形态的研发与商业化。 但与特斯拉一样,这些前瞻的创新型业务还是要以造车业务为支点,所以,还是期待一下明晚的小鹏 X9 会不会有惊喜吧。 文|芥末

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。