行业分类:
加载中...
头条分类:
加载中...
拥有AI之后,未来人最重要的技能是什么?ChatGPT之父奥特曼给出最新答案
4月9日,OpenAI首席执行官阿尔特曼(Sam Altman)与霍华德大学校长 Ben Vinson III博士进行了一次有关人工智能的对话。 在对话中,阿尔特曼不仅展示了对人工智能未来发展的深刻见解,也体现了他对技术伦理、社会责任和合作的重视。 图片来源:Arizona PBS网站视频截图 划重点: 1. “人工智能可以成为最伟大的技术革命,成为世界上前所未有的新工具,成为推动经济增长的最强大的引擎。” 2. “但要让它得到良好部署,需要与全社会的合作,确保这一切以公平的方式进行,让每个人都受益。” 3. “我们有新团队帮助我们思考如何为那个世界做好准备。还有,技术安全工作,思考我们如何确保人类保持对比以前更有能力的系统的控制。” 4. “我们面临着一个更难的问题,即,谁来决定这些系统的行为应该是什么样的?” 5. “我认为这可能是自互联网以来,至少是年轻人毕业以来最伟大的时代。” 6. “优势属于那些刚刚起步的人,或者更早的人。” 7. “你们比年长的人更熟悉AI工具。你们带来了一套全新的视角,不仅是如何做现有的事情,而是现在可以创造什么,以前不可能的事情现在变得可能。” 8. “我认为人类的适应性是非凡的。” 9. “我们希望得到关于未来原则的反馈,以及如何建立一个可靠的过程来使这一切运作。” 10.“我认为批判性思维、创造力、理解他人需求的能力、产生新想法的能力,某种程度上将是未来最有价值的技能。” 核心内容 阿尔特曼与霍华德大学校长Ben Vinson III博士的对话涵盖了多个关于人工智能发展的关键话题。以下是对话内容的详尽总结: 人工智能的伦理考量和社会责任 在讨论中,Dr. Ben Vinson III提出了关于人工智能快速发展中伦理考量的重要性。阿尔特曼回应说,人工智能确实有可能成为推动经济增长的强大引擎,但这需要全社会的合作,确保技术以公平的方式部署,让每个人都能受益。他强调,为了实现这一目标,OpenAI正在寻找答案,走出硅谷,与不同背景和行业的人交谈,以确保ChatGPT等产品能够服务于更广泛的群体,并以包容、公平的方式做到这一点。 图片来源:Arizona PBS网站视频截图 阿尔特曼进一步讨论了人工智能偏见问题,他提到,早期的GPT版本可能会因为互联网上的数据偏见而受到影响。为了解决这个问题,OpenAI采用了“基于人类反馈的强化学习”等方法,虽然不能说完全消除了偏见,但这些工具显著改善了系统的行为。他指出,GPT-4在偏见测试中的表现已经取得了明显进步,但同时也面临着新的挑战,即如何决定这些系统的行为应该是什么样的,确保边缘化的声音能够被听到。 人工智能的多样性和包容性 Dr. William Sutherland提出了关于人工智能开发阶段边缘化声音的重要性。阿尔特曼认为,无论是在工程创意的提出、系统行为规范的制定,还是在提供人类反馈的层面,确保有一个代表性的样本至关重要。他强调,OpenAI非常欢迎来自不同背景的人才加入,因为他们带来了全新的视角和创意,这对于推动技术革命和解决偏见问题具有极大的帮助。 图片来源:Arizona PBS网站视频截图 阿尔特曼还提到,OpenAI正在努力确保技术革命的好处能够平等地惠及来自弱势背景的学生。他认为,这场技术革命为年轻人提供了前所未有的机会,他们比年长的人更熟悉AI工具,能够创造以前不可能的事情。他鼓励年轻人抓住这个特殊的时代,利用AI工具推动变革。 人工智能对教育的影响 在对话中,阿尔特曼表达了对人工智能在教育领域应用的兴奋。他提到,学生和教师是ChatGPT的早期用户,他们使用ChatGPT的方式和取得的成效让OpenAI感到惊讶。他预见了一个未来,每个学生都有一个AI个性化导师,这将彻底改变他们的学习方式。阿尔特曼认为,尽管人类教师仍然不可或缺,但AI的加入可以放大教师的影响力,提高教育质量。 他还提到了OpenAI在教育领域的一些尝试,比如推出的一些GPT产品,他认为这些产品是很好的教育体验。他期望未来能够实现一个世界,即使是大学生也能比现在的学生更聪明,因为AI工具的帮助。
英伟达H100交货时间从4个月降至8-12周
据Digitimes报道,戴尔台湾地区总经理Terence Liao报告称,英伟达(Nvidia)H100 AI GPU的交付周期在过去几个月中已从3-4个月缩短到仅2-3个月(8-12周)。服务器 ODM 显示,与 2023 年相比,供应终于有所缓解,当时几乎不可能获得 Nvidia 的 H100 GPU。 尽管交货时间缩短,但Terence Liao表示,对具有人工智能功能的硬件的需求仍然非常高。具体来说,人工智能服务器的购买正在取代企业中的通用服务器购买,尽管人工智能服务器的成本非常高。但是,他认为采购时间是造成这种情况的唯一原因。 2-3 个月的交付窗口是 Nvidia H100 GPU 的最短交货时间。就在6个月前,交货时间达到了 11 个月,这意味着英伟达的大多数客户不得不等待一年才能完成他们的 AI GPU 订单。 进入2024年以来,交货时间显著缩短。首先,我们看到今年早些时候大幅减少到 3-4 个月。现在,交货时间又缩短了一个月。按照这个速度,我们可以看到交货时间在年底或更早之前完全消失。 这种行为可能是一些公司拥有过剩的 H100 GPU并转售部分供应以抵消未使用库存的高昂维护成本的连锁反应的结果。此外,AWS 使通过云租用 Nvidia H100 GPU变得更加容易,这也有助于缓解部分 H100 需求。 唯一在供应限制中苦苦挣扎的英伟达客户是像OpenAI这样的大公司,它们正在开发自己的LLM。这些公司需要数以万计的 GPU 来快速有效地训练他们的 LLM。 好消息是,这应该不会成为长期的问题。如果交货时间继续呈指数级缩短,就像过去4个月一样,英伟达最大的客户应该能够获得他们需要的所有GPU,至少在理论上是这样。 01 CoWoS封装产能是关键 交货时间缩短,表明台积电扩增的CoWoS封装产能开始释放。据悉,台积电要在2024年底前将相关产能从2023年中的水平增加一倍,从目前的情况来看,台积电及其合作伙伴的CoWoS产能扩增进展快于预期,使得以H100为代表的高性能GPU交货时间大幅缩短。 产业人士分析,从2023年7月到年底,台积电积极调整CoWoS封装产能,已逐步扩充并稳定量产,去年12月,台积电CoWoS月产能增加到1.4万~1.5万片。 虽然台积电在积极扩产,但只有这一家的产能还是无法满足市场需求,因此,英伟达已经在2023年向台积电以外的专业封测代工厂(OSAT)寻求帮助,主要包括日月光和安靠(Amkor),其中,安靠在2023年第四季度已开始提供相关产能,日月光投控旗下矽品也于2024年第一季度开始供应CoWoS封装产能。 2024年,AI芯片用先进封装产能依然会供不应求,包括台积电、日月光、安靠、力成、京元电在内的专业封测代工厂,将会在今年扩大资本支出,以布局先进封装产能。 根据台积电的扩产节奏,预计到今年第四季度,该晶圆代工龙头的CoWoS月产能将大幅扩充到3.3万~3.5万片。 今年,日月光的资本支出规模将同比增长40%~50%,其中,65%的投资用于封装,特别是先进封装项目。日月光投控营运长吴田玉表示,今年的先进封装与测试营收占比会更高,AI相关先进封装收入将翻倍,今年相关营收至少增加2.5亿美元。力成也在扩大先进封装产能,该公司董事长蔡笃恭表示,下半年将积极扩大资本支出,规模有望达到100亿元新台币。力成主要布局扇出型基板封装(fan out on substrate)技术,整合ASIC和HBM先进封装,在AI用HBM内存方面,力成有望在今年第四季度量产相关产品。为满足CoWoS封装后的晶圆测试需求,今年,京元电相关晶圆测试产能将扩充两倍。 02 H100转售潮 随着交货周期的缩短,一些之前囤积了H100的公司开始考虑转售其过剩的库存。这一现象在AWS、谷歌云和微软Azure等大型云服务提供商的影响下尤为明显。这些公司提供了便捷的芯片租赁服务,使得用户无需大量购买和囤积硬件,从而降低了成本并提高了灵活性。 尽管H100的可用性有所改善,但AI芯片的需求仍然旺盛,尤其是在训练大型语言模型(LLM)的领域。 英伟达作为全球领先的GPU制造商,在AI芯片市场占有重要地位。然而,随着AMD、Intel等公司在AI芯片领域的不断投入和发展,市场竞争愈发激烈。 随着AI技术的广泛应用,AI芯片市场正迎来快速增长期。尽管AI芯片供应问题有所缓解,但市场需求仍然旺盛,市场竞争依然激烈。英伟达等公司在扩大生产规模、提高供应链效率的同时,也需要关注竞争对手的动态和市场变化,以应对未来可能出现的挑战和机遇。
2026年,中国大陆IC晶圆产能将跃居全球第一
作为全球半导体市场活跃指数的主要观测指标,产能的提振也宣告市场正在走出持续一年多的低迷期。 根据Knometa Research的数据显示,2026年,中国大陆将超越韩国和中国台湾,成为IC晶圆产能的领先地区,而欧洲的份额将继续下降。中国大陆一直在领先优势的芯片制造能力上进行大量投资,并将从除美洲以外的所有其他地区获取市场份额。 此外,KnometaResearch预计,2024年全球IC晶圆产能年增长率为4.5%,2025年和2026年增长率分别为8.2%和8.9%。 截至2023年底,中国大陆在全球晶圆月产能中的份额为19.1%,落后韩国和中国台湾几个百分点。预计到2025年,中国大陆的产能份额预计将达20.1%,与领先国家或地区大致持平,2026年则有望以22.3%的份额占据榜首。 欧洲在2021年12月占全球IC晶圆产能的5%,其份额将继续从2023年12月的4.8%下降至2026年12月的4.5%。尽管英特尔、台积电及其合作伙伴宣布了欧洲晶圆厂计划,并且意法半导体和格芯宣布了在法国的合资企业,但其中大多数要到本预测期结束后才会批量上线。 欧盟迫切希望成员国支持欧洲芯片制造,目标是到2030年将芯片市场份额翻一番,达到20%。但Knometa的预测,这一希望显得渺茫。 12英寸晶圆渐获青睐 整体产能的拉动,让自2022年以来陷入需求下行的全球半导体市场复苏加快。其中,12英寸晶圆的逐步兴起,是不可忽略的一大趋势。 据SEMI给出的预计,到2026年,全球12英寸晶圆月产能将达到960万片,其中,美国产能在全球的占比将自2022年的0.2%大幅提升45倍至近9%,中国大陆的产能也将自2022年的22%,提升至25%。 而在国内,半导体产研机构TrendForce统计数据显示,除去7家暂时停工的晶圆厂,中国目前已建成的晶圆厂有44家,包括25座12英寸晶圆厂、4座6英寸晶圆厂、 15座8英寸晶圆厂及产线,另外还有22家晶圆厂在建,包括15座12英寸晶圆厂、8座8英寸晶圆厂。 12英寸晶圆厂,占国内晶圆厂总数的比例约为60%。根据预估,目前国内的12英寸晶圆月产能总计约113.9万片,占总产能的约15%。随着12英寸厂成为主流,这一占比也将持续攀升。 据悉,14nm以下的高端制程的研发和生产目前都以12英寸晶圆为主,原因在于制程工艺的复杂度会大幅提升芯片的成本。为了控制成本,必须提高硅晶圆的利用率,而晶圆尺寸越大,浪费越少。 同时,从成本角度出发,12英寸晶圆的成本较8英寸晶圆更低,据行业统计数据,这一成本节省率约为50%。同时,12英寸晶圆的芯片输出几乎是8英寸晶圆的3倍,这使得每片芯片的成本降低了约30%。如果产能继续提升,伴以改进工艺和良率,预计未来12英寸晶圆的成本也将进一步下探。 物理特性上的优势,加上受到手机、PC、数据中心、自动驾驶等下游应用高速发展的影响,12英寸晶圆逐渐受到市场青睐,需求量快速上升,而这一信号目前已传导至产业端。以华虹为例,2023年9月,华虹宣布使用募集资金向全资子公司华虹宏力增资126.32亿元,主要用于华虹宏力向华虹制造(无锡)项目的实施主体华虹半导体制造(无锡)有限公司增资。 华虹方面表示,无锡12英寸生产线项目产能处于不断爬坡的阶段,截至2023年第三季度末,公司折合8英寸生产线月产能已增加到35.8万片。与此同时,华虹公司第二条12英寸生产线华虹无锡制造项目也正在紧锣密鼓地推进中。 作为全球半导体市场活跃指数的主要观测指标,产能的提振也宣告市场正在走出持续一年多的低迷期。
英伟达、谷歌和微软为何在生物技术的人工智能未来押注数十亿美元
随着ChatGPT和Gemini等语言模型在硅谷开创了人工智能的新时代,世界上最强大的科技公司正将目光投向药物发现和数字生物学。 今年1月,在旧金山举行的摩根大通医疗保健大会(本年度最大的医疗科技盛会)上,英伟达公司首席执行官黄仁勋(Jensen Huang)扫视了一下台下的观众,承认自己正身处不熟悉的领地。 “你们不是我最常见的听众。”在与药物研发公司Recursion(英伟达去年向这家公司投资了5000万美元)的炉边谈话中,他对一屋子的健康和生物技术专家说。 的确,这些观众可能不是他的核心受众,但他希望这种情况会有所改变。在演讲中,黄仁勋一遍又一遍地将数字生物学吹捧为技术领域的“下一个惊人革命”。随着人工智能热潮席卷硅谷,英伟达的业务规模已超过每年600亿美元,并在去年夏天成为为数不多的市值达万亿美元的公司之一。现在,它在健康和生物技术领域看到了更多推动增长的机会。 英伟达医疗保健副总裁金伯利•鲍威尔(Kimberly Powell)在接受《福布斯》采访时表示:“我们已经被宣布为英伟达下一个数十亿美元的业务。”她说,公司的目标是为更多的生物技术公司提供芯片、云基础设施和其他工具。 当生物技术迎来人工智能革命 现在,像OpenAI的ChatGPT和谷歌DeepMind的Gemini这样的大型语言模型已经成为生成式人工智能的主流,一些世界上最强大的科技公司正把生物技术视为人工智能的下一个前沿——在这个前沿,人工智能不会根据提示生成有趣的诗歌,而会生成下一个拯救生命的药物。 凭借其强大的GPU芯片,英伟达可以说是人工智能革命的中坚力量,但该公司风险投资部门过去两年的大部分投资都在药物研发上。在DeepMind,谷歌人工智能实验室的AlphaFold模型(一种预测蛋白质结构的突破性工具)在过去一年里被学术研究人员用于开发一种“分子”注射器,可以将药物直接注射到细胞中,并用于研究对农药依赖程度较低的作物。整个科技行业都对生物技术感兴趣:微软(Microsoft)、亚马逊(Amazon),甚至Salesforce都有蛋白质设计项目。 虽然在药物发现中使用人工智能并不是一个新趋势——DeepMind在2018年就首次推出AlphaFold——但DeepMind和英伟达的高管都告诉《福布斯》,这是一个突破性的时刻,这要归功于三件事的共同作用:现在可用的大量训练数据、计算资源的爆炸式增长和人工智能算法的进步。鲍威尔说:“这三种要素是第一次同时出现。这在五年前是不可能的。” 人工智能之所以在生物技术领域有着巨大的潜力,正是因为该领域的复杂性——就拿AlphaFold所针对的问题来说吧。蛋白质是人体的基本构成元素,管理着人体各种各样的功能。所有这些功能都依赖于蛋白质的三维形状。每种蛋白质都是由一系列氨基酸组成的,这些氨基酸和外部环境之间的相互作用决定了蛋白质的“折叠”方式,而这些折叠方式又决定了它的最终形状。生物技术公司对能够根据氨基酸序列预测蛋白质的形状非常感兴趣,因为它们可以利用这些洞察来设计从新药到改良作物再到可生物降解塑料的一切产品。 而这也正是深度学习的用武之地:在数亿种不同的蛋白质序列及其底层结构上训练人工智能模型,帮助这些模型揭示生物学中的规律,而不一定需要进行真正的分子动力学模拟所需的昂贵计算。完全模拟蛋白质需要非常强大的算力资源,以至于一些机构专门设计和建造了超级计算机来处理这类问题,比如匹兹堡超级计算中心的Anton 2。 人工智能药物研发热潮来临,科技巨头加速布局蛋白质折叠研究 与此同时,药物发现技术的繁荣也不完全是来自人工智能科技巨头。Pitchbook的数据显示,自2021年以来,全球已经有281笔针对人工智能药物研发初创公司的风险投资交易,投资总额为77亿美元。最大的峰值出现在2021年,当时达成了105笔交易,高于前一年的65笔,到2023年逐渐减少到67笔。在本月早些时候发布的一份报告中,这家分析公司指出,人们对“早期公司将人工智能整合到药物发现和开发中”仍然抱有强烈的热情。华盛顿大学蛋白质设计研究所(Institute for Protein Design)所长戴维•贝克(David Baker)表示,生成式人工智能的兴起也引发了人们对这一领域越来越大的兴趣。 “过去,它还是一种疯狂、边缘的事物,非常脱离主流。”贝克说。现在,“每个人都在谈论它。”贝克还透露,自2012年蛋白质设计研究所成立以来,已经有20多家初创公司从该项目中脱胎而出,其中10家是近几年(2021年以后)成立的,包括为再生医学和癌症治疗开发纳米材料的Archon Biosciences公司,以及为纤维化疾病开发治疗方法的Lila公司。 在DeepMind,直到新冠疫情爆发,研究人员才真正意识到他们研究的重要性。他们花了将近5年的时间来开发AlphaFold,而正当他们为第二代模型重新训练时,整个世界因为新冠病毒而开始居家避难。“这确实让人们意识到这个问题的重要性,”DeepMind的科学副总裁什米特·科利(Pushmeet Kohli)在接受《福布斯》采访时表示。 科利笑着回忆道,DeepMind重新训练的结果是AlphaFold 2,这是一个突破性的模型,可以非常准确地预测蛋白质结构,以至于全球蛋白质折叠研究竞赛CASP的组织者给DeepMind发了电子邮件,询问该公司是否以某种方式进行了作弊。 这项工作是如此有希望,以至于联合创始人德米斯·哈萨比斯(Demis Hassabis)在2021年基于AlphaFold的突破在Alphabet成立了一家独立的公司。这家名为Isomorphic Labs的初创公司专注于药物研发,由哈萨比斯亲自掌舵。就在今年,Isomorphic Labs与礼来公司(Lilly)和诺华公司(Novartis)签署了研究协议,如果协议中的所有里程碑都能实现,那么总价值将接近30亿美元——这还不包括这些合作关系带来的潜在药品销售的丰厚版税。 2022年,英伟达推出了BioNeMo,这是一个生成式人工智能平台,可帮助开发人员加速训练、部署和扩展用于药物发现的大型语言模型。在该芯片制造商的风险投资部门Nventures总共完成的19笔交易中,有7笔涉及人工智能药物研发初创公司,包括Genesis Therapeutics、Terray和Generate Biomedicines,是所有投资类别中数量最多的一个。 “计算机辅助设计行业创造了第一家价值2万亿美元的芯片公司,”鲍威尔说,他指的是英伟达和它在过去一年里的飞速增长。“既然这样,为什么计算机辅助药物研发行业不能建立下一个万亿美元的制药公司呢?”她补充说,“这就是为什么我们要以现在的方式进行投资的原因。” 与此同时,其他几家科技巨头也都有自己的蛋白质折叠研究。去年,Salesforce推出了蛋白质生成人工智能模型ProGen,微软发布了类似的开源模型EvoDiff。亚马逊还为其AWS机器学习平台SageMaker发布了蛋白质折叠工具。《福布斯》今年1月报道称,就连TikTok的母公司字节跳动似乎也在招聘科学和药物设计团队。 人工智能药物研发道阻且长 然而,尽管人工智能药物研发前景光明,备受关注,但也遭遇了一些挫折。让药物通过临床试验仍需要数年时间,尽管到目前为止,FDA已经批准了100多种使用人工智能或机器学习进行开发的新药候选药物的临床试验,但任何新药要想进入市场,可能还需要数年时间。 还有一些情况下,与药物发现相关的困难导致某些大型科技公司放弃了这项研究。去年8月,Facebook的母公司Meta关闭了其蛋白质折叠团队。据《福布斯》去年报道,该部门的研究人员后来自立门户,成立了一家名为EvolutionaryScale的公司。Meta拒绝就关闭该项目的原因发表评论。 科技公司需要关注的一个重要瓶颈是拥有足够的培训数据。像GPT这样的新基础模型依赖于强化学习,这是一种算法可以通过反复试验来处理未标记信息的方法。合成生物学公司Ginkgo Bioworks的人工智能主管安娜·玛丽·瓦格纳(Anna Marie Wagner)告诉《福布斯》,这使得他们更加依赖高质量的数据。 去年夏天,她的公司与谷歌云达成了为期五年的战略合作伙伴关系,将其人工智能专业知识与Ginkgo在自动化实验室中快速生成生物数据的能力结合起来,然后这些数据可以立即作为新的训练数据输入人工智能模型。她说,这种结合有助于更好地优化发现过程。 此外,她说,Ginkgo能够快速验证模型预测。与直觉相反的是,这使得人工智能模型有时会产生“幻觉”(也就是对提问生成错误或有误导性的结果)的现象成为了它的“一个特征,而非缺陷”,因为它可以带来科学家们可能无法想象的有趣发现。“我们希望这个模型能想出一些疯狂的东西,因为这正是我们开始看到数量级改进的地方。” 科利则对数据问题给出了更加直言不讳的点评:“垃圾进,垃圾出。”尽管如此,随着业界努力解决这些问题,他已经看到了人工智能对生物研究的影响。他说:“当我去参加会议时,我看到了生物学家以前和现在的工作方式发生的变化,这真是一个惊人的转变。”
每年省千万美元!美国得州首用AI阅卷评分
快科技4月11日消息,据媒体报道,美国得克萨斯州首次公开采用人工智能进行阅卷评分,此举标志着教育领域向智能化迈出了重要一步。 据悉,得州教育局(TEA)宣布,在学术准备评估(STAAR)考试的笔试部分,将引入“自动评分引擎”为学生进行打分。这一创新举措的引入,无疑为教育领域带来了一场革命性的变革。 STAAR考试作为得州教育的重要一环,其涵盖的科目广泛,包括阅读、写作、数学、科学和社会学等核心领域。这样的考试内容设计,旨在全面评估学生的学术水平和综合能力。 近年来,得州一直致力于推进STAAR考试的改革。自2023年起,修订后的考试内容减少了选择题的比例,而开放式问题的数量则增至原先的7倍。TEA学生评估主管Jose Rios表示,未来的考试将更倾向于采用开放式回答的形式,以更准确地评估学生的理解能力和创新思维。然而,他也坦言,评估这些开放式回答需要投入更多的时间、精力和财力。 正是在这样的背景下,得州教育局决定引入AI评分系统。这一系统的部署,预计每年可为该州节省高达2000多万美元(约合当前1.45亿元人民币)的开支。这笔资金此前主要用于聘请第三方承包商的人工评分员。通过采用AI评分系统,得州不仅能够大幅降低人力成本,还能提高阅卷的效率和准确性。 不过,TEA也明确指出,机器并不能完全取代人工评分员。至少在现阶段,人工评分员的专业素养和经验仍然是不可或缺的。因此,尽管得州今年通过部署AI评分系统减少了临时评分员的雇佣人数,但仍有大约2000名评分员参与阅卷工作。这一举措既体现了得州在推进智能化阅卷方面的决心,也确保了阅卷工作的质量和公正性。
一首歌仅需0.1元,Suno等音乐大模型引发业内新焦虑
“改变是潜移默化的,可能就在某个平凡的日子,一首触动心灵的歌曲闯入你的生活,当你深入了解其源头时,发现那是AI写的,那时候浪潮就悄悄来临了。”伯雅文娱创始人、唱作人范志昊说道。这位音乐制作行业的资深人士正致力于探索AI在音乐创作中的辅助作用。“总有人会做这些事,你永远无法阻挡历史车轮的脚步。” 近来,SunoV3等音乐AI技术的诞生,如同一股强劲的暗流,冲击着传统音乐行业的壁垒,引发了众多音乐从业者对未来职业前景的忧虑,他们同时也在思考如何在AI时代中找到自己的位置。 六间房视频集团创始人、Bit Computing Pte.Ltd.创始人/CEO刘岩如今正在开发一款音乐大模型,他在接受《每日经济新闻》记者电话采访时表示:“当前市面上部分被冠以‘音乐大模型’之名的产品,其实并未达到严格意义上大模型的标准。音乐大模型因其更高的技术门槛、更窄的应用场景,或不会出现大规模爆发的情况,但有可能超越国外成为全球领先。” 一首歌仅需0.1元 自今年3月以来,国内外涌现出大量AI生成式音乐工具,行业格局在一夜之间发生了翻天覆地的变化。 此前,OpenAI的MuseNet、谷歌的MusicLM以及Meta的MusicGen等AI音乐项目已经引起了业界广泛关注。而如今,一款名为Suno的“音乐版chatgpt”音乐大模型点燃了全球音乐界的热情。因为这款模型能够一次性完成歌词、演唱、编曲、配乐等音乐创作的全过程,因此被誉为“消灭”了音乐创作门槛。 音乐制作人闫东炜在第一时间试用了Suno,他兴奋地表示:“输入几个关键词,不到一分钟就能生成了。”然而,他也指出了Suno的局限性:虽然借助AI可以找音乐灵感,但听多了感觉出来的基本都是流行歌。未来抖音上的歌可能会越来越相似,像流水线一样生产。如果要不断地坐在电脑前输入关键词来生成歌曲,这个过程可能会显得有些无聊。 尽管如此,Suno仍然获得了不少业内人士的高度评价。范志昊评价:Suno生成的音乐是有下限的,它的创作至少听着顺耳。 范志昊表示,可以借助AI预测音乐内容,并帮助公司找到合适的歌手。此外,AI还降低了音乐创作的门槛,让更多人能够享受到创作的乐趣。“本来听到好的作品会有共鸣,但如果变成自己去写,快乐是不一样的。这个市场的潜在需求非常大。”范志昊坦言。 AI音乐引发热潮的另一个重要原因在于使用门槛和价格的降低。以闫东炜使用过的一款AI音乐工具为例,基础版免费,PRO版价格大约是10美元一个月,能生成500首歌;更高级的版本只需30美元一个月,就能生成约2000首歌。这意味着,一首AI歌曲的成本仅需0.1元左右。 范志昊表示:“原先找专业作曲人创作歌曲的成本很高,即使是友情价也得是千元以上。但现在有了AI,几十块钱就能生成上百条音乐作品,价格差距非常大。”他还提到,如果机器不排队的话,几乎可以即刻生成一个词曲的demo(样片)。 AI音乐并非完美无缺。闫东炜认为,AI可以创作,但不善于修改。每次修改完都完全不一样,因此较为复杂的歌曲客户还是会找人工来做。尽管如此,他认为AI音乐在技术上已经高过很多网络上的口水歌。 范志昊也坦言,国内的AI工具和Suno相比仍有一定差距。虽然音乐AI能够生成各种风格的歌曲,但水平却参差不齐。其中,pop和爵士风格相对较为出色。pop风格之所以让人惊喜,是因为其训练数据丰富,结构相对可复制;而爵士风格则因为能写出好风格的人本身就比较少,所以显得尤为亮眼。 AI会取代音乐人? 据媒体报道,当地时间4月2日,200多名国际乐坛知名音乐人联署公开信,呼吁AI开发者、科技公司、平台和数字音乐服务商停止使用AI侵犯及贬低人类艺术家的权利,要求他们承诺不开发与之相关的AI音乐生成技术等,也不能拒绝向艺术家提供合理报酬。参与联署的艺人共有246名,大多来自欧美乐坛,其中包括比莉·艾利什(Billie Eilish)、凯蒂·佩里(Katy Perry)、妮琪·米娜(Nick Minaj)等。 近年来,AI音乐生成技术迅速发展,一系列以“AI歌手”为名的翻唱作品在网络上走红。例如,“AI孙燕姿”翻唱的《发如雪》、“AI王心凌”翻唱的《套马杆》等视频,播放量均超过百万。随后,“AI周杰伦”“AI林俊杰”“AI许嵩”等“歌手”也如雨后春笋般涌现。 相关技术的普及也引发了社会各界的担忧。许多行业人士担心,AI的广泛应用可能会危及他们的生计和职业发展。对此,闫东炜表示,虽然AI对音乐创作者的影响有限,但确实降低了普通人进入音乐创作的门槛,这可能会对整个音乐行业产生一定的冲击。“流行歌手不会失业,粉丝喜欢的是这个人,他唱得好,有作品更好。” 闫东炜进一步解释说,现在客户只需将需求发送给AI,便能快速生成音乐作品,这在一定程度上减少了对传统音乐制作公司的需求。然而,他也强调,AI生成的音乐往往结构单一,对于专业领域的需求帮助有限。音乐制作人仍需要根据客户需求进行后期的修改和调整,以确保作品的质量和独特性。 “AI最先替代的就是艺术家,人工智能可以体验无数次恋爱、失恋、死亡,因此他会比人更有情感,AI在其他领域最大的问题是‘幻觉’,可能会造成误判,但这种‘幻觉’在艺术上就可能是突破和创新。”刘岩说。 范志昊表示,AI对音乐行业的影响是双面的。它既可以降低创作门槛,让更多人能够尝试音乐创作;也可能导致一部分人的工作被AI替代,尤其依赖简单创作和翻唱的艺人可能失去工作机会,例如有些唱demo的歌手已经被替代了。 “AI对音乐人的冲击并不是直接的竞争,而是潜移默化的竞争。AI音乐的普及可能会改变音乐人的职业发展方向。”在范志昊看来,未来,音乐人可能更需要注重个人IP的经营和发展,而非仅仅依赖于网络歌曲的翻唱和创作。 此外,范志昊还提到了未来音乐产业的发展趋势。他表示,随着音乐产量的不断增加,每年人们能够听到的歌曲数量已经远远超过了他们的消化能力。AI的出现进一步加剧了音乐市场的竞争,抢占了原有的音乐空间。这导致一些认真做曲库、做内容的音乐人可能会受到影响,他们的作品可能会因为AI的普及而被淹没在海量的音乐中。 对于AI音乐对传统市场的冲击问题,刘岩也表达了自己的看法。他认为,AI音乐生成技术能够在短时间内产生大量歌曲,以目前能力和需求看,一年后,市场上90%的歌曲可能都是AI生成的了,传统意义上的“新歌”可能连1%的比例都占不到了,仅从数据上看,行业的格局一定会被打破。 “黑盒”是小公司跟大厂竞争的壁垒 音乐大模型的发展正处于一个关键时期。继Suno之后,国内的科技公司也不甘落后,昆仑万维推出了“天工SkyMusic”,发布的9首由“天工SkyMusic”生成的音乐作品,展示了从说唱到古风等多种风格的音乐创作能力,这些作品的时长从10秒到51秒不等。 一年前,刘岩和他的团队就敲下音乐大模型开发的第一行代码,决心布局该行业。在他看来,音乐大模型相较于文字和视频大模型,面临着更高的技术门槛。“音乐和视频一样是一种长时序的技术形式,如果说视频可以分成每一秒钟24帧图像的话,音乐则每一秒钟包含上万个采样点,且每个采样点之间的相关性强,这使得音乐成为最复杂的模态之一。” 刘岩进一步阐述道,当前市面上部分被冠以“音乐大模型”之名的产品,其实并未达到严格意义上大模型的标准。一些作品的生成依赖于音乐结构和规则的技术,或是通过将音乐转化为MIDI等符号语言再进入模型来实现,这种方式虽然能够产生近人类水平的音乐,但不能触及音乐的本质——对音乐情感、内涵及整体结构的理解与创造性表达,永远不会超越现有音乐的水平。 “真正意义上的音乐大模型应当具备端到端的学习能力,训练数据直接来源于日常聆听的完整音乐作品而非翻译后的MIDI,并能够从构思歌词、设计旋律、编排伴奏直至模拟人声演绎等全过程进行一体化的创作。遗憾的是,当前大多数模型仅在音乐创作的旋律和伴奏等某一个环节上取得进展,尚未实现全方位的音乐生成。”刘岩说。 目前用户无法透视模型的内部逻辑,只能看到其外在表现。刘岩认为,AI这一天然的“黑盒”效应,让音乐大模型出现了不少鱼目混珠的情况。然而,“黑盒”效应也为中小企业和创业团队带来了独特的发展机遇。 范志昊早在半年前就开始集结团队,专注于研究音乐AIGC辅助生态。他认为,“黑盒”是小公司跟大厂竞争的唯一的壁垒,因为互联网产品的运作逻辑可以轻易被剖析和模仿,而AI则不然,这就要求开发者投入更多的心血与专注。在他看来,这不是大厂有钱就可以做好的。“除非他一下子砸很多钱进去,但这又不是一个潜力特别大的市场。” 与语言大模型广泛应用于多元场景不同,音乐大模型从诞生之初便瞄准了特定的应用场景——降低音乐创作门槛,使以往专业音乐人才方能完成的工作,如今普通人借助大模型只需通过自然语言描述就能得到高质量的歌曲作品。 这一点使音乐大模型在特定领域具有一定的市场潜力。刘岩认为:“语言大模型我们很难超越,但音乐大模型我们可以把它做成全世界最好的模型。”
面壁智能完成新一轮数亿元融资,发布性能小钢炮 MiniCPM 第二弹
以小博大的励志故事不只发生在创业历史上,也发生在端侧大模型上。 今年 2 月份,面壁智能正式发布了 2B 旗舰端侧大模型面壁 MiniCPM,不仅超越了来自「欧洲版 OpenAI」的性能标杆之作,同时整体领先于 Google Gemma 2B 量级,还越级比肩 7B、13B 量级模型,如 Llama2-13B 等。 近日,面壁智能也完成新一轮数亿元融资,由春花创投、华为哈勃领投,北京市人工智能产业投资基金等跟投,知乎作为战略股东持续跟投支持,致力于加快推动大模型高效训练、快步应用落地。 今天端侧大模型面壁 MiniCPM 小钢炮乘胜追击,迎来了第二弹的四连发,主打的就是「小而强,小而全」。 其中,MiniCPM-V2.0 多模态模型显著增强了 OCR 能力,刷新开源模型最佳 OCR 表现,通用场景文字比肩 Gemini-Pro、超越全系 13B 量级模型。 在评估大模型幻觉的 Object HalBench 榜单中,MiniCPM-V2.0 与 GPT-4V 的表现几乎持平。 在综合 11 个主流评测基准的 OpenCompass 榜单中,MiniCPM-V2.0 多模态模型通用能力以 55.0 的得分越级超越 Qwen-VL-Chat-10B、CogVLM-Chat-17B、Yi-VL-34B 等量级更大的模型。 在官方给出的演示案例中,当被要求详细描述同一张图片的场景时,GPT-4V 给出的回复出现了 6 处幻觉,而 MiniCPM-V2.0 仅存在 3 处。 此外,MiniCPM-V2.0 还与清华大学展开深度合作,共同探索清华大学博物馆镇馆之宝——清华简。 得益于强悍的多模态识别与推理能力,无论是简单字「可」的识别还是复杂字「我」的识别,MiniCPM-V2.0 都能轻松应对。 在与同类中文标杆多模态大模型的较量中,MiniCPM-V2.0 的识别准确率更是遥遥领先。 精准细节的识别对图片的清晰度提出更高要求,而传统大模型通常只能处理 448×448 像素小图,信息一旦被压缩,模型便难以读取。 但这可难不倒 MiniCPM-V2.0,在官方的演示案例中,面对寻常的一张城市街道场景图片,MiniCPM-V2.0 一眼就能捕捉关键信息,甚至连肉眼都未能察觉的「Family Mart」也能被轻易捕捉。 长图包含了丰富的文本信息,多模态模型识别长图时往往力不从心 ,但 MiniCPM-V 2.0 却能稳抓长图重点信息。 从 448×448 像素,到 180 万高清大图,甚至 1:9 极限宽高比(448 * 4032),MiniCPM-V 2.0 都能做到无损识别。 据了解,MiniCPM-V 2.0 高清图像高效编码的背后其实是用到了独家技术 LLaVA-UHD。 模块化视觉编码:原始分辨率图像划分为可变大小切片,无需像素填充或图像变形实现对原始分辨率的完全适应性。 视觉压缩模块:使用共享感知器重采样层压缩图像切片的视觉 tokens,不管分辨率多少 token 数量都可负担,计算量更低 空间修饰方法:使用自然语言符号的简单模式,有效告知图像切片的相对位置。 在中⽂ OCR 能⼒上,MiniCPM-V 2.0 同样显著超越 GPT-4V。对比 GPT-4V 的「爱莫能助」,精准识别图片的它更显难能可贵。 而这一能力的背后得益于跨模态跨语言泛化技术的加持,其能够解决中文领域缺乏高质量、大规模多模态数据的挑战。 长文本处理的能力一直是衡量模型的重要标准。 虽然 128K 长文本能力已经不是什么新鲜事,但对于只有 2B 的 MiniCPM-2B-128K,这绝对是一件值得夸奖的事情。 最小的 128K 长文本、MiniCPM-2B-128K 长文本模型,将原有的 4K 上下文窗口扩展到了 128K,在 InfiniteBench 榜单超越 Yarn-Mistral-7B-128K 等一众 7B 量级模型。 通过引入 MoE 架构,新发布的 MiniCPM-MoE-8x2B MoE 性能平均提⾼ 4.5%,超越了全系 7B 量级模型,及 LlaMA234B 等更大模型,而推理成本仅为 Gemma-7B 的 69.7%。 MiniCPM-1.2B 则证明了「小」和「强」并非鱼和熊掌不可兼得。 虽然直接参数减少一半,但 MiniCPM-1.2B 仍保持上一代 2.4B 模型 87% 的综合性能,在多个公开权威测试榜单上,1.2B 模型非常能打,取得了综合性能超过 Qwen 1.8B、Llama 2-7B 甚至 Llama 2-13B 的优异成绩。 在 iPhone 15 手机上对 MiniCPM-1.2B 模型的录屏演示,推理速度提升 38%。达到了每秒 25 token/s,是人说话速度的 15~25 倍,同时内存减少 51.9%,成本下降 60%,实现模型更小,但使用场景却大大增多了。 在一众追求大参数模型的征途中,面壁智能选择了一条与众不同的技术路径——尽可能研发体积更小、性能更强的模型。 而面壁 MiniCPM 小钢炮的出色表现,充分证明了「小」与「强」、「小」与「全」并不是互斥的属性,而是可以和谐共存的。我们也期待,未来能有更多这样的模型出现。
卷起来了,科技巨头齐发AI芯片,买GPU不如自研香
让英伟达躺着赚钱?其他科技巨头们不干了! 这几天,谷歌、英特尔、Meta等科技巨头集体官宣新款AI芯片。其中既有英特尔Gaudi 3这样直接硬刚英伟达H200的“性能怪兽”,也有谷歌Axion这种主打高效全能的“性能钢炮”。 而这些芯片都有同一个特性,都是为了AI模型服务。 在此之前,微软、亚马逊都陆续推出了自研处理器的计划。 这场AI军备竞赛,最终还是卷向了硬件。 主打性价比,英特尔硬刚英伟达 当地时间4月9日,在Intel Vision 2024会议上,英特尔CEO帕特·基辛格(Pat Gelsinger)推出了最新AI芯片Gaudi3,并现场与DJ来了一场蹦迪。 为什么基辛格如此高兴?让我们看看这款芯片的参数——芯片模型训练层面,Gaudi3比英伟达H100快40%;推理层面Gaudi 3比英伟达H100快50%。 与现在最强的英伟达H200相比,Gaudi 3的推理速度依然保持优势。虽然基辛格没有在现场给出直接的数据,但他表示Gaudi 3在某些领域的性能甚至会更好。 英伟达H200的性能毋庸置疑,它具备460万亿次的浮点运算能力,并且有丰富的CUDA生态。相比之下,Gaudi 3其实并没有太大优势,更别说对标B200这种最强大的芯片。 但Gaudi 3的特点就是“又好用又便宜”。 目前,H100的售价约在每台2.5万至4万美元之间。那么作为升级款的H200,其上市后必然不会低于这个价格。 同理,英伟达的Backwell芯片预计售价为3-4万美元,也符合英伟达目前的“身价”。这对于急需AI芯片的客户来说,购入H100已经是一笔不小的开销。 成本高是一回事,买不到货更客户们头疼。 最近,X用户“The Technology Brother”发布了一张图片,数据显示Meta公司囤积了全球最多的 H100 GPU,数量达到惊人的35万块,剩下的公司从3万块到300块不等。 根据GPU Utils网站在2023年的测算,H100缺口高达43万张。如此大的供应缺口,一些小公司只能等着订单排队。 H100芯片卖给谁,基本是英伟达CEO黄仁勋说了算。目前只有大客户还有CoreWeave这种英伟达亲自投资的公司才有优先购买权,亚马逊、微软等竞争对手只能限量供应。 更不要说,国内AI公司只能购买到A800这样的阉割版产品。在AI算力竞赛面前,手握高端GPU就是手握优势。 当然,限制H100并不全是英伟达的问题,台积电的产能也要背很大的锅。 总的来说,Gaudi 3不仅性能不输H100,英特尔又有自己的代工能力,难怪基辛格有硬刚英伟达的信心。 当客户变成对手 除了多了一位竞争对手外,英伟达的客户们也选择自研芯片的方式来减少对高端GPU的依赖。 在英特尔公布Gaudi3后,谷歌在Next大会上宣布推出自研首款基于Arm的CPU——Axion。 据悉这款CPU处理器Axion,将提供比英特尔CPU更好的性能和能源的效率,并且比目前基于Arm的最快通用芯片,性能还要高出30%。 虽然对标着英特尔的CPU,但谷歌这块芯片实际是为了训练复杂的AI模型做准备。和Gaudi 3一样,Axion主打一个“性价比”,靠着自己出色的AI能力,为包括Google地球引擎和YouTube广告平台在内的多项服务提供算力。 同样是自研芯片项目,谷歌也对自家超算平台进行了升级,推出了TPU v5p。 这是一个类似于英伟达GPU的替代品产品,用于AI加速任务。在自家最先进的AI模型Gemini和开放AI模型Gemma支持下,TPU v5p将支持更大、更苛刻的模型。 有着CPU与TPU的双重加持,谷歌的自研芯片项目越来越丰富。 无独有偶,Meta也赶在了今天推出了新一代训练和推理加速器MTIA 。 早在去年5月,Meta公布了 7nm工艺的MTIA v1,专注于向数据中心服务。 而此次推出的新款 MTIA 芯片,采用5nm工艺,使用更大的物理设计、拥有更多的处理核心,功耗从25W提升到了90W,时钟频率也从800MHz提高到了 1.35GHz,整体性能提高了3倍。 Meta表示,目前已经在16个数据中心使用新款 MTIA芯片,这就意味着Meta在自研芯片上费了不小的精力。 除了近期陆续公布新芯片的三家巨头以外,算上亚马逊AWS推出的Trainium和Inferentia两个系列AI芯片,以及微软在自家技术大会期间发布的用于云端AI训练和推理芯片Maia 100,目前绝大多数科技公司们都有了自研AI芯片项目。 结语 AI算力的军备竞赛,正在愈演愈烈。每家科技公司都已经预料到AI模型的规模会迅速扩大。 然而从目前现状来看,英伟达GPU依然牢牢掌握着全球算力资源,并且通过最新的AI芯片不断稳固当前的商业模式。 但GPU的价格摆在那里,即使是财大气粗的科技巨头,也要计算性能和成本效益。 既然自己有能力在硬件上做出性能相当且最合适自己的AI芯片,那么谁不想与英伟达全面一较高下呢? 不过在缺少生态和产量的前提下,英伟达的GPU依然是科技公司的首选。就看台积电和英特尔在代工这一环节,能不能给点力了。 本文作者:jh
华为首发AI PC!盘古大模型首次接入PC,MateBook X Pro售价11199元起
作者 | 李水青 编辑 | 心缘 智东西4月11日报道,今日,在华为鸿蒙生态春季沟通会上,华为常务董事、终端BG CEO、智能汽车解决方案BU董事长余承东宣布,华为推出华为PC的AI新体验:AI PC。 这是PC首次应用华为的盘古大模型。余承东透露,华为智慧PC支持华为自家的盘古大模型以及文心一言、讯飞星火、智谱清言等第三方合作大模型;PC的电脑管家中设有AI空间,内置100多个智能体,覆盖文案创作、编程等多种能力,为用户带去AI新体验。 作为华为智慧PC的AI新体验的代表,华为MateBook X Pro今日亮相,售价11199元起,今日预订,4月18日开售。 华为MateBook X Pro是全球首款配备柔性OLED屏幕笔记本电脑,采用酷睿Ultra 9处理器,在实现澎湃性能的同时做到超轻薄,重量仅980g,成为全球最轻薄高性能OLED笔记本。 MateBook X Pro带来三种颜色可选,分别是砚黑、宣白、晴蓝。 余承东在会上宣布,鸿蒙原生应用开发持续加速,已经有超4000个应用加入了鸿蒙生态,HarmonyOS NEXT鸿蒙星河版商用也已真正加速覆盖了各个垂类领域。 一、华为首推AI PC,打造三大AI优势 自2018年以来,华为PC引领了一碰传、多屏协同、移动应用引擎、超级终端等多个技术节点。随着AI大模型时代来临,本次华为带来了AI新体验。 余承东宣布,今天华为带来AI新体验:AI PC。华为智慧PC有三大AI优势:大模型优势、端云协同优势、全场景优势。 华为的智慧PC不仅有强大的算力底座和智能感知能力、智慧互联能力,最重要的是有大模型的能力;配备华为盘古大模型以及第三方合作大模型的AI空间,基于此提供智慧场景解决方案,让大家全面提升创作、办公和学习效率。 随着MateBook X Pro的发布,PC首次应用华为的盘古大模型。 盘古大模型给大家带来全新的AI概要功能,适用于学习、访谈、办公等各种场景,音频视频多格式快速提炼。 同时,华为与生态合作伙伴一起打造全面的AI体验,与包括WPS的AI、百度的文心一言、科大讯飞的讯飞星火、智谱AI的智谱清言等在内的多家产品建立了合作。 华为的电脑管家里面配备一个AI空间,支持用户一键抵达丰富的AI应用,覆盖了学习、办公等多个场景。 AI空间还精选了100多个智能体,覆盖文案创作、编程等多种能力。 二、比iPad还轻,全球首款柔性OLED屏笔记本亮相 MateBook X Pro重量仅980g,屏幕是14.2英寸屏幕,比苹果MacBook Air的13.6英寸屏幕更大,但它的重量低于其1.24公斤。它甚至比11英寸、1.06公斤的苹果iPad Pro还轻。 更轻薄但屏幕更大,华为MateBook X Pro是如何做到的? MateBook X Pro是采用全新的华为的云隼架构,通过超轻量材料、超精巧结构设计以及超高空间利用率来实现的。 首先MateBook X Pro机身是航空级的铝镁合金,不仅轻还保证了强度;采用了超凹型的强化结构,通过了五万多小时的的拓扑仿真设计,将重量减少18%。 它采用了柔性OLED屏幕,让重量减少了51%。柔性OLED屏幕又轻又薄,而且显示画质非常好。MateBook X Pro是全世界到目前为止唯一的一款柔性OLED屏幕笔记本电脑。 MateBook X Pro采用新的内部架构,最小的三段式主板让重量更轻,占用空间更小,堆叠密度大幅度提升。 而且华为首创了金刚铝材料,让它更加轻且更加结实,强度提升了71%,重量还减轻了36%。 MateBook X Pro机身的内部架构设计更紧凑,性能更加强大,让电池容量在提升了17%的情况下,风扇还增加了尺寸,增加了22%,扬声器体积提升22%。 三、搭载酷睿Ultra 9处理器,实现40W的TDP高性能 为了更好地散热,MateBook X Pro实现了40W的TDP高性能。 40W到底是什么概念? 999g的LG gram 14只有15W的TDP性能,1.61kg的苹果的MacBook Pro 14是38W的TDP。 MateBook X Pro是1kg以内唯一搭载酷睿Ultra 9处理器的笔记本。因为Ultra 9性能很高,所以一般电脑散热搞不定,很多轻薄本没办法用这款高性能处理器。 所以MateBook X Pro采用了流线型的增压双风扇,让风量提升30%;采用AI仿真设计扇叶,让风压提升50%,从而提升了整机的散热性能。 它采用立体的四进风设计,只有在游戏本上才用的,让散热能力提升37%;采用创新低流阻风道设计,让风阻下降了19%,从而真正达到高性能。 四、搭载Al调度大师,开机快、启动快、运行快 MateBook X Pro不仅实现硬件高性能,还有软件高性能。 Super Turbo性能Al调度大师让MateBook X Pro开机快、启动快、运行快,一秒进入系统,打开大文件提速40%,支持多任务毫秒级的响应。 与MacBook Pro 14的M3处理器的高性能笔记本对比,在一个4K视频剪辑导出速度上,MateBook X Pro要快27%。 对比MacBook Pro 14,MateBook X Pro打开20个应用的速度快36%。 MateBook X Pro还有强悍的通信性能,首创3D立体超材料天线,Wi-Fi最远覆盖距离提升42%,接受的稳定度提升50%以上,而且网速提升40%以上,做到了360度全方向好信号不断连。 本次,华为在MateBook X Pro上把麦克风阵列提到了屏幕的上边缘,称为天侧4麦克风设计,能够达到5米的远距离拾音,360度的全方位,声音追踪算法也能带来不一样的体验。 MateBook X Pro配备全新的智能音幕技术,让用户开会或说话录音去识别成文字,可以不受旁边人的干扰。 HUAWEI SOUND 6扬声器加持,与MacBook Pro 14相比,最大响度高3个dB,低音的强度好116%,能带来非常震撼的音效。 同时MateBook X Pro还有140W超级快充Turbo,充电10分钟,办公3小时。 五、93%屏占比,减少70%的反光 新款MateBook X Pro屏占比达到93%,分辨率高达到3120×2080,支持120Hz高刷新率;3:2的生产力屏幕,支持高效办公和编辑。 MateBook X Pro的屏幕对比度达到100万:1,传统的笔记本电脑大量都采用LCD屏,只能做到1200:1。 我们拿着电脑往往会屏幕反光,但MateBook X Pro采用磁控纳米光学镀膜技术,能够减少70%的反光,包括在阳光下、灯光下都非常舒服。MateBook X Pro还有自研的OLED的显示增强算法,让文字的的细节更清晰。 结语:探索AI PC 新体验,打造鸿蒙生态新引擎 MateBook X Pro首次亮相,除了搭载一系列AI新能力,还首次配备了柔性OLED屏幕,并通过一系列技术使其实现了超轻薄情况下的高性能,从而为用户办公和娱乐带来更极致的体验。 本次,华为宣布首次推出其AI PC,这一PC不仅搭载了华为自研的盘古大模型,还加持了各大第三方模型,通过AI空间及上百个智能体,以及一些AI应用,华为试图带起一阵AI PC新趋势。AI PC也有望成为鸿蒙生态发展壮大的新引擎。
百度Create AI剧透:“三大开发神器”升级,模型增至77个,三步即可生成应用
作者 | 香草 编辑 | 李水青 智东西4月11日报道,今日,在百度Create AI开发者大会预沟通会上,百度披露了“三大开发神器”AgentBuilder、AppBuilder、ModelBuilder阶段性成果。 据介绍,AgentBuilder将提供问答对调优、数据看板、提供接入商业插件和一站式深度服务等新能力;AppBuilder工具组件扩增至55个,并上线了“三步生成应用”功能;ModelBuilder模型量增至77个,还将提供模型精调样板间,内置业内最多的47个数据集和119个产业级Prompt模板。 在即将于4月16日举办的开发者大会上,百度创始人、董事长兼首席执行官李彦宏还将带来2024年首场演讲,现场展示“开箱即用”的三大开发神器,演示多个标杆案例的开发全流程。 大模型产业迎来应用爆发,但应用落地仍面临挑战。百度智能云平台产品事业部产品市场负责人王曼谈道,大模型应用落地主要面临场景探索、开发门槛、推理和训练成本、应用效果等方面的挑战,百度智能云千帆平台打造的大模型服务超级工厂能为开发者提供多样化的能力、工具,完成商业闭环。 谈到智能体创建低门槛可能带来的管理乱象,百度移动生态事业群组文心智能体生态负责人马宝云告诉智东西,百度一直很重视版权、原创保护等,在这方面投入很多,不经开发者允许不会将其Prompt等数据泄露给大模型或其他用户。同时,AgentBuilder在审核、分发门槛等方面都有较高的要求,必要时也会有人力参与,从而更精准地识别和判断。 一、AgentBuilder:数据飞轮三层调优,新增数字形象一键配置 AgentBuilder(灵境矩阵)是百度在2023年世界大会上发布的基于文心大模型的智能体(Agent)构建平台,为开发者提供低成本的开发方式,提供多样化的能力、工具,并为开发者提供百度生态流量分发路径,完成商业闭环,实现“开发+分发+运营+变现”一体。 据马宝云介绍,AgentBuilder具有7大平台优势:领先的大模型实力、零基础自然语言创建、数字形象一键配置、高兼容数据集能力、多样化工具插件、百度生态流量分发以及数据飞轮全面调优。其中,数字形象与数据飞轮调优功能将在开发者大会前夕上线。 马宝云透露,数字形象一键配置功能将提供多样的数字人形象与人声,供各类型智能体开发者挑选,打造人格化的智能体,提升用户交互体验。 数据飞轮调优则基于平台的三层调优能力,智能体创建后,平台会帮助开发者进行问答对调优,让智能体更易获得流量;运营中,开发者可以通过分析看板观察流量波动和质量诊断,调优自己的智能体;底座大模型则会通过分发数据反馈进行自主调优,让智能体学习升级、更加聪明。 ▲AgentBuilder数据飞轮全面调优 在数据集能力方面,AgentBuilder将提供国内领先的数据集接入能力,支持大容量、多格式、多途径接入,满足专业或特定智能体构建。一个账号最多能创建100个智能体,单个智能体最多10个数据集,支持文本、表格、图片等多格式,5-6月还将上线音视频,数据可本地上传、链接导入解析,开发者还可设置定期刷新信息库。 ▲AgentBuilder高兼容数据集能力 生态矩阵分发方面,AgentBuilder的定位不仅是一个纯开发平台,更是一个覆盖“开发+分发+运营+变现”的一体化赋能平台,已打通百度搜索、小度、文心一言、地图、车机等多场景、多设备。 ▲AgentBuilder生态矩阵分发能力 马宝云还向我剧透了AgentBuilder的新能力,包括问答对调优、数据看板、提供接入商业插件和一站式深度服务等。 二、AppBuilder:可三步生成应用,工具组件扩增至54个 2023年3月,百度智能云推出全球首个一站式的企业级大模型平台——“千帆大模型平台”,包括AppBuilder和ModelBuilder两部分,为企业和开发者提供灵活、多样化、高效的大模型服务。 ▲百度智能云千帆大模型平台 王曼透露,截至目前,千帆大模型平台已服务超8.5万客户,累计精调超1.4万模型,开发应用数量超过19万。大模型应用也快速增长,千帆AppBuilder周新增应用突破3000个。 AppBuilder是产业级AI原生应用开发平台,聚焦AI原生应用搭建,面向各类应用场景,提供“代码态”与“零代码态”两种产品形态,分别针对有深度AI原生应用开发需求的用户和“技术小白”。 ▲AppBuilder两种产品形态 据王曼介绍,AppBuilder具有三大核心优势:应用创建全流程自动化、工作流编排、开放易用。 ▲AppBuilder三大核心优势 为进一步提高开发体验和效果,AppBuilder近期进行了产品升级,工具组件扩增至55个,包括数十个大模型能力组件、AI能力组件以及百度自有的搜索组件等。 同时,AppBuilder上线了“三步生成应用”功能,用户仅需用自然语言提出问题,即可自动创建相应应用,无需写复杂的需求和代码。 ▲三步生成应用功能演示 为了加速应用的快速落地,AppBuilder还新增多渠道应用分发与集成功能,开发者可一键将应用分发到微信公众号、Web端、H5或百度灵境等多渠道,实现应用快速上线。 三、ModelBuilder:模型量增至77个,提供模型精调样板间 百度千帆大模型平台ModelBuilder是企业级全栈式生成式AI大模型开发及应用平台。据王曼介绍,ModelBuilder提供的模型总数目前达到77个,模型数量国内第一。 ▲ModelBuilder模型矩阵 ModelBuilder近日发布了3款轻量模型,包括ERNIE Speed、ERNIE Lite、ERNIE Tiny,还发布了2款垂直模型,分别是ERNIE Character和ERNIE Functions。 王曼谈道,在服务客户过程中,团队发现企业客户在应用大模型时主要面临三个主要问题:可定制化、模型性能和模型使用成本。 旗舰模型虽然效果好,但成本较高。相较之下,轻量模型能够满足不同程度的智能、速度和成本的组合需求。 百度智能云发布的三款轻量模型分别适用于不同场景。其中,ERNIE Speed定位于适合微调的基座模型,最高支持128K,通用能力优异,能更好地处理特定场景问题,同时具备极佳的推理性能,其价格为输入0.004元/千token,输出0.008元/千token。 ERNIE Lite则更“轻”,兼顾效果与性能,适合低算力加速卡推理使用,价格为输入0.003元/千token,输出0.006元/千token。 ERNIE Tiny的成本更低,同时低延迟,适用于检索及推荐、意图识别等高并发低延时场景、端侧推理场景,价格为输入0.001元/千token,输出0.001元/千token。 两款垂直模型中,ERNIE Character适用于游戏NPC、客服对话、对话角色扮演等应用场景,支持微调;ERNIE Functions则适合对话或问答场景中的外部工具使用和业务函数调用,结构化回答合成能力更强、输出格式更稳定。 为了让开发者更高效地开发大模型应用,ModelBuilder还提供高质量具有行业特色的数据集,内置了业内最多的47个数据集,提供119个产业级Prompt模板,提供模型精调样板间,内置作文点评、口语教练等高频场景。 ▲ModelBuilder提供数据集、Prompt模板等 从数据管理、模型精调、模型评估优化,到推理服务部署、Prompt工程,ModelBuilder提供全流程工具链,并以RESTful API(应用程序接口)形式提供全栈API能力,支持Java、Python等多语言的SDK,覆盖模型开发和应用开发的20多个的使用案例。 ▲ModelBuilder提供全流程工具链 此外,通过千帆模型路由方案,多模型组合应用效果可追平旗舰版大模型,成本大幅降低。 王曼分享了一个客户案例:在手机助手对话场景中,通过模型路由方案将用户问题分别识别为简单问题和复杂问题,根据不同情况选择不同的能力模型。测试数据显示,推理成本可降低15%、效果对齐EB3.5。 ▲模型路由方案案例 结语:用好三大AI神器,人人都是开发者 随着大模型逐步发展,“如何用好大模型”已经成为了开发者们更关心的问题。百度“三大开发神器”为开发者提供了优质的模型、工具,并压缩成本、降低技术门槛,使得人人都可成为开发者。 程序员会消失吗?大模型的下一站是什么?开发者的机会在哪里?什么才是最好用的AI应用开发工具?在4月16日举办的2024百度Create AI开发者大会上,百度创始人、董事长兼首席执行官李彦宏将就这些备受瞩目的问题一一进行解答。
华为哈勃领投,清华系大模型创企完成数亿元融资
作者 | ZeR0 编辑 | 漠影 智东西4月11日报道,今日,面壁智能宣布完成新一轮数亿元融资,由春华创投、华为哈勃领投,北京市人工智能产业投资基金等跟投,知乎作为战略股东持续跟投支持。本轮由光源资本担任独家财务顾问。 这是华为哈勃又一次出手投资大模型企业。此前它在去年8月参与了AI4Science独角兽企业深势科技超7亿元的股权融资。深势科技曾推出分子大模型Uni-Mol、科学文献多模态大模型Uni-SMART等。 华为哈勃最新投资的面壁智能,成立于2022年8月,总部在北京,是国内最早开始探索大模型和AGI的团队之一。去年4月,面壁智能完成数千万元天使轮融资,知乎领投,智谱AI跟投。 面壁智能的核心研发团队脱胎于清华NLP实验室,团队还有来自阿里、字节、百度等国内外知名公司的人才。在创立初始阶段,面壁即开始Agent研究探索,2023年发布了大模型驱动下的Al Agent “三驾马车”,全面覆盖单体智能、群体智能和智能体应用框架领域。 在高效推理方面,面壁率先以“衔尾蛇投机采样”为代表的协同推理技术,在云侧建立起大小模型之间的协同,极大提升云侧大模型的服务速度。与面壁端侧模型相结合,有望通过端云协同推理来进一步降低大模型使用成本。 目前面壁智能已完成了贯彻高效训练、高效落地与高效推理的大模型全栈技术生产线布局,与招商银行、数科网维、知乎等合作伙伴一同将大模型与Agent技术部署落地于金融、教育、政务、智能终端等应用场景。 继今年2月开源发布端侧模型面壁MiniCPM后,面壁智能今日推出了新一代MiniCPM 2系列模型,包括4款模型: ▲面壁智能联合创始人、CEO李大海发布MiniCPM 2系列模型 1、MiniCPM-V2.0多模态模型:参数规模仅2.8B,小到可以部署在手机上,显著增强了OCR(光学字符识别)能力,刷新OCR综合性榜单开源模型表现,通用场景文字理解能力比肩Gemini Pro,超过Owen-VL-Chat-10B、CogVLM-Chat-17B等百亿级参数量的模型,中文OCR识别能力显著超过GPT-4V,幻觉水平与GPT-4V持平。 2、MiniCPM-2B-128k长文本模型:最小的128K长文本,将原有的4K上下文窗口扩展到了128K,在InfiniteBench榜单上的平均成绩超过了Yarn-Mistral-7B-128K、Yi-6B-200K、ChatGLM3-6B-128K、LWM-Text-128K等6B、7B量级模型。 3、MiniCPM-MoE-8x2B MoE模型:引入MoE架构,性能增强,超过Llama 2-34B及全系7B量级模型,推理成本仅为Gemma-7B的69.7%。 4、MiniCPM-1.2B模型:参数减少一半,仍保持上一代2.4B模型87%的综合性能,比上一代推理速度提高38%。在多个公开权威测试榜单上,取得了综合性能超过Qwen-1.8B、Llama 2-7B甚至超过Llama 2-13B的成绩。在iOS上,MiniCPM-2.4B的量化模型是2.10G,而MiniCPM-1.2B只有1.01G,占用内存减少51.9%,估算成本下降60%。 上述模型中,新一代MiniCPM-V 2.0多模态大模型的通用能力大大增强, 结合古文字语料,尝试破解古籍中的谜团,对清华大学收藏的一批战国竹简——清华简进行了字迹识别,相比同类中文标杆多模态大模型,表现更优异。 传统方法通常只能处理448×448像素的小图,难以读取被压缩到模糊的文字信息。而有着复杂画面及文字细节的街景长图,通常得是高清大图,才能将这些细节充分呈现。 MiniCPM-V 2.0基于在高清图高效编码方面的技术,可以处理高至180万像素(1344×1344)的高清大图,而且可以是这一像素内任意宽高比的图像,并能支持448×4032这种1:9的极端宽高比无损编码。它也能快速识别长图文字,捕捉重点信息。 其高清图高效编码背后的独家技术是LLaVA-UHD。 基于跨语言多模态泛化技术,新一代MiniCPM-V 2.0可以快速识别全英文菜谱,这样一来,出国但外语不好的人就能用手机轻松点菜。 该技术的研究论文发表于ICLR 2024,旨在解决中文领域缺乏高质量、大规模多模态数据的挑战,基于基座模型中英双语能力,仅通过英文通用域图文对数据进行预训练,实现多模态基础能力从英文到中文的跨语言泛化。
余承东发布会未提到华为P70 网友们悬着的心终于死了
4月11日14:30,华为鸿蒙生态春季沟通会正式举行。在这场发布会上,华为重新发布了鸿蒙智行首款智慧轿车智界S7以及全新笔记本电脑华为MateBook X Pro。遗憾的是,大家心心念念的华为P70系列,余承东并没有提到,也没有透露任何关于新机的信息。 余承东展示华为MateBook X Pro 消息显示,今年华为P70系列也将效仿Mate60系列的做法,通过“先锋计划”直接上架官方商城。此前不少博主称,该系列新机就快来了,但目前为止,这款新机并未在官方商城上架。据悉,华为P70系列延期上架了,具体原因尚未可知,目前新机正在等待时机发布。 近日,有博主得到消息称,华为P70系列将在本月底开售。新机预计将效仿Mate60系列,直接上架官网公开销售,所以发布会不预热也算是在情理之中。不过,网友们都坐不住了,纷纷在华为官方账号下留言“华为P70,华为P70,华为P70”。此前甚至还有网友“托”荣耀手机产品经理去催P70的进度。不过余承东并没有回复。 余承东展示华为MateBook X Pro 据悉,华为P70系列有四个版本,包括P70标准版、Pro版、Pro+以及Art版本。全系标配12GB RAM与256GB ROM,更有高达1TB的版本可供选择。标准版搭载三摄系统,提供黑、白、红、蓝四种配色选择;Pro多一个紫色;Pro+颜色比较丰富,有个特别的银色可选。
2023年苹果在印度生产了价值140亿美元的iPhone
4月10日消息,据彭博社报道,随着苹果公司持续扩大在印度的iPhone制造产能,其2023财年在印度制造的iPhone产能量几乎翻了一倍,生产了价值140亿美元的iPhone。要注意的是,这里提到的140亿美元,指的是产品离开工厂时的估算价值,而非零售价格。 报道引述知情人士的话指出,虽然中国大陆一直是苹果重要的iPhone制造中心,但苹果目前约有14%的产品(即七分之一)是来自印度制造,并且苹果还在持续扩大印度制造的比重。 这其中的关键原因在于,中美之间的地缘政治关系紧张,迫使苹果为了保障供应链安全,不得不加速了供应链的多元化,寻求在中国以外的国家制造iPhone。而具备人口红利的印度无疑是苹果最好的选择。 苹果大幅度提升在印度的iPhone产量,也标示着印度总理莫迪政府的“印度制造”政策取得了成功。这项政策为包括苹果在内的外国公司提供了财政激励奖金,尝试吸引高端制造业进驻印度。印度政府表示,苹果供应链为当地制造业直接创造了15万个工作机会。 在印度iPhone组装的分配比例上,截至2024年3月,富士康组装近67%的iPhone,和硕则拿下了约17%的印度制造iPhone订单。剩下的iPhone产量则由纬创去年卖给印度塔塔集团位于印度南方卡纳塔卡邦(Karnataka)的工厂所生产。 编辑:芯智讯-浪客剑
新品发布全程diss友商,卢伟冰有了接班人
文|游勇 编|周路平 4月10日晚,小米旗下的手机品牌Redmi发布了新的产品系列Turbo3,这只是一款起售价1999元的中端机型。放在竞争激烈的手机圈中,这样的机型往往很难有多少亮点和话题度。 但相比于乏味的产品介绍,整场发布会最热闹的依旧是diss友商的戏码,首次主讲的Redmi品牌总经理王腾将矛头指向了缠斗已久的对手——一加。 01 一加,我要“迪士尼” Redmi Turbo3作为Redmi旗下的第四个产品序列,和K系列、Note系列、数字系列构成了Redmi的四大产品线。 但很多人或许会有疑问,为何Turbo系列没有从1开始命名,而是直接跳到了3,难道纯粹是为了干一加Ace3V?其实在此之前,Redmi在Note系列上推出过两款turbo机型,所以这次独立发布之后,在命名上算上了这两代产品。或许是冥冥之中自有天意,让这场纷争变成了“3与3”的正面对决。 如果说以前大家还有些过渡或者遮掩,Redmi这一次打起来几乎是毫无保留。整晚的发布会,王腾就像是坐在成都健身器材上的Rapper诺米,一遍一遍地说着:一加,一加,我要迪士尼。 王腾的第一把火就烧到了芯片。Turbo3用的是骁龙不久前推出的第三代骁龙8s,而一加Ace3V用的是第三代骁龙7+,前者在数据表现上要优于后者。王腾也说,卢伟冰一开始有经营压力,想用骁龙7+,但后来还是多花了2亿元,用上了骁龙8s。 其实,2亿并不是什么确切的数字,这是王腾给一加扔的回旋镖,因为去年一加Ace2 Pro发布会时,用到了骁龙8Gen2芯片,当时一加中国区负责人李杰透露多花费了2亿元。 所以说,具体多花了多少钱不重要,重要的是要恶心友商。 第二把火烧到了散热上。 Turbo3用的是冰封循环冷泵,而小米一直说友商的VC散热方案不行。这次Redmi还搞了一个骚操作,就是把一加Ace3V的散热板拆下来,装上了Redmi Turbo3的散热板,以此来证明自己的散热方案优于对手。 关于散热的恩怨,最早是卢伟冰在K70发布时说的一句话:“VC散热面积越大,越说明这家公司没技术。” 这句话的指向性非常明显,因为一加的新机用的就是大的VC散热板。很快一加李杰也发长文隔空回应:最近有人说“散热面积大就说明散热技术不行” ,这是一种否定行业,不尊重科学和逻辑的反智言语,简直是牛头不对马嘴的行业笑话。 除了这些,王腾也对比了最近很火的AI功能,至于结果嘛,毫无疑问肯定是要吊打友商的。 不过,Redmi也暗藏了自己的一些小心思。比如Turbo3虽然在价格上对标的是一加Ace3V,但在散热、AI功能上,王腾经常把定位更高的一加Ace3甚至OPPO Find X7 Ultra拉出来对比。而在芯片等核心元器件上,对标的又是一加Ace3V。 面对Redmi的进攻,一加很快进行了反击。比如说Redmi用的还是塑料后盖,电池容量只有5000毫安时,防水防尘等级也只有IP64,而同样的价格,一加Ace3V则用的是玻璃后盖,电池容量有5500毫安时,防水防尘等级也是IP65。 这也是这个价位段比较尴尬的地方,大家的产品都会有一些取舍,也都能做出一些差异,但以什么维度来对比就非常关键了。 不过,Redmi发布会当晚也出现了一个意外。王腾在芯片对比环节,放了一张各手机品牌型号的线稿图,原意是想凸显Turbo3用了更好的芯片,结果PPT上把荣耀100Pro放上去做了对比,而上面标注的芯片型号却是第三代骁龙7。实际上,这款手机用的是骁龙8gen2。 这个纰漏让不少网友耿耿于怀,因为在几天前发生过几乎同样的一幕。上汽旗下的智己在新品发布环节,一反汽车圈的发布常态,开始拿当下最热门的小米汽车SU7做对比。而智己采用的也是经典的雷氏对比法,结果学艺不精,发生了尴尬一幕——智己在PPT上标错了小米SU7 Max前后电机的参数。 抓到把柄的小米汽车连发三条帖子,怒斥其碰瓷行为,要求其公开道歉。智己也发了三条微博进行道歉,并强调“主观上真的没有蓄意抹黑的意图,无意也更无力挑战小米汽车的泼天流量”。 只是谁也没想到,回旋镖来得如此之快。Redmi在diss友商的环节也把友商的产品型号搞错了。不过,手机厂商还是战斗经验足,一是Redmi的PPT虽然搞错了荣耀手机的型号,但其实画面中并没有写具体厂商的名字,留下了很多操作空间,真要细究起来,法律上是没有瑕疵的;二是Redmi很快发现了问题,王腾也在发布会现场进行了更正和致歉,使得事态没有进一步发酵。 所以说,车企营销还是得多向手机企业学习,尤其是多向小米学习。 02 卢伟冰有了接班人 王腾之前,扮演这一角色的是卢伟冰。他从2019年加盟小米之后,很快适应了小米的风格,替雷军冲在了枪林弹雨的最前线。 而小米当年的首要对手是华为和还未独立的荣耀。卢伟冰开启了吐槽模式,比如吐槽华为的“1+8+N”战略是模仿小米的“1+4+X”, 吐槽当时还没有从华为独立的荣耀V30是“同一款产品,换个颜色,换个名字,两周开2次发布会,卖不同价格。” 他的“卢十瓦”外号也是来源于吐槽荣耀,当时他连续多日吐槽荣耀9X系列的充电功率过慢,只有10W,因此得名“卢十瓦”。 卢伟冰曾保持着一天六连怼华为的记录。卢伟冰的行为一度惹得荣耀非常不满,荣耀副总裁熊军民曾直接在微博艾特雷军,让他管好自己的人,不要做得太过分。 今年2月,雷军把大部分精力转向了汽车业务,将小米手机交棒给了卢伟冰。而在微博上非常活跃的王腾则接过了卢伟冰的衣钵,担任了Redmi品牌总经理的职位。 Turbo3作为王腾升任Redmi总经理之后的首秀,雷军和卢伟冰还专门出席了发布会,坐在台下为其助阵,扶上马送一程。从事后发布的照片来看,雷总应该是很满意。而王腾也很卖力,如同他在微博上一样,在发布会现场火力全开,战斗力十足。 有意思的是,王腾在入职小米之前还在OPPO待过一段时间,做产品战略。2016年,王腾加入了小米,先后担任过小米产品总监、小米河南负责人,今年2月开始接手Redmi。即便是入职了小米,王腾早期还与OPPO的高管互动频繁,转发过时任OPPO副总裁沈义人的微博,说要买OPPO的机器。 如今,王腾却和OPPO的一加打得难解难分,果真应验了那句话:没有永远的敌人,也没有永远的朋友。 其实,Redmi与一加打起来,早已是历史的必然。一加自从回归OPPO之后,重新调整了定位,做2000元以上的线上品牌,并且定下了三年内拿下第一的目标。而小米一直以来在线上都有很高的份额。在手机圈进入存量竞争的当下,一加在一定程度上要吃的是小米碗里的肉,打起来是无法避免的事。 另外,一加也开始改变了过去温和的风格,开始频频主动出击。而小米本身又是一家非常重视营销,且在舆论场很有话题度的企业。从雷军到卢伟冰,再到王腾,小米冲在一线的业务高管都有个共同的风格,就是微博玩得一个比一个花,牢牢把握着舆论主动权。要是哪天小米系的高管不发微博,最伤心的可能不是米粉,而是来总。 过去这么多年,手机厂商永远不缺话题和口水仗。大家都深知一点,吵架是永恒的流量密码,销量不能是别人的,热闹更不能是别人的。找个对手打口水仗,其实双方都不吃亏,大家都有一批忠诚的粉丝,谁也不能真正影响谁。 久经沙场的卢伟冰曾为自己老吐槽别人进行过辩解,“只有吐槽才会让友商发现自己的不足,友商进步了用户也会高兴。”这句话挑不出什么毛病,虽然出发点可能并不是这么纯粹。 如今,随着余承东、雷军等上一批的手机圈大佬,纷纷把重心转向车业务,他们为手机圈的事公开撕逼的情况越来越少。但手机赛道的对垒还得继续,最终都换了个人站在台前,李杰接过了张老板的衣钵,王腾也得到了卢伟冰的青睐,江湖由此就变成了路易斯与托马斯的较量。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。