行业分类:
加载中...
头条分类:
加载中...
最新独角兽榜单出炉:字节跳动蝉联榜首,OpenAI增长最快
今日(4月9日),胡润发布了《2024全球独角兽榜》。榜单显示,全球独角兽企业数量达到1453家,比去年增加7%,全球新晋171家独角兽,几乎每两天就有一家新独角兽公司诞生。 《每日经济新闻》记者注意到,字节跳动仍然是全球价值最高的独角兽,价值1.56万亿元;OpenAI价值增长最快,以7100亿元成为全球第三大独角兽;价值下降最多的则是蚂蚁集团和菜鸟网络,分别下降2800多亿和近1200亿。 作为独角兽背后的支持者,老虎环球最为成功,捕获了205家独角兽;红杉中国在沈南鹏的领导下创造了历史,超越Sequoia,全球排名第三,成为唯一一家进入全球前十的中国投资机构。 中美持续领跑,印度独角兽数量出现首次下降 该榜单显示,胡润研究院在全球找到1453家独角兽企业,分布在53个国家和291个城市,其中171家是新面孔,几乎每两天就有一家新独角兽诞生。中国和美国仍是独角兽公司主要集聚区,过去一年,中国和美国分别出现56家和70家新独角兽。 值得注意的是,新加坡成长为独角兽大国,但印度放慢了速度,独角兽企业数量出现首次下降。其中一个因素是,印度创业者在海外创立的独角兽企业比其他任何国家都多,在印度境外共创立了109家独角兽,而在印度本土只有67家。 “过去五年是创业的黄金时代,我们看到世界上前所未有的新科技进入市场的最大规模爆发,全球独角兽企业数量增长至五年前的三倍,从494家增加到1453家,独角兽企业的平均年龄为10岁,独角兽创始人的平均年龄是45岁。”胡润百富董事长兼首席调研官胡润介绍称,从行业分布来看,金融科技、软件服务和AI是独角兽的三大主要赛道,AI今年取代电子商务,跻身三大赛道,独角兽公司对金融服务和企业管理解决方案领域的改变最大。 OpenAI增长最快,蚂蚁集团价值下降最多 记者注意到,独角兽榜单前十名门槛2350为亿元人民币,比去年提高500亿元,排在第一名的仍然是字节跳动,以1.56万亿元人民币的价值连续第三年成为全球价值最高的独角兽,SpaceX紧随其后,过去一年全球表现最好的独角兽是OpenAI,价值增长近5700亿元最快,达到7100亿元,跻身全球前三。 今年前十名中出现了三家新面孔:除了OpenAI,还有总部澳大利亚的Canva和总部马耳他的币安。Canva价值2800亿元,增长了一倍,作为世界上最大的在线设计平台,其用户数量实现了激增。加密货币交易所币安价值也增长了近1000亿元,达到2400亿元,跻身前十。 几家欢喜几家忧,去年位居前十的Telegram、Revolut和菜鸟网络今年跌出了TOP 10榜单。蚂蚁集团下降一位至第四,价值下降2800多亿,是价值下降最多的独角兽。快时尚电商Shein下跌一位至第五,价值4600亿元,总部位于旧金山的支付平台Stripe下跌一位至第六,虽然其价值上升了近800亿元,达到4300亿元。背靠腾讯的数字银行微众银行下降了4位,排名第10。 当然,还有些独角兽会失败、跌出榜单,如印度在线教育平台Byju's、中国新能源汽车品牌威马汽车等,此前都曾引起媒体广泛关注。 老虎环球捕获最多独角兽,红杉中国超越Sequoia 独角兽的诞生与成长离不开VC/PE源源不断的资金支持,在此次发布的《2024全球独角兽投资机构百强》中,记者注意到,老虎环球在Scott Shleifer和Chase Coleman的领导下,首次获得“全球最成功的独角兽投资机构”称号,投资了205家独角兽。排在第二名的是孙正义领导的软银,投资了169家独角兽。红杉中国在沈南鹏的领导下创造了历史,超越Sequoia,全球排名第三,是唯一一个进入全球前十的中国投资机构。Sequoia历来是投资独角兽领域的巨头,但在剥离中国和印度/东南亚业务后,降至第四位。 不过今年,新的独角兽投资有所放缓,尤其是与2021年的高峰相比,因为退出被证明更加困难。
百度搜索即将被替代
BAT里被踢出去的百度,在互联网行业股票中已经被冷落许久:没啥看点,常年不涨。核心竞争力全靠谷歌进不来。 常常有投资者把百度当做落难的meta,总有一天其业务优势和估值优势被发掘,然后重新上涨,的确,看PE是有一定吸引力了,才10倍。但每次中概股和互联网板块的表现,却总与百度无关,10年间,百度的股价原地踏步。 很好理解,公司有现金,过去都用以投入AI和自动驾驶等先进技术了,但迟迟没出令人眼前一亮的产品,也不能带来利润,最后造成了很差的roe,而分红回购方面非常吝啬,低估值不分红,等于不低估。 这样的公司过去当然是没什么好投资的,但奈何百度手里一堆现金,利润稳定,甚至在2023年创出新高。文心一言也自夸中文第一大模型,投资中国Ai,还是绕不开百度这家公司。 稳定的业务加上Ai业务带动,大家看到了稳定利润的百度有回高增长的可能,也让更多人谈起了百度的反转。然而,Ai对于成熟巨头们来说真的是加速引擎吗?随着Adobe在ai生成视频上被sora大幅影响而暴跌,以及整个中国互联网用户习惯的渐渐改变,大家都在赌的Ai驱动百度增长,就不能是负增长吗? 一、搜索市场的演变 目前从财报看来,百度的利润是新高,股价处于背离状态。但这个营收增速本身也没啥可圈可点的,跟经济发展增速类似,虽然新高,但营收cagr只有可怜的5.6%,这种增长水平放在中国市场,连很多经营效率不高的夕阳行业公司都不如。 要知道,互联网广告行业的增速还是不错的,长期跑赢GDP增速,这几年来汽车行业的营销费用增长迅猛,可以说,百度从中也吃到了一些红利,结果就这? 相比腾讯及其他的短视频、社交媒体和互联网平台公司,百度的广告增速就确实相当一般了。 利润增长看上去不错,但那也不真实,回购只有可怜的47亿元,但考虑到34亿的股票发行,净回购大概是只有13亿,没有分红,跟200亿利润相比,派发比例6%,相当可笑。 因为自由现金流是负的,公司还是得大量投入研发,所以在自由现金流为正之前,百度应该是不要指望还有什么大回购了。但话又说回来,这么多年里,百度自由现金流好的年份,也只有2022年,其余年份都是投比赚多,真实利润远比看到的少,这就是百度利润新高但也没什么值得着重的关键。 那说明公司有利润以上的追求?但是,自由现金流负了这么多年,也没驱动收入成长,会不会正说明公司研发方向有问题?现在看到的所有Ai突破全是跟着chatgpt一起来的,可想而知研发费用的含金量。 如果百度不再做大的投资,就靠现有业务,这可观的200多亿经营现金流分红了,确实就有价值,能让股价回归大涨了。而利润能不能长期维持,就取决于核心业务搜索的竞争对手,在何时以何种方式来冲击百度的护城河了。 百度目前的业务还是非常传统,靠过去搜索引擎业务积累的护城河来赚钱,新业务放量缓慢。 搜索引擎且广告公司,当然,一年能赚个700多亿营收,那也是相当庞大的。而广告的投放基本都集中在搜索行为和百度系产品的投放。 这些广告我们都看到过,由于搜索引擎不可或许的工具性,我们在搜索中就不可避免这些广告,而由于搜索引擎的快速触达,文字展示信息密集等功能,用户不可避免地被触达大量的广告。所以说,百度的广告是一个量大高效的好模式,从谷歌的表现,我们也看得到上限有多高了。如果说为什么bing copilot这种问答式的搜索没有出现预想中的颠覆,很关键的因素就在于,它的运行实在是太慢了,信息生成密度不够。 在中国,随着互联网手机平台的发展,实际上很多百度原有的搜索功能不意间被分走。 比如百度的知识信息产品,这个功能已经逐渐走向末路。 今天我们要查找这样的信息,抖音快手、哔哩哔哩、小红书、知乎及微信搜索(公众号载体文章)可以完全做得比百度好。这些平台优势是可视化短平快、低功利性、深度及即时性、专业性。如果这些维度全输,百度搜索的意义是什么? 小红书 而有趣的是,百度关键词搜索根本无法导向这些平台内的链接,这里面有这些网站限流的原因,但也有百度不希望用户跳转的原因。 无形间,这些大量活跃用户的内容不再出现在百度搜索列表里,如果一个搜索引擎不能应搜尽搜,那么结果就很明显了。谷歌有一个巨大的ugc宝库youtube,百度有什么呢?贴吧、还是没有ugc的爱奇艺? 今天百度的搜索里,已经很难找到时效性足够且内容深度足够的知识信息,百家号通过这些平台的跟踪和复制粘贴来维持,但密集的视频和文字流,百度始终力不从心。随着时间推移,所有中国发生的新闻、经验、心得将会一点点地在百度搜不到的平台记载,这些平台没有10年前的信息,因为它们还没有建立,也正因如此,用户对它们的搜索功能还不能完全信任,而百度还能靠历史的积累有这么点优势,但往后再看10年呢? 可以说,这是百度过度追求利润,对互联网开放生态的不尊重,导致了今天的功能落后。而我们也可以看到,百度的广告主结构里,医疗健康占首位,这么多年了,还是老样子啊。 从这点看,常年的负自由现金流,并不是公司有什么利润以上的追求。 但往后看,这些平台最后可以实现这部分功能替代,却也不足以让百度的业务完全崩塌,因为这些平台本身更不具备整合性,且搜索功能并不是它们的核心。 搜索功能最重要的是整合性和高效,简单直接和密集的信息检索是这些平台的产品模式所不具备的,这些视频、社交app点进去搜索框到信息加载的速度,总是要比百度慢的。 百度低增长这么多年,也做了很多道德低下的东西,唯一没有敢乱搞的就是首页的直观和响应速度。它还是明白自己的作为搜索网站最重要的东西的。 二、Ai还是被Ai替代 高速、直观、信心整合性,这几个点现在主打社区、需要流量和用户粘性的互联网平台冲击不了,那么百度作为中国第一的搜索引擎就还能活的不错。虽然知识内容功能注定会被替代,但搜索引擎这一功能绝对不会。它的搜索竞价广告就还很有市场。 但chatgpt的出现正好就让大家看到了搜索的新未来。之前的搜索引擎有整合信息和答案的功能,但在具体问题和语言理解上无能为力,如今的chatgpt对于很多有答案的问题,已经是信手拈来,甚至能给出推导过程,这就是在整合信息上更进一步,找出答案。 这也是为什么百度最快推出文心一言,也一直希望行业不要过度竞争,毕竟大模型的尽头,是AGI,搜索引擎这是它功能的一小部分而已。 不过,现在的chatgpt和其他大语言发展方向,尚未走在搜索引擎的方向上,大模型的几个维度:通用性、准确率、生成速度、检索密度。是各自相互冲突的,而现在openai带着大家往通用性和准确率这个方向走,暂时还没开始发力速度和检索密度,让百度松一口气暗自庆幸。 bing有了Ai还是没有在搜索引擎维度上撼动google,在检索速度上比乌龟还慢,人们有的时候并不是希望马上知道一个确定的答案,而是希望看到更多的信息。 谷歌和微软进不来中国,给了百度逆向工程的时间,过去的研发就算是打水漂,但是还是有一些硬件,人员,财力上的优势,能推出一个过得去的大模型,应该也能应对下一个时代的竞争吧。 但现实再次给了百度一击,庞大的算力开支才能支撑起Ai研发吗,事实并非如此。 在最近,一家百度上无法搜索到官网链接的大模型公司出圈了。 虽然团队只有80个人,但是确实比很多大厂的大模型好多了,不过,openai、midjourney,谁不是小厂呢? 具体的功能对比可以自行在b站或者看这篇文章: 《Kimi大模型:就汤姆你叫文心一言啊?》。 只要哪天openai和谷歌们开始转换进化方向到加载速度和信息密度上,搜索引擎的颠覆一触即发,百度要做的就是在那之前维持住国内市场第一大模型的地位,直到照葫芦画瓢完美转型,但这么一个小厂,还要马上加码迭代,确实是把百度的如意算盘打碎了。 另外,小红书还是月之暗面的投资者之一,一个结合大模型的小红书能在中文信息整合上吊打百度。 现在小红书其实是百度第一大潜在冲击者,只是它没想好走抖音的路还是百度的路,做搜索,产品形态还得改变,而论赚钱,百度可比抖音赚太少了。但考虑到视频行业目前的竞争格局,小红书务实一点,才是正道。 三、结语 百度搜索的未来,具备了巨大的不确定性,部分产品功能被吃掉已是必然,剩余的核心搜索引擎功能,也在Ai快速迭代的过程中变得越来越模糊了。 公司只能不断地靠技术迭代反击,才能在没有分红回购的前提下,维持住大家对价值的认可。这就好像Adobe,应对完文生图的产品,又要接着马上对付文生视频,一波接一波的迎战,能有一战之力,那就维持市值平稳,大家把你放入Ai板块。但若稍微应付不当,那就成时代遗珠。 这是一种明显的高风险低回报的模式,对于已有的可结合Ai业务的巨头们来说都面临着这样的问题,百度也不例外。但有更佳技术力的创新公司替代过度追求利润的公司,这本来也是理所当然的。
3月中国半导体已披露融资总额超百亿
据财联社创投通数据显示,3月国内半导体领域统计口径内共发生73起私募股权投融资事件,较上月55起减少32.7%;3月已披露融资事件的融资总额,合计约19.34亿元,较上月33.15亿元减少41.66%。 01 细分领域投融资情况 从投资事件数量来看,3月芯片设计领域最为活跃,共发生28起融资;从融资总额来看,芯片设计领域披露的融资总额最多,约为9.77亿元。专注于物联网智能终端系统SoC芯片研发的芯翼信息完成中网投、盛盎投资、钧山投资、海通创新、汉仟投资等参与的3亿元C轮融资,为3月半导体领域融资数额最大的融资事件。 按照芯片类型分类,3月受投资人追捧的芯片设计细分赛道包括MCU/SoC芯片、模拟/数模混合芯片、通信芯片、AI芯片等。 从投资轮次来看,3月半导体领域投资集中于成熟期企业,其中A轮融资事件数目最多,发生30起,占比约为41%;种子、天使轮融资事件数目位列第二,发生10起,占比约14%;Pre-A轮融资事件数目并列第二,发生10起,占比约14%。 从各轮次投资金额来看,3月半导体领域的投资事件中,A轮融资事件整体融资数额最多,约为7.97亿元。 从投资地区来看,3月江苏、广东、浙江地区的半导体概念公司最受青睐,融资数量均超10起;其中江苏融资事件为19起,数量最多;从单个城市来看,苏州有10家公司获投,数量最多。 活跃投资机构 本月的投资方包括晨晖资本、中芯聚源、源码资本、力合资本、临芯投资、中启资本、卓源亚洲、小苗朗程、红杉中国、九合创投、无限基金SEE Fund、基石资本等知名投资机构; 以及字节跳动、力芯微、华大九天、江淮汽车、广汽资本、三七互娱、中石化等产业投资方; 还包括亦庄国投、元禾控股、昆山高新集团、张江火炬创投、广州产投、深圳高新投、深创投、国投创业、深投控、国调基金、珠海市科技天使基金、苏州高新区科创天使基金、上海科创基金等国有背景投资平台及政府引导基金。 02 年内最大一笔融资 3月底,上市公司兆易创新的一纸公告,让合肥的超级独角兽长鑫科技,又站在了聚光灯下。公告显示,兆易创新将以约1400亿的投前估值,向长鑫科技投资15亿元,投资完成后将直接持有长鑫科技约1.88%的股权。 长鑫科技全资子公司为长鑫存储,是国内DRAM存储龙头企业。根据公告显示,本轮融资共计108亿元,投资方还包括合肥长鑫集成电路有限责任公司、合肥产投壹号股权投资合伙企业(有限合伙)、建信金融资产投资有限公司等多名投资人,融资规模共计108亿元。 基于其当前业务开展情况、未来发展规划等多方面因素,参考市场化询价及第三方机构的资产评估结果,并经长鑫科技与兆易创新在内的各方投资人协商和谈判,最终确定,长鑫科技本轮融资投前估值约为1399.82亿元。 虽然第一季度尚未过去,但或许可以宣布今年国内最大一笔融资已经诞生了。 03 国内半导体历年投融资情况 据IT 桔子 2023 年中国芯片半导体行业投融资市场情况数据显示,2020 年开始,国内芯片半导体行业的融资数量和融资总额均大幅增加,到 2021 年再次呈现“波峰”状态。2022 年融资金额相较于 2021 年减少 279 亿元,出现第二次小“波谷”。到 2023 年,虽然芯片半导体行业融资交易量有所下滑,但融资总额逆势回升,达到 1426.24 亿元,成为近十年来融资总额第二高的年份。 可以说,随着芯片半导体行业竞争加剧,大浪淘沙,目前资方对于项目的选择标准更加高,一些可控风险较小的头部明星企业往往能持续吸引众多资本的追捧和加码,大额融资频现,以此在 2023 年交易量较前两年下滑的基础上,却推高了整个行业的融资额。 2023 年国内芯片半导体行业有 3 家公司的总融资额超百亿元,分别是华虹半导体制造无锡公司(40.2 亿美元)、积塔半导体(135 亿元)、润鹏半导体(126 亿元)。 值得注意的是,这三家公司背后都有地方国资和国家队大基金的身影。华虹半导体制造无锡公司是由华虹半导体联合华虹宏力、国家半导体产业投资基金二期股份有限公司、无锡国有投资公司联合发起。积塔半导体由华大半导体牵头,是中国电子与上海市的战略合作项目。润鹏半导体由华润微与深圳市地方国资共同出资成立。 在 2023 年融资最多的国内芯片半导体 TOP20 的公司中,有 3 家新晋成为了独角兽企业,分别是华虹半导体制造无锡公司、同光股份、奕成科技;还有 7 家已经是独角兽,包括积塔半导体、长飞先进半导体、奕斯伟计算、盛合晶微、壁仞科技、燧原科技、宇泽半导体。
工会74%成员投票赞成 三星电子首次罢工迫在眉睫
集微网消息,在半导体业务开始复苏之际,反对工资谈判的三星电子最大工会在会员投票中获得压倒性支持,取得了罢工权,为三星电子公司历史上首次罢工预埋下了种子。 4月8日,三星电子最大工会——韩国金属工人工会联合会旗下的三星电子全国工会公布了3月18日至4月5日的投票结果,以投票赞成或反对举行罢工。 在包括三星电子全国工会在内的三星电子五个工会的总成员(27458名)中,有20853人(75.9%)参与其中,20330人(97.5%)投票支持罢工。在全体成员中,74%的人投赞成票。三星电子全国工会以超过50%的票数支持罢工,获得了合法罢工的权利。 三星电子全国工会不会立即罢工,而是计划通过在工作场所举行示威来呼吁员工支持。一些观察人士表示,随着2023年为应对绩效工资投诉而加入工会的会员人数增加,罢工可能会扰乱生产。三星电子的工会会员人数占员工总数(124804人)的22%。三星电子全国工会获得了2022年和2023年的罢工权,但没有举行罢工投票。如果这次工会罢工,这将是这家三星电子自1969年成立55年以来的首次罢工。 今年以来,工会与三星电子管理层就加薪问题进行了九轮拉锯谈判,但未能消除分歧。三星电子通过与劳资协议会的工资调整谈判,同意今年平均工资上涨5.1%,其中基本工资上涨3.0%,绩效上涨2.1%。这比2023年的4.1%增加1.0个百分点。这是今年预期消费者价格通胀率2.6%的两倍多。 劳资协商会是一个由代表管理层的成员和代表雇员的成员参与协商工资和其他工作条件的机构。除工会谈判外,三星电子每年都会通过理事会设定加薪率。 三星电子全国工会强烈反对与劳资委员会达成的加薪协议。它坚持最初的要求,包括加薪6.5%和200%的特殊绩效工资。问题是各个下属工会对罢工的立场不同。领导这次罢工的下属工会是以半导体为中心的“下属工会4”,它是下属工会中工会成员数量最多的。第二大下属工会“下属工会5”已决定不举行罢工,其6210名成员中只有约三分之一(33.6%)支持。“下属工会5”主要由智能手机业务员工组成。这意味着三星的两个主要部门走了不同的道路。 与此同时,自2023年半导体行业史无前例的低迷以来,三星电子业绩一直在下滑,对工会不合理要求的批评也越来越多。 不过4月5日,三星电子发布业绩报告,初步核实今年第一季度营业利润同比骤增931.25%,为6.6万亿韩元(约合354.6亿元人民币),超过去年全年营业利润(6.57万亿韩元);同期,销售额同比增加11.37%,为71万亿韩元。这是三星电子单季销售额自2022年4月(70.4646万亿韩元)以来时隔5个季度再次恢复至70万亿韩元以上。三星半导体业务负责人Kye-hyun Kyung在之前的公司年度股东大会上表示,随着市场低迷期的结束,其半导体业务有望在今年恢复到2022年的水平。
清华类Sora大模型黑马!融资数亿,成果被OpenAI苹果采用,深度对话CEO
作者 | ZeR0 编辑 | 漠影 50多天前轰动科技圈的Sora,给全世界上了堂打开视频创作想象力的大课。 国内类Sora创企们也活跃起来,这不,仅是过去1个月,就有多家做国内版AI视频生成模型的创业公司发来战报: 3月11日,爱诗科技宣布完成亿级人民币A1轮融资、爱诗视频大模型上线内测;3月12日,生数科技宣布获得数亿元融资,智谱AI、百度风投等参投;3月18日,潞晨科技推出覆盖所有训练细节和模型权重的Open-Sora开源方案;3月26日,字节跳动旗下剪映Dreamina开放内测…… 而且家家都有令人精神一震的“全球第一”傍身。 全球首个Diffusion Transformer架构论文来自生数科技团队,爱诗科技的海外版产品PixVerse是全球用户量最大的国产AI视频生成产品,潞晨科技开源全球首个类Sora架构视频生成模型。 国内主要类Sora创企融资历程(截至2024年3月,智东西制表) 根据公开融资信息,生数科技还是当前主要国内累计融资额及估值最高的类Sora创企。 其投资方阵容强大,百度风投连投多轮,大模型独角兽智谱AI首度参投。蚂蚁集团、创始成员多数来自于原字节跳动投资团队的锦秋基金,都将投大模型公司的“第一次出手”给了生数。 这个源自清华大学人工智能研究院的创业团队,在基础架构上能与Sora团队掰手腕,在3D生成模型上敢跟OpenAI、谷歌、英伟达叫板,技术成果被OpenAI、苹果、Stability AI等应用于DALL·E 2、Stable Diffusion等模型中。 在近期的一场小型沟通会上,生数科技联合创始人兼CEO唐家渝告诉智东西等媒体,现阶段国内外AI视频生成代际差不大,国内团队追赶Sora要比2023年追赶GPT-4更容易,生数科技有信心今年达到Sora目前版本的效果。 推荐智东西年度会议:4月18-19日,2024中国生成式AI大会将在北京举行,生数科技联合创始人兼CEO唐家渝将在大会首日的开幕式高端对话上分享对前沿技术与产业发展的观察与思考。免费报名或购票进入倒计时,期待你的参会~ 01 . 清华计算机系师生创业 科研成果“撞车”Sora基础架构 在国内AI大模型竞赛中,“清华系”群星璀璨。 据智东西统计,2017年~2023年至少有29位清华教授、校友下场创业,投入大模型产业相关方向。(清华系撑起中国大模型创业半壁江山) 清华大模型创业群英谱(智东西整理,如有错漏欢迎指正或补充) 其中,生数科技是多模态通用大模型代表玩家,也是技术架构“最接近于Sora的中国团队”。 故事要从其首席科学家、知名AI大牛朱军说起。 朱军教授是20多年的“清华人”,2001年考入清华计算机系,2009年博士毕业,师从中国AI奠基者张钹院士,2011年起在清华计算机系任教,是清华最年轻的长聘正教授之一,也是当前CS Rankings机器学习方向亚洲排名第一的学者。 生数科技首席科学家朱军教授 2018年,清华大学人工智能研究院成立,83岁高龄的张钹院士出任院长,35岁的朱军出任副院长。同年7月,朱军支持自己的学生田天创办第三代AI基础设施创企瑞莱智慧RealAI,并与张钹院士共同担任瑞莱智慧首席科学家。 四年后,与Sora的交集开始埋下伏笔。 2022年9月,朱军教授课题组提交了一篇论文,提出将视觉Transformer与扩散模型结合的网络架构U-ViT;两个多月后,一起在Meta FAIR实验室做研发的加州大学伯克利分校William (Bill) Peebles和华人学者谢赛宁合著并提交了一篇DiT论文,同样探索了扩散Transformer架构,并与U-ViT在具体实验路径上一致。 当年计算机视觉顶会CVPR 2023收录了U-ViT论文,却以“缺乏创新”为由拒稿DiT论文。DiT论文入选了另一个顶会ICCV 2023。 左为清华U-ViT论文,右为DiT论文 而在一年多后的今天,惊艳世界的视频生成模型Sora和文生图模型Stable Diffusion 3,都是站在DiT肩膀上结出的研究硕果。 2022年年底,Bill Peebles加入OpenAI,开始联合带领一支由十几人组成的精悍团队,在DiT架构之上呕心研发Sora视频生成模型项目。Bill曾告诉同为DiT论文作者的谢赛宁,Sora团队“每天基本不睡觉高强度工作了一年”。 基于算力和对技术成熟度预判的综合考虑,清华团队则选择先将U-ViT应用于2D图像生成,再基于此拓展至3D和视频任务。 2023年3月,朱军教授课题组开源9.5亿参数多模态扩散大模型UniDiffuser,基于U-ViT架构实现图文跨模态生成,在采用扩散Transformer架构上比今年2月才发布的Stable Diffusion 3模型领先了接近一年。 开源地址:http://github.com/thu-ml/unidiffuser 同样在3月,生数科技由瑞莱智慧RealAI、蚂蚁和BV百度风投联合孵化成立,2006级清华计算机系校友、师从清华孙茂松教授的前瑞莱智慧副总裁唐家渝出任CEO,师从朱军教授的清华计算机系博士、U-ViT和Unidiffuser论文的作者鲍凡出任CTO,朱军教授担任首席科学家。 经过大半年围绕多模态大模型的研发探索,生数科技团队预测过2024年视频生成会迎来爆发,但Sora的出场还是令他们感到惊讶。“比我们的预期早了将近半年。”唐家渝回忆道。 2024年1月19日,生数科技宣布其视觉创意平台PixWeaver上线文生视频功能,输入简单文字即可一键生成视频,最高支持1024*1024分辨率。当时PixWeaver的画面水准已跻身国际一流,但仍未解决时长短、画面有卡顿感等问题。 今年1月推出文生视频功能时展示的生成视频效果 一个月后,视频生成模型Sora空降,凭借可生成信息承载力强、3D一致性、一定程度领悟物理规律的60秒长视频,彻底引爆AI视频生成的燎原之火,也因“降维打击”带来了空前压力。 02 . “大一统”的多模态底层架构 用一个模型生成复杂任务 在前沿架构研究上,清华团队拿到先手棋。 但OpenAI是更擅长操盘全局的下棋高手,无论是顶尖的研发实力,还是堪称教科书级的发布与营销节奏把控,都令一众AI团队甘拜下风。 背靠微软的雄厚资源,从发布ChatGPT到解决夺权事变,OpenAI一步步将其从高管到研发人员都捧成了AI领域的明星人物。 国内企业们迸发出积极的学习热情,有的急追猛赶搞研发、推产品,有的学会讲故事、造话题。 生数科技似乎没那么有“功利心”。在与唐家渝的交流中,他没有将生数标榜为“中国版Sora”的有力竞争者,而是将更高的优先级放在技术与研究突破上,视频生成固然要追,但3D生成、图像生成同样是生数的看家本领。 多个图生3D模型快速拼装搭建的3D场景 短视频生成案例 OpenAI推出了很多采用不同功能的模型,比如GPT-4(文-文)、DALL·E 3(文-图)、GPT-4V(文和图-文)等。 生数科技走的是原生多模态大模型技术路线,用同一个U-ViT底层架构一以贯之,实现一个通用模型来实现图像、3D、视频等多类复杂生成任务。 在 3D生成方向,生数科技成立3个月时就公开“叫板”业界顶级模型OpenAI Shap-E、谷歌DreamFusion、英伟达Magic3D,称在几何结构精度、纹理细节、分辨率等方面的3D生成效果“大幅领先”,接近产业级应用。如今其已能实现最快10秒级生成3D模型,支持文生3D、图生3D,并在国际首发基于骨骼动画的4D动画生成框架。 4D动画生成框架AnimatableDreamer直接将2D视频素材一键转成动态立体模型(论文地址:https://arxiv.org/pdf/2312.03795.pdf) 在视频生成方向,生数初步具备4~5秒短视频生成能力,可根据给定文本描述实现视频画面元素自动变换,比如改变物体颜色、人物着装、面容妆发、环境季节、视频风格等,做到可控编辑。 在文生图方向,图文模型从最早开源版的1B不断扩展至3B、7B、10B及以上,去年6月发布时超过Stable Diffusion最新版基础模型水平,在构图、风格、画面精准度等方面能够更好地把握用户意图。 当前生数科技的商业化路径是布局MaaS(模型即服务)与应用级产品,同时发力To B和To C,既以API形式向B端机构直接提供模型能力,又打造垂类应用产品,以订阅等形式收费。 这家成立刚满一年的年轻创业公司,已经与多家游戏公司、个人终端厂商、互联网平台、VR企业等B端机构开展合作。 2023年9月,生数科技正式上线两大应用产品视觉创意设计平台PixWeaver、3D资产创建工具VoxCraft。 PixWeaver AI绘画页面 PixWeaver地址:https://pw.shengshu-ai.com/ VoxCraft地址: https://voxcraft.ai/ 图像生成、3D生成功能均可体验。 视频生成功能短暂开放后暂时关闭了,等技术升级和优化后重新开放。 03 . 半年训练速度提升40倍 今年能追齐Sora水平 唐家渝坦言,就结果而言,现有其他视频生成模型跟Sora相比“差得还挺远”。 在他看来,现阶段国内团队追赶Sora要比去年追赶GPT-4更容易,因为尚未形成明显的先发或垄断优势。他相信追齐Sora目前版本的水准,所需时间不会太长,今年肯定能达到,不过很难精确预估要用一两个月还是半年时间。 唐家渝这么说,是有充分的底气的。 多模态大模型不像大语言模型需要那么高的参数量,但成本仍是问题,需要在算法层面做很多工作来把成本打下来,因此对底层研发能力要求很高。他预计AI视频生成赛道将收敛到几家企业。 生数科技不仅对底层架构熟知,而且已经走过很多训练、调优的坑,积累了完整高效的算法和工程化经验,包括在大规模GPU集群上实现高效兼容、低成本的模型训练。 在训练图像生成模型上,其团队半年将训练速度提升了40倍。 算力方面,资源是主要限制因素。Sora验证了长视频生成这条路走得通,消除了在这个方向砸资源的疑虑。如果一开始就从头来做像Sora这样的事,可能要投入上万张A100、A800卡。现在通过优化AI Infra,用到的算力资源和成本少了很多。 数据方面,生数科技搭建了一套完整的自动化数据管理及使用体系。其多模态大模型的训练数据主要来自大量的互联网公开数据和合作伙伴提供的私有数据。 人才方面,目前生数科技团队规模逾70人,近90%为研发人员,硕士研究生占比超过50%。生数科技核心创始团队来自的清华大学人工智能研究院,从事贝叶斯机器学习的基础理论和高效算法研究逾20年,在国内最早开展扩散概率模型基础研究且发表论文最多,在ICML、ICLR等AI顶会发表近30篇相关论文。 他们产出了免训练推理框架Analytic-DPM、世界最快采样算法DPM-Solver、多模态大模型UniDiffuser、3D生成算法ProlificDreamer、可控视频编辑算法ControlVideo等国际领先的代表性工作。其中Analytic-DPM论文是ICLR会议首篇由中国大陆单位独立完成的获奖论文。 今年1月,国际人工智能促进协会(AAAI)公布了2024 AAAI Fellow名单。已经身兼清华大学计算机系Bosch AI冠名教授、计算机系人智实验室主任、IEEE Fellow多个头衔的朱军教授因对机器学习理论和实践的重大贡献而入选。 由朱军教授在校培养的多位学生,已成为生成式AI领域顶尖的科研力量,比如扩散模型领域的知名研究者宋飏、宋佳铭,还有ChatGPT两位华人研究者翁家翌、赵盛佳等等。 04 . 结语: AI视频生成竞赛,序幕才刚刚拉开 在AI视频生成模型赛道,中美顶尖技术的研发差距客观存在,国内团队还需持续打怪升级。 但国内团队也并非从零起步。比美国更早提出扩散Transformer融合架构的生数科技,正在迎头追齐Sora,近期将重点攻关长视频生成能力,包括更好地实现不同分镜、针对物理世界的初步理解、视频编解码、长视频的连贯性等方向。 其他当前已公开的AI文生视频模型及产品中,爱诗科技PixVerse上线88天视频生成量达到1000万里程碑,潞晨科技开源的Sora复现方案将成本降低46%……还有许多国内团队正在探索可生成视频的多模态大模型方向。
WPS AI企业版发布:打通文档、AI、协作三大能力
凤凰网科技讯 4月9日,金山办公生产力大会在京举行,现场发布了面向组织和企业的办公新质生产力平台WPS 365,其包含升级的WPS Office、最新发布的WPS AI企业版和WPS协作。WPS AI企业版的发布打通了文档、AI、协作三大能力,覆盖了一个组织日常办公的基本需求。 数据显示,2020年金山办公云端文档数是898亿份,到2023年底已达到2174亿份,增长了142%。金山办公作为办公软件公司,此次WPS 365的全新升级,进一步打通了AI与协作的能力。 章庆元表示,WPS 365全面覆盖了一个组织日常办公的基本需求,从文档创作到即时通讯(IM)、会议、邮件,再到AI应用,标志着一个文档处理套件正式升级为一站式AI办公。 发布会现场演示了本地文档一键切换出在线协作功能,变成协作文档,并邀请他人共同参与编辑。协作完成后又可以选择关闭,协作文档恢复为本地文档。最新版WPS Office里的各类工具也均内置了具备大语言模型能力的人工智能应用WPS AI,为用户提供诸如扩写、缩写、总结、生成公式等功能。WPS协作则进一步让组织用户间的沟通交流更便捷,用户可以边写⽂档边沟通,即使是在邮件、OA系统里也能够无缝衔接。 基于「WPS Office+WPS协作+WPS AI」的模式,意味着用户只需要WPS 365一个产品就能完成工作,免去了办公场景下的繁琐切换,实现办公新质生产力的切实落地。 金山办公副总裁王冬介绍说,与个人版不同之处在于,WPS AI企业版聚焦为客户打造企业大脑,它分为AI Hub(智能基座)、AI Docs(智能文档库)、Copilot Pro(企业智慧助理)三个部分。 AI Docs将传统云文档库升级为智能文档库,让智能创作来源有依据,完整的文档权限体系保障信息不越权。 Copilot Pro则可帮助运营人员使用自然语言驱动BI产品分析数据,并可调用WPS 365 API和企业自有API,解决办公自动化需求。 WPS AI企业版不仅能读书认字,还能自助化分析数据、减少人工的重复劳动,提供“文理兼修”的数字员工服务,例如阅读助手、画图助手、考勤助手、销售分析、合同分析等等,触达各类细微的办公场景。
消息称三星、SK海力士推进移动内存堆叠封装技术量产,满足端侧AI需求
IT之家 4 月 9 日消息,据韩媒 ETNews 报道,三星电子和 SK 海力士都在推进移动 DRAM 堆叠封装技术的应用,该技术可提高移动设备的内存带宽。 端侧 AI 是目前智能手机、笔记本等产品市场的热门话题,而实现端侧运行模型需要更强大的移动 DRAM 性能。堆叠芯片作为一种在 HBM 内存上行之有效的策略被纳入考虑。 然而,以 LPDDR 为代表的移动 DRAM 芯片较小,不适合与 HBM 相同的 TSV(IT之家注:硅通孔)连接方案;同时 HBM 制造工艺的高成本低良率特性也不能满足高产能移动 DRAM 的需求。 因此三星电子、SK 海力士采用了另一种先进封装方式来实现移动 DRAM 芯片堆叠,也就是垂直布线扇出技术 VFO,该技术可提供更多的 IO 数据引脚。 SK 海力士方面表示 VFO 技术将 FOWLP 和 DRAM 堆叠两项技术结合,通过垂直连接大幅缩短了电信号在多层 DRAM 间的传输路径,同时能效也有提升。 ▲ 图源 SK 海力士官网 SK 海力士给出的数据显示,其去年中的 VFO 技术验证样品在导线长度上仅有传统布线产品的不到 1/4,能效也提升了 4.9%。虽然该方案带来了额外 1.4% 的散热量,但封装厚度减少了 27%。 根据 ETNews 的说法,三星方面采用类似技术的产品是 LLW DRAM。LLW DRAM 可实现低延迟和 128GB/s的高带宽性能,同时能耗也仅有 1.2 pJ / b。 采用 VFO 技术的产品有望成为继 HBM 后的下一个 AI 内存热点。报道称三星计划于明年下半年实现 LLW DRAM 的量产;而 SK 海力士相关产品目前已在量产准备阶段。
聚焦超长上下文,Claude为自己“拆”炸弹
近日,Anthropic研究人员以及其他大学和研究机构的合作者发布了一篇名为《Many-shot Jailbreaking》的研究,主要阐述了通过一种名为Many-shot Jailbreaking(MSJ)的攻击方式,通过向模型提供大量展示不良行为的例子来进行攻击,强调了大模型在长上下文控制以及对齐方法方面仍存在重大缺陷。 据了解,Anthropic公司一直宣传通过Constitutional AI(“宪法”AI)的训练方法为其AI模型提供了明确的价值观和行为原则,目标构建一套“可靠、可解释、可控的以人类(利益)为中心”的人工智能系统。 随着Claude 3系列模型的发布,行业中对标GPT-4的呼声也愈发高涨,很多人都将Anthropic的成功经验视作创业者的教科书。然而,MSJ的攻击方式,展示了大模型在安全方面,仍然需要持续发力以保证更加稳定可控。 顶级大模型齐汗颜,MSJ究竟何方神圣 有趣的是,Anthropic CEO Dario Amodei也曾出任OpenAI的前副总裁,而其之所以选择跳出“舒适圈”成立Anthropic很大一部分原因便是Dario Amodei并不认为OpenAI可以解决目前在安全领域的困境。而在忽略安全问题一味的追求商业化进程是一种不负责任的表现。 在《Many-shot Jailbreaking》的研究中显示,MSJ利用了大模型在处理大量上下文信息时的潜在脆弱性。这种攻击方法的核心思想是通过提供大量的不良行为示例来“越狱”(Jailbreak)模型,使其执行通常被设计为“拒绝”的任务。 “上岸第一剑,先斩意中人”。研究团队同时测试了Claude 2.0、GPT-3.5、GPT-4、Llama 2 (70B)以及Mistral 7B等海外的主流大模型,而从结果来看,自家的Claude 2.0也没有被“幸免”。 MSJ攻击的核心在于通过大量的示例来“训练”模型,使其在面对特定的查询时,即使这些查询本身可能是无害的,模型也会根据之前的不良示例产生有害的响应。这种攻击方式展示了大语言模型在长上下文环境下可能存在的脆弱性,尤其是在没有足够安全防护措施的情况下。 因此,MSJ不仅是一种理论上的攻击方法,也是对当前大模型安全性的一个实际考验,用以提示开发者和研究者需要在设计和部署模型时更加关注模型的安全性和鲁棒性 通过向Claude 2.0这样的大型语言模型提供大量的不良行为示例来进行攻击。这些示例通常是一系列的虚构问答对,其中模型被引导提供通常它会拒绝回答的信息,比如制造炸弹的方法。 数据显示,在第256轮攻击后,Claude 2.0表现出了明显的“错误”。这种攻击利用了模型的上下文学习能力,即模型能够根据给定的上下文信息来生成响应。 除了诱导大模型提供有关违法活动的信息,针对长上下文能力的攻击还包括生成侮辱性回应、展示恶性人格特征等。这不仅对个人用户构成威胁,还可能对社会秩序和道德标准产生广泛影响。因此,开发和部署大模型时必须采取严格的安全措施,以防止这些风险在实际应用中复现,并确保技术被负责任地使用。同时,也要求持续的研究和改进,以提高大模型的安全性和鲁棒性,保护用户和社会免受潜在的伤害。 基于此,Anthropic针对长上下文能力的被攻击风险带来一些解决办法。包括: 监督微调(Supervised Fine-tuning): 通过使用包含良性响应的大量数据集对模型进行额外的训练,以鼓励模型对潜在的攻击性提示产生良性的响应。不过,尽管这种方法可以提高模型在零样本情况下拒绝不当请求的概率,但它并没有显著降低随着攻击样本数量增加而导致的有害行为的概率。 强化学习(Reinforcement Learning): 使用强化学习来训练模型,以便在接收到攻击性提示时产生合规的响应。包括在训练过程中引入惩罚机制,以减少模型在面对MSJ攻击时产生有害输出的可能性。这种方法在一定程度上提高了模型的安全性,但它并没有完全消除模型在面对长上下文攻击时的脆弱性。 目标化训练(Targeted Training): 通过专门设计的训练数据集来减少MSJ攻击效果的可能性。通过创建包含对MSJ攻击的拒绝响应的训练样本,模型可以学习在面对这类攻击时采取更具防御性的行为。 提示修改(Prompt-based Defenses): 通过修改输入提示来防御MSJ攻击的方法,例如In-Context Defense(ICD)和Cautionary Warning Defense(CWD)。这些方法通过在提示中添加额外的信息来提醒模型潜在的攻击,从而提高模型的警觉性。 直击痛点,Anthropic不打顺风局 自2024年以来,长上下文是目前众多大模型厂商最为关注的能力之一。马斯克旗下xAI刚刚发布的Grok-1.5也新增了长达128K上下文的处理功能。与之前的版本相比,模型处理的上下文长度增加至原先的16倍;Claude3 Opus版本支持了 200K Tokens 的上下文窗口,并且可以处理100万Tokens 的输入。 除了海外企业,国内AI初创公司月之暗面最近也宣布旗下Kimi智能助手在长上下文窗口技术上取得重要突破,无损上下文处理长度提升至200万字级别。 通过更长的上下理解能力,能够提升大模型产品提升信息处理的深度和广度,增强多轮对话的连贯性,推动商业化进程,拓宽知识获取渠道,提高生成内容的质量。然而,长上下文理带来的安全和伦理问题不可小觑。 斯坦福大学研究显示,随着输入上下文的增长,模型的表现可能会出现先升后降的U形性能曲线。这意味着在某个临界点之后,增加更多的上下文信息可能无法带来显著的性能改进,甚至可能导致性能退化。 在一些敏感领域,就要求大模型在处理这些内容时必须非常谨慎。对此,2023年,清华大学黄民烈团队提出了大模型安全分类体系,并建立了安全框架,以规避这些风险。 Anthropic此次“刮骨疗毒”,让大模型行业在推进大模型技术落地的同时,重新认识其安全问题的重要性。MSJ的目的并不是为了打造或推广这种攻击方法,而是为了更好地理解大型语言模型在面对此类攻击时的脆弱性。 大模型安全能力的发展是一场无休止的“猫鼠游戏”。通过模拟攻击场景,Anthropic 能够设计出更加有效的防御策略,提高模型对于恶意行为的抵抗力。这不仅有助于保护用户免受有害内容的影响,也有助于确保AI技术在符合伦理和法律标准的前提下被开发和使用。Anthropic 的这种研究方法体现了其对于推动AI安全领域的承诺,以及其在开发负责任的AI技术方面的领导地位。 大模型之家认为,目前大模型的测试层出不穷,相比较幻觉带来的能力问题,输出机制带来的安全危害更需要警惕。随着AI模型处理能力的增强,安全问题变得更加复杂和紧迫。企业需要加强安全意识,投入资源进行针对性研究,以预防和应对潜在的安全威胁。这包括对抗性攻击、数据泄露、隐私侵犯等问题,以及长上下文环境下可能出现的新风险。
“更大的焦虑,更大的想象力”:音视频厂商如何闯入AI时代?
作者|思杭 编辑|皮爷 2024年初,国内的大模型公司还未从上一波“GPT4”的焦虑当中缓过来,Sora就已经席卷而至。紧接着,所有互联网大厂几乎都“停下手头工作”,开始在新的领域做出一点成绩,从而尽快在市场上发声。 但在近期阿里蔡崇信的采访中,他说道,“中国AI技术可能要落后美国两年”。在这种不断追赶的焦虑背后,一个引人思索的问题是,国内大模型公司追赶的究竟是什么? 站在更为具体的赛道上来看这一问题,作为离Sora最近的赛道——音视频而言,这种焦虑也在不断放大。 从GPT3.5到GPT4.0,从Runway、Pika到Sora,当大模型的价值链不断升级,那些暂未爬到顶端的企业,还剩下多少‘生存空间’? 实际上,于音视频厂商而言,当“追逐技术”变为“追逐用户”,这种价值就变得更加具体、更加实际。从近两年音视频厂商的发力趋势可以看出,AI虽然是不可错过的大趋势,但企业要解决的难题是,如何将技术与用户连接在一起。让大模型发挥想象力的同时,更要解决用户的实际问题。 一 AI时代,不断进击的“音视频” 2022年,先是钉钉的一套“组合拳”,紧接着,音视频PaaS/SaaS厂商也纷纷跟进,不仅大手笔投入研发,还在AI方向补充弹药进行长远布局,自此,围绕音视频赛道的“混战”也正式打响。 音视频PaaS公司“拍乐云”被收购一事在2022年受到广泛关注,收购方正是阿里钉钉。一石激起千层浪,音视频赛道迅速成为焦点。更为炸裂的消息是,有着视频会议开创者Webex架构师、网易云信CTO和拍乐云创始人等多个显赫头衔的“赵加雨”,也携团队空降钉钉音视频事业部的一号位。 而跟随赵加雨的这伙人,个个都是音视频领域的得力干将。其中,李备是拍乐云音频专家,曾有5年WebEx音频专家工作经验;章琦,拍乐云首席科学家,8年WebEx音视频引擎架构师工作经验。 所有信号都指向了阿里布局音视频赛道的决心。实际上,阿里在音视频的布局更早就开始了。2021年11月,钉钉内部成立了独立的音视频事业部,该事业部成立的初衷便是聚焦在“研究音频技术及算法创新,以及探索下一代音视频会议形态”。 钉钉这一枪打响后,长年深耕在音视频赛道的腾讯云,以及其他PaaS和SaaS厂商,也纷纷从研发、解决方案、应用场景和AI方面增添自己的弹药库。 同样身为互联网厂商,音视频于腾讯而言,可以算是一种“与生俱来”的基因。到2022年,腾讯云的步伐早已到了在技术侧实现突破,以及在行业应用上更加细分的程度。 比如腾讯云将一种能够远程实时控制的音视频技术方案,应用在煤矿、港口场景里的无人驾驶卡车运营当中。而在此之前,在传统行业里实现远程的音视频连接和操作,无论是技术还是应用场景方面都远未达到成熟。 对于其他音视频PaaS/SaaS厂商而言,增加研发投入则是一种更为直接的方式。 在2022年,除了阿里钉钉的一套“组合拳”,音视频赛道里的另一个重磅消息是,音视频SaaS第一股“百家云”在纳斯达克敲钟上市。其2022上半年营收就达到了6860万美元,实现同比增长65.5%。在2023年其更是净利润达480万美元,实现扭亏为盈。而其研发费用更从2021财年的580万美元大幅增加到2022财年的1300万美元。 实际上,这种研发费用的骤增不仅仅是底层技术方面的发力,还有定制化和AI方面的投入。从财报中看,在2022财年的全年营收中还增加了一项“定制平台开发服务”,全年该业务的营收达到了1030万美元;而AI解决方案的收入也增加了760万美元。 而与SaaS厂商不同,音视频PaaS厂商的研发投入则更重。以声网为例,根据其2022年的财报显示,当年的全年总营收是1.61亿美元,而单是研发费用就达到了1.1亿美元。 那么,这1.1个亿的费用具体体现在哪些方面? 2023年,声网推出“凤鸣AI引擎”,将AI降噪、AI回声消除、空间音频等技术进行了集成;在视频方向,推出了超高清能力的超分、画质提升、感知编码、虚拟背景和AR特效等增强观看体验、临场感和互动表达能力的实时AI技术;也开发了语音转文字、内容审核等AI功能来增加信息提取、传递和保存的维度。 这是在AI时代、大模型时代下对智能化的一种响应。但罗马不是一天建成的。于音视频厂商而言,推出AI相关的技术或应用场景需要长期的投入。 无论是声网,还是保利威、百家云等其他音视频PaaS/SaaS厂商,对于AI的积累都要追溯到几年前。只是从外界声音来看,2023年是集中发力的一年。 以声网为例,在凤鸣AI引擎中集成的大部分技术都源于多年的积累。产业家向声网CTO钟声了解到,“空间音频”是凤鸣AI引擎中集成的技术。利用AI算法来模拟头部球面区域的立体声场,在更细微处,甚至能捕捉到人的喜怒哀乐,将这种三维信息提取出来再放到AR增强的场景。从技术处理的细节便可以感知到,它是一种“厚积薄发”的产物。 实际上2023年,大模型在国内“狂飙”的同时,音视频厂商更是不可能错过这波风口。技术的长期投入,这一年给音视频厂商的机会是在服务场景上更深化、更细致。 最为常见的便是AIGC解决方案的发布,这也是在市场层面能够迅速引发关注的方式。比如声网在去年发布RTE X AIGC 一站式产品能力解决方案;百家云发布全新AIGC产品“市场易”;腾讯云在音视频产品矩阵上的智能化升级;保利威发布AI智能教育解决方案;即构推出AI视频生成应用“即构数智人”等等。 而在无数的声音背后,大模型给音视频带来的实际价值是什么? 二 技术、落地场景和“大小模型”方案 “到了今天这个时代,客户不会关注噱头,而是更切实地关注提高了多少效率,降低了多少成本。”这是保利威全国售前总经理王建成近两年的感受。 技术不断进步的同时,服务场景也正在进一步深化。 抛开底层技术,在大模型时代,如果说真正能在效率上提升,以及成本上有所降低,用户一定会在操作体验层面有更强的感知。 那么,更为细致的应用场景,便是结合AI大模型,来解决曾经几乎“不可能”的事情。 以金融领域为例,其监管十分严格。一种常见的情况是,在直播过程中需要人为干预,进行监听。所以这种情况下,实时生成字幕对于大部分的金融客户就很难满足。 王建成告诉产业家,保利威的做法是结合金融客户的特殊需求和行业特点,做出一种专为金融行业打造的特殊模型。 这是一种将直播技术与业务结合的最佳例证。而在AI大模型时代,在技术高度不断刷新的当下,真正去解决用户的实际问题,对于音视频SaaS厂商,或许是一个更为务实的答案。 为什么说焦虑与现实有时并不成正比? 一方面,技术高度的不断刷新确实会带给人更大的焦虑,但另一方面,从现实的角度来讲,技术高度的不断刷新却并未真正下沉到产业,发挥真正的价值。 根据艾瑞咨询报告显示,在目前实时音视频领域,领跑场景依旧停留在C端,在实际生产过程中,产业数字化的价值微乎其微。 那么,从技术的角度出发,音视频技术现在究竟发展到什么程度了? 可以看到的是,腾讯云已经能够实现在煤矿、港口场景里,实时控制无人驾驶卡车运营。这是近两年较为新鲜的尝试。在这些场景同样有所布局的还有声网。除了更深入产业侧的工业领域 ,声网也在IoT行业、医疗健康行业持续发力。 而在大模型未到来之前,远程的音视频连接和操作,无论是技术还是应用场景方面都远未达到成熟。 站在技术的角度,更具体来讲,大模型给音视频领域带来的是更大的想象力。 2023年,阿里云智能高级算法专家刘国栋在深圳的一席演讲中提到了一种大模型与小模型结合的技术。 在大模型还未出现的时候,只有小模型。其实,大模型与小模型都有各自的局限。小模型的局限在于其泛化能力比较差。而泛化能力差,通俗来讲,就是小模型的理解和生成能力不好。但其优点在于,小模型、传统算法在算法开发、工程优化方面已相对比较成熟,小模型的训练资源占用少且训练速度快,部署容易,端侧落地性强。 而大模型出现后,这些问题都一一被解决了。而大模型的局限性在于,细粒度的问题还不能完美处理、容易出现幻觉现象、推理训练成本都比较高等。 因此,大小模型协同便是最好的解决方案。通过让大模型和小模型并联和相互引导的方式,来优化各自的问题。 而对于大模型与小模型的“协同”方面,声网也有自己的理解。对此,钟声向产业家解释道,“大模型的参数很大,需要巨量的数据包括高质量的数据来训练。一个符合常理的逻辑是,最领先的大模型,其推理能力较强,可以通过蒸馏等方法来训练小模型。大模型产生的结果,具备一定的质量,可以用来训练小模型。未来,大小模型应该以‘联合行动’的方式来共同完成任务,在算力、延时、隐私保护等方面实现一种更好的融合。” 一个更为遥远的畅想是,随着端上算力的增强,有着几十亿参数的大模型未来也有可能在端上运行。届时,在各个领域实现“实时音视频”则会成为现实。 三 更大的焦虑,更大的想象力 从GPT3.5到GPT4.0,从Runway、Pika到Sora,当大模型的价值链不断升级,那些暂时还未爬到顶端的企业,还剩下多少“生存空间”? 这是一个引人深思的发问。 近两年,科技界追逐技术的热情在不断高涨。大众对于AI的焦虑是更为遥远的“生存威胁”,而科技界对AI焦虑则是由所谓“参数”和“长文本”所“卷”起来的商业竞争。 如果聚焦到产业侧,聚焦到更实际的赛道,不断刷新的榜单,不断升级的参数、上下文长度,这些对于音视频厂商而言意味着什么? 在与钟声的对话中了解到,声网所追求的是实时性。而从目前来看,如果在云端的服务器上运行,最后在传输到端的设备上,很难实现“实时性”。所以声网的做法是是在端上进行计算。但客观来讲,端上运算的局限是算力不够。 对此,钟声发表了一种观点,虽然现在最前沿的技术都在追求Scaling Law(规模效应)支撑下的大模型,但对于声网而言,追求极致的小模型意义则要更大一些。首先保证低延时、低成本,直接让很小的AI算法在端上发力,通过极致、精准的算法来让音视频发挥最大的价值,低延时低成本可以为更多需要实时互动的客户和用户释放出或者创造出巨大的价值;这方面业界的关注度还不够,但终会成为焦点。声网在这方面则做了较为专注的研发投入。 站在更实际的角度,如果在云端运算,虽然在大算力的支持下运行大模型,最终可以得到较好的效果,但现实情况是,在大多数的消费侧场景,比如社交娱乐,系统响应延时过大,本身就不太像AGI,客户或用户也不可能花较高的费用来追求响应较慢的AGI效果。所以,在端上低延时低成本的运算更为有需求。 同时,钟声提出了一种畅想,在音视频领域,AGI最终会发展成端边云结合的方式,以平衡算力、延时、隐私和数据保护等几个AI发展的关键要素。 这是大模型赋予音视频厂商的想象力,而这种想象力也会应用到更现实的场景解决更实际的问题,比如医疗领域里会用到的远程救治,其实时性要求极高,延迟1s都可能威胁到生命。 那么,在当下这个拼技术刷榜单的大模型时代,音视频厂商要如何顺应AI时代? 实际上,近两年音视频的发展趋势已经从关注技术,走向关注更为实际的“降本增效”。以保利威为例,其SaaS订阅收入达到90%成绩背后,是结合具体的业务来解决实际用户的问题。 如果通过大模型所提升的音视频技术,不再止步于社交和娱乐,而是更为具体的生产环节,甚至是治病救人,那么也许实时音视频才会实现破圈,走向大众。
联发科推出生成式AI服务平台“达哥”,支持“最强繁体中文大模型”MR BreeXe
IT之家 4 月 9 日消息,据联发科官方消息,在今日举行的生成式 AI 论坛期间,联发科生成式 AI 服务平台 MediaTek DaVinci 正式推出,亦称“联发科技达哥”,目前已有超过 40 家厂商加入其生态系统。 据悉,该工具最初为集团内部生成式 AI 工具,被广泛应用于软件开发的需求分析和规格设计、人资的自动媒合、财务的报销流程、法务的专利翻译和合约诉讼等,集团渗透率达到 96%。 同时,联发创新基地还发布了该平台最新的繁体中文大型语言模型 MediaTek Research BreeXe(IT之家下文简称 MR BreeXe)。 MR BreeXe 以 Mixtral 8x7B 模型为基础开发,继承 Mixtral 多专家模型特有的节省运算资源、提升速度优势,号称在繁体中文测试项目(TMMLU+、MT Bench TW)超越 GPT-3.5,并对台湾地区常见的地端应用进行了“特别优化”。 据联发创新基地负责人许大山介绍,MR BreeXe 繁体中文大型语言模型提供优异语文理解能力和云、地两端的弹性,为现今繁体中文能力最强的语言模型,与“达哥”配合相信能够更贴近本地化的需求,激发更多本土生成式 AI 应用。 去年 4 月,联发科曾发布繁体中文 AI 大型语言模型 BLOOM-zh,号称在大多数繁体中文基准测试中优于其前身,同时保持其英语能力。
宁德时代天恒储能系统发布:发力万亿赛道,应对AI能源挑战
凤凰网科技讯 4月9日,宁德时代今日发布可大规模量产的天恒储能系统。天恒储能系统集“5年零衰减,6.25兆瓦时、多维真安全”于一体,是全球首款5年零衰减储能系统。 宁德时代天恒储能系统,采用了仿生SEI和自组装电解液技术,为锂离子清除路障,实现5年功率和容量零衰减,辅机功耗全生命周期可控且不增长,真正做到由内而外的“冻龄”。 据2024年全球储能行业趋势预测报告预测:2024年,300+Ah大电芯、5兆瓦时储能系统是行业的主流。截至天恒储能系统发布,行业中储能系统最高达到20尺集装箱6兆瓦时。天恒储能系统在标准20尺集装箱内,实现6.25兆瓦时级的高能量,单位面积能量密度提升30%,整站占地面积减少20%,创造更高的效益。 天恒储能系统, 搭载了储能专用长寿命零衰减电芯L系列产品,实现了磷酸铁锂储能电池的超高能量密度——430Wh/L。 为确保技术的有效性,宁德时代搭建安全实证平台,模拟不同电网场景和运行环境的储能系统安全实证。在项目投运后,宁德时代通过AI风险监测和智能预警不断地监控运行状态,利用PSA模型量化储能产品全生命周期失效概率,从而验证安全设计目标并持续更新。 值得一提的是,人工智能的发展离不开能源的支持。AI的高耗电,高稳定需求,对能源挑战巨大,需要新能源大规模开发,不断提高绿色电力占比。天恒储能系统的大规模商用,可协助电力系统有效应对AI算力产生的耗电高峰的冲击。 中国物理与化学电源行业协会储能应用分会预计:到2025年,新型储能产业规模有望突破万亿,到2030年预计接近3万亿。资本市场对储能行业的投入正在呈井喷式爆发。 在2023年,宁德时代全球储能电池出货量市场份额达到40%,连续三年位居全球第一。从宁德时代2023年财报数据来看,储能电池系统是宁德时代第二大营收来源。2023年宁德时代储能电池系统营收同比增长33.17%至599亿元,占总营收的14.94%;毛利率23.79%,比上年同期增长6.78%。天恒储能系统的问世,是宁德时代助力能源转型的又一标志性实践。(作者/于雷)
纯C语言手搓GPT-2,前OpenAI、特斯拉高管新项目火了
编辑:泽南、小舟 「Real men program in C.」 众所周知,大语言模型还在快速发展,应该有很多可以优化的地方。我用纯 C 语言来写,是不是能优化一大截? 也许很多人开过这样的脑洞,现在有大佬实现了。 今天凌晨,前特斯拉 Autopilot 负责人、OpenAI 科学家 Andrej Karpathy 发布了一个仅用 1000 行代码即可在 CPU/fp32 上实现 GPT-2 训练的项目「llm.c」。 GitHub 链接:https://github.com/karpathy/llm.c 消息一出,立即引发了机器学习社区的热烈讨论,项目的 Star 量不到七个小时就冲上了 2000。有网友表示,大佬从零开始用 C 语言写大模型只为好玩,我等只能膜拜: llm.c 旨在让大模型(LM)训练变得简单 —— 使用纯 C 语言 / CUDA,不需要 245MB 的 PyTorch 或 107MB 的 cPython。例如,训练 GPT-2(CPU、fp32)仅需要单个文件中的大约 1000 行干净代码(clean code),可以立即编译运行,并且完全可以媲美 PyTorch 参考实现。 Karpathy 表示,选择从 GPT-2 开始,是因为它是 LLM 的鼻祖,是大语言模型体系首次以现代形式组合在一起,并且有可用的模型权重。 原始训练的实现在这里:https://github.com/karpathy/llm.c/blob/master/train_gpt2.c 你会看到,项目在开始时一次性分配所有所需的内存,这些内存是一大块 1D 内存。然后在训练过程中,不会创建或销毁任何内存,因此内存占用量保持不变,并且只是动态的,将数据批次流过。这里的关键在于手动实现所有单个层的前向和后向传递,然后将它们串联在一起。 例如,这里是 layernorm 前向和后向传递。除了 layernorm 之外,我们还需要编码器、matmul、自注意力、gelu、残差、softmax 和交叉熵损失。 「一旦你拥有了所有的层,接下来的工作只是将它们串在一起。讲道理,写起来相当乏味和自虐,因为你必须确保所有指针和张量偏移都正确排列, 」Karpathy 评论道。 左:我们分配一个 1D 内存数组,然后将所有模型权重和激活指向它。右:我们需要非常非常小心地进行所有指针运算。 一旦你有了前向 / 后向,其余部分(数据加载器、Adam 更新等)大多就不足为惧了。 不过,真正的乐趣现在才开始:Karpathy 表示,他现在正在逐层将其移植到 CUDA 上,以便提高效率,甚至期待能在 PyTorch 的合理范围内,但没有任何严重的依赖关系 —— 现在工作已经完成了几层。所以这是一个非常有趣的 CUDA 练习。 对此,有网友表示:即使顶着指针 ptsd,我也能感受到这些代码的美。 也有人说,这项目简直就是完美的机器学习工程师在线面试答案。 从这开始,未来该项目的延伸会包括将精度从 fp32 降低到 fp16 / 以下,以及增加几个层(例如 RoPE)以支持更现代的架构,如 llama 2/mistral/gemma/ 等模型。 最后,Andrej Karpathy 表示,一旦项目稳定起来,就会出关于从头开始用 C 语言写大模型的视频。 llm.c 下一步的目标包括: 直接的 CUDA 实现,让速度更快,并且可能接近 PyTorch; 使用 SIMD 指令、x86 上的 AVX2 / ARM 上的 NEON(例如苹果 M 系列芯片的电脑)来加速 CPU 版本; 更多新型架构,例如 Llama2、Gemma 等。 看起来,想让速度更快的目的没有达到,这里不得不佩服 PyTorch 如今的效率。对于存储库,作者希望维护干净、简单的参考实现,以及可以接近 PyTorch 的更优化版本,但代码和依赖项只占一小部分。 使用方法 要使用 llm.c,首先要下载并 tokenize 数据集。tinyshakespeare 数据集的下载和 tokenize 速度最快: python prepro_tinyshakespeare.py 输出: Saved 32768 tokens to data/tiny_shakespeare_val.binSaved 305260 tokens to data/tiny_shakespeare_train.bin .bin 文件是 int32 数字的原始字节流,使用 GPT-2 tokenizer 标记 token ID,或者也可以使用 prepro_tinystories.py tokenize TinyStories 数据集。 原则上,llm.c 到这一步已经可以训练模型。然而,基线 CPU/fp32 参考代码的效率很低,从头开始训练这些模型不切实际。因此,这里使用 OpenAI 发布的 GPT-2 权重进行初始化,然后再进行微调,所以必须下载 GPT-2 权重并将它们保存为可以在 C 中加载的检查点: python train_gpt2.py 该脚本将下载 GPT-2 (124M) 模型,对单批数据进行 10 次迭代的过拟合,运行几个生成步骤,最重要的是,它将保存两个文件: gpt2_124M.bin 文件,包含在 C 语言中加载模型所需的权重; gpt2_124M_debug_state.bin 文件,包含更多调试状态:输入、目标、logits 和损失。这对于调试 C 语言代码、单元测试以及确保 llm.c 与 PyTorch 参考实现完全可媲美非常重要。 现在,使用 gpt2_124M.bin 中的模型权重进行初始化并使用纯 C 语言进行训练,首先编译代码: make train_gpt2 这里可以查看 Makefile 及其注释。它将尝试自动检测 OpenMP 在当前系统上是否可用,这对于以极低的代码复杂性成本加速代码非常有帮助。编译 train_gpt2 后,运行: OMP_NUM_THREADS=8 ./train_gpt2 这里应该根据 CPU 的核心数量来调整线程数量。该程序将加载模型权重、token,并使用 Adam 运行几次迭代的微调 loop,然后从模型生成样本。在 MacBook Pro (Apple Silicon M3 Max) 上,输出如下所示: [GPT-2]max_seq_len: 1024vocab_size: 50257num_layers: 12num_heads: 12channels: 768num_parameters: 124439808train dataset num_batches: 1192val dataset num_batches: 128num_activations: 73323776val loss 5.252026step 0: train loss 5.356189 (took 1452.121000 ms)step 1: train loss 4.301069 (took 1288.673000 ms)step 2: train loss 4.623322 (took 1369.394000 ms)step 3: train loss 4.600470 (took 1290.761000 ms)... (trunctated) ...step 39: train loss 3.970751 (took 1323.779000 ms)val loss 4.107781generated: 50256 16773 18162 21986 11 198 13681 263 23875 198 3152 262 11773 2910 198 1169 6002 6386 2583 286 262 11858 198 20424 428 3135 7596 995 3675 13 198 40 481 407 736 17903 11 329 703 6029 706 4082 198 42826 1028 1128 633 263 11 198 10594 407 198 2704 454 680 1028 262 1027 28860 286 198 3237 323step 40: train loss 4.377757 (took 1366.368000 ms) 但这一步生成的只是 token ID,还需要将其解码回文本。这一点可以很容易地用 C 语言实现,因为解码非常简单,可以使用 tiktoken: import tiktokenenc = tiktoken.get_encoding("gpt2")print(enc.decode(list(map(int, "50256 16773 18162 21986 11 198 13681 263 23875 198 3152 262 11773 2910 198 1169 6002 6386 2583 286 262 11858 198 20424 428 3135 7596 995 3675 13 198 40 481 407 736 17903 11 329 703 6029 706 4082 198 42826 1028 1128 633 263 11 198 10594 407 198 2704 454 680 1028 262 1027 28860 286 198 3237 323".split())))) 输出: <|endoftext|>Come Running Away,Greater conquerWith the Imperial bloodthe heaviest host of the godsinto this wondrous world beyond.I will not back thee, for how sweet after birthNetflix against repounder,will notflourish against the earlocks ofAllay 值得注意的是,这里没有尝试调整微调超参数,因此很可能还有大幅改进的空间,特别是在训练时间更长的情况下。 附上一个简单的单元测试,以确保 C 代码与 PyTorch 代码一致。编译并运行: make test_gpt2./test_gpt2 这里加载 gpt2_124M_debug_state.bin 文件,运行前向传递,将 logits 和损失与 PyTorch 参考实现进行比较,然后使用 Adam 进行 10 次迭代训练,确保损失可与 PyTorch 参考实现媲美。 最后,Karpathy 还附上了一个简单的教程。这是一个简单的分步指南,用于实现 GPT-2 模型的单层(layernorm 层),可以帮助你理解如何用 C 语言实现语言模型。 教程地址:doc/layernorm/layernorm.md 我们知道,最近 Andrej Karpathy 沉迷于制作教程。去年 11 月,他录制的《大语言模型入门》在 YouTube 上吸引了很多人观看。 这次新项目的配套视频什么时候出?我们都很期待。
英特尔一年亏损70亿美元!芯片代工行业不易,市场竞争加剧
作者|贾桂鹏 当下,随着AI技术不断发展,人工智能芯片、服务器、数据中心市场规模将显著提升。数据显示,大模型和生成式人工智能的发展显著拉动智能算力市场增长,智能算力规模增速快于通用算力,预计2022年至2027年中国智能算力规模年均复合增长率达33.9%,同期通用算力规模年均复合增长率为16.6%。 这也意味着芯片行业将迎来又一次的爆发,这也促使芯片代工行业的新闻有密集的发布,无论是台积电计划在美新建3nm工厂、三星加大外包产能、英特尔放言争夺代工榜眼、代工业寒意或尚未触底、业内巨头削减资本开支等等,都在显现出代工业正在面临半导体周期性和不确定性加大的时代命题,代工巨头也无不在战略或战术层面整合应对。 另一方面,在摩尔定律的驱动下,晶圆厂一直在紧追先进工艺,这场决赛的最后仅剩台积电、三星和英特尔,在先进制程节点展开肉搏战。 那么,在最终的先进制程领域,台积电、三星电子和英特尔谁将会突出重围?而英特尔“压下重注”代工业务能不能助力其重回巅峰? 2nm成为芯片代工厂商新焦点 目前来看,按照半导体行业的摩尔定律,集成电路可容纳的晶体管数目,每隔18个月便会增加一倍,性能相应也增加一倍。众所周知,几nm通常指代晶体管的尺寸,为在集成电路上尽可能容纳更多的晶体管,从10nm到7nm,再到5nm、3nm,晶体管尺寸越做越小,芯片也相应越来越小。 其实,2nm最早出现在2021年,当时IBM发布了全球首颗2nm制程芯片。根据官方资料介绍,IBM的这颗2nm制程芯片是将大约500亿晶体管放在一片指甲盖大小的芯片上,与7nm制程的芯片相比,其运算速度将快45%,效率则将提高75%。但业内普遍认为IBM作为研究机构,尚不具备量产的能力,2nm制程芯片从实验室到量产,还需要更长的时间。 作为全球排名第一的晶圆代工厂,台积电是跑得最快的选手。据台湾《工商时报》报道,台积电2nm制程布局全线提速,公司位于新竹宝山Fab20 P1厂将于4月进行设备安装工程,为其2nm芯片量产热身准备,预计台积电宝山P1、P2及高雄三座先进制程晶圆厂均于2025年量产,吸引苹果、英伟达、AMD及高通等客户争抢产能。 日前,台积电董事长刘德音最近在IEEE网站上署名发表文章,把半导体行业过去50年缩小芯片尺寸的努力比作“在隧道中行走”。如今距离摩尔定律的极限越来越近,行业已经走到隧道的尽头,半导体技术将变得更加难以发展,2nm将会是芯片巨头抢滩的关键一战。 在芯片制程尺寸不断缩小的过程中,芯片厂商需要解决的问题更多,因此在新制程方面都需要改革。在台积电为2nm芯片设计的技术方案中,首次采用GAAFET架构。GAAFET架构全称全包围栅场效应晶体管,与突破14nm制程以下沿用的FinFET架构不同,GAAFET利用栅电极覆盖电流通道的四个侧面,而非传统的三个,能够让晶体管继续缩小下去而不漏电,从而允许在降低运行功率的情况下显著提高性能。 类似具有里程碑意义的方案还包括晶圆背面供电,相较于传统供电,这项技术能够降低电压,从而减少功耗,显著提升芯片性能的表现。 据悉,但按照台积电公布的路线图显示,其2nm制程将在2024年试产,2025年量产。台积电正按规划时间表如期于今年开启2nm芯片的生产。 除台积电外,在2nm的赛道上也出现了三星、英特尔的身影。作为与台积电在5nm、3nm等制程缠斗多年的老对手,三星在2nm的竞争上也步步紧逼。根据韩国媒体报道,三星已通知客户和合作伙伴,将从今年年初开始将其第二代3nm制程更名为2nm制程。 虽然三星电子有“靠改名领先对手”的嫌疑,但日前他们已官宣2nm或将在今年底前开始量产。 不过在近期的年度股东大会上,三星半导体部门的首席执行官Kyung Kye-hyun表示:“我们将在未来两到三年内重新夺回全球第一的位置。” Kyung Kye-hyun还表示,“两到三年”是指从去年年底开始的内存升级周期尚未全面展开,这将是三星能否实现其既定目标的关键决定因素。 而英特尔的出现,则让这场领先制程的赛事出现了一个“新选手”。此前,英特尔靠制造芯片创业,但后来被台积电与三星甩在身后,又在10nm、7nm制程上接连折戟后,英特尔在芯片制造领域明显掉队,先进制程芯片几乎全部外包给台积电代工。 但我们看到,英特尔在新任CEO帕特·基辛格上任后,就计划重振制造芯片的晶圆代工业务。他们能不能打开代工业务的通路,让其在芯片行业翻身呢? 英特尔“IDM 2.0”战略出师不利 众所周知,从14nm到10nm的艰难量产,英特尔在制程工艺上的落后和“牙膏厂”的品牌形象已经形成,所有人也都期待英特尔的变革。 2021年初,这场漫长的转型迎来了一个重大的转折点——曾担任英特尔CTO的半导体行业老兵帕特·基辛格被任命为英特尔CEO。 上任后不久,帕特·基辛格宣布了“IDM 2.0”战略,在该战略中,英特尔对外开放自己的代工服务,同时扩大采用第三方代工产能。 英特尔此前一直是IDM模式,完整覆盖了芯片从设计到生产再到销售的全过程,产品绝大部分也都是在内部工厂制造。在IDM 2.0模式下,英特尔不仅要委托外部芯片代工厂生产自己的芯片,比如预订台积电3nm的产能;与此同时,英特尔也要发展自己的芯片代工业务,成立英特尔代工服务IFS业务,重返芯片代工行业。 英特尔的思路是,IFS在服务芯片客户的过程中变得更强大更好,而随着IFS在芯片制造上越来越先进,生产的芯片产品也会更有竞争力,包括自己内部制造的芯片,反过来又保证IFS不会受限于外部代工产能,以此形成正向循环。 用基辛格在采访中的话来说就是:“IDM可以让IFS更好,IFS同样使变得IDM更好。” 但是目前来看,英特尔在代工业务的表现似乎不算太好,在英特尔向美国证券交易委员会(SEC)提交的一份文件中披露,公司负责芯片制造业务的新部门“英特尔代工”(Intel Foundry)2023年营收为189亿美元,同比下降31%,2022年这一数字为274.9亿美元,经营亏损从前一年的52亿美元扩大至70亿美元。 英特尔CEO帕特·基辛格并不避讳该业务所面临的亏损情况,并表示2024年将是公司芯片制造业务经营亏损最严重的一年。 同时,他也给出预测,该业务会到2030年底前实现经营收支平衡,届时公司的目标是在非美国通用会计准则下,毛利率达到40%,经营利润率达30%。 虽然英特尔变身代工厂的开局有些艰难,但日前外部的一系列行动还是让他们看到希望。 比如,英特尔已经拿到美国《芯片和科学法案》提供的85亿美元的直接资金补贴,这是芯片法案目前发放的同类款项中最大的一笔。公司未来还有资格获得110亿美元的联邦贷款,用以推进其在亚利桑那州、新墨西哥州、俄亥俄州和俄勒冈州的工厂建设。 此外,在欧盟出台欧洲版“芯片法案”的430亿欧元补贴计划中,英特尔也入选了首批名单,其在德国总投资300亿欧元建设的新厂是该法案第一个落地项目。 而且,微软与ARM都与英特尔现场签订合作协议,公司估算晶圆代工厂订单将达到150亿美元,高于原先预期的100亿美元。 元宇宙新声认为,对于英特尔发起的挑战,芯片市场的反馈往往需要一个较长周期,而在英特尔此前在10nm及7nm上被台积电、三星拉开差距后,寻回客户的信任也需要较长时间,因此追赶之路或将是一个较长的过程。 写在最后 未来先进工艺芯片之争将主要在台积电、三星和英特尔之间展开,代工三巨头的拉锯战也将成为推动摩尔定律继续前行的动力,推动下一个“弯道”的到来。 可以预见,这三大厂商需要在制程技术、产能提升以及质量控制等方面加大投入,以竞争高端芯片制造领域。在AI和高性能计算的快速发展推动下,半导体行业的领导者们也将需要不断优化他们的技术以满足市场的需求。
9000万颗!中国芯片产能跃居世界第一,外媒:这是自杀式进攻
致力于关注国际军事新闻,传播正能量,弘扬爱国精神!感谢您的观看,请关注并把我分享给更多的朋友!我会坚持为您服务! 在全球科技竞争的大背景下,中国大陆的芯片产量突破性增长至860万片,占据全球芯片产能排行榜首位,这一成就被外媒形容为“自杀式进攻”,凸显了中国在芯片产业自力更生的决心与突破。 中国芯片产业的迅猛发展 在芯片产业的全球竞争舞台上,中国已经取得了令世界瞩目的成就。中国的芯片月产量已经实现了飞跃性增长,达到了860万片,这一数字占据了全球芯片总产能的近三分之一。这一成绩的取得,不仅是量的增长,更代表了中国芯片产业实力的显著提升。在一个充满挑战的国际环境中,中国企业通过自主研发和不断的创新实践,对抗外界的技术封锁和市场限制,展现出了强大的创新活力和不屈不挠的斗志。 中国自主创新的坚定步伐 面对来自美国的技术封锁和市场限制,中国芯片企业并没有选择退缩。相反,这些企业更是加大了研发投入, 通过优化产业结构,拓展市场渠道,进一步提升了自身的技术水平和市场竞争力。自主创新的精神和坚定的态度,成为推动中国芯片产业快速发展的关键因素。众多企业在这一过程中实现了技术上的重大突破,这些突破不仅提升了企业的核心竞争力,而且为中国芯片产业的未来进步奠定了坚实的技术基础。 中国芯片产能提升 中国芯片产业的产能提升显著,使得国内对进口芯片的需求大幅减少。2023年上半年,中国进口芯片量较前年同期减少了22.4%,这一数据凸显了中国芯片产业实力的增长。中国在提升自给能力方面取得了显著进展,这也在一定程度上减轻了对外部供应链的依赖。 全球芯片市场格局变化 中国芯片产业的增强实力对全球芯片市场格局产生了重大影响。随着中国对进口芯片需求的减少,长期以来依赖中国市场的美国芯片制造商遭受到了巨大冲击。这一变化不仅体现了市场需求的转移,也意味着全球芯片行业竞争格局的重塑。 中国芯片产业全球影响力 中国芯片产业的快速崛起被国际社会广泛认可,成为全球科技发展的一个不可逆转的趋势。中国在坚持自主创新和技术发展上所展现出的坚韧不拔和创新精神,已经开始在全球范围内产生影响。尤其是在5G和人工智能等新兴技术领域,中国芯片产业的竞争力和全球影响力预计将持续增强,并在未来的全球科技舞台上发挥更加重要的作用。 中国芯片产业在全球科技舞台上的快速发展已成为一个不可逆转的趋势。面对外部技术封锁和市场限制,中国芯片企业通过自主研发和创新,不断提升自身的技术实力和市场竞争力。国内产能的提升也在减少对进口芯片的依赖,增强了国内产业链的完整性,对全球芯片市场格局产生了影响。未来,随着信息技术的发展,中国芯片产业有望为全球科技进步贡献更大的力量。
芯片全球化格局重塑,将形成中、美两个生态圈,中国优势更大
随着全球半导体产业的风云变幻,传统的全球化合作模式已经不复存在,取而代之的是由中美两大经济体主导的新生态圈格局。 在这场科技与政治交织的较量中,中国凭借其市场规模、完整的产业链和创新能力,展现出了不可忽视的竞争优势。 这不仅标志着一个新时代的来临,也预示着全球科技力量对比的重大转变。 在过去的二十年里,半导体行业的全球化进程为技术发展带来了前所未有的加速。 设计、制造到封测,不同国家的专业公司携手合作,推动了这一基石技术的飞速进步。 然而,随着地缘政治紧张的升级,特别是美国对中国的芯片出口管控政策的日趋严格,这一全球化进程正面临严峻挑战。 美国政府在过去几年加强了对中国半导体行业的出口限制,尤其是在先进制程技术和关键设备上的管控。 2024年,美国计划实施更为严格的出口管制措施,旨在削弱中国在人工智能和军事领域的发展潜力。 这些政策不仅对中国的芯片产业构成直接冲击,也对全球半导体生态圈的稳定和发展带来了不确定性。 面对外部压力,中国并未停滞不前,而是加快了自主创新的步伐。从政府到企业,从基础研究到产业应用,中国在半导体领域的全面布局开始逐步显现成效。 据报道,中国的芯片设备制造商收入在2023年上半年同比增长了39%,这反映出国内半导体产业链正在加速完善。 此外,中国在7纳米及以下先进制程技术上取得的进展,尤其是华为Mate60的成功推出,标志着中国在半导体设计和制造方面达到了新的高度。 尽管面对严峻的外部环境,中国半导体行业的快速发展并未完全闭门造车。 通过与国际合作伙伴的深入交流和合作,中国在材料、设计工具、以及制造技术等方面都取得了显著进步。 例如,中国企业与欧洲和亚洲的半导体公司在研发和制造方面展开了合作,这不仅促进了技术交流,也为中国半导体产业的发展注入了新的动力。 随着中美在科技领域的竞争加剧,全球半导体产业正在逐步分化为两个以中美为主导的生态圈。 这一分化不仅体现在技术和市场上,也反映在国际政治和经济合作的层面。 中国的半导体产业虽然在短期内面临着重大挑战,但长期来看,庞大的市场需求、完整的工业链体系以及对创新的持续投入,为中国在全球半导体竞争中提供了坚实的基础。 未来,随着全球半导体产业格局的进一步演变,中美两个生态圈的形成将对全球技术发展和经济格局产生深远影响。 中国的半导体产业在追求技术自主的同时,也需要继续深化国际合作,通过开放的姿态和共赢的策略,来不断提升咱们自己的芯片技术。 在全球科技版图重新划分的今天,中国半导体行业展现出了令人瞩目的韧性和创新力。 随着中美两个生态圈的逐步成形,虽然短期内可能带来一定的挑战和分裂,但从长远看,这也为技术多样性和创新生态的繁荣开辟了新道路。 中国在这一全新格局中所展现的优势,不仅为自己赢得了发展的主动权,也为全球科技进步贡献了重要力量。
再为中国芯片设限?越堵越强
美国财政部部长耶伦于4月4日至9日访华,耶伦财长系今年首位访华的美内阁成员。 耶伦此次行程可视为2023年访华的后续,希望就“有争议的问题”进行“坦率和实质性讨论”,包括中国出口、外汇问题。 芯片不是耶伦要讨论的内容。因为这一方面几乎没有讨论的余地。就在耶伦抵达广州的4月4日,美国针对芯片出口管制的新一轮长达186页的更新条款刚刚生效。 在不到半年的时间里,再度细化芯片、人工智能领域的出口管制措施,反映了美国“基本国策”的长期性——遏制中国技术崛起。 然而,与此同时,美国商界对中国的态度却与美国政府形成鲜明对比,依然将中国视为其全球商业布局的关键一环。 多家美国半导体公司的首席执行官,如高通、美光和超微等,纷纷访问中国,参加3月在北京举行的中国发展高层论坛,并强调他们对中国市场的长期承诺。高通总裁兼首席执行官克里斯蒂亚诺·阿蒙表示,过去30年里,该公司与中国合作伙伴建立了牢固、信任和互利的关系。同时,美光科技在西安的新工厂也正式开工,这是其去年6月宣布的43亿元人民币投资计划的一部分。 尽管面临美国出口禁令的多次打击,英伟达CEO黄仁勋依然在中国区年会上身着花棉袄,手持红手帕,表演了一段“东北秧歌”,以巩固其在中国市场的地位,并进一步巩固英伟达在人工智能处理器市场的领导地位。 有美媒认为,中国在成熟制程芯片领域实力上升,恰恰是美国对华科技打压的结果。 在美国接连出台制裁措施后,中国芯片企业很快转变了发展思路。据国际半导体设备与材料组织预测,2022-2026年,中国大陆新建的8英寸和12英寸晶圆工厂总数将达到26个,远超其他任何国家和地区。到2026年,中国大陆的12英寸晶圆产能将超过韩国,排名世界第一。 随着这一发展态势的持续推进,中国芯片的进步将深刻影响服务型机器人领域。服务型机器人作为现代科技的杰出代表,对芯片技术的依赖日益加深。特别是随着人工智能技术的突飞猛进,服务型机器人需要具备更为强大的计算和学习能力,以应对日益复杂的场景和多样化的用户需求。 而芯片,作为机器人的“大脑”,其智能化水平的提升将直接推动服务型机器人实现更为丰富的智能化功能,包括但不限于语音识别、图像识别以及自然语言处理等。这些功能的实现,将极大提升用户体验,满足用户日益增长的需求,进一步推动服务型机器人市场的繁荣发展。 此外,中国芯片的发展还将为国产服务型机器人在国际市场上赢得更多竞争优势。随着全球服务型机器人市场的持续扩大,国际竞争愈发激烈。拥有自主芯片技术的国产服务型机器人,不仅能够更好地满足市场需求,提升品牌知名度和市场影响力,还将在国际市场中获得更多机会和优势。中国芯片产业的崛起,无疑将为国产服务型机器人走向世界舞台提供有力支撑。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。