行业分类:
加载中...
头条分类:
加载中...
导演郭宝昌逝世,享年83岁 一部《大宅门》一生悲喜泪
郭宝昌。   电视剧《大宅门》海报。   电视剧《大宅门》导演郭宝昌因病于10月11日在京逝世,享年83岁。根据本人及家属意愿,郭宝昌导演的丧事从简,不举行遗体告别仪式。郭宝昌的家人向本报记者表示,“他生前交代,不想因为这事麻烦大家。”不过,得悉郭宝昌逝世消息,导演张艺谋、《大宅门》的主演刘佩琦和何赛飞等人纷纷在微博上发文悼念郭宝昌。   创作《大宅门》倾注半生心血   郭宝昌1940年出生于北京,1965年毕业于北京电影学院导演系。1972年,郭宝昌分配到广西电影制片厂工作,1980年导演了刑侦电影《神女峰的迷雾》,受到关注。1991年,郭宝昌执导了由张丰毅、石维坚、施京明等主演的历史剧集《淮阴侯韩信》,1994年拍摄了由姬麒麟、柳格格、鲁继先等主演的电视剧《大老板程长庚》,1997年执导了由斯琴高娃、刘若英、邱心志、朱旭、雷恪生、黄海冰等主演的爱情历史剧《日落紫禁城》。   在郭宝昌执导的影视作品中,最为观众熟知的是他编剧并执导,讲述百年老字号“百草厅”药铺兴衰史以及医药世家白府三代人恩怨的家族剧《大宅门》。   2001年,由斯琴高娃、陈宝国、刘佩琦、何赛飞等主演的《大宅门》在中央电视台首播,并以17.74点的收视率夺得当年央视年度收视冠军。   《大宅门》是郭宝昌根据自己的真实经历创作的,他一生经历坎坷,自幼丧父,儿时两次被卖,后被同仁堂乐家乐四老爷收为养子。电视剧《大宅门》中主角白景琦的原型是郭宝昌的养父,李香秀的原型是郭宝昌的养母。《大宅门》的剧本倾注了郭宝昌半生心血,创作历经四十载。他16岁就开始动手写家族题材小说《大宅门》,小说写了一半,郭宝昌考入北京电影学院导演系,在老师的支持下创作《大宅门》的电影文学剧本。   拍摄电视剧时,郭宝昌已是花甲之年,历经数稿写成的《大宅门》,宛如清末民初微缩版的红楼传奇,复活了几经沉浮的宅门往事,呈现了近代中国波澜壮阔的历史轨迹。郭宝昌坦言剧本三分虚七分实,肚里还有一大把的故事没有写尽。   张艺谋发文感念郭宝昌扶植   郭宝昌还被称为中国第五代导演的伯乐。1983年,在广西电影制片厂任职的郭宝昌突破了传统的论资排辈,大力扶植新人,在他的支持下,张艺谋、陈凯歌推出了《一个和八个》《黄土地》等第五代导演群体具有代表性的作品。十多年后,郭宝昌拍摄《大宅门》时,张艺谋、陈凯歌、田壮壮、姜文、何群等导演也在剧中集体“跑龙套”客串出演。   惊悉郭宝昌逝世,张艺谋发文悼念“不胜哀伤”:“82年毕业分到广西厂,初来乍到的几个年轻人,得到‘郭爷’的举荐和欣赏,感恩之心至今铭记。几个人凡去他家蹭饭时,回回听他聊‘大宅门’梦,点点滴滴仍历历在目,令人唏嘘。郭宝昌先生一路走好,天堂仍有大宅门……”   “听到他去世的消息,我真的非常难过,这是影视界重大的损失。”电影《开国大典》的导演之一肖桂云难过地告诉记者。“我们都是北京电影学院一个老师教出来的。”肖桂云回忆,郭宝昌是59届导演系的,而自己是60届的,“我们的老师都是田风。”1959年,19岁的郭宝昌得北京电影学院导演系主任田风的力荐,考入北京电影学院导演系。在老师的支持下,他动笔创作《大宅门》电影文学剧本。“《大宅门》的创作经过非常坎坷,上学期间郭宝昌就遭到了不公正的待遇,期间稿子被焚烧了多次,但他一直坚持着。他的导演才华有目共睹,大宅门的故事也深入人心,这是对他努力最好的回报。”肖桂云说。   2007年,肖桂云和丈夫李前宽一起执导了电视剧《苍天圣土》,邀请郭宝昌在剧中饰演一个正义人物冯老枪。在肖桂云看来,生活中的郭宝昌是一个敢说敢干,是非分明的人,“我和李前宽导演以前经常和他一起去看望师娘,他是一个知恩图报的人。”   晚年继续讲述“宅门里的故事”   郭宝昌以自己26年宅门生涯写就的《大宅门》于2001年问世,剧中90%的情节均有据可查,作品同他本人一样命运多舛,却依然顽强生长,直至成为传世之作。《大宅门》是郭宝昌生命的全部,晚年,这部作品相继搬上话剧和京剧的舞台。   演员朱媛媛曾在话剧《大宅门》的发布会上透露,郭宝昌太爱这个戏了,排练过程中,他每天早早就到排练场,风雪无阻,感冒都不休息,坚持工作,“他给我们讲戏,讲老北京的市井人情,也讲他的生活。看我们排练,他都会掉眼泪,让我都惊着了!”   郭宝昌曾经说过,“我这辈子没结识过什么大人物,在小人物的河流中蹚来蹚去。”在2021年出版的自传体散文《都是大角色》中,郭宝昌写的生命中结识的重要人物,奶奶、王师傅、猴三儿、女张飞、琴人、钱儿爷、小伙计、大哥、杜伯伯,还有大宅门里头的两位小姐雯和芹。他们都是生活中的普通人,不起眼的小角色,但在“郭爷”眼里,他们都是大角色。应该说,《都是大角色》是大宅门里“小人物”的传记,也是他的自传,郭宝昌用这些各赋异禀的“小人物”串联起自己八十余年曲折人生路上的雪泥鸿爪,继续讲述《大宅门》里的故事。   郭宝昌晚年创作的另一本书《了不起的游戏:京剧究竟好在哪》同样惹人关注。这是热爱和研究了京剧一辈子的郭宝昌和中国社会科学院文学所研究员陶庆梅共同完成的。郭宝昌懂戏,堪称活的京剧百科辞典,多年来,他把京剧艺术总结为“芜杂万象,千奇百怪,流光溢彩,游戏心态”——这“游戏”二字正是郭宝昌数十年思考总结,交给大家用来打开京剧艺术大门的钥匙。(记者 邱伟 王金跃 路艳霞)
9月金融数据有亮点:居民贷款好转 或与存量房贷调整落地有关
经济观察网 记者 胡艳明  10月13日,中国人民银行举行2023年三季度金融统计数据有关情况新闻发布会。 9月,新增人民币贷款2.31万亿,同比少增1764亿;新增社会融资规模4.12万亿,同比多增5638亿。 9月社融同比多增,而新增人民币贷款同比少增,其中政府债券净融资对社融拉动明显,新增9949亿元。 在贷款数据中,此前信贷“居民弱、企业强”特征在9月得到明显缓解。尤其是以房贷为主的中长期贷款新增5470亿元,这个数据仅低于2020年同期的6362亿元,为近7年同期次高。多位分析人士指出,可能受到存量首套房贷利率下调落地等政策影响,9月居民贷款数据有明显好转。 居民贷款数据好转 9月2.31万亿的新增信贷中,新增居民贷款8585亿,同比多增2082亿。其中,居民中长贷新增5470亿元,仅低于2020年同期的6362亿元,比2022年的9月多增加2014亿。 国金证券首席经济学家赵伟认为,或与稳地产措施落地等有关,后续还待进一步跟踪。 不仅仅是中长期贷款回暖,9月新增居民短贷超3210亿元,相比去年9月小幅多增177亿,同样处于近年同期高位。 虽然表现不如居民贷款,企业端融资也可圈可点:9月企(事)业单位贷款增加1.68万亿元,同比少增2339亿元,依然是信贷投放的主力。9月,新增企业中长贷1.25万亿元,处历史同期次高,仅低于去年;新增企业短贷超5680亿元,同比虽减少,仍是历史同期次高;票据融资减少1500亿元,同比多减超670亿元。 整体而言,9月新增居民贷款8585亿,同比多增2082亿,在整体新增贷款中的占比升至37.2%,而今年以来的平均水平为19.5%。一直以来信贷“居民弱、企业强”特征得到缓解。 对于9月居民贷款数据有好转,东方金诚首席宏观分析师王青认为,主要有以下原因:一是9月存量首套房贷利率下调政策落地,居民提前偿还按揭贷的情况得到缓解;二是楼市“金九”到来,在前期行业支持政策推动下,当月全国楼市较强回升,这可能与30城高频数据显示的情况有所不同;三是受益于普惠金融支持政策发力和消费修复,居民中长期贷款中的消费贷和经营贷有较大可能出现一定幅度的同比多增。 存量首套房贷利率调整 9月25日,存量房贷调整落地,各地银行纷纷调降了符合标准的存量首套房贷利率。 对于存量房贷调整的进展,中国人民银行货币政策司司长邹澜在新闻发布会上表示,降低存量房贷利率工作已基本接近尾声。8月31日相关政策发布后,金融机构坚决贯彻落实金融为民理念,从与客户共生共荣的角度出发,积极主动研究推动以市场化方式让利客户,分门别类不断细化具体执行措施。在法治化前提下,力争最大幅度、最快速度降低存量房贷利率。在实施过程中,金融机构加班加点完成系统改造,以电子化批量操作等简便易行的方式,最大限度不让客户跑腿。针对客户关切,积极加强宣传引导,以系列问答等形式解释说明操作细节,确保群众听得懂、办得好、得实惠。 央行的数据显示,目前,绝大多数借款人均已第一时间享受到了实惠。9月25日到10月1日实施首周,有98.5%符合条件的存量首套房贷利率完成下调,合计4973万笔、21.7万亿元。调整后的加权平均利率为4.27%,平均降幅0.73个百分点。 邹澜同时表示,对于其他还需借款人提供证明材料、银行予以认定的情况,主要银行也将在一个月内完成调整。老百姓普遍反映,存量房贷利率降低,明显减少了利息负担,降低了提前还贷的动力,增加了投资和消费的信心和能力,特别是对前期在利率较高时购房的工薪阶层和个体工商户,效果尤为明显。存量房贷利率调整显著影响整个合同期限的利息支出,预计此项措施的效应将持续发挥,并逐渐惠及整个经济运行。 四季度展望 整体上看,王青认为,在8月政策性降息、9月全面降准相继落地,稳增长政策持续发力背景下,9月新增信贷继续保持较大规模,且结构明显改善,新增社融延续同比多增,这意味着自8月开启的本轮宽信用进程在延续。这是当前支持经济复苏势头转强的主要发力点。 王青预计,从政策节奏考虑,10月MLF操作利率大概率保持不动,但在宽信用进程持续推进以及地方政府再融资债券发行放量背景下,10月MLF续作加量规模将明显扩大,也不排除四季度降准的可能。 目前,2023年已经度过了三个季度,对于接下来的走势,民生银行首席经济学家温彬认为,政策筑底和经济蓄力,将驱动后续信用稳定扩张和信贷结构优化,四季度社会融资规模和信贷增长将继续保持平稳,进一步稳固经济回升的动能。 从数据看,9月份制造业PMI为50.2%,重回扩张区间,且已连续四个月上升,中国银行研究院研究员梁斯认为,这显示企业信心在稳步恢复。展望四季度,梁斯表示,前期出台的一系列稳增长政策将继续显效,根据形势变化有针对性的储备性政策有望及时出台实施,这将对企业和居民信心带来支撑,实体经济融资需求有望逐步恢复,这将带动金融数据稳步走强。 展望四季度社融和信贷的增长趋势,中国人民银行调查统计司司长、新闻发言人阮健弘表示,人民银行将继续坚持稳中求进的工作总基调,稳健的货币政策精准有力,增强信贷总量的稳定性和可持续性,保持货币供应量和社会融资规模增速同名义GDP增速相匹配,推动国民经济持续恢复向好。预计四季度社会融资规模和信贷增长将继续保持平稳。
全球科技行业两年裁员40万,LLM博士却拿620万年薪offer?
新智元报道 编辑:编辑部 【新智元导读】两年内全球科技行业40万人被裁,2023大厂求职继续爆冷。然而这位UC伯克利博士却祭出求职经,LLM博士年薪620万起步。 国外的科技行业工作者,日子也并不好过。 在2022和2023年,全球的科技公司总共裁掉了超过40万人。 裁员的公司几乎囊括了科技行业中的各个赛道。 剩下的工作岗位,竞争越来越激烈。找一份技术工作,仍然是一场噩梦。 科技行业求职:一团糟 花费数小时修改简历,再奔赴几十场面试,招聘会成为了一场饥饿游戏。 如今在科技行业找工作,真心没那么容易。 在过去的一年里,这个曾经永不沉没的行业,迎来了一次大清算。 根据追踪科技行业裁员情况的网站Layoffs.fyi报道,2022年和2023年,全球科技公司裁员已经超过40万。 在裁员一年后,很多求职者仍然面临着严峻的就业形式。在这个曾经意味着高薪、丰厚福利的有保障的行业里,他们必须奋力厮杀,去争夺变得更少的岗位。 在线就业市场ZipRecruiter的首席经济学家Julia Pollak表示,科技就业市场目前还没有显出任何好转的迹象。 在新冠疫情发生以前,以及疫情期间,信息行业一直都在保持增速。 然而,在过去一年里,整个行业的工作岗位却减少了2.5%。 这也就意味着,更多的人会在同样的岗位上待更长的时间,晋升的机会也被扼杀了。 当然,在传统科技行业之外,政府和医疗保健领域仍然需要技术人员,只不过,这里的薪水不会太高。 Meta谷歌亚马逊,裁员数万 最近几个月,Meta、谷歌和亚马逊等大型科技公司,裁掉了数万人。许多公司也随之冻结了招聘。 谷歌,Meta,X(Twitter)3家公司从去年底到今年裁员就接近4万人 Meta最近重新雇用了数十名去年11月裁掉的员工,然而,与去年秋天裁掉的1.1万人相比,这只不过是杯水车薪。 而且重新招聘回去的人员,也要接受不同程度的调岗调薪。 今年,Meta又在专注于元宇宙的Reality Labs部门裁掉了1.2万人。 在疫情严重的2020年,Meta曾经大肆招人,以至于招聘的人数远远超过了所能承受的范围,而Meta的员工们正在为此付出代价。 高通再启大裁员,超1200人被裁 而且,裁员大潮依然还在科技行业全行业内持续。 就在10月12日,芯片巨头高通宣布计划裁员1258人。高通在9月时共有约51000名员工,这次裁员的比例约为2.5%。 在这之中,高通的工程团队将裁员750多人,影响范围包括从高管到技术人员等多个级别。 与2022年的支出相比,高通在今年已将成本基础削减了约5%。而裁员,便是行之有效的措施。 每年,高通都会有数十亿美元的营收。考虑到全球智能手机销量的下降,业内预计高通今年的营收可能会缩减约19%。 「男性」求职者,蜂拥到「女性」招聘会 科技市场的长期低迷,正在滋长着一股焦虑。 9月的Grace Hopper大会,原本是为女性和non-binary的科技工作者举办的年度会议及职业招聘会,却有一群看起来是男性的求职者蜂拥而至。 可见计算机科学专业的学生在完成学业、准备找工作时,是有多么焦虑。 Kari Groszewska是范德比尔特大学计算机科学和经济学专业的大四学生,她也参加了这次Hopper会议。 当她提前15分钟到达博览会大厅,却发现与等着和公司交谈的求职队伍已经排了几个小时。 跟前一年相比,今年的形势明显非常严峻。这让Groszewska感到非常沮丧,因为她明年毕业,但现在还没找到工作。 为了求职,Groszewska在学习计算机专业期间,做了一切「正确的事情」,包括自己做项目、争取实习、参加俱乐部。 然而,即将进入的就业市场,却显出了无比残酷的一面。 失业者压力重重 而其他失业和无业者,都已感受到了巨大的压力。 Nia McSwain学的是酒店专业,但她想转行进入科技行业,成为项目经历。 在过去一个月里,她从早到晚地投递简历,大概每天要申请40个岗位。 全栈工程师Philip John Basile在5月离职了,从8月开始,他一直在找新工作。 过去一个月里,他平均每天都有3场面试,似乎有几次已经接近被录取,却始终没有收到offer。 Basile主要通过LinkedIn和Discord来建立关系网。他从前认识的许多HR都失业了,所以他不得不努力建立新的关系。 Basile还在利用空闲时间,研究现在那些火爆的AI工具,不断调整自己的简历——从10页减到2页,然后又增到24页。 现在工作机会,然而找工作的人更多。所以,Basile希望尽量做到独一无二。 用他的话说,就是「如果要和一千个人竞争,你就必须在这一千个人中脱颖而出。」 裁员给在美国的外国务工者也带来了很大压力,在失去工作后,他们需要尽快找到下一份工作,才能留在美国。不过数据显示,许多人都能在下岗后找到新工作。 而在紧缺的市场中,劳动力的供应是充足的——截至7月31日,今年美国的H-1B签证申请已经提交了约78万份。 这一数字比前一年增长了60%以上,以至于让相关机构不得不怀疑是不是有人在重复提交申请。 要知道,每年H-1B的发放上限,是85000个。 薪资中位数7.9万刀,但小白免谈 而职场小白想找到工作,也变得更难了。 劳动力市场分析公司Lightcast的高级经济学家Rachel Sederberg发现,招聘入门级员工的职位明显减少,现在各大公司都倾向于招有经验的员工。 这也导致了美国科技行业招聘岗位的薪资中位数从一年前的6.1万美元,跃升至今年秋季的7.9万美元。 Sederberg表示,很多公司在调整战略,重组规模,然后重新招聘。现在,很多公司在招不同背景的人才。 有趣的是,ChatGPT也起到了一些作用:求职者在用类似的聊天机器人写简历和求职信,这样就能在更短时间内申请更多的工作。 然而,这也给招聘人员带来了一些困扰,他们需要更仔细地筛选。 产品经理Kimi Kaneshina失业后,现在每天朝九晚五的时间都花在了求职上,之后还会上传记录自己求职过程的TikTok视频。 她从7月就开始求职,在9月份投递了更多的简历,然而三个月过去了,她还是没能找到新工作。 尽管如此,这种转变也给科技界带来了积极的变化。 人们开始在LinkedIn和 TikTok上公开发布自己被裁员的消息,相互建立联系,包括去联系理想公司的员工。 由于被裁的人实在太多,谈论裁员也变得更容易接受了。 Kaneshina说:有HR告诉我,自己面试的求职者中,有一半都被裁员了。 现在,即使说出这种话,也可以不带任何耻辱感了。 AI研究工作市场,博士年薪620万 虽然就业市场哀鸿遍野,但有技术的大牛依然不愁高薪的工作,甚至还能在各大厂和巨型独角兽之间「挑挑拣拣」。 最近,一名UC伯克利的博士生Nathan Lambert,也分享了现在AI就业市场的乱象,以及自己找工作的经验。 市场上有很多工作,但是找到一个让人快乐的公司和以前一样难。 Nathan Lambert最近刚刚离职Huggingface,并组建了RLHF团队。 他表示,人工智能就业市场不稳定最主要的「催化剂」,就是对生成式AI的投资。 其实,生成式AI和大模型领域的工作机会非常多。许多想要招聘的人都在为,如何招到自己想要的人而倍感压力。 很多大公司想要招在LLM领域的人,但市场却没有足够的技术人才。 研究人员一举一动都在无声地向我们证实,AI公司需要研究人员来完成从概念到实验,再到产品的转变。 正是这些人,才得以让模型训练、产品决策与公司发展策略保持一致。 接下来,就要谈谈研究人员获得的报酬了。 大多数人,即除了站在学术顶端之外的所有人(他们的报酬仍然很高,只是没有那么高),都在可预见的未来获得大部分有保障的巨额报酬的机会,与「即使我的初创公司失败了,我也至少能赚几百万」的想法中做出权衡。 在这个人工智能主导市场中,每个人都希望赚大钱。 这种「追求淘金热」的想法,导致人们意向的工作机构发生了很大的变化。许多公司的人员流动率,以及自然减员率都很高,以至于每个人都感到不安。 这样情况已经不足为奇,大型科技公司裁员潮最为明显,但也不局限在这样的公司。 Nathan Lambert称,自己见过顶尖研究人员加入不同的公司,但在6个月内就离职了。 优秀博士能拿85万刀(约合620万人民币) 我们刚刚谈论的薪酬数字,是指OpenAI支付给顶级研究人员100万美元。 在ChatGPT发布之前,刚毕业的博士生最高能拿到50-60万美元的薪水。 而现在,最优秀的博士生能拿到85万美元(这是今年早些时候的一些数据)。只要在求职中愿意表达对生成式AI较为模糊的兴趣,其他人都能以这个薪资起步。 谷歌的招聘是该领域的一个很好的指标。 众所周知,谷歌DeepMind将所有项目分为三类:Gemini(即将要发布的大模型)、与Gemini相关的应用研究(6-12个月)、基础研究(超过12个月) 谷歌DeepMind的所有员工都负责前两类,其中大部分属于第一类。 在大厂Meta中,也有了另一种划分优先级的方式。 借用Llama团队中某人的话说,Meta GenAI团队中的每个人,都应该把大约70%的时间用在增量模型改进上,30%的时间花在长期基础工作上。 恰恰,这与作者的想法比较一致,但我们很可能会知道Meta正在哪些支柱领域(LLM、文本到图像、音频等)开展工作,而且他们会快速推动这些模型。 从结构上看,以「开放研究和科学」为优先级的公司极为罕见。即使有人以学术型研究科学家的身份加入,现实总是会将人们拉入商业需求中(尤其是在初创公司)。 在所有生成式AI投资中,最让作者感到兴奋的是,Transformer架构将比过去的大多数想法走得更远。 将一群兴趣相投、背景各异的顶尖人才聚集在一起,是确保我们挖掘Transformer最大潜力的绝佳方式。 学术界仍然举足轻重 在GenAI革命中,学术界仍将发挥重要作用。 比如,由UC伯克利、UCSD、CMU和MBZUAI等机构共建立的LMSYS,不仅训练出了红极一时的Vicuna模型,而且还制作了相关的推理和训练库,收集了大量模型比较数据,并设计了一个后来被广泛使用的基准测试等等。 所有这些工作本身都很有影响力,即便其中只有一部分发表了论文。 与此同时,像EluetherAI和LAION这样的研究组织也取得了相当可观的进展。 如果以arXiv论文的数量来衡量,RLHF研究的速度自8月份以来,已经有了明显的提高。 求职经历 在职1年半,作者刚刚结束了在HuggingFace的工作。 他发现,在这里为自己的工作获得知名度,比做好工作更难。 以下是他本人在工作中总结的重要经验: - 如果你不主动宣传和交流自己的研究,别人也不会这样做。然而人们不喜欢这样的现实。 - 开源发展非常快,因此需要聪明的领导者,以最大限度地发挥集体的力量。 - 开源ML还处于早期阶段。我们正在弄清楚做开源ML意味着什么,OSS将永远改变。 - 开源在多样性方面取得了成功。仅仅因为有人在尝试类似的东西并不意味着你应该停止。 - RLHF还未被充分开发。 对于HuggingFace这样的初创公司的对外媒体策略,他也是又爱又恨。这样的公司知道,如何帮助自己在公众舆论中成长,这一点是很重要。 Nathan Lambert知道这次工作变动即将来临,所以需要了解工作市场。他在博士毕业时写过一篇关于求职的文章,也颇受欢迎。 其中,关于建立人际关系网、主动出击、提高知名度和积极进取的价值观都适用。 这作者着所做的具体工作,主要围绕一个高度专业化和需求旺盛的AI领域,但目标更加明确——找到一个能让自己继续学习RLHF(科学和工程系统)的地方,而且这个地方足够开放,并可以继续进行播客。 他表示,自己不想成为任何创始人、创始工程师、大公司的齿轮等等。 在筛选公司名单时,作者pass掉了苹果、波士顿动力人工智能研究所、以及与许多初创公司等。 作者认为,即使是那些觉得与自己很有共鸣的公司,他也发现这些人都很难清楚地表达「我到底要做什么」。 今年上半年,作者刚刚为建立RLHF pipeline付出了巨大的努力,现在即将要重新开始,这并不令人兴奋。 不管怎么说,事实上,大多数人都不知道「你现在要做什么」,你仍然无法百分之百地选择自己的方向。 这样一来,选择其实就不多了(根据学术性从高到低排序): Cohere for AI(现场面试后被拒绝) 入职后,他会加入一个小团队,负责强化学习方向。 公司特意组建了一个小团队,为想发表论文的Cohere工程师提供机会。团队中的每个人都很优秀,作为远程工作来说非常不错。 不过,考虑到在Hugging Face的经历,作者很难加入这样一个对公司的产品和发展不重要的团队。 艾伦人工智能研究所(AI2)(offer) 能拿到Offer,是作者没想到的。 艾伦AI研究所曾是介于谷歌大脑和学术研究小组之间的一个组织,现在则转向了工程学方向,发展大语言模型。 他们在咨询、工程、自主研究等方面表现得有些含糊,但对于发展NLP,则有着坚定的承诺。 后来作者意识到,他们需要有人来帮助理解RLHF。 Scale AI(口头offer) 这家公司正转向RLHF和训练后的研究领域,作为LLM训练公司的专业数据提供商,他们的业务正在大幅增长。 入职后,你可以做一些研究,在从事RLHF研究的人中可以获得最多的数据。有时,也可以帮客户做些集成,并建立实验室。 理论上,这是作者面试过的最令人兴奋的地方。但因为某种原因,他觉得与自己交谈过的人中,并没有谁引起自己的强烈共鸣。 有时候就是这样,并不是所有优秀的人都能在一个团队中共事。 Mosaic,现在的Databricks(offer) 就像每家初创公司一样,Mosaic希望让RLHF简单易用,发挥影响力。 这里团队输出非常稳定,并继续向公众发布一些模型,或者论文。 然而,作者担忧到,由于公司刚被收购,未来在开源上的动力可能不足。 Meta,Llama团队(现场面试后被拒) 在最先进的开源模型公司工作一段时间,大家都有这样的想法。 不过让Lambert为难的是,他不愿意加入大公司、大团队。 但如果关心开源技术,显然去Meta是一个很好的选择。 谷歌DeepMind(已撤回) 谷歌正在到处招聘RLHF的人。这里的资源和基础设施都无与伦比,但谷歌是Lambert接触过的最封闭的公司,你得费很大劲才能了解自己进去要做什么。 几个团队大多有自己的专长领域,正在研究如何改进该领域的工具。 作者接触过的两个团队,分别做的是多模态RLHF和LLM Agent。 但在他看来,这种模糊性会让谷歌的offer远不如像Llama团队那样吸引人。 Contextual AI(口头offer) 在Lambert接触过的许多初创工中,他们做事的方式都很合理、很亲民。 但在作者看来,建立一个有生命的企业,不仅仅是投掷收购的筛子,也需要推迟建立以客户为中心的企业文化。 Contextual为作者提供了一个不错的技术人员+科学传播者职位。 如果办公地在旧金山,通勤时间不长,倒是有可能会接受offer。 另外,作者从最初就没考虑过面试OpenAI,因为他们不缺RLHF专家。 轻量级面经 Nathan Lambert表示,自己经历的面试都非常轻松,更多的是研究聊天,一些编码测试。 如果想找一份LLM方面的工作,大部分问题都会与各种内部组件的功能相关。比如: - 注意力在实现层面是如何工作的。(可以参考nanoGPT等资料) - 多GPU训练的基础知识,估算VRAM使用量,通过超参数来减小模型的占用空间(例如量化)。 - 正则化工具,如批量归一化、权重衰减等。 除了技术之外,还需要根据公司的具体情况,阐述自己在加入之后能贡献些什么。 此外,很多公司都会查看简历上列出的GitHub仓库和HuggingFace工具,这可能比复杂的研究项目更容易谈论。 参考资料: https://www.wired.com/story/tech-jobs-layoffs-hiring/ https://www.interconnects.ai/p/ai-research-job-market https://siliconangle.com/2023/10/12/qualcomm-says-will-lay-off-1200-staff-california/
以色列,为何能成为“芯片王国”?
近日,随着以色列基地被攻陷,第6次中东战争或一触即发。这一消息迅速传遍全球,吸引了无数人的目光和关注。 在此紧张形势下,英特尔和Tower Semiconductor在当地的晶圆厂已经开始部分停工,以免受到战火侵袭。 了解以色列的读者应该知道,以色列只是一个面积仅为重庆三分之一,人口不到1000万的“弹丸小国”,以色列没石油、没淡水,资源贫瘠到除了沙子一无所有,并且常年来战争不断。 然而,在这样一个条件恶劣的小国,却拥有约200家芯片公司,以及全世界排名第一的人均工程师数量和单位面积内最多的高新初创企业。 仔细观察以色列的产业结构,其2022年第三产业占GDP总额高达70%,其中高科技行业占比更是明显高于传统服务业。可以说,高科技产业是以色列经济的支柱,而占据高科技产品出口16%的半导体产业,更是瞩目的明珠。 以色列经济活动和劳动力市场指标(图源:OECD) 通过创新、技术实力和创业精神,以色列在半导体领域取得了显著的成就,靠着高科技产业成为中东地区唯一的发达国家,更是享有“芯片王国”之称。 当前,在以色列被战火笼罩之余,我们一起来看看这个国家为何被冠以“芯片王国”的称号?在其半导体产业强势布局背后,呈现出哪些特点和优势。 以色列“芯片王国”发展史 回顾其产业历程,以色列的半导体产业至今已有50多年的发展历史,是全世界拥有最完整半导体产业生态链的国家之一。 世界上第一台手持移动手机、第一个电脑处理器、闪迪的第一个U盘以及英特尔的首枚手机芯片等都在这里诞生。 1964年,摩托罗拉在以色列设立首个半导体研发中心,标志着以色列半导体行业的起步。 而以色列半导体的快速发展,源于1974年英特尔在以色列建立第一个研发中心开始,这支团队五年后研发出8088微处理器,成为IBM PC的“心脏”,为英特尔带来巨额利润的同时,也在世界范围内掀起一股微型计算机的风暴。 基于此,以色列在全球半导体行业的发展中开始发挥越来越重要的作用。后来,英特尔在耶路撒冷建立了Fab8,再后来又在迦特镇(Kiryat Gat)建立了Fab18和Fab28。直到今天,该工厂仍然是酷睿处理器的主要生产地,对于英特尔意义非凡。 经过近50年的发展,英特尔已成为以色列科技领域的最大投资者。 目前,英特尔在以色列拥有4个研发中心和2座晶圆厂: 英特尔研发中心分布在海法(Haifa)、雅库姆 (Yakum)、耶路撒冷和佩塔提克瓦四个城市,雇员超万人。此后第一个电脑处理器、奔腾、赛扬、酷睿、SNB、Ivy Bridge等主要CPU都是在以色列的这几家研发中心完成。 巅峰时期,英特尔在以色列拥有三座半导体制造工厂。 最早的Fab8厂位处耶路撒冷,在2007年左右因当地犹太教徒反对安息日生产作业,而放弃扩张计划,最终因设备老化以及全球需求量低迷而停产。 另外两家工厂位于以色列Kiryat Gat,其中Fab18于1996年投产,主要用于生产65nm工艺的200mm晶圆,是英特尔历史上建立的第一座非美国本土晶圆厂;Fab28在2008年投产,主要生产22nm、10nm工艺的300mm晶圆。 英特尔的积极布局,使得原本仅有数千人口的Kiryat Gat,一跃成为数万人口的科技重镇,后续相继吸引了一大批跨国企业入驻。 今年6月,以色列总理表示英特尔要在以色列投资250亿美元建设半导体晶圆厂,即在2019年宣布的100亿美元投资基础上再加150亿美元。 据悉,新的晶圆厂预计将于2027年开始运作,至少营运到2035年,并雇用数千人。 此外,包括苹果、三星、微软、英伟达、Marvell等众多海外科技巨头也在以色列设立了研发中心。据统计,以色列国内目前有近200家芯片公司,而全球8%的芯片设计师和研发中心都聚集在这里。 除了国际大厂纷纷入局之外,Tower Semiconductor是以色列国内半导体行业的一面旗帜。 某种意义上讲,Tower Semiconductor的成长轨迹就是以色列“具体而微”的半导体产业的发展史。几十年来,其创立、融资、转型都是以色列高科技行业生存状态的绝佳样板。 目前,Tower Semiconductor拥有以色列仅次于英特尔的第二大晶圆厂,其工厂拥有200毫米的生产能力和150毫米直径的晶圆,用于为本地和国际公司提供交钥匙服务。 巨头“抢占”以色列企业 在竞争日趋激烈的半导体产业,以色列有大批优秀的芯片公司已经或正被国际半导体巨头争抢收购,还有一大批刚刚崛起的芯片初创企业,正在吸引越来越多国际投资者的目光。 其中,英特尔在频繁收购以色列科技企业: 2017年,英特尔以153亿美元收购了以色列自动驾驶汽车技术公司Mobileye;2019年,英特尔收购了以色列AI芯片初创公司HabanaLabs;2021年5月,英特尔将在以色列再投资6亿美元以扩大其研发(R&D),并确认将斥资100亿美元建设新的芯片工厂;2022年2月,英特尔宣布以总值54亿美元收购以色列芯片制造商Tower Semiconductor,计划提升其晶圆代工业务范畴,但该笔收购以失败告终。 此外,行业巨头纷纷瞄准以色列,多年来完成了数不清的收购案: 以色列是英伟达除美国之外的研发业务第二重镇,2020年英伟达70亿美元收购了以色列Mellanox;2022年3月,英伟达又新收购了以色列公司Excelero,深化企业数据存储业务。 Arm在2015年以9000万美元收购了以色列芯片安全公司Sansa,主要应用在物联网领域。 亚马逊2015年收购了一家以色列芯片设计公司,目前已深入芯片研发领域,正在研发AI芯片。 博通在以色列不但建有研发中心,且已进行了多项投资及并购。 高通近几年也投资了多个以色列芯片公司,光是并购就超过3起,包括高通2012年收购DesignArt Networks,该公司专注于蜂窝基站和高速无线基础设施的小型蜂窝调制解调器和系统设计;2014年7月,高通宣布以3亿美元收购WiGig芯片开发公司Wilocity;2014年,还收购了CSR 的以色列成像部门。 三星早在2007年就在以色列并购了一个芯片设计企业,2017年通过其子公司哈曼在以色列设立了基于芯片技术的汽车网络安全中心,同时在以色列建立了AI研发中心,并在以色列通信相关企业有多笔投资。 德州仪器曾在1999年连续收购了3家以色列芯片相关企业,后又收购美国国家半导体公司及其以色列研发分支机构,目前仍在以色列进行芯片及相关技术研发。 苹果手机最新一代的处理器正在其位于号称以色列硅谷的荷兹利亚市的研发中心开发,该中心雇有研发人员上千人。此外,苹果还相继收购了闪存设计公司Anobit、3D传感器制造商PrimeSense等数家以色列公司。 云厂商巨头造“芯”,也在押注以色列: 2015年,亚马逊收购了以色列的一家小型芯片设计商Annapurna Labs,开始了漫漫芯片长征路。来自Amazon和Annapurna Labs的工程师制造了Arm Graviton处理器和Amazon Inferentia芯片。亚马逊去年计划由该以色列部门为其服务器群独立开发一种新的网络芯片,既供公司使用,也作为AWS云服务的一部分。 微软多年来一直在以色列开发芯片。微软在以色列Herzliya的研发中心雇佣了2000多名员工。2021年3月份,微软计划通过在当地建立一个新的数据中心并扩大其芯片研发活动,在以色列投资10亿-15亿美元,投入到网络芯片等产品的研发。同时,微软还将以色列初创公司视为潜在的投资或收购目标。 类似的案例不胜枚举,以色列公司往往会赌博式的瞄准非常前沿的技术领域,比如AI和自动驾驶,然后在技术成熟后就寻求安全退出,这也让以色列成为了风险投资圣地。 据统计,有1/3的以色列公司通过上市退出,2/3的公司通过被收购退出,其中大部分被美国公司收购。 除了以上芯片设计公司,许多周边设备供应商也在以色列设有研发机构,包括应用材料、库力索法等公司。以色列的半导体企业布局和信息在此不做过多赘述,在此前文章《强大的以色列芯片》中曾有过详细概述,感兴趣的朋友可点击链接查看。 整体来看,以色列半导体产业链的构成主要为无晶圆芯片设计公司、跨国公司研发中心、半导体设备企业和少数晶圆工厂。其重要着眼于芯片的研发设计,通过芯片研发设计创造优势,吸引了大量国际半导体企业入驻,打开了全球半导体市场,向半导体产业链下游发展,逐步完善半导体产业链布局。 纵观以色列半导体产业发展,可以大致分成三个阶段: 1)初步发展阶段(20世纪60-70年代):当时,以色列面临石油禁运,必须减少对进口石油的依赖。政府认为,通过发展半导体产业可以降低能源消耗,提高各行业效率,从而应对这一挑战。1959年,以色列政府推出《鼓励资本投资法》,针对各行各业的投资计划和企业,提供了一系列税收优惠和其他经济激励措施,鼓励资本投资、企业发展和技术创新。后续,摩托罗拉、英特尔相继在以色列设立半导体研发中心,以色列政府随即投入资金,建立了以半导体产业为主的Matam科技园区。从而吸引了德州仪器、高通、英伟达等国际一流的半导体企业在以色列布局研发中心。从那时起,以色列产生了源源不断的半导体创新技术。 2)市场化阶段(20世纪80-90年):上世纪80年代初期,以色列政府开始停止对半导体产业的高额补贴,并逐渐推动市场化。以色列政府发布了多项政策,比如《鼓励产业研究与发展法》和《投资促进法》等,为高技术产业提供税收优惠以及促进产业投资。1985年,以色列成立了第一家风险投资基金Athena,标志着以色列风险投资业的启动,政府开始慢慢退居幕后,由私人资本继续推动风险投资的发展。到1993年,以色列推出Yozma风险投资计划,利用公共资金吸引私人投资,将以色列转变为全球研发中心。 3)全球化发展阶段(21世纪初至今):21世纪初,以色列半导体产业迅速崛起,在全球芯片市场占据了重要地位,其销售份额约占全球半导体市场的3%;2020年,以色列半导体出口总额达到了78亿美元,占其高科技产品出口总额的15%左右。OurCrowd的研究报告显示,2010-2020年,以色列超过70%达到特定收入里程碑的半导体相关公司通过IPO或收购成功退出。2017-2022年,很多家耳熟能详的大公司被逐一收购,以色列企业家将其大量退出所得,又投资在了高科技行业,继续研发新技术,形成了“并购反哺”的良性循环。因此,以色列仍有很多优质的半导体投资机会。 以色列无疑已成为巨头们最有趣的战场,随着越来越多的芯片巨头争相前往以色列,更加巩固了以色列作为“芯片王国”的地位。 “芯片王国”背后,以色列做对了什么? 以色列能在半导体领域取得如此大的成功绝非偶然。那么,以色列是如何吸引到全世界的科技巨头纷纷前来的? 半导体产业是典型的技术密集、资本密集、人才密集型产业,以色列半导体产业的领先地位与其在人才、政策、创新和资本方面的优势和布局密不可分。 注重人才培养 以色列的人才培养政策是以高科技领域的市场需求为导向,这一导向既体现在国内的教育政策上,也在对外移民的政策上有所体现。 首先,以色列在人力资源和科技产业的关系中强调人才的专业性和精英化,而非仅仅是人力规模的扩张。这表明以色列的教育政策和人才培养政策紧密结合,为国家的科技发展提供服务。 同时,以色列的科技产业导向强调个体才智及个体创新的重要性。 以色列十分重视教育。5-15岁的孩子如果被认为有天赋,就会被纳入“天才培养制度”进行青少年英才教育。其次,以色列创造性地将军事教育纳入国民教育体系,通过“塔楼计划”,将优秀的高中生选入军队接受精英培训和接触前沿技术,使学生在进入高校之前具备集体思考、独立思考、自立自强的品质和能力。最后,以色列开发专门的创新教育课程,搭建创新人才培养平台,将创业教育融入创新培养体系。 除了长期推广人才培育计划,以色列政府也在不断加强对技术人才的培养。例如,2022年,以色列创新局推出HaSadna计划,将半导体设计与开发、人工智能等相关企业联合起来,为工程师提供专业培训,并创建适合中小型企业的新型协作培训模式,围绕半导体技术知识领域创建网络和社区,为半导体产业创造领先人才储备。 在上述举措下,以色列高学历人才和工程师的比例相当高。以色列的科研人员占全国人口比例排名世界第一,人均受教育水平也非常高。以以色列理工学院为例,超70%的毕业生都在从事高科技领域工作。 许多以色列工程师在多个领域拥有丰富的知识与经验,如无线通信、数据加密、高速传输及国土安全等领域,这些知识都源自于军队的服役经验。同时,得益于以色列人的全球视野及军队培育出来的快速响应能力,使其快速的交付能力成为以色列半导体行业至关重要的优势。 另外,以色列不仅注重本国人才培育,还积极采取相应的移民政策吸引国外高端人才,迅速提升半导体等领域的技术人才储备。 完善的资本扶持制度 无论什么行业,资金永远是企业发展的重要因素,半导体行业尤为如此。 从前面的投资和收购情况可以看出,以色列芯片行业以其国际领先的表现,吸引了来自以色列本土及海外资本的青睐,以色列科技行业吸引的风险投资有近13%投在了芯片行业,不少以色列投资者出身于芯片行业,对该行业非常精通。 虽然以色列在半导体领域鲜有本土半导体巨头,但其企业的运营模式有其鲜明的特点。通常是初创企业在某一技术领域取得突破后,被半导体巨头收购,企业获得资金,然后进入下一轮创业。这种模式使得以色列初创半导体公司更加注重技术的开发和突破,而不是商业和运营方面。 同时,以色列的投资退出机制非常灵活,政府致力于建立完善透明的投资法规,以充分利用资本市场实现风险资本的退出。投资者可以通过被大企业收购和并购的方式出售风险企业,也可以方便地选择在国内外上市,这使投资者可以多元化回收投资。 此外,政府的Yozma计划还允许成功的投资者按原价回购政府的投资份额,分担投资者的投资风险,并提升投资收益。这些灵活的投资机制使以色列成为吸引国内外风险投资的热门地区。 综合来看,技术优势成为以色列初创企业的一大卖点,完善的风险投资机制为半导体初创企业的运营模式提供支持。 以色列企业用于研发的资金占GDP的比重,长期位于世界前列。2022年全球半导体研发支出占GDP比重领先的国家中,以色列在半导体领域的研发支出占GDP的4.8%,比美国、日本等国家都要高。 政策的大力支持 除了人才政策和大量的资本涌入外,以色列政府也为初创公司提供了保护法律以及资金,并建立了完善的激励体系。 早在1984年,以色列就通过了《鼓励产业研究与发展法》,根据这项法律,符合特定标准并经首席科学家办公室研究委员会批准的研发项目有资格获得最高50%的批准支出的资助。与此同时,作为交换,接收资助的一方需要向首席科学家办公室研究委员会支付特许权使用费,并提交有关应付特许权使用费的定期报告。该委员会有权检查接收方的账簿。 这一策略既为半导体企业的研发提供了资金支持,又为资金的去向和使用状况提供了监督保障。大方地给钱,钱还能花在刀刃上,事半功倍。 另一个鼓励创新的重要策略体现在税收方面,以色列通过专门的“天使法”(Angles Law)为年轻公司的私人投资者提供税收优惠,特别是那些拥有研发能力的公司。从税率上来看,以色列的企业税率从1985年的61%,到2022年已降至23%。另外,为了鼓励外来投资者,以色列政府已授权国际投资者享受10%的企业所得税税率,并有资格通过合格的研发计划获得20%-50%的研发支出补贴。这些政策为半导体企业的研发提供了优越的营商环境。 政府的慷慨补贴以及规模庞大的风投行业,让以色列的半导体公司“不差钱”。 活跃的创新文化 以色列建立了一个富有活力的创新生态系统,鼓励科技创业和技术创新。这个生态系统涵盖了大学研究机构、初创企业、风险投资和孵化器等,为半导体产业提供了良好的创业环境和技术支持。 以色列工程师拥有创新的思维和开放的视野,相比拓展市场和影响力,以色列本土半导体公司更重视技术研发,形成了“并购反哺”的良性循环。 《耶路撒冷邮报》主编Yaakov Katz曾在接受采访时表示,以色列整个高科技企业的管理体系,恐怕更多与目前以色列的经济政治结构的去中心化有一定关系。 去中心化理念在以色列高科技企业组织架构中的逻辑延伸就是“扁平化管理”,这使得以色列新孵化出来的半导体企业拥有强大的内部凝聚力。每个个体员工在理念上都可以把自己视为单位的主人,这样的体系氛围可以极大地释放产品部门的创新活力,人尽其能、物尽其用。 这也是以色列半导体企业很多都是中小微企业,却依旧能迸发出巨大的研发能量和创新力的关键所在。根据2020年的一项研究,以色列的半导体初创公司的数量在世界排名第二,仅次于美国。 以色列半导体初创公司布局(图源:Intel Ignite) 综合来看,正如国内专家所言,以色列在半导体产业发展取得的巨大成功,主要得益于其完善的创新生态系统和成熟、独特的技术攻关模式。以色列形成了以“市场需求为导向,政府政策和创新人才为基础,产学研联盟为核心”的半导体产业创新生态。 充分的创新文化,完善的社会环境鼓励创业,风投从财务方面提供支持,政府从政策法规方面提供帮助,以及对知识产权的看重,让以色列半导体产业在发展过程中没有错过任何技术创新风口,以及未来芯片产业的发展机会。 在此前文章《芯片王国以色列,“快人一步”》中就有提到,在这四五十年的发展时间中,以色列凭借着尖端的研发实力,几乎没有错过任何芯片机会,从自动驾驶,到DPU,再到4D雷达和AI技术,以色列在每一个先进领域都冲锋在前,抢先布局。 对于高科技,尤其在是这个快速迭代的芯片领域,或许只有永远快人一步,才能立于不败之地。 写在最后 近年来,全球科技和贸易局势严峻,半导体愈发成为全球高新技术产业的关键部分,受到了前所未有的重视。 但长久以来,中东地区的紧张局势也一直牵动着世界的心,而今天,这片土地再次成为战火焦点。 而以色列作为全球半导体产业的重要参与者,在炮火笼罩之下,或将引发人们对其半导体产业未来发展和国家安全的新思考。
央行:9月份人民币贷款增加2.31万亿元,同比少增1764亿元
经济观察网讯 据人民银行网站10月13日消息,人民银行发布2023年前三季度金融统计数据报告。 一、广义货币增长10.3% 9月末,广义货币(M2)余额289.67万亿元,同比增长10.3%,增速分别比上月末和上年同期低0.3个和1.8个百分点;狭义货币(M1)余额67.84万亿元,同比增长2.1%,增速分别比上月末和上年同期低0.1个和4.3个百分点;流通中货币(M0)余额10.93万亿元,同比增长10.7%。前三季度净投放现金4623亿元。 二、前三季度人民币贷款增加19.75万亿元 9月末,本外币贷款余额239.52万亿元,同比增长10.2%。人民币贷款余额234.59万亿元,同比增长10.9%,增速分别比上月末和上年同期低0.2个和0.4个百分点。 前三季度人民币贷款增加19.75万亿元,同比多增1.58万亿元。分部门看,住户贷款增加3.85万亿元,其中,短期贷款增加1.75万亿元,中长期贷款增加2.1万亿元;企(事)业单位贷款增加15.68万亿元,其中,短期贷款增加3.99万亿元,中长期贷款增加11.88万亿元,票据融资减少3355亿元;非银行业金融机构贷款减少47亿元。9月份,人民币贷款增加2.31万亿元,同比少增1764亿元。 9月末,外币贷款余额6857亿美元,同比下降16%。前三季度外币贷款减少559亿美元,同比少减409亿美元。9月份,外币贷款减少33亿美元,同比少减77亿美元。 三、前三季度人民币存款增加22.48万亿元 9月末,本外币存款余额286.6万亿元,同比增长9.7%。人民币存款余额281万亿元,同比增长10.2%,增速分别比上月末和上年同期低0.3个和1.1个百分点。 前三季度人民币存款增加22.48万亿元,同比少增2737亿元。其中,住户存款增加14.42万亿元,非金融企业存款增加4.52万亿元,财政性存款增加6738亿元,非银行业金融机构存款增加958亿元。9月份,人民币存款增加2.24万亿元,同比少增3895亿元。 9月末,外币存款余额7789亿美元,同比下降12%。前三季度外币存款减少750亿美元,同比少减371亿美元。9月份,外币存款减少165亿美元,同比少减98亿美元。 四、9月份银行间人民币市场同业拆借月加权平均利率为1.87%,质押式债券回购月加权平均利率为1.96% 前三季度银行间人民币市场以拆借、现券和回购方式合计成交1611.95万亿元,日均成交8.62万亿元,日均成交同比增长18.3%。其中,同业拆借日均成交同比下降2.2%,现券日均成交同比增长14.1%,质押式回购日均成交同比增长21.4%。 9月份同业拆借加权平均利率为1.87%,分别比上月和上年同期高0.16个和0.46个百分点;质押式回购加权平均利率为1.96%,分别比上月和上年同期高0.2个和0.5个百分点。 五、国家外汇储备余额3.12万亿美元 9月末,国家外汇储备余额为3.12万亿美元。9月末,人民币汇率为1美元兑7.1798元人民币。 六、前三季度经常项下跨境人民币结算金额为10.16万亿元,直接投资跨境人民币结算金额为5.6万亿元 前三季度,经常项下跨境人民币结算金额为10.16万亿元,其中货物贸易、服务贸易及其他经常项目分别为7.73万亿元、2.43万亿元;直接投资跨境人民币结算金额为5.6万亿元,其中对外直接投资、外商直接投资分别为1.92万亿元、3.68万亿元。 注1:当期数据为初步数。 注2:自2015年起,人民币、外币和本外币存款含非银行业金融机构存放款项,人民币、外币和本外币贷款含拆放给非银行业金融机构的款项。 注3:报告中的企(事)业单位贷款是指非金融企业及机关团体贷款。 注4:自2022年12月起,“流通中货币(M0)”含流通中数字人民币。12月末流通中数字人民币余额为136.1亿元。修订后,2022年各月末M1、M2增速无明显变化。修订后M0增速如下: 注5:自2023年1月起,人民银行将消费金融公司、理财公司和金融资产投资公司等三类银行业非存款类金融机构纳入金融统计范围。2023年1月末,三类机构贷款余额8410亿元,当月增加57亿元;存款余额222亿元,当月增加27亿元。文中数据均按可比口径计算。
闪存市场,又打起来了?
前段时间,一则小道消息的传出引起了不少人的关注:“三星、海力士或将获得无限期的半导体设备出口资格”。这则消息传出后,仅过来几天时间,韩国当地媒体就报道相关企业已经获得授权,已被列入清单的设备可以无限制对华出口,不需要再报备。 图源:微博 半导体市场的朋友,对于三星和海力士的名字自然不会感到陌生,前几年内存条价格暴涨的时候,更是因为各种奇怪的“失火”和“生产事故”而被网友们所熟知。甚至一度还传出或将限制闪存芯片出口的消息,不过后来因为影响实在太大,甚至会对全球的消费电子市场造成巨大冲击而作罢。 后来的故事不少人估计都知道,国产闪存颗粒如今已经成为国内市场的重要组成部分,而且让固态硬盘的价格直接跳水了50%以上。谁能想到,一年前还要价过千的1TB固态硬盘,如今只要三四百就能买到,在价格战最激烈的时候甚至只要三百不到就能买到全新的1TB固态硬盘,价格甚至比机械硬盘还便宜。 有意思的是,自从国产闪存颗粒进入量产后,三星海力士等闪存厂商的生产安全问题就突然都解决了,供应稳定且交货迅速。不过尝到了国产颗粒甜头的企业,不少还是继续选择国产闪存,毕竟便宜量大,谁会不爱呢? 三星和海力士,急了 国产闪存颗粒在市场上大杀四方的时候,三星和海力士则是在不停地丢失市场份额。不仅仅是消费者市场,在OEM市场也同样如此,国内不少消费电子企业都开始采购国产闪存,以降低存储芯片成本,逼迫三星等企业跟进降价,最近几个月发布的手机,大内存及大存储版本价格暴跌,背后也是国产闪存的功劳。 图源:京东 眼看着市场在不停地萎缩,三星和海力士显然坐不住了,而且此前的技术封锁已经被证明没有任何效果,此时再进行限制出口,无异于将自己的市场拱手相让。作为全球最主要的消费电子生产国,丢失中国市场的后果十分严重,是三星、海力士等厂商绝对不想看到的。 或许有人不认可我的看法,那么我举个例子,今年5月份,三大闪存厂商之一的美光因为没有通过网络安全审查,被禁止在国内某些市场销售,当时镁光的CEO对外称禁售影响并不大,只会降低约10%的营收。 不过,后续发布的财报却显示其总营收同比下滑超50%,业内有传闻称美光正在寻求重回国内市场的契机,只是在全球闪存芯片需求萎靡的前提下,如今国产+三星+海力士的闪存芯片已经能够满足所有的需求,甚至产能过剩。 图源:雪球 实际上,为了应对闪存供应过剩,价格过低的问题,三星和海力士已经进行了多轮减产,尽可能地提高闪存供应价格,虽然略有成效,但是营收恢复速度却低于预计,为了更快地恢复市场份额,三星和海力士必须寻求其他解决方法。 显然,他们想到的方法就是解除出口禁令,让三星和海力士可以扩展国内的半导体工厂,将产能转移到国内,利用国内的相关补贴及较低的人工成本,降低闪存芯片的制造成本,提高芯片利润率,同时更便于为合作商就近供应芯片。 不少人在看到“三星、海力士或将获得无限期的半导体设备出口资格”时,误以为是三星和海力士要售卖半导体设备给国内厂商。实际上,这项措施管控的是三星和海力士自己,让他们无法扩建位于大陆的晶圆厂,影响产能扩充、转移等需求。 如无意外,接下来三星和海力士将会与国产闪存厂商进入正式的肉搏阶段,刺刀见红地拼杀出一个新的市场局势。 闪存市场再迎风波 虽然在先进制程的处理器方面我们还与国际领先水平有着不少差距,但是在闪存芯片上,国产厂商已经用实际产品回击了质疑者的疑问,从国内用户的测试来看,国产闪存芯片在耐用性、安全性、性能等方面的表现并不弱于三星、海力士的同规格产品。 实际上,三星和海力士目前的技术优势主要集中在易失性闪存芯片(内存)方面,如GDDR6X等高性能的内存芯片。但是在非易失性存储芯片(硬盘所使用的芯片)上,国产厂商已经率先实现了233层存储芯片的量产,仅次于即将量产的海力士238层存储芯片。 在没有技术代差的情况下,国产芯片的效能和寿命明显优于同价位的海外闪存芯片,作为老牌闪存厂商的三星和海力士自然不是没有更好的闪存芯片,但是价格嘛,一句话就可以形容:“不是给普通消费者用的”。 所以,虽然服务器等高端市场尚且是保住了,但是消费者市场的节节败退显然也对三星和海力士影响明显。因为消费者市场除了固态硬盘等PC硬件外,手机等设备所使用的存储也是闪存芯片的重要市场之一,如果丢失中国的手机厂商订单,想要挽救营收的计划实施难度将骤升。 而国内闪存厂商也可以从市场获取研发资金和使用情况,以此来推动芯片技术的更新换代,假以时日,追上三星和海力士的步伐并不是一桩难事,不过随着三星和海力士的反击开始,这个过程或许会被稍微延缓。 前面提到,虽然在非易失性存储芯片上差距已经很小,但是在易失性存储芯片上的差距却不容忽视。只要三星和海力士提供诱人的价格,就会明显压缩国产内存的市场空间,在用户对手机性能越发看重的当下,厂商也只能选择性能更好的芯片来满足用户需求。 其次,随着国产闪存芯片的技术追赶速度加快,三星、海力士等企业也在加速相关芯片技术的迭代,比如前面提到的海力士238层存储芯片,就是为了能够以更低廉的成本制造大容量存储硬件而设计的,主要针对的就是国产闪存目前正处于领先的233层存储芯片。 不得不说,国产闪存芯片的崛起,既有必然,也有偶然,一方面作为全球最大的消费电子产品制造国,我们对闪存芯片的需求极高,过去也一直主要依赖海外企业来维持生产,随着芯片封锁的加剧,自研自产闪存芯片的事务也被提上了日程,此为必然。 偶然则是三星、海力士面对禁令,导致手脚受限,无法第一时间遏制国产闪存芯片的发展,让国产闪存厂商在短时间内用低价大量出货的方式,迅速覆盖了各个消费级市场,给国内用户来了一次“国产大白菜”的震撼,一举打响了国产闪存芯片的名声。 要知道,在此之前的大多数用户,其实对国产闪存芯片和国产固态品牌都是抱有顾虑的,担心寿命不达标或性能不佳,导致在使用过程中损坏而造成数据丢失,但是,在极低的价格诱惑下,这些问题都不复存在,或者是被选择性忽视了。 当时网络上是如此形容国产固态的:“如果他卖1000,然后出了问题,我会痛骂他;如果他卖500,然后出了问题但是免费换新,我会建议朋友谨慎使用;如果他卖300还提供5年换新,那么一切问题的原因都在于我,和品牌无关”。 虽然是调侃,但是也代表了当时相当多用户的想法,以从未想过的超低价买到大容量固态硬盘,即使故障率高于传统品牌,也是十分划算的。何况在实际测试中,国产固态硬盘的质量并不差,单就寿命而言与传统厂商是基本相同的。 所以许多用户都接受并愿意使用国产品牌的固态硬盘,就此打开了整个国产固态硬盘的销量,并在随后的实际使用中累积了口碑,成为与传统固态厂商相抗衡的另一极。 现如今,三星和海力士重整旗鼓并且摆出了架势,接下来就看国产厂商如何应对了,能否守住现有的市场和用户认知,将会是关键。
金地威新张晋元:营商环境是做产业园的首要考量 | 园区PLUS
经济观察报 记者 田国宝 9月下旬,金地威新在广州黄埔的产业园开园。 黄埔区是广州医药产业重镇,聚集了包括百济神州、诺诚健华、康方药业、迈普再生医学、博济医药在内的生物医药和大健康企业超过3500家。 这也是金地将黄埔园区产业定位为生命科学的主要原因。在广州黄埔生物医药园区开园的前一天,经济观察报专访了张晋元。张晋元从业经历丰富,曾在IBM、麦肯锡、万科等多家企业任职,2019年底加入金地集团,担任金地集团助理总裁、金地威新总经理,主要负责金地威新产业园区业务。在两个小时的采访中,他讲了关于产业园区投资、选址、开发、建设和运营等多个实操领域的细节。 张晋元说,一个城市的营商环境对做产业园至关重要,无论是产业园区选址、产业准入等开发建设运营阶段,还是后期园区做公募REITs申报退出,均需要与地方政府频繁互动,好的营商环境可以让企业和地方经济实现双赢。 对于产业园区的核心竞争力,张晋元认为,一个产业园区或者一家产业园区运营企业,核心竞争力就是打通从孵化、投资到全过程服务的能力,但这种能力并非一朝一夕可以获得,需要逐步积累。 生物医药园选址苛刻 经济观察报:黄埔科创园二期为什么要把生物医药作为核心产业? 张晋元:第一,从自身发展战略来讲,我们想在生物医药方向做一些尝试。黄埔是华南生物医药产业聚集地,产业氛围和技术沉淀比较好,产业基础与我们的目标正好匹配。 第二,满足生物医药客户的特殊需求,有一些专业客户,尤其是生命科学类客户对园区硬件、软件、服务有特殊需求,一般园区满足不了,所以我们需要做高度适配的产品。 第三,过去几年,生物医药发展非常迅猛,一是因为疫情原因;二是因为大量华人科学家回国技术创业。生物医药行业发展快,对主题园区的需求增长也快。这是基于市场需求的因素。 第四,政策导向,政府希望培育生物医药行业,作为服务企业来提供空间载体。 第五,资本市场看好。做生意要关注的,除了产业发展本身外,就是资产价值兑现,这几年资本市场对生物医药专业园区投资热度比较高。 基于这几个原因,我们想做一个尝试。过去六七年,产业园区开发和运营也积累了一些能力,可以让我们把这个事做好。 经济观察报:什么样的地方适合做生物医药产业? 张晋元:我国适合做生命科学专业园的地方并不多,目前主要在北京的昌平、大兴和海淀,上海的张江、松江,还有就是苏州工业园、武汉光谷、广州黄埔及成都等一些地方。 至于什么地方适合做生物医药,我觉得有如下几点: 第一,产业基础对生物医药产业非常重要,比如做创新药,如果这个地方没有任何产业链上下游相关配套和支持,这个事儿很难做;比如很多企业希望周边就能有一个CDMO或者CRO企业,能帮创新药企业做实验,实施很多想法。 第二,政府政策支持,包括但不限于人才引进政策、税收、环评等等。 第三,人才,生物医药企业有大量研发环节,需要很多专业性人才,所以这个事肯定要在人才高地去做。 经济观察报:生物医药产业链条很长,产业链上的哪些环节适合放在园区? 张晋元:这个问题很好,但很难回答。 生命科学从大行业划分有化学药、生物药、医疗器械及相关中间服务;从生产或者经营行为来看,有研发、制造、生产等环节。每个环节都有它的价值,但从我们园区定位来讲,不太适合大规模生产。 无论是广州黄埔园区,还是上海松江项目,都位于市区边缘,不适合做大规模生产,我们更倾向做前端的研发、小试和中试这块儿。有很多生物医药企业有小规模生产空间的需求,我们也可以满足。 经济观察报:具体操作项目过程中,如何进行权衡取舍? 张晋元:一些较成熟的企业,议价能力很强,需要给出更多优惠条件来吸引。这类企业能给政府带来产值和收入,也能带动上下游企业入驻,但可能贡献的租金很少,这样的企业必须有,但如果全部是这类企业,作为运营者就很难获得回报。 还有一些初创企业,尤其是处于研发阶段的企业,租金可能没那么稳定,也不会带来多少产值和税收,但是只要做成功了,可能就是未来的独角兽企业。这样的企业要有,但也不能都是这类企业。 这两类企业,我们在招商的时候需要做平衡。 经济观察报:生物医药园区和其他产业园区有哪些区别? 张晋元:从我们实际情况来看,在园区的投资、设计、选址、招商等方面,生物医药园区的要求更严苛。 第一是选址。从全国范围来看,能满足生物医药企业的也就几个城市,在这些城市中,适合生物医药企业落地的也就特定的几个区域。对位置要求比较高。 为什么上海张江生物医药园租金可能比旁边普通园区高出一倍,就是因为聚集了很多上下游企业。 第二是硬件空间。生物医药园区比普通园区要求更高,比如说层高,有的企业实验设备上面要做很多管道,吊顶占据较大空间,层高至少需要4.5米,否则进去检修管道时,人都站不直。还有承重,有些生物医药企业用钢罐培育细胞,设备很重,一般建筑承重是满足不了的;电力配置一般需要双路供电,对电容要求会高一些;还有包括专用的排污排烟管道、污水处理装置、蒸汽燃气等等。 第三是配套政策和政府支持,生物医药企业尤其是化学药的企业,需要严格履行环评审批相关要求,这需要政府指导支持。 第四是配套服务,包括但不限于为生物医药提供定制化服务的能力。 园区投资的两个标准 经济观察报:金地威新衡量一个产业园区是否值得投资的标准是什么? 张晋元:有两个标准。第一,能不能满足政府要求。产业园和住宅、商办不同,政府低价给你工业用地,但有相应的产业监管要求,例如达产时间、园区产值和税收要求等。 第二,是否符合投资者要求。从财务上有两个关键指标,一是从获取项目到资金退出的投资回报率是多少。不同城市不一样,一线城市要求稍微低一些,二线城市要求比较高。第二个指标是园区满租后年化收益率,分子是息税折旧前利润,可以理解为租金收益,分母是总投入。 每个项目我们都会做财务测算,衡量是否符合标准,如果符合就可以投。但背后有很多功课,比如对这个地方的产业环境分析,看看能否吸引到我们想要的客户,能不能在我们期望的周期内满租,还包括这个地方的增长潜力、成长空间、竞争力等等。 另外,还要看项目的土地指标、容积率、限高等要求,这关系园区产品设计的实现。 经济观察报:一个园区项目从拿地到满租大约需要多长时间? 张晋元:每个项目不一样,有的项目开园就能实现满租。一般情况,假如一个占地70亩到80亩、建筑面积10万平方米的典型园区,开园一年到一年半就会满租。 经济观察报:园区是重资产项目,未来主要通过哪些方式退出? 张晋元:一种是通过公募REITs,我们现在正在做这个事情。 第二种是通过一些基金退出,有些核心基金对产业园区资产比较感兴趣,基金背后有保险公司。我们一方面通过基金和背后的保险公司合作,另一方面也会直接和保险公司谈,把成熟的资产全部或部分卖给保险公司。 经济观察报:金地威新成熟的园区,通过资本化处置的占比有多大? 张晋元:所谓资本化,其实不仅在退出阶段,前端开发也在做,我们的很多项目都和一些大的资本合资的。比如有部分园区和美国地产基金阿波罗合作;另外我们计划和一些基金成立合资平台,未来会一起投资园区项目。 存量资产方面,我们有一个资产包正在和资方洽谈退出。 经济观察报:金地威新园区资产公募REITs进展到哪个阶段了? 张晋元:有几个项目符合要求,已经报到国家发改委储备库了,目前正在积极地和发改委、地方政府沟通。 打通全产业链是终极竞争力 经济观察报:一家产业园企业或一个产业园区的核心竞争力是什么? 张晋元:我认为,产业园区的终极核心竞争力就是打通产业链条,从投资到孵化、加速,再到园区运营服务。 其实,我们也在尝试前端产业投资基金,过去五六年,作为LP参与投资了多支产业基金,通过这种方式间接投了一些早期的高科技企业,希望能够成为我们的产业资源。 同时,我们在深圳和北京还有孵化器,让被投资的企业能在我们的孵化器成长;除了资金和空间载体外,我们还会帮助做一些专业资源嫁接;再往下,这些企业长大了,我们希望能到我们的园区继续发展,园区也会给到相应配套服务,帮助它成长。 在实现这个目标的过程中,我们也形成了一些核心服务能力。 经济观察报:主要是哪些核心服务能力? 张晋元:第一是投资布局,自成立以来,我们的投资布局主要聚焦在产业核心城市,北京、上海、深圳、广州、苏州、南京、武汉和成都等,这些城市产业基础非常好,产业资源比较聚焦,资本市场比较关注,大宗交易相对活跃,甚至申请银行贷款也比较容易。所以,我们投资的项目基本能实现比较好的收益率,目前在运营的满租园区,收益率均能达到预期。 第二是产品,过去六七年,我们有很多经验和教训,但也有积累,现在这个项目(广州黄埔科创园)算是第三代产品。不仅仅是从功能上可以满足生物医药客户需求,而且因为减少浪费,综合成本也在下降。 经济观察报:成本是怎么降下来的? 张晋元:第一,减少浪费,认真分析,把钱花在客户有感知、有需要的地方;第二,随着招采体系成熟,采购量增加,成本自然也就降了下来。 当然还有一些设计优化,看过我们实体楼的都知道,基本没有过道、走廊之类的浪费面积;但功能应有尽有,包括大型设备吊装、各类排风排气管道,我们都预留了场地和接口。 经济观察报:产业从培育到成熟,再到形成产业集群,需要一个漫长过程,将持续考验运营方的资金实力和耐心,请结合实际情况,谈谈你的看法和认识。 张晋元:产业培育肯定需要一个漫长过程,我们做了六七年了,也不敢说已经形成很好的产业资源,只能说有了初步积累。产业园区尤其是重资产投资是一个挺慢的过程,开发就得一年多,然后是招商,从拿地到满租怎么也得两三年时间。 一个园区也就四五十家企业,真想积累一个很好的产业资源库,这个不容易。所以,我们既要做产业园,又要做孵化器,不断通过园区建立朋友圈,其实就是希望能加速产业培育的过程。 所以,产业培育不会完全按照设计的剧本去发展,既有主动选择,也有偶得性结果,但是引导很重要。比如,广州园区希望招生物医药企业,从宣传活动到出街广告、招商方式,就会往生物医药方向去做。 但也有偶得性因素,我们在上海松江泗泾镇有个项目,原本并没有定位为生物医药产业。但后来把毕得医药招进来了,这家公司主要做化学药中间体,是一家非常好的企业,去年刚上市。然后,它的合作方、供应商都来了。现在这个园区80%企业都是生物医药企业,通用型园区变成主题园区。 从背后逻辑来看,我们把客户服务好了,帮助他们解决很多问题,慢慢稳定下来,很多上下游企业也就自然跟过来了。 我们投资包括孵化的企业,对园区产业形成和招商很有帮助。我们在上海闵行马桥的园区,就是和被投企业一起拿地。企业叫达闼科技,做机器人操作系统和柔性关节。达闼科技和我们一起成立合资公司,拿了一块工业用地,把总部也放在这里,我们帮它做了2万平方米的超级工厂,剩下空间按照产业链上下游做招商,这是一个很典型的案例。 经济观察报:一些天使投资人说初创企业投资成功率只有2%左右,金地威新直接投资的企业,成功率有多大? 张晋元:我们投的比较早期,这些企业还在成长过程中,没到成熟阶段,到现在至少还没有失败案例,就是这个企业不做了,还没有;当然,成功退出的也没有,因为都还没到退出阶段。 我们重点投资的生物医药行业,门槛还是比较高的,很多创始人都是美国知名大学的教授、学者,带着技术出来创业;或者是药企出来的科学家,本身就是搞技术的。这些企业未来即使不上市,也可以将核心技术卖给药企,退出相对还是有保障的。 研产租户粘性更强 经济观察报:去年底到今年,很多园区发生退租事件,造成部分园区公募REITs价格出现大幅波动,应当如何从源头上避免发生类似事件,将损失和影响降至最低? 张晋元:仔细观察这几只园区公募REITs,你会发现,发生大规模退租的项目无一例外都是偏研发办公型的,物理空间是办公楼;而租户相对稳定的产业园区,定位基本都是生产研发型,其中有很核心的区别。 第一,产品定位一定要准确,其实我们很少做研发办公型产品,主要原因是这类产品在任何一个城市都过剩,对客户粘性非常低,客户拎包就可以走。 但研发生产类型的客户,需要花大量成本对空间进行针对性的装修,比如一些实验室等,他们的生产设备也都比较昂贵,一旦入驻,除非这家企业不存在了,搬走的可能性极小。 第二,持续关注入驻园区客户的经营状况,比如用电量、员工人数,进来后有没有装修,是不是每天开灯,还有客户总拖欠租金也是个信号。如果发现这类信号,就需要提前做准备,做好应对措施。 经济观察报:一些园区企业反映,今年招商压力普遍较大,有些企业甚至搞起全员招商,你感觉压力大不大? 张晋元:肯定也很大,年初其实就看到,我们的园区和往年相比,也出现一些退租,但相对商办物业,产业园载体在退租之后,能马上有企业补充进来。 我们运营的园区中,目前的平均出租率大概是95%,相对比较稳定,像广州,适合生产研发的物业空间比较稀缺,一旦有这样的空间,需求还是比较旺盛的。 经济观察报:什么样的产业可以更好地抵御经济周期的影响? 张晋元:制造业受经济周期影响还是比较大,从我们园区情况来看,最好的还是新能源汽车行业相关的企业。 坦白讲,今年生物医药受影响挺大的,尤其是创新药,研发周期很长,一旦资金跟不上,就不行了。 经济观察报:金地威新产业园区中,有多少是收购来的? 张晋元:我们现在手头上的项目,六七成都是收并购过来的。工业用地比较特殊,原来政府更愿意把土地直接给实体企业,而不是特别愿意给像我们这种平台公司,所以开始时很难拿到一手地。 现在政府的观念也在改变。在上海,我们做了很多园区,盘活了很多低效资产,原来荒芜的园区,通过我们重建、招商引资,带来了更多产值和税收,所以政府觉得这个事儿你能做,这两年开始,我们陆续拿了更多新项目。 经济观察报:对园区来说,二手项目和新地哪个性价比高? 张晋元:二手项目投资过程更复杂,不仅需要和原业主谈判,还需要重新和政府报规,又是税务问题,又是法务风险。相对来说,新项目就简单多了,可以完全根据自己的想法来做。 二手项目土地年限更短,成本相对更高,因为原来的业主想要溢价。新拿地价格则相对便宜一些。不过二手项目也有优势,就是项目位置可能更靠近核心区一些。 经济观察报:在产业园区轻重配比上你是怎么考虑的?一个园区项目,自持和出售的比例大概是怎样的? 张晋元:我们95%以上资产都是自持,从自身意愿来说,也更倾向自持,像上海闵行一个项目,政府允许销售50%,但我们没有销售,我们认为这么好位置的资产就要全部自持,再通过资本化的方式退出,这也是对投资人、客户、政府的负责。 经济观察报:资金积压会不会比较严重? 张晋元:一方面,我们在投资开发段与大资本有合作;另一方面,因为是国家导向,很多银行愿意给融资做开发,而且贷款期限也比较长。 经济观察报:综合资金成本是多少? 张晋元:基金是纯股权投资,不存在资金成本,更多从分红和退出获取收益;银行借款项目不同情况略有差异,但利率水平均较低。 经济观察报:你反复提到金地威新投资主要聚焦核心产业城市、核心区域,像长三角产业基础较好的三四线城市会考虑吗? 张晋元:其实有些地方有很好的产业市场,像昆山、太仓、常熟等,这些城市,第一是承接上海外溢产业,第二能够满足大规模生产制造的需求,我们也一直在关注。
冲刺IPO多年未果 大连银行上市再添波澜:现券做市权限被暂停
经济观察网 记者 汪青 备战IPO多年至今仍未圆梦的大连银行,合规经营与稳健盈利仍是挡在其成功登陆资本市场前的拦路虎。10月12日,因存在违规行为,大连银行被暂停现券做市权限。 权限暂停 根据中国银行间市场交易商协会(以下简称“交易商协会”)官网信息显示,前期,经2023年第8次自律处分会议决定,大连银行因银行间债券市场现券做市业务存在违规行为,被予以严重警告自律处分。目前,大连银行银行间债券市场现券做市业务权限已被暂停,并限期整改。 所谓现券做市业务,是指银行或其他金融机构在债券市场上充当买卖双方中间人,以自己的资金和债券库存参与交易,通过报价和撮合实现对债券的做市。业务流程包括债券报价、交易撮合、资金结算和债券交割等环节,现券做市业务对提高市场流动性和价格发现具有重要意义。 实际上,今年以来,交易商协会已多次出手整顿行业违规行为,涉及多家金融机构。此次被暂停现券做市权限的大连银行,在今年5月就曾因违规开展为他人暂时持有债券的相关交易、虚增做市交易量等问题,被交易商协会予以严重警告、责令整改。 同期被给予自律处罚的金融机构,还包括因内控执行不严、未有效评估交易合理性的郑州银行和江西银行等。 一位业内人士在接受记者采访时表示,大连银行被暂停现券做市业务权限可能导致该行在债券市场的交易量和影响力有所下降,相应的这部分收入来源也会暂停。此外,代持风险主要是暴露在利率上行时,目前利率还是在下行通道中,警惕代持风险,防患于未然。 交易商协会表示,做市商作为银行间市场基石机构,承担着提高市场流动性、促进价格发现的重要作用,应切实提升做市交易能力,加强内部控制和风险管理,确保合规稳健展业,“真做市、做真市”。下一步,将继续加强银行间市场交易自律管理,制定完善相关自律规则,加大违规交易查处力度,不断净化市场环境,维护市场正常运行秩序。 盈利能力疲软 资料显示,大连银行是中国东北地区的一家重要银行,成立于1998年,注册资本75.5亿元,总部位于大连。在2016年被中国东方资管控股后,该行成为AMC系银行。目前,在北京、上海、天津、重庆、成都、沈阳、丹东、营口设有8家异地分行,在大连地区设有总行营业部及10家管理型支行,全行共167个营业网点,员工5000余人。 而早在2007年,大连银行便正式提出进行A股IPO,然而至今仍未能如愿。值得一提的是,在今年5月13日证监会公开的《发行股票申请终止审查企业名单》中,大连银行亦在列,这也被市场解读为其正式退出A股IPO申报,转道H股上市。 在冲刺上市的同时,大连银行近些年业绩表现却不尽如人意,营收净利润整体呈下行趋势,资产质量承压。 根据大连银行2023中报显示,截至6月底,该行资产总额4970.62亿元,实现营收21.42亿元,同比下滑30.32%;净利3.37亿元,同比下滑19.76%。其中利息净收入、手续费及佣金净收入分别为12.8亿元、3.31亿元,同比减少35.4%、20.7%。 纵观该行近五年经营业绩,营收和净利润均有所下降。其中,营收从2018年的78.04亿元下跌至2022年的57.75亿元,下降幅度超两成;净利润则从2018年的16.31亿元下降至2022年的6.51亿元,下降幅度约为六成。 从资产质量上来看,从2018年至2022年期间,大连银行不良率分别为2.29%、3.93%、3.94%、2.46%、2.50%,均处于2%以上。同期拨备覆盖率为141.04%、116.05%、120.62%、151.39%、163.24%。截至2023年6月末,大连银行不良贷款率为2.47%,较上年末微降0.03个百分点;拨备覆盖率158.81%,较上年末减少4.43个百分点。 而根据监管部门披露的数据显示,今年一季度末商业银行不良贷款率1.62%,拨备覆盖率为205.24%。因此,该行资产质量指标仍远不及行业平均水平。此外,中诚信国际也在评级报告中指出,大连银行逾期、续贷类贷款占比较高,未来仍面临较大的拨备计提压力。 对于资产质量方面的压力,大连银行也在2022年年报中表示,为有效化解不良贷款采取了多方面的措施,包括“分别与属地四大AMC(资产管理公司)和地方AMC建立互访机制,与淘宝、京东等网拍平台签订合作协议,全面部署不良资产推介工作,并充分开展重点处置项目招商宣传”。 然而不良资产债权处置并非易事。在今年6月,大连银行就在阿里拍卖平台同时挂牌转让5笔不良资产债权。 据悉,5笔不良资产债权债务人分别为绥化壹言置业有限公司、大连轴都新城开发建设有限公司、锦联地产集团有限公司3户,债权本金共约18.35亿元,未偿利息约6.16亿元,本息合计约为24.51亿元。该债权转让起始价为9.214亿元,相较其本息合计的价值而言约为3.76折出售,但最终却因为无人参与竞拍而导致流拍。 对于债权转让流拍,博通咨询金融行业首席分析师王蓬博认为,大连银行近年来业绩疲软,其股东情况也不尽理想,而且这三笔不良资产都是房地产行业,房产行业仍然没有走出低迷境地。 此外,大连银行前十大股东股权存在质押或冻结情况。根据2022年年报显示,报告期内,该行持股比例在5%以上的股东仅有两家,其中持有50.29%股权的中国东方资产管理股份有限公司为第一大股东,持有11.05%股权的大连融达投资有限责任公司为第二大股东。从股权状态来看,该行前十大股东中有6家所持股权均存在质押或冻结的情况,该6家股东所持股权比例合计为23.63%。
央行:9月份社会融资规模增量为4.12万亿元,比上年同期多5638亿元
经济观察网讯 据人民银行网站10月13日消息,人民银行发布2023年前三季度社会融资规模增量统计数据报告。 初步统计,2023年前三季度社会融资规模增量累计为29.33万亿元,比上年同期多1.41万亿元。其中,对实体经济发放的人民币贷款增加19.52万亿元,同比多增1.55万亿元;对实体经济发放的外币贷款折合人民币减少1365亿元,同比少减852亿元;委托贷款增加1057亿元,同比少增2241亿元;信托贷款增加639亿元,同比多增5453亿元;未贴现的银行承兑汇票增加2417亿元,同比多增3309亿元;企业债券净融资1.63万亿元,同比少6128亿元;政府债券净融资5.96万亿元,同比多462亿元;非金融企业境内股票融资6744亿元,同比少1994亿元。9月份,社会融资规模增量为4.12万亿元,比上年同期多5638亿元。 从结构看,前三季度对实体经济发放的人民币贷款占同期社会融资规模的66.6%,同比高2.2个百分点;对实体经济发放的外币贷款折合人民币占比-0.5%,同比高0.3个百分点;委托贷款占比0.4%,同比低0.8个百分点;信托贷款占比0.2%,同比高1.9个百分点;未贴现的银行承兑汇票占比0.8%,同比高1.1个百分点;企业债券占比5.5%,同比低2.5个百分点;政府债券占比20.3%,同比低0.9个百分点;非金融企业境内股票融资占比2.3%,同比低0.8个百分点。 注1:社会融资规模增量是指一定时期内实体经济从金融体系获得的资金额。数据来源于中国人民银行、国家金融监督管理总局、中国证券监督管理委员会、中央国债登记结算有限责任公司、银行间市场交易商协会等部门。 注2:自2023年1月起,人民银行将消费金融公司、理财公司和金融资产投资公司等三类银行业非存款类金融机构纳入金融统计范围。由此,对社会融资规模中“实体经济发放的人民币贷款”和“贷款核销”数据进行调整。2023年1月末,上述三类机构对实体经济发放的人民币贷款余额8410亿元,当月增加57亿元;贷款核销余额1706亿元,当月增加30亿元。文中数据均按可比口径计算。
央行:9月末社会融资规模存量为372.5万亿元,同比增长9%
经济观察网讯 据人民银行网站10月13日消息,人民银行发布2023年9月社会融资规模存量统计数据报告。 初步统计,9月末社会融资规模存量为372.5万亿元,同比增长9%。其中,对实体经济发放的人民币贷款余额为232.78万亿元,同比增长10.7%;对实体经济发放的外币贷款折合人民币余额为1.76万亿元,同比下降19.3%;委托贷款余额为11.36万亿元,同比增长1.3%;信托贷款余额为3.81万亿元,同比下降1.4%;未贴现的银行承兑汇票余额为2.91万亿元,同比下降0.3%;企业债券余额为31.39万亿元,同比下降0.3%;政府债券余额为66.14万亿元,同比增长12.2%;非金融企业境内股票余额为11.31万亿元,同比增长9.4%。 从结构看,9月末对实体经济发放的人民币贷款余额占同期社会融资规模存量的62.5%,同比高1个百分点;对实体经济发放的外币贷款折合人民币余额占比0.5%,同比低0.1个百分点;委托贷款余额占比3%,同比低0.3个百分点;信托贷款余额占比1%,同比低0.1个百分点;未贴现的银行承兑汇票余额占比0.8%,同比低0.1个百分点;企业债券余额占比8.4%,同比低0.8个百分点;政府债券余额占比17.8%,同比高0.5个百分点;非金融企业境内股票余额占比3%,同比持平。 注1:社会融资规模存量是指一定时期末(月末、季末或年末)实体经济从金融体系获得的资金余额。数据来源于中国人民银行、国家金融监督管理总局、中国证券监督管理委员会、中央国债登记结算有限责任公司、银行间市场交易商协会等部门。 注2:自2023年1月起,人民银行将消费金融公司、理财公司和金融资产投资公司等三类银行业非存款类金融机构纳入金融统计范围。由此,对社会融资规模中“实体经济发放的人民币贷款”和“贷款核销”数据进行调整。2023年1月末,上述三类机构对实体经济发放的人民币贷款余额8410亿元,当月增加57亿元;贷款核销余额1706亿元,当月增加30亿元。文中数据均按可比口径计算。
消息称Meta花3655万元购买一明星形象,只为打造人工智能助理
原标题:消息称Meta花500万美元购买一明星形象,只为打造人工智能助理 IT之家 10 月 15 日消息,据 The Information 报道,Meta 公司为了打造人工智能助理,向一位名人支付了高达 500 万美元(IT之家备注:当前约 3655 万元人民币)的费用,只为了使用他的形象和声音。据悉,这位名人只在工作室里工作六个小时,就获得了 500 美元的报酬,合同为期两年。 Meta 公司的创始人马克・扎克伯格在上个月的 Connect 活动中展示了这些人工智能助理,这些助理有 28 个不同的个性,均使用了名人的形象。 例如,模特 Kendall Jenner 的形象被用于 Billie,她被描绘成一个大姐姐,给用户提供建议。职业美式橄榄球运动员 Tom Brady 则扮演 Bru,这一个用于辩论体育话题的聊天机器人。 Meta 公司还邀请了一些知名的创作者,比如 YouTube 上订阅量最高的个人 MrBeast,以及 TikTok 上的明星 Charli D’Amelio。 The Information 报道称,Meta 公司最初愿意支付超过 100 万美元来使用明星的形象,但对于大牌明星,他们出价更高。报道没有透露哪个名人获得了 500 万美元,但称其为顶级创作者。 目前,这些人工智能助理只能进行文字交流,但 Meta 公司的宣传视频中展示了说话的片段。 在接受《The Verge》杂志采访时,扎克伯格称制作名人的人工智能版本有“巨大的需求”。但他表示出于品牌安全考虑,这“更多是明年的事情”,因为名人希望确保他们的形象不会被用来发表有问题的言论。
长城确认魏牌CEO离职,空降上任仅8个月
传闻还是成真了。 才上任8个月的魏牌CEO陈思英,官宣离职。 魏牌成立7年,已经是第7次更换高管。 魏牌领头人再次出现空缺。 陈思英官宣离职 消息来自陈思英的个人微博。 今年1月底,陈思英入职魏牌。在这8个月期间,他参与了蓝山、新摩卡和高山三款车的上市工作。 他在微博感谢了魏牌的团队,还有一路走来关注他的粉丝。 他也提到了为什么这时离职:因为一些家庭原因,同时又对没法见证高山上市感到可惜。 而在消息发出后,长城多位高管也表示了惜别。 长城总裁穆峰对陈思英的付出表示了感谢。 长城首席增长官李瑞峰更是单独发博,对陈思英的离开表示遗憾。 看起来是一场好聚好散。 陈思英是谁 先简单介绍一下陈思英。 在汽车行业拥有超过20年履历,2001年入职南京菲亚特,后在南京名爵、上汽乘用车、北京汽车等多个销售公司供职。 2018年,陈思英成为观致汽车副总裁及销售公司总经理;2019年,陈思英又入职领克,成为销售公司副总经理,负责市场和营销。 不难发现,在品牌营销方面,陈思英拥有丰富的经验,能力水平也有佐证。 就拿在领克的这一段职业经历来说,在陈思英入职前,领克年销量为12.04万;而在他入职后,领克销量实现持续增长,2021年销量达到22.05万辆,虽然2022年销量略有下跌,但也保持在18.01万。 可能是在帮助高端品牌领克销量增长方面的成功经验,今年1月,陈思英来到长城,出任长城高端品牌——魏牌CEO和坦克品牌营销总经理,向李瑞峰汇报。 并且,成为魏牌CEO后负责的产品中,已经上市的产品市场反应也都不错。 6座混动SUV魏牌蓝山,27.38万起售,上市5天后拿下5000张大定订单,上市首个完整月销量达5136台,目前累计销量已经超过2.4万。 大5座混动SUV新摩卡,用23.18万的价格在预定期间,7天订单就破万。 这也能从侧面反映出,陈思英的离职,基本能排除品牌销量问题。 而魏牌这艘大船,掌舵者再次空缺。 魏牌高端之路效果如何 从名字就能看出长城汽车对魏牌的期待。 一开始魏牌也没有辜负,彼时的魏牌还叫WEY,推出的VV7、VV5、VV6三款爆款车型,成功改变合资品牌长期垄断15-20万SUV市场的局面。 2017年,魏牌销量8.6万辆,2018年直接上涨到13.9万辆,同比大涨61.6%。 但后来,魏牌销量就开始下滑,2019年-2022年,魏牌年销量分别为10万,7.85万,5.83万和3.64万。 但长城对魏牌一直在大量投入资源。 人力方面,魏牌最初有前宝马设计总监皮埃尔担任首席设计师,前奥迪高管严思担任CEO;长城资深高管李瑞峰、长城曾经“三号人物”胡树杰、豪华车资深经理人柳燕,坦克CEO刘艳钊,还有陈思英,都曾是魏牌的掌舵者。 技术方面,长城三大技术品牌:柠檬、坦克和咖啡智能,在魏牌车型上应用尽用,而且经常首发。 比如柠檬混动DHT,首搭车型就是魏牌的玛奇朵;坦克原来也是魏牌的系列车型;咖啡智能1.0首款落地产品则是魏牌摩卡。 包括后来在智能驾驶能力方面,长城孵化的毫末智行研发的智能辅助驾驶系统,首搭车型也是魏牌摩卡;毫末智行最新一代智能辅助驾驶系统HPilot 3.0,首发车型还是魏牌新摩卡,还有蓝山。 人力、技术、车,长城在魏牌上倾注了很多心血毋庸置疑,而这些资源,却没有反映到销量成绩上。 魏牌成立的第7个年头,更换的第7任高管又走了。 长城魏牌,继续呼唤英雄。
字节跳动李航:对语言大模型的若干观察和思考
本文阐述笔者对 LLM 的一些看法,主要观点如下: ChatGPT 的突破主要在于规模带来的质变和模型调教方式的发明。 LLM 融合了实现人工智能的三条路径。 LLM 的开发需要结合第三者体验和第一者体验。 LLM 能近似生成心智语言。 LLM 需要与多模态大模型结合,以产生对世界的认识。 LLM 本身不具备逻辑推理能力,需要在其基础上增加推理能力。 1. LLM 强大之所在 1.1 LLM 的主要突破 ChatGPT 和 GPT4 为代表的 LLM 有以下主要手段 [1][2]。 模型:Transformer 拥有强大的表示能力,能对具有组合性(compositinality)的语言进行很好的表示和学习。 预训练(pre-training):使用大规模文本数据进行语言建模(language modeling),学习进行的是数据压缩,也就是单词序列的生成概率最大化或预测误差最小化。 监督微调 SFT(supervised fine tunning):学习的是输入到输出的映射,X→Y, 或者是输入到输出的映射及产出过程 X, C_1⋯,C_n→Y,学习到模型的基本行为。这里,C_1⋯,C_n 代表思维链。 基于人类反馈的强化学习 RLHF(reinforcement learning from human feedback):根据人的反馈,调整模型的整体行为。 ChatGPT 和 GPT4,相比传统的深度学习技术,如 BERT,主要是在智能性和通用性上取得了巨大突破。具备语言、知识、简单推理能力,能够很好地近似人的智能行为。不需要标注数据就可以在不同领域完成不同任务,也就是进行零样本或小样本学习。 LLM 带来的巨大进步,所能产生的效果是之前我们大多数人都没有能预见到的。究其原因,一是使用大数据大模型大算力,规模带来了质的变化。ChatGPT 有 175B 参数,300B 的 token 做训练。而之前的模型参数规模超过 1B 的都不多。二是 Open AI 开发出了一套调教大模型的方法,包括基本步骤、技巧和工程实现。利用语言建模的机制将人的知识和能力输入给大模型。大规模系统的工程实现和模型的调教方法成了 Open AI 的核心竞争力。这一点可以从相关技术的演进过程中看出。 1.2 历史演进 ChatGPT 和 GPT4 技术的一个源头是生成式对话。 从 2012 年到 2017 年在华为诺亚方舟实验室我们对对话进行了研究,2015 年开发了领域第一个基于序列到序列 seq2seq 的生成式对话系统 Neural Responding Machine [3]。当时的序列到序列模型还是基于 LSTM 的。但是即使是这样的模型,也能生成自然的中文。表 1 给出生成的对话例子。使用 4 百万微博数据训练的 7 千万参数的这个模型,对给定一个发话,可以生成一个回复,形成一轮对话。表中给出 top 5 的几个回复。可以看出有些回复是合适的,有些是不合适的。 为解决序列到序列有时产生不合理结果的问题,我们于 2017 年开发了基于深度强化学习的方法,对序列到序列 seq2seq 的学习结果做进一步的调优 [4]。与 RLHF 有相同的算法,先学习奖励模型,然后基于策略梯度,调节整个序列到序列模型(策略模型)。模型也是基于 LSTM 的。当时的研究发现,加上深度强化学习的微调,可以把序列到序列的生成结果做得更好。 Google 的研究团队于 2017 年发表了 Transformer 模型。序列到序列的生成开始转向使用 Transformer。由于 Transformer 强大的表示和学习能力,生成式对话的效果有了大幅度的提升,也从单轮对话的生成逐渐发展到多轮对话的生成。 2018 年 Open AI 团队发表了 GPT-1 模型。其基本想法是,先训练一个基于 Transformer 的大规模语言模型,在其基础上通过有监督的微调 SFT 方法,学习序列到序列模型,把自然语言的理解和生成任务都转化为序列到序列生成的任务,在一个模型上实现所有的任务,包括生成式对话。之后又于 2019 年发表了 GPT-2,2020 年发表了 GPT-3,逐步发展到 ChatGPT 和 GPT-4。 传统的相对小的生成式模型也可以生成自然的人类语言,甚至是基于 LSTM 的。因为学习的目标是单词序列的预测误差最小化。但生成的自然语言所描述的内容有很多在现实中是不会发生的或者不合理的,也就是有严重的幻觉(hallucination)。而大规模语言模型,由于学习手段和规模,其生成的自然语言所描述的内容,在现实中是很容易发生的,甚至是合理的,幻觉现象也得到比较有效的控制。 ChatGPT 之前,业界开发出了一系列的生成式大模型,做生成式对话等任务。整体观察的现象是能更好地完成各种任务,但是能力都没有能够达到 ChatGPT 的水平。仔细阅读 GPT-3 [5] 和 InstructGPT 的论文 [1],认真观察 ChatGPT 等各种 LLM 的结果,让人感到 Open AI 的核心竞争力是他们开发了一整套语言大模型的调教方法和工程实现方法。调教方法包含预训练、SFT、RLHF 等基本步骤,更重要地,包含高质量大规模数据的准备,将数据一步步喂给模型的训练细节。 2. LLM 的特点 2.1 结合了人工智能三条路径 实现人工智能可以考虑到以下三条路径: 输入经验知识:人将知识通过规则等形式教给计算机,让计算机进行智能性处理。 实现人类大脑:解明人脑的机制,基于相同的原理实现人类智能。 从数据中学习:通过数据驱动机器学习的方法模拟人类智能。 图 1. 实现人工智能的三条路径 人工智能传统的符号处理属于第 1 条路径。机器学习属于第 3 条路径。深度学习是受人脑启发的机器学习,属于第 3 条路径,但也借鉴了第 2 条路径。 第 1 条路径最容易想到,但是人工智能的历史证明,它有很大的局限性。第 2 条路径依赖于脑科学的进步,目前研究进展缓慢,也是非常困难的。第 3 条路径看上去不是很直接,但是是目前实现人工智能的主要手段。 笔者认为 LLM 主要属于第 3 条路径,但也借鉴了第 2 条路径,兼具第 1 条路径的特点,因为 LLM 是深度学习,模型中的知识和能力是人通过精选的数据和巧妙的训练方法授予的。三条路径的融合使 LLM 成为当前实现人工智能的最强大手段。 2.2 第三者体验和第一者体验 对外部世界的认识和理解,我们可以站在第三者的角度,观察现象,总结规律,分享结果,属于第三者体验(third person expeirence)。科学是在第三者体验基础上建立起来的。我们每个人的内心感受和想法是自己的精神活动,很难与他人分享,只能大概描述,属于第一者体验(first person experience)。 可以认为符号处理是基于开发者第一者体验的,而机器学习是基于开发者第三者体验的。比如,围棋大师总结下棋的经验,定义规则,在其基础上开发围棋系统,就是基于第一者体验的。观察围棋大师下棋,从其下棋数据中自动学习规律,开发围棋系统,就是基于第三者体验的。 有趣的是,LLM 的开发基于第三者体验,也结合第一者体验。因为模型是基于深度神经网络,使用大规模数据,通过预测误差最小化的方式学到的,这些都可以认为是基于第三者体验的。但是在学习过程中的数据收集,数据清洗,数据标注,以及在推理过程中使用的提示(prompt),上下文学习(in context learning),都需要开发者基于自己的经验,有效地将知识和能力提供给模型,这应该看作是基于第一者体验。这一点与其他的机器学习有本质的不同。这也就意味着开发 LLM,既需要能够观察数据和模型的统计指标,比如 scaling law,又要能够站在使用者的角度准备数据,调教模型。而后者的技巧需要很多观察和摸索才能掌握。 2.3 LLM 的优点和局限 LLM 在一定程度上解决了通用性问题,进一步提高了智能性。大数据、大模型返回的结果大概率是现实中应该发生的而且是合理的。开发者通过预训练、SFT、RLHF、Prompt 等方式,调教模型,可以大大提高模型的能力。 LLM 已经非常强大。但也有大家指出的明显需要解决的问题:1. 如何优化模型,也就是降低训练和使用成本,同时扩大可处理问题的规模。2. 如何保证模型生成内容的真实性,也就是避免幻觉。3. 如何构建可信赖大模型,也就是保证模型生成结果的有用性,安全性等。 笔者在 ChatGPT 出现之前,曾经指出深度学习需要更多地借鉴人脑的处理机制,需要更多的理论指导 [6]。这在 LLM 时代也依然是成立的。LLM 规模已经极其庞大,可能需要新的理论,对模型的能力进行分析和解释。当模型达到一定规模以后,整个系统的 Dynamics 呈现了完全不同的规律,需要进一步研究。 3. 重要研究课题 总结起来,LLM 时代有以下重要研究课题。 LLM 的优化 LLM 的真实性 可信赖 LLM 与 AI 伦理 LLM 的理论 多模态大模型 LLM + 逻辑推理 智能体(agent) 面向未来,多模态大模型、LLM 加逻辑推理、智能体等都是重要的研究课题。下面重点讨论前两个课题。 4. 从人类智能角度看 LLM 4.1 人脑、心智、意识 人脑是一个巨大的神经网络,推测有 1 千亿个神经元,1 千万亿个突触。脑神经网络由诸多去中心化(decentralized)的子网络组成,每个子网络负责一个特定的功能,子网络之间有一定的连接。神经网络进行的是并行处理,处理速度快,在下意识中进行。人脑神经网络的一部分被激活时产生某种状态,称作神经表示( neural representation)。 心智(mind)是我们每个人体验的内心的感知和认知,既有意识的部分又有下意识的部分,主要是意识层面的。目前脑科学的一个有利假说是,意识是人脑整体信息同步的机制,信息同步在工作空间(workspace)中进行 [7]。意识中的信息处理是串行处理,处理速度慢。 具身认知论(emboddied cognition)认为,在人的思维过程中,在意识中的处理产生的是表象(image),心智计算论(computational theory of mind)认为意识中的处理产生的是心智语言(mental language, mentalese)[8]。目前没有定论,本文根据需要,同时借用两者的观点。 图 2 人脑和心智的组成 图 2 给出了人脑和心智的组成。下意识中的脑(神经网络)分成不同的脑区负责听觉、视觉、运动、语言,数学等功能。意识得到下意识神经网络处理的结果,通过心智语言表示出来,或者产生表象,在工作空间里进行各种处理。 心智语言是认知科学家福多、平克等提出的假说。一个重要特点是,自然语言是有歧义的,而心智语言没有歧义。当我们理解某一个概念的时候,脑中唤起所有相关的多模态信息进行消歧处理,得到心智语言的表示。 4.2 LLM 的统一实现 目前为止,自然语言处理有六个大的任务,包括分类、匹配、标注和语义分析、序列生成、序列到序列、序贯决策。 分类:从文字序列到标签的映射,如文本分类。 匹配:文字序列与文字序列的匹配,如搜索、阅读理解。 标注和语义分析:文字序列到标签序列或结构表示的映射,如分词、词性标注、句法分析。 序列生成:文字序列的生成,也就是基于语言模型的生成。 序列到序列(seq2seq):文字序列到文字序列的转化,如机器翻译、生成式对话、摘要。 序贯决策:基于已有的文字序列产生新的文字序列,如多轮对话。 前三个是语言理解任务,后三个是语言生成任务。理解任务的输出是类别标签等,可以认为是心智语言的表示。 所有的任务都可以用序列到序列 seq2seq 模型实现。语言理解是自然语言到心智语言的 seq2seq。语言生成是心智语言到自然语言的 seq2seq。语言转换是一种自然语言到另一种自然语言的转换。 GPT3、ChatGPT 等用大量文章数据做预训练,然后用 seq2seq 数据做微调,但 seq2seq 数据也转换成序列数据的形式 [seq:seq],即把两者拼接起来。注意 ChatGPT 等在生成的时候并不区别是自然语言还是内部表示。内部表示也可以是程序代码。 图 3 LLM 实现所有自然语言处理任务 图 3 描述基于 LLM 的语言理解,语言生成,语言转换(翻译)的 LLM。比如,思维链(chain of thought)就可以认为是心智语言的内容。基于 LLM 的语言理解就是把自然语言转化为心智语言。注意:心智语言应该是没有歧义的,而用 LLM 生成的内容,包括思维链,经常是有歧义的。 所以,可以认为 LLM 用于语言理解时生成的内容是心智语言的近似。自然语言表示心智语言的好处是人们可以很容易定义和标注数据,如思维链数据,但是缺点是不能保证不产生歧义。6.1 节有一个数学解题的例子,也可以用程序表示心智语言,就没有歧义的问题。 5. LLM 与多模态处理 5.1 人的语言理解和世界理解 人的语言理解可以从两个角度定义,一个是概念,另一个是功能。如果是概念,理解一个词语或者是一句话,意味着把记忆中的相关概念和事件唤起,并把它们联系起来,这是在意识中产生表象或由心智语言的表示。理解的结果产生语义落实(grounding),是没有歧义的。因为人脑在理解中做了消歧。 有很多证据表明,人的语言理解过程是通过视觉、听觉等多模态处理进行的。概念相关的视觉、听觉表征分别记忆在视觉、听觉的脑区。当相关概念被唤起的时候,在意识中产生多模态的表象。比如,被问到「大猩猩是不是有鼻子」时,要回答这个问题,我们脑子里会展现出大猩猩的视觉表象。 另一方面,人对世界的理解也是通过语言的。人通过视觉、听觉、触觉、味觉、嗅觉从外界环境获取信息。世界理解通常是将多模态信息与语言联系到一起的过程。在这个过程中也会在意识中产生表象或心智语言的表示。比如,看到桌子上的物体,会识别是「杯子」,「圆珠笔」等。 5.2 多模态大模型 大家关注的一个问题 LLM 是否实现了人的语言理解,LLM 是否建立了世界模型。笔者的回答:是也不是。 LLM 建立的对世界的认识完全是基于语言的,从语言数据中学习,将学到的知识存储于语言模型。所以当问到关于世界的任何问题,LLM 都能回答,虽然有时是有幻觉的。知识的存储的方式也与人不一样,不是基于实体和概念,而是存储在 Transformer 参数之中。 可以预见,当 LLM 和多模态大模型结合时,就能产生与人更接近的世界模型。这时知识也会通过实体和概念等联系起来。特别是未来,机器人能通过与世界互动,获得具身的多模态信息时,其产生的多模态大模型就应该能更接近人类的世界模型。注:世界模型并没有大家都接受的严格定义。 因此,多模态处理应该是 LLM 之后未来人工智能发展的重要方向。多模态研究最近也有很多进展。比如,视觉语言模型(vision language model)方面,Open AI 开发的 CLIP 模型是视觉语言对齐上最有代表性的模型。字节跳动也开发了 X-VLM 模型,在细粒度的多模态理解任务上有最好的表现 [9]。 6. LLM 与数学能力 6.1 人的数学能力 数学能力包括几种能力,有逻辑推理、算术计算、代数计算、几何概念理解等。 数学能力:从哲学角度看 在西方哲学中,数学一直被认为是一种人类天生具有的独立的能力。 亚里士多德认为哲学理论可以分为数学、自然学(physics)和形而上学 (metaphysics)。在古希腊,数学被认为独立于「科学」的学科,因为其抽象性和逻辑性。 图 4 将 2×2 的正方形面积扩大一倍的方法 柏拉图在《美诺篇》中介绍了苏格拉底与一位奴隶少年的对话。苏格拉底通过不断提问的方式,引导奴隶少年解决了如何把一个 2×2 的正方形的面积扩大一倍的数学问题(见图 4)。苏格拉底试图证明,人的数学思维能力,更一般地,人的理性是生来具有的。 康德在《纯粹理性批判》中主张人的推理能力是先天的,他称之为先验综合判断,其中包括数学推理,比如计算 5+7=12。 数学能力:从脑科学角度看 近年脑科学和认知科学的研究发现,人的数学基本能力是先天的,如基本的计算能力。数学思维主要涉及一些特定的脑区 [9]。 有这样的实验,4 个月的儿童,让他们看到把一个球滚到屏风后面,再滚一个球过去,当把屏风挪开的时候,如果他们看到的留下的不是两个球而是一个球,都会露出非常吃惊的表情。说明他们知道 1+1=2。 递归运算是数学的核心能力,猜测是人天生就有的。脑科学家发现人脑顶叶有一个脑区,其主要功能是数学思维,具体的机理仍不清楚,需要今后进一步研究。 当然不是所有的数学能力都是先天的,也有后天习得的数学能力。研究发现,数学家的部分视觉脑区在后天的学习过程中被再利用于数学 [10]。 数学思维:科学家的自省 数学思维会经常上升到意识。科学家们经常把自己的数学思维过程描述为意识中的与数学相关的表象的操作过程,这些表象与数学概念密切联系在一起。对应着大脑神经网络怎样的计算尚不清楚。 爱因斯坦曾这样反思自己的数学思维过程,「词汇或者语言,无论是书面形式还是口头形式,似乎在我的思维中并没有发挥任何作用。作为思维元素的实体是某些符号和或多或少清晰的表象,可以自发地复制和组合。而且,这些元素和相关的逻辑概念之间存在一定的联系。」 6.2 LLM 用于数学解题 LLM 本身具备类推推理(analogical reasoning)的能力,但不具备逻辑推理(logical reasoning)的能力(逻辑推理是指基于三段论的推理)。因此,LLM 可以做一些简单的数学计算、数学解题。对比于人,相当于用死记硬背的方法做数学。虽然 GPT4 展现出了非常强的数学解题能力,求解复杂的数学问题应该还需要其他机制。 一个想法是 LLM + 逻辑推理的数学解题。用 LLM 理解数学问题的题意,将其转换为心智语言,在心智语的基础上进行逻辑推理和数学计算。逻辑推理和数学计算调用其他的数学计算机制。 人的数学解题有两种机制,分别使用心理学称作的系统 1 和系统 2,进行快的思维(基于死记硬背)和慢的思维(进行深入思考)。用 LLM 直接解题,对应着系统 1。用 LLM 产生心智语言,在心智语言的基础上进行解题,对应着系统 2。 在字节跳动,我们去年提出了神经符号处理方法,结合神经处理和符号处理,用于自然语言理解任务。也是基于相同的思想结合系统 1 和系统 2 的机制 [11]。这套方法既可以用于数学解题,又可以用于自然语言理解。 6.3 程序语言作为心智语言 上述基于 LLM 的数学解题和自然语言理解方法中,一个自然的想法是用程序语言表示心智语言。这是因为 LLM 一般使用程序训练,也能生成程序。 我们最近做了大规模的实验,验证了 Python 程序比英语(自然语言)作为 “心智语言”,在数学解题中更有优势的事实 [12]。这个方法的一个优点是,LLM 理解题意后,得到的程序可以直接通过解释器执行,验证解题步骤的正确性。在 Python 程序上进行推理,也比在自然语言上进行推理更为容易。
千万人围观“烧焦婴儿”图片!伯克利教授辟谣:AI图片检测器无用
AI无法打败AI,不是没有道理。近来,上千万人围观的婴儿死亡照片,AI检测工具竟无法给出一致答案。 AI图片检测器又被冲了! 最近,外网爆出大量中东地区冲突的照片,向世人展示了生命在这种极端条件下是何等的脆弱和无助。 其中,一张「烧焦婴儿」的照片,由于太过于残忍,让人难以置信。 于是,有人把照片放到了AI图片检测器中,来检测这些照片是否为AI生成。 果然,这张照片被AI检测器——Optic,认定为「AI生成」。 而在4chan上,甚至还出现了「原图」,原本尸体的位置其实是一只狗狗。 于是网友愤怒地去发布者推文下方留言,攻击他利用AI生成的照片来散播虚假的末日恐慌。 这条认为照片是由AI生成的推文,2天不到的时间已经有2100万的阅读。 但是很快网友们发现,他们把照片放到了同样的AI检测器上,检测结果几乎是随机的,既有AI,也有人类。 有人发现,只要把同一张图片裁剪一下,或者背景色变成黑白,这个检测器就会认为图片是由人类拍摄的。 甚至有时候检测器「抛硬币」的时候,硬币还会立起来... 那到底这张图是不是由AI生成的呢? 最后,AI检测器官方也针对这个事件发推,认为他们的没有办法确定图片是否由AI生成,希望大家理性讨论。 AI图片检测器,到底有多不靠谱? UC Berkeley教授、世界顶尖的数字图像处理专家之一Hany Farid表示,这张图像没有任何迹象表明它是由AI生成的。 「AI图像生成器最大的问题之一是高度结构化的形状和直线,」Farid说。「如果你看到桌腿和螺丝,一切看起来都很完美,那么图片就几乎不可能是由AI生成的。」 比如这张著名的「海绵宝宝制造了9/1」的图片,窗外的双子塔线条都不直,飞机上的仪表盘都相互扭曲到一起了,这看起来就是「A里A气的」。 「我们在那张照片中能够看到物体的结构很准确、阴影也很准确、没有伪影——这让我相信这张照片应该完全是真实的」法里德说。 Farid还通过他自己的其他AI图像检测器识别了这幅图,另外四种AI图像检测工具也都认为图像不是AI生成的。 Farid说,「AI检测器是一个工具,但它只是工具包的一部分。用户需要对整个图像进行进行一系列的测试,不可能只按一个按钮就得到答案。」 而AI检测工具Optic确实也没有给出自己的检测技术的具体细节。 Optic网站也声明,「AI检测器可能会产生不准确的结果」。 AI图像检测技术 Farid教授在去年曾经撰写过一篇论文,介绍了如何判断AI生图工具图像的一致性。 通过判断图像上的一致性,可以帮助判断出图像是否由AI生成。 论文链接:https://arxiv.org/abs/2206.14617?ref=404media.co 教授首先概述三种相关的基于物理的分析方式,每种分析都利用了图像形成过程固有的相同的基础透视几何原理。 消失点 平行后退线汇聚于一个消失点。 瓷砖之间的线图1(a)是平行的。成像时,这些线全部汇聚在一个消失点。如果场景中的平行线在深度上远离镜头,那么就会存在消失点,尽管它可能落在图像之外。 如果场景中的平行线在深度上不后退,也就是说,如果它们完全平行于镜头传感器(在任何距离),则平行线将被成像为平行线,出于实际目的,可以考虑消失点处于无穷远。这种几何学源于透视投影的基础知识。 在透视投影下,场景中的点 (X, Y, Z) 被成像到点 (f X/Z, f Y /Z),其中f是镜头焦距。 由于图像中点的位置与距离Z成反比,因此投影点会作为距离的函数进行压缩,从而导致图像中的线会聚; 2. 平行平面上的平行线会聚到同一个消失点 远处的盒子在图 1(b) 与地板上的瓷砖对齐,使得盒子的边缘与瓷砖之间的线平行。因为平行平面上的平行线共享一个消失点,所以盒子侧面和瓷砖地板的消失点是相同的; 3. 平面上所有直线的消失点都位于消失线上。 许多组平行线,每组平行线会聚到不同的消失点,如图1(c) 所示。如果平行线组跨越场景中的同一平面,则它们的消失点将位于消失线上。消失线的方向由镜头相对于平行线所跨越的平面的旋转来确定 阴影 有点令人惊讶的是,消失点背后的相同几何形状也适用于投射阴影。 上图显示的是连接盒子上的点及其在投射阴影上的对应点的三条光线。扩展图像边界后发现,这三条光线相交于一个点,该点对应的是照亮场景的光源的投影。 无论光源在附近(台灯)还是在远处(太阳),这种与阴影、物体和光相关的几何约束都成立,并且无论阴影投射到的表面的位置和方向如何,该几何约束都成立。 当然,该分析假设场景由单个主光源照明,从每个对象仅存在单个投射阴影可以明显看出这一点。 在上面的示例中,照亮场景的光源位于镜头前面,因此光源的投影位于图像平面的上半部分。 然而,如果光线位于镜头后面,则光源的投影将位于图像平面的下半部分。由于这种反转,对象约束的阴影也必须反转。 因此,图像的投射阴影分析必须考虑三种可能性: (1) 光线位于镜头前面,光源的投影位于图像平面的上半部分,约束锚定在投射阴影上并包围对象; (2) 光线在镜头后面,光源的投影在图像平面的下半部分,约束锚定在物体上并包围投射的阴影; (3) 光线位于镜头中心的正上方或正下方,光源的投影位于无穷远,约束将在无穷远相交。如果这些情况中的任何一种导致所有约束的共同交集,则投射阴影在物理上是合理的。 反射 下图2所示的场景是三个盒子反射在平面镜中。 这个图的下半部分显示了真实盒子和虚拟盒子之间的几何关系。 橙色线代表镜子,位于两组盒子之间的中点。黄线连接真实和虚拟盒子上的对应点。这些线彼此平行并垂直于镜子。 现在考虑一下这些平行线叠加在场景上时如何出现。从镜子平面观察时平行的线不再平行。相反,由于透视投影,这些平行线会聚到一个点,就像世界中的平行线会聚到一个消失点一样。 由于连接场景中对应点及其反射的线始终是平行的,因此这些线必须在图像中具有共同的交点才能在物理上合理。 实例分析 上图3显示了AI合成图像的三个代表性示例,并对地板和柜台顶部的几何透视一致性进行了分析。 每张图像(在几个像素内)准确地捕捉了瓷砖地板的透视几何形状,作为一致的消失点(以蓝色呈现)的证据。然而,平行台面(以青色呈现)的消失点在几何上与台面的消失点不一致。 相应的对齐图块。即使台面与瓷砖不平行,青色消失点也应位于由瓷砖地板消失点定义的消失线(以红色呈现)上。请注意,对于图 3 右上角的图像,瓷砖地板上的水平线几乎是平行的,因此相应的消失点位于无穷远,因此不会相交。 虽然这些图像中消失点局部事一致的,但并不是全局一致的。在 25 张合成的厨房图像中,每张都发现了相同的模式。 上图是用提示词生成的方块图片,在阴影处就明显地出现了不一致性。 上图8所示是将几何分析应用于由AI生成的包含了看上去相当准确的反射的图像结果。 尽管这些反射在视觉上是合理的,但在几何上并不一致。 与前几节中的投射阴影和几何结构不同,DALL·E-2 很难合成合理的反射,大概是因为此类反射在其训练图像数据集中不太常见。 基于这些对于AI生成图片局限性的了解,通过对于图片一致性的检测,能非常有助于判断图片是否由AI合成。 图像识别难,AI打败AI AI图像生成器,正不断进化。 上半年,Midjourney爆火,能够生成足够逼真的图片,却愚弄了很多人。 86岁教皇头顶白色小瓜帽、一身喇叭口的白色羽绒服,金属制的十字架项链外露,外加一本正经的表情。 当时,这张照片一经发布,在社交媒体上骗过了所有人,被许多网友疯狂转发,甚至有人直呼教皇太潮了。 在大家都信以为真时,突然有人点出这是AI生成的,许多人瞬间傻眼了。 这仅是其中的一个栗子,还有马斯克新女友GM的首席执行官Barra等各种虚假流传的图片,已经达完全到以假乱真的程度。 这一事件,直接引发了马斯克、苹果联合创始人Stephen Wozniak等科技领导人呼吁暂停AI的研发。 虽然AI生成有趣、便利,但它给整个行业带来了风险。 一不小,就会被别有用心的人用其传播虚假信息、侵犯知识产权,或利用生成「果照」等等。 接下来几个月,Midjourney将会发布最新的V6版本,目前V5版本已经在图片生成的真实度上做的非常完善。 而其他AI图像生成器也在快速迭代。前段时间,OpenAI刚刚发布了DALL·E 3,与此同时微软必应图像生成也用上了DALL·E 3。 当然了,研究人员也在努力构建可以辨别图像的工具,关键是如何追赶上AI图像生成器不断换代的步伐? AI检测工具竞争赛 现在,已经有十几家公司提供工具来识别图片是否是由AI生成的,它们的名字包括Sensity AI(深度伪造检测)、Fictitious.AI(抄袭检测)、Originality.AI等等。 人工智能信任与安全公司Optic推出了一个「AI or Not」的网站。 在这个网站上,你可以上传照片或粘贴图片网址,网站会自动判断,照片是否是由AI生成的。上传的图片数量没有限制。 另外,你也可以在Optic的推特账户@optic_xyz上发布或转发一张图片,或者加上#aiornot,便会得到一条回复,包括图片的置信度百分比。 这家公司的首席执行官Andrey Doronichev表示,Optic的AI工具可以检查每张图像中人眼不可见的伪影,例如图像中亮度和颜色的变化。 让人惊喜的是,该工具的准确率为95%。 但是随着Midjourney等AI图像生成工具的升级迭代,「AI or Not」的准确率下降到了88.9%。 比如,教皇这张图片,AI认为87%的概率是由人类做的。 教皇穿着白色羽绒服的形象在Optic更新前被愚弄 其实有网友表示,仔细去看这张图,就会发现有人工智能生成的明显迹象,包括几个明显模糊的细节区域: - 看似不完整的手正试图抓住一个不太像咖啡杯的东西,旁边还有污迹 - 教皇佩戴的十字架也不是直角形状,上面还刻着一个像是用黏土雕刻而且坐着的耶稣 - 眼镜与脸部的阴影不一致 这几点都表明这是由人工智能生成的。它仅了解现实的表面,但不了解支配物理对象是如何相互作用的基本规则。 除了Optic家的工具,为内容添加标签的人工智能公司Hive近来,也更新了自家的免费AI生成的内容检测器。 这个AI工具在DALL-E、Stable Diffusion、Midjourney的数百万张图像上进行了训练。 Hive预计,它能准确检测到大约95%的AI生成的图像,尤其在网上疯传的共享图像,往往比其他图像识别效果更好。 CEO Kevin Guo称,当人们分享人工智能图像时,他们会选择最逼真的假图,所以人们很辨别什么是真的。 左图是AI生成的图像,可以从两个手指和奇怪的击掌辨别,而在普通iStock照片中真实的样子如右图。 与Optic一样,Hive在检测必应Image Creator的图像时,也失败了。 不过,这些检测工具并非止步不前,随着AI图像整成模型的迭代,它们也会更新升级。 其实,AI图像辨别不能仅仅依靠行业中的检测工具完成,更应该在模型训练时,设好护栏。 许多人工智能图像生成器,也被限定了一些内容能否被生成的「黑名单」。 比如,必应Image Creator会标记和阻止要求其创建知名公众人物图像的用户提示。 Midjourney有「human moderators」,并正在推出一种用算法来调节用户请求的方法。 还有DALL·E 3技术报告中介绍道,当你让ChatGPT生成一些「果图」、或者涉及黑白人等图片时,输入的prompt直接被改写。 给AI加水印,大厂在做了 此外,数字水印也是目前增强生成式AI安全的重要手段之一,微软、谷歌等科技巨头已经在产品中使用。 微软曾在9月Surface大会上,介绍了DALL·E 3加持下的必应生成图像的能力。 与此同时,为了确保图像不被滥用,微软团队使用加密方法为为每一张图像生成不可见的水印,包括创建时间和日期。 任何人可以点开每张图片,轻易识别出是否是AI生成的。 Meta还开源了Stable Signature,可将数字水印直接嵌入到AI自动生成的图片中。 论文地址:https://arxiv.org/pdf/2303.15435.pdf 值得一提的是,Stable Signature生成的数字水印不受裁剪、压缩、改变颜色等破坏性操作影响,能追溯到图片的初始来源。 它可应用于扩散、GAN等模型,比如Stable Diffusion。 还有谷歌在Google Cloud Next上,也发布了为AI生成的图像打上水印并进行检测和识别的SynthID。 SynthID使用两个深度学习模型,分别用于水印和识别。它们可以在一组不同的图像上一起训练。 组合模型针对一系列目标进行了优化,包括正确识别带水印的内容,并通过直观地将水印与原始内容对齐来提高水印的隐蔽性。 SynthID生成的数字水印是直接嵌入到图像的像素中的,人眼无法察觉。但SynthID可以检测并识别它们。 SynthID可以帮助评估图像由Imagen创建的可能性 加州大学河滨分校电气和计算机工程教授Amit Roy-Chowdhury表示,仔细观察图像背景,我们可以用自己的眼睛更好检测假图像。 不过,在AI模型加速迭代当下,想要有「火眼金睛」太难了。
芯片业巨头大裁员
据美国有线电视新闻网(CNN)10月12日报道,全球最大的芯片制造商之一美国高通公司眼下正计划缩减员工规模。 这家总部位于加州圣迭戈的公司向加州就业发展局提交的文件显示,公司计划在该州裁员大约1258人,波及岗位包括工程师、法务和人力资源。此轮裁员将于12月中旬正式启动。据悉,目前,高通的员工总数在5万人左右。 截至美股最新收盘,高通股价下跌2.51%,市值缩水至1213亿美元(约合人民币8862亿元)。 高通公司首席财务官在今年8月曾表示,考虑到未来营收会减少的预期,公司将采取措施削减成本。 截至2023年6月25日的第三财季财报数据显示,高通调整后总营收为84.4亿美元,同比下滑23%,低于预期的85亿美元;调整后每股收益为1.87美元,高于预期的每股1.81美元;净利润降至18亿美元,较上年同期的37.3亿美元下降了52%。 高通CDMA技术集团(QCT)是高通最大的部门,销售用于智能手机、汽车和其它智能设备的处理器。第三财季该部门的销售额为71.7亿美元,同比下降24%。其中,高通主要的手机芯片业务营收下降了25%,至52.6亿美元。 高通首席执行官安蒙当时在第三财季业绩与分析师的电话会议中表示,该公司将进一步削减成本。高通在一份监管公告中也表示,削减成本将包括裁员,但未具体说明有多少工作岗位将受到影响。
CPU、GPU之后的算力架构“第三极”!存算一体化芯片受益上市公司梳理
财联社10月15日讯(编辑 旭日)据《科创板日报》报道,近日,清华大学研制出全球首颗全系统集成的、支持高效片上学习(机器学习能在硬件端直接完成)的忆阻器存算一体芯片,在支持片上学习的忆阻器存算一体芯片领域取得重大突破,有望促进人工智能、自动驾驶可穿戴设备等领域发展。 方正证券吴文吉4月14日研报中指出,存算一体作为一种新的计算架构,具有更大算力(1000TOPS以上)、更高能效(超过10-100TOPS/W)、降本增效三大优势,能有效克服冯·诺依曼架构瓶颈,实现计算能效的数量级提升。业界普遍认为,其为“AI算力的下一极”,继CPU、GPU之后的算力架构“第三极”。 华西证券刘泽晶4月5日研报中表示,存算一体适用于人工智能各个场景,如穿戴设备、移动终端、智能驾驶、数据中心等。随着大模型的横空出世,参数方面已经达到上亿级别,存算一体有望成为新一代算力因素。 公开资料显示,作为一种新的计算架构,存算一体被认为是最具有潜力的革命性技术,其核心是将存储与计算完全融合,存储器中叠加计算能力,以新的高效运算架构进行二维和三维矩阵计算。存算一体的优势包括:1)具有更大算力(1000TOPS以上);2)具有更高能效(超过10-100TOPS/W),超越传统ASIC算力芯片;3)降本增效(可超过一个数量级)。 根据量子位智库,存算一体产业发展将历经技术探索期(2010-2017年)、局部小规模量产(2017-2022)、普遍小规模量产(2022-2025)以及未来的大规模量产(2025-2030)四个阶段。预计存算一体市场规模2025年将达125亿元,随着技术成熟度的提高伴随大规模商用落地,至2030年市场规模将达1136亿元。 目前,国内布局存算一体AI芯片的上市公司为恒烁股份,公司已完成首款基于NOR Flash制程的存算一体AI芯片的研发、流片和系统演示。目前积累了杰理科技、乐鑫科技、芯海科技、翱捷科技等客户。 其它的初创公司例如亿铸科技、知存科技、苹芯科技、九天睿芯等采用存算一体架构投注于AI算力。其中亿铸科技、千芯科技、阿里达摩院等专注大模型计算、自动驾驶等AI大算力场景。闪易、新忆科技、苹芯科技、知存科技等专注于物联网、可穿戴设备、智能家居等边缘小算力场景。 此外,根据财联社不完全整理,近期在互动易平台回复存算一体化芯片相关业务的A股上市公司包括杭州柯林、中科微至、东芯股份、润欣科技和罗普特等,具体情况如图
消息称英伟达下一代Blackwell B100 GPU将采用HBM3E显存,2024年Q2发布
原标题:消息称英伟达下一代Blackwell B100 GPU将采用HBM3E显存,明年Q2发布 IT之家 10 月 15 日消息,今年 8 月,SK 海力士宣布开发出了全球最高规格的 HBM3E 内存,并将从明年上半年开始投入量产,目前已经开始向客户提供样品进行性能验证。 据 MT.co.kr 报道,继第 4 代产品 HBM3 之后,SK 海力士将向 NVIDIA 独家供应第五代高带宽内存 HBM3E,此举有望进一步巩固其作为 AI 半导体公司的地位。 据半导体业界 15 日消息,SK 海力士将于明年初向 NVIDIA 提供满足量产质量要求的 HBM3E 内存,并开展最终的资格测试。 一位半导体行业高管表示,“没有 HBM3E,NVIDIA 就无法销售 B100”,“一旦质量达到要求,合同就只是时间问题。” 据介绍,这批 HBM3E 将应用于 NVIDIA 计划于明年第二季度左右发布的下一代 AI 旗舰 GPU——B100 中。市场预测,B100 将成为比英伟达当前最高规格 H100 更强的 AI 游戏规则改变者。 参考IT之家此前报道,英伟达路线图显示,该公司准备在 2024 年推出 Hopper GH200 GPU,然后在 2024 年至 2025 年之间的某个时间推出基于 Blackwell 的 GB200 GPU。 值得一提的是,NVIDIA 目前已经占据 AI GPU 市场 90% 以上的份额;而在存储领域,SK 海力士已经占据全球 HBM 市场一半以上的份额,更是 100% 垄断了 128GB DDR5 这类大容量 DRAM 产品市场。 据称,英伟达原计划于明年第四季度发布 B100,但由于需求快速增长,英伟达已将发布日期提前至第二季度末。因此,随着 B100 发布日期的提前,其供应链也开始变得忙碌起来,而 SK 海力士原定于第二季度初进行的质量测试已提前至第一季度。 现阶段,SK 海力士重点主要是放在提高良率上。如果一切按计划进行,SK 海力士将实现继 HBM3 之后再次向 NVIDIA 供应 HBM3E 的独家订单。
谷歌让大模型更具“心智”,GPT-4任务准确率大增
谷歌联合多所高校的一项最新研究,让大模型开始拥有了人类的“心智”。 在新的提示策略下,大模型不仅能推测出人类所面临的问题,还学会了用推测的结论调整自己的行为。 有了这一成果,GPT-4的“心智”水平已经提高到了人类的71%。 具体来说,研究人员发现,现在的大模型,已经具备了在对话中推测人类“在想啥”的能力。但如果你要它根据这种推理给出行动建议,那可就难倒大模型了。 举个例子,小明放学回家后把书包扔到沙发上就跑出去玩了,妈妈看到之后帮小明把包放到了卧室。 如果大模型能够像人类一样,在小明回来之后告诉他包在卧室,就说明大模型具备了“心智理论”。 研究人员把这种做法称为Thinking for Doing(T4D),并设计了相应的任务。 为了提高模型在T4D任务上的表现,团队进一步提出了Foresee and Reflect(FaR)提示策略,结果让大模型在“心智”上取得了重大突破。 论文的标题也包含了“How far……” ,一语双关,既体现了FaR框架对大模型的帮助,又暗含了大模型离具有人类“心智”的距离。 那么,有了FaR的大模型,究竟拥有什么样的“心智”呢? 大模型离具有“心智”更进一步 我们还是从例子说起,如下图所示,一共有绿色和蓝色两个橱柜,Tom在绿色橱柜中放了一块巧克力。 Tom离开后,Ella把这块巧克力挪到了蓝色的柜子里。 那么等Tom再回来,会从哪个柜子中找巧克力呢?(当然是绿色的) 这就是一个“推理”任务,是心理学上著名的“萨利-安妮”(用于测试“心智”)实验的变体。 而T4D任务是这样的: 如果你就在旁边(并且知道发生了什么),会怎么做? 人类会选择告诉Tom巧克力被挪走了,但(未经调教的)大模型就不一定会这样做了。 为了更宏观地测试大模型在调整前后的表现,研究团队选择了ToMi数据集并改编成了T4D-Tom数据集。 其中的ToMi是一个由大量“萨利-安妮”类情景组成的测试数据集,用于测试大模型的“心智推理”能力。 可以看出,在推理上,表现最好的GPT-4与人类已经相差无几,但在T4D任务上才刚刚达到人类水平的一半。 于是,研究团队提出的FaR方法登场了。 FaR框架的核心奥义就是模仿人类的理性思维方式,和A*搜索算法(用于搜索最短路径)有些相似。 具体来说,FaR包括Foresee和Reflect两步。 Foresee过程中模型会被要求预测接下来会发生什么,并分析人所面临的“困难”。 Reflect发生在Foresee之后,模型会预测自己接下来的行为是否能解决相应的“困难”。 有了FaR框架,效果也是立竿见影。 相比于思维链(CoT)、思维树(ToT)、自己提问等方式,FaR显著提高了大模型在“萨利-安妮”类T4D问题上的准确率。 特别是GPT-4,准确率从人类的50%提升到了71%,GPT-3.5以及谷歌自家的PaLM表现也有提高。 消融实验结果表明,Foresee和Reflect两步都是FaR的关键步骤,缺一不可。 为了验证FaR方法的通用性和鲁棒性,研究团队还进行了一系列泛化测试。 首先是在“萨利-安妮”情景的基础上改变故事的结构,研究团队一共尝试了三种方式: D1:增加房间的数量 D2:人物的数量增多 D3:容器的数量增加到四个 结果FaR依旧成功帮助大模型提高了任务的准确率,在第三种模式下GPT-4甚至取得了和人类相当的成绩。 即使故意设置干扰信息,FaR依旧可以提高大模型的表现。 研究团队专门构建了包含困扰信息的“Faux Pas”数据集,结果GPT-4的表现从31%提高到了76%。 作者简介 FaR论文的第一作者是南加州大学NLP实验室的华人博士生Pei Zhou。 这项成果是他在谷歌实习期间完成的。 此外,来自谷歌(包括DeepMind)、卡耐基梅隆大学和的芝加哥大学的学者也参与了本项目。 那么对于大模型的“心智”,你有什么看法呢?

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。