巨佬再挽留:不要急着下车!

美联储放水在即?

没有光(模块)的港股今日继续下挫,恒生科技指数跌近2%,而带动A股昨日重返2万亿成交额的CPO板块继续大爆发!中际旭创、德科立、天孚通信等批量新高。

“AI算力含量高”的ETF再一次屠榜,通信ETF涨3%,5G50ETF、5GETF、创业板人工智能ETF均涨超2%。

(本文内容均为客观数据信息罗列,不构成任何投资建议)

AI信仰又回来了?吵得热火朝天的“AI泡沫论”呢?

桥水基金创始人达利欧直接喊话市场:“不要仅因估值过高就匆忙撤离人工智能投资!”

当下,市场对人工智能重新达成共识了?

1

达利欧:不要因为AI估值过高就急于退出

周一,桥水基金创始人达利欧接受媒体采访时警告称,由于债务、美国政治冲突和地缘政治三大主导周期的汇聚,全球经济未来一两年将更加不稳定,目前私募股权、风险投资、正在再融资的债务领域都出现裂缝。

他还预计2026年美国政治将变得更加具有破坏性。“随着我们进入2026年选举,你会以不同方式看到更多冲突。”

“所以我相信,从这些指标来看,我们都处于一个泡沫中。”但他强调了目前与2000年泡沫的相似之处,但与1929年泡沫不同。

其再度重申AI反弹已进入泡沫区间的观点,但建议投资者:不要因为估值被拉高而仓促退出。

“所有泡沫都发生在技术变革的时代,”达利欧说。“你不能仅因为泡沫就想退出,你要找气泡被戳破的感觉。”

他给出两个“气泡被戳破”的前瞻指标:来自【货币紧缩】【被迫出售财富以履行义务】

近期,全球流动性又将迎来关键节点。

2

美联储要释放流动性?

临近美联储、日本央行12月议息会议,一个要降息,一个要加息,前者作为全球流动性的掌舵人,后者作为套息交易的主流货币,他们的一举一动都会对全球流动性起到举足轻重的影响。

尽管美联储12月降息25基点已成为市场主流共识,但对全球流动性最敏感的资产BTC却依旧没有企稳,隔夜BTC一度跌破8.9万美元,年内涨幅尽数回吐,转为下跌3%。

从下图的BTC、恒生科技指数和纳斯达克三者走势来看,恒生科技指数与BTC走势更为同步,且三者11月21日触底后,纳指明显反弹,BTC和恒生科技仍处横盘震荡走势。

A股本周独立港股强势反弹是因为上周五险资风险因子调整(沪深300、红利低波100和科创板),额外约1000亿增量资金是流入A股,与港股关系不大。

迟迟反弹乏力的BTC走势意味着,流动性问题还远远没有结束,问题到底出在哪?

原来经过连续三年缩表,美国银行体系准备金10月萎缩至为2.94万亿美元,是2020年10月以来第二次跌破3万亿关口(第一次是今年1月1日当周,可以回忆一下彼时美股12月和1月的表现。),已接近美联储设定的"充足但不过度"水平,是美联储决定停止缩表的关键因素。

但对市场而言,过去三年银行准备金中位数是3.2万亿美金,要防止银行间流动性紧张,不出现大问题,那么准备金规模至少要回到中位数3.2万亿美金以上。

就在这个关口,遇到日本12月加息,一降一升之间,美日利差收窄只会刺激资金进一步从美元市场离开,这就是典型的“屋漏偏逢连夜雨”。

问题来了,谁来补充银行准备金的缺口?

因此市场的关注点已不仅仅是降不降息,而是12月1日正式缩表后,美联储资产负债表后续走向,到底要不要重启购债

无独有偶,又是美联储的“二把手”——纽约联储主席威廉姆斯11月多次说过美联储很快重启购债。

所以全世界都在等,等12月议息会议上美联储会不会宣布重启购债。

这便是近期华尔街万众瞩目的「储备金管理购买(RMP)」,被市场视为“新一代QE”(注:不是QE,但可以理解为扩表)

公开资料显示,储备金管理购买(ReserveManagementPurchase,RMP)是美联储为维持银行体系准备金处于"充足水平"而进行的技术性购债操作,非货币政策转向,而是流动性管理工具。

目前华尔街各家机构都认为美联储会在12月会议上宣布RMP,1月开始行动。投资研究公司EvercorelSl预测美联储每月将购买约350亿美元短期国债(T-bills)。

可想而知,RMP是否推出、推出时点以及规模,都将是未来市场流动性的关键线索。

3

AI算力信仰重新回归?

对于A股的CPO板块连续两日强势领涨,市场主流观点是:GoogleTPU出货量上修及光互联(OCS)技术路径的产业动态争辩。

虽然市场对OCS到底是用光模块更多OR更少还没有定论,但也不妨碍CPO成为最强信仰。

由于文章篇幅有限,这里简单给大家分享周末摩根士丹利的互联网分析师Brian和半导体分析师JoeMoore一场关于AI算力的谈话,主要观点有3个:

①大家最关心的问题其实不是“该不该用TPU”,而是“能拿到多少Nvidia的VeraRubin架构”。而答案很残酷:几乎拿不到Rubin要到明年下半年才开始出货,而且数量有限,客户会抢得头破血流。算力永远不够。

②现在前沿模型公司在算力来源上的心态已经发生根本变化,谁能给我算力,我就用谁,包括但不限于Nvidia、AMD、自研ASIC、TPU。

③谷歌虽然有TPU,也还是会继续买Nvidia的GPU,这一点非常关键。

把这三点拼凑起来,我们就能明白现在AI算力的现状:行业已经进入“无限算力时代”,大家依旧疯狂Scaling——抢时间、抢卡、抢模型迭代速度。

所以很好笑的一点是当二级市场还在担心谁是下一个“思科”,巨头正在拼命卷,害怕自己是下一个“诺基亚”

别说国外AI巨头拼命堆算力疯狂Scaling,DeepSeek最新模型同样需要大量算力来换取更强的推理能力。

有消息称,在处理相同问题时,Gemini仅消耗2万Token,而DeepSeek-V3.2 Speciale消耗量高达7.7万,也就是它使用了3倍多的Token来生成类似质量的结果。

DeepSeek研究团队非常坦诚地承认,Token效率仍然是DeepSeek-V3.2的一个重要挑战:在通常情况下,这些版本的模型需要生成更长的推理轨迹,才能达到与Gemini-3.0-Pro相当的输出质量。

为此,该研究团队选择放宽RL长度约束,探索“极长思维链”,通过大量消耗Token来换取更高质量的输出结果。

从商业落地结果来看肯定是好的,目前token成本实际价值很低,其极低的单位成本优势足以抵消数量劣势,再次实现极高性价比。当硬件和模型创新把成本大幅度压低,应用大规模落地才具备必要条件。

正如Deepseek研究员Zhibin Gou的看法,gemini3证明pretrain Scaling,DeepSeek 3.2证明RL。

换句话说,DeepSeek面临的算力瓶颈确实限制模型知识输出表现,下一步突破路径也很明确——通过持续扩大预训练计算规模来弥补短板。

由此看来,算力仍然是当前AI大模型竞争的差异化因素。

格隆汇声明:文中观点均来自原作者,不代表格隆汇观点及立场。特别提醒,投资决策需建立在独立思考之上,本文内容仅供参考,不作为实际操作建议,交易风险自担。

相关阅读

评论