1
capex
0post
2025.11.24〜(48週)
:0% :0% (40代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
Google TPU 要干掉英伟达了吗?Meta 被曝将大规模采购 TPU,引发市场震动。但真相是:TPU 能撼动英伟达,却永远无法取代英伟达。这不是性能之争,而是生态、时机与战略的较量。
The Information 的一篇重磅报道把整个 AI 行业给炸了,Meta 正在与 Google 进行秘密谈判,计划大批量采购 Google 的 TPU 芯片,用于部分替代英伟达的 GPU 以支持其庞大的数据中心 AI 运算。
根据报道披露的细节,这盘棋下得很大:
- 2026 年: Meta 将大规模租用 Google 云服务(Google Cloud)上的 TPU 算力进行模型训练;
- 2027 年: Meta 将直接采购数十亿美元的 TPU 芯片,部署于自建的数据中心内。
什么?全球最大的 GPU 采购大户要抛弃英伟达了? Google 的 TPU 居然要走出自家机房,去取代英伟达的 GPU 了吗?
消息一出,资本市场瞬间恐慌了。英伟达股价应声大跌,而 Google 则逆势暴涨,大家都在问:难道英伟达靠 GPU 垄断 AI 数据中心的故事真的讲不下去了吗?TPU 开始逆转了战局了吗?要讲明白这场 GPU vs TPU 的战争,我们要先从英伟达为什么能够像“铁桶”一般垄断 AI 数据中心讲起。
当今的 AI 技术堆栈:一座精密的金字塔
今天的人工智能是一个无比庞大的工业化产业。像 ChatGPT 这样顶尖的 AI 产品,其背后是由一层一层的技术基石堆砌而成的,这在 IT 行业被称为“技术堆栈(Tech Stack)”。
即使采用最粗略的划分方式,要支撑起当下的生成式 AI,至少也包含 5 层关键技术,缺一不可:
- 第一层:算力硬件层(Infrastructure) 这是金字塔的底座,是一切的基础。核心代表毫无疑问是英伟达的 GPU 和 Google 的 TPU。它们提供了 AI 运算所需的庞大算力,就像是工业时代的电力引擎。
- 第二层:系统软件与加速层(System & Compiler) 光有芯片还不够,AI 计算需要成千上万个芯片协同工作。这一层负责调度硬件并优化效率,充当硬件与上层软件的翻译官,它们决定了你能发挥出硬件多少潜能。这一层最典型的护城河技术,就是英伟达的 CUDA,而 Google 的 TPU 也有能够把上层软件编译为 TPU 机器码的 XLA 编译器。
- 第三层:深度学习框架(Deep Learning Frameworks) 想要构建和训练大规模神经网络,开发者不能手搓底层的软件代码,需要成熟的“脚手架”。业界目前最流行的是 META 发起开源软件 PyTorch(目前对 GPU 生态支持最好,是事实标准),以及 Google 发起的开源软件 JAX 和经典的 TensorFlow。
- 第四层:基础大模型(Foundation Models) 这是由深度学习框架训练出来的“超级大脑”,是目前竞争最激烈的战场。
- 语言/多模态模型: 如 OpenAI 的 GPT-5、Google 的 Gemini 3;
- 视频生成模型: 如 OpenAI 的 Sora、Google 的 Veo;
- 图像生成模型: 如 Google 的 Imagen、Midjourney。
- 第五层:AI 应用与交互层(Applications & Agents) 这是用户直接接触的产品。它将底层强大的模型能力封装成人类可以交互的工具。例如 ChatGPT,它的底层核心是 GPT 模型,但它本身是一个增加了对话界面、联网搜索、记忆功能的产品;又比如 Google 的 NotebookLM。
为什么英伟达在 AI 数据中心市场形成了绝对垄断?
我们经常感叹英伟达的 GPU(如 H100、H200、B200)硬件参数如何炸裂,但这只是冰山一角。英伟达之所以能对 AI 数据中心市场形成近乎无解的垄断(市占率一度超过 95%),主要源于以下三个维度的降维打击:
1. 通用性极强的单点算力 英伟达的 GPU 本质上是通用计算加速器(GPGPU)。它不仅能完美覆盖 AI 大模型的训练(Training)和推理(Inference),还能兼顾科学计算(气象模拟、药物研发)、图形渲染甚至加密货币挖掘。这种“一卡多用”的特性,使其成为了数据中心的硬通货——买了永远不亏,不用来炼丹还能用来挖矿(开玩笑,但道理如此)。
2. 恐怖的集群扩展能力(Scale-up & Scale-out) AI 大模型训练不是单打独斗,而是需要成千上万张显卡协同作战。英伟达在这方面做得太绝了:
- 节点内互联:通过独家的 NVLink 技术,英伟达可以将多个 GPU(甚至高达 72 个 GPU 组成的 GB200 NVL72 机柜系统)连接成一个“超级逻辑 GPU”,显存和算力实现无缝共享。
- 节点间互联:通过收购 Mellanox 获得的 InfiniBand 高速网络技术,让成千上万台服务器之间的数据传输快如闪电,解决了大规模集群的通信瓶颈。
3. 真正的护城河:CUDA 软件生态 这是英伟达最难被逾越的壁垒,就像 PC 时代的 Windows 操作系统。
- 底层基石:CUDA 提供了最底层的并行计算库,几乎所有的高性能计算场景都基于此构建,经过了 20 年的打磨。
- 顶层框架:当今统治级的深度学习框架 PyTorch 对 CUDA 提供了最原生的支持。这意味着开发者只需编写几行 Python 代码,就能调用底层强大的算力。
- 生态闭环:围绕 PyTorch/CUDA/GPU 已经形成了一套成熟的“开箱即用”基础设施。
为什么竞争对手很难追赶? 即使竞争对手(如 AMD 或国产芯片厂商)在硬件参数上追平了 H200,依然无法撼动英伟达的地位。因为缺乏庞大的软件生态支持,意味着极高的迁移成本和时间风险。
一个真实的行业痛点(听起来很痛): 目前很多致力于适配非英伟达芯片的 AI 团队都面临着巨大的痛苦。许多针对英伟达 GPU 进行过深度优化的模型(特别是涉及复杂算子或 MoE 架构的模型),一旦迁移到其他芯片平台,往往会面临严重的兼容性问题。
- 开发难:大量算子需要从头手写,费时费力,如同用汇编语言写网页。
- 稳定性差:模型训练过程中经常出现莫名其妙的数值溢出或系统崩溃(Crash)。
在当前的 AI 竞赛中,一次全量模型训练往往耗时数月,成本以千万美元计。如果因为芯片兼容性导致训练中途崩溃几次,浪费的不仅是电费,更是半年甚至一年的宝贵时间窗口。这种巨大的试错成本,是任何一家争分夺秒的 AI 公司都无法承受的。传言某国内顶级 AI 模型就是因为在国产芯片上训练下一代模型频繁崩溃,导致一直难产,真的是太痛了。
这就是为什么英伟达在 AI 数据中心市场越成功,行业对其路径依赖就越严重——因为没有人敢承担离开英伟达的代价。
Google 的 TPU 又是怎么崛起的?
尽管英伟达的统治力无可争议,但是 Google TPU 却是个异类,它不仅活下来了,还活得很好,已在 AI 顶级赛道站稳脚跟。
首先,TPU 已经用实战成绩证明了自己在 AI 大模型训练和推理领域的成功:
- Google 本家基石: Google 最强的 Gemini 系列模型,完全基于 TPU 进行训练和推理;
- 独角兽的选择: 顶级 AI 公司 Anthropic (Claude) 在 Google Cloud 上大规模使用了 TPU 算力;
- 科技巨头的背书: 就连 Apple 在训练其 Apple Intelligence 基础模型时,也公开表示使用了 Google 的 TPU v4 和 v5p 集群,而非英伟达 GPU。
那么,在英伟达已经成为绝对霸主的情况下,Google TPU 凭什么能异军突起?我们不妨对照英伟达成功的三个维度来深度解析:
1. 算力哲学:极度通用 vs 极致专用 英伟达 GPU 的强大在于“通用性”。而 Google TPU 从 2012 年设计之初,就是为了特定用途——大规模矩阵乘法而生。 现在的 AI 大模型训练,本质上就是在大规模地做矩阵乘法。因为放弃了图形渲染等通用功能,TPU 的芯片设计得以大幅简化,从而在“矩阵计算”这单一场景下取得了极致的能效比和性能表现。
2. 互联技术:电互联 vs 光互联 (OCS) 英伟达在服务器间的高速互联(NVLink/InfiniBand)上表现出色,覆盖了从单机多卡到万卡集群的广泛场景。 而 Google TPU 另辟蹊径,主攻超大规模集群互联。Google 引入了独特的 OCS(光路交换)技术,用光互联将成千上万颗 TPU 动态编织在一起。最新的 TPU v5p 单个 Pod 即可容纳 8960 颗芯片,甚至可以通过光互联扩展至数万卡的超级集群。这种架构在大规模并行训练中,展现出了极高的带宽利用率和灵活性,且布线极其整洁。
3. 软件生态:CUDA 帝国 vs JAX/XLA 新势力 英伟达的 CUDA 和 PyTorch 让 AI 开发变得“开箱即用”,这是其最大的护城河。但 Google 经过多年深耕,也打磨出了一套极为硬核的软件栈:
- XLA (2016): 一个强大的编译器,能将计算图直接编译为 TPU 机器码,榨干硬件性能。
- JAX (2018): 一个旨在替代 TensorFlow 的前沿框架。
对比 PyTorch: PyTorch 是面向对象编程,符合人类直觉,简单易用;而 JAX 是函数式编程,学习曲线陡峭,但在处理超大规模并行计算时具有先天优势,代码更简洁,数学表达更纯粹。
跨界打击: JAX 的优秀甚至溢出了 TPU 生态。如马斯克的 xAI 虽然使用的是英伟达 H100 集群,但为了追求对硬件性能的极致压榨,在训练 Grok 模型时并没有使用 PyTorch,而是选择了 JAX。
总结:生态位的胜利 经过多年的演化,在超大模型训练这一“皇冠上的明珠”场景下,JAX + XLA + TPU 技术栈已经形成了一个完整的闭环。它不仅被验证是成功的,甚至在某些超大规模场景下,能取得比 Pytorch + CUDA + GPU 更优的能效比。在 Google Cloud 上,TPU 的 token 成本定价低于英伟达 GPU,就是最好的证明。这也是 Google Cloud 在云计算市场竞争中的秘密武器。总之:
英伟达 vs Google:两种技术哲学的碰撞
- 应用场景: 通用型霸主 vs 超大模型专用特种兵
- 软件门槛: 低门槛的群众基础 vs 高门槛的专家利器
- 商业模式: 庞大的全行业生态 vs 垂直整合的自研闭环
如果说英伟达就像一辆豪华的全能越野车,哪里都能去,谁都能开,到处都有维修店;那么 Google 就像一辆定制的 F1 方程式赛车,只能跑赛道,赛车手才能开。大多数人买车首选 SUV(英伟达),因为方便、省心;但在争夺世界冠军的顶级赛场上,追求极致速度的车队(如 Google、xAI、Anthropic)会考虑使用 F1 赛车(TPU)。
Google TPU 能干掉英伟达吗?
照你这么说的话,Google TPU 岂不是已经成功挑战英伟达,打破了英伟达 GPU 的绝对垄断地位吗?事情没有那么简单。
1. TPU 的局限性与 Google 的双重身份 前面提到 Google TPU 极其擅长超大模型的训练/推理以及大规模推荐系统,但在通用性上,其他场景要么根本不适用,要么能效比不如英伟达 GPU。 对于 Google 庞大的产品线(YouTube、Search、Cloud)来说,对通用 GPU 的需求依然是海量的。因此,Google 一边自研 TPU,一边依然是英伟达 GPU 的全球采购大户。这一点在未来几年内都不会改变。
2. 迁移成本高昂的“生态墙” 尽管在超大模型场景下,JAX + XLA + TPU 的技术栈能取得显著优势,但这要求你必须“从零开始”就拥抱 Google 生态。 如果现有的项目是基于 PyTorch 和 CUDA 深度优化的,想要迁移到 TPU,约等于重写底层代码并进行大规模兼容性测试。这种“重起炉灶”的时间成本和工程风险,足以让绝大多数企业望而却步。
因此目前来看,Google TPU 的用户群体画像非常清晰,主要就两类:一是高校科研(科学计算),二是超大模型的训练和推理。
为什么 TPU 会有很多科学计算用户? 这是因为 Google Cloud 长期为高校科研开放免费的 TPU 资源(TPU Research Cloud),加上极度好用的 Colab 服务(免费提供 TPU/GPU 算力),在学术界圈粉无数,培养了一大批习惯 TPU 的科研生力军。
那么,超大模型领域的潜在客户呢? 我们逐一分析市面上的两类大客户:
- 大型云计算厂商: Amazon, Microsoft, Oracle 以及 CoreWeave 等新兴 GPU 云厂商。
- AI 大模型厂商: OpenAI, Anthropic, xAI, Meta 等。
大型云计算厂商(Amazon, Microsoft)本身就是 Google Cloud 的死对头,且都在自研芯片(Trainium, Maia),绝无可能去买对手的算力。而 Oracle 和 CoreWeave 早就通过深度绑定英伟达赚得盆满钵满,是英伟达的铁杆盟友。
AI 大模型厂商呢?
- OpenAI: Google Gemini 的头号宿敌,微软的盟友,不可能用 TPU。
- xAI: 马斯克与 Google 积怨已久,且正通过特斯拉和 xAI 构建自己的超算集群。
- Meta: 回到开头的新闻,Meta 是个超级大户。虽然传闻在谈,但 Meta 也是 Google 广告业务的直接对手。扎克伯格目前手握全球最大规模的 H100 集群之一,并且 Meta 正在积极迭代自研芯片 MTIA。虽然他们不搞公有云,但为了战略安全和技术自主,Meta 不太可能全面依赖 Google 的 TPU,最多是作为补充或谈判筹码。
- Anthropic: 剩下的只有它了。Google 是 Anthropic 的大金主,所以 Anthropic 使用 TPU 是顺理成章的。
盘算下来,TPU 的外部大客户其实寥寥无几。 这点体量,完全不足以对英伟达的统治地位构成“颠覆性”冲击。 因此,Google 最明智的策略依然是:在 Google Cloud 上提供极致性价比的 TPU 服务,用“省钱”和“能效”从其他云厂商口中抢肉吃,而不是想着彻底干掉英伟达。
如果 Google 非要“头铁”,下场卖 TPU 芯片抢市场呢? 我认为这极其不明智:
- 供应链与利润结构: TPU 是 Google 与博通(Broadcom)合作设计的 ASIC。如果对外售卖,不仅涉及复杂的供应链管理,还要分润给博通,这会拉低硬件毛利。卖贵了,打不过英伟达;卖便宜了,除去博通的成本,Google 图什么?
- 客户池太浅: 如前所述,愿意买 TPU 且不与 Google 构成直接竞争的大客户极少。
- 田忌赛马的反面: 用自己公司的“内部工具/副业”去硬拼英伟达赖以生存的“主业”,胜算能有多高?
- 最后,也是最关键的宏观背景: 目前全球 AI 数据中心市场正处于“短缺经济”时代。不仅 GPU 缺,HBM 内存、CoWoS 封装产能、电力、甚至建设数据中心的土地都极度紧缺。虽然各大科技巨头的资本支出(Capex)已经高得吓人,但面对爆炸性的业务需求,供给依然不够。微软今年初曾试图下调资本支出,结果发现需求太猛,转头又开始疯狂追加投入。
在一个供不应求的增量市场里,无论你填进去多少算力(无论是 GPU 还是 TPU),都会被瞬间吃干抹净。英伟达的 GPU 和 Google 的 TPU 目前仍处于“各自跑马圈地”的阶段,而非“你死我活”的零和博弈。
我的结论:
Google TPU 对英伟达确实有冲击,但不必过度恐慌。 从长期看,Google TPU 的存在更像是一个强有力的“议价筹码”。当大客户有了备胎(TPU 或自研芯片),英伟达就很难长期维持如今夸张的 75% 利润率。
英伟达未来的市场份额确实会受影响,主要来自:
- Google 自身业务(搜索、推荐、Gemini)更多转向 TPU,减少购买 GPU;
- Google Cloud 的深度合作伙伴(如 Anthropic)减少购买 GPU。 这可能会导致英伟达在数据中心的市占率从 90%+ 缓慢回落到 75%-80% 左右,但这并不改变其商业逻辑的本质。
这就像当年的 PC 市场: 苹果 Macintosh 电脑的崛起虽然让 Windows 的市占率有所下降,但并没有终结 Windows 的垄断。真正终结 Windows 霸权时代的,不是 Mac,而是智能手机的兴起。 同理,Google TPU 干不掉英伟达。真正能干掉英伟达的,只能是下一代计算范式的彻底变革。
Google 的成功是不可复制的
好吧,虽然你说的很有道理,但是 Google 能干成全栈自研,尝到了甜头的其他巨头岂不是会纷纷效仿吗?Amazon,Microsoft,Meta,OpenAI 这几个英伟达的头部大客户都在自研 ASIC 芯片,将来他们都减少了对英伟达芯片的采购,英伟达不是要喝西北风了?
我的观点就是:Google 的成功是不可复制的。
Google 的技术栈能够成功,综合了以下几个不可或缺的因素,而这恰恰是微软、Meta 和亚马逊所不具备的:
1. 十年的时间壁垒(Time & Iteration)
芯片设计不是搭积木,它需要漫长的迭代周期。 Google 早在 2013-2014 年就开始秘密研发 TPU,2016 年 AlphaGo 击败李世石震惊世界时,背后就是 TPU v1 在提供算力。
当微软在 2023 年才匆忙推出 Maia 100 时,Google 的 TPU 已经迭代到了第 6 代甚至第 7 代。
这 10 年间踩过的坑、修复的 Bug、积累的制程经验、以及对散热和互联架构的微调,绝非其他公司靠“砸钱”就能在两三年内追平的。在硅基世界里,经验值就是良率,就是能效比。
2. 真正全栈的“软硬一体”的垂直整合掌控力(Full-Stack Control)
这是 Google 最可怕的地方,也是其他巨头最大的软肋。
Google 拥有整个链条: 硬件(TPU)+ 编译器(XLA)+ 框架(JAX)+ 模型(Gemini)。Google 的科学家 Jeff Dean 可以让设计 Gemini 的算法团队直接坐在设计 TPU 的硬件团队对面,告诉他们:“我们需要一个特定的指令集来加速这个算子。”这种协同效应是核爆级的。
反观微软/Meta: 微软虽然造了 Maia 芯片,但它上面的软件栈主要依赖 OpenAI,而 OpenAI 和整个业界主流依赖的是 PyTorch。PyTorch 的亲爹是 Meta,但 PyTorch 对英伟达 GPU 的优化是刻在基因里的。
微软想要 Maia 好用,就得去魔改 PyTorch 底层,或者指望 OpenAI 为了适配 Maia 去重写代码。这中间不仅隔着公司墙,还隔着巨大的技术债务。
只要 PyTorch 依然是业界标准,其他自研芯片就永远是在“模拟”或“适配”英伟达,而 Google 是在玩一套完全独立的游戏规则。
3. 极其特殊的“光互联”基础设施(OCS Infrastructure)
前面提到的 OCS(光路交换)技术,是 Google 数据中心的独门绝技。 Google 为了适配 TPU 的大规模互联,甚至重新设计了数据中心的物理布线和机柜架构。这种光互联技术允许 TPU 节点之间以极低的延迟和功耗进行动态重组。 其他云厂商的数据中心是基于标准以太网架构建设的,想要复刻 Google 这套“光互联”网络,意味着要推翻现有的数据中心物理架构,这个沉没成本是天文数字。
4. 无法比拟的内部“吞吐量”(Internal Workload)
在生成式 AI 爆发之前,Google 就拥有地球上最庞大的 AI 推荐系统——Google Search、YouTube 推荐算法和 Google Ads。
这些业务每天产生数以亿计的并发请求,为 TPU 提供了天然的、海量的“练兵场”。
即便没有外部客户买单,Google 自己的业务就能消化掉 TPU 的产能。这让 Google 敢于在 TPU 早期性能不完善时,强行在内部推广(Dogfooding),通过海量真实数据把芯片“磨”出来。
相比之下,Meta 虽然有推荐算法需求,但起步晚且早期全押注 GPU;微软的 Azure 主要是卖资源给客户,如果自研芯片不好用,客户会直接用脚投票切回英伟达。
英伟达更像 AI 时代英特尔
著名电影《大空投》原型 Michael Burry 曾暗示英伟达正处于类似互联网泡沫时期的境地,不少看空者也认为英伟达与 OpenAI 之间相互投资和采购的关系,吹起了一个巨大的估值泡沫。他们认为一旦泡沫破裂,英伟达就会像 2000 年的 Cisco(思科)一样,股价暴跌 80% 以上。
但我认为,当下的英伟达并不像当年的 Cisco,而更像 PC 黄金时代的 Intel。 Intel 的股价腾飞始于 1993 年,于 2000 年触顶,随后经历了漫长的震荡与调整。 回顾那段历史,我们可以发现惊人的相似性:
- 1993 年之前(群雄逐鹿): PC 的 CPU 市场处于混战时代,各路架构互不相让。
- 1993 年(霸主确立): Intel 推出奔腾(Pentium)处理器,凭借强悍的性能一举确立了 CPU 市场的统治地位。
- 1995 年(杀手级应用爆发): 微软推出 Windows 95,图形界面的革命引发了全球性的 PC 换机潮。受此驱动,Intel 的股价在 1996 年迎来了极高斜率的上涨。
- 2000 年(盛极而衰): Intel 股价在 2000 年见顶,随后狂跌。这背后既有互联网泡沫破灭的宏观原因,也有 PC 市场渗透率见顶的因素。同时,Intel 在技术路线上遭遇了 AMD 速龙(Athlon)处理器的强力挑战,且在后续的 64 位指令集之争中(安腾项目)犯了严重的战略错误。
2022 年 ChatGPT 的横空出世,就是 AI 时代的 "Windows 95 时刻",它极大刺激了全行业对于算力基础设施的升级换代。借助这股 AI 浪潮,英伟达正在狂飙突进。现在的英伟达,像极了 1997 年处于巅峰缓慢爬升期的 Intel。
我相信,在未来几年的 AI 算力市场将呈现“一超一强多级”的格局:
- 英伟达(The Generalist King): 依然是绝对的“一超”。它占据 75%-80% 的市场份额,服务于所有追求通用性、追求开发效率、追求 Time-to-market 的企业。所有的初创公司、大部分云客户、以及需要频繁试错的模型团队,依然只能选英伟达。
- Google TPU(The Specialized Powerhouse): 它是那个“特种部队”。它守住 Google 自己的万亿帝国,并在超大模型训练这一垂直领域,成为唯一能跟英伟达叫板的“异类”。
- 其他自研芯片和 AMD(AWS Trainium, MS Maia, Meta MTIA): 它们更多是“成本调节器”。它们会被用于处理那些负载稳定、算法成熟的推理任务(比如每天运行几亿次的简单推荐或聊天机器人推理)。巨头们用它来通过简单的替代降低运营成本,也就是所谓的“省钱芯片”,但很难承担起“探索下一代 AI 前沿”的重任。
Google 的王者归来:全栈自研的胜利
2022 年底 ChatGPT 的横空出世,曾让 Google 这位 AI 领域的先行者显得黯淡无光。然而,站在 2025 年底的今天回望,Google 的表现足以让人刮目相看。
目前的 Google,是全球唯一一家真正实现了AI 全栈自研、软硬件垂直整合的头部厂商。这种整合优势正在形成巨大的飞轮效应:
- 算力底座: 在硬件层面,Google 利用 TPU 大规模集群高效实现了 Gemini 3 模型的训练和推理,摆脱了对外部 GPU 的依赖。
- 生态闭环: 通过多年的技术积累,打造了难以复制的软硬件一体化技术栈生态:JAX / XLA / TPU,极大地提升了研发效率。
- 云端优势: Google Cloud 虽然在市场份额上仍居 Amazon 和 Microsoft 之后,但增速惊人。更重要的是,得益于自研芯片,其 TPU 的租赁费用相比 GPU 拥有显著的价格优势,这对初创公司极具吸引力。
- 模型与成本:Gemini 3 在多项基准测试中已完全不输 GPT-5.1,甚至在长上下文和多模态理解上有所超越。基于自有云和芯片的成本优势,Gemini 能够提供更具竞争力的 API 调用价格,这种“低成本高智能”的反向优势正在快速抢占开发者市场。
- 产品矩阵全面开花:
1. NotebookLM 已成为“杀手级”的 AI 知识库和学习工具,深受科研与教育用户喜爱。
2. 多模态创作: Gemini 现已深度整合 Veo(视频生成)和 Imagen(图像生成),用户可在一个工作流中完成复杂的创作任务。
3. 搜索进化: Google Search 全面推出了 AI Overviews,成功将传统搜索与 AI 问答无缝整合。
4. 交互创新: 最新推出的生成式 UI (Generative UI) 更是令人惊艳,根据用户意图实时生成交互界面。
关键在于,Google 形成了一个从芯片、基础设施、模型到应用产品的完整闭环,各环节还能互相加强。这就好比 Google 一家公司独自完成了“英伟达 + 微软 + OpenAI”三家公司的工作。再加上 Google 全球数十亿的用户基数,以及 Chrome 浏览器和 Android 移动端两大核心入口,其上限不可估量。
为何半年前股价低迷、备受质疑的 Google,能在这半年实现逆袭?
此前市场看衰 Google,主要基于以下隐忧:
- 商业模式挑战: Google Search 靠竞价排名赚钱,市场担心 AI 问答范式会彻底颠覆这一现金牛。
- 大公司病与人才流失: 尽管 AI 大模型的基石——Transformer 论文是 Google 于 2017 年发表的,但果实却被 OpenAI 摘取。CEO Sundar Pichai 被认为过于稳健,缺乏魄力;内部 DeepMind 和 Google Brain 两个顶尖团队曾各自为战,内耗严重,导致许多论文作者离职。
- 模型落后: 在 Gemini 2.5 发布之前,Google 长期被 OpenAI 的 GPT 系列压制,甚至一度不如 Anthropic 的 Claude,面临在 AI 时代掉队的风险。
但在过去两年,Google 成功扭转了局势:
- 搜索护城河依然稳固: 事实证明,Google Search 并未被轻易颠覆,反而通过集成 AI 变得更强。用户在多轮对话中不仅有明确的个性化需求,AI 还能更精准地推荐个性化的产品与服务。广告业务被 AI 范式颠覆的风险被大大高估了。
- 组织架构重塑: 2023 年起,创始人 Sergey Brin 回归一线,深度参与模型开发。Google 将原本竞争的两个 AI 团队合并为 Google DeepMind,由 Demis Hassabis 挂帅。这一举措成功消除了内耗,重新激活了团队的创新力。
- 模型反超:Gemini 3 Pro 如今展现出后来居上的态势,不仅在性能上反超 GPT-5.1,市场占有率也稳步攀升。攻守之势异也,现在压力来到了 OpenAI 一方。
归根结底,AI 时代的核心竞争点依然是谁能做出最强的大模型。
如果 Gemini 弱,Google 的生态优势无从发挥;一旦 Gemini 领先,Google 强大的全栈整合能力就会瞬间爆发,形成降维打击。
最后我想说,英伟达是算力时代的‘卖水人’,而 Google 是全栈 AI 的‘领航员’。它们都是伟大的公司,对于投资者来说,与其在非此即彼的零和博弈中焦虑,不如看到它们各自不可替代的价值——这两者都值得你们同时拥有。
#AI产业 #大模型 #AI基础设施 #GPU #Gemini #TPU #JAX #XLA #CUDA #谷歌 #英伟达 December 12, 2025
69RP
テックの女王キャシーウッド率いるARKの対談ポッドキャスト「AIバブル論」への回答
-----
まだバブルではない。むしろ95年のインターネット初期に近い
基盤モデル企業の売上はすでに4.5兆円に達しつつあり、マネタイズ速度はインターネットバブル時代より遥かに速い。「トラフィックだけで収益はそのうち」ではなく「利用とマネタイズが同時」に進んでいる点が根本的に違う。
今のAIは19〜20世紀の「内燃機関+電話+電力」の時代に匹敵する、かそれ以上の技術革命だ。ARCの見立てでは今後10年程度で世界の実質GDP成長率は5〜8%へ加速する可能性がある。
OpenAIの27年売上予測15兆円を前提にすれば、仮に時価総額1兆ドルでもPSR10倍程度でバブルとは言えない。
基盤モデルは、Google/OpenAI/Anthropic/xAIの4社が事実上の寡占状態で、大規模CAPEXに耐える「大企業ゲーム」になりつつある。
その上のPaaS・アプリ層には、垂直特化型のスタートアップが無数に生まれる余地がある。Windowsの上でアプリが爆発的に増えたのと同じ構図。
若い世代にとっては、AIツールを使った「一人起業」のコストが急降下しており、失業期間をAI学習と起業の準備に充てるべきだ。プロンプトとコーディングを学びながら、小さなビジネスをAIと一緒に組み立てていく時代になっている。 December 12, 2025
7RP
ご教示賜りありがとうございます。
骨太方針とかCAPEX促進とかの具体的なマクロ経済対策とか、GXDX先端技術宇宙AI促進や新しい資本主義の継承とか、サイバー対策や防衛力の強化とか、外国人共生社会のロードマップ作成とか、こんなのやっても能動的な政策じゃないから役立たずですよね、石破内閣。 https://t.co/gCXOwDpjyg December 12, 2025
6RP
建設セクターの年初来の“序列”。
これは施工順ではなく、
収益性と構造成長の強さ がそのまま株価に出ていると理解しています。
🔵 大手ゼネコン:粗利改善+大型案件
🔵 電気工事:AI・DC・送配電投資の恩恵
🟡 空調工事:連動するが伸びは中位
🔴 通信工事:通信CAPEXの弱さが重荷
建設セクターも“勝ち組と負け組”がはっきりしてきた感じです。 December 12, 2025
6RP
エンロンのマーク・トゥ・マーケット会計を覚えている?
いま、あるスライドを見た人たちが「TSMC の設備投資(Capex)が、Nvidia の提示している納入予測に全く追いついていない」と気づいたらしい。そして私は、その人たちが次に気づく瞬間を楽しみにしている。
──つまり、TSMC の生産量を確認すると、Nvidia がここ何四半期も報告してきた GPU の売上と全く整合しない という事実だ。
ヒントを挙げると、これまで Nvidia が**「台湾向け売上」**として計上してきた数字をよく見ると、そこには非常におかしな点があることが分かるはずだ。
さらに、@kakashiii111 氏が何度も指摘しているように、台湾政府の公開している半導体輸出データは、実際の出荷量と Nvidia が報告している数字の間に、ますます大きな乖離が生じていることを示している。 December 12, 2025
4RP
I/O Fund ベス・キンディグ「なぜ $NVDA は2030年までに時価総額20兆ドル(今の4.5倍)に達する可能性があるのか?」
・Beth Kindig は、NVIDIA が 2030年に時価総額20兆ドルへ到達する “現実的な道筋” があると主張している。
・同社のデータセンター部門が 年平均36%成長(CAGR) を続ければ、年間 約9,300億ドル の売上となり、NVIDIA の5年中央値である 25倍PS を適用すると20兆ドルに達する計算。
・AI インフラへの世界的な設備投資(CapEx)が急拡大しており、2025年の4,050億ドル → 2030年に1.5兆ドル 規模へ到達する可能性が高い。
・NVIDIA のシェア取り(現在AI CapEx の約50%獲得)を考えると、この急成長と整合的。
・NVIDIA は GPU世代の更新を12〜18ヶ月に短縮 する超高速ロードマップを採用し、Blackwell → Rubin → Rubin Ultra → Feynman と “毎年新アーキテクチャを投入”。
・この高速サイクルは、Big Tech の カスタムシリコン(3〜5年周期) では追従が難しく、CUDA を中心とした “ソフト+ハードの堀” がさらに強固になる。
・Jensen Huang は、Blackwell と Rubin で2年間に5,000億ドルの受注可視化 があると発言。Hopper 世代の生涯売上 1,000億ドルの 5倍に相当。
・この規模の受注可視化に対し、アナリストの2026-27年の売上予想はまだ慎重で、コンセンサスは過小評価 と指摘。
・GPU クラスターは 10K → 100K → 数十万へと急拡大しており、Microsoft や xAI(Colossus 2)などが超大型クラスターを建設中。
・大手ハイパースケーラーの CapEx は 前年比75%増 と急上昇し、今後も予想を大きく上回る形で引き上げられている。
・OpenAI との “最大10GWのGPU契約” や、Microsoft の GB300を20万台規模で契約 など、NVIDIA 向けの巨大案件が次々と出てきている。
・これら大型契約だけで、OpenAI 分だけでも 3,000〜5,000億ドルの売上 になる可能性がある。
・AI インフラ投資は GDP 比でも過去の大型イノベーション(鉄道・通信・PC)に比べまだ低く、“過小投資状態” にあるとの分析。
・NVIDIA のデータセンター部門は Hopper → Blackwell/Rubin で 5倍の成長 が見込まれ、2030年までにさらに 3倍 の積み増しが必要なだけと算出。
・総合的に見て、AI インフラ史上最大の設備投資サイクル が始まったばかりで、NVIDIA はその中心に位置する。
・Beth の結論:NVIDIA の2030年時価総額20兆ドルは“過激ではなく整合的”となりつつある。
Why Nvidia Stock Could Reach a Trillion Market Cap by 2030 https://t.co/w5NsellYiu December 12, 2025
4RP
OpenAIが行き詰まった場合、それは単なる「一企業の失敗」にとどまらず、AIバブル崩壊のトリガーとして関連企業の株価と戦略に壊滅的な打撃を与える可能性があります。
特に2025年後半の動きとして、各社はOpenAIへの依存度を極限まで高める(またはそのリスクに気づきヘッジする)動きを見せており、その明暗は分かれます。
### 1. ソフトバンクグループ(SBG)
**【最大級の被害者:WeWorkの再来】**
2025年10月、孫正義氏はOpenAIに対し追加で約225億ドル(約3.4兆円)の出資を承認し、累計投資額を300億ドル(約4.5兆円)規模に引き上げる決定をしたと報じられています。
* **財務的打撃:** OpenAIがコケれば、この巨額投資が瞬時に毀損します。WeWorkの失敗を遥かに超える規模の損失となり、SBGの財務は再び危機的状況に陥ります。
* **戦略崩壊:** 孫氏は「AI革命」の勝者となるためにOpenAIをポートフォリオの中核に据えました。この前提が崩れると、Armを含めたAI半導体エコシステム全体の成長シナリオ(AIが全てを支配する未来)に疑問符がつきます。
### 2. Oracle(オラクル)
**【連鎖倒産リスク:実需の消失】**
Oracleの株価急騰は、OpenAIからの将来のコミットメント(受注残)に支えられています。両社は4.5ギガワット(原発4〜5基分)規模のデータセンター構築で合意していますが、これには数兆円規模の投資が必要です。
* **売上の蒸発:** アナリストは「Oracleの受注残の半分近くがOpenAI一社に依存しているのではないか」と警戒しています。OpenAIが支払不能になれば、Oracleの成長見通しは「幻」となり、株価は暴落する恐れがあります。
### 3. Microsoft(マイクロソフト)
**【ダメージコントロール済み:見切りと自立】**
Microsoftは最大の出資者ですが、2025年にはOpenAIへの依存リスクを認識し、したたかな「脱・OpenAI依存」を進めています。
* **プランBの発動:** すでにMustafa Suleyman(DeepMind共同創業者)を引き抜き、社内で「MAI-1」などの独自モデル開発を急ピッチで進めています。
* **インフラの切り離し:** OpenAIとの契約を見直し、MicrosoftがOpenAI以外のモデル(Claudeや自社モデル)をAzureで自由に提供できる体制を整えています。
* **結論:** 130億ドル以上の投資は痛手ですが、OpenAIが倒れればその技術や人材を安値で吸収し、自社製品に統合する「漁夫の利」を得る可能性すらあります。
### 4. NVIDIA(エヌビディア)
**【バブルの終焉:神話の崩壊】**
OpenAIはNVIDIA製GPUを最も購入し、最も宣伝してくれる「広告塔」です。
* **Capex(設備投資)の停止:** 「OpenAIですら儲からないなら、巨額のGPU投資は無駄だ」という空気が広がれば、MetaやAmazonなど他のテック大手も一斉にGPU購入を控えます。
* **在庫の山:** 需要が蒸発すれば、高利益率を誇ったH100/B200チップの価格が暴落し、NVIDIAの空前の利益率は維持できなくなります。
### まとめ:ドミノ倒しの順序
OpenAIがGeminiに敗北し資金調達に失敗すると、以下のような連鎖(負のスパイラル)が予想されます。
1. **OpenAIの支払遅延:** Oracleへのインフラ支払いが滞る。
2. **Oracleショック:** クラウド成長神話が崩れ、株価急落。
3. **NVIDIAへの波及:** 「AI設備投資は回収不能」との見方が定着し、半導体市況が悪化。
4. **SBGの巨額損失:** 評価損を計上し、孫氏の投資戦略が再び批判される。
5. **Microsoftの独り勝ち(?):** 傷を負いつつも、AIインフラ(Azure)と代替モデルを持つMicrosoftだけが、焼け野原に残ったシェアをGoogleと分け合う。
「Geminiショック」はOpenAI一社の問題ではなく、OpenAIの成長を前提に組み立てられた**「2025年のAI経済圏」そのものの崩壊**を意味します。
---
アタシにはあり得る世界線と読めたけど、皆さんはどうかしら? December 12, 2025
4RP
再開発資金を確保したかった小田急、多額のリノベCAPEXかけてバリューアップで売り抜けたかったKKR、リノベ後の物件が欲しかったジャパンホテルリート、三方よしのディールに見えるけどなぁ。 https://t.co/JxIgJDPkDs December 12, 2025
3RP
Googleのインフラ部門で話された発言を知ってる?
「半年ごとにAIの計算能力を倍増させ、4〜5年で1000倍にする」
多くの者は「不可能だ」と嘲笑うだろう。だが、これはシリコンバレーの中心であった発言で現実の目標だ。
これは単なる目標値ではない。Googleが要求するペースは、ムーアの法則の4倍の速度に達する。
なぜ、これほどの狂気が求められるのか。
理由は一つ。AIが単なる「道具」から、自律的に労働を行う「エージェント(労働者)」へと進化するための、物理的な入場料だからだ。AIが自律的かつ安価に機能するためには、既存のインフラでは到底まかなえない、圧倒的な計算資源が必要となる。
Googleはこの行為を「知能の工業化」と呼んでいる。かつて電気や石油がそうであったように、「知能」を安価で、どこにでもあるコモディティ(汎用品)にしようとしているのだ。
そのために Google が投じる「物理的な力」は桁違いである。
年間900億ドル超という巨額投資。
原発再稼働までも視野に入れたエネルギー戦略。
NVIDIA依存を脱するための独自のTPU開発。
この巨額の設備投資(CapEx)のほとんどは、データセンターとAIチップの調達・構築に充てられる。目指すのは、単純な拡張ではない。「同じコスト・電力レベルで1000倍の能力」を実現するための、圧倒的な効率化への投資だ。効率こそが、AI戦争の勝敗を決する。
計算能力を1000倍にするということは、電力消費の爆発的な増加を意味する。利益率を維持し、持続可能であるためには、安定した超大容量の電力供給が不可欠だ。
Googleは、データセンターの近くで24時間稼働する安定電源を確保するため、原発や大規模な水力発電ダムの改修にまでコミットし始めている。AIは、世界のエネルギー政策まで変えるほどの飢餓を抱えている。
この「1000倍の世界」が実現すると、私たちの仕事は根本から変わる。現在のAIは「質問に答えるツール」に過ぎないが、1000倍の世界では、自律的にタスクを完了するAIエージェントが大量発生する。
これは「AIブーム」の次のフェーズ、「知能のコモディティ化」の始まりだ。「知能」が、水道や電気のように、スイッチ一つで使えるインフラとなる。
今日の「AIブーム」は、この巨大なインフラを構築するための、単なる「準備運動」に過ぎなかった。Googleは、競争相手ではなく、物理的な制約と戦っている。彼らにとって、これは企業としての「生存競争」なのだ。
半年で2倍、5年で1000倍。このペースは、世界の構造を不可逆的に変える。
↓↓ December 12, 2025
3RP
✅ 「.4B Shell Game」はフェイクニュースだと考える根拠
—
⚠️ 結論:(少し辛口ですが)この投稿は「米国会計をよく知らない人向けのホラー小説」
ー
ほぼ、100%間違いなくフェイクニュース/センセーショナルな誤情報です。根拠は……
👇
その前に、自分のポストを読み直してみると、
「フェイクニュースの構文分解」というか、
フェイクニュースの作り方そのものの解説みたいな構造になっていました😅
まず、ポスト主は、
1、米国の会計に詳しくない読者を前提にし、
2、読者が自分で決算書を確認しないことを前提に、
投稿を組み立てているように見えます。
以下のような組み立てになっていました。
・実際には存在しない会計ルールを「あるかのように」書く
・本物の数字に混ぜて、意図的に誤った数字を散りばめる
・因果関係が逆の事例を、あたかも因果があるかのように並べる
・OpenAI への大型投資計画を、今回の決算(Q3 FY2026)に含まれているかのように誤読させる構造にする
もちろん皆さんご存じのとおり、
OpenAI への出資はまだ1円も実行されておらず、今回の決算には一切入っていません。入るはずもありません。
そして、こうした仕掛けにもう一つ決定的なトリガーがあります。
専門用語が出てくると、人は「自分にはわからない何かを見抜かれているのかも」と錯覚しやすい。
ここを突かれると、内容が正しいかどうかよりも、
「難しそうだから正しそう」に脳がバイアスをかけてしまいそうです。
こうした 「偽の前提」と 「専門用語の権威づけ」に、
「誰も気づいてない」と優越感を与える演出が合わさると、
「真実風のフィクション」が完成してしまう。
はっきり言って、
NVIDIA の決算そのものとは完全に無関係です。真偽の比較も入れておきます。
今回、たぬきはすごく勉強になりました。
フェイクニュースの作り方と構造が、めっちゃ理解できた🤭
本文はいつもながら長くなったのでサマリーを。
サマリーの後にしっかり長めのを置いておきますね🤭
👇
✅ サマリー
NVIDIAが「.4Bの詐欺」「40日後に崩壊」ってポストがバズってるけど…
結論:ほぼ100%フェイクニュースです。
決算数字を都合よく歪めて「Nortelと同じ!」と煽ってるだけ。
✔︎ 在庫について:
・売掛金33.4B→本当
・在庫19.8B→本当
でも在庫増は、Blackwell/Hopper向けの意図的積み増し
⚠️ CEOも説明済み→ここを書いていない
—
✔︎ DSO(Days Sales Outstanding=売掛金回転日数)について:
「売掛金が60日超えたらGAAPで減損」という主張は完全にウソ。
GAAPには「日数で強制減損」というルールは存在しません。
減損は 「回収不能と判断される場合」にだけ行われます。
※ GAAPとは:簡単にいうと会計ルールブックみたいなもの。詳細は本文👇に記載しています☺️
DSO53日はテック企業ではむしろ普通。
さらに、顧客はMS/Google/Meta(信用格付け最上級クラスのキャッシュモンスター)。
回収不能になる可能性は実質ゼロに近い。
⚠️ 投稿では
『売掛金60日超=GAAP減損』
と書いていますが、調べたところそんなルールはありません。
少し会計を知っている人ほど「そういう基準があるのね」と誤解させられる危険な内容です。
大丈夫なのでしょうか、こんな嘘をポストして。100%嘘と言い切れます。
あと、MS/Google/Metaから回収不能になったら、どんな株を買ってても終わりです。
核戦争が勃発したときに、何を買いますか?と言っているようなものです。
テールリスクすぎて(会計的にも金融工学的にも)議論にならん。
※ テールリスクとは:
めったに起きないけど、起きたらとんでもない損害になる「超低確率の極端イベント」
—
✔︎ 「循環融資で偽収益」→証拠ゼロ
NVIDIAのスタートアップ投資は売上の1%未満。
OCF/純利益比率も、最近の数四半期平均で80〜90%と健全。
投稿は「75%だけ」を抜き出した誤解誘導。ミスリード。
Nortel/Lucentは、無担保融資・延滞多数・粉飾疑惑・巨額のれん減損が重なった特殊ケースで、NVIDIAとは構造が全く違う。
⚠️ ポストでは、本当の数字の中にちょこちょこ嘘の数字を混ぜている。騙される人多そう。
さらに、Nortel/Lucentの全く別のケースを混ぜている。
空売りファンドがよく使う手段。
—
✔︎ 投稿主@shanaka86について
投稿主は「AIバブル崩壊・巨大詐欺」系の煽りタイトルを繰り返すスタイルのアカウント。
⚠️ 結論:この投稿は、「米国会計の基礎を誤読した煽りコンテンツ」です。
—
サマリーは以上です。
さて、もうお腹いっぱいかもですが、
本文は以下に置いておきますね☺️
長いので気になる方だけ……
👇
—
本文
✅ 「.4B Shell Game」はフェイクニュースだと考える根拠
⚠️ 結論:(少し辛口ですが)この投稿は「米国会計をよく知らない人向けのホラー小説」です。
書いていることの大半は
「会計概念の誤用」と、
「恣意的な数字の並べ方」
NVIDIAの決算を追っている機関投資家・会計士は誰もこんな解釈はできません(あまり前ですが)。
なぜか?
数字の比較方法・会計科目の読み方が全部間違っているから。
元ポストの主(海外の方)は、会計に精通している方だと思うので、
わざと誤読して、不安に誘導しているのだと思われます。
⸻
🟥1、DSO(売上債権回転日数)が「53日は危険」は完全な誤り
「DSOが46→53日になった → 7日分=10.4Bの偽売上」
これは会計の基本を理解してない。
・ 大企業のDSO 50〜70日なんて普通
・ NVIDIAはFY2024〜25の四半期で受注と出荷のタイミングがズレているだけ
・ チャネル在庫調整や供給制約があればDSOは普通に上下する
・ 7日伸びた → 10Bが偽売上という計算ロジックが存在しない
⚠️ DSOの数日変動で「偽売上」と言うなら、
アマゾンやアップルも毎四半期「詐欺」になってしまう。
⸻
🟥2、「売掛金が増えた=循環売上の証拠」は完全な誤読
Accounts receivable: .4B (doubled)
半分以上が以下:
・大規模クラウド向けの長期契約の未収計上
・出荷タイミングのズレ
・プロジェクト単位の請求サイト差
さらに、NVIDIAはクラウド向けAI契約が
超巨大1案件単位で動くので、売掛金が跳ねるのは普通。
⚠️ そして決算書の注記にも出ているけど、
売掛金のうち延滞は非常に少ない。
延滞率は実質ゼロに近い水準(0.01%未満)と読むのが自然です。
根拠:
• Aging Schedule(売掛金の満期別内訳):
10-Qに延滞に関する追加注記がない
→ SECルール上、延滞債権が有意なら必ず注記されるため、「延滞や問題が一切ない」と読むのが会計士の一般的解釈です。
(SECルールで過去90日超の延滞があれば強制開示義務あり)
当然ですが、SECはGAAPより上位です。
GAAP = ルールブック
SEC = ルールブックを作らせ、守らせる国家権限
• 主要顧客:売掛金の17%と16%を占める2社(ほぼ確実にMicrosoft/Meta/Google/Amazonなどの最高レベルの格付け企業)
・ NVIDIAの10-Qに「延滞債権・回収懸念」の開示が一切ない
つまり、「延滞が有意に存在しない」という意味。
これは会計士・アナリストの間での「常識的読み方」でして、
たぬきの感想ではありません☺️
公式10-Q PDF(最新):https://t.co/KLmdka4ggM
⸻
🟥3、NVIDIAは「AIスタートアップに投資→その会社がAWSでチップ購入」という「循環スキーム」を取っているのか?
投稿者が提示しているストーリー:
スタートアップに投資
→ その金でクラウド課金
→ クラウドがNVIDIAに支払い
→ 売上循環(偽収益)
これは一般論としては完全にフィクションです。
実際のNVIDIAの投資先は:
・Arm系半導体
・自動運転
・ロボティクス
・AIソフト
・🔥 例外的に「将来的に最大1000億ドル投資計画」というニュースが出たOpenAIがあるものの、まだ実行されていません。
ここだけ誤解されやすいので補足します。
2025年9月に
「NVIDIAがOpenAIに最大1000億ドル投資」という発表がありましたが、
・まだ1円も実行されていない
・最終契約も未締結(10-Qに明記)
・実行開始は2026年後半以降
・🔥 現時点の売掛金33.4Bとは、タイミングも取引相手も「完全に無関係」です
つまり:
⚠️ 「OpenAIの投資で循環している」は
現時点では事実ではありません。
さらに、売掛金の大半は
・Microsoft
・Meta
・Amazon
など、NVIDIAよりはるかに巨大で自前キャッシュを潤沢に持つ企業が占めています。
これらはNVIDIAから資金提供を受ける必要は一切なく、
クラウド代を支払うための「資金循環スキーム」なんてものは存在していません。
🔥 深呼吸して少し考えたら、「そりゃそうだ」ってなると思うんですよね
✔︎ 最終ポイント
OpenAIの件だけ「見た目は似ている」部分があるため、
ベア論者が利用しているだけと言えます。
しかし、
・🔥 投資未実行
・契約未締結
・売掛金の主要因ではない
・🔥 実際に循環は起きていない
・業界では一般的なベンダーファイナンス
これらを踏まえると、投稿の主張
「NVIDIAは資金を回して偽売上を作っている」
これは現段階で、根拠ゼロの誇張です。
⸻
🟥4、「在庫が増えた=需要偽装」は完全に論理破綻
Inventory: .8B(増加 → 需要偽装)
結論は「逆」で、これは完全にミスリードです。
これも本当に良くない説明だと思います😮💨
公式決算資料(10-Kや10-Q)および、
決算カンファレンスコールでは、
在庫の大部分は完成品(Finished Goods)ではなく、原材料(Raw Materials)と仕掛品(Work in Process)であると明記・説明されています。
……H200の供給能力増強(新工場立ち上げ・パッケージング能力拡大)
GB200(次世代)への切り替え準備
ブラックウェルへのリレー生産
⚠️ NVIDIAの在庫は「完成品」ではなく:
・ 現在生産中のWIP(仕掛品)
・ コア部材(HBM・CoWoS)
・ 次期チップの立ち上げ前倒し
だから「完成品の滞留」ではない。
TSMCのCapExやCoWoS能力の増強と照らせば、この在庫増は「生産拡大の裏返し」だと一目で分かります。
むしろ投資家は、この在庫増加を「生産能力強化の裏付け」としてポジティブに見ています(という記事が多い)。
どうでも良い話ですが、
先日、たぬきはTSMCに行ってきたのは、この件とは全く無関係です🤭
……🤭
……🤭
⸻
🟥4、「クラウド commitments が増えた=詐欺」も誤解
クラウド各社は:
・AIデータセンターを「数十億ドル」単位で長期契約
・その「合意済み枠」をコミットメントとして計上
⚠️ これはクラウド業界では一般的で、会計上も標準的な処理です(SECも問題視する対象ではありませんし、事実、過去もしていない)。
これを「循環取引」と読むのは完全な陰謀論。
いくはなんでも、無理がある😮💨
⸻
🟥7、「キャッシュフローが75%→ 25%偽売上」も誤り
SaaS企業含むテック大企業は:
・CAPEX急増
・ 在庫積み増し
・ 受注前倒し
・ 生産投資
などで 営業CF<純利益 は、
普通に何度も発生します。
⚠️ しかもNVIDIAの営業CFは前年から大幅増で、
「偽売上」の兆候(延滞・償却増・貸倒引当増)は一切ない。
⸻
🟥7、「2026年に破綻」は完全に作り話
GAAPの60日ルールとか書いてあるけど、
サマリーでも触れましたが、
「GAAPに60日ルールがある」という主張自体が事実ではありません
そんなルールは存在しないんですよね😮💨
これは完全な誤情報です。
・ GAAPは「延滞記録」で評価するが、「日数XXで破綻確定」なんてない
・大規模B2B契約は60〜120日決済も普通
・NVIDIAの売掛金は延滞がほぼゼロ(=最上級クラスの格付けの信用企業。キャッシュモンスター企業)
※ 前のパートで根拠を説明済み
⚠️ GAAP(ギャープ)とは、企業の財務諸表(決算書など)を作成する際に従うべき「一般に公正妥当と認められた会計原則」のことです。
英語の Generally Accepted Accounting Principles の頭文字を取っています。
GAAPにおける減損(引当)の真実:
GAAPにおける評価基準は「日数」ではなく「回収可能性」です
相手がMicrosoft/Googleの場合:
たとえ支払サイトの交渉や事務処理の遅れで入金が100日、200日になっても、「彼らが倒産して払えなくなる確率」はほぼゼロです。したがって、監査法人も強制減損を求めたりしません。「回収可能」と判断されるからです。
一方で、相手が信用力のない新興企業の場合:
60日どころか、期日を1日過ぎただけでも「回収不能リスクあり」として厳しく見られます。
⸻
🟥8、破綻した類似例に挙げているNortel/Lucentとは構造が全く違う
2000年代の崩壊企業(Nortel/Lucentなど)は:
・ 買収で架空の「のれん資産」を積み上げ
・ 製品在庫が実際には売れていなかった
・ 当時は帳簿外調整・会計不正の告発が相次ぎ、財務の透明性そのものが崩壊していました
NVIDIAは:
・ 売上は実際にクラウドに出荷されている
・ 「引当金が激増」などの兆候はゼロ
・ 監査法人(PwC)は最上級の問題なし判断
⸻
🟩 たぬきの見方:この記事の目的は「恐怖による拡散」
根拠となる特徴:
・ 「 billion shell game」 → 恐怖タイトル
・ 「nobody caught this」 → 誰も気づいてない詐欺。
🔥 自分だけが気付いていることなど、この世にはないと思う方が普通。サブプライムのときだってそうだった(実際、暴落前までにプロの多くは気付いていた)
・ 「countdown begins」 → 占い師的
・ 「2001と同じ」 → 過去の崩壊と強引に関連づ
・ 数字は決算書から抜き取って用途を捻じ曲げている
「専門知識の悪用 × 強い言語化 × 恐怖演出」
が組み合わさった典型的なバズ系陰謀論です。
この人(ポスト主)は強い専門知識を、
逆に悪用しているとたぬきは思う。
⸻
🟦 最後に、投資家目線での「本当の注意点」
たぬきの感想です。
NVIDIAは詐欺ではないが、
「会計リスク」ではなく「ビジネスサイクルのリスク」は当然存在する:
・AI需要のピークアウトタイミング
・HBM供給がサプライチェーンの鍵(SK Hynix依存)
・2026年に ARM サーバー・専用AI ASIC が増える可能性
・クラウドのCapExはどこかで減速する
ただしこれは会計詐欺の話ではない。
普通のサイクルリスク。
⸻
📌 最終結論
この投稿はフェイク。
会計の読み方を誤解させたまま、
『AIバブル=詐欺』という物語に仕立てただけです。
読む側も、数字の意味を理解してないから、
全部「恐怖」として解釈してしまう。
NVIDIAの決算はむしろ:
・ 売上 → 過去最高
・ 粗利 → 70%超え
・ キャッシュ → 急増
・ 引当金 → 問題なし
・ 監査 → クリーン
いまのどこをどう読んでも「詐欺」は成立しない。
—
こんなの出ましたー☺️
(誰も求めてないwww)
皆さま、今日もいいお天気ですね!
良い三連休をお過ごしください☺️
—
⚠️ 根拠は全て2025年11月19日提出の公式10-Qより
https://t.co/KLmdka4ggM
⚠️ この予想はたぬきの個人的なメモであり、投資助言ではありません。
また、この分析はたぬきが勝手に探してきた過去のデータに基づくものであり、
データの正確性や将来のパフォーマンスを保証するものではありません。全く責任を持てません。
ご自身の投資判断は、複数の指標と、
たぬきではない、
人間界隈の専門家の意見を参考にして自己責任で行ってください。
たぬき予報 December 12, 2025
1RP
@kurokawaakito48 決算書を見ても、彼らのAI関連への設備投資額(Capex)は国家予算レベルですから…。スタートアップや中堅企業が逆立ちしても勝てない「規模の暴力」があります。
この圧倒的な「参入障壁(Moat)」がある以上、FANG+に資金を集中させるのは、極めて合理的な生存戦略だと私も思います! December 12, 2025
1RP
"ハセットとパウエルについて、
「金融政策・インフレに対する姿勢・金利のバイアス」の3点で違いを整理しようとしている。
この比較は、これから何が起きるのか理解するのに役立った。
⸻
1. 金融政策の思想(Monetary-Policy Philosophy)
ジェローム・パウエル
・実務的な中道派。
・「リスク管理」アプローチを採用し、リアルタイムの状況で政策を調整する。
・インフレが上振れした場合は(2022〜2023年)、積極的に引き締め、利下げを急ぎすぎることに慎重。
・金融安定性や資産バブル防止を強く重視。
ケビン・ハセット
・より“ルールベース”の考え方に寄る。例:
・テイラー・ルール的な枠組み
・予測可能な金利パス
・金融政策をインフレだけでなく「成長と投資」の観点から捉える。
・インフレ期待が安定している限り、成長が弱まれば利下げに前向き。
全体像:
パウエル = 「インフレ最優先」
ハセット = 「成長優先、インフレはアンカーすればOK」
⸻
2. インフレに対する姿勢(Inflation Stance)
パウエル
・インフレの粘着性に非常に敏感。
・物価安定を取り戻すためなら、失業率の上昇も容認。
・1970年代のような失敗を避けるため、FRBの信認を重視。
ハセット
・最近のインフレは多くが供給要因によるものだと考えている。
・インフレが2%の軌道に向かっているなら、完全に目標に達していなくても利下げに前向き。
・パウエルよりも設備投資(CAPEX)、雇用、⽣産性、投資活動を重視する傾向。
市場向け翻訳:
ハセットは「インフレリスクによりハト派」で、「成長インセンティブにより強気」。
⸻
3. 金利バイアス(Interest-Rate Bias)
パウエル
・基本的に慎重。
・強い根拠が揃わないと利下げを実行しない。
・先の見通しを約束することを避ける傾向。
・利下げがインフレ再燃を招くことを非常に懸念。
ハセット
・過去の発言・行動から、成長鈍化が見えれば早めの行動を支持するタイプ。
・景気が弱まり、インフレが抑制されていれば、より素早い利下げに動きやすい。
・過度の金融引き締めが投資や生産性を損なうリスクを重視。
まとめ:
パウエル:ゆっくり、確証を求めたうえでの利下げ
ハセット:より早期で、成長重視の利下げ" December 12, 2025
1RP
AIバブルの潮がもし引いた場合一番厳しいのはおそらくオラクル、更にはネオクラウドと言われるコアウィーヴ等の新興インフラ勢だろう。AI処理トークン増加量と収益が直接紐づかない一方でCAPEXヘビーなインフラ勢は仮に世間のトークン増加率が鈍化した場合社債・借入条件によって直接的な財務逼迫に陥る可能性がある。従って実際デフォルトリスクを反映するクレジットデフォルトスワップ(CDS)のスプレッド(保険料率)がオラクルにおいては近年最高値まで上がっている。 December 12, 2025
1RP
DcapってDX➕ファンドというAIとのシナジーが最高によさそう。
当時のUSは非上場だからわからんけどcapexや運転資本も軽そうだしさすがにLBOローンもついてると思う。加えて買う方からすると数字もそうだが、とにかく効率化された組織に価値を感じたと予想。 https://t.co/mlUw5Y5xBH December 12, 2025
EBITDAに悪気はないと思います
設備投資が定常化している場合、Adjusted EBITDA感は半端ないです
特に通信会社の場合はiPhoneなどHandset をCapexに入り、回収は2年かかるなどcash flow mismatchはすんごいです
常習犯になると説明に不誠実さを感じる場面は多々あり、EBITDA不信に繋がります https://t.co/PFiYTP02NC December 12, 2025
バランスシート型の小型株触ってると財務諸表見るの難しいな。ジョイントベンチャー設立して会社のcapex負担10%とかでも、減価償却費は100%会社の財務諸表に載ってくるし、逆に営業CFとかは減価償却費の足し戻しで過剰にプラスに振れるし December 12, 2025
しかし今回は 個別株(シングルストック)が半分以上(56%)
これは何を示す?
→ ただのβ(市場エクスポージャー)調整ではなく、銘柄固有のbullishビューが強い
→ 決算・ガイダンス・供給網改善・AI Capex の“テーマ別買い”が再開している December 12, 2025
# 腾讯 2025 Q3 财报电话会 Tencent
增量信息不多,整体稳健发展:游戏、广告、交易回暖,云业务增长受限于GPU供给。capex没有进一步扩大。
9月股价最高,反而回购远超7、8月之和。
提出微信覆盖的通讯、社交、支付、电商、内容、小程序,是理想的助手形态。
二级市场减持,投资游戏和AI,整体净减持10亿美元。
后面降低阅读电话会频率,采用电话会全文用LLM总结获取增量信息。
摘录:
Q3总收入为人民币 1,930 亿元,同比增长 15%。毛利润为人民币 1,090 亿元,同比增长 22%。非 IFRS 经营利润为人民币 730 亿元,同比增长 18%。非 IFRS 口径下归属于本公司股东的净利润为人民币 710 亿元,同比增长 18%。(Q2总收入为人民币1850亿元,同比增长15%。毛利润为人民币1050亿元,同比增长22%。非国际财务报告准则运营利润为人民币690亿元,同比增长18%。非国际财务报告准则归属于权益持有人的净利润为人民币630亿元,同比增长10%。)
Q3回购211亿港元,区间493-666.5,7、8、9月分别回购35亿、55亿、121亿,9月回购成本最高反而加速。(Q2回购194亿港元,区间419-524。Q1回购171亿港元,区间364.8-517.5。)
q3 capex 130亿元,同比-24%,capex付款200亿。(q2 CapEx为人民币179亿元,同比增长149%)(账期60天,说明q2实际开支更高)
AI:
Martin:
综合来看,微信几乎是一个“理想的助手”形态:既深刻理解用户需求,又能够在同一生态内替用户执行各类任务。这就是我们设想中的“蓝天场景”。(微信是助手)
James Mitchell:
我们也借助这一市场的“高景气度”更加积极地“盘活”我们的投资组合,主要包括对部分持股进行二级市场减持。同时,我们也在一些新兴成长机会方面进行新的投资,并继续关注我们一贯重点布局的领域,比如游戏和数字内容。整体来看,今年以来,我们的退出金额比新投资金额多出超过 10 亿美元。此外,我们也在积极投资一些有潜力的 AI 初创公司,尤其是在中国,我们认为这里会出现新一波价值创造的浪潮。(二级市场减持,投资游戏、数字内容、中国AI初创,整体净减持10亿美元) December 12, 2025
# 腾讯 2025 Q2 财报电话会 Tencent
增量信息不多,整体稳健发展:游戏、广告、交易回暖,云业务增长受限于GPU供给。capex没有进一步扩大。
9月股价最高,反而回购远超7、8月之和。
提出微信覆盖的通讯、社交、支付、电商、内容、小程序,是理想的助手形态。
二级市场减持,投资游戏和AI,整体净减持10亿美元。
后面降低阅读电话会频率,采用电话会全文用LLM总结获取增量信息。
摘录:
Q3总收入为人民币 1,930 亿元,同比增长 15%。毛利润为人民币 1,090 亿元,同比增长 22%。非 IFRS 经营利润为人民币 730 亿元,同比增长 18%。非 IFRS 口径下归属于本公司股东的净利润为人民币 710 亿元,同比增长 18%。(Q2总收入为人民币1850亿元,同比增长15%。毛利润为人民币1050亿元,同比增长22%。非国际财务报告准则运营利润为人民币690亿元,同比增长18%。非国际财务报告准则归属于权益持有人的净利润为人民币630亿元,同比增长10%。)
Q3回购211亿港元,区间493-666.5,7、8、9月分别回购35亿、55亿、121亿,9月回购成本最高反而加速。(Q2回购194亿港元,区间419-524。Q1回购171亿港元,区间364.8-517.5。)
q3 capex 130亿元,同比-24%,capex付款200亿。(q2 CapEx为人民币179亿元,同比增长149%)(账期60天,说明q2实际开支更高)
AI:
Martin:
综合来看,微信几乎是一个“理想的助手”形态:既深刻理解用户需求,又能够在同一生态内替用户执行各类任务。这就是我们设想中的“蓝天场景”。(微信是助手)
James Mitchell:
我们也借助这一市场的“高景气度”更加积极地“盘活”我们的投资组合,主要包括对部分持股进行二级市场减持。同时,我们也在一些新兴成长机会方面进行新的投资,并继续关注我们一贯重点布局的领域,比如游戏和数字内容。整体来看,今年以来,我们的退出金额比新投资金额多出超过 10 亿美元。此外,我们也在积极投资一些有潜力的 AI 初创公司,尤其是在中国,我们认为这里会出现新一波价值创造的浪潮。(二级市场减持,投资游戏、数字内容、中国AI初创,整体净减持10亿美元) December 12, 2025
2026年展望 - JP Private Bank要約
◆ 2026年を支配する3つのメガトレンド
https://t.co/PsXEqzMsg1
2.グローバル分断(Fragmentation)
3. 構造的インフレ
→ 今後数年の投資ルールを根本から書き換えると判断します。
──────────────────────────
① AIはバブルではなく、“本物の投資サイクルの初動”
・データセンター空室率1.6% → 歴史的供給不足です。
・ハイパースケーラー(AMZN/MSFT/META/GOOGL)のCAPEX
150B → *500Bドル(2026年)*へ拡大見通しです。
・AI投資/GDP比率はまだ約1% → 2000年代IT投資(2〜5%)以下です。
・EPS成長が株価上昇を牽引、VAL拡大が主因ではありません。
→ まだ頂点ではなく、輪はむしろ拡大余地が大きいです。
──────────────────────────
② AI投資で成果を得る「4段階戦略」
1.大手テック中心を維持
→ EPS成長が続く限りバリュエーションは許容範囲です。
2.電力・半導体・冷却・変圧器・ネットワークなど供給網に集中
→ GPT-5はGPT-4の約2.5倍の電力消費です。
→ 最大ボトルネック = 電力+データセンター基盤
https://t.co/c1BUuACnczを”活用して稼ぐ企業”に投資
→ 使う側こそ最終勝者です(SAAS淘汰と同じ構図です)。
4.非上場AI(Private)へのアクセスが鍵
→ 主要7社の評価総額1.5兆ドル級です。
→ アプリ層の価値は大部分が非公開市場にあります。
──────────────────────────
③ AIを制約する最大要因 = 電力・水・規制
・電力需要増加 662TWh → Texas+California合計を超えます。
・米国送電網の7割が25年以上老朽です。
・AIモデル大型化 → 水使用量も爆発的増加です。
→ AI拡張は無限ではなく、供給網が成長スピードを決めます。
──────────────────────────
④ 世界は分断へ向かう(Fragmentation)
・Globalization終了フェーズと明記します。
・軸は 米国→北米ブロック化 / 中国→Global South化
・テーマは「安い供給」から「安全な供給」へ完全転換です。
投資的含意
✔ 半導体/バッテリー/データセンターのオンショア回帰加速
✔ 倭国・韓国・台湾製造業は構造的再編局面です
✔ 需要は資源国家(南米など)へ集中します
──────────────────────────
⑤ インフレは”低く安定した2%時代”には戻らない
理由
・ブロック化に伴う供給コスト上昇
・政府債務の増大
・AI電力需要によるエネルギー価格変動
・労働力人口の構造的縮小
→ 金・BTC・リアルアセット・インフレ耐性のあるBIG TECHが有利です。
──────────────────────────
【最終結論】
2026年は投資環境として良好ですが、過去のルールでは勝てません。
鍵となる投資領域は以下です。
📌 大手テック(AIコア)
📌 AI供給網(電力/半導体/冷却/データセンター)
📌 AIを実装して稼ぐ勝者企業
📌 非上場AI(Private)アクセス
一行まとめ👇
AIは巨大な機会ですが電力とインフラが成長速度を制限し、世界はブロック化と構造インフレに進むため、勝者はテック+供給チェーン+AI活用企業+Privateになります。
────────────────────────── December 12, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。



