1
大多数
0post
2025.11.29 23:00
:0% :0% (40代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
今後の吉野山の為にも告発します。
昨日「吉野山観光駐車場の責任者の一人が重大な事柄について嘘を認めた」とポストしましたが、その事柄とは駐車場の通年有料化を知らせる公式文書の核となる部分が嘘デタラメだったと言うものです。
ご存知の方もいらっしゃると思いますが、吉野山観光駐車場(下千本駐車場)はこれまで春と秋のハイシーズンのみ有料で、それ以外の季節は長年にわたり無料開放されていました。
そんな中、今年の10月から「1年を通じて有料」と言う料金体系に移行したのですが、事前に配布された有料化を知らせる文書の中には
”地域の皆様より「年間を通じて有料化してはどうか」とのご意見を多くいただいておりました。こうした状況を受け(中略)本年10月より、年中無休・24時間体制での有料運営を開始することとなりました。”
と書かれていたのです(投稿画像参照)
しかし、通年有料化に賛同する声が吉野山で多く出ているなんて話は一切聞いた事がなく、長年お客様からは駐車場の無料期間がある事が歓迎されていただけに、この核心となる部分はおかしいんじゃないかと思いました。
そこで管理委員会のトップに話を聞いたところ、有耶無耶な回答しか返って来なかったのでやはり何かあるなと確信。
そして昨日、別の責任者に再度話を聞いてみました。
すると
「年に1回の総会で通年有料化の話は出たけど、大多数の人が言ってる訳では無かった」と嘘を認めたのです。
あたかも地域住民の多くが通年有料化に賛成しているような文言を公式文書に平然と盛り込み、強引に有料化に持ち込んだのはかなり悪質な事だと思います。
こう言ったやり方は通年有料化でお金を払う事になった観光客の皆様への裏切りと言っても良いのでは無いでしょうか。
実は駐車場管理委員会は前任のトップが多額の駐車料金を横領していた疑惑が浮上し5年ほど前に解任されると言う不祥事もあったばかりでした。
そんな事があったにも関わらず、今回のような嘘をつき住民への説明会も無いまま強権的に通年有料化に踏み切った姿勢は組織として批判されても仕方のない事だと思います。
このまま放置しいていれば、更に駐車場管理委員会が強引な舵取りをするのは明白だと思い、今回告発させて頂いた次第です。
今回の投稿を機に観光駐車場の在り方が見直され、皆様に取ってより良い場所になるよう願っています。
吉野山最新情報
山本 康典 November 11, 2025
24RP
韓国人として本当に恥ずかしい。尹が大統領になる前までは、韓国でこんなヘイトデモはほとんどなかった。この人たちは一部の保守キリスト教+カルト宗教+極右で構成されている。幸い、韓国人の大多数はこのような行動に反対している。なぜなら、ヘイトデモは民主主義の敵だと考えているから。中国人差別も、倭国人差別も、韓国人差別も、全部反対するのが民主社会の基本だから。これを見て喜ぶネトウヨは大きい錯覚をしている。 November 11, 2025
8RP
配信一応見たけどさ。
普通まず不快にさせた方に申し訳ありませんでしたじゃねぇの?
なんで開始早々言い訳つらつら並べてんの?
自分のやらかしてる事が大多数の人間を不快にしたとか思ってない感じです??
真面目な話する時くらいロールプレイ辞めれば? https://t.co/95SoswMgpi November 11, 2025
5RP
我跟你们反复科普,中国绝大多数食品安全问题,都是傻逼中国老百姓自己作出来的。
中国最常见的四个食品健康问题:
1. 傻逼油腻中年人酒精中毒;
2. 瞎鸡巴喝中药,自己在马路边晒干货,里面富含大量重金属,给自己吃成肝损伤+肾衰竭;
3. 花生放出剧毒黄曲霉素不舍得扔全家硬吃, 剩菜放坏了生成大量亚硝酸盐全家硬吃,土豆发芽大量生成剧毒龙葵素全家硬吃,玉米酸汤子放了一晚上继续挤面条全家吃,
一家子厨房里天天自己制毒自己吃;
4. 长期大量吃火腿、腌鱼、腌肉、炸糊的肉、滚烫的汤、酒精、烟草、黄曲霉素花生、槟榔等等一类致癌物,吃吃喝喝一辈子,到50岁全身癌症大爆发。
如果再多说一个小点,就是中国人公共聚餐,瞎几把夹菜,口水乱流,细菌大范围传染,导致中国人幽门螺旋杆菌数量全球最高,50%的人携带,老了跟胃癌直接线性相关。
中国人喜欢骂菜市场、超市、小饭馆食品安全不合格,天天骂炸串店用地沟油,骂黑心肉,死猪肉,血脖子肉,骂西装鸡,骂各种牛羊肉激素,骂各种蔬菜水果的化肥农药残留,
其实从食品安全角度来看,害死中国人最多的直接原因,不是餐饮和食品供应链——反而恰恰是厨房里瞎折腾、瞎吃、瞎喝的中国人自己。 November 11, 2025
4RP
米国に住む若者の大多数は別にマルクスを受け入れているわけではなく、「福祉政策」程度の意味で社会主義を用いているということはもっと知られて良いと思います。 https://t.co/Myqc9Nn5qI November 11, 2025
3RP
Google TPU 要干掉英伟达了吗?Meta 被曝将大规模采购 TPU,引发市场震动。但真相是:TPU 能撼动英伟达,却永远无法取代英伟达。这不是性能之争,而是生态、时机与战略的较量。
The Information 的一篇重磅报道把整个 AI 行业给炸了,Meta 正在与 Google 进行秘密谈判,计划大批量采购 Google 的 TPU 芯片,用于部分替代英伟达的 GPU 以支持其庞大的数据中心 AI 运算。
根据报道披露的细节,这盘棋下得很大:
- 2026 年: Meta 将大规模租用 Google 云服务(Google Cloud)上的 TPU 算力进行模型训练;
- 2027 年: Meta 将直接采购数十亿美元的 TPU 芯片,部署于自建的数据中心内。
什么?全球最大的 GPU 采购大户要抛弃英伟达了? Google 的 TPU 居然要走出自家机房,去取代英伟达的 GPU 了吗?
消息一出,资本市场瞬间恐慌了。英伟达股价应声大跌,而 Google 则逆势暴涨,大家都在问:难道英伟达靠 GPU 垄断 AI 数据中心的故事真的讲不下去了吗?TPU 开始逆转了战局了吗?要讲明白这场 GPU vs TPU 的战争,我们要先从英伟达为什么能够像“铁桶”一般垄断 AI 数据中心讲起。
当今的 AI 技术堆栈:一座精密的金字塔
今天的人工智能是一个无比庞大的工业化产业。像 ChatGPT 这样顶尖的 AI 产品,其背后是由一层一层的技术基石堆砌而成的,这在 IT 行业被称为“技术堆栈(Tech Stack)”。
即使采用最粗略的划分方式,要支撑起当下的生成式 AI,至少也包含 5 层关键技术,缺一不可:
- 第一层:算力硬件层(Infrastructure) 这是金字塔的底座,是一切的基础。核心代表毫无疑问是英伟达的 GPU 和 Google 的 TPU。它们提供了 AI 运算所需的庞大算力,就像是工业时代的电力引擎。
- 第二层:系统软件与加速层(System & Compiler) 光有芯片还不够,AI 计算需要成千上万个芯片协同工作。这一层负责调度硬件并优化效率,充当硬件与上层软件的翻译官,它们决定了你能发挥出硬件多少潜能。这一层最典型的护城河技术,就是英伟达的 CUDA,而 Google 的 TPU 也有能够把上层软件编译为 TPU 机器码的 XLA 编译器。
- 第三层:深度学习框架(Deep Learning Frameworks) 想要构建和训练大规模神经网络,开发者不能手搓底层的软件代码,需要成熟的“脚手架”。业界目前最流行的是 META 发起开源软件 PyTorch(目前对 GPU 生态支持最好,是事实标准),以及 Google 发起的开源软件 JAX 和经典的 TensorFlow。
- 第四层:基础大模型(Foundation Models) 这是由深度学习框架训练出来的“超级大脑”,是目前竞争最激烈的战场。
- 语言/多模态模型: 如 OpenAI 的 GPT-5、Google 的 Gemini 3;
- 视频生成模型: 如 OpenAI 的 Sora、Google 的 Veo;
- 图像生成模型: 如 Google 的 Imagen、Midjourney。
- 第五层:AI 应用与交互层(Applications & Agents) 这是用户直接接触的产品。它将底层强大的模型能力封装成人类可以交互的工具。例如 ChatGPT,它的底层核心是 GPT 模型,但它本身是一个增加了对话界面、联网搜索、记忆功能的产品;又比如 Google 的 NotebookLM。
为什么英伟达在 AI 数据中心市场形成了绝对垄断?
我们经常感叹英伟达的 GPU(如 H100、H200、B200)硬件参数如何炸裂,但这只是冰山一角。英伟达之所以能对 AI 数据中心市场形成近乎无解的垄断(市占率一度超过 95%),主要源于以下三个维度的降维打击:
1. 通用性极强的单点算力 英伟达的 GPU 本质上是通用计算加速器(GPGPU)。它不仅能完美覆盖 AI 大模型的训练(Training)和推理(Inference),还能兼顾科学计算(气象模拟、药物研发)、图形渲染甚至加密货币挖掘。这种“一卡多用”的特性,使其成为了数据中心的硬通货——买了永远不亏,不用来炼丹还能用来挖矿(开玩笑,但道理如此)。
2. 恐怖的集群扩展能力(Scale-up & Scale-out) AI 大模型训练不是单打独斗,而是需要成千上万张显卡协同作战。英伟达在这方面做得太绝了:
- 节点内互联:通过独家的 NVLink 技术,英伟达可以将多个 GPU(甚至高达 72 个 GPU 组成的 GB200 NVL72 机柜系统)连接成一个“超级逻辑 GPU”,显存和算力实现无缝共享。
- 节点间互联:通过收购 Mellanox 获得的 InfiniBand 高速网络技术,让成千上万台服务器之间的数据传输快如闪电,解决了大规模集群的通信瓶颈。
3. 真正的护城河:CUDA 软件生态 这是英伟达最难被逾越的壁垒,就像 PC 时代的 Windows 操作系统。
- 底层基石:CUDA 提供了最底层的并行计算库,几乎所有的高性能计算场景都基于此构建,经过了 20 年的打磨。
- 顶层框架:当今统治级的深度学习框架 PyTorch 对 CUDA 提供了最原生的支持。这意味着开发者只需编写几行 Python 代码,就能调用底层强大的算力。
- 生态闭环:围绕 PyTorch/CUDA/GPU 已经形成了一套成熟的“开箱即用”基础设施。
为什么竞争对手很难追赶? 即使竞争对手(如 AMD 或国产芯片厂商)在硬件参数上追平了 H200,依然无法撼动英伟达的地位。因为缺乏庞大的软件生态支持,意味着极高的迁移成本和时间风险。
一个真实的行业痛点(听起来很痛): 目前很多致力于适配非英伟达芯片的 AI 团队都面临着巨大的痛苦。许多针对英伟达 GPU 进行过深度优化的模型(特别是涉及复杂算子或 MoE 架构的模型),一旦迁移到其他芯片平台,往往会面临严重的兼容性问题。
- 开发难:大量算子需要从头手写,费时费力,如同用汇编语言写网页。
- 稳定性差:模型训练过程中经常出现莫名其妙的数值溢出或系统崩溃(Crash)。
在当前的 AI 竞赛中,一次全量模型训练往往耗时数月,成本以千万美元计。如果因为芯片兼容性导致训练中途崩溃几次,浪费的不仅是电费,更是半年甚至一年的宝贵时间窗口。这种巨大的试错成本,是任何一家争分夺秒的 AI 公司都无法承受的。传言某国内顶级 AI 模型就是因为在国产芯片上训练下一代模型频繁崩溃,导致一直难产,真的是太痛了。
这就是为什么英伟达在 AI 数据中心市场越成功,行业对其路径依赖就越严重——因为没有人敢承担离开英伟达的代价。
Google 的 TPU 又是怎么崛起的?
尽管英伟达的统治力无可争议,但是 Google TPU 却是个异类,它不仅活下来了,还活得很好,已在 AI 顶级赛道站稳脚跟。
首先,TPU 已经用实战成绩证明了自己在 AI 大模型训练和推理领域的成功:
- Google 本家基石: Google 最强的 Gemini 系列模型,完全基于 TPU 进行训练和推理;
- 独角兽的选择: 顶级 AI 公司 Anthropic (Claude) 在 Google Cloud 上大规模使用了 TPU 算力;
- 科技巨头的背书: 就连 Apple 在训练其 Apple Intelligence 基础模型时,也公开表示使用了 Google 的 TPU v4 和 v5p 集群,而非英伟达 GPU。
那么,在英伟达已经成为绝对霸主的情况下,Google TPU 凭什么能异军突起?我们不妨对照英伟达成功的三个维度来深度解析:
1. 算力哲学:极度通用 vs 极致专用 英伟达 GPU 的强大在于“通用性”。而 Google TPU 从 2012 年设计之初,就是为了特定用途——大规模矩阵乘法而生。 现在的 AI 大模型训练,本质上就是在大规模地做矩阵乘法。因为放弃了图形渲染等通用功能,TPU 的芯片设计得以大幅简化,从而在“矩阵计算”这单一场景下取得了极致的能效比和性能表现。
2. 互联技术:电互联 vs 光互联 (OCS) 英伟达在服务器间的高速互联(NVLink/InfiniBand)上表现出色,覆盖了从单机多卡到万卡集群的广泛场景。 而 Google TPU 另辟蹊径,主攻超大规模集群互联。Google 引入了独特的 OCS(光路交换)技术,用光互联将成千上万颗 TPU 动态编织在一起。最新的 TPU v5p 单个 Pod 即可容纳 8960 颗芯片,甚至可以通过光互联扩展至数万卡的超级集群。这种架构在大规模并行训练中,展现出了极高的带宽利用率和灵活性,且布线极其整洁。
3. 软件生态:CUDA 帝国 vs JAX/XLA 新势力 英伟达的 CUDA 和 PyTorch 让 AI 开发变得“开箱即用”,这是其最大的护城河。但 Google 经过多年深耕,也打磨出了一套极为硬核的软件栈:
- XLA (2016): 一个强大的编译器,能将计算图直接编译为 TPU 机器码,榨干硬件性能。
- JAX (2018): 一个旨在替代 TensorFlow 的前沿框架。
对比 PyTorch: PyTorch 是面向对象编程,符合人类直觉,简单易用;而 JAX 是函数式编程,学习曲线陡峭,但在处理超大规模并行计算时具有先天优势,代码更简洁,数学表达更纯粹。
跨界打击: JAX 的优秀甚至溢出了 TPU 生态。如马斯克的 xAI 虽然使用的是英伟达 H100 集群,但为了追求对硬件性能的极致压榨,在训练 Grok 模型时并没有使用 PyTorch,而是选择了 JAX。
总结:生态位的胜利 经过多年的演化,在超大模型训练这一“皇冠上的明珠”场景下,JAX + XLA + TPU 技术栈已经形成了一个完整的闭环。它不仅被验证是成功的,甚至在某些超大规模场景下,能取得比 Pytorch + CUDA + GPU 更优的能效比。在 Google Cloud 上,TPU 的 token 成本定价低于英伟达 GPU,就是最好的证明。这也是 Google Cloud 在云计算市场竞争中的秘密武器。总之:
英伟达 vs Google:两种技术哲学的碰撞
- 应用场景: 通用型霸主 vs 超大模型专用特种兵
- 软件门槛: 低门槛的群众基础 vs 高门槛的专家利器
- 商业模式: 庞大的全行业生态 vs 垂直整合的自研闭环
如果说英伟达就像一辆豪华的全能越野车,哪里都能去,谁都能开,到处都有维修店;那么 Google 就像一辆定制的 F1 方程式赛车,只能跑赛道,赛车手才能开。大多数人买车首选 SUV(英伟达),因为方便、省心;但在争夺世界冠军的顶级赛场上,追求极致速度的车队(如 Google、xAI、Anthropic)会考虑使用 F1 赛车(TPU)。
Google TPU 能干掉英伟达吗?
照你这么说的话,Google TPU 岂不是已经成功挑战英伟达,打破了英伟达 GPU 的绝对垄断地位吗?事情没有那么简单。
1. TPU 的局限性与 Google 的双重身份 前面提到 Google TPU 极其擅长超大模型的训练/推理以及大规模推荐系统,但在通用性上,其他场景要么根本不适用,要么能效比不如英伟达 GPU。 对于 Google 庞大的产品线(YouTube、Search、Cloud)来说,对通用 GPU 的需求依然是海量的。因此,Google 一边自研 TPU,一边依然是英伟达 GPU 的全球采购大户。这一点在未来几年内都不会改变。
2. 迁移成本高昂的“生态墙” 尽管在超大模型场景下,JAX + XLA + TPU 的技术栈能取得显著优势,但这要求你必须“从零开始”就拥抱 Google 生态。 如果现有的项目是基于 PyTorch 和 CUDA 深度优化的,想要迁移到 TPU,约等于重写底层代码并进行大规模兼容性测试。这种“重起炉灶”的时间成本和工程风险,足以让绝大多数企业望而却步。
因此目前来看,Google TPU 的用户群体画像非常清晰,主要就两类:一是高校科研(科学计算),二是超大模型的训练和推理。
为什么 TPU 会有很多科学计算用户? 这是因为 Google Cloud 长期为高校科研开放免费的 TPU 资源(TPU Research Cloud),加上极度好用的 Colab 服务(免费提供 TPU/GPU 算力),在学术界圈粉无数,培养了一大批习惯 TPU 的科研生力军。
那么,超大模型领域的潜在客户呢? 我们逐一分析市面上的两类大客户:
- 大型云计算厂商: Amazon, Microsoft, Oracle 以及 CoreWeave 等新兴 GPU 云厂商。
- AI 大模型厂商: OpenAI, Anthropic, xAI, Meta 等。
大型云计算厂商(Amazon, Microsoft)本身就是 Google Cloud 的死对头,且都在自研芯片(Trainium, Maia),绝无可能去买对手的算力。而 Oracle 和 CoreWeave 早就通过深度绑定英伟达赚得盆满钵满,是英伟达的铁杆盟友。
AI 大模型厂商呢?
- OpenAI: Google Gemini 的头号宿敌,微软的盟友,不可能用 TPU。
- xAI: 马斯克与 Google 积怨已久,且正通过特斯拉和 xAI 构建自己的超算集群。
- Meta: 回到开头的新闻,Meta 是个超级大户。虽然传闻在谈,但 Meta 也是 Google 广告业务的直接对手。扎克伯格目前手握全球最大规模的 H100 集群之一,并且 Meta 正在积极迭代自研芯片 MTIA。虽然他们不搞公有云,但为了战略安全和技术自主,Meta 不太可能全面依赖 Google 的 TPU,最多是作为补充或谈判筹码。
- Anthropic: 剩下的只有它了。Google 是 Anthropic 的大金主,所以 Anthropic 使用 TPU 是顺理成章的。
盘算下来,TPU 的外部大客户其实寥寥无几。 这点体量,完全不足以对英伟达的统治地位构成“颠覆性”冲击。 因此,Google 最明智的策略依然是:在 Google Cloud 上提供极致性价比的 TPU 服务,用“省钱”和“能效”从其他云厂商口中抢肉吃,而不是想着彻底干掉英伟达。
如果 Google 非要“头铁”,下场卖 TPU 芯片抢市场呢? 我认为这极其不明智:
- 供应链与利润结构: TPU 是 Google 与博通(Broadcom)合作设计的 ASIC。如果对外售卖,不仅涉及复杂的供应链管理,还要分润给博通,这会拉低硬件毛利。卖贵了,打不过英伟达;卖便宜了,除去博通的成本,Google 图什么?
- 客户池太浅: 如前所述,愿意买 TPU 且不与 Google 构成直接竞争的大客户极少。
- 田忌赛马的反面: 用自己公司的“内部工具/副业”去硬拼英伟达赖以生存的“主业”,胜算能有多高?
- 最后,也是最关键的宏观背景: 目前全球 AI 数据中心市场正处于“短缺经济”时代。不仅 GPU 缺,HBM 内存、CoWoS 封装产能、电力、甚至建设数据中心的土地都极度紧缺。虽然各大科技巨头的资本支出(Capex)已经高得吓人,但面对爆炸性的业务需求,供给依然不够。微软今年初曾试图下调资本支出,结果发现需求太猛,转头又开始疯狂追加投入。
在一个供不应求的增量市场里,无论你填进去多少算力(无论是 GPU 还是 TPU),都会被瞬间吃干抹净。英伟达的 GPU 和 Google 的 TPU 目前仍处于“各自跑马圈地”的阶段,而非“你死我活”的零和博弈。
我的结论:
Google TPU 对英伟达确实有冲击,但不必过度恐慌。 从长期看,Google TPU 的存在更像是一个强有力的“议价筹码”。当大客户有了备胎(TPU 或自研芯片),英伟达就很难长期维持如今夸张的 75% 利润率。
英伟达未来的市场份额确实会受影响,主要来自:
- Google 自身业务(搜索、推荐、Gemini)更多转向 TPU,减少购买 GPU;
- Google Cloud 的深度合作伙伴(如 Anthropic)减少购买 GPU。 这可能会导致英伟达在数据中心的市占率从 90%+ 缓慢回落到 75%-80% 左右,但这并不改变其商业逻辑的本质。
这就像当年的 PC 市场: 苹果 Macintosh 电脑的崛起虽然让 Windows 的市占率有所下降,但并没有终结 Windows 的垄断。真正终结 Windows 霸权时代的,不是 Mac,而是智能手机的兴起。 同理,Google TPU 干不掉英伟达。真正能干掉英伟达的,只能是下一代计算范式的彻底变革。
Google 的成功是不可复制的
好吧,虽然你说的很有道理,但是 Google 能干成全栈自研,尝到了甜头的其他巨头岂不是会纷纷效仿吗?Amazon,Microsoft,Meta,OpenAI 这几个英伟达的头部大客户都在自研 ASIC 芯片,将来他们都减少了对英伟达芯片的采购,英伟达不是要喝西北风了?
我的观点就是:Google 的成功是不可复制的。
Google 的技术栈能够成功,综合了以下几个不可或缺的因素,而这恰恰是微软、Meta 和亚马逊所不具备的:
1. 十年的时间壁垒(Time & Iteration)
芯片设计不是搭积木,它需要漫长的迭代周期。 Google 早在 2013-2014 年就开始秘密研发 TPU,2016 年 AlphaGo 击败李世石震惊世界时,背后就是 TPU v1 在提供算力。
当微软在 2023 年才匆忙推出 Maia 100 时,Google 的 TPU 已经迭代到了第 6 代甚至第 7 代。
这 10 年间踩过的坑、修复的 Bug、积累的制程经验、以及对散热和互联架构的微调,绝非其他公司靠“砸钱”就能在两三年内追平的。在硅基世界里,经验值就是良率,就是能效比。
2. 真正全栈的“软硬一体”的垂直整合掌控力(Full-Stack Control)
这是 Google 最可怕的地方,也是其他巨头最大的软肋。
Google 拥有整个链条: 硬件(TPU)+ 编译器(XLA)+ 框架(JAX)+ 模型(Gemini)。Google 的科学家 Jeff Dean 可以让设计 Gemini 的算法团队直接坐在设计 TPU 的硬件团队对面,告诉他们:“我们需要一个特定的指令集来加速这个算子。”这种协同效应是核爆级的。
反观微软/Meta: 微软虽然造了 Maia 芯片,但它上面的软件栈主要依赖 OpenAI,而 OpenAI 和整个业界主流依赖的是 PyTorch。PyTorch 的亲爹是 Meta,但 PyTorch 对英伟达 GPU 的优化是刻在基因里的。
微软想要 Maia 好用,就得去魔改 PyTorch 底层,或者指望 OpenAI 为了适配 Maia 去重写代码。这中间不仅隔着公司墙,还隔着巨大的技术债务。
只要 PyTorch 依然是业界标准,其他自研芯片就永远是在“模拟”或“适配”英伟达,而 Google 是在玩一套完全独立的游戏规则。
3. 极其特殊的“光互联”基础设施(OCS Infrastructure)
前面提到的 OCS(光路交换)技术,是 Google 数据中心的独门绝技。 Google 为了适配 TPU 的大规模互联,甚至重新设计了数据中心的物理布线和机柜架构。这种光互联技术允许 TPU 节点之间以极低的延迟和功耗进行动态重组。 其他云厂商的数据中心是基于标准以太网架构建设的,想要复刻 Google 这套“光互联”网络,意味着要推翻现有的数据中心物理架构,这个沉没成本是天文数字。
4. 无法比拟的内部“吞吐量”(Internal Workload)
在生成式 AI 爆发之前,Google 就拥有地球上最庞大的 AI 推荐系统——Google Search、YouTube 推荐算法和 Google Ads。
这些业务每天产生数以亿计的并发请求,为 TPU 提供了天然的、海量的“练兵场”。
即便没有外部客户买单,Google 自己的业务就能消化掉 TPU 的产能。这让 Google 敢于在 TPU 早期性能不完善时,强行在内部推广(Dogfooding),通过海量真实数据把芯片“磨”出来。
相比之下,Meta 虽然有推荐算法需求,但起步晚且早期全押注 GPU;微软的 Azure 主要是卖资源给客户,如果自研芯片不好用,客户会直接用脚投票切回英伟达。
英伟达更像 AI 时代英特尔
著名电影《大空投》原型 Michael Burry 曾暗示英伟达正处于类似互联网泡沫时期的境地,不少看空者也认为英伟达与 OpenAI 之间相互投资和采购的关系,吹起了一个巨大的估值泡沫。他们认为一旦泡沫破裂,英伟达就会像 2000 年的 Cisco(思科)一样,股价暴跌 80% 以上。
但我认为,当下的英伟达并不像当年的 Cisco,而更像 PC 黄金时代的 Intel。 Intel 的股价腾飞始于 1993 年,于 2000 年触顶,随后经历了漫长的震荡与调整。 回顾那段历史,我们可以发现惊人的相似性:
- 1993 年之前(群雄逐鹿): PC 的 CPU 市场处于混战时代,各路架构互不相让。
- 1993 年(霸主确立): Intel 推出奔腾(Pentium)处理器,凭借强悍的性能一举确立了 CPU 市场的统治地位。
- 1995 年(杀手级应用爆发): 微软推出 Windows 95,图形界面的革命引发了全球性的 PC 换机潮。受此驱动,Intel 的股价在 1996 年迎来了极高斜率的上涨。
- 2000 年(盛极而衰): Intel 股价在 2000 年见顶,随后狂跌。这背后既有互联网泡沫破灭的宏观原因,也有 PC 市场渗透率见顶的因素。同时,Intel 在技术路线上遭遇了 AMD 速龙(Athlon)处理器的强力挑战,且在后续的 64 位指令集之争中(安腾项目)犯了严重的战略错误。
2022 年 ChatGPT 的横空出世,就是 AI 时代的 "Windows 95 时刻",它极大刺激了全行业对于算力基础设施的升级换代。借助这股 AI 浪潮,英伟达正在狂飙突进。现在的英伟达,像极了 1997 年处于巅峰缓慢爬升期的 Intel。
我相信,在未来几年的 AI 算力市场将呈现“一超一强多级”的格局:
- 英伟达(The Generalist King): 依然是绝对的“一超”。它占据 75%-80% 的市场份额,服务于所有追求通用性、追求开发效率、追求 Time-to-market 的企业。所有的初创公司、大部分云客户、以及需要频繁试错的模型团队,依然只能选英伟达。
- Google TPU(The Specialized Powerhouse): 它是那个“特种部队”。它守住 Google 自己的万亿帝国,并在超大模型训练这一垂直领域,成为唯一能跟英伟达叫板的“异类”。
- 其他自研芯片和 AMD(AWS Trainium, MS Maia, Meta MTIA): 它们更多是“成本调节器”。它们会被用于处理那些负载稳定、算法成熟的推理任务(比如每天运行几亿次的简单推荐或聊天机器人推理)。巨头们用它来通过简单的替代降低运营成本,也就是所谓的“省钱芯片”,但很难承担起“探索下一代 AI 前沿”的重任。
Google 的王者归来:全栈自研的胜利
2022 年底 ChatGPT 的横空出世,曾让 Google 这位 AI 领域的先行者显得黯淡无光。然而,站在 2025 年底的今天回望,Google 的表现足以让人刮目相看。
目前的 Google,是全球唯一一家真正实现了AI 全栈自研、软硬件垂直整合的头部厂商。这种整合优势正在形成巨大的飞轮效应:
- 算力底座: 在硬件层面,Google 利用 TPU 大规模集群高效实现了 Gemini 3 模型的训练和推理,摆脱了对外部 GPU 的依赖。
- 生态闭环: 通过多年的技术积累,打造了难以复制的软硬件一体化技术栈生态:JAX / XLA / TPU,极大地提升了研发效率。
- 云端优势: Google Cloud 虽然在市场份额上仍居 Amazon 和 Microsoft 之后,但增速惊人。更重要的是,得益于自研芯片,其 TPU 的租赁费用相比 GPU 拥有显著的价格优势,这对初创公司极具吸引力。
- 模型与成本:Gemini 3 在多项基准测试中已完全不输 GPT-5.1,甚至在长上下文和多模态理解上有所超越。基于自有云和芯片的成本优势,Gemini 能够提供更具竞争力的 API 调用价格,这种“低成本高智能”的反向优势正在快速抢占开发者市场。
- 产品矩阵全面开花:
1. NotebookLM 已成为“杀手级”的 AI 知识库和学习工具,深受科研与教育用户喜爱。
2. 多模态创作: Gemini 现已深度整合 Veo(视频生成)和 Imagen(图像生成),用户可在一个工作流中完成复杂的创作任务。
3. 搜索进化: Google Search 全面推出了 AI Overviews,成功将传统搜索与 AI 问答无缝整合。
4. 交互创新: 最新推出的生成式 UI (Generative UI) 更是令人惊艳,根据用户意图实时生成交互界面。
关键在于,Google 形成了一个从芯片、基础设施、模型到应用产品的完整闭环,各环节还能互相加强。这就好比 Google 一家公司独自完成了“英伟达 + 微软 + OpenAI”三家公司的工作。再加上 Google 全球数十亿的用户基数,以及 Chrome 浏览器和 Android 移动端两大核心入口,其上限不可估量。
为何半年前股价低迷、备受质疑的 Google,能在这半年实现逆袭?
此前市场看衰 Google,主要基于以下隐忧:
- 商业模式挑战: Google Search 靠竞价排名赚钱,市场担心 AI 问答范式会彻底颠覆这一现金牛。
- 大公司病与人才流失: 尽管 AI 大模型的基石——Transformer 论文是 Google 于 2017 年发表的,但果实却被 OpenAI 摘取。CEO Sundar Pichai 被认为过于稳健,缺乏魄力;内部 DeepMind 和 Google Brain 两个顶尖团队曾各自为战,内耗严重,导致许多论文作者离职。
- 模型落后: 在 Gemini 2.5 发布之前,Google 长期被 OpenAI 的 GPT 系列压制,甚至一度不如 Anthropic 的 Claude,面临在 AI 时代掉队的风险。
但在过去两年,Google 成功扭转了局势:
- 搜索护城河依然稳固: 事实证明,Google Search 并未被轻易颠覆,反而通过集成 AI 变得更强。用户在多轮对话中不仅有明确的个性化需求,AI 还能更精准地推荐个性化的产品与服务。广告业务被 AI 范式颠覆的风险被大大高估了。
- 组织架构重塑: 2023 年起,创始人 Sergey Brin 回归一线,深度参与模型开发。Google 将原本竞争的两个 AI 团队合并为 Google DeepMind,由 Demis Hassabis 挂帅。这一举措成功消除了内耗,重新激活了团队的创新力。
- 模型反超:Gemini 3 Pro 如今展现出后来居上的态势,不仅在性能上反超 GPT-5.1,市场占有率也稳步攀升。攻守之势异也,现在压力来到了 OpenAI 一方。
归根结底,AI 时代的核心竞争点依然是谁能做出最强的大模型。
如果 Gemini 弱,Google 的生态优势无从发挥;一旦 Gemini 领先,Google 强大的全栈整合能力就会瞬间爆发,形成降维打击。
最后我想说,英伟达是算力时代的‘卖水人’,而 Google 是全栈 AI 的‘领航员’。它们都是伟大的公司,对于投资者来说,与其在非此即彼的零和博弈中焦虑,不如看到它们各自不可替代的价值——这两者都值得你们同时拥有。
#AI产业 #大模型 #AI基础设施 #GPU #Gemini #TPU #JAX #XLA #CUDA #谷歌 #英伟达 November 11, 2025
2RP
蔡崇信港大演讲深度复盘:中国AI的四张底牌,以及被误读的美国AI规则
Joe Tsai's HKU Speech: China's Four AI Assets and and the Misread U.S. "AI Winner Rule"
笔者注:11月5日,香港大学经管学院主办“陈坤耀杰出学人讲座”,以“前瞻十年:推动中国经济增长的科创引擎”为题进行对谈,邀请了阿里巴巴集团联合创始人及主席蔡崇信先生分享创新,科技及人工智能如何重塑商业格局并驱动中国经济长期增长。活动在港大陆佑堂举行,据主办方透露,这场演讲报名史上最火爆,邮件发出两小时内报名人数已经突破1200人。。。
从某种意义上来说,这也算是一种历史的呼应。17年前,马云曾站在同一个舞台上演讲。。。而在这次与港大副校长邓希炜教授的深度对谈中,蔡崇信抛开客套,直击中美AI竞赛的核心,剖析了阿里的商业进化论,并为年轻人给出了极具穿透力的建议。。。
以下摘录来源于至顶科技高飞。
一、重定义AI竞赛:中国手握“四张底牌”
蔡崇信开场便抛出一个反直觉的观点:美国人定义的AI竞赛规则,可能是错的。
目前的“美式计分板”只看谁的大语言模型(LLM)更强,今天是OpenAI,明天是Anthropic,后天是Gemini;但在蔡崇信看来,这种评价体系本身就有问题。
1,真正的赢家逻辑:渗透率 > 模型参数
The winner is not about who has the best model... The winner is about who could use it the best in their own industries, in their own lives... (赢家不是看谁模型最好,而是看谁在自己的行业和生活中用得最好。)
AI的真正价值在于渗透率(Penetration Rate)。相比于追求参数的无限堆叠,中国政府的AI规划显得更为务实:目标到2030年,AI代理和设备的渗透率达到90%。不讲玄学,只讲普及。
2,中国为何能普及更快?四张系统级底牌
为了支撑这一普及率,蔡崇信列出了中国拥有的四项关键优势:
底牌一:电力成本优势(低40%)。训练和推理本质上是能源消耗战。得益于15年前启动的特高压输电网络建设(“西电东送”等),中国国家电网每年的资本支出高达900亿美元,是美国的3倍。这使得中国的电力装机容量不仅是美国的2.6倍,新增容量更是美国的9倍。
底牌二:基建红利(低60%)。在中国建设数据中心的成本比美国低60%。这仅仅是基础设施的成本,尚未计算芯片等硬件。
底牌三:工程师红利与语言优势。全球约一半的AI科学家和研究人员拥有中国教育背景。蔡崇信分享了一个有趣的现象:Meta的AI团队内部甚至常因大家都在说中文,让非中文员工感到“懵圈”。
This is the first time Chinese language is an advantage... (这是中文第一次在科技领域成为一种天然的沟通优势。)
底牌四:算力受美国政府的极大限制反而逼出系统级创新。美国有充沛的GPU资源,而中国没有。但这反而创造了一种“饥饿优势”(Advantage of Starvation)。
When you don't have a lot of resources, you are forced to innovate at the systems level... (当你资源不足时,你被迫在系统层面进行创新。)
为了在有限硬件下训练万亿参数模型,中国团队必须将系统效率优化到极致。DeepSeek(深度求索)就是典型的例子,而在最近的一次加密货币和股票交易的AI竞赛中,阿里的通义千问(Qwen)第一,DeepSeek排名第二。
蔡崇信对同城的DeepSeek评价极高:“他们在做令人难以置信的事情。”
二、开源为什么会赢:成本、主权、隐私的三重逻辑
关于“开源 vs 闭源”的路线之争,蔡崇信给出了明确判断:开源模型终将击败闭源。
这并非单纯的技术优劣,而是因为开源更符合全球大多数用户的利益。他以“沙特阿拉伯,想发展AI,但又想保持AI主权(sovereign AI)”为一个例子,阐述了其中的商业逻辑:
🔹 闭源路径(如OpenAI): 付费昂贵,且必须将数据输入黑箱(Black Box),存在数据主权风险。
🔹 开源路径(如阿里Qwen): 免费下载,部署在私有云上。数据完全可控,成本极低。
只要政府和企业进行理性的成本效益分析(Cost-benefit Analysis),开源都是更优解。
那阿里怎么赚钱?
蔡崇信说得很坦白:"我们不靠AI赚钱。"
阿里的商业模式:“我们不靠卖模型赚钱,我们靠云计算。”蔡崇信坦言,开源模型是流量入口,而随之产生的存储、安全、容器化等云基础设施需求,才是利润来源。这正如早期的互联网:产品免费获客,增值服务变现。
三、阿里进化论:技术自主是“逼”出来的
当被问及阿里如何从电商公司进化为云计算巨头时,蔡崇信的回答非常朴素:“没有秘诀,只是跟着客户需求走。”
🔹 B2B时代:为解决入世后中小企业的出口需求。
🔹 淘宝/支付宝:为解决C端交易中的信任问题。
🔹 阿里云:为解决海量数据处理的成本问题。16年前,如果继续使用Dell、EMC、Oracle的传统IT设施,阿里的利润将被抽干。
We developed cloud computing really out of necessity... out of the need to become self-reliant in technology...(我们发展云计算完全是出于必要,出于对技术自主可控的渴望。)
所以阿里云的起点是“自己吃自己的狗粮”(eat our own dog food):先内部用,用好了再开放给外部客户。
给创业者的建议: 优先选择有机增长(Organic Development)而非并购。自己团队生长出的能力,DNA更纯正,文化更契合。
四、给年轻人的锦囊:思维比技能更重要
在问答环节,蔡崇信针对个人成长给出了高密度的建议:
1,技能层面:学会提问
AI时代,获取答案变得容易。因此提出正确的问题(Ask the right questions)比找到答案更重要。同时,要建立独立的分析框架,而非死记硬背。
2,编程层面:重在逻辑
即使自然语言可以指挥机器,依然要学编程。哪怕是学好Excel公式,也是极佳的逻辑训练。
The purpose is not to actually operate a machine. The purpose is going through that thinking process... (学编程的目的不是为了操作机器,而是为了训练严谨的逻辑思维过程。)
3,专业选择:三个潜力方向
🔹 数据科学(Data Science):随着数据爆炸,懂得管理和分析数据的人才永远稀缺。
🔹 心理学/生物学:人脑是效能最高的机器,理解人脑是理解AI的捷径。
🔹 材料科学:这是一个由比特(Bits)主导的世界,但限制比特速度的是原子(Atoms)。半导体未来会有大量创新和突破,其核心在于材料。
五、风险与泡沫:金融人的视角
1,职业选择:不对称风险
蔡崇信回顾1999年放弃百万年薪加入阿里的决定,将其形容为“不对称风险收益”(Asymmetric Risk-reward): 下行风险有限(最差回去做律师),上行空间无限(像看涨期权)。
他强调:“机会是来找你的,你要做的是时刻准备好(Preparedness)。”
2,AI泡沫:区分金融与技术
现在的AI像2000年的互联网吗?蔡崇信建议区分两种泡沫:
🔹 金融泡沫:估值可能过高,这很难评判。
🔹 技术泡沫:技术本身是真实的。就像2000年股市崩盘并未抹杀互联网的存在一样,今天投入的所有AI基础设施和模型研发,都不会打水漂,它们是通向未来的基石。
六,三个最核心的洞察
Q1:中国AI的真正优势是什么?
不是模型本身,而是让AI被广泛使用的整个生态系统。电力成本低40%、数据中心建设成本低60%、全球一半AI人才有中国学历、资源匮乏逼出系统级创新。这些加在一起,让中国更有可能实现AI的大规模普及。而普及率才是真正的计分板。
Q2:为什么开源模式会赢?
因为对全球大多数用户来说,开源同时解决了成本、数据主权和隐私三个问题。闭源模型要付费,数据要喂进黑箱;开源模型免费,数据可以留在本地。这不是技术优劣之争,是利益格局使然。
Q3:年轻人应该怎么为AI时代做准备?
学编程不是为了写代码,而是训练逻辑思维;学统计(数据科学)是因为数据会爆炸;学心理学是因为要理解人脑这个最高效的"机器";学材料科学是因为让比特跑得更快的是原子。更重要的是,学会提出正确的问题,这比找到答案更有价值。 November 11, 2025
2RP
「あのお母さんが虐待なんかしないでしょ、そんなことするようには見えない!」と言われるのが大多数だろうけど虐待なんかしないような親に見せるように子供が頑張って耐えてるんだよ。精神的虐待こそ、被害を受けている側がSOSを出さない限り絶対に誰も気づかない、気づけない。それをわかっていて子供を支配する毒親って最低。
仲良くなればみんな異常性に気づいて離れていくから、まだそこまで深入りしてない外面の良さに騙されている限りなく他人であるひとからの「親を大切にしなさい」は本当に腹立たしいね。そのひともいずれ毒親の異常性に気づいて静かに離れていくのに。血の繋がりだけで支配されたくないから私は毒親を縁を切っていまは幸せ。 November 11, 2025
2RP
言葉選びが難しいのですが、
クラシックと呼ばれる曲を弾くときに、
「 "音楽" であれば、 "クラシック音楽" でなくとも構わない」という演奏は個人的に好きではない。
いくら「今の時代はジャンルで分けるなんて無粋だ」と言われようと、クラシックにはクラシックの精神があるのだ。確実に。
作曲家が残した意思を全て理解するのは不可能だとは言え、彼らが何を表現したかったのか理解できることもたくさんあるので、それを追求することを諦めてはならないと私は思う。
もちろんアマチュアで音楽を楽しみたいだけなら何をやっても良いと思うし自信を持って楽しんでほしいけど、プロとして演奏するのであればしっかり勉強してほしい。音楽的な楽譜の読み方を。
-----
”芸術” という大きな視点から見たら感じ方など無限の正解があるし、所詮主観的なものでしかないんだけど、
今の時代はクラシックの精神を宿していない演奏が世の中でもてはやされすぎている。しかも、みんなそれが正しいと思ってしまっている。
それによってクラシック音楽として本当に良い演奏が嫌厭されたりするのが本当に悔しい。
私は「売れてれば全てが正義」の今の時代において、本当に自分が良いと思うものを追い続けます。
※結局売れないと大多数の人に聴いてすらもらえない、という壁を私は乗り越えないといけない。
うおおおお!燃えてきたぞ!!やったるわ!!! November 11, 2025
1RP
纳瓦尔更新了最新一期的博客,主题是关于招聘和团队建设。听完之后,脑子里一直回响着一句话:你招的不是员工,你在策展一群天才。
这个视角很新鲜,也很残酷。
1
招聘是唯一不能外包的事
纳瓦尔开门见山就抛出一个观点:创始人可以授权一切,除了四件事——招聘、融资、战略和产品愿景。
其中招聘最重要。
为什么?
因为早期员工就是公司的 DNA。你招进来的前 10 个、前 20 个人,他们的基因会被复制到整个组织。如果你在早期阶段外包了招聘,让 HR 或者猎头代劳,那基本上意味着你已经不再直接驾驶这家公司了。
纳瓦尔说得很直白:当公司开始有了中层管理,当创始人不再直接招聘和管理每一个人的时候,公司就已经变味了。
这听起来有点极端,但仔细想想确实如此。
很多创始人以为招聘可以外包一部分,比如让 HR 筛简历,让猎头推荐候选人。但纳瓦尔认为,连 sourcing(寻找候选人)都很难外包。因为招聘需要极大的创造力,你必须打破常规才能找到真正的人才。
如果你按照标准流程招人,你得到的就是标准化的、可替换的人才。这样的团队没办法做出独特的产品。
2
天才只想和天才共事
纳瓦尔提出了一个很有意思的测试方法。
当你要招一个新人的时候,你应该能够对他说:走进那个房间,里面坐着你未来的同事。你随便挑一个人,拉到一边聊 30 分钟。如果你对他们不满意,就别加入我们。
这个测试很简单,但很致命。
因为当你真的让候选人这么做的时候,你心里一定会有那么一两个人,你希望他们别被抽到。那个让你心虚的人,就是你应该让他离开的人。
为什么?
因为最优秀的人只想和最优秀的人共事。跟能力不如自己的人一起工作,对他们来说是一种认知负担。他们会觉得自己待错了地方,应该去别的公司,或者干脆自己创业。
顶尖团队是相互激励的。大家都在努力让彼此刮目相看。如果团队里有一个明显拖后腿的人,整个氛围就会被破坏。
这也解释了为什么很多创业公司在早期发展得很快,但到了一定规模就停滞不前。往往就是因为在扩张过程中,为了快速招人,降低了标准。
3
你永远招不到比你更好的人
这是纳瓦尔说的另一个扎心的真相。
很多管理书籍会告诉你:要招比你更优秀的人。但纳瓦尔认为,这根本不现实,至少在早期阶段不现实。
为什么?
因为早期阶段,你能提供给候选人的,就只有你自己。没有成熟的产品,没有品牌,没有网络效应。如果你的水平不如对方,人家凭什么要为你工作?
优秀的人不会长期为不如自己的人打工。
所以,创始人的能力上限,就是公司早期阶段能招到的人才的上限。这也是为什么早期投资人会如此看重创始团队。他们不太关心你的早期进展,不太关心你的合作伙伴,甚至不太关心你的领域经验。他们只想看你有多优秀。
而证明你优秀的最直接方式,就是看你能招到什么样的人。
等公司做大了,有了品牌和产品,情况会有所不同。但在 0 到 1 的阶段,创始人就是公司能吸引人才的唯一理由。
4
招聘需要打破所有规则
纳瓦尔分享了他最近一家公司的经验。他说,他招到了职业生涯中最好的团队,但每一个人的招聘,都打破了某些传统规则。
有的人说通勤太远,他们想办法解决。有的人说要生孩子,他们也接受。有的人说期权行权成本太高,他们重新设计了股权结构。有的人还在读大学,他们也招进来了。
纳瓦尔的观点是:最优秀的人不是标准化的零件。他们是多面手,有独特的需求和想法。如果你想招到他们,你必须愿意打破规则。
这包括薪资结构、股权分配、工作地点、工作时间、汇报关系、职位头衔等等。你要为每个真正优秀的人量身定制方案。
这也是为什么招聘不能外包。因为 HR 或者猎头不敢打破规则。他们怕违反公司政策,怕创始人不高兴。但创始人可以。创始人有权力也有责任去打破那些阻碍你招到天才的规则。
5
低自我的重要性
纳瓦尔提到了一个很多人忽略的特质:低自我(low ego)。
巴菲特说过,招人要看三点:智慧、精力、正直。纳瓦尔在此基础上加了一条:低自我。
为什么?
因为低自我的人更容易管理。他们不会把太多精力花在内部政治和争夺功劳上。他们更关心把事情做好,做得漂亮。
纳瓦尔说,你可能只能管理 5 个高自我的人,因为你要不断安抚他们的情绪。但你可以管理 30 到 40 个低自我的人,因为他们不需要那么多关注。
这对于小团队来说尤其重要。早期创业公司资源有限,创始人的时间更是宝贵。如果你把大量时间花在处理团队内部矛盾上,就没时间做产品了。
低自我的人还有一个好处:他们更愿意接受反馈,更愿意承认错误,更愿意快速迭代。这些特质对于一个需要不断试错的创业团队来说,太重要了。
6
工程师也是艺术家
纳瓦尔有一个观点让我印象很深刻:每一个伟大的工程师,同时也是艺术家。
他对艺术的定义很宽泛。不是说你要会画画或者弹琴,那是狭义的艺术。广义的艺术是指:为了某件事本身而去做,并且做到极致,在这个过程中创造出美感或者强烈的情感。
这个观点让我想起了一本书《黑客与画家》。
很多工程师是内向的。他们不擅长直接表达自己,所以会通过作品来表达。纳瓦尔说,他现在公司里至少一半的工程师,都有自己的艺术作品。有人做过优雅的数学证明,有人创作计算机艺术,有人做雕塑、设计衣服、设计门把手。
这些人对美有追求,对细节有执念。他们不只是想把代码写出来,他们想把代码写得漂亮。
纳瓦尔的合伙人认为,最高级的艺术形式是工业设计。比如苹果的 AirPods。那些优雅的曲线、令人满意的咔嗒声、藏起来的按钮、隐形的电池、完美贴合耳朵的设计,这些都是艺术与工程的完美结合。
苹果之所以成功,就是因为它是一家由工程师艺术家组成的公司。他们真心在乎产品的每一个细节。用户能感受到这份用心。
7
策展比创造更重要
纳瓦尔在 2025 年发了一条推特:创业公司的工作,就是找到未被发现的人才,并把他们提炼成产品。
关键词是"未被发现"。
如果一个人的才华已经被广泛认可,那你很难招到他,因为所有人都想要他。你必须在别人发现之前就找到这些人。
怎么找?
马斯克是这方面的大师。他的方法是:第一,选一个足够大、足够激动人心的使命。第二,尽早行动。
比如 SpaceX。Elon 在太空探索还不酷的时候就开始做了。那时候大家都觉得民营公司做火箭是天方夜谭。但正因如此,他能从 NASA、波音、洛克希德和各大学招到最好的航天工程师,因为那时候竞争还不激烈。
如果你做的是一个已经很拥挤的领域,你就要更有创意。纳瓦尔的合伙人喜欢找那些做奇怪项目的人。不是主流的 AI 模型训练,而是用冷门的机器学习算法做微气象预测这种偏门领域。
他会花一两天时间研究对方的 GitHub 和论文,真正理解他们在做什么。然后提出一个深思熟虑的问题,或者写一小段代码作为补充。
这种方式很有效,因为那些在角落里独自钻研的人,突然发现有人真正理解他们的工作,会很兴奋。
最妙的是,纳瓦尔的合伙人不是为了招人才这么做。他本来就喜欢研究这些东西。招人只是副产品。
这种真诚是装不出来的。
8
早期团队要有点像邪教
纳瓦尔说了一个可能会引起争议的观点:早期团队看起来确实有点像邪教。
他们是单一目标驱动的,有点偏执,有点怪。但这些人的怪是同一个方向的怪。
如果你在早期就追求多元化,追求各种不同背景、不同想法的人,你会发现大家整天在争论基本问题,根本没法推进工作。
早期阶段,你需要所有人在核心问题上已经达成共识。大家不需要讨论为什么要做这件事,只需要讨论怎么把它做得更好。
纳瓦尔引用了一个匿名创始人的话:早期创业公司最不需要的就是所谓的多样性。你需要的是单一文化,是一群在核心信念上高度一致的人。
这不是说你要歧视任何人。这只是说,在 0 到 1 的阶段,一致性比多样性更重要。等公司做大了,有了稳固的产品和文化,再去追求多样性也不迟。
伟大的创始人在外界看来可能很随和,但其实都是高度主观、近乎独裁的。他们对产品有极强的个人意见。好的产品都是主观的。它有明确的取舍,知道什么该做、什么不该做。
如果你没有强烈的观点,你就会做出一个大杂烩,一个充满互相矛盾功能的产品。
9
只招天才
纳瓦尔和他的合伙人在最新的公司里定了一个标准:只招天才。
这听起来很傲慢,但它确实设定了一个极高的门槛。
当你有了这个标准,你就会环顾四周,问自己:谁不是天才?如果有人不是,要么是你还没到需要大规模扩张的阶段,那你就应该让这个人离开。要么是你已经进入了需要规模化的阶段,那你就要接受团队不可能全是天才的现实。
纳瓦尔说,如果你能招到一个天才,你就已经很幸运了。按照这个速度,考虑到员工的流动率,你最多也就能组建一个 30 到 50 人的公司。但哪怕只有 10 个天才,你也远远领先于大多数公司。
他还补充说,其实每个人都有自己的天才区域。你要找的是那些已经找到自己天才区域的人,或者至少有潜力找到的人。
这个标准很难坚持,因为招人的压力很大。业务在发展,事情越来越多,你会忍不住降低标准,先招个人进来填补空缺。
但这是最危险的。因为一旦你招错了人,整个团队的基因就被稀释了。 November 11, 2025
1RP
小銭稼ぎのために企業Vがそこまで最低なことをしたんだとしたら、そしてそれを許すなら、にじさんじという企業体制自体が悪い
稼ぐためには真っ当に働く大多数の社会人を貶めて愚弄してよい。というのがにじさんじの判断ってことだよね
最低 https://t.co/W61lZVMSGH November 11, 2025
倭国人差別も反対してるときた。解決した慰安婦問題やらを掘り返して反日推奨、倭国は気に食わないと文句垂れてるクセにな。大多数の韓国人が反対してるなら騒いでないハズだろう?
久々に面白い冗談聞いたよ。 https://t.co/SBTx3EFB6t November 11, 2025
ほんそれ
多分、みんな興味無いVtuberに対し、社会や行政、企業に向けるべき怒りをぶつけてるよ
その原動力があるのに、どうして投票にいかないんだい?
A.「私が行っても社会なんかかわらないし、めんどくさい時間の無駄」
大多数…? https://t.co/5GIBx8caf4 November 11, 2025
2025错过edgeX、被Monad反撸后,我悟出的2026暴富铁律💰💰💰🔥🔥🔥
经历了2025年参与Monad测试网被反撸,错失edgeX早期参与红利之后,我痛定思痛,对本年度所犯错误进行了深刻反思,并分析了一些大V精准捕捉暴富机会的秘诀。在此基础上,我对2026年应该遵循的WEB3赚钱思路做出如下总结:
1⃣筛选优质赛道的潜力项目。
✅选择比努力更重要。
不要一味地埋头蛮干,要定期静下心来,深度思考,保持敏锐的洞察力。
例如:当前哪个赛道最具潜力?该赛道中哪个项目最具发展前景?
我目前参与的项目是否真正值得投入?
✅多渠道获取市场信息。
持续关注行业热点,追踪@kiki520_eth,@kuiGas,@Ice_Frog666666,@Bitwux,@Monica_xiaoM等加密领域资深大V动态,深入分析他们参与的加密项目,及时获取高价值信息并积极参与。
✅用发展的眼光看待问题。
加密行业是技术驱动的革命,新技术,新想法层出不穷,曾经的龙头项目也可能迅速被后来者超越,而最终走向衰落。因此,我们需要保持警惕,密切关注不同赛道的格局变化,并顺势而为。
2⃣专注精品项目,宁缺毋滥。
❌未获得知名机构投资与背书,商业模式不够清晰的项目不参与。
❌缺乏技术创新和流畅交易体验的项目不参与。
❌避免在小项目上浪费过多的时间和精力。
✅将更多的精力投入到确定性更高的优质项目中。
✅过去L1/L2公链是容错率最高的赛道,但是目前大多数项目都缺少真实价值支撑,应该重布局盈利能力强的应用层项目。
3⃣享受优质项目早期成长的红利。
🔹在优质项目的发展早期介入,享受成长红利,并在项目TGE时套现离场。
🔹99%的项目在其TGE时达到高光时刻,因此从概率的角度看,此时卖出是最佳选择。
4⃣不断学习财商知识。
财商知识为何重要?主要有以下两个原因:
✅加密行业是技术驱动型的产业革命,技术迭代迅速,新项目,新理念不断淘汰旧有模式。即使你天赋过人,也难以持续捕捉所有新机遇。这也是巴菲特一直不愿意重仓科技股的原因之一。
✅财富如同流水,始终处于流动与变化之中。若缺乏守财能力,财富便会悄然流失。
凭运气赚的钱,若无财商理念支撑,往往难以持久。现实中,
❌有人中彩票获百万美元,数年后仍重返贫穷;
❌年薪数千万美元的NBA球员,退役数年后可能露宿街头;
❌重度合约交易者一次爆仓,可能让多年积蓄瞬间归零。
这些案例皆因当事人虽有赚钱的能力,却缺乏守财并实现增值的财商理念。
财商理念本质是在控制风险的同时让钱生钱的学问。掌握足够的财商理念,不仅能守护财富,更能让钱生钱,实现24小时不间断的财富增值。
限于个人认知的局限性,欢迎大家查漏补缺,留下宝贵意见!
🙏最后,预祝所有的小伙伴们2026年暴富!💰💰💰
[😀看完点个赞♥️+转走🔄,👍这可能是你2026年翻身的第一步👉🚀🚀🚀] November 11, 2025
@darkarutemisu 私はあなたが言った若い医師のような人が大多数を占めてると思いませんし、当人だけの問題じゃないとしても実際転職できていないわけで色々な優秀な人を見て、その人達が自分の立場になった場合に転職できないのかと考えた時、転職できないとは言い切れないですよね?結局この世の不利益なんて当人の November 11, 2025
やっぱり歌なら耳だけの情報でも満たされるけど、、なんなら耳だけだからこそ得れるものがあったりだけど、そうじゃない場合大多数の人が「姿が見たい欲」のが強いんだろなぁ、姿も好きなんだからそりゃそうか November 11, 2025
シャドバンサーチしたらここ一年ぐらい定期的にシャドバンくらってるんですが、大多数みられないなら好きな事だらだら話してもTLの迷惑にならなくていいかなって…ただそれを全く知らない方に流されるのは苦痛だな! November 11, 2025
@US100andXAUUSD @bassman0916 また、海外でも男性助産師による性被害が報告されているのはご存知かと思います。被害にあう可能性を無くすために性別を制限してほしいという女性の意見は無視されるのでしょうか?
私が質問してるのは貴方です。なぜ「大多数の」女性の意見を無視するのでしょうか? November 11, 2025
蔡崇信港大演讲深度复盘:中国AI的四张底牌,以及被误读的所谓“赢家规则”
Joe Tsai's HKU Speech: The Four AI Advantages of China and the Misunderstood So-Called "Winner's Rule"
笔者注:11月5日,香港大学经管学院主办“陈坤耀杰出学人讲座”,以“前瞻十年:推动中国经济增长的科创引擎”为题进行对谈,邀请了阿里巴巴集团联合创始人及主席蔡崇信先生分享创新,科技及人工智能如何重塑商业格局并驱动中国经济长期增长。活动在港大陆佑堂举行,据主办方透露,这场演讲报名史上最火爆,邮件发出两小时内报名人数已经突破1200人。。。
从某种意义上来说,这也算是一种历史的呼应。17年前,马云曾站在同一个舞台上演讲。。。而在这次与港大副校长邓希炜教授的深度对谈中,蔡崇信抛开客套,直击中美AI竞赛的核心,剖析了阿里的商业进化论,并为年轻人给出了极具穿透力的建议。。。
以下摘录来源于至顶科技高飞。
一、重定义AI竞赛:中国手握“四张底牌”
蔡崇信开场便抛出一个反直觉的观点:美国人定义的AI竞赛规则,可能是错的。
目前的“美式计分板”只看谁的大语言模型(LLM)更强,今天是OpenAI,明天是Anthropic,后天是Gemini;但在蔡崇信看来,这种评价体系本身就有问题。
1,真正的赢家逻辑:渗透率 > 模型参数
The winner is not about who has the best model... The winner is about who could use it the best in their own industries, in their own lives... (赢家不是看谁模型最好,而是看谁在自己的行业和生活中用得最好。)
AI的真正价值在于渗透率(Penetration Rate)。相比于追求参数的无限堆叠,中国政府的AI规划显得更为务实:目标到2030年,AI代理和设备的渗透率达到90%。不讲玄学,只讲普及。
2,中国为何能普及更快?四张系统级底牌
为了支撑这一普及率,蔡崇信列出了中国拥有的四项关键优势:
底牌一:电力成本优势(低40%)。训练和推理本质上是能源消耗战。得益于15年前启动的特高压输电网络建设(“西电东送”等),中国国家电网每年的资本支出高达900亿美元,是美国的3倍。这使得中国的电力装机容量不仅是美国的2.6倍,新增容量更是美国的9倍。
底牌二:基建红利(低60%)。在中国建设数据中心的成本比美国低60%。这仅仅是基础设施的成本,尚未计算芯片等硬件。
底牌三:工程师红利与语言优势。全球约一半的AI科学家和研究人员拥有中国教育背景。蔡崇信分享了一个有趣的现象:Meta的AI团队内部甚至常因大家都在说中文,让非中文员工感到“懵圈”。
This is the first time Chinese language is an advantage... (这是中文第一次在科技领域成为一种天然的沟通优势。)
底牌四:算力受美国政府的极大限制反而逼出系统级创新。美国有充沛的GPU资源,而中国没有。但这反而创造了一种“饥饿优势”(Advantage of Starvation)。
When you don't have a lot of resources, you are forced to innovate at the systems level... (当你资源不足时,你被迫在系统层面进行创新。)
为了在有限硬件下训练万亿参数模型,中国团队必须将系统效率优化到极致。DeepSeek(深度求索)就是典型的例子,而在最近的一次加密货币和股票交易的AI竞赛中,阿里的通义千问(Qwen)第一,DeepSeek排名第二。
蔡崇信对同城的DeepSeek评价极高:“他们在做令人难以置信的事情。”
二、开源为什么会赢:成本、主权、隐私的三重逻辑
关于“开源 vs 闭源”的路线之争,蔡崇信给出了明确判断:开源模型终将击败闭源。
这并非单纯的技术优劣,而是因为开源更符合全球大多数用户的利益。他以“沙特阿拉伯,想发展AI,但又想保持AI主权(sovereign AI)”为一个例子,阐述了其中的商业逻辑:
🔹 闭源路径(如OpenAI): 付费昂贵,且必须将数据输入黑箱(Black Box),存在数据主权风险。
🔹 开源路径(如阿里Qwen): 免费下载,部署在私有云上。数据完全可控,成本极低。
只要政府和企业进行理性的成本效益分析(Cost-benefit Analysis),开源都是更优解。
那阿里怎么赚钱?
蔡崇信说得很坦白:"我们不靠AI赚钱。"
阿里的商业模式:“我们不靠卖模型赚钱,我们靠云计算。”蔡崇信坦言,开源模型是流量入口,而随之产生的存储、安全、容器化等云基础设施需求,才是利润来源。这正如早期的互联网:产品免费获客,增值服务变现。
三、阿里进化论:技术自主是“逼”出来的
当被问及阿里如何从电商公司进化为云计算巨头时,蔡崇信的回答非常朴素:“没有秘诀,只是跟着客户需求走。”
🔹 B2B时代:为解决入世后中小企业的出口需求。
🔹 淘宝/支付宝:为解决C端交易中的信任问题。
🔹 阿里云:为解决海量数据处理的成本问题。16年前,如果继续使用Dell、EMC、Oracle的传统IT设施,阿里的利润将被抽干。
We developed cloud computing really out of necessity... out of the need to become self-reliant in technology...(我们发展云计算完全是出于必要,出于对技术自主可控的渴望。)
所以阿里云的起点是“自己吃自己的狗粮”(eat our own dog food):先内部用,用好了再开放给外部客户。
给创业者的建议: 优先选择有机增长(Organic Development)而非并购。自己团队生长出的能力,DNA更纯正,文化更契合。
四、给年轻人的锦囊:思维比技能更重要
在问答环节,蔡崇信针对个人成长给出了高密度的建议:
1,技能层面:学会提问
AI时代,获取答案变得容易。因此提出正确的问题(Ask the right questions)比找到答案更重要。同时,要建立独立的分析框架,而非死记硬背。
2,编程层面:重在逻辑
即使自然语言可以指挥机器,依然要学编程。哪怕是学好Excel公式,也是极佳的逻辑训练。
The purpose is not to actually operate a machine. The purpose is going through that thinking process... (学编程的目的不是为了操作机器,而是为了训练严谨的逻辑思维过程。)
3,专业选择:三个潜力方向
🔹 数据科学(Data Science):随着数据爆炸,懂得管理和分析数据的人才永远稀缺。
🔹 心理学/生物学:人脑是效能最高的机器,理解人脑是理解AI的捷径。
🔹 材料科学:这是一个由比特(Bits)主导的世界,但限制比特速度的是原子(Atoms)。半导体未来会有大量创新和突破,其核心在于材料。
五、风险与泡沫:金融人的视角
1,职业选择:不对称风险
蔡崇信回顾1999年放弃百万年薪加入阿里的决定,将其形容为“不对称风险收益”(Asymmetric Risk-reward): 下行风险有限(最差回去做律师),上行空间无限(像看涨期权)。
他强调:“机会是来找你的,你要做的是时刻准备好(Preparedness)。”
2,AI泡沫:区分金融与技术
现在的AI像2000年的互联网吗?蔡崇信建议区分两种泡沫:
🔹 金融泡沫:估值可能过高,这很难评判。
🔹 技术泡沫:技术本身是真实的。就像2000年股市崩盘并未抹杀互联网的存在一样,今天投入的所有AI基础设施和模型研发,都不会打水漂,它们是通向未来的基石。
六,三个最核心的洞察
Q1:中国AI的真正优势是什么?
不是模型本身,而是让AI被广泛使用的整个生态系统。电力成本低40%、数据中心建设成本低60%、全球一半AI人才有中国学历、资源匮乏逼出系统级创新。这些加在一起,让中国更有可能实现AI的大规模普及。而普及率才是真正的计分板。
Q2:为什么开源模式会赢?
因为对全球大多数用户来说,开源同时解决了成本、数据主权和隐私三个问题。闭源模型要付费,数据要喂进黑箱;开源模型免费,数据可以留在本地。这不是技术优劣之争,是利益格局使然。
Q3:年轻人应该怎么为AI时代做准备?
学编程不是为了写代码,而是训练逻辑思维;学统计(数据科学)是因为数据会爆炸;学心理学是因为要理解人脑这个最高效的"机器";学材料科学是因为让比特跑得更快的是原子。更重要的是,学会提出正确的问题,这比找到答案更有价值。 November 11, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。



