AMD
0post
2025.11.28 07:00
:0% :0% (30代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
NVIDIAの最大のライバルはAMDでもGoogleでもない。「物理学」だ。市場が次世代GPUの性能に熱狂している裏で、データセンターの現場では静かな、しかし致命的な「物理的敗北」が確定しつつあることを、どれだけの人が理解しているだろうか。
ぼくらが直面しているのは、単なるチップの進化ではない。熱力学という宇宙のルールが突きつける「120kWの壁」という絶対的な限界点だ。
「空冷」の時代は終わった。
これは比喩ではない。物理的に、空気という媒体ではもはやAIを支えきれないのだ。最新のBlackwell世代、特にGB200 NVL72が突きつけた現実はあまりに残酷だ。1ラックあたり120kW。この熱密度は、従来のハイパースケールデータセンターの4倍から6倍に達する。
これを「風」で冷やすことが、いかに狂気じみているか想像してほしい。
空冷で120kWを制御しようとすれば、データセンターはもはや計算する場所ではなく、巨大な暴風実験室と化す。ここで発生するのは2つの絶望的な現象だ。
一つは「寄生負荷(Parasitic Load)」の暴走。
空気は熱を運ぶ効率があまりに悪い。そのため、熱を排出するためだけにファンを限界まで高速回転させる必要がある。その結果、供給される電力の20%から30%が、計算ではなく「ファンを回すためだけ」に消えていく。AIを動かしているのか、巨大な扇風機を動かしているのか、もはや区別がつかない本末転倒な事態だ。
もう一つは、より深刻な「音響による破壊」だ。
120kWを空冷するためのファンノイズは、ジェットエンジンの至近距離に匹敵する音圧を生む。この凄まじい「音の振動」は、サーバー内のHDDの読み書き性能を物理的に低下させ、さらには精密な基板のはんだ接合部さえも破壊するリスクがある。
つまり、空冷を維持しようとすれば、AIはその「叫び声」で自らの身体を壊してしまうのだ。
だからこそ、産業全体が「水」へと舵を切る。これは選択肢の一つではなく、唯一の生存ルートである。
液体は空気の約4,200倍の熱容量を持つ。水冷(液冷)への移行は、単なる冷却方式の変更ではない。人類がシリコンバレーで築き上げてきたインフラの「血管」を、すべて引き抜いて交換するレベルの「総取り替え工事」を意味する。
NVIDIAという「脳」が進化すればするほど、その脳を冷やすための「心臓(ポンプ)」と「血管(配管・CDU)」、そして「冷媒」を支配する企業の価値は、指数関数的かつ不可逆的に高まっていく。
「AIバブル」などという言葉で思考停止する前に、足元を見てほしい。そのサーバーラックは、熱力学の審判に耐えられる設計になっているか?
物理法則は、株価のように反発してはくれない。限界を超えれば、ただ静かに、システムを焼き尽くすだけである。 November 11, 2025
8RP
テクノロジーアナリストが選ぶAI関連10銘柄
AIバブルではなく「本格普及はこれから」
🔸AI革命はまだ序盤、企業の導入率はわずか3%
ウェドブッシュのアナリスト、ダン・アイブス氏は「AI革命はまだ始まったばかり」と強調しています。
米国企業のAI導入率はわずか3%、世界全体では1%未満にとどまっているとのことです。
話題は大きいものの、実際の普及はまだ初期段階だと指摘しました。
🔸1999年とは異なる確かな収益基盤
アイブス氏はドットコムバブル期との比較を否定しています。
当時の平均的なテクノロジー株は売上高の30倍で取引されていましたが、ビジネスモデルは未実証でした。
現在の大手企業は数千億ドルの現金を生み出しており、実際のインフラと顧客を持っています。
🔸需給のひっ迫が示す成長余地
エヌビディアのチップに対する需要は供給を大きく上回っている状況です。
このアンバランスは過熱の兆候ではなく、産業が需要に追いついていない証拠だとアイブス氏は述べました。
エヌビディアはアマゾン、グーグル、マイクロソフトといったAI競争の主要企業に供給しています。
🔸注目すべき10銘柄とその理由
アイブス氏が選んだのは、AI経済に不可欠な企業です。
マイクロソフトは企業のAI導入で最も利益を得る可能性が高く、パランティアは政府・企業向けAIソフトの筆頭です。
エヌビディア、AMD、テスラ、アップル、メタ、アルファベット、クラウドストライク、パロアルトネットワークスが選ばれました。
🔸まとめ
AI関連の設備投資は2026年までに5500億〜6000億ドルに達すると予想されています。
米国企業の5%未満しかAIを本格導入しておらず、成長余地は極めて大きいとアイブス氏は見ています。
「AIパーティーは午前4時まで続くが、今はまだ午後10時半にすぎない」と表現しました。
🔸参考
Tech analyst Dan Ives flags 10 stocks to own, insists there's no AI bubble
https://t.co/M9aA185mCv
🔸図解 November 11, 2025
5RP
Googleは、TPUを一般企業やユーザ向けに広く販売するという選択肢を残していて、もし普及できれば、TPUの販売がGoogleの収益の柱となり、全方位で圧倒的な勝者になる可能性はあります。
ただし、NVIDIAより性能が低めで、価格が安いAMD Instinct GPUがあまり普及していないことを考えると、
普及するためには、TPUが価格と性能でNVIDIAよりかなり優位に立つことが条件です。
また、普及にはAIモデルの処理の互換性や、導入のしやすさが鍵になります。
試した限りでは、AMD Instinct GPUとGoogle TPUはだいたいのAIモデルが動きますが、AMD Instinct GPUはコードの書き換えがほぼ必要なく導入できる一方で、Google TPUはコードの書き換えが必要で、導入のハードルが高いです。
AmazonのTrainiumも試しましたが、動くAIモデルが限られ、導入のハードルも高いので、NVIDIAに対抗しうるレベルまで成熟しているとは言えない印象を受けました。
試せていないですが、他にも、Cerebras WSE-3、Groq LPU、Intel Gaudi 3、Huawei Ascendなどがあり、いつか試してみたいです。
まとめると、TPUは価格・性能面での十分な優位性や、導入のしやすさで課題があり、また他にもプレイヤーが多いので、NVIDIAのように普及できるかは現時点では未知数かと思います。
また、NVIDIAの独走を食い止めるという意味では、やはりAMDが本命なのではないかと思います。 November 11, 2025
2RP
《最高峰モデルPCをプレゼント》
抽選で🔟名様へ👇をプレゼント🎁
NEXTGEARゲーミングPC FG-A7G80
🟪Windows 11 Home 64ビット
🟪AMD Ryzen 7 9800X3D
🟪NVIDIA GeForce RTX 5090
【参加受付】
➊いいね+フォロー
➋好きな絵文字をコメント
〆切:11/30 23:59 https://t.co/xm72JBG6NB November 11, 2025
ワイルズXbox版のローポリ問題、Steam版と同じRadeonドライバ関連かも?
PC版で最近ローポリになったばかりだけど、シェーダー再コンパイルで治った
PCなら再コンパイルかドライバを古いのに戻せるけど、コンソールは難しいし同じ原因だとするとAMD側の対処が必要なのかもね
https://t.co/1m1ckyhfyT November 11, 2025
RTX4060→RX9060XTでスペック上はかなり上がったけど原神とスタレは重い現象
AMD側の設定を弄ってみたけどあまり改善が見られずどうしたものかと一応ゲーム側の整合性チェック&修復をやってみたら安定しだした
構成を変えたら大きいゲームは再インストールが安定択か November 11, 2025
RTX4060→RX9060XTでスペック上はかなり上がったけど原神とスタレは重い現象
ラデはホヨバゲーと相性悪めとは聞いていてたしAMD側の設定を弄ってみたけどあまり改善が見られずどうしたものかと一応ゲーム側の整合性チェック&修復をやってみたら安定しだした
一応ゲーム再インストールも試す? November 11, 2025
2025年,我的几个第一性原理:
1. LLM token一定会越来越便宜,模型越来越强大,记住,所有做LLM Agent的人,都必须思考如何用10~1000倍的token带来革命,而不是他妈跟个傻逼似的天天想着省token;
2. chatbot的形式一定会被消灭,no chatbot revolution才是正确方向,一切AI应用不可能 、不应该、绝对不是一个个大号聊天机器人,一个个大对话框等着人大段大段往里敲字,
记住,所有AI产品必须重新设计,一切chatbot AI应用必定会被改写成NO CHATBOT形式,无一例外,chatbot的产品形态必然会彻彻底底、完完全全地淘汰,
或者那个傻逼一样的对话框,至少作为二等公民出现;
3. AI助手一定不能用“按个按钮”、“截个图”、“上传个文件”,再写个长长的prompt的形式出现,让用户解决个问题,先让用户点点按按十几次,
AI助手一定是具有强侵入性的,一定能主动嗅探一切环境,吞掉一切数据和信息,一定会主动在后台观察一切操作和行为——并且在疑似需要帮助的时候,主动弹出个对话框,用户一键确认后,主动接管,主动解决一切问题,
而绝不应该像准备个考试一样,准备文件、准备截图、准备一大堆按钮、准备一大长串prompt,让用户跟个大傻逼似的,手忙脚乱地在那儿表演,
总而言之,无论是商业落地的AI Agent,还是各种办公软件、工具、生活类的AI Agent,一个个不仅是傻逼兮兮的大黑框chatbot,而且要用户手动输入一大堆文件、图表、链接、信息,再敲一大段prompt——这些全都走了大弯路,
toC的无缝衔接强入侵的主动AI Agent助手,完完全全不会给你任何告诉他的机会,而是让AI Agent主动判断你是否需要我,直接给你一个大大的对话框,简单描述一下“我计划怎么帮助你”——你点一下确定,它来解决后面所有的事情。
4. 一切能用coding解决的问题,都是SWE Agent能解决的问题,也就是说,都可以直接拿claude code这类工具套壳来用,
SWE Agent这个形态,最擅长解决的问题,就是在一个确定的环境(一台机器、几台机器、若干仿真环境、一套terminal里的编译器/脚手架/运行环境/包管理、profiling和debugging方法)解决的问题,
而用coding解决的问题,从来都不止coding,一切VHDL/Verilog等电路设计、电路simulation和validation、一切类似labview和matlab simulink中可以仿真的电机、信号、示波器等等模块,
甚至ansys和CAD这类工具,还有大量data science和计算的问题,以及用lean或者formal-proof解决一些proof-based的数学和模型问题,都可以转化成一些API和coding解决的问题,然后让SWE Agent来解决,
这类问题可以叫做“一台机器上的确定环境下的问题”,
这类问题的特点是,可以靠LLM的智能不断拆分成一大堆subtasks,然后在本地环境下反复尝试、反复试错、反复看output、反复试验结果,失败后再换一个新的approach;
5. full self coding(https://t.co/W0qe8YtsYX)就是基于上面所有第一性原理的一个试验。
我将会设计一套侵入式试验,让10~500个ai agent组成一组,给一个github项目找出所有潜在的问题,包括文档、测试、修bug、优化、重构、完成todo list、加功能、加API等等,让10~100个agent并行完成这个repo潜在需要完成的所有任务,
并且让至少10组这样的agent去github上面公开贡献,等于在没有任何人为输入prompt的前提下,造出来1000~5000个agent在开源世界源源不断地做出贡献,就死死赖在github上面,尝试修复一切可能修复的潜在问题,做出贡献。
请你记住full self coding是最坚决贯彻test-time scaling law的行为,
full self coding坚决相信,人是ai agent世界最傻逼、最慢、错误最多、判断失误最高的存在,让程序员手敲prompt,无异于给AI Agent拖后腿,
只有先分析出问题,然后让10~500个agent同时并行运行,才能最大化执行的效率,最快速度解决已经发现的问题,无休止地为github提供潜在的有价值贡献——并且最关键的是,把“敲prompt的程序员”这个最垃圾、最慢、出错最多的环节彻底消除;
6. full self coding最大的瓶颈,一个是token价格过高,一个是目前几乎所有主流供应商,LLM inference速度过慢,
所以我最后的一个想告诉大家的价值观是:
groq、sambanova、cerebras这种在片上堆满几个GB的SRAM,在inference上效率是nvidia、amd、google TPU这些落后架构的10~50倍,这是test-time scaling law的最后一环,
如果人类在claude code、gemini cli上全面接入groq、sambanova、cerebras上host的模型,所有速度都会再快10~50倍,
现在最大的问题是,groq、sambanova、cerebras他们只能白嫖开源模型(deepseek、qwen、zai甚至更难用的llama),因为这三家自己没能力训练模型,本质是卖芯片的(实际是自己造完data center后卖API),
但是只要中国几家厂商能源源不断输送最好的开放weights的模型,让groq、sambanova、cerebras持续用上他们能用的最好的开放weights的模型,这三家最终会把nvidia、google tpu连同他们的客户一锅端。
人类依然非常需要LLM inference的时间上的飞速优化,只不过现在人们需要更强的模型,而人类愿意为此多等等时间,
但是终归有一天人们会发现,无论是coding,还是在各种infra中快速反馈相应,哪怕是简单的搜索或者问答,inference速度这件事才是至关重要。 November 11, 2025
今回の件の違和感の元凶は何かというと、受益者自身が開発しないものをOSSにする、という点なんだよ。
Linuxカーネルだと、RHみたいなソフトウェアベンダーはむしろ珍しくて、LinuxというOSが動くことにメリットがあるハードウェアベンダーのコントリビューションが大きい。IntelやAMDといったCPUベンダーはもちろん、デバイスドライバーを提供すれば自社H/Wを使って貰えるベンダーが多い。
某弊社がPostgreSQLに大きくコミットしているのは、自社のサービスとして提供するというメリットがあるから。AWSさんがコミットしているのも同じ理由だと思う。
なので、自治体→ベンダーという構造で、ベンダーが受益者たり得るのかが、不勉強でよく分からんのだよね。自治体そのものが開発するのは倭国の場合は無理でしょ? デジ庁が開発するスキームなら、まだ分かるかなぁ。 November 11, 2025
📒12年で400倍のリターンを生んだ私の投資4原則 —— NVIDIAの独占は終わるのか?その問いが的外れな理由 $NVDA
2025年11月、投資家コミュニティで最も熱い議論を呼んでいるのは、AIモデルの覇権争いではない。
「NVIDIAの独占は終わるのか」
これだ。
11月24日、The InformationがMetaとGoogleの交渉を報じた。MetaがGoogleのTPU(Tensor Processing Unit)を数十億ドル規模で利用することを検討しているという。これまでNVIDIA一辺倒だったMetaが、代替を真剣に模索している。
同じ週、Amazonは自社開発チップ「Trainium3」の年内プレビューを発表した(量産は2026年初の見込み)。Microsoftも独自チップ「Maia」の開発を進めている。Googleは第7世代TPU「Ironwood」の一般提供を数週間以内に開始すると発表し、Anthropicは10月にTPU利用の大規模拡張を発表、最大100万基のTPUでClaudeを運用する計画を明らかにした。
「NVIDIA終焉」の声が、かつてないほど大きくなっている。
私は20年以上、テクノロジー株に投資してきた。2013年から保有し続けている NVIDIA $NVDA は400倍以上のリターンをもたらした。当然、この問いは私にとっても切実だ。
しかし、結論から言おう。
「NVIDIAの独占は終わるのか」という問いは、投資判断において的外れだ。
なぜか。この記事では、その理由を段階的に論証する。そして、投資家が本当に問うべきことは何か、私のこれまでの投資経験に基づいてその考え方を共有したい。
なぜ今「NVIDIA終焉論」が盛り上がっているのか
まず、終焉論者の主張を公平に整理しよう。彼らの議論には、無視できない根拠がある。
第一に、ハイパースケーラーの「脱NVIDIA」の動きだ。
Google、Amazon、Microsoft、Metaという4大テック企業のすべてが、独自AIチップの開発に巨額投資を行っている。GoogleのTPUは10年以上の歴史を持ち、第7世代Ironwoodは1チップあたり4,614テラFLOPS(FP8)という性能に達した。AmazonのTrainiumは第3世代に進化し、コスト競争力でNVIDIAを脅かしている。
これらの企業がNVIDIAへの依存度を下げようとする動機は明確だ。NVIDIAの粗利益率は70%を超える。大口顧客から見れば、NVIDIAに支払う金額の大半が「利益」としてNVIDIAに吸い取られている。自社でチップを開発すれば、この利益を自社に取り込める。
第二に、AIモデル競争の激化がインフラ多様化を加速させている。
2025年11月の2週間で、AIモデルの王座は4度入れ替わった。11月12日にOpenAIが GPT-5.1 をリリース。5日後の11月17日にxAIの Grok 4.1 が主要LLMベンチマークで王座を奪取。翌18日にGoogleの Gemini 3 がLMArena Elo ベンチで 1501という史上初の1500超えを記録。そして24日、Anthropicの Claude Opus 4.5 がSWE-bench Verifiedで初の約80%台を記録しトップに立った。
この激しい競争の中で、各社はインフラの多様化を進めている。OpenAIは10月28日にMicrosoftとの再契約でクラウド独占性を緩和し、11月3日にAWSと7年間B(380億ドル)の大型契約を締結した。
第三に、Google TPUの外部提供の拡大だ。
従来、TPUはGoogle社内での利用が中心だった。しかし、2024年12月に第6世代Trilliumが一般顧客向けに提供開始され、第7世代Ironwoodも2025年内の一般提供が予定されている。Anthropicは2023年からTPUを使用してきたが、2025年10月に最大100万基への大規模拡張を発表した。そして、MetaがTPUを数十億ドル規模で利用することを検討している。
これらの事実を見れば、「NVIDIAの独占は崩れつつある」という主張には一定の説得力がある。
しかし、この議論には決定的な見落としがある。
終焉論者が見落としている「不都合な数字」
2025年11月20日、NVIDIAは2026会計年度第3四半期の決算を発表した。
売上高は.0B(570億ドル)。前年同期比+62%、前四半期比+22%。データセンター部門の売上は.2Bで、全体の90%を占めた。第4四半期のガイダンスはB。アナリスト予想を上回る数字だった。
決算説明会で、CFOは「2026年末までに0B(5,000億ドル)の需要可視性がある」と明言した。供給は「週1,000ラック」のペースでなお逼迫している。Blackwell世代の需要について、Jensen Huangは「想像を絶する」と表現した。
「TPUの脅威」「カスタムシリコンの台頭」が叫ばれる中で、この成長率だ。
しかし、私が最も注目したのは売上高ではない。
決算説明会でJensen Huang CEOが言及した「5000億ドルの可視性(visibility)」だ。これは、2026年末までにNVIDIAが確実に認識できる需要の総額を意味する。受注残高ではなく、顧客との対話から見える需要の全体像だ。
5000億ドル。これは、NVIDIAの年間売上高の2年分以上に相当する。これは現在も供給が需要に追いついていない状況が続いているということだ。
ここで、終焉論者の主張と現実の数字を対比してみよう。
終焉論者は言う。「ハイパースケーラーは脱NVIDIAを進めている」と。
確かに、GoogleはTPUを開発し、AmazonはTrainiumを開発し、MicrosoftはMaiaを開発している。しかし、これらの企業は同時に、NVIDIAからも大量のGPUを購入し続けている。
なぜか。需要がすべてのチップメーカーの供給能力を超えているからだ。
OpenAIが発表した2025年から2035年のインフラ投資計画を見てほしい。Broadcomに3500億ドル、Oracleに3000億ドル、Microsoftに2500億ドル、NVIDIAに1000億ドル、AMDに900億ドル、AWSに380億ドル。合計1兆ドル超。
これは「NVIDIA離れ」の計画ではない。全方位への投資拡大だ。NVIDIAへの投資額1000億ドルは、現在のNVIDIAの年間売上高の約半分に相当する。
終焉論者が見落としているのは、単純な事実だ。
「NVIDIAの独占が崩れる」と「NVIDIAの売上が減る」は、全く別の話だ。
市場シェアが100%から80%に下がっても、市場規模が3倍になれば、売上は2.4倍に増える。
これが今、AIチップ市場で起きていることだ。
Google TPUの実力を冷静に評価する
終焉論を否定するだけでは不十分だろう。
TPUの実力を正確に理解することが、投資判断には不可欠となる。
続きはこちら!:
https://t.co/ByZGJ5MzfW November 11, 2025
凄まじい規模!世界の半導体売上が7〜9月の3カ月だけでなんと“約32兆円”!?NVIDIAがあっとうてきな首位、倭国からはソニーも売上+51%で世界12位!AI特需での好調、そして26年に心配される「AI依存の反動」まで、生活者目線でやさしく整理します👇
—今回なにが起きた?
・対象は2025年7〜9月(第3四半期=3Q)。
・世界半導体市場は2,080億ドル(約32兆2,400億円/1ドル=155円)で、四半期として初の「2,000億ドル超え」!
・2Qから+15.8%、前年同期比+25.1%と、なんとリーマンショック後級の伸び。
—ランキングの中身(NVIDIA&メモリ)
・1位NVIDIA:売上570億ドル(前期比+22%)。2位サムスンの2倍以上という“圧倒的存在感”。NVIDIAはAI向けデータセンター(AIの工場のような巨大サーバー群)で使うGPU(大量計算が得意な頭脳チップ)をほぼ独占的に供給。
・2位サムスン、3位SK hynixはメモリメーカー。AIサーバーやスマホ・PCの「データをためる部品」がよく売れています!
・唯一マイナスのMediaTek(▲5.5%)は、スマホ向けの頭脳チップを設計する台湾企業。スマホ市況の弱さが響いた形。
—倭国勢ソニー・キオクシア・ルネサス
・ソニー:41.7億ドルで世界12位。前期比+51%と大ジャンプアップ!iPhoneなどスマホ向けなどの高性能カメラ用イメージセンサーが好調。
・キオクシア:30.4億ドルで15位(+31%)。AIサーバー向けのデータをためる半導体の需要増が追い風に。
・ルネサス:22.7億ドルで18位(+3%)。自動車向け半導体が主力で、在庫調整もあり伸びは小幅。
—25年4Qと「ガイダンス」とは?
・“4Qガイダンス”=企業が投資家向けに出す「次の四半期の売上・利益の見通し」のこと。
・TOP20のうち、25年10〜12月(4Q)のガイダンスを出したのは14社。そのうち、9社が増収予想、5社は減収見通し。
・NVIDIAは+14%、AMDは+3.8%、Sandiskは+13%など、AI&データセンター向けはまだ伸びる見込み。
・一方でInfineon(▲8.7%)、ソニー(▲9.2%)など、自動車・スマホ関連の一部は減収予想。
—「AI依存の反動」はある?
・25年は「AI向けがほぼ一人勝ち」のAI特需イヤー。
・今回のデータをまとめた米国の半導体専門リサーチ会社は「26年はAIの伸びが落ち着き、PC・スマホ・自動車など25年に沈んだ分野が回復する可能性」とコメント。
・世界半導体市場全体では、26年は+12〜18%成長という間の暫定予測。
—生活者としての見方
・短期的には「AI関連にお金が集中 → その反動」で、株価の振れ幅が大きくなりやすいかも。。
・中期では、AI+メモリに加えて、PCの買い替え、スマホカメラの高性能化、EV・自動運転など“身近な分野”にも波及していく可能性。
・熊本で半導体材料の営業をしている立場から見ても、設備投資はAI以外の領域にもじわじわ広がっている実感があります!今後も要注目ですね!! November 11, 2025
12/8 (月) 14:00~
Google渋谷オフィスにて
"Google Cloud と Cadence と AMDが描く、次世代半導体設計"
が開催されます。
クラウドEDA、まさに今検討されている方も多いのではないでしょうか?
https://t.co/lYGCcWs3jb November 11, 2025
(米国最大のトップ50銘柄の過去10年間平均年間リターン)
テクノロジーが圧倒的に強かった10年
NVDA +72.8%
AMD +56.8%
TSLA +39.5%
S&P500平均+14.5%
バフェット+14.2%
長期投資は強者の成長を享受し続けるゲーム。長期で市場を圧倒する企業がリターンを独占。社会が必要とするものが伸びる。 https://t.co/TZGfFZGbLl November 11, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。





