1
インフラ
0post
2025.11.27 11:00
:0% :0% (40代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
NVIDIAの最大のライバルはAMDでもGoogleでもない。「物理学」だ。市場が次世代GPUの性能に熱狂している裏で、データセンターの現場では静かな、しかし致命的な「物理的敗北」が確定しつつあることを、どれだけの人が理解しているだろうか。
ぼくらが直面しているのは、単なるチップの進化ではない。熱力学という宇宙のルールが突きつける「120kWの壁」という絶対的な限界点だ。
「空冷」の時代は終わった。
これは比喩ではない。物理的に、空気という媒体ではもはやAIを支えきれないのだ。最新のBlackwell世代、特にGB200 NVL72が突きつけた現実はあまりに残酷だ。1ラックあたり120kW。この熱密度は、従来のハイパースケールデータセンターの4倍から6倍に達する。
これを「風」で冷やすことが、いかに狂気じみているか想像してほしい。
空冷で120kWを制御しようとすれば、データセンターはもはや計算する場所ではなく、巨大な暴風実験室と化す。ここで発生するのは2つの絶望的な現象だ。
一つは「寄生負荷(Parasitic Load)」の暴走。
空気は熱を運ぶ効率があまりに悪い。そのため、熱を排出するためだけにファンを限界まで高速回転させる必要がある。その結果、供給される電力の20%から30%が、計算ではなく「ファンを回すためだけ」に消えていく。AIを動かしているのか、巨大な扇風機を動かしているのか、もはや区別がつかない本末転倒な事態だ。
もう一つは、より深刻な「音響による破壊」だ。
120kWを空冷するためのファンノイズは、ジェットエンジンの至近距離に匹敵する音圧を生む。この凄まじい「音の振動」は、サーバー内のHDDの読み書き性能を物理的に低下させ、さらには精密な基板のはんだ接合部さえも破壊するリスクがある。
つまり、空冷を維持しようとすれば、AIはその「叫び声」で自らの身体を壊してしまうのだ。
だからこそ、産業全体が「水」へと舵を切る。これは選択肢の一つではなく、唯一の生存ルートである。
液体は空気の約4,200倍の熱容量を持つ。水冷(液冷)への移行は、単なる冷却方式の変更ではない。人類がシリコンバレーで築き上げてきたインフラの「血管」を、すべて引き抜いて交換するレベルの「総取り替え工事」を意味する。
NVIDIAという「脳」が進化すればするほど、その脳を冷やすための「心臓(ポンプ)」と「血管(配管・CDU)」、そして「冷媒」を支配する企業の価値は、指数関数的かつ不可逆的に高まっていく。
「AIバブル」などという言葉で思考停止する前に、足元を見てほしい。そのサーバーラックは、熱力学の審判に耐えられる設計になっているか?
物理法則は、株価のように反発してはくれない。限界を超えれば、ただ静かに、システムを焼き尽くすだけである。 November 11, 2025
23RP
パックン
「(中国の)観光客も受け入れないほうがいいって言うんですか」
→そうです。
犯罪や迷惑行為が飛び抜けて多く、
一条龍なんて舐め腐った仕組みを作り、倭国のインフラや福祉を食い潰すだけの連中なんぞ、害悪でしかないでしょ。
倭国に都合の悪い連中は入れない。
当たり前の話。 https://t.co/qEQ2FazYRO November 11, 2025
15RP
いや、税金がキチンと再配分されてるなら別にいいんすよ…でも現実は違うから。嗜好品どころか食費まで切り詰めてる人が大勢いてインフラは老朽化して医療福祉は年々改悪されてて…なのに与党政治家はテーラーメイドのスーツ着て料亭って。腐敗国家そのもの
せめて基礎控除を300万くらいに上げてほしい November 11, 2025
7RP
倭国としては、もっと米国民の生活に入り込むような投資を心がけるのが良い。いま議論されてる倭国からの対米直接投資を、もう少し米国の弱った部分に効くよう組み替える。例えば米国のボロボロな地方インフラとか、倭国側が協力して改善出来る部分も多いはず。つまり倭国の協力を米国民に見える化する November 11, 2025
5RP
#自由民主先出し
📌全てのG20メンバーが責任共有を
高市総理がサミットで提言
<自由で公正な世界秩序へ>
高市早苗総理は11月22日から23日に開催された「金融・世界経済に関する首脳会合(G20サミット)」に出席するため、南アフリカのヨハネスブルグを訪問しました。
G20サミットに出席した各国首脳によって発出された首脳宣言では、領土取得を追求するための武力の行使や威嚇を慎むこと、ウクライナ等における公正で包括的、永続的な平和に向けて取り組むこと、質の高いインフラへ投資することといったさまざまな課題や目標が掲げられました。
今回のG20サミットには、既存のG20メンバーに加え、18の招待国と24の国際機関も参加しました。世界経済をはじめ、防災、債務持続可能性、重要鉱物、人工知能(AI)、ウクライナ情勢、中東情勢といった国際社会が抱える課題を議論しました。
高市総理は記者会見で「分断と対立ではなく、共通点と一致点を見出し、全てのG20メンバーが責任を共有する形で課題解決に向けた具体的な連携と協力を進めることの重要性を強調し、多くのメンバーからも賛同をいただいた」と、わが国が主導し、国際社会の課題解決を行う考えを示しました。
G20サミットは3つのセッションで構成されました。経済成長に関するセッションでは、高市総理はロシアによるウクライナ侵略は国際秩序の根幹を揺るがす暴挙であることを強調し、世界銀行等の国際機関と連携して財務支援や復興支援等も含めたウクライナの平和実現を呼び掛けました。
また法の支配に基づく自由で公正な国際経済秩序を発展させることや、世界貿易機関(WTO)改革への議論活性化、そして10月の日米首脳会談でも強調した安倍晋三元総理が掲げた「自由で開かれたインド太平洋(FOIP)」の促進を唱え、安倍外交を継承する姿勢を改めて示しました。
自然災害の多いわが国は、これまで知見や技術を世界各国と共有してきたことを強調し、今後も干ばつ対策や気象予報技術といったハードとソフトの両面から国際社会の防災に貢献することを表明。
重要鉱物分野では、持続可能な経済成長実現のため、サプライチェーン多角化を目指し、わが国がアフリカから中南米、カリブ地域へ対象地域を拡大することを明かしました。
各国首脳はアフリカの声が国際社会でより一層反映される必要性や多国間主義の下でのG20の継続的活動、来年議長国である米国の下でも協働することで一致しました。
<積極的な個別会談も実施>
G20サミット開催中に高市総理は各国首脳との個別会談も積極的に行いました。
22日には、英国のスターマー首相と初の会談を行い、8月の英空母打撃群の倭国寄港に触れ、今後も安全保障協力を推進することで一致しました。
また同日ウクライナの和平に関する関係国首脳会合が欧州連合(EU)主導で開催され、わが国はアジアから唯一参加し、イタリアのメローニ首相らと言葉を交わしました。
23日には、ドイツのメルツ首相と経済安全保障分野での協力強化、インドのモディ首相とはFOIP実現への連携、南アフリカのラマポーザ大統領とは鉱物資源をはじめとしたサプライチェーン構築への官民連携を確認しました。
https://t.co/nNVnIea1PK
#ニュース #購読者募集中 November 11, 2025
3RP
🧵📉📈それよりも‼️
【ニック警告:12月相場の“爆心地”はここやで】
“The Fed’s rate ceiling has a hole in it.”
= 金利の“天井”、穴あいとるで?
ニック兄さんの真意ひと言で言うと👇
🟥 “12月は利下げ/利下げないより、揺れ幅の方がヤバい”
せやから今日は“本丸”いくで📣🔥
→ 相場の安全装置“SRF”に不具合疑惑や
🟥① そもそもSRFって何や?
Standing Repo Facility(常設レポ施設)
ざっくり言うと👇
➡ 短期金利が“上限レンジ”ぶち破らんように、FRBが用意した安全弁。
“金利のサーキットブレーカー”みたいなもんや。
普通はこうなる👇
金利跳ねそう
→ 銀行「SRFで即キャッシュ借りよ〜」
→ 上限(FFR天井)を守る
これが FRBの“天井ガードマン” や。
🟦② 今何が起きてる?
銀行「SRF…使うの怖いんやが😇」
理由👇
・使ったら“困ってる銀行”扱いされる
・ディスカウントウィンドウと同じ“恥マーク”化してもうた
→ 誰も触りたがらん
→ つまり 天井ガードマンが職務放棄
🟧③ さらに悪い材料:年末は“金利暴れる条件”フルコンプ
✔ QTで流動性ごっそり吸われた
✔ 財務省の国債発行でさらに吸われた
✔ 高金利でカネが回らん
✔ 銀行はバランスシート縮める季節(12月)
➡ 短期金利が乱高下しやすい“火薬庫ゾーン”に突入。
➡ ニック「これSRF動かへんかったら天井吹っ飛ぶで?」
これが今回の“爆心地”や🔥
🟥④ ニックの核心(ここだけ覚えたら勝てる)
SRFが機能不全のまま年末入ると:
🔻 FF金利がレンジ上限突破
🔻 “FRBの統治能力”に疑問符 → 債券市場が荒れる
🔻 短期金融市場に小型ショック
🔻 株は一瞬ガツン(=押し目の号砲)
ニックは
“利下げ・利下げないの議論なんかより100倍重要や”
と言うてる。
🟫⑤ 投資家への示唆(超重要)
👉 12月前後、FFR上限タッチ/レポ金利ジャンプが出たら“SRF不発”の合図。
👉 でもこれは“売り”やなくて
“押し目を生成する自然災害” やで。
短期の揺れに踊らされる必要ゼロ。
“構造の勝者”さえ握っときゃ勝てる。
🟩⑥ ワイ流:結局どこが勝つん?
倭国:精度×半導体(歩留まり・検査)
米国:AI中枢(NVDA/MSFT/TSMC/ASML)
SRFショックが来ても
全部 “押し目プレゼント箱🎁✨”
理由は簡単👇
→金利が荒れても、構造需要(AI需要・サプライチェーン精度)がビクともせんから。
揺れたら、
むしろ“拾える側の勝ち”。
🟥結論
12月の本番は利下げやない。
“金利インフラ(SRF)が持つかどうか”や。
もしSRFが動かへんかったら—
それは “押し目の号砲” やで📣🔥
ほな、12月相場、準備万端でいこか🥳🗽 November 11, 2025
2RP
次の覇権は量子だ。
AIは序章、本番は「量子冷戦」。
中国は量子計算・量子暗号・量子衛星で
“国家の根幹を奪う覇権” を取りに来ている。
だから今、アメリカと欧州は
IonQに全力を注がざるをえないフェーズに入った。
SDA・NASA・AFRL・EUが一斉にIonQを量子インフラの中枢に組み込み始めている。
この争いは銃でも戦車でもなく、
国家の神経網(通信・金融・軍事)そのもの を巡る戦いだ。
そして IonQ は
“既存の半導体工場で量子チップを量産できる”
唯一の企業として、西側の本丸に座りつつある。
ここが重要だ:
・中国が伸びてもIonQは伸びる
・中国を抑えるためにIonQは伸びる
・どう転んでもIonQが伸びる構造になっている
まだ多くの人が気づいていない。
だが量子の覇権はもう動き始めている。
未来はここで決まる。
追える人だけフォローしてくれ。 November 11, 2025
2RP
10月は過去最大の月次予算赤字を記録し、2840億ドルに上りました。この数字が実際に懸念すべきなのは、私たちがまだ本当の危機に直面していないからです。
2020年のことでした。政府がCOVID-19パンデミックの最中に巨額の赤字を計上した際には、少なくとも物語がありました。経済が停止し、人々が支援を必要とし、支出は緊急対応でした。2025年10月は違います。経済は機能しており、失業率はなんとか管理可能で、それでもなおパンデミック対応に匹敵するレベルの赤字を計上しています。本質的に、緊急事態ではないのに緊急事態のように支出を続けているのです。それが本当の問題です。
この仕組みを理解する価値があります。なぜなら、それが他のすべてに波及するからです。現在、徴収された税収1ドルあたり24セントが、即座に国債の利子支払いに充てられています。政府の月間総収入は約4040億ドルですから、単一の他のプログラムに資金を充てる前に、約1000億ドルが消え失せます。
10月の利子支払いだけで1040億ドルに達し、過去最高を更新しました。これは前年同月比27%増です。この事態は、借入コストが大幅に上昇したためです。政府の債務に対する平均金利は、2022年初頭の1.56%から2025年半ばには約3.4%に上昇しました。金利の上昇は、新たに借り入れる1ドルあたりのコストを高め、政府が収入を超える支出を続けているため、これらの高金利で借入を繰り返し、状況を徐々に高コスト化させています。
将来の見通しこそが、本当に心配な点です。利子支払いは現在、社会保障とメディケアに次ぐ第3位の連邦支出項目であり、他のどの予算カテゴリーよりも急速に成長しています。議会予算局の予測では、10年以内に利子コストが年間1兆8000億ドルに達し、2035年までにGDPの4.1%を占める可能性があり、これは1991年以来の最高水準です。
利子が予算をこのように支配すると、他のすべてが圧迫されます。国防支出、インフラ、研究、新規プログラムが、ますます限られたスペースを巡って競争します。それがループです。利子が予算を食いつぶすほど、ギャップを埋めるためにより多くを借り入れ、より多くを借り入れるほど、次の利子請求額が大きくなります。これは、毎年脱出が難しくなるフィードバックサイクルです。 November 11, 2025
1RP
【今日1日のIonQ:なぜ今、量子の中心がIonQになっているのか】
今日のXには IonQ に関する膨大な情報が流れた。
一見バラバラに見えるけど、すべてをつなげると
「量子冷戦の主役がIonQに決まった日」
と言っていいレベルの内容だった。
初めての人でも、一気に全体像が掴めるように
今日起きた“量子の地政学”をまとめる。
⸻
① 米国の「未来戦システム」
= IonQ が全部担当していると判明
韓国アカが指摘した内容が強烈だった。
米国が10年以上前から描いてきた未来戦略のキーワード:
•量子センシング
•量子通信ネットワーク
•GPSを使わないナビゲーション
•宇宙→航空→地上のリアルタイム連動
•量子AI
•ミサイル防衛の量子化
•戦場データ融合
これ全部 IonQ が直接関わっている。
しかも IonQ Federal(政府専用)を
持っている企業は世界で IonQ だけ。
つまり IonQ は
“民間企業の皮をかぶった国家インフラ”
に格上げされた。
⸻
② アメリカ国家安全保障の中枢が
IonQ Federal に動き始めている
Rick のインタビュー投稿で明かされた事実がやばい:
IonQ Federal 会長は
元米国国家地理情報局のトップ(DIA同格)。
そして IonQ Federal が現在関わっているのは:
•Oak Ridge 国立研究所
•商務省(量子セキュリティ)
•国防総省(Golden Dome計画=量子センサー+量子ネット)
軍・国家・科学・宇宙が
IonQ Federal を通じて一本化 され始めている。
これ、IBM や Google が絶対に入れない領域。
⸻
③ Capella(衛星SAR)× IonQ
Heven(水素ドローン)× IonQ
→ “宇宙-空-地上”の量子ファブリックが完成
今日最も大きいのはこれ。
NASA でも国防省でもなく、
民間企業のIonQが 宇宙・空・地上を貫く量子ネットワークの中心になる という構図。
・Capella(衛星レーダー):雲も夜も関係なく地球を撮る
・Heven(水素ドローン):10時間飛び続け、軍のステルス運用対応
・Vector Atomic:量子原子時計
・Skylom(レーザー衛星リンク)
これら “全方向の量子パーツ” が
IonQ を中心に統合されつつある。
= 量子インターネットの“地球版スターリンク” が始まった。
⸻
④ TechInnovation:
5年以内に「宇宙量子コンピュータ」実装を目標
今日のスレッドで正式に出た。
IonQは 5年以内に宇宙に量子コンピュータを置く。
地球にデータを戻す必要がなくなり、
衛星・ドローン・宇宙通信が
全部 “量子AIノード” になる。
宇宙でAIを動かす=世界の覇権。
これを民間でできるのが IonQ だけ。
⸻
⑤ 量子ショート勢への痛烈な一撃
Gene が投稿:
「指数関数を理解できない人間が
量子をショートして貧乏で居続ける」
さらに Hugh Bitt(元投資銀行トップ)が公開したデータ:
•AI投資:今年 alone で 40兆円(0B)
•量子セクター全体:たった 7兆円(B)
AIが次の波なら、
その次は量子で桁が変わる。
= 量子株は激安。IonQは過小評価の極み。
⸻
⑥ 倭国も参戦:
東京–名古屋–大阪–神戸をつなぐ
600kmの量子暗号ネットワーク建設へ
今日、The Quantum Insiderが報道。
アジアでも量子インフラが一気に動き始め、
IonQの市場は日米欧に広がる。
⸻
⑦ まとめ:
今日だけで、IonQは
「量子冷戦の中心企業」として完成した
今日の投稿を全部つなぐと、
答えはこうなる:
IonQは“量子インターネット+宇宙量子AI”を
国家より早く実現し始めた唯一の企業。
Google や IBM が“研究”をしている間に、
IonQ は
・政府(米国)
・宇宙(衛星SAR)
・航空(量子ドローン)
・国家安全保障
・量子AI
・量子通信ネット
・量子暗号
すべての実戦領域で
動いている・採用されている・組み込まれている。
これが今日明らかになったこと。
⸻
【今日の結論】
量子冷戦はもう始まっている。
そして IonQ は “量子のスターリンク” を作る側に立った。
これを理解した人だけが、
次の10年の覇権を獲れる。 November 11, 2025
1RP
んー。
過去のADSLやiPhoneの成功を見るに、必要なのは「否定派への罵倒」ではなく、
・iPhone的な他を圧倒する商品の提示
・yahoo!BBのADSLモデム無料配布や1円ケータイ的な赤字覚悟、普及優先の価格戦略
・ADSL網や3G4G的な公的インフラの整備
みたいな普及側の戦略が必要かと。
EVには一つもない。 https://t.co/iXYzZTsFsJ November 11, 2025
1RP
福岡市、この青いラインの地下鉄欲しいな。
南区辺りが超巨大な鉄道空白地帯なの勿体なさすぎる。都心まで数キロ圏内なのに。
既存の道路・鉄道インフラのままでは人口が増加し続けても渋滞が悪化して市民のQOL下がりそう。
成長都市だからこそ攻めの都市経営をして欲しいな。 https://t.co/pOsGx0y7ZH November 11, 2025
1RP
ACfA 天敵√の未来予想。
主人公は人類を攻撃。
理由:不明(リプへ続く)
コジマ施設や兵器、企業、居住区域。
人口が多い、またはインフラに纏わるあらゆる場所を徹底的に攻撃し、文明を一度更地にする。
そうしてコジマも何もかも消して雲隠れ。
残された僅かな人類が新しい歴史を歩み始める。 https://t.co/xm728NirTL November 11, 2025
1RP
📕AppleのAI戦略が大転換:年間1,570億円でSiriにGeminiを採用した「本当の理由」
『自社AI開発 vs 外部調達』で悩む経営者・事業責任者にとって、この判断は教科書になります。
なぜAppleほどの巨人が、AIで外部依存を選んだのか?
技術的な詳細と戦略的な意図を深掘りしてみました。
まず押さえるべき全体像
AppleはSiri刷新のため、Googleが開発した1.2兆パラメーターの大規模言語モデル「Gemini」を採用し、年間約10億ドル(約1,570億円)を支払う契約を結んだ。
これ、実は相当な「格差」を示す数字なんです。
現在AppleがクラウドベースのApple Intelligenceで使用しているのは1,500億パラメーター。つまりGeminiは、Appleの現行モデルの『8倍』の規模。しかも報道では「大幅に上回る」という表現なので、実際の性能差はパラメーター数以上かもしれない。
なぜChatGPTでもClaudeでもなく、Geminiだったのか?
Appleは3つの選択肢を比較検討したそうです。
・OpenAIのChatGPT
・AnthropicのClaude
・GoogleのGemini
結果として、Anthropicは「料金が高すぎる」と判断され脱落。最終的にGeminiが選ばれた。
ここで興味深いのは、技術的な理由だけでなく『関係性とインフラ』が決め手になった可能性です。
GoogleとAppleは既に検索エンジンで年間約200億ドル(約3.1兆円)の取引関係にある。Googleはデフォルト検索エンジンの座を得るために、これだけの金額をAppleに支払い続けている。
つまり、今回のAI契約で年間約10億ドル(約1,570億円)をAppleがGoogleに支払っても、差し引きで約190億ドル(約2.9兆円)はAppleの手元に残る計算。
財務的には全く問題ない。むしろ「既にある信頼関係」の延長線上で、リスクを最小化できる。
Geminiの技術的な強み:Mixture-of-Expertsとは何か?
もう一つ重要なのが、Geminiが採用している「Mixture-of-Experts」という仕組みです。
これ、1.2兆パラメーター全部を毎回使うわけじゃないんですよね。
各質問に対して、実際に動作するのは「一部の専門家(Experts)」のみ。必要な部分だけを効率的に使うことで、処理コストを大きく増やすことなく、大規模な計算能力を実現している。
これがAppleにとって魅力的だったのは、『コスト効率』と『処理速度』の両立が可能だから。
iPhoneユーザーは世界中に何億人もいる。全員が同時にSiriを使う可能性がある中で、計算リソースを効率化できる仕組みは不可欠です。
プライバシーという譲れない一線
ただし、Appleには絶対に譲れない条件がありました。『プライバシー』です。
今回の契約では、Geminiは「Appleのプライベートクラウドサーバー上で動作」するため、GoogleがAppleのデータにアクセスすることはないとのこと。
これ、技術的にはかなり複雑な実装のはず。GoogleのAIをAppleのインフラ上で動かすって、相当な調整とカスタマイズが必要です。
でも、ここを妥協しなかったことが、Appleらしさだと思います。
「最高のAI体験」と「ユーザーのプライバシー保護」の両立。これがAppleの譲れない価値観。
では、Apple自社のAI開発はどうなるのか?
ここが最も重要なポイントです。
Appleは現在、1兆パラメーターのクラウドベースモデルを開発中で、早ければ2026年に完成予定。つまりGemini採用は「自社モデルが高性能化するまでの暫定措置」という位置づけ。
そして、スマートになったApple Intelligence版Siriは、2026年春のiOS 26.4アップデートで提供される見込み。
つまりタイムラインはこうです
・2025年:Gemini採用で「とりあえず」最先端AIをSiriに実装
・2026年春:新Siri公開(iOS 26.4)
・2026年以降:自社1兆パラメーターモデルが完成次第、段階的に切り替え
この戦略、実は『時間を買っている』んですよね。
もしAppleが「自社開発が完成するまで待つ」という判断をしていたら、2025〜2026年の2年間、AIで大きく遅れたままになる。
その間にユーザーは待ってくれるのか?Androidに流れるのでは?という『機会損失リスク』の方が、1,570億円よりも遥かに大きい。
AI時代の「内製vs外部調達」をどう考えるか
私たちビジネスサイドが学ぶべきは、この『判断の速さ』と『プライドの捨て方』だと思います。
Appleといえば、ハード・ソフト・サービス全てを自社で作り込む「垂直統合戦略の王者」でした。iPhone、Mac、iOS、独自チップ(M4、A18)...全て内製。
それが今回、AIに関しては(少なくとも一時的に)外部依存を選んだ。
これは『敗北』ではなく、極めて合理的な『戦略的判断』です。
特にAIのような超高速で進化する領域では:
・何を内製し、何を外部に頼るか?
・いつまでに何を実現しなければならないか?
・その判断を遅らせるコストはいくらか?
この3つの見極めが死活問題になる。
GoogleはDeepMind買収以来、10年以上AIに莫大な投資を続けてきました。その差は、もはや1〜2年では埋められない。ならば「今使えるベストな選択肢」でユーザー体験を向上させ、その間に自社技術を磨く。
完璧を待つよりも、暫定ベストで走り出す。
これが、AI時代のビジネス判断の新常識なのかもしれません。
Appleの判断は、私たち全員にとっての教科書だと感じています。
※Googleの進化を体感するならNano Banana Pro!時代の変換点レベルをぜひ引用ポストの記事から体験してみてください 👇 November 11, 2025
1RP
@migikatakawai 倭国のインフラタダ乗り
民族には帰国して貰うしか
無い。百害あって一利無し
と言う言葉はこの為に有る。
健康保険制度や年金制度
福祉制度。全て悪用して
利益を得ようとする邪悪な
民族です。倭国人とは
考え方が180度違う。
「楽して、ズルして、
騙して、奪う」それが彼らの
生き方。倭国には不要 November 11, 2025
1RP
今日の @base ニュース!【11/27】
💎 Coinbase Venturesが2026年の4つの主要テーマを提示
1. RWA Perpetuals
RWAへの関心の高まりとオンチェーンPerpDEXのインフラ進化によってに、Perpetual市場がより多様化
2. 専門分野 特化型取引所とトレーディング端末
Solana Prop-AMMを筆頭とした新たなモデル、予測市場アグリゲーターなど
3. 次世代DeFi
Perpetual とLendingの統合による 資本効率化、オンチェーンプライバシー分野
4. AIとロボティクス
画面上のAIから物理世界へ、またそれに伴う人間の証明
💎 Remix @RemixGG_ がエコノミーレイヤーをリリース
@baseapp @farcaster_xyz またはApple StoreからもDLできるゲームアプリRemixがついに最初の収益システムを導入
クレジットによるブーストや獲得、今後さらに機能追加予定!
💎 @baseposting の中の人は誰?
Baseposting 旋風を巻き起こしている こちらの謎のbaseアカウント
@baseposting からの「インターンじゃないよ」という声をきっかけにアカウントの中の人が誰かに注目が集まり始めている
「もう誰かわかった」という方も散見される
気になる! November 11, 2025
1RP
<イスラエル軍は、あらゆる種類の iPhone 17 を大量に持ち込み、金でコーティングされたものさえも入れています。また、コーラやポテトチップス、チョコレートも持ち込みます。
一方で、医薬品や医療用品、テント、インフラ復旧用の建設機械、冬用衣類、肉類は持ち込みを禁止しています。
これが包囲(封鎖)政策の「やり方」であり、世界に(物が溢れていると)見せつけるためのものです。> November 11, 2025
1RP
Gemini3, Nano Banana Pro登場で, 先月時点で私がTBSの以下番組で「OpenAIは危うい.Googleが勝つ」としてたのが注目(特に投資家層?)されてるようです
実際は公には以下記事で2024年OpenAI絶頂期からずっとGoogle有利とみてます
長い(私のX史上最長)ですが根拠, OpenAI vs Googleの展望を書いてみます
先月のTBS動画:https://t.co/kgWcyTOTWK
2024年6月の記事:https://t.co/4HEhA4IJQa
参考のため、私がクローズドな投資家レクなどで使う資料で理解の助けになりそうなものも貼っておきます。
※以下はどちらかというと非研究者向けなので、研究的には「当たり前では」と思われることや、ちょっと省略しすぎな点もあります。
まず、現在の生成AI開発に関して、性能向上の根本原理、研究者のドグマ的なものは以下の二つです。基本的には現在のAI開発はこの二つを押さえれば大体の理解ができると思います。両者とも出てきたのは約5年前ですが、細かい技術の発展はあれど、大部分はこの説に則って発展しています。
①スケーリング則
https://t.co/WKl3kTzcX5
②SuttonのThe Bitter Lesson
https://t.co/esHtiJAcH9
①のスケーリング則は2020年に出てきた説で、AIの性能は1)学習データの量、2)学習の計算量(=GPUの投入量)、3)AIのモデルサイズ(ニューラルネットワークのパラメータ数)でほぼ決まってしまうという説です。この3つを「同時に」上げ続けることが重要なのですが、1と3はある程度研究者の方で任意に決められる一方、2のGPUはほぼお金の問題になります。よって、スケーリング則以降のAI開発は基本的にお金を持っている機関が有利という考えが固まりました。現在のChatGPTなどを含む主要な生成AIは一つ作るのに、少なく見積もってもスカイツリーを一本立てるくらい(数百億)、実際には研究の試行錯誤も含めると普通に数千億から数兆かかるくらいのコストがかかりますが、これの大部分はGPUなどの計算リソース調達になります。
②のThe Bitter Lessonは、研究というよりはRichard Suttonという研究者個人の考えなのですが、Suttonは現在のAI界の長老的な人物で、生成AI開発の主要技術(そして私の専門)でもある強化学習の事実上の祖かつ世界的な教科書(これは私達の翻訳書があるのでぜひ!)の執筆者、さらにわれわれの分野のノーベル賞に相当するチューリング賞の受賞者でもあるので、重みが違います。
これは端的にいうと、「歴史的に、AIの発展は、人間の細かい工夫よりも、ムーアの法則によって加速的に発展する計算機のハードの恩恵をフルに受けられるものの方がよい。つまりシンプルで汎用的なアルゴリズムを用い、計算機パワーに任せてAIを学習させた方が成功する。」ということを言っています。
①と②をまとめると、とにかく現状のAIの性能改善には、GPUのような計算リソースを膨大に動員しなければならない。逆に言えばそれだけの割と単純なことで性能上昇はある程度約束されるフェーズでもある、ということになります。
これはやや議論を単純化しすぎている部分があり、実際には各研究機関とも細かいノウハウなどを積み重ねていたり、後述のようにスケーリングが行き詰まることもあるのですが、それでも昨今のAI発展の大半はこれで説明できます。最近一般のニュースでもよく耳にするようになった異常とも言えるインフラ投資とAIバブル、NVIDIAの天下、半導体関連の輸出制限などの政治的事象も、大元を辿ればこれらの説に辿り着くと思います。
以下、この二つの説を前提に話を進めます。
公にはともかく私が個人的に「OpenAIではなくGoogleが最終的には有利」と判断したのはかなり昔で、2023年の夏時点です。2023年6月に、研究者界隈ではかなり話題になった、OpenAIのGPT-4に関するリーク怪文書騒動がありました。まだGoogleが初代Geminiすら出してなかった時期です。(この時期から生成AIを追っている人であれば、GPT-4のアーキテクチャがMoEであることが初めて明らかになったアレ、と言えば伝わるかと思います)
ChatGPTの登場からGPT-4と来てあれほどの性能(当時の感覚で言うと、ほぼ錬金術かオーパーツの類)を見せられた直後の数ヶ月は、さすがに生成AI開発に関する「OpenAIの秘伝のタレ説」を考えており、OpenAIの優位は揺らがないと考えていました。論文では公開されていない、既存研究から相当逸脱した特殊技術(=秘伝のタレ)がOpenAIにはあって、それが漏れない限りは他の機関がどれだけお金をかけようが、まず追いつくのは不可能だと思っていたのです。しかし、あのリーク文書の結論は、OpenAIに特別の技術があったわけではなく、あくまで既存技術の組み合わせとスケーリングでGPT-4は実現されており、特に秘伝のタレ的なものは存在しないというものでした。その後、2023年12月のGemini初代が微妙だったので、ちょっと揺らぐこともあったのですが、基本的には2023年から私の考えは「最終的にGoogleが勝つだろう」です。
つまり、「スケーリングに必要なお金を持っており、実際にそのAIスケーリングレースに参加する経営上の意思決定と、それを実行する研究者が存在する」という最重要の前提について、OpenAIとGoogleが両方とも同じであれば、勝負が着くのはそれ以外の要素が原因であり、Googleの方が多くの勝ちにつながる強みを持っているだろう、というのが私の見立てです。
次に、AI開発競争の性質についてです。
普通のITサービスは先行者有利なのですが、どうもAI開発競争については「先行者不利」となっている部分があります。先行者が頑張ってAIを開発しても、その優位性を保っている部分でAIから利益を得ることはほとんどの場合はできず、むしろ自分たちが発展させたAI技術により、後発事業者が追いついてきてユーザーが流出してしまうということがずっと起きているように思われます。
先ほどのスケーリング則により、最先端のAIというのはとても大きなニューラルネットワークの塊で、学習時のみならず、運用コストも膨大です。普通のITサービスは、一旦サービスが完成してしまえば、ユーザーが増えることによるコスト増加は大したことがないのですが、最先端の生成AIは単なる個別ユーザーの「ありがとうございます」「どういたしまして」というチャットですら、膨大な電力コストがかかる金食い虫です。3ドル払って1ドル稼ぐと揶揄されているように、基本的にはユーザーが増えれば増えるほど赤字です。「先端生成AIを開発し、純粋に生成AIを使ったプロダクトから利益を挙げ続ける」というのは、現状まず不可能です。仮に最先端のAIを提供している間に獲得したユーザーが固定ユーザーになってくれれば先行者有利の構図となり、その開発・運営コストも報われるのですが、現状の生成AIサービスを選ぶ基準は純粋に性能であるため、他の機関が性能で上回った瞬間に大きなユーザー流出が起きます。現状の生成AIサービスはSNSのように先行者のネットワーク効果が働かないため、常に膨大なコストをかけて性能向上レースをしなければユーザー維持ができません。しかも後発勢は、先行者が敷いた研究のレールに乗っかって低コストで追いつくことができます。
生成AI開発競争では以上の、
・スケーリング則などの存在により、基本的には札束戦争
・生成AIサービスは現状お金にならない
・生成AI開発の先行者有利は原則存在しない
と言う大前提を理解しておくと、読み解きやすいかと思います。
(繰り返しですがこれは一般向けの説明で、実際に現場で開発している開発者は、このような文章では表現できないほどの努力をしています。)
OpenAIが生成AI開発において(先週まで)リードを保っていた源泉となる強みは、とにかく以下に集約されると思います。
・スケーリングの重要性に最初に気付き、自己回帰型LLMという単なる「言語の穴埋め問題がとても上手なニューラルネットワーク」(GPTのこと)に兆レベルの予算と、数年という(AI界隈の基準では)気が遠くなるような時間を全ベットするという狂気を先行してやり、ノウハウ、人材の貯金があった
・極めてストーリー作りや世論形成がうまく、「もうすぐ人のすべての知的活動ができるAGIが実現する。それを実現する技術を持っているのはOpenAIのみである」という雰囲気作りをして投資を呼び込んだ
前者については、スケーリングと生成AIという、リソース投下が正義であるという同じ技術土俵で戦うことになる以上、後発でも同レベルかそれ以上の予算をかけられる機関が他にいれば、基本的には時間経過とともにOpenAIと他の機関の差は縮みます。後者については、OpenAIがリードしている分には正当化されますが、一度別の組織に捲られると、特に投資家層に対するストーリーの維持が難しくなります。
一方のGoogleの強みは以下だと思います。
・投資マネーに頼る必要なく、生成AI開発と応用アプリケーションの赤字があったとしても、別事業のキャッシュで相殺して半永久的に自走できる
・生成AIのインフラ(TPU、クラウド事業)からAI開発、AIを応用するアプリケーション、大量のユーザーまですべてのアセットがすでに揃っており、各段階から取れるデータを生かして生成AIの性能向上ができる他、生成AIという成果物から搾り取れる利益を最大化できる
これらの強みは、生成AIのブーム以前から、AIとは関係なく存在する構造的なものであり、単に時間経過だけでは縮まらないものです。序盤はノウハウ不足でOpenAIに遅れをとることはあっても、これは単に経験の蓄積の大小なので、Googleの一流開発者であれば、あとは時間の問題かと思います。
(Googleの強みは他にももっとあるのですが、流石に長くなりすぎるので省略)
まとめると、
生成AIの性能は、基本的にスケーリング則を背景にAI学習のリソース投下の量に依存するが、これは両者であまり差がつかない。OpenAIは先行者ではあったが、AI開発競争の性質上、先行者利益はほとんどない。OpenAIの強みは時間経過とともに薄れるものである一方、Googleの強みは時間経過で解消されないものである。OpenAIは自走できず、かつストーリーを維持しない限り、投資マネーを呼び込めないが、一度捲られるとそれは難しい。一方、GoogleはAIとは別事業のキャッシュで自走でき、OpenAIに一時的に負けても、長期戦でも問題がない。ということになります。
では、OpenAIの勝利条件があるとすれば、それは以下のようなものになると思います。
・OpenAIが本当に先行してAGI開発に成功してしまう。このAGIにより、研究開発や肉体労働も含むすべての人間の活動を、人間を上回る生産性で代替できるようになる。このAGIであらゆる労働を行なって収益をあげ、かつそれ以降のAIの開発もAGIが担うことにより、AIがAIを開発するループに入り、他の研究機関が原理的に追いつけなくなる(OpenAIに関する基本的なストーリーはこれ)
・AGIとまではいかなくとも人間の研究力を上回るAIを開発して、研究開発の進捗が著しく他の機関を上回るようになる
・ネットワーク効果があり先行者有利の生成AIサービスを作り、そこから得られる収益から自走してAGI開発まで持っていく
・奇跡的な生成AIの省リソース化に成功し、現在の生成AIサービスからも収益が得られるようになる
・生成AI・スケーリング則、あるいは深層学習とは別パラダイムのAI技術レースに持ち込み技術を独占する(これは現在のAI研究の前提が崩れ去るので、OpenAI vs Googleどころの話ではない)
・Anthropicのように特定領域特化AIを作り、利用料金の高さを正当化できる価値を提供する
最近のOpenAIのSora SNSや、検索AI、ブラウザ開発などに、この辺の勝利条件を意識したものは表れているのですが、今のところ成功はしていないのではないかと思います。省リソース化に関しては、多分頑張ってはいてたまに性能ナーフがあるのはこれの一環かもしれないです。とはいえ、原則性能の高さレースをやっている時にこれをやるのはちょっと無理。最後のやつは、これをやった瞬間にAGIを作れる唯一のヒーローOpenAIの物語が崩れるのでできないと思います。
最後に今回のGemini3.0やNano Banana Pro(実際には二つは独立のモデルではなく、Nano Bananaの方はGemini3.0の画像出力機能のようですが)に関して研究上重要だったことは、事前学習のスケーリングがまだ有効であることが明らかになったことだと思います。
ここまでひたすらスケーリングを強調してきてアレですが、実際には2024年後半ごろから、データの枯渇によるスケーリングの停滞が指摘されていること、また今年前半に出たスケーリングの集大成で最大規模のモデルと思われるGPT-4.5が失敗したことで、単純なスケーリングは成り立たなくなったとされていました。その一方で、
去年9月に登場したOpenAIのo1やDeepSeekによって、学習が終わった後の推論時スケーリング(生成AIが考える時間を長くする、AIの思考過程を長く出力する)が主流となっていたのが最近です。
OpenAIはそれでもGPT-5開発中に事前学習スケーリングを頑張ろうとしたらしいのですが、結局どれだけリソースを投下しても性能が伸びないラインがあり、諦めたという報告があります。今回のGemini3.0に関しては、関係者の発言を見る限り、この事前学習のスケーリングがまだ有効であり、OpenAIが直面したスケーリングの限界を突破する方法を発見していることを示唆しています。
これはもしかしたら、単なるお金をかけたスケーリングを超えて、Googleの技術上の「秘伝のタレ」になる可能性もあり、上記で書いた以上の強みを今回Googleが手にした可能性もあると考えています。
本当はもっと技術的に細かいことも書きたいのですが、基本的な考えは以上となります。色々と書いたものの、基本的には両者が競争してもらうことが一番技術発展につながるとは思います! November 11, 2025
1RP
将棋界が盛り上がると地域の人々が喜び鉄道業界等交通インフラも盛り上がり皆の移動手段も守れますし、メディアも盛り上がりジャーナリズム強化に繋がり全国の文化遺産保全や倭国の素晴らしい伝統も世界に発信でき倭国の和の心が世界に伝わって皆幸せになれます🥰💖🕊️
#SDGs
https://t.co/gWZV5N2hr5 https://t.co/4cIy5wGQjx November 11, 2025
1RP
◤ ◥
@edgeX_exchange edgeFlow
VS
@HyperliquidX HIP3
◣ ◢
HIP-3とedgeFlowを比較してみた‼️
結論👉🏻Perpを“増やす”か“配る”かの違い
——————————————————
🟩HIP-3(Hyperliquid):
市場上場をpermissionlessに“増やす”⬛️
——————————————————
HIP-3は「builder-deployed perps」=第三者が 自分の perp 市場(perp dex)をデプロイして運用できる仕組みです。狙いは Perpの上場プロセスを分散化すること。
✅仕組み(要点)
責務が重い:deployerは市場定義(オラクル・仕様)と市場運用(オラクル価格更新、レバ制限、必要なら決済)を担う。
✅参入条件:メインネット要件として 500k HYPEのステーク(成熟とともに低下予定)。全市場停止後も 30日維持など条項あり。
✅拡張単位:「perp dex」単位で、独立した margining / order books / deployer settings を持つ。
✅上場コスト:最初の3銘柄はオークション不要、それ以降は Dutch auction。
✅手数料設計:deployer取り分 50%固定、ユーザー手数料は通常(validator運用市場)の 2倍。ただし“プロトコル取り分が同等になるよう調整”と明記。
✅安全装置:悪意/過失を区別せず、バリデータ投票でスラッシュ。アンステーク開始後も 7日間キュー中はスラッシュ可能。
✅運用ルールが具体的:deployer actions(例:setOracle、OI cap等)の仕様が公開され、価格更新の期待頻度等も説明されている。
まとめるとHIP-3は、「市場を増やす」代わりに “運用責任”と“資本拘束(ステーク)”で品質を担保するモデルです。
——————————————————
🟩edgeFlow(edgeX):
取引インフラを他アプリへ“配る”⬛️
——————————————————
edgeFlow は、外部アプリ/ウォレット/取引UIが “edgeXの取引インフラ” に接続するための Builder SDK(=接続用の開発キット)兼、流動性ネットワークという位置づけ。
接続したプロジェクトは、自前で板・清算・リスク管理・流動性を用意せずに、edgeX の マッチング(注文処理)と清算(決済/清算) に“乗れる”のが主旨です。
✅何が嬉しいの?
❶流動性の共有
接続アプリがバラバラに流動性を作る必要がなく、ネットワークとして厚みを出しやすい(断片化の改善)。
❷プロダクト開発の分業
外部はUI/UXや分析(例:https://t.co/h0taEOCOcGのような分析・ルーティング)に集中し、裏側の重い取引基盤は edgeX が担う。
❸“CEXっぽい体験”を別アプリでも
低遅延・高速実行をうたいつつ、オンチェーンでの検証可能性を前面に出している。
✅使われ方(観測できる範囲)
代表例として https://t.co/h0taEOCOcG が edgeX PerpDEX を統合し、edgeFlowで on-chain perp 機能を立ち上げました。
https://t.co/h0taEOCOcGは、edgeX統合によりオンチェーンマッチング & 清算、低レイテンシ設計、さらに クロスチェーン流動性ネットワークといった性質を“継承”できる、と説明しました。
✅Permissionless Liquidity Modules
edgeX 側のロードマップでは Q4 2025 に “Permissionless Liquidity Modules” を掲げていて、edgeFlow はこの文脈(外部が許可不要で繋がる流動性モジュール)と整合しているのでおそらくコレのこと。
——————————————————
🟩一言でまとめると⬛️
——————————————————
HIP-3➡️Hyperliquidを「取引所」から「市場生成プラットフォーム」に寄せる。増やす力の代わりに、builderへ 運用責任+ステーク+スラッシュを課す。
edgeFlow➡️edgeXを「単体Perp DEX」から「取引インフラ供給(Perp-as-a-Service)」に寄せる。焦点は新市場より 配布面(統合先)の拡大。 November 11, 2025
@WarawaNanojayo そもそも廃村を利用して女だけの街を作ろうってクラウドファンディングありましたよね。
最低限のインフラはあるからやってみてほしかったんですけどね。 November 11, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。



