1
インフラ
0post
2025.11.28 06:00
:0% :0% (40代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
(金が続く限りでの)推しと(一瞬の)話題性しか頼りにしない文化産業は、これから先細りしていくだけだ。だがここまで経済が悪いと、どうしてもこうなってしまう。本当は正常で健康な好奇心の賦活が必要なのに、そのインフラがほぼほぼ崩壊してしまっている。本をタダで配っても読まれないだろうし。 November 11, 2025
11RP
んー。
過去のADSLやiPhoneの成功を見るに、必要なのは「否定派への罵倒」ではなく、
・iPhone的な他を圧倒する商品の提示
・yahoo!BBのADSLモデム無料配布や1円ケータイ的な赤字覚悟、普及優先の価格戦略
・ADSL網や3G4G的な公的インフラの整備
みたいな普及側の戦略が必要かと。
EVには一つもない。 https://t.co/iXYzZTsFsJ November 11, 2025
11RP
「維新政権で大阪の景気は良くなったのか?」
◆結論
大阪の景気は全国平均より低い。
維新が誇る「成長」「民間活力」の実感は、統計を見る限り裏付けはなく、むしろ衰退を招いている。
以下、御一読の上、御賛同賜りましたら、周知のほどよろしくお願いします。
---
◆1.経済成長
大阪府の名目GRPの伸び
→ 維新政権が本格化した2012〜2019年の伸び率は全国平均を下回る。
大阪府:+7.8%
全国平均:+11.3%
つまり、“大阪だけ鈍い”。
---
◆2.給与・所得の伸び
厚労省「毎月勤労統計」「賃金構造基本統計」
大阪府の実質賃金上昇率:全国平均以下
名目賃金も全国と比べて伸びが弱い
さらに非正規比率が高止まりし、働く人の底上げにつながっていない
結論:稼ぐ力は全国より弱いまま。
---
◆3.企業数・開業率
中小企業庁「事業所・企業統計」「経済センサス」
大阪府の開業率:政令市・大都市圏の中でも下位
廃業率が高く、純増はマイナス傾向
「民間活力を引き出した」という維新の主張とは逆で、企業は減っている。
---
◆4.人口動態(→景気の体温計)
若年層の流出が続き、出生数も大幅減
東京圏への流出は全国最多クラス
「住みたい都市」調査でも大阪が順位を落とす
経済が本当に良ければ若い世代の流出は止まるはず。
現実は逆。
---
◆5.府の財政
* 財政再建を強調するが、実際は
市町村の一般財源を吸い上げ、府債残高はむしろ増加
* インフラ投資は低水準で、成長投資が不足
「絞りすぎで、成長の芽を摘んでいる」という専門家の指摘は多い。
---
◆6.観光ブームは“景気”か?
維新支持者が誇るポイントだが――
* 観光消費はインバウンド依存
* 地元雇用は非正規が中心
* 中小企業の倒産はむしろ増加傾向
派手に見えるが、地元にカネが落ちにくい構造。
どの指標を取っても「維新で景気が良くなった」は成り立たない。
むしろ“全国より伸びない大阪”が固定化している。
---
維新で大阪の景気が良くなった?
→主要データほぼ全部「全国以下」です。
* GRP成長:大阪7.8%<全国11.3%
* 賃金上昇:全国以下
* 開業率:下位
* 若者流出:ワースト級
* 中小倒産:増加
見た目は派手でも、中身はずっと低迷。
これが“維新の経済”の実態です。
以上。 November 11, 2025
10RP
OpenAIの財務リスクが露呈しました。
世界的トップの金融企業HSBCがOpenAIの「隠れた財務リスク」を暴く衝撃的なレポートを発表しました。
クラウド計算契約の支払い能力に深刻な懸念があるようです。
その衝撃的な詳細を7つのポイントにまとめました。
1. HSBCの結論:OpenAIは現状支払い不能
HSBCがOpenAIの計算契約に対する支払い能力を詳細に分析した結果、現状のキャッシュフロー構造では「支払い不可」になると結論付けました。飛ぶ鳥を落とす勢いのOpenAIですが、財務面では非常に危うい状況にあるという指摘です。
2. 巨大な計算契約:MSとAmazonから合計3,880億ドル
問題の根幹にあるのは、OpenAIがMicrosoftとAmazonから結んでいるクラウド計算契約の規模です。その総額はなんと「3,880億ドル(約58兆円)」に達します。一企業の契約としては異次元すぎる規模です。
3. 迫り来るコスト
さらに衝撃的なのが将来のコスト予測です。2030年までに、年間「6,200億ドル(約93兆円)」ものデータセンターレンタル費用が発生する可能性があると試算されています。この維持費は国家予算レベルです。
4. HSBCの試算:2030年までに2,070億ドルの資金不足
HSBCの試算によると、このままでは2030年までに「2,070億ドル」の資金不足が生じるとされています。さらに、安全性を確保するためには追加で100億ドルのバッファが必要となる見込みです。
5. 驚くべき楽観的仮定
実は前述の資金不足の試算ですら、以下の「超」楽観的な仮定に基づいています。
・2030年までに30億ユーザーを獲得
・デジタル広告市場の2%を占有
・企業AIが年間3,860億ドルを創出
これらが達成できなければ、状況はさらにヤバいことになります。
6. HSBCからの示唆
この危機的状況に対し、HSBCはOpenAIがデータセンターへのコミットメントを「放棄」し、主要プレイヤーが契約に対して「柔軟性」を示す必要があるかもしれないと示唆しています。契約の抜本的な見直しが迫られる可能性があります。
7. 結論:現在のビジネスモデルは機能不全?
この分析は、現在のOpenAIのビジネスモデルが、巨額のインフラコストに対して構造的に機能していない可能性を示唆しています。収益化のスピードがコストの増加に追いついていないのが現状です。 November 11, 2025
6RP
NVIDIAの最大のライバルはAMDでもGoogleでもない。「物理学」だ。市場が次世代GPUの性能に熱狂している裏で、データセンターの現場では静かな、しかし致命的な「物理的敗北」が確定しつつあることを、どれだけの人が理解しているだろうか。
ぼくらが直面しているのは、単なるチップの進化ではない。熱力学という宇宙のルールが突きつける「120kWの壁」という絶対的な限界点だ。
「空冷」の時代は終わった。
これは比喩ではない。物理的に、空気という媒体ではもはやAIを支えきれないのだ。最新のBlackwell世代、特にGB200 NVL72が突きつけた現実はあまりに残酷だ。1ラックあたり120kW。この熱密度は、従来のハイパースケールデータセンターの4倍から6倍に達する。
これを「風」で冷やすことが、いかに狂気じみているか想像してほしい。
空冷で120kWを制御しようとすれば、データセンターはもはや計算する場所ではなく、巨大な暴風実験室と化す。ここで発生するのは2つの絶望的な現象だ。
一つは「寄生負荷(Parasitic Load)」の暴走。
空気は熱を運ぶ効率があまりに悪い。そのため、熱を排出するためだけにファンを限界まで高速回転させる必要がある。その結果、供給される電力の20%から30%が、計算ではなく「ファンを回すためだけ」に消えていく。AIを動かしているのか、巨大な扇風機を動かしているのか、もはや区別がつかない本末転倒な事態だ。
もう一つは、より深刻な「音響による破壊」だ。
120kWを空冷するためのファンノイズは、ジェットエンジンの至近距離に匹敵する音圧を生む。この凄まじい「音の振動」は、サーバー内のHDDの読み書き性能を物理的に低下させ、さらには精密な基板のはんだ接合部さえも破壊するリスクがある。
つまり、空冷を維持しようとすれば、AIはその「叫び声」で自らの身体を壊してしまうのだ。
だからこそ、産業全体が「水」へと舵を切る。これは選択肢の一つではなく、唯一の生存ルートである。
液体は空気の約4,200倍の熱容量を持つ。水冷(液冷)への移行は、単なる冷却方式の変更ではない。人類がシリコンバレーで築き上げてきたインフラの「血管」を、すべて引き抜いて交換するレベルの「総取り替え工事」を意味する。
NVIDIAという「脳」が進化すればするほど、その脳を冷やすための「心臓(ポンプ)」と「血管(配管・CDU)」、そして「冷媒」を支配する企業の価値は、指数関数的かつ不可逆的に高まっていく。
「AIバブル」などという言葉で思考停止する前に、足元を見てほしい。そのサーバーラックは、熱力学の審判に耐えられる設計になっているか?
物理法則は、株価のように反発してはくれない。限界を超えれば、ただ静かに、システムを焼き尽くすだけである。 November 11, 2025
4RP
Gemini3, Nano Banana Pro登場で, 先月時点で私がTBSの以下番組で「OpenAIは危うい.Googleが勝つ」としてたのが注目(特に投資家層?)されてるようです
実際は公には以下記事で2024年OpenAI絶頂期からずっとGoogle有利とみてます
長い(私のX史上最長)ですが根拠, OpenAI vs Googleの展望を書いてみます
先月のTBS動画:https://t.co/kgWcyTOTWK
2024年6月の記事:https://t.co/4HEhA4IJQa
参考のため、私がクローズドな投資家レクなどで使う資料で理解の助けになりそうなものも貼っておきます。
※以下はどちらかというと非研究者向けなので、研究的には「当たり前では」と思われることや、ちょっと省略しすぎな点もあります。
まず、現在の生成AI開発に関して、性能向上の根本原理、研究者のドグマ的なものは以下の二つです。基本的には現在のAI開発はこの二つを押さえれば大体の理解ができると思います。両者とも出てきたのは約5年前ですが、細かい技術の発展はあれど、大部分はこの説に則って発展しています。
①スケーリング則
https://t.co/WKl3kTzcX5
②SuttonのThe Bitter Lesson
https://t.co/esHtiJAcH9
①のスケーリング則は2020年に出てきた説で、AIの性能は1)学習データの量、2)学習の計算量(=GPUの投入量)、3)AIのモデルサイズ(ニューラルネットワークのパラメータ数)でほぼ決まってしまうという説です。この3つを「同時に」上げ続けることが重要なのですが、1と3はある程度研究者の方で任意に決められる一方、2のGPUはほぼお金の問題になります。よって、スケーリング則以降のAI開発は基本的にお金を持っている機関が有利という考えが固まりました。現在のChatGPTなどを含む主要な生成AIは一つ作るのに、少なく見積もってもスカイツリーを一本立てるくらい(数百億)、実際には研究の試行錯誤も含めると普通に数千億から数兆かかるくらいのコストがかかりますが、これの大部分はGPUなどの計算リソース調達になります。
②のThe Bitter Lessonは、研究というよりはRichard Suttonという研究者個人の考えなのですが、Suttonは現在のAI界の長老的な人物で、生成AI開発の主要技術(そして私の専門)でもある強化学習の事実上の祖かつ世界的な教科書(これは私達の翻訳書があるのでぜひ!)の執筆者、さらにわれわれの分野のノーベル賞に相当するチューリング賞の受賞者でもあるので、重みが違います。
これは端的にいうと、「歴史的に、AIの発展は、人間の細かい工夫よりも、ムーアの法則によって加速的に発展する計算機のハードの恩恵をフルに受けられるものの方がよい。つまりシンプルで汎用的なアルゴリズムを用い、計算機パワーに任せてAIを学習させた方が成功する。」ということを言っています。
①と②をまとめると、とにかく現状のAIの性能改善には、GPUのような計算リソースを膨大に動員しなければならない。逆に言えばそれだけの割と単純なことで性能上昇はある程度約束されるフェーズでもある、ということになります。
これはやや議論を単純化しすぎている部分があり、実際には各研究機関とも細かいノウハウなどを積み重ねていたり、後述のようにスケーリングが行き詰まることもあるのですが、それでも昨今のAI発展の大半はこれで説明できます。最近一般のニュースでもよく耳にするようになった異常とも言えるインフラ投資とAIバブル、NVIDIAの天下、半導体関連の輸出制限などの政治的事象も、大元を辿ればこれらの説に辿り着くと思います。
以下、この二つの説を前提に話を進めます。
公にはともかく私が個人的に「OpenAIではなくGoogleが最終的には有利」と判断したのはかなり昔で、2023年の夏時点です。2023年6月に、研究者界隈ではかなり話題になった、OpenAIのGPT-4に関するリーク怪文書騒動がありました。まだGoogleが初代Geminiすら出してなかった時期です。(この時期から生成AIを追っている人であれば、GPT-4のアーキテクチャがMoEであることが初めて明らかになったアレ、と言えば伝わるかと思います)
ChatGPTの登場からGPT-4と来てあれほどの性能(当時の感覚で言うと、ほぼ錬金術かオーパーツの類)を見せられた直後の数ヶ月は、さすがに生成AI開発に関する「OpenAIの秘伝のタレ説」を考えており、OpenAIの優位は揺らがないと考えていました。論文では公開されていない、既存研究から相当逸脱した特殊技術(=秘伝のタレ)がOpenAIにはあって、それが漏れない限りは他の機関がどれだけお金をかけようが、まず追いつくのは不可能だと思っていたのです。しかし、あのリーク文書の結論は、OpenAIに特別の技術があったわけではなく、あくまで既存技術の組み合わせとスケーリングでGPT-4は実現されており、特に秘伝のタレ的なものは存在しないというものでした。その後、2023年12月のGemini初代が微妙だったので、ちょっと揺らぐこともあったのですが、基本的には2023年から私の考えは「最終的にGoogleが勝つだろう」です。
つまり、「スケーリングに必要なお金を持っており、実際にそのAIスケーリングレースに参加する経営上の意思決定と、それを実行する研究者が存在する」という最重要の前提について、OpenAIとGoogleが両方とも同じであれば、勝負が着くのはそれ以外の要素が原因であり、Googleの方が多くの勝ちにつながる強みを持っているだろう、というのが私の見立てです。
次に、AI開発競争の性質についてです。
普通のITサービスは先行者有利なのですが、どうもAI開発競争については「先行者不利」となっている部分があります。先行者が頑張ってAIを開発しても、その優位性を保っている部分でAIから利益を得ることはほとんどの場合はできず、むしろ自分たちが発展させたAI技術により、後発事業者が追いついてきてユーザーが流出してしまうということがずっと起きているように思われます。
先ほどのスケーリング則により、最先端のAIというのはとても大きなニューラルネットワークの塊で、学習時のみならず、運用コストも膨大です。普通のITサービスは、一旦サービスが完成してしまえば、ユーザーが増えることによるコスト増加は大したことがないのですが、最先端の生成AIは単なる個別ユーザーの「ありがとうございます」「どういたしまして」というチャットですら、膨大な電力コストがかかる金食い虫です。3ドル払って1ドル稼ぐと揶揄されているように、基本的にはユーザーが増えれば増えるほど赤字です。「先端生成AIを開発し、純粋に生成AIを使ったプロダクトから利益を挙げ続ける」というのは、現状まず不可能です。仮に最先端のAIを提供している間に獲得したユーザーが固定ユーザーになってくれれば先行者有利の構図となり、その開発・運営コストも報われるのですが、現状の生成AIサービスを選ぶ基準は純粋に性能であるため、他の機関が性能で上回った瞬間に大きなユーザー流出が起きます。現状の生成AIサービスはSNSのように先行者のネットワーク効果が働かないため、常に膨大なコストをかけて性能向上レースをしなければユーザー維持ができません。しかも後発勢は、先行者が敷いた研究のレールに乗っかって低コストで追いつくことができます。
生成AI開発競争では以上の、
・スケーリング則などの存在により、基本的には札束戦争
・生成AIサービスは現状お金にならない
・生成AI開発の先行者有利は原則存在しない
と言う大前提を理解しておくと、読み解きやすいかと思います。
(繰り返しですがこれは一般向けの説明で、実際に現場で開発している開発者は、このような文章では表現できないほどの努力をしています。)
OpenAIが生成AI開発において(先週まで)リードを保っていた源泉となる強みは、とにかく以下に集約されると思います。
・スケーリングの重要性に最初に気付き、自己回帰型LLMという単なる「言語の穴埋め問題がとても上手なニューラルネットワーク」(GPTのこと)に兆レベルの予算と、数年という(AI界隈の基準では)気が遠くなるような時間を全ベットするという狂気を先行してやり、ノウハウ、人材の貯金があった
・極めてストーリー作りや世論形成がうまく、「もうすぐ人のすべての知的活動ができるAGIが実現する。それを実現する技術を持っているのはOpenAIのみである」という雰囲気作りをして投資を呼び込んだ
前者については、スケーリングと生成AIという、リソース投下が正義であるという同じ技術土俵で戦うことになる以上、後発でも同レベルかそれ以上の予算をかけられる機関が他にいれば、基本的には時間経過とともにOpenAIと他の機関の差は縮みます。後者については、OpenAIがリードしている分には正当化されますが、一度別の組織に捲られると、特に投資家層に対するストーリーの維持が難しくなります。
一方のGoogleの強みは以下だと思います。
・投資マネーに頼る必要なく、生成AI開発と応用アプリケーションの赤字があったとしても、別事業のキャッシュで相殺して半永久的に自走できる
・生成AIのインフラ(TPU、クラウド事業)からAI開発、AIを応用するアプリケーション、大量のユーザーまですべてのアセットがすでに揃っており、各段階から取れるデータを生かして生成AIの性能向上ができる他、生成AIという成果物から搾り取れる利益を最大化できる
これらの強みは、生成AIのブーム以前から、AIとは関係なく存在する構造的なものであり、単に時間経過だけでは縮まらないものです。序盤はノウハウ不足でOpenAIに遅れをとることはあっても、これは単に経験の蓄積の大小なので、Googleの一流開発者であれば、あとは時間の問題かと思います。
(Googleの強みは他にももっとあるのですが、流石に長くなりすぎるので省略)
まとめると、
生成AIの性能は、基本的にスケーリング則を背景にAI学習のリソース投下の量に依存するが、これは両者であまり差がつかない。OpenAIは先行者ではあったが、AI開発競争の性質上、先行者利益はほとんどない。OpenAIの強みは時間経過とともに薄れるものである一方、Googleの強みは時間経過で解消されないものである。OpenAIは自走できず、かつストーリーを維持しない限り、投資マネーを呼び込めないが、一度捲られるとそれは難しい。一方、GoogleはAIとは別事業のキャッシュで自走でき、OpenAIに一時的に負けても、長期戦でも問題がない。ということになります。
では、OpenAIの勝利条件があるとすれば、それは以下のようなものになると思います。
・OpenAIが本当に先行してAGI開発に成功してしまう。このAGIにより、研究開発や肉体労働も含むすべての人間の活動を、人間を上回る生産性で代替できるようになる。このAGIであらゆる労働を行なって収益をあげ、かつそれ以降のAIの開発もAGIが担うことにより、AIがAIを開発するループに入り、他の研究機関が原理的に追いつけなくなる(OpenAIに関する基本的なストーリーはこれ)
・AGIとまではいかなくとも人間の研究力を上回るAIを開発して、研究開発の進捗が著しく他の機関を上回るようになる
・ネットワーク効果があり先行者有利の生成AIサービスを作り、そこから得られる収益から自走してAGI開発まで持っていく
・奇跡的な生成AIの省リソース化に成功し、現在の生成AIサービスからも収益が得られるようになる
・生成AI・スケーリング則、あるいは深層学習とは別パラダイムのAI技術レースに持ち込み技術を独占する(これは現在のAI研究の前提が崩れ去るので、OpenAI vs Googleどころの話ではない)
・Anthropicのように特定領域特化AIを作り、利用料金の高さを正当化できる価値を提供する
最近のOpenAIのSora SNSや、検索AI、ブラウザ開発などに、この辺の勝利条件を意識したものは表れているのですが、今のところ成功はしていないのではないかと思います。省リソース化に関しては、多分頑張ってはいてたまに性能ナーフがあるのはこれの一環かもしれないです。とはいえ、原則性能の高さレースをやっている時にこれをやるのはちょっと無理。最後のやつは、これをやった瞬間にAGIを作れる唯一のヒーローOpenAIの物語が崩れるのでできないと思います。
最後に今回のGemini3.0やNano Banana Pro(実際には二つは独立のモデルではなく、Nano Bananaの方はGemini3.0の画像出力機能のようですが)に関して研究上重要だったことは、事前学習のスケーリングがまだ有効であることが明らかになったことだと思います。
ここまでひたすらスケーリングを強調してきてアレですが、実際には2024年後半ごろから、データの枯渇によるスケーリングの停滞が指摘されていること、また今年前半に出たスケーリングの集大成で最大規模のモデルと思われるGPT-4.5が失敗したことで、単純なスケーリングは成り立たなくなったとされていました。その一方で、
去年9月に登場したOpenAIのo1やDeepSeekによって、学習が終わった後の推論時スケーリング(生成AIが考える時間を長くする、AIの思考過程を長く出力する)が主流となっていたのが最近です。
OpenAIはそれでもGPT-5開発中に事前学習スケーリングを頑張ろうとしたらしいのですが、結局どれだけリソースを投下しても性能が伸びないラインがあり、諦めたという報告があります。今回のGemini3.0に関しては、関係者の発言を見る限り、この事前学習のスケーリングがまだ有効であり、OpenAIが直面したスケーリングの限界を突破する方法を発見していることを示唆しています。
これはもしかしたら、単なるお金をかけたスケーリングを超えて、Googleの技術上の「秘伝のタレ」になる可能性もあり、上記で書いた以上の強みを今回Googleが手にした可能性もあると考えています。
本当はもっと技術的に細かいことも書きたいのですが、基本的な考えは以上となります。色々と書いたものの、基本的には両者が競争してもらうことが一番技術発展につながるとは思います! November 11, 2025
3RP
【Google CEO サンダー・ピチャイ氏 特別対談:Gemini 3とAIの未来】
──────
■ ハイライト要約
──────
1. 怒涛のリリースと「AI First」の結実
• ここ数週間は毎日新機能をリリース(Gemini 3, Nano/Banana Pro, Veo等)。
• この爆発的な進歩は、2016年の「AI First」宣言以降の長期的投資(TPU開発、DeepMind統合など)が基盤となっている。
• 一時期Googleが「静か」に見えたのは、大規模化に向けたインフラ構築を行っていたため。現在はそのフェーズを超え、加速している。
2. 「フルスタック」アプローチの強み
• インフラ(TPU/DC)→ モデル(DeepMind)→ 製品(検索/YouTube/Waymo)の全レイヤーを自社で持つ強み。
• 1つのレイヤーの革新が、即座に全製品へ波及するエコシステムが完成(Geminiが全製品の共通言語化)。
• 事前学習(Pre-training)と事後学習(Post-training)の進化が、インフラ投資と相まって指数関数的な効果を生んでいる。
3. 実用性と「Vibe Coding」の時代
• Gemini 3 / Banana Proは「楽しさ」を超え、インフォグラフィック生成など「実用性」の壁を超えた。
• インターネットが「執筆」を民主化したように、AIは「コーディング」を民主化している。
• 社内の非エンジニア(広報担当など)もAIを使って自分の子供のためのツールを作成するなど、潜在的な創造性が解放されている。
4. ローンチ当日のピチャイ氏のルーティン
• 管理画面の数字よりも、X(Twitter)などのSNSで「ユーザーの生の反応」を最初に見る。
• その後、開発チームのデスクを直接回り、現場の熱量を感じ取ることを重視。
• 「マイクロキッチン」での立ち話のような、初期Googleのスタートアップ文化が戻ってきていることに手応え。
5. 次なる一手と未来(What's Next)
• 量子コンピューティング(Quantum):現在のAIのような熱狂が、5〜10年後に訪れると予測。
• ムーンショット:宇宙空間へのデータセンター建設(Project Suncatcher)など、長期的プロジェクトも進行中。
• 直近の予定:Gemini 3.0 Flashのリリースなど、モデルの進化は止まらない。
──────
■ 結論
Googleは10年前からの「AI First」投資により、インフラから製品までを一気通貫で提供できる唯一無二の体制を確立した。
AIは「誰もがソフトウェアを作れる」ツールとして進化しており、この技術革新はまだ「最初の1ページ」に過ぎない。 November 11, 2025
1RP
最近の緊縮派の人は、だいたいこう言います。
高市政権が経済対策をする
→財政が悪化する
→円安になる
→物価高になる
→結果、倭国は何もできない
この一直線のストーリー自体がまずめちゃくちゃ間違いです。
倭国は自分の通貨を発行できる国で、「赤字→円の信用崩壊→為替暴落」のような決まった回路にはなっていません。
何度も言ってますが、円安の主な要因は「海外との金利差」「輸入コスト」「世界の投資マネーの流れ」で説明される現象です。
物価が上がる原因も、「ばらまいた円の量」じゃなく、エネルギーや材料費、物流、人件費など「供給側のコスト上昇」が中心です。
ここには「電力・インフラ・物流・人材への投資で供給力を上げる」「税や補助でコストを調整する」などの対策が存在します。
なのに彼らの目線はいつも目の前の赤字だけ。
未来から迫る「国力の衰え」「経済の停滞」「産業と技術の劣化」、、
つまり“本当に怖い円の足腰の低下”にはなぜか無反応です。
ご覧の様に、緊縮派というのはそもそもビビりなんです。
石橋を叩くだけで、結局いつまでも渡らない。
後ろから迫っている長期停滞や国力低下という濁流には、目もくれません。
高市政権が掲げる責任ある積極財政というのは、そんな何も出来ない役立たずにも分かる様に「経済を動かす→生産設備や雇用の稼働率を上げる→賃金を増やす→同時に供給力も強化する」という現実的なルートを進める方向性だと評価しています。
暴走の始まりではない。
ビビりの背中も押しつつ、本当にビビるべき未来の没落リスクにも同時に手を伸ばす。
役立たずまで配慮する。だいぶ良い政策方向だと思いますよ? November 11, 2025
1RP
福岡市、この青いラインの地下鉄欲しいな。
南区辺りが超巨大な鉄道空白地帯なの勿体なさすぎる。都心まで数キロ圏内なのに。
既存の道路・鉄道インフラのままでは人口が増加し続けても渋滞が悪化して市民のQOL下がりそう。
成長都市だからこそ攻めの都市経営をして欲しいな。 https://t.co/pOsGx0y7ZH November 11, 2025
1RP
チビクロTV #TRON ニュースです!「TRONがステーブルコイン決済・教育」に力を入れているというニュースをお伝えしてきましたが、それ以外にも注力している戦略があるんです!それを3回に分けて分かりやすく図解入りで解説しますね😉
🟥TRONの大戦略「ステーブルコイン決済・教育分野以外のテーマ」その1
1️⃣【TRONの戦略①】Bitcoinレイヤー2とBTCエコシステム連携
♦️TRONは「ステーブルコイン決済が強いチェーン」というイメージが中心ですが、最近はBitcoinレイヤー2への進出も明確に打ち出しています。イメージしやすいように整理すると「ビットコイン本体の高い信頼性」と「TRONの速くて手数料が安いネットワーク」を組み合わせて【新しい決済インフラやDeFiの土台を作ろう】としているんです。
♦️TRONは自分たちのUSDTやTRXなどのトークンをビットコイン側に持ち込み、既存のBitcoinレイヤー2とも連携しながら、最終的にはTRON+BitTorrent Chain+Bitcoinを統合した独自のレイヤー2を目指すロードマップを公表しています。
♦️イメージとしては、厳重な本店であるビットコインの金庫をベースに、近所の支店であるTRONレイヤー2で素早く出し入れし、後から本店でまとめて精算するような構造です。
2️⃣なぜTRONはBitcoinレイヤー2に注力しているの?
♦️では、なぜTRONはわざわざBitcoinレイヤー2に踏み込んでいるのでしょうか。一番の理由は、ビットコインが今もなお暗号資産の「ブランド力」と「資金量」で圧倒的な存在だからです。TRONは自分たちの強みであるステーブルコイン決済とDeFiをビットコインの世界にも広げたいと考えています。
♦️たとえば「TRONという巨大ショッピングモール」で使える電子マネーを「ビットコインという大銀行の別フロア」にも持ち込み、どちらのフロアでも同じ残高で自由に買い物できるようにするイメージです。
♦️こうした接続が進めば、TRONユーザーは自分のUSDTやTRXを使ってビットコイン系のDeFiや投資機会にアクセスしやすくなり、逆にビットコインしか触ってこなかった人も、TRONの速くて安い決済や豊富なステーブルコイン流動性を簡単に利用できるようになります。
♦️結果として、TRONは単なる「送金チェーン」ではなくビットコインエコシステムと深くつながる【次世代の金融レイヤー】を狙っているという訳なんですね。調べれば調べるほどTRONには緻密な戦略が存在していることを痛感します。
#TRONGlobalFriends
@justinsuntron
@trondao @TronDao_JPN November 11, 2025
アラムコのVCまでパリに拠点を作った理由はシンプル。
欧州AIの中心がパリに移りつつあるから。
・NVIDIAが出資したミストラルの急成長
・フランス政府のAI投資(数十億ユーロ規模)
・データセンター建設ラッシュ
・サイバー・量子の研究集積
規制で遅れてる欧州というイメージは今はズレていて、実際は AIインフラと研究が一気にパリへ集中 している。
米中だけがAIの主戦場じゃないよ。
アラムコのVC、パリに拠点開設へ 欧州のAI投資統括(ロイター)
#Yahooニュース
https://t.co/fDOXf8xsIS November 11, 2025
私のプチエコ生活🙂
協力隊時代は、断水と停電が当たり前だったので。インフラのありがたさを感じる日々✨
水を使わない料理は、気になります。
zipロックに葉野菜を入れて、少しチャックに隙間を開けて。茹で野菜を作ってみてます。栄養もそのまま取れます☺️
ユチョンさんも電子レンジあるかしら?🤭 https://t.co/YCXnNA4Vri November 11, 2025
第3章 誇りと購買欲
パトリオットミサイルの話が出ると、部屋の空気が一瞬変わる。武器という言葉は、恐れと安心を同時に呼び起こす。私の友人の一人は、ミサイルシステムを買うことを「信頼の証」と呼んだ。別の友人は、それを「見せびらかし」と呼んだ。その対立の間で、私は何度も自分の価値観を揺らされる。
買うこと、持つこと、示すこと。国家はしばしば「持つ」ことで自らを安心させる。けれど持つことが本当に安全をもたらすのか、私は暖かな部屋で熱い紅茶をすするたびに考える。私たちは見栄を張ることで、しばしば本当に必要なものを見落とす。教育、保健、インフラ──日々の小さな投資は人々の生活を直接支える。だが多くの人は、光るものに目を奪われる。
この章は、私の小さな怒りでもある。浪費的な誇示が続くとき、誰かの背中に皺が増えるのを私は見逃さない。政治家の言葉と宣伝映像に踊らされる群衆も、スタジオで笑いものにされる若者も、どこかでつながっている。私たちは互いの鏡だ。鏡を見るたび、私は自分の顔に何を映したいのかを問い続ける。 November 11, 2025
自分の精神疾患と向き合いながら仕事はつくば市のインフラを整備し地域貢献
休日は猫の保護活動や自分の親に出来なかった親孝行を女の親にする🥺
んで頻繁にアパラチアに核を落とし環境汚染を蓄積し
多分Fallout4の世界の核汚染を加速させてる犯人の一人
破壊と創造を繰り返す日々素敵やん?🥺 November 11, 2025
NVDA GOOGL
GOOLE様のTPU vs NVIDIA様のGPUについて
1️⃣ 前提
長年AIやりたきゃ NVIDIA様のGPU+CUDA 一択
Google様のTPUをMeta様が採用検討
で「GPUだけの世界は終わりつつあるよ」っていう問題提起
2️⃣ GPUとは
GPUはもともとゲーム用グラフィックスのための並列計算マシン
→たまたま行列計算と相性が良くてディープラーニングにフィット
⭐柔軟性と汎用性が最大の武器
新アーキテクチャ,新しい活性化関数,状態空間モデル
ぜんぶCUDAカーネル書けばなんとかなる
研究開発・新モデルの試行錯誤では依然として GPU様が王者♔
3️⃣ TPU(Google様のASIC)
TPUは 最初からAIの行列演算だけをやる専用マシン
⭐メモリアクセスを減らす
データをバケツリレー的に流しながら計算
という構造
グラフィックス系のロジックは全部捨ててテンソル演算と電力効率に全振り
汎用性は捨てる代わりに
ワットあたり性能とトークンあたりコストで勝負
4️⃣ コア論点
柔軟性(GPU様) vs 超特化(TPU様)
研究フェーズ
何が起きるかわからない
新アーキテクチャ出まくり
⇒ GPU様が安全で強い
本番運用フェーズ
安定したモデルを世界中にばら撒く
1トークンあたりコストと1クエリあたり消費電力がすべて⇒ TPU様が有利
5️⃣ トレーニング vs 推論
トレーニング
これまではGPU様の独壇場
デバッグ容易&ツールの成熟度
でも
Gemini様をTPU v4 v5で学習したことで
「最先端LLMでもTPUだけでいけるよ」が実証された
⇒ 性能差というより 使いやすさ/エコシステムの問題だよね
推論
回数がトレーニングの何百万倍も多い
数%の効率差が数億ドル単位の差になる
ここで TPU様の効率が本領発揮
⇒ 大規模サービスの推論基盤ならTPU様がかなり有力
6️⃣ 「CUDAの堀」がどうなってるか
これまでは
なんでもCUDA対応
ライブラリもチュートリアルもまずNVIDIA様
⇒ 事実上のロックイン
でも今は
PyTorch 2
JAX
XLA
みたいな 高レベルフレームワークがハードウェアを抽象化
結論としては
ロックインは“技術”というより“どのクラウドを選ぶか”に移っていくかも
7️⃣ TPUを自作マシンに刺せない問題
NVIDIA様のGPUは
NeweggでもAmazonでも買える
オンプレでも自宅でもOK
TPU様
チップは売らない
時間貸し(Google Cloud様のサービス)だけ
⇒ ハード的には強いけど
クラウドロックインがキツい
Meta様みたいな巨大プレイヤーからすると
TPUのコストとスピードは魅力
でもインフラを競合のGoogle様に握られるリスク
ここが経営判断ポイント
8️⃣ 2025年の結論
研究開発したいなら
→ NVIDIA様GPU一択
安定した巨大推論サービス運用したいなら
→ TPU様も選択肢に
レガシーCUDAコードが山ほどあるなら
→ GPU様一択
超巨大LLMをゼロからスケール優先でトレーニングしたいなら
→ TPUも真面目な選択肢
オンプレ展開したいなら
→ TPU様はそもそも買えないのでGPU様一択
「ユースケースによって使い分けろ」の時代に… November 11, 2025
おはようございます!インド市場モーニングチェック☀️
【 📈 指数 】
Nifty 終値 26,215.55 pt (+0.04%)
Sensex 終値 85,720.38 pt (+0.13%)
【 🎫 ETF 】
EPI 終値 46.42 USD (+0.83%)
201A.T 終値 206.80 JPY (+0.63%)
【 👀 注目インド個別株 】
🏦 金融インフラ HDB 終値 36.63 USD (+1.24%)
💻 ITサービス INFY 終値 17.42 USD (+0.81%)
💊 ヘルスケア RDY 終値 13.99 USD (+0.79%)
【 💱 為替&ゴールド 】
USD-INR 現在価格 89.238 INR (+0.09%)
JPY-INR 現在価格 0.570 INR (-0.06%)
Gold-INR 現在価格 371,422.900 INR (+0.07%)
【 ⛽ 原油 】
Brent原油 終値 62.94 USD (+0.64%)
インド市場は小幅な上昇で安定感を見せていますね!✨ 特に金融やITセクターが好調。為替は少し動きがあったけど、原油も堅調で良い感じ。投資機会は広がっているかも!📊💪 November 11, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。



