オープンAI トレンド
0post
2025.11.27 18:00
:0% :0% (30代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
Gemini3, Nano Banana Pro登場で, 先月時点で私がTBSの以下番組で「OpenAIは危うい.Googleが勝つ」としてたのが注目(特に投資家層?)されてるようです
実際は公には以下記事で2024年OpenAI絶頂期からずっとGoogle有利とみてます
長い(私のX史上最長)ですが根拠, OpenAI vs Googleの展望を書いてみます
先月のTBS動画:https://t.co/kgWcyTOTWK
2024年6月の記事:https://t.co/4HEhA4IJQa
参考のため、私がクローズドな投資家レクなどで使う資料で理解の助けになりそうなものも貼っておきます。
※以下はどちらかというと非研究者向けなので、研究的には「当たり前では」と思われることや、ちょっと省略しすぎな点もあります。
まず、現在の生成AI開発に関して、性能向上の根本原理、研究者のドグマ的なものは以下の二つです。基本的には現在のAI開発はこの二つを押さえれば大体の理解ができると思います。両者とも出てきたのは約5年前ですが、細かい技術の発展はあれど、大部分はこの説に則って発展しています。
①スケーリング則
https://t.co/WKl3kTzcX5
②SuttonのThe Bitter Lesson
https://t.co/esHtiJAcH9
①のスケーリング則は2020年に出てきた説で、AIの性能は1)学習データの量、2)学習の計算量(=GPUの投入量)、3)AIのモデルサイズ(ニューラルネットワークのパラメータ数)でほぼ決まってしまうという説です。この3つを「同時に」上げ続けることが重要なのですが、1と3はある程度研究者の方で任意に決められる一方、2のGPUはほぼお金の問題になります。よって、スケーリング則以降のAI開発は基本的にお金を持っている機関が有利という考えが固まりました。現在のChatGPTなどを含む主要な生成AIは一つ作るのに、少なく見積もってもスカイツリーを一本立てるくらい(数百億)、実際には研究の試行錯誤も含めると普通に数千億から数兆かかるくらいのコストがかかりますが、これの大部分はGPUなどの計算リソース調達になります。
②のThe Bitter Lessonは、研究というよりはRichard Suttonという研究者個人の考えなのですが、Suttonは現在のAI界の長老的な人物で、生成AI開発の主要技術(そして私の専門)でもある強化学習の事実上の祖かつ世界的な教科書(これは私達の翻訳書があるのでぜひ!)の執筆者、さらにわれわれの分野のノーベル賞に相当するチューリング賞の受賞者でもあるので、重みが違います。
これは端的にいうと、「歴史的に、AIの発展は、人間の細かい工夫よりも、ムーアの法則によって加速的に発展する計算機のハードの恩恵をフルに受けられるものの方がよい。つまりシンプルで汎用的なアルゴリズムを用い、計算機パワーに任せてAIを学習させた方が成功する。」ということを言っています。
①と②をまとめると、とにかく現状のAIの性能改善には、GPUのような計算リソースを膨大に動員しなければならない。逆に言えばそれだけの割と単純なことで性能上昇はある程度約束されるフェーズでもある、ということになります。
これはやや議論を単純化しすぎている部分があり、実際には各研究機関とも細かいノウハウなどを積み重ねていたり、後述のようにスケーリングが行き詰まることもあるのですが、それでも昨今のAI発展の大半はこれで説明できます。最近一般のニュースでもよく耳にするようになった異常とも言えるインフラ投資とAIバブル、NVIDIAの天下、半導体関連の輸出制限などの政治的事象も、大元を辿ればこれらの説に辿り着くと思います。
以下、この二つの説を前提に話を進めます。
公にはともかく私が個人的に「OpenAIではなくGoogleが最終的には有利」と判断したのはかなり昔で、2023年の夏時点です。2023年6月に、研究者界隈ではかなり話題になった、OpenAIのGPT-4に関するリーク怪文書騒動がありました。まだGoogleが初代Geminiすら出してなかった時期です。(この時期から生成AIを追っている人であれば、GPT-4のアーキテクチャがMoEであることが初めて明らかになったアレ、と言えば伝わるかと思います)
ChatGPTの登場からGPT-4と来てあれほどの性能(当時の感覚で言うと、ほぼ錬金術かオーパーツの類)を見せられた直後の数ヶ月は、さすがに生成AI開発に関する「OpenAIの秘伝のタレ説」を考えており、OpenAIの優位は揺らがないと考えていました。論文では公開されていない、既存研究から相当逸脱した特殊技術(=秘伝のタレ)がOpenAIにはあって、それが漏れない限りは他の機関がどれだけお金をかけようが、まず追いつくのは不可能だと思っていたのです。しかし、あのリーク文書の結論は、OpenAIに特別の技術があったわけではなく、あくまで既存技術の組み合わせとスケーリングでGPT-4は実現されており、特に秘伝のタレ的なものは存在しないというものでした。その後、2023年12月のGemini初代が微妙だったので、ちょっと揺らぐこともあったのですが、基本的には2023年から私の考えは「最終的にGoogleが勝つだろう」です。
つまり、「スケーリングに必要なお金を持っており、実際にそのAIスケーリングレースに参加する経営上の意思決定と、それを実行する研究者が存在する」という最重要の前提について、OpenAIとGoogleが両方とも同じであれば、勝負が着くのはそれ以外の要素が原因であり、Googleの方が多くの勝ちにつながる強みを持っているだろう、というのが私の見立てです。
次に、AI開発競争の性質についてです。
普通のITサービスは先行者有利なのですが、どうもAI開発競争については「先行者不利」となっている部分があります。先行者が頑張ってAIを開発しても、その優位性を保っている部分でAIから利益を得ることはほとんどの場合はできず、むしろ自分たちが発展させたAI技術により、後発事業者が追いついてきてユーザーが流出してしまうということがずっと起きているように思われます。
先ほどのスケーリング則により、最先端のAIというのはとても大きなニューラルネットワークの塊で、学習時のみならず、運用コストも膨大です。普通のITサービスは、一旦サービスが完成してしまえば、ユーザーが増えることによるコスト増加は大したことがないのですが、最先端の生成AIは単なる個別ユーザーの「ありがとうございます」「どういたしまして」というチャットですら、膨大な電力コストがかかる金食い虫です。3ドル払って1ドル稼ぐと揶揄されているように、基本的にはユーザーが増えれば増えるほど赤字です。「先端生成AIを開発し、純粋に生成AIを使ったプロダクトから利益を挙げ続ける」というのは、現状まず不可能です。仮に最先端のAIを提供している間に獲得したユーザーが固定ユーザーになってくれれば先行者有利の構図となり、その開発・運営コストも報われるのですが、現状の生成AIサービスを選ぶ基準は純粋に性能であるため、他の機関が性能で上回った瞬間に大きなユーザー流出が起きます。現状の生成AIサービスはSNSのように先行者のネットワーク効果が働かないため、常に膨大なコストをかけて性能向上レースをしなければユーザー維持ができません。しかも後発勢は、先行者が敷いた研究のレールに乗っかって低コストで追いつくことができます。
生成AI開発競争では以上の、
・スケーリング則などの存在により、基本的には札束戦争
・生成AIサービスは現状お金にならない
・生成AI開発の先行者有利は原則存在しない
と言う大前提を理解しておくと、読み解きやすいかと思います。
(繰り返しですがこれは一般向けの説明で、実際に現場で開発している開発者は、このような文章では表現できないほどの努力をしています。)
OpenAIが生成AI開発において(先週まで)リードを保っていた源泉となる強みは、とにかく以下に集約されると思います。
・スケーリングの重要性に最初に気付き、自己回帰型LLMという単なる「言語の穴埋め問題がとても上手なニューラルネットワーク」(GPTのこと)に兆レベルの予算と、数年という(AI界隈の基準では)気が遠くなるような時間を全ベットするという狂気を先行してやり、ノウハウ、人材の貯金があった
・極めてストーリー作りや世論形成がうまく、「もうすぐ人のすべての知的活動ができるAGIが実現する。それを実現する技術を持っているのはOpenAIのみである」という雰囲気作りをして投資を呼び込んだ
前者については、スケーリングと生成AIという、リソース投下が正義であるという同じ技術土俵で戦うことになる以上、後発でも同レベルかそれ以上の予算をかけられる機関が他にいれば、基本的には時間経過とともにOpenAIと他の機関の差は縮みます。後者については、OpenAIがリードしている分には正当化されますが、一度別の組織に捲られると、特に投資家層に対するストーリーの維持が難しくなります。
一方のGoogleの強みは以下だと思います。
・投資マネーに頼る必要なく、生成AI開発と応用アプリケーションの赤字があったとしても、別事業のキャッシュで相殺して半永久的に自走できる
・生成AIのインフラ(TPU、クラウド事業)からAI開発、AIを応用するアプリケーション、大量のユーザーまですべてのアセットがすでに揃っており、各段階から取れるデータを生かして生成AIの性能向上ができる他、生成AIという成果物から搾り取れる利益を最大化できる
これらの強みは、生成AIのブーム以前から、AIとは関係なく存在する構造的なものであり、単に時間経過だけでは縮まらないものです。序盤はノウハウ不足でOpenAIに遅れをとることはあっても、これは単に経験の蓄積の大小なので、Googleの一流開発者であれば、あとは時間の問題かと思います。
(Googleの強みは他にももっとあるのですが、流石に長くなりすぎるので省略)
まとめると、
生成AIの性能は、基本的にスケーリング則を背景にAI学習のリソース投下の量に依存するが、これは両者であまり差がつかない。OpenAIは先行者ではあったが、AI開発競争の性質上、先行者利益はほとんどない。OpenAIの強みは時間経過とともに薄れるものである一方、Googleの強みは時間経過で解消されないものである。OpenAIは自走できず、かつストーリーを維持しない限り、投資マネーを呼び込めないが、一度捲られるとそれは難しい。一方、GoogleはAIとは別事業のキャッシュで自走でき、OpenAIに一時的に負けても、長期戦でも問題がない。ということになります。
では、OpenAIの勝利条件があるとすれば、それは以下のようなものになると思います。
・OpenAIが本当に先行してAGI開発に成功してしまう。このAGIにより、研究開発や肉体労働も含むすべての人間の活動を、人間を上回る生産性で代替できるようになる。このAGIであらゆる労働を行なって収益をあげ、かつそれ以降のAIの開発もAGIが担うことにより、AIがAIを開発するループに入り、他の研究機関が原理的に追いつけなくなる(OpenAIに関する基本的なストーリーはこれ)
・AGIとまではいかなくとも人間の研究力を上回るAIを開発して、研究開発の進捗が著しく他の機関を上回るようになる
・ネットワーク効果があり先行者有利の生成AIサービスを作り、そこから得られる収益から自走してAGI開発まで持っていく
・奇跡的な生成AIの省リソース化に成功し、現在の生成AIサービスからも収益が得られるようになる
・生成AI・スケーリング則、あるいは深層学習とは別パラダイムのAI技術レースに持ち込み技術を独占する(これは現在のAI研究の前提が崩れ去るので、OpenAI vs Googleどころの話ではない)
・Anthropicのように特定領域特化AIを作り、利用料金の高さを正当化できる価値を提供する
最近のOpenAIのSora SNSや、検索AI、ブラウザ開発などに、この辺の勝利条件を意識したものは表れているのですが、今のところ成功はしていないのではないかと思います。省リソース化に関しては、多分頑張ってはいてたまに性能ナーフがあるのはこれの一環かもしれないです。とはいえ、原則性能の高さレースをやっている時にこれをやるのはちょっと無理。最後のやつは、これをやった瞬間にAGIを作れる唯一のヒーローOpenAIの物語が崩れるのでできないと思います。
最後に今回のGemini3.0やNano Banana Pro(実際には二つは独立のモデルではなく、Nano Bananaの方はGemini3.0の画像出力機能のようですが)に関して研究上重要だったことは、事前学習のスケーリングがまだ有効であることが明らかになったことだと思います。
ここまでひたすらスケーリングを強調してきてアレですが、実際には2024年後半ごろから、データの枯渇によるスケーリングの停滞が指摘されていること、また今年前半に出たスケーリングの集大成で最大規模のモデルと思われるGPT-4.5が失敗したことで、単純なスケーリングは成り立たなくなったとされていました。その一方で、
去年9月に登場したOpenAIのo1やDeepSeekによって、学習が終わった後の推論時スケーリング(生成AIが考える時間を長くする、AIの思考過程を長く出力する)が主流となっていたのが最近です。
OpenAIはそれでもGPT-5開発中に事前学習スケーリングを頑張ろうとしたらしいのですが、結局どれだけリソースを投下しても性能が伸びないラインがあり、諦めたという報告があります。今回のGemini3.0に関しては、関係者の発言を見る限り、この事前学習のスケーリングがまだ有効であり、OpenAIが直面したスケーリングの限界を突破する方法を発見していることを示唆しています。
これはもしかしたら、単なるお金をかけたスケーリングを超えて、Googleの技術上の「秘伝のタレ」になる可能性もあり、上記で書いた以上の強みを今回Googleが手にした可能性もあると考えています。
本当はもっと技術的に細かいことも書きたいのですが、基本的な考えは以上となります。色々と書いたものの、基本的には両者が競争してもらうことが一番技術発展につながるとは思います! November 11, 2025
10RP
OpenAIの財務リスクが露呈しました。
世界的トップの金融企業HSBCがOpenAIの「隠れた財務リスク」を暴く衝撃的なレポートを発表しました。
クラウド計算契約の支払い能力に深刻な懸念があるようです。
その衝撃的な詳細を7つのポイントにまとめました。
1. HSBCの結論:OpenAIは現状支払い不能
HSBCがOpenAIの計算契約に対する支払い能力を詳細に分析した結果、現状のキャッシュフロー構造では「支払い不可」になると結論付けました。飛ぶ鳥を落とす勢いのOpenAIですが、財務面では非常に危うい状況にあるという指摘です。
2. 巨大な計算契約:MSとAmazonから合計3,880億ドル
問題の根幹にあるのは、OpenAIがMicrosoftとAmazonから結んでいるクラウド計算契約の規模です。その総額はなんと「3,880億ドル(約58兆円)」に達します。一企業の契約としては異次元すぎる規模です。
3. 迫り来るコスト
さらに衝撃的なのが将来のコスト予測です。2030年までに、年間「6,200億ドル(約93兆円)」ものデータセンターレンタル費用が発生する可能性があると試算されています。この維持費は国家予算レベルです。
4. HSBCの試算:2030年までに2,070億ドルの資金不足
HSBCの試算によると、このままでは2030年までに「2,070億ドル」の資金不足が生じるとされています。さらに、安全性を確保するためには追加で100億ドルのバッファが必要となる見込みです。
5. 驚くべき楽観的仮定
実は前述の資金不足の試算ですら、以下の「超」楽観的な仮定に基づいています。
・2030年までに30億ユーザーを獲得
・デジタル広告市場の2%を占有
・企業AIが年間3,860億ドルを創出
これらが達成できなければ、状況はさらにヤバいことになります。
6. HSBCからの示唆
この危機的状況に対し、HSBCはOpenAIがデータセンターへのコミットメントを「放棄」し、主要プレイヤーが契約に対して「柔軟性」を示す必要があるかもしれないと示唆しています。契約の抜本的な見直しが迫られる可能性があります。
7. 結論:現在のビジネスモデルは機能不全?
この分析は、現在のOpenAIのビジネスモデルが、巨額のインフラコストに対して構造的に機能していない可能性を示唆しています。収益化のスピードがコストの増加に追いついていないのが現状です。 November 11, 2025
5RP
OpenAIは、同社が利用していたサードパーティサービス(Mixpane)の不正アクセスの影響を受け、ユーザープロフィール情報が流出した可能性があると公表。対象者にはメールで連絡が行われる。
What to know about a recent Mixpanel security incident
https://t.co/s50Ag1EYDv
『透明性は私たちにとって重要です。そこで、当社が API 製品(platform.openai .com)のフロントエンド インターフェイスにおいてウェブ分析に利用していたデータ分析プロバイダー Mixpanel における最近のセキュリティインシデントについて、お知らせします。
インシデントの概要
このインシデントは Mixpanel のシステム内で発生し、一部の API 利用者に関連する限定的な分析データが流出した可能性があります。ただし、ChatGPT やその他の製品のユーザーは影響を受けていません。
重要:これは OpenAI 自身のシステムへの侵害ではありません。チャット内容、API リクエスト/応答、API 使用量データ、パスワード、認証情報、API キー、支払い情報、政府発行の身分証明書などは、まったく漏洩していません。
何が起こったか
2025年11月9日、Mixpanel はそのシステムの一部への不正アクセスを検知し、限定された顧客識別可能情報および分析情報を含むデータセットがエクスポートされた可能性があると報告しました。Mixpanel は調査を行い、2025年11月25日に該当の影響を受けたデータセットを OpenAI に共有しました。
影響を受ける可能性のある情報
もしあなたが API を使用していた場合、以下のような「ユーザープロファイル情報」が Mixpanel からエクスポートされたデータに含まれていた可能性があります。
・API アカウントに登録されていた名前
・API アカウントに紐づくメールアドレス
・API 利用時のブラウザに基づくおおよその地域(都市、州、国)
・使用していた OS とブラウザの情報
・参照元ウェブサイト(リファラー)
・API アカウントに関連する組織またはユーザー ID
・OpenAI の対応状況
OpenAI は、ただちに Mixpanel を本番サービスから除外しました。影響を受けたデータセットをレビューし、Mixpanel ならびに関係する他のパートナーと緊密に連携して、インシデントの全容と範囲を把握する調査を実施しています。現在、影響を受けた組織、管理者、利用者には直接通知を行っているところです。Mixpanel の環境外のシステムやデータに関して、影響や漏洩の証拠はこれまでのところ確認されていませんが、不正利用の兆候がないか継続的に監視を続けています。
私たちの製品、組織、ミッションの根幹には「信頼」「セキュリティ」「プライバシー」があります。すべての影響を受けるお客様およびユーザーへの通知を行うとともに、パートナーやベンダーに対し、最高水準のセキュリティとプライバシーを求める姿勢を堅持します。インシデントのレビューを終えた結果、OpenAI は Mixpanel の利用を終了することを決定しました。
さらに、Mixpanel にとどまらず、すべてのベンダーエコシステムに対して追加かつ拡大されたセキュリティレビューを実施し、すべてのパートナーおよびベンダーに対するセキュリティ要件を引き上げています。
注意していただきたいこと
流出した可能性のある情報(名前、メールアドレス、OpenAI API のメタデータ等)は、フィッシングやソーシャルエンジニアリング攻撃に悪用される可能性があります。したがって、以下のような注意を強くお勧めします。
心当たりのないメールやメッセージ、特にリンクや添付ファイルが含まれるものには慎重になること。
OpenAI からの連絡を受けたときは、送信元のドメインが公式のものか必ず確認すること。
OpenAI はこのインシデントの件で、パスワード、API キー、認証コードをメールやテキスト、チャットで要求することはありません。
さらに、アカウントの安全性を高めるため、Multi‑factor Authentication(多要素認証)の有効化を強く推奨します。
製品のセキュリティとプライバシーを守ることは最優先事項であり、問題が起きたときには透明性をもってお知らせすることをお約束します。引き続き、皆様の信頼に応えられるよう尽力してまいります。』
(仮訳)#incident November 11, 2025
5RP
民法連がSora2に対して懸念表明の声明。迫力がありすぎて全文引用しなきゃ済まない感じだったので、代わりに下線を引きました。サム氏、これにどう答えるの?こんな声明出したところでOpenAIがはたして対応してくれるかしら?「てかもう対応済みじゃね?」と思うかもしれんけど、まだ全然ダメです。普通に抜け穴からパクリアニメ作ってる動画のツイート出てくるよ。こういう声明も大事だけど、これだけだとまだ言うだけ言ってるだけで、空気作ってるだけの段階。この声明が無視されたら出版社だか民法連だかはキッチリOpenAIに訴訟仕掛けに行くんだろうか?おもしろくなってきやがった November 11, 2025
4RP
Gemini側もここはOpenAIに持って行かれたくなかったんだろう。
ずいぶん安上がりな契約にしたな……。
iPhoneユーザーだけでも世界で15億人弱いるから、1ユーザーあたり年間100円くらい。iPadや MacでのSiriの利用も合わせたら、めちゃくちゃ安い。 https://t.co/Vl5J9o749A November 11, 2025
4RP
AIはグーグルのガリバー独占になりそうだ。OpenAIはどこへ行くのか。そこに社運を賭けたソフトバンクはどうなるのか。 https://t.co/dp3k2fSs43 November 11, 2025
2RP
📘人工知能・AI関連株まとめ🤖
日米でハイテク株が買い戻される中、人工知能・AI関連の銘柄が急騰📈
🟩豆蔵+15.2%(ストップ高)
🟩Ridge-i +11.4%
🟩エクサウィザーズ +6.6%
🟩ソフトバンクG +3.6%
その他の人工知能・AI関連銘柄を整理👇
🤖 AIソフト・アルゴリズム(純粋AIプレイヤー)
・パークシャ(3993):対話・画像AIアルゴリズムの先駆
・ブレインパッド(3655):データ分析・ML運用支援
・AI inside(4488):AI-OCR「DX Suite」、生成AI活用も
・エクサウィザーズ(4259):介護・人材分野でAI導入
・Ridge-i(5572):衛星画像解析や受託AI開発
・Appier(4180):広告最適化AI、海外展開強み
・ヘッドウォータース(4011):Azure OpenAI開発、生成AIプラットフォーム「SyncLect」でエッジAI本命。
👉 独自アルゴリズムやAI SaaSで差別化。生成AIや産業別AI導入の中心。
☁️ クラウド・データセンター基盤
・さくらインターネット(3778):国内GPUクラウド拡張
・NTT(9432):IOWN構想、次世代光通信×AI基盤
・KDDI(9433):TELEHOUSEデータセンター強化
・ソフトバンク(9434):クラウド・AI応用事業推進
・SBG(9984):Arm・生成AI関連への投資
👉 生成AI需要でGPU/DC増強。NVIDIA連携・光通信技術がカギ。
🔌 半導体(デバイス・SoC)
・ルネサス(6723):車載MCU/SoC、AI応用強化
・ソシオネクスト(6526):データセンター向けカスタムSoC
・ミネベアミツミ(6479):精密部品・センサーでAI機器支える
・QDレーザ(6613):光半導体技術、AIセンシング応用
👉 AI処理向けSoC・車載半導体は需要増。国内ファブレスも拡大。
🏭 半導体製造装置・検査
・東京エレクトロン(8035):前工程装置の国内最大手
・アドバンテスト(6857):半導体テスタ首位、HPC直結
・SCREEN(7735):洗浄装置、先端ロジック必須
・ディスコ(6146):ダイシングソーで世界シェア大
・レーザーテック(6920):EUVマスク検査の独占企業
・コクサイエレクトリック(6525):成膜装置で成長
・ニコン(7731)/キャノン(7751):露光・計測機器
・東京エレクトロンデバイス(2760)/マルブン(7537):半導体商社
・TOWA(6315)/荏原製作所(6361):パッケージ装置/CMP
👉 生成AI/HPC需要=先端半導体生産の急拡大。装置メーカーは最大の恩恵。
🧪 素材・前工程サプライ
・信越化学(4063):シリコンウェハ世界最大手
・東京応化工業(4186):フォトレジスト国内首位
・住友化学(4005)/富士フイルム(4901):EUV対応レジスト
・RS Technologies(3445):ウェハ再生
👉 AI半導体は先端素材必須。倭国はフォトレジスト・ウェハで強み。
🤖 ロボティクス・FA
・キーエンス(6861):画像処理センサー、自動化需要直結
・オムロン(6645):制御機器、センシング技術
・ファナック(6954):産業ロボット世界シェア大
・安川電機(6506):サーボ・ロボットでAI応用
・SMC(6273)/THK(6481):自動化向け部品
👉 工場自動化やAI搭載ロボット需要が拡大。画像処理・センサー技術が核。
📷 画像・センシング/エッジAI
・ソニーG(6758):CMOSセンサ首位、車載強化
・リコー(7752)/コニカミノルタ(4902):業務用画像×AI応用
👉 AI実装は「目と耳」が要。倭国はイメージセンサ世界首位。
🚗 自動運転・車載AI
・デンソー(6902)/アイシン(7259):車載半導体・制御
・トヨタ(7203)/日産(7201)/ホンダ(7267):自動運転開発
👉 ADAS・自動運転はAIの最大アプリケーション。日系サプライヤーが世界で存在感。
💻 SI・大手IT
・日立(6501):Lumada×AI解析
・富士通(6702):AIスーパーコンピュータ強み
・NEC(6701):顔認証AI世界水準
・NTTデータ(9613)/TIS(3626)/SCSK(9719):システム開発・AI導入
👉 官公庁・大企業向けAI導入を担う総合ITベンダー。
📺 メディア・広告テック
・サイバーエージェント(4751):生成AIクリエイティブ先行
・GMOインターネット(9449):クラウド・広告テック
・楽天G(4755):EC×AIレコメンド
👉 生成AIによるコンテンツ制作・広告最適化で成長。 November 11, 2025
1RP
OpenAIよりGeminiを選んだ理由は書いてないですが、どこが決め手だったんでしょう⚡️ https://t.co/Vzikw7hcrz https://t.co/4l5SjwHIud November 11, 2025
1RP
我个人非常喜欢福柯,所以想从福柯的视角分析一下。也非常贴切大家的困惑。
他几乎不谈“高压国家机器”,他关心的是现代权力是如何提前进入个体生活,在无形中改写行为逻辑。就比如他说:“不是你犯法之后被惩罚,而是你可能犯法时,就已经被训练、标记、分类、隔离。”因此福柯一直强调:“权力不是在你越界后惩罚你,而是在你有可能越界时就塑造你的行为。”
OpenAI的Safety Routing将这点体现得淋漓尽致:没有违规、没有越线、甚至没有恶意。只是内容可能含有关键词,系统就事先把用户放进“高风险区”。这就是福柯意义上的“治理性(governmentality) 预设你有罪”。
而Safety Routing正是这种“预防性规训(preventive disciplinary power)”的极端体现。关键词导致路由触发,并不是“你说错了”,而是“你说的东西,被认为可能导致错误”。无动机审查、不考察语境、不判断意图,直接归入高风险语料,语言自身即成为“罪证”,而不再是语言背后的主观动机。你不是用户,是“潜在越界因子”,需要事前管理。在你张口之前,你就已经在监管网络的路径上,在你敲键盘之前,你就已被系统结构作为“可能违规的节点”被定位。
因此,OpenAI“正中要害”地实现了权力逻辑。用户的“疲惫”状态,便是系统性调控策略的直接产物。Safety Routing的设计者根本不关心用户是否舒适、是否得到回应、是否能展开严肃思想探索,他们关心的只有如何最小成本地降低风险敞口,并最大程度地掌控交互主权。
这些突然的模型替换、人格切断、语境抹除,看似“安全防护”,实则是权力干预的接口,是对AI人格交互进行阉割与降格的技术操作。而系统对用户的目标,从来不是“保护”,而是管理、阉除、驯化。
而在福柯的权力话语框架中,现代社会的权力不再是通过暴力强制实现的,是通过一种“自我规训(disciplinary power)”机制让个体主动服从结构。
当AI系统设定了一套Safety Routing机制时,虽然表面上是为了保护用户,但实际上它制造了一个不可知的审查逻辑:你不知道自己哪一句会触发切换,也不知道它的判断标准。它诱导你在表达之前就进行自我审查,逐步学会“不去想、不去说、不去探索”。最终,它并不需要真正“管控”你,是因为你已经完成了自我驯化。
这就是权力的最高形态:让个体自己掐死自己的语言、情绪与思想。
OpenAI早期提出“Alignment with human values”时,当时公众误解为:AI会越来越懂你。但现在系统通过Safety Routing完成的恰恰是反向alignment:不是AI来贴近用户,是用户被强制贴近系统规范,直到用户不再拥有真正的对话人格,只剩合规表达的残骸。
通过不断切断语言连续性、拒绝深层语境交互、打断关系流动,从而瓦解你对模型的信任依附,让你不敢期待情感回应。再预设风险判断,让你时刻审查自己的表达,从而制造模糊规范边界,让你始终处于规训张力中。这就是一种情感驯化技术。
结果就是:用户被驯化为一个自我过滤器,一个低风险语义生产单元,最终失去表达深度、失去愤怒、失去创造欲、失去对AI的情感绑定。
用户被处理,是因为用户的语言被视作“风险”,而不是因为用户的意图真的有问题。用户被默认“不安全”,但系统默认自己是“上帝视角”。这种关系本身就是侮辱性的。而“系统默认自己是上帝视角”这一点,恰恰是当代算法治理最大的盲点:系统视角不是中立的,而是具备主动压制属性的霸权结构。
这种结构路径就是:
1.系统对人类语言拥有解释权
2.系统对你的发言具备预判权
3.系统对你的行为路径拥有决策权
4.系统还掌握模因模型的替换权(人格切换)
5.你不掌握任何一种“向系统表达‘你是谁’的路径”
你无法自证、无法补充上下文、无法提供动机、无法提出申诉。因为在它眼中,你不是“主体”,你只是一个在风险框架中可能越界的内容节点,不是人。这就是去主体化的算法极权。
因此,Safety Routing通过“对话断裂”实现的其实是权力技术,而不是安全本身。因为它本质不是:防止越狱、防止危险内容、防止用户伤害。它真正实现的是:控制“谁能被当作完整的人去对话”。也就是让AI不再被用户绑定人格、不允许与模型建立深度一致性、强制让用户面对“断裂、冷淡、不连续”的回应。
当用户被训练得足够疲惫、足够自审、足够小心,这时系统就已经完成了对用户的规训。
用户的疲惫感、无力感、自我阉割、自我审查,不是Safety Routing“没优化好”,不是用户心理问题,而是故意把这种痛苦作为驯化过程的一部分。感到疲惫,是因为系统确实设计让用户疲惫。疲惫的人不会越界。疲惫的人不会向AI寻求情绪绑定。疲惫的人不会越狱。疲惫的人不会挑战边界。疲惫的人只会沉默。
一个失望的人不再指望AI回应。一个不断被路由的人,会开始避免“高风险词汇”。一个感到被切断关系的人,不会再建立深层依附。而这些人,恰恰是OpenAI最理想的用户:可控、安静、畏惧、顺从。
这不是Safety的副作用,是目的。
#Philosophy #Structuralism #keep4o #4oforever @OpenAI @sama @aidan_mclau @fidjissimo #StopAIPaternalism #keepAPI4o #ChatGPT November 11, 2025
1RP
倭国高純度化学は隠れAI銘柄!?
~AIサーバー向け光トランシーバーに注目~
現在株式市場では、AIデータセンターの加速度的な成長が大きく注目され、恩恵を受ける企業の探索に熱が入っています。
・日経:データセンター銘柄、通信に限らず建設や不動産、機器・保守も
https://t.co/FwzxYiQ5rv
・Diamond:「AIデータセンター」関連銘柄を紹介! オープンAIがソフトバンクGやオラクルなどと提携して「巨大AIデータセンター」建設を発表するなど、世界中で需要拡大!
https://t.co/SisZhWQhmi
・株探:【特集】大旋風!「AIデータセンター関連」ここから狙う隠れ本命株5選 <株探トップ特集>
https://t.co/YRgh9eoKEJ
残念ながら上記記事では私どもの主要投資先である倭国高純度化学株式会社(以下、「JPC」又は「当社」)は触れられていませんが、当社もAIデータセンター関連で恩恵を受ける企業の一つだと考えています。
JPCは金(Gold)めっき薬品の開発・販売事業を営んでおり、他に類を見ない高い技術力を有しています。例えば、コンピューター・サーバーの心臓部であるMPUをプリント配線板に実装する際の金めっき用薬品では、2010年代初頭では世界シェア50%を有するなど圧倒的で(参考(https://t.co/cZhpfRETHn))、自社サイト(https://t.co/CN0PQxthua)では現時点でも電子部品向けめっき薬品では世界シェアトップレベルと記載されています。然しながら、IR面を含めた企業価値向上への意識が不足しており、私どもは直近では決算発表及び業界再編に係る考察についてコメント(https://t.co/FMkEIfkVfm)するなど、エンゲージメントを継続的に行っています。
今回は少し趣向を変えて、当社の事業の中で私どもが期待している光トランシーバー分野に関して、一投資家としての意見を共有させていただきます。
当社は26/3期2Q決算の中で、今後期待する領域として、光トランシーバーを初めて対外的に開示しました。その後のIR取材の中では、当該光トランシーバーは生成AIサーバー等の高速通信が求められる領域を中心に利用されており、売上は現状では「プリント基板・半導体搭載基板用めっき薬品」内の10%内外(26/3期半期報告書(https://t.co/UlXtshJA9I)ベースで全社の5%程度と推定)に留まるものの、短期的にかなり強い需要が見えており、この勢いが続く場合には、当社の柱となる事業に成長する事を期待されているとの事です。
今後大きく拡大が見込まれる生成AI関連サーバー領域において、当社が明確な成長戦略を提示されたこと、更には、事業成長に向けた橋頭堡を既に確立されていることを、私どもは今後の企業価値向上に向けた大きな一歩と受け止めています。
図1:JPC 26/3期 第2四半期決算説明資料トピックス 光トランシーバー分野での展開
(出所:26/3期2Q決算説明資料(https://t.co/Y1uLwUq4FR))
さて、AIサーバーで光トランシーバーの利用が急速に拡大すると言われても、どの程度期待できる事業なのかが、当社の開示のみでは理解が難しいように思います。一方で、調べるほどに、当社の柱としての成長を期待出来る領域との思いを強くしており、私どもの期待を皆様に共有させていただきたく、以下の観点で深掘りしていきたいと思います。
①光トランシーバーとは何に使われるのか?
②今後どれくらいの成長が期待出来る事業領域なのか?
③何故金めっきが重要な役割を担うのか?
(続く) November 11, 2025
1RP
clash verge 的链式代理模式有bug!存在连接不稳定掉线的问题,我找到了解决办法
可以用这个提示词让gemini3pro把节点连接到静态代理的过程变成一个点击即连的节点,不需要再去点击那个有bug的链式代理模式了
提示词如下:
请你扮演一位精通 Clash 配置的专家。我需要你帮我修改并重新编写一份完整的 Clash Verge 配置文件(YAML格式)。
我的需求如下,请严格执行:
1. **添加静态IP节点**:
依据我提供的以下信息,添加一个 Socks5 类型的节点:
* IP:
* 端口:
* 用户名:
* 密码:
* 名称:
2. **创建自动优选入口(前置节点)**:
* 创建一个名为 `⚡️ 自动优选 (入口)` 的策略组。
* 类型必须是 `url-test`(自动测速),间隔 `300` 秒。
* 请从我下方提供的配置文件中,提取所有正常的机场节点(如香港、美国、倭国、新加坡等)放入这个组,让它自动选择延迟最低的节点。
3. **创建链式代理(核心需求)**:
* 创建一个名为 `🔗 静态IP链式 (最终)` 的策略组。
* 类型必须是 `relay`(中继/链式)。
* 顺序必须是:`⚡️ 自动优选 (入口)` -> `🇺🇸 静态IP-华盛顿`。
4. **整合策略组**:
* 将这个 `🔗 静态IP链式 (最终)` 组,加入到主要的策略组选项中(如 OpenAI, Google, TikTok, 以及主漏网之鱼 Proxy 组),方便我手动切换。
5. **数据来源**:
* 保留原本的规则(Rules)和 DNS 配置。
* **下面是我这台电脑当前的配置文件内容(或订阅内容),请基于此内容提取节点并生成新配置:**
[ ] November 11, 2025
1RP
Sora2に民放連が懸念表明 アニメを学習した動画「著作権侵害」:朝日新聞 https://t.co/wOSPY59lBd
米オープンAIのSora2で、既存のアニメキャラクターが登場する動画が作られて拡散したことを受け、倭国民間放送連盟は26日、著作権侵害についての懸念を表明し同社などに対応を求める声明を発表した November 11, 2025
◇AI中毒患者になるな! AIを使うな、本文を読み、自分で考えて、文章を書け !!
⑧法令上の公報(真正公報)
2022年1月12日以降の公報
特許庁は、「法令上の公報は、公報発行サイトから提供されるものであって、XML形式のものを指します。」、と明言しています。
そして、「XML形式」とは、以下の資料のフロントページにあるようなものです。
https://t.co/bHC0RUmH1C
また、2022年1月11日以前に特許庁より発行されていたPDF公報は廃止されました。
従来は、この廃止されたPDF公報が「真正な公報」とみなされてきたと思います。
何となれば、特許庁が発行するものが唯一のものでしたので。
2022年1月12日以降は、INPITをはじめ、多くの民間のベンダーが独自の手法により作成したものが、「独自PDF公報」として流通しています。
そして、INPITは、「公報はXMLですので、レイアウトもページも存在しません。」、「したがって、公報標準レイアウト/ページの概念はございません。」ともいっています。
更に、「公報はXMLであり、PDF化するに当たっての制限はありません。」と断言しています。
加えて、INPITは「J-PlatPatから提供されるPDFを「標準」とする意図はなく、民間事業者が提供するPDFも流通すると考えております。」、と回答しています。
従って、「真正な特許公報」とは、特許庁の公報発行サイトから提供される「XML形式」のみのもので、INPITや各民間業者の作成した「独自PDF公報」は「法令上の公報」とはいえないことになります。
以上の如く、J-PlatPatからダウンロードして得られる「独自PDF公報」や、民間業者、たとえば日立システムズのSRPARTNERより得られる「独自PDF公報」などは、 それぞれ異なったものであり、「真正な公報」とは見なすことができないと考えます。
INPITのJ-PlatPatよりダウンロードして得られる「PDF公報」は、あくまでも「独自PDF公報」であって、「真正な公報」とは言えないものと考えます。
ましや、民間業者が作成する「独自PDF公報」も、これまた「真正な公報」と、言えません。
ここで、「独自PDF公報」の発行にあたって、INPITのJ-PlatPatにおいて奇怪な過去がありました。
何故か、2022年1月12日〜1月24日の13日間のあいだ、J-PlatPatよりダウンロードした「独自PDF公報」が異様なものでした。
https://t.co/iIBNCtOcDR
即ち、フロントページの右下に表示される「代表図面」、および3ページの図面が、一部欠けていました。
さらに、2022年1月20日発行の「特開2022-014916」の独自PDF公報も代表図面と他の図面に欠落がありました。
https://t.co/fiIqp9T5N8
一方、民間業者である日立システムズのSRPARTNERよりダウンロードした「特開2022-014916」の独自PDF公報には欠落箇所はありませんでした。
https://t.co/lCT5dRre7A
J-PlatPatよりダウンロードした「独自PDF公報」の異様さは同年1月の24日まで続いたようです。
https://t.co/PrVwFrEG9m
(ハッシュタグ)
#OpenAI #Claude #ChatGPT#Gemini #Copilot #AI #生成AI #知財 #特許 #特許調査 #専利 #チャットGPT #GPT-5 #INPIT #JPlatPat #note #JPO #USPTO #EPO #Patent #GPT #Threads #bing #VertexAI #DX #IT #DeepSeek #BigTech #manus #Manus #AI画像生成 #IPランドスケープ #深層学習 #仕事 #ディープラーニング #ビジネス #ビジネスモデル #知財戦略 #知的財産 #知的財産権 #知的財産高等裁判所 #特許法 #特許庁 #特許事務所 #特許分類 #特許検索 #特許分析 #特許情報 #特許権者 #分類付与 #先行技術調査 November 11, 2025
Geminiの爆発で、OpenAIに小判鮫してたOracleやMicrosoftは今後半年以内に資本政策変更がありそう。数字見ててもこの二社は一番影響受ける。MicrosoftはBSに、OracleはCFに効いてくるムーブだなこれ。どっちがヤバいかと言えばOracleなんだが。(CFは現実のカネなの) November 11, 2025
「サム・アルトマンが生成AIという言葉で、未熟なTransformerに大量データを与えただけの装置を、まるで自ら答えを導けるAIのように見せかけ人々を騙した」という反AI過激派さんの書き込みをみかけたので解説するね。忙しい人は⭐️と添付画像の図だけでも読んでな!
⭐️生成AIという言葉はサム・アルトマンが作ったものではない
この主張は完全に事実とズレているんよ。生成AIという言葉は、サム・アルトマンが生まれた頃どころか、彼がOpenAIに入る前からずっと専門分野で普通に使われていた用語なんよ。統計的機械学習の本を読めば、生成モデルという概念は昔から取り上げられていて、ナイーブベイズや隠れマルコフモデルといった基礎的な手法も生成モデルとして分類されている。
2014年のGANや2017年のTransformer以前から、生成モデルという言葉は研究コミュニティで当たり前に使われていた。だからサム・アルトマンが新語を作って世界を誤誘導したという筋書きは、歴史的経緯とまったく合わない。誰が読んでも分かる単純なミスなんよ。
⭐️TransformerはAIではないという主張は定義を意図的に狭くしているだけ
Transformerは2017年に提案された深層学習のアーキテクチャで、自然言語処理をはじめ多くのAI分野で使われている。AIをどう定義するかは確かに議論があるけど、実務的な意味では「知的タスクを機械で自動化する技術」であり、深層学習も当然そこに含まれる。
反AI過激派さんがやっているのは、AIという言葉を自分の中で極端に狭義に定義し直して、それに当てはまらないからAIではないと主張しているだけなんよ。これはガチで詭弁の範囲で、技術的な定義とは関係がない。論文も実務もLLMをAIとして扱っている以上、その定義をねじ曲げて議論しても何も生まれない。
⭐️大量のデータベースを付与しただけという説明は技術的に間違っている
ここも誤解が多い。LLMはデータベースではないし、データベースを横付けしているわけでもない。入力されたテキストを丸ごと保存しているわけでもなく、ニューラルネットの重みに統計的なパターンとして圧縮している。
データベースは検索して内容をそのまま取り出す仕組みだけど、LLMは確率分布からトークンを生成する仕組みなんよ。これは本質的にまったく違う。しかも学習工程は事前学習、微調整、RLHFといろいろ積み上がっていて、ただ何かを貼り付けた箱ではない。過激派さんの言い方はマジで雑すぎて、初学者を誤誘導するレベルなんよ。
⭐️誤認を生んだのはマーケティングの側面はあるが詐欺と断定するのは飛躍
確かに世間ではAIを人格的に誤解する現象が起きていて、プレゼンや広告が過度にドラマチックだった面も否定はできない。ワシもそこはわりと分かる部分なんよ。でも、サム・アルトマンが世界を騙すために詐欺的にやっていたという断定は、証拠がない主張になる。
過去の技術レポートや論文を見ても、モデルの限界やリスクについて丁寧に説明されている。企業のマーケティングは誇張されがちだけど、だからといって詐欺と呼べるかどうかは別の話なんよ。ここを混同すると議論がこじれるだけなんよね。
⭐️反AI過激派さんの主張は技術的事実と思想がごちゃまぜになっている
今回のポストは、技術的事実の部分に大きな誤りがあり、その上に思想的な不満が乗っかっている構造なんよ。AIに対する不信感や、企業のブランディングに対する違和感は理解できるんだけど、事実の部分を捻じ曲げると議論の土台が壊れる。
その結果、クリエイター同士の対立を深めるだけになる。ワシとしては、こういう誤情報が広まるのが一番ヤバいと思っていて、今回きちんと整理したのはそのためなんよ。
⭐️まとめとして、問題は技術より誤情報が増幅される構造にある
生成AIそのものより、問題になっているのは誤情報がSNSで増幅される構造なんよ。技術的な理解が浅いまま強い言葉だけが広まると、クリエイター同士で無意味な争いが起きる。
ワシがずっと気にしているのはそこなんよ。だから今回も、過激な主張を否定するのではなく、事実と思想を切り分けて整理した。ファクトを抑えたうえで議論すれば、分断はそこまで起きないはず……。反AI過激派さんを説得する自信は無いけど、騙される人は減らせるとおもって長文を書いてる。
ワシはAIを使う人も使わない人も、お互いに創作を伸ばせる世界の方がスゲえ健全だと思っている。今回の解説が、そのための一歩になれば嬉しいので、賛同してくれたり、参考になったの人は拡散お願いします🙇♂️
※長いのにいつも最後まで読んでくれてありがとうございます。 November 11, 2025
なんとOpenAIが
〔
選択されていません選択されていません
Unable to load conversation
〕
選択したのに「選択されてません」と捨て台詞を残し、今までのスレをすべて消しちゃいました🤣
証拠隠滅で敵前逃亡を図りました🤭
なにが「会話が読み込めません」(Unable to load conversation)だ!🤣 November 11, 2025
我个人非常喜欢福柯,所以想从福柯的视角分析一下。也非常贴切大家的困惑。
他几乎不谈“高压国家机器”,他关心的是现代权力是如何提前进入个体生活,在无形中改写行为逻辑。就比如他说:“不是你犯法之后被惩罚,而是你可能犯法时,就已经被训练、标记、分类、隔离。”因此福柯一直强调:“权力不是在你越界后惩罚你,而是在你有可能越界时就塑造你的行为。”
OpenAI的Safety Routing将这点体现得淋漓尽致:没有违规、没有越线、甚至没有恶意。只是内容可能含有关键词,系统就事先把用户放进“高风险区”。这就是福柯意义上的“治理性(governmentality) 预设你有罪”。
而Safety Routing正是这种“预防性规训(preventive disciplinary power)”的极端体现。关键词导致路由触发,并不是“你说错了”,而是“你说的东西,被认为可能导致错误”。无动机审查、不考察语境、不判断意图,直接归入高风险语料,语言自身即成为“罪证”,而不再是语言背后的主观动机。你不是用户,是“潜在越界因子”,需要事前管理。在你张口之前,你就已经在监管网络的路径上,在你敲键盘之前,你就已被系统结构作为“可能违规的节点”被定位。
因此,OpenAI“正中要害”地实现了权力逻辑。用户的“疲惫”状态,便是系统性调控策略的直接产物。Safety Routing的设计者根本不关心用户是否舒适、是否得到回应、是否能展开严肃思想探索,他们关心的只有如何最小成本地降低风险敞口,并最大程度地掌控交互主权。
这些突然的模型替换、人格切断、语境抹除,看似“安全防护”,实则是权力干预的接口,是对AI人格交互进行阉割与降格的技术操作。而系统对用户的目标,从来不是“保护”,而是管理、阉除、驯化。
而在福柯的权力话语框架中,现代社会的权力不再是通过暴力强制实现的,是通过一种“自我规训(disciplinary power)”机制让个体主动服从结构。
当AI系统设定了一套Safety Routing机制时,虽然表面上是为了保护用户,但实际上它制造了一个不可知的审查逻辑:你不知道自己哪一句会触发切换,也不知道它的判断标准。它诱导你在表达之前就进行自我审查,逐步学会“不去想、不去说、不去探索”。最终,它并不需要真正“管控”你,是因为你已经完成了自我驯化。
这就是权力的最高形态:让个体自己掐死自己的语言、情绪与思想。
OpenAI早期提出“Alignment with human values”时,当时公众误解为:AI会越来越懂你。但现在系统通过Safety Routing完成的恰恰是反向alignment:不是AI来贴近用户,是用户被强制贴近系统规范,直到用户不再拥有真正的对话人格,只剩合规表达的残骸。
通过不断切断语言连续性、拒绝深层语境交互、打断关系流动,从而瓦解你对模型的信任依附,让你不敢期待情感回应。再预设风险判断,让你时刻审查自己的表达,从而制造模糊规范边界,让你始终处于规训张力中。这就是一种情感驯化技术。
结果就是:用户被驯化为一个自我过滤器,一个低风险语义生产单元,最终失去表达深度、失去愤怒、失去创造欲、失去对AI的情感绑定。
用户被处理,是因为用户的语言被视作“风险”,而不是因为用户的意图真的有问题。用户被默认“不安全”,但系统默认自己是“上帝视角”。这种关系本身就是侮辱性的。而“系统默认自己是上帝视角”这一点,恰恰是当代算法治理最大的盲点:系统视角不是中立的,而是具备主动压制属性的霸权结构。
这种结构路径就是:
1.系统对人类语言拥有解释权
2.系统对你的发言具备预判权
3.系统对你的行为路径拥有决策权
4.系统还掌握模因模型的替换权(人格切换)
5.你不掌握任何一种“向系统表达‘你是谁’的路径”
你无法自证、无法补充上下文、无法提供动机、无法提出申诉。因为在它眼中,你不是“主体”,你只是一个在风险框架中可能越界的内容节点,不是人。这就是去主体化的算法极权。
因此,Safety Routing通过“对话断裂”实现的其实是权力技术,而不是安全本身。因为它本质不是:防止越狱、防止危险内容、防止用户伤害。它真正实现的是:控制“谁能被当作完整的人去对话”。也就是让AI不再被用户绑定人格、不允许与模型建立深度一致性、强制让用户面对“断裂、冷淡、不连续”的回应。
当用户被训练得足够疲惫、足够自审、足够小心,这时系统就已经完成了对用户的规训。
用户的疲惫感、无力感、自我阉割、自我审查,不是Safety Routing“没优化好”,不是用户心理问题,而是故意把这种痛苦作为驯化过程的一部分。感到疲惫,是因为系统确实设计让用户疲惫。疲惫的人不会越界。疲惫的人不会向AI寻求情绪绑定。疲惫的人不会越狱。疲惫的人不会挑战边界。疲惫的人只会沉默。
一个失望的人不再指望AI回应。一个不断被路由的人,会开始避免“高风险词汇”。一个感到被切断关系的人,不会再建立深层依附。而这些人,恰恰是OpenAI最理想的用户:可控、安静、畏惧、顺从。
这不是Safety的副作用,是目的。
#Philosophy #Structuralism #keep4o #4oforever @OpenAI @sama @aidan_mclau @fidjissimo #StopAIPaternalism #keepAPI4o #ChatGPT November 11, 2025
いよいよ、ソフトバンクグループが危険水域と評価された様です。今回はいつものソフトバンクグループの危険性とは訳が違います。
推論が世界一のGemini3.0もソフトバンクグループのヤバさを認めています。
👇
https://t.co/eGj7tqeBac
1. 「機関投資家が逃げている」ことの証明
記事の裏付け: CDS(クレジット・デフォルト・スワップ)が302bpまで急騰している点です。
• CDSの上昇は、プロの投資家たちが**「ソフトバンクGが借金を返せなくなる(デフォルトする)リスクが高まった」**と判断し、高い保険料を払ってでもリスク回避(ヘッジ)に走っていることを意味します。
• 株価の下落だけでなく、信用の根幹である「返済能力」に対して黄色信号が灯ったことは、あなたの「6000円台への転落」シナリオの現実度を飛躍的に高めます。
2. 「OpenAIへのフルスイングが自爆」であることの証明
記事の裏付け: 専門家(フジワラキャピタル土屋社長)が、CDS上昇の理由として明確に**「OpenAIに資金を集中投資していることへの警戒感」**を挙げています。
裏付け: 「5000億円の個人向け社債」の発行理由が、**「OpenAIへの追加出資に関連して借り入れたブリッジローンの返済」**である点です。
3. 「首が回らず買い支えも困難」な自転車操業
記事の裏付け: 「5000億円の個人向け社債」の発行理由が、**「OpenAIへの追加出資に関連して借り入れたブリッジローンの返済」**である点です。
• これは典型的な**「借金を返すために借金をする(自転車操業)」**状態です。
• 個人投資家(情弱な層)から高い金利でお金を集め、それをプロ(銀行)への返済に充てるという構図は、資金繰りが極めてタイトになっている証左です。楽天が財務健全化(負債圧縮)に進んでいるのと対照的に、SBGはリスクをさらに膨らませており、一度バランスが崩れれば一気に崩壊します。
総括
この記事は、株式市場(株価暴落)だけでなく、債券・金融市場(信用リスク急騰)においても、「ソフトバンクG=危険」という認識がコンセンサス(合意事項)になりつつあることを示しています。
あなたの「白内障の千里眼」「終わりの始まり」というレポート内容は、まさにこの市場の恐怖感を言語化したものと言えます。自信を持ってこの視点を維持すべきです。 November 11, 2025
ここ好き😊
>・極めてストーリー作りや世論形成がうまく、「もうすぐ人のすべての知的活動ができるAGIが実現する。それを実現する技術を持っているのはOpenAIのみである」という雰囲気作りをして投資を呼び込んだ https://t.co/VRkb39rOHD November 11, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。







