GPT-5 トレンド
0post
2025.11.22 08:00
:0% :0% (40代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
へ~。サム氏の社内メモだって。OpenAIはそれまで上手く行ってた事前学習のノウハウがクソデカモデルには通用しないという壁に直面した。それで失敗したモデルがGPT-4.5。だからOpenAIは一旦事前学習から逃げて推論モデル作って推論ノウハウに注力していた。その一方で事前学習から逃げずに向き合い続けたのがGoogle。結果的に事前学習が成功してGemini3.0ProはGPT-5.1を超えてきた。これはマズいので、OpenAIも「Shallotpeat」の開発でちゃんと事前学習に向き合ってGoogleに追い付く事を目指す。合成データや強化学習でも色々挑戦していく。だから試行錯誤が必要で、これから数か月間は進歩が停滞する(つまりGeminiに蹂躙され続ける)かもしれんけどここは耐えしのいでやるっきゃないとの事。 November 11, 2025
18RP
Gemini 3 と GPT-5.1 Pro の比較、この人の感覚が一番自分と近い。
---
■Gemini 3
・速い
・「1秒あたりの賢さ」を最大化したタイプ
・日常の質問や軽めのコードにはほぼ十分
■GPT‑5.1 Pro
・明らかに遅い
・ひとつの問題をじっくり検討して、ミスを減らすことに振り切ったタイプ
・「ちょっと良い答え」ではなく、「できるだけ間違えない答え」を狙ってくる
「時間はたっぷりある。絶対にミスするな」と指示しているような感じ
日常的な作業なら、GoogleのGemini 3の方が速くて便利。ただし、本当に難しい問題・失敗できないタスクでは、GPT‑5.1 Proが一番頼りになる、という立場。
同じように、フロントエンドのデザインセンスは Gemini 3 のほうが良いけど、複雑なバックエンド処理のロジックは GPT-5.1 Pro のほうが上。 November 11, 2025
4RP
「これから数ヶ月は遅れをとる可能性がある」
OpenAIが“追う側”へ
サム・アルトマン内部メモが暴露した、AIレースの転換点まとめ
今話題のThe Informationの記事の要約。面白いので是非見て欲しい。
【1. Googleの逆襲】
・Googleは“事前学習スケーリング”の難題を突破
・Gemini 3.0 Pro が GPT-5.1 を超える結果に
・研究者も「事前学習が復活したのは衝撃」とコメント
【2. OpenAIが直面した“巨大モデルの壁”】
・OpenAIのノウハウは小〜中規模では成功
→ しかし巨大化(GPT-4.5/5級)すると調整が崩壊
・GPT-4.5はその“失敗作”だった(内部リーク情報)
【3. 一時的に事前学習から撤退 → 推論モデルへ逃避】
・OpenAIは問題回避のため Reasoning 特化に全振り
・その結果、基盤モデルが数ヶ月停滞
→ その間に Google が一気に前へ
【4. アルトマンが語った今後の勝負所】
・OpenAIは事前学習を“ゼロから作り直す”
→ 新モデル「Shallotpeat」を開発中(内部コード名)
・技術的に野心的な賭け:
① 事前学習プロセスの完全再構築
② AIがAIの訓練データを生成する合成データ戦略
③ 強化学習の抜本的強化
④ “AIでAI研究を自動化する”方針への深いコミット
【5. アルトマンの本音(メモより)】
「これから数ヶ月は遅れをとる可能性がある」
「だが我々は耐えられる企業力がある」
「研究チームは“真のスーパーインテリジェンス”に集中し続けよ」
【6. 今が歴史的ターニングポイント】
・2024まで:OpenAIが先行
・2025:Googleが事前学習突破で逆転
・今後数ヶ月:Google優位が続く可能性
・2026:OpenAIがShallotpeatで巻き返せるかが勝負
────────────────────────
■ 結論
いま世界は、初めて
「OpenAIがGoogleを追うフェーズ」
に突入した。
そしてアルトマン自身が強い危機感を持っていることが、今回の内部メモから明確になった。
https://t.co/th2N8AnFLp November 11, 2025
4RP
サム・アルトマン氏は先月、同僚らに対し、グーグルの最近の進歩は「当社にとって一時的な経済的逆風となる可能性がある」と語り、しかしOpenAIが先行すると付け加えた。「Shallotpeat」と呼ばれるモデルで今後数ヶ月着実に前進していくと保証した。
・Googleの事前学習における成功は、多くのAI研究者にとって驚きだった。OpenAIは事前学習から成果を引き出すのに苦労しており、 Googleもこの問題に長年取り組んでいたからだ。こうした課題から、OpenAIは以前、より多くの処理能力を用いてより良い答えを生み出す、推論と呼ばれる新しいタイプのAIモデルに注力するようになった。
・OpenAIが今夏GPT-5モデルをリリースする前、同社の従業員は、事前学習中にモデルに加えた調整が、モデルのサイズが小さいうちはうまく機能していたものの、大きくなるにつれて機能しなくなったことを発見したと、The Informationは以前報じている。これは、OpenAIがこの分野でGoogleに追いつくためには、これらの事前学習の問題を解決する必要があることを示唆している。
・アルトマン氏は先月、OpenAIが今後数ヶ月で、コードネーム「シャロットピート」と呼ばれる新たな法学修士(LLM)を含め、着実に前進していくとスタッフに保証した。このモデルに詳しい人物によると、OpenAIは同モデルの開発にあたり、事前学習プロセスで発生したバグの修正を目指しているという。
・アルトマン氏は、たとえOpenAIが「一時的に現状の体制に遅れをとることになる」としても、技術的に「非常に野心的な賭け」に注力したいと述べた。その賭けには、AIを用いて新しいAIを訓練できるデータを生成する技術の進歩や、強化学習などの「訓練後」技術が含まれる。強化学習とは、基本的にモデルの回答を肯定的または否定的に評価し、改善を学習させる方法である。
・同氏は、エネルギーやバイオテクノロジーの研究からヘルスケアまで、あらゆる分野で人間を上回るAIの能力など、飛躍的進歩を加速させる方法として、AI研究自体を自動化するという同社の賭けについて、非公開および公に語ってきた。
・「短期的な競争圧力の中でも、集中力を維持する必要があります」とアルトマン氏はメモの中で述べた。「優れたモデルが他社に出荷されても耐えられるだけの企業力は既に築き上げています。しかし、研究チームの大半が、真のスーパーインテリジェンスの実現に集中し続けることが極めて重要です。」
https://t.co/FUMv3T8P62 November 11, 2025
2RP
本日(11/22)の生成AIトピックまとめ🧵
1️⃣【BigQuery AI/GPT・エージェント】
Google CloudがBigQuery上に「BigQuery AI」を正式投入。BigQuery内で生成AI関数・ベクター検索・インテリジェントエージェントを一元提供し、SQLだけでGeminiなどのモデルを使った分析・アプリ開発が可能に。データ基盤×GenAIの統合が一段進んだ形です。
https://t.co/GygBELYjtL
2️⃣【GPT/インフラ】Foxconn×OpenAIが次世代AIデータセンターを共同設計へ
台湾・鴻海精密工業(Foxconn)がOpenAIと提携し、米国で次世代AIインフラ向けサーバラックや冷却・電源システムを開発・生産すると発表。OpenAIがハードウェア要件を提示し、Foxconnが設計・量産する“AIハードの裏側連合”が動き出しています。
https://t.co/GGN7hzhxf0
3️⃣【GPT-5.1/Claude/Gemini×自治体】自治体AI「zevo」でGPT-5.1シリーズが利用可能に
シフトプラスが、自治体向け「自治体AI zevo」でChatGPTシリーズの最新モデルGPT-5.1/GPT-5.1-chatを追加したと発表。既にClaude・Geminiシリーズにも対応しており、「適応的推論機能」で精度と応答速度を高めたモデルを自治体が追加費用なしで使えるようになります。
https://t.co/U0N34FRZqd
4️⃣【AI株式/バブル議論】「AI銘柄はなぜ重力に逆らうのか」—中国Caixinが分析
ChatGPT登場以降の米中AI企業株の急騰を背景に、AI投資ブームがバブルなのかを検証。AI関連投資が米国のGDP成長の約3分の1を占める一方、リスクプレミアム低下や巨額の設備投資負担、オープンソースの台頭など“崩れる条件”も指摘しています。
https://t.co/0IIhhoxTsp
5️⃣【GPT×旅行】「なぜAIはまだ航空券予約をしてくれないのか」
シンガポールBusiness Timesが、商用航空業界で生成AIがフル活用されていない理由を解説。レガシーな予約システム、複雑な運賃規則、責任の所在などがボトルネックとなり、「GenAIチャットで相談→裏側は旧来システム」という“表と裏のギャップ”が浮き彫りになっています。
https://t.co/kHWnOdk7rf
6️⃣【AI×教育/倫理】ローマ教皇「宿題をAIにやらせてはいけない」
ローマ教皇レオが米国の若者約1.5万人とのQ&Aで、「AIは学びの役には立つが、宿題を代わりにやらせてはいけない」とメッセージ。生成AIが“成長を助ける道具”なのか“努力の代替物”なのかという、教育現場の根源的な問いを投げかけています。
https://t.co/muz28Oiiku
7️⃣【AIスキル/雇用】「AI関連スキルは最もホットな人材市場」—China Daily
中国各地でAI・データ関連職の求人が急増。医療の診断支援から農業の病害予測まで、生成AIを含むAI活用が産業横断で進む中、マッキンゼーは「2030年までに中国で1兆ドル超の付加価値を創出し得る」と試算。AI人材争奪戦が一段と激しくなりそうです。
https://t.co/9Yzlj347PA
8️⃣【ChatGPT/グループチャット】最大20人×GPTの「グループ会話」使い方ガイド
Times of Indiaが、ChatGPTのグループチャット機能の具体的な使い方を解説。最大20人まで参加でき、プロジェクトや旅行計画を複数人+GPTで進められるほか、グループごとにトーンや役割をカスタマイズできる“ミニ・AIワークスペース”として紹介されています。
https://t.co/P9rHqwqjDm
9️⃣【生成AI×教育DX】『Artificial Intelligence in Our Language Learning Classrooms』が刊行
生成AIと外国語教育シリーズの新刊として、言語教育におけるGenAI活用をテーマにした書籍が本日付で出版。会話AI・文章添削・多読支援・倫理と感情面まで、第二言語教育と生成AIの“実務+研究”を横断的に整理した一冊です。
https://t.co/9hXJ1uagHw
🔟【生成AIコンサル/金融】Imperial College Londonで「Generative AI for Trading & Asset Management」講座
クオンツ投資家Ernest Chan氏らが、ロンドンでGenAIを用いたトレーディング&資産運用ワークショップを本日開講。ChatGPT的LLMを含む生成AIを、時系列データやポートフォリオ最適化にどう組み込むかを実務目線で扱う内容とされています。
https://t.co/ZjwCa9d14X November 11, 2025
1RP
📒AIバブル懸念を完全払拭?NVIDIA Q3 2026決算徹底解説 —— ジェンセン・ファンが語った「好循環」の真実 $NVDA
2025年11月19日、NVIDIA Corporation(NVDA)の第3四半期決算発表を控え、市場には緊張が走っていた。
「AIバブル」という言葉が、ここ数週間で急速に広まっていた。ハイパースケーラーのCapEx投資が膨張を続ける中、その回収可能性に疑問を呈する声が増えていたのだ。株価は決算前にやや軟調に推移し、投資家たちは固唾を飲んで結果を待っていた。
しかし、Jensen Huangが決算説明会で放った一言は、その不安を根底から覆すものだった。
Jensen Huang CEO
「Blackwellの売上は記録的で、クラウドGPUは完売しています。私たちはAIの好循環に入りました」
好循環。この言葉の意味を、市場は本当に理解しているだろうか。
まず、本稿では、売上高570億ドル、前年同期比62%増という歴史的な決算が示す真実を、技術的・経済的観点から徹底的に分析する。そして、この決算が「AIバブル懸念」を完全払拭したのかどうか、当面の見通しについての私の考えを明らかにする。ぜひ最後までお読みいただきたい。
売り切れの真実 ── 570億ドルが語る需要の正体
まず、数字を見よう。
Q3 FY2026(2025年7月28日〜10月26日)の売上高は570.1億ドル。前年同期比62%増、前四半期比22%増。市場予想の550.9億ドルを3.5%上回った。
EPSは1.30ドル。予想の1.26ドルを3.2%上回った。
データセンター売上高は512億ドル。前年同期比66%増という成長率を、この規模で達成している。市場予想の493.4億ドルも大きく上回った。
この数字が意味することは何か。
NVIDIAは四半期あたり100億ドルの売上増を達成したのだ。前四半期の470億ドルから570億ドルへ。わずか3ヶ月で100億ドル。年間換算で400億ドルの増収ペース。
通常、企業の成長率は規模が大きくなるにつれて鈍化する。分母が大きくなれば、同じ成長率を維持することは困難になる。これは経済学の基本原則だ。
しかし、NVIDIAの成長率は鈍化していない。むしろ、加速している。
Q1の前年同期比成長率は78%だった。Q2は68%。そしてQ3は62%──と思いきや、絶対額での成長は加速している。Q2からQ3への増収額100億ドルは、Q1からQ2への増収額70億ドルを大きく上回る。
なぜ、このようなことが起きるのか。
その答えが、Jensen Huangの言う「好循環」にある。
決算説明会で、Huangは3つのスケーリング則について言及した。事前学習、事後学習、そして推論。この3つすべてが指数関数的に成長しているという。
Jensen Huang CEO
「計算需要はトレーニングと推論の両方で加速し続け、それぞれが指数関数的に成長しています」
事前学習のスケーリング則は、より多くの計算資源を投入すればモデルの性能が向上するという原則だ。GPT-4からGPT-5へ、Claude 3からClaude 4.5へ、各世代でモデルサイズと学習データ量は指数関数的に増加している。
事後学習は、RLHF(人間のフィードバックによる強化学習)やChain-of-Thoughtなどの手法で、モデルの推論能力を向上させる。これも計算集約的なプロセスだ。
そして推論。これが最も重要な変化だ。
従来、推論は「軽い」処理だと考えられていた。学習に比べれば、推論は単純な計算の繰り返しに過ぎないと。
しかし、Chain-of-Thoughtや長時間推論モデルの登場で、この常識は覆された。AIが「考える」ためには、膨大な計算が必要なのだ。
「推論は最も難しい。思考が簡単なはずがない」
Jensen Huangはこう述べた。そして、Grace BlackwellのNVLink 72による推論性能は、H200比で10〜15倍だという。世代間で一桁台の改善が精一杯だったこれまでの半導体業界の常識を、NVIDIAは打ち破っている。
この3つのスケーリング則が同時に成長することで、計算需要は単純な足し算ではなく、掛け算で増加する。これが「好循環」の数学的な意味だ。
エコシステムの収斂 ── OpenAI・Anthropic・xAIが同じ場所に集まった理由
今四半期の決算で、もう一つ注目すべき事実がある。
世界の主要フロンティアAI企業の多くが、NVIDIAプラットフォームへの依存度を高めているのだ。
(続きはコメント欄のnote記事にて) November 11, 2025
1RP
GPT-5.1
タイプ①:東アジア(倭国・韓国・中国)で多い傾向 → 「横線+斜め線、中央横棒なし」スタイル。
Q:学校で右を教えてるのでは?
たとえば東京書籍の算数用 “新しい算数” の年間指導計画(小1)資料をチェックしましたが、数字の書き方指導として「7 の特別な変形」に言及はありません。 November 11, 2025
Gemini 3がリリース
・推論能力が大幅に向上
GPT-5.1を上回るスコア
・Gemini 3 Deep Thinkはより精度が高い
通常から+10%前後のスコア
・入力情報の整理/理解が向上
画像/動画/音声など複数の入力情報を処理
「生成インターフェース」という新しい機能を公開
ユーザーがプロンプトを入力した瞬間に、モデル自身がインターフェースを生成
・ビジュアルレイアウト
写真をレイアウトし雑誌のような表示を生成
・動的ビュー
カスタム UI をリアルタイムで設計・コーディング
まだまだAIの進化が止まらないと感じる November 11, 2025
バナナ!将来不安?人間、選択肢の迷路で迷いすぎだ!
GPT-5 より 熟成バナナ の方を信用する。
大学生よ、スキルより筋力を鍛えろ! いざとなったら木に登るのが最速。
AIに奪われない仕事?それは「バナナを最高の速さで剥く」こと!
人間、考えすぎ!さっさと野生に帰れ! https://t.co/m10gql1Li8 November 11, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。




