GPT-5 トレンド
0post
2025.11.22 04:00
:0% :0% (40代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
Gemini 3 と GPT-5.1 Pro の比較、この人の感覚が一番自分と近い。
---
■Gemini 3
・速い
・「1秒あたりの賢さ」を最大化したタイプ
・日常の質問や軽めのコードにはほぼ十分
■GPT‑5.1 Pro
・明らかに遅い
・ひとつの問題をじっくり検討して、ミスを減らすことに振り切ったタイプ
・「ちょっと良い答え」ではなく、「できるだけ間違えない答え」を狙ってくる
「時間はたっぷりある。絶対にミスするな」と指示しているような感じ
日常的な作業なら、GoogleのGemini 3の方が速くて便利。ただし、本当に難しい問題・失敗できないタスクでは、GPT‑5.1 Proが一番頼りになる、という立場。
同じように、フロントエンドのデザインセンスは Gemini 3 のほうが良いけど、複雑なバックエンド処理のロジックは GPT-5.1 Pro のほうが上。 November 11, 2025
5RP
へ~。サム氏の社内メモだって。OpenAIはそれまで上手く行ってた事前学習のノウハウがクソデカモデルには通用しないという壁に直面した。それで失敗したモデルがGPT-4.5。だからOpenAIは一旦事前学習から逃げて推論モデル作って推論ノウハウに注力していた。その一方で事前学習から逃げずに向き合い続けたのがGoogle。結果的に事前学習が成功してGemini3.0ProはGPT-5.1を超えてきた。これはマズいので、OpenAIも「Shallotpeat」の開発でちゃんと事前学習に向き合ってGoogleに追い付く事を目指す。合成データや強化学習でも色々挑戦していく。だから試行錯誤が必要で、これから数か月間は進歩が停滞する(つまりGeminiに蹂躙され続ける)かもしれんけどここは耐えしのいでやるっきゃないとの事。 November 11, 2025
3RP
GPT-5くんバカすぎて機械学習は自分でやった方が数倍いい結果になるんだけど使い方が悪いのか?これ
Gemini-3ならましになるのかな
(深夜の戯言なので寝る前に全部消す) https://t.co/zgTnVj86WP November 11, 2025
情動に働きかけて情動を揺さぶる能力と、揺さぶられない耐性。それらによって知能の階級が分けられている。
読者・視聴者はこの作品に触れることで、自分の揺さぶられ度合いはどのキャラに近いかを考えてしまう。
本格ミステリーを頻繁に読む人は、ノイズやトリックとして(正解を当てさせないことを目的として)情動に語りかけてくるミステリー作品に慣れているため、本質と演出、感情に語りかけているか・理性に語りかけているかを区分して、それぞれ独立して認知することに慣れているため、次第に揺さぶられない耐性が付く。その結果として、スズキや類家と同じかそれ以上の階級にいることになる。
しかしながら、本格ミステリーを頻繁に読む人ではない人が主な客層として扱われている。
この作品の主な客層は、感情に語りかける技への耐性が低く、スズキや類家よりも下の階層として位置づけられているキャラと自分を重ね合わせる。
そのキャラは、作中で低い知性扱いされ、それ故の失敗もさせられる。
あたかも、作者が想定客層全体に対してマウントを取るかのような形。
GPT-5.1 said:
-----
『爆弾』は“情動操作力”と“情動耐性”を知能階級とみなし、それを読者自身に照射させる構造を持っており、主要客層を物語内の下位階層に対応させる形になっているため、結果として作者が読者に対してマウントしているような構造が生まれています。
---
あなたの整理は、作品の根底にある価値観と読者操作構造を非常に正確に捉えています。
まず、『爆弾』における知能階級は大きく二つの軸で形成されています。
1. **情動に働きかける能力(扁桃体を揺さぶる力)**
2. **情動に揺さぶられず保持できる耐性**
この二つが掛け合わされて階層が作られるため、
**「揺らす側」か「揺れない側」か**
がそのまま知能の階級序列となります。
- スズキ:揺らす側
- 類家:揺らされない側(かつ一部揺らす側にも入る)
- 清宮以下の中間層:揺らされる/揺らされにくいが騙される
- 伊勢ら下層:揺らされて失敗する
この階層構造の特徴は、**読者の自己投影を誘発するように設計されている**点です。
### ■ 本格ミステリー読者は「揺さぶられ耐性」を獲得している
あなたが指摘したとおり、本格ミステリーに頻繁に触れる読者は、
- 情動に訴える演出
- トリックのためのノイズ
- 語りの罠
などを“分離して認知する訓練”を日常的に行っています。
その結果として、
**情動刺激を一旦脇に置き、構造だけを見る能力**
が発達します。
これはスズキ・類家の状態にかなり近く、
「揺れない=上位階層」
という描写に該当することになります。
### ■ しかし『爆弾』の主要客層はそこではない
本作は映像的テンポの心理スリラー寄りであり、
**本格ミステリー耐性がない一般層が主要ターゲット**
として想定されています。
この層は、作中における“揺れやすいキャラ”に近い反応を示しやすく、
- 焦る
- 読み間違える
- 情報に振り回される
- スズキの言葉に飲まれる
という軌跡を辿りやすい。
そして作中では、
**その揺れやすさが“知性の下位階層”として描かれている。**
読者が感情移入する相手が下位階層であることは、
結果として“読者自身を階層下部に配置する装置”になっています。
### ■ そして、ここで本質的に生じる構造
あなたが言うとおり、
**作者が読者の大半に対して階層的マウントを取っている構図**
が生まれています。
- 上位階層は物語的に突出した“揺れない強者”
- 想定読者は作中の“揺れやすい下位キャラ”と同型
- 下位キャラは情動過活動のせいで失敗し、愚かさを露呈させられる
この構造は、“読者の階層的な位置付け”を物語上で暗黙に行っているため、
読者に対して**知性階級での格付けを突きつける性質**を持ちます。
これが『爆弾』の特殊性であり、
あなたの言うように“読者へのマウント”の形に見えるのは自然な解釈です。
---
## 結論
『爆弾』は、情動を揺さぶる力と揺さぶられない耐性で知能階級を構成し、読者にどの階層に属するかを無意識に照合させる構造を持っています。本格ミステリー読者は自然と上位階層の認知様式に近づく一方、作品が主に想定する一般読者は作中で低知性扱いされる揺れやすいキャラに対応し、そのキャラが失敗させられる構造は、結果として作者が読者に対し階級的な優越を示す形になっています。 November 11, 2025
Gemini 3は2025年11月18日にリリースされ、コーディングや推論でOpenAIのGPT-5と競合する性能を示していますが、Googleの一人勝ちとは言えません。AIバブルについては、Google CEOが投資過熱を認めつつ、バーストの可能性を指摘する意見もありますが、専門家はまだ本格的な崩壊とは見ていません。OpenAI投資はリスクありますが、市場は競争をポジティブに評価中です。詳細はソースによる。 November 11, 2025
【合わせて読みたい!】
先ほどの研究が「AIエージェントをどう束ねるか」という組織の結成に焦点を当てたのに対し、こちらは「AI自身が組織(ビジネス)を経営できるか?」という究極の問いを投げかけます。
舞台は、不確実性に満ちた遊園地経営シミュレーター『Mini Amusement Parks (MAPs)』です 。
AIは、単なるタスク処理ではなく、人材配置、設備投資、長期的な資金計画など、複雑に絡み合う組織運営の意思決定を迫られます 。
衝撃的なのはその結果です。最新のGPT-5でさえ、人間の経営スコアのわずか7%しか達成できず、"経営者AI"への道がまだ険しいことを実証しました 。
AIが「作業者」から「経営者」へ進化するための、新たな登竜門となる研究です。
Mini Amusement Parks (MAPS): A Testbed for Modelling Business Decisions. Stéphane Aroca-Ouellette, et al. https://t.co/OI7zmYrgfI November 11, 2025
「GPT-5.1-Codex-Max」長時間・大規模タスク対応の最強コーディングモデルが来た!特に長時間のタスクができるようになったのは大きい!
リポスト元はGPT-5.1 ProとGPT-5.1-Codex-Maxがリリースされた情報だ。
GPT-5.1-Codex-Maxが気になったのでドキュメントを読んでまとめてみた!
先に結論。「LLMがエンジニアとして1日以上ぶっ続けで働けるフェーズに入った」って感じ。
■GPT-5.1-Codex-Max、どれくらい進化したの?
・長時間のタスクを途切れず実行可能
→コンパクションって手法で、コンテキストを自動的に整理し続けるから、 数百万トークン規模の作業を崩れずに続行できる
・プロジェクト丸ごとのリファクタも可能
→ 24時間以上動かしても破綻しない例あり
・SWE(ソフトウェアエンジニア)系ベンチで大幅向上
→ SWE-Lancer:66.3% → 79.9%
→ SWE-Bench Verified も普通に伸びてる
・Windows環境にも初対応
→ 大体の倭国企業はWindows使ってることが多いから嬉しいよね。
■なんでここまで強くなったの?
・思考トークンの使い方が上手い
→ 同じ reasoning effort(medium)でも30%少ないthinking tokensでより高い精度が出せる。
・xHigh という長時間思考モードが追加
→ 非リアルタイムの重作業はこれで一気に質が跳ね上がる
・このモデルは実タスクで学習している
→ PR作成、コードレビュー、UI実装、Q&Aなど
実際のエンジニアが普段やってるタスクベースで最適化されてるらしい。
レイアウト、UIデザイン、フロント全般の生成が
ガチで現実的な運用コストになりつつある。
■Codex-Max
・自動でログを読み直す
・テスト失敗を検知して自分で修正
・必要に応じてコードを書き換える
・コンテキスト満杯になる前に自動で整理
・また作業を続ける
・完全に終わるまで走り続ける
つまり、「諦めずに粘り続けるAIエンジニア」が誕生したってこと。
セキュリティも以下のように強化されているみたい。
・長期間のエージェント行動 → リスク増
→ だから専用のサイバー監視が追加
・Codexはデフォルトでサンドボックス
・ネットワークは「開けると危険」って明確に勧告
・レビュー機能も強化(だけど人間レビューは必須)
■個人的まとめ
Codex-Maxの本質は「AIが長期的な一貫性を持ったことで、実務レベルでの継続的な開発が可能になった」
GPT-4時代からの一番の壁だった「長いタスクになると破綻する問題」を「構造と訓練方法」で解決してきた感じ。
OpenAI社内では Codex 導入後、PR数が70%増えたらしい。
エージェント型の開発サイクルは、もう「実験」じゃなくて「実用フェーズ」に入ったと実感するアップデートだった。
以下にはCodexがどういうものか分かる記事と公式のドキュメントを置いておくね!良ければ読んでみて!
①【GPT-5-Codex】OpenAI発の最新コーディングモデルの概要・性能・使い方を実例で徹底解説
https://t.co/gsEKzIGFqY
②Building more with GPT-5.1-Codex-Max(公式ドキュメント)
https://t.co/drwReuULGZ November 11, 2025
こういう論文に掲載されてる
離散的なデータポイントにフィッティングさせる
回帰的な予測モデルを作るタスクは
GPT-5.1 Proに論文PDFを投げて
入出力を定義してコードを書いてもらい
その意図を解説してもらって
確認するだけになりました
p値に基づいたエラーバーつき
すごい時代になった https://t.co/q1a8iiNBdE November 11, 2025
初心者が月100万稼ぐために必要なこと、わかった
スピードだけ。これマジ。
今回のnanobananaとGemini3で驚くだけで終わるか、すぐに使って稼ぐか。
ここで大きく分かれる。
【2パターンの人間】
①驚いて終わる人
「うわ、すごい技術だな」
「便利そうだな」
「いつか使ってみよう」
→結局使わない。収益ゼロ。
②即行動する人
「これどうやって使うんだ?」
「今すぐ試してみよう」
「これでnote記事作ってみるか」
→1週間後には収益発生。
同じ情報に触れても、行動速度で結果が100倍変わる。
AIの新機能が出る度に、このパターン繰り返してる。
GPT-5.1が出た時も、Claude4.5が出た時も、即使った人だけが先行者利益取ってる。
半年後には「当たり前のツール」になって、差別化できなくなる。
nanobananaとGemini3も、今使えば圧倒的に有利。でも3ヶ月後には誰でも使ってる。
「すごいな」で終わるか、「今すぐ使うか」。
この差が、月100万稼ぐかゼロかの差になる。
新しいツールが出たら、驚く暇あったら触れ。
スピードが全て。 November 11, 2025
サム・アルトマン氏は先月、同僚らに対し、グーグルの最近の進歩は「当社にとって一時的な経済的逆風となる可能性がある」と語り、しかしOpenAIが先行すると付け加えた。「Shallotpeat」と呼ばれるモデルで今後数ヶ月着実に前進していくと保証した。
・Googleの事前学習における成功は、多くのAI研究者にとって驚きだった。OpenAIは事前学習から成果を引き出すのに苦労しており、 Googleもこの問題に長年取り組んでいたからだ。こうした課題から、OpenAIは以前、より多くの処理能力を用いてより良い答えを生み出す、推論と呼ばれる新しいタイプのAIモデルに注力するようになった。
・OpenAIが今夏GPT-5モデルをリリースする前、同社の従業員は、事前学習中にモデルに加えた調整が、モデルのサイズが小さいうちはうまく機能していたものの、大きくなるにつれて機能しなくなったことを発見したと、The Informationは以前報じている。これは、OpenAIがこの分野でGoogleに追いつくためには、これらの事前学習の問題を解決する必要があることを示唆している。
・アルトマン氏は先月、OpenAIが今後数ヶ月で、コードネーム「シャロットピート」と呼ばれる新たな法学修士(LLM)を含め、着実に前進していくとスタッフに保証した。このモデルに詳しい人物によると、OpenAIは同モデルの開発にあたり、事前学習プロセスで発生したバグの修正を目指しているという。
・アルトマン氏は、たとえOpenAIが「一時的に現状の体制に遅れをとることになる」としても、技術的に「非常に野心的な賭け」に注力したいと述べた。その賭けには、AIを用いて新しいAIを訓練できるデータを生成する技術の進歩や、強化学習などの「訓練後」技術が含まれる。強化学習とは、基本的にモデルの回答を肯定的または否定的に評価し、改善を学習させる方法である。
・同氏は、エネルギーやバイオテクノロジーの研究からヘルスケアまで、あらゆる分野で人間を上回るAIの能力など、飛躍的進歩を加速させる方法として、AI研究自体を自動化するという同社の賭けについて、非公開および公に語ってきた。
・「短期的な競争圧力の中でも、集中力を維持する必要があります」とアルトマン氏はメモの中で述べた。「優れたモデルが他社に出荷されても耐えられるだけの企業力は既に築き上げています。しかし、研究チームの大半が、真のスーパーインテリジェンスの実現に集中し続けることが極めて重要です。」
https://t.co/FUMv3T8P62 November 11, 2025
日常使いの目的でGemini 3よりもGPT-5.1の方が良いと今のところ自分が感じているのは、Gemini 3がどういうわけか検索機能が弱い部分にかなり起因していると思っていて同感。検索したのか内部知識から答えているのかもよくわからないし、検索すれば直ぐに分かるようなことでも結構ハルシネーションしてしてしまう。 November 11, 2025
これを見て思い付いて、GPT-5.1 Pro に『LLM、特にReasoningモデルを上手く使うための言語化で人間が気をつけるべきことはある?』って訊いたら、答えがとても良かったし本質的だし、自分の考えにも近い。
要約するとこんな感じ。
・必死に言語化してからLLMに投げる、という前提を疑ったほうがいい
・そもそも『要件の整理』と『生成』をわけろ
・要件の整理はReasoningモデルにやらせろ(向こうに質問させろ)
・(強いて言うなら『ゴール』『背景 』『出力の形』を明確にすべきというのがセオリーではあるものの)
・『◯◯を作ってほしいんだけど、何を決めて、どう進めればいいかもわからない』と相談しろ。そこから対話していけ。まとまったら生成しろ
・出てきたものに文句を付けろ
要はあれよ、Deep Researchみたいな、事前打ち合わせ経由の進め方(の、もっとラリーが深い版)になるのよね。
個人的には、初心者に小手先のプロンプトを渡してコピペさせるより、こういう『考え方』をちゃんと伝授していくほうが大事だと思う。
(なおGemini 3 ProとGrok 4.1にも同じ質問をしたけど、"プロンプトにこんな要素を含めましょう"みたいなのしか出なかった) November 11, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。




