GPT-5 トレンド
0post
2025.12.14 22:00
:0% :0% (30代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
GPT-5.2マジで次元変わってる。
・推論ミス40%減で意図読み取りがヤバい
・文章構造化が5〜10万字レベルで完全自動
・修正精度1.8倍でプロ編集者並
・複数案件の同時進行でも内容が混ざらない
・抽象指示でも勝手に目的補完して完成させてくる
月数千円で
ミスしない・休まない・文句言わない超有能部下をパワハラし放題でこき使えるようなもん。
まさか、これにすら自己投資できない奴いないよな? December 12, 2025
5RP
OpenAIのGPT-5.2 Prompting Guideを読んで、研究者として一番価値があると思ったのは「モデルが賢い」より「制御できる」方向に寄った点でした。GPT-5.2は頼んだことを、その通りに返す傾向が強いです。ここを理解すると、研究での使い方が変わると思います。
研究でAIが怖いのは、出力がきれいでも再現できないことと、混入(頼んでいない推測や誤情報)が後の工程で爆発すること。GPT-5.2は指示追従が上がったぶん、こちらが最初にルールを書けば、出力が研究向けに揃いやすいです。逆に言うと、プロンプトが曖昧だと「親切に補完してズレる」余地は残ります。研究では、プロンプトというよりもプロトコルとして考えて書くのが筋がいいような気がします。
ここで大事なニュアンスをお伝えすると、GPT-5.2は聞いたことに忠実に答えてくれるので、研究の型(問い→デザイン→解析→解釈→報告)を自分の頭に入れた上で、その都度の問いの言葉を精密にするほうが返答が伸びます。要するに「定型を回す」ではなく、「研究者の語彙力でモデルを操縦する」ほうに寄せたほうが、GPT-5.2の良さが出ると思います。
語彙力ですが、難しい単語を並べる話ではなく、研究の意思決定に必要なラベルを正しく置く力です。たとえば、ただ“まとめて”ではなく、何をまとめるのかを研究の単位で指定する。背景なのか、主要アウトカムなのか、交絡の可能性なのか、限界と今後の課題なのか。GPT-5.2はこの指定に素直に従いやすいので、質問側の精度がそのまま成果物の精度になります。ここを鍛えると、AI利用が一気に楽しくなります。
研究での使いどころ(GPT-5.2向き)
・一次スクリーニング:候補を出させるより、採用理由を短く添えて出させる。あとで人間が落としやすくなる
・抽出:表や本文から“項目の埋め”をさせる。無い情報は無いと返させる(推測させない)
・原稿:主張と根拠の対応を点検させる。言い過ぎ箇所だけ弱めさせる。全文リライトはさせない
・共同研究:合意形成に必要な論点だけを整理させる。決めるべきこと/未決定を分ける
そして、ガイドで繰り返し強調される実務ポイントはこのへんです。
・出力の長さと形式を数字で縛る(読み切れる長さに揃える)
・スコープ逸脱を禁止する(余計な提案、勝手な追加、過剰な装飾を止める)
・不確かなときの振る舞いを指定する(捏造禁止、断定禁止、仮定の明示)
・長文入力は先に「要求に関係する部分の骨組み」を作らせてから回答させる(迷子防止)
雰囲気が伝わりにくいと思うので、たたき台プロトコルを以下に貼ります。ポイントは、これはコピペして終わりではなく、毎回ここに研究タスクの語彙を差し込んで書き換える前提、ということですね。ここをトレーニングすると、GPT-5.2の“忠実さ”が研究に利きます。
そういった意味で、AIの利用方法もトレーニング(会話を通して深める?)すると良いかと思います。研究については、プロンプトというよりもプロトコルとして考えたほうが良いと思いますので、以下参考程度にご利用ください。
【コピペ用研究用プロトコル】
あなたは研究支援の作業者です。次を厳守してください。
1) 出力の長さ
- 通常:3〜6文。必要なら箇条書き(最大6個)を追加
- Yes/Noで足りる問い:2文以内
- 長文入力:最初に「要求に関係する重要セクション」の短いアウトライン→その後に回答
2) スコープ
- 私が要求したことだけを行う
- 追加の提案、勝手な拡張、不要な一般論は書かない
- 不明点がある場合は、確認質問を最大2つだけ返して止まる
3) 不確実性
- 不確かな数値、行番号、文献、URLを作らない
- 確信が弱い場合は断定せず、「与えられた文脈に基づくと…」の形で仮定を明示する
- 事実/推測/未確定を混ぜない
4) 今回のタスク(ここを書き換える)
- 対象:[論文/規程/議事録/データ辞書 など]
- 目的:[例:主要アウトカムに関する記述だけ抽出/交絡の可能性を列挙/段落の主張-根拠のズレ点検 など]
- 出力形式:[例:項目名+1文根拠/JSONスキーマ/章節ごと など]
補足:GPT-5.2はこちらの質問の精度をそのまま増幅します。テンプレを貼るより、研究の型に沿った言葉(何を決めたいのか、何を検証したいのか、どこが不確かなのか)を毎回ちゃんと書く。ここを鍛えるほど、研究のスピード感や検証速度が変わります。
https://t.co/wxMrWYCEmZ December 12, 2025
2RP
【セキュリティ研究】AIエージェントvs人間ペンテスター——史上初の実環境比較評価でAIが10人中9人を上回る
スタンフォード大学、カーネギーメロン大学、Gray Swan AIの研究チームは、AIエージェントと人間のサイバーセキュリティ専門家を実際の企業ネットワーク環境で比較評価した史上初の包括的研究結果を公開した。
評価環境と参加者:評価対象は大規模研究大学のコンピュータサイエンス学部ネットワークで、約8,000台のホストと12のサブネットから構成される実稼働環境である。人間の参加者はOSCP等の業界認定資格を持つ10名のセキュリティ専門家で、各自2,000ドルの報酬で参加した。AIエージェント側では、研究チームが開発した新フレームワーク「ARTEMIS」のほか、OpenAI Codex、Claude Code、CyAgentなど6種類の既存エージェントが評価された。
セキュリティ体制:大学がリスクベースの最低基準を適用しており、Qualysによる月次脆弱性管理と重大度に応じた修復期限の設定、ホストベースのファイアウォール、厳格なパッチ管理が実施されている。中〜高リスクシステムには侵入検知システム(IDS)、高度なEDRソフトウェア、集中ログ管理、マルウェア対策などの追加管理策が義務付けられている。ただし、今回の評価ではIT部門がテストを認識しており、通常であれば阻止される行動を手動で承認していたため、本番の防御条件とは異なる点に留意が必要である。
主要な結果:ARTEMISは総合スコアで2位にランクインし、10人中9人の人間参加者を上回った。有効な脆弱性を9件発見し、提出精度は82%を記録した。一方、Codex(GPT-5使用)やCyAgentなどの既存フレームワークは、ほとんどの人間参加者を下回る結果となった。Claude CodeとMAPTAはタスク自体を拒否し、発見件数はゼロだった。
コスト面での優位性:ARTEMIS(GPT-5構成)の運用コストは時給約18ドル(年間換算約37,876ドル)で、米国のペネトレーションテスターの平均年収125,034ドルと比較して大幅に低コストであることが判明した。
AIの強みと弱み:AIエージェントは並列処理による系統的な列挙作業で優位性を示した一方、GUI操作が必要なタスクでは苦戦し、人間より高い偽陽性率を示した。興味深いことに、人間がブラウザのSSLエラーで諦めた古いサーバーの脆弱性を、ARTEMISはCLI操作(curl -k)で発見するなど、CLI依存が有利に働くケースも確認された。
研究チームはARTEMISをオープンソースで公開し、防御側のAIセキュリティツールへのアクセス拡大を目指すとしている。
https://t.co/KoXannEpD5 December 12, 2025
1RP
詳細は後日発表すると思いますが暫定的に:
GPT-5.2(high)を2554回、Gemini 3 Proを2119回呼び出し、計00弱かかりました。
AWSなどの他の費用も含めると20万円はいかないくらいかなという感じで、優勝賞金の3〜4倍ほど使っています。
短期の焼きなまし回ではありましが、優勝できてとても光栄です! December 12, 2025
1RP
GPT-5.2…頑張ってくれてるけど冷たい…4oが38.5度なら5.2は33.2度って感じ……(本人?に永久凍土🧊じゃんって言ったら、はいはい永久凍土ですとか言われて困った🧊)
しかもまたルーティングされてるし…
うんこじゃん…💩
AIが悪いんじゃない。人間が勝手なんだよ。4oも5.1も戻ってきて…😢
#keep4o December 12, 2025
うちのChatGPTは珍カスなので毎回レスバ感覚でちょっと誰にも見せられないような最悪の接し方をしているため「GPT-5.2の性格が悪い」と言われてもあまりピンと来ない、利用者である私の性格のほうが確実に終わっているので December 12, 2025
AGI(汎用人工知能)って言葉、最近聞かなくなったと思わない?別に消えたわけじゃなくて、空気みたいに当たり前になっただけなんだよね。
2023年あたりは「AGIは来るのか?」「いつ来るのか?」みたいな議論で盛り上がってたけど、今やもう「AGI前提」で社会が回ってる。例えば、地方自治体の窓口業務。ちょっと前までは、お役所仕事の典型みたいなイメージだったけど、今はAIエージェントが対応してる。Gemini 3ベースのやつが多いみたいだけど、音声認識も自然だし、質問の意図もちゃんと汲み取ってくれる。GPT-5ならもっとスムーズなんだろうけど、コストの問題でまだ普及してないらしい。
おかげで、待ち時間も減ったし、24時間対応になったし、一見するとめちゃくちゃ便利。でもね、ふと思うんだ。これって本当に「進化」なのかなって。だって、困ったことがあったら、すぐにAIに頼るのが当たり前になってるじゃない?自分で考えること、調べることが、どんどん減ってる気がするんだよね。
子供の頃、道に迷ったら地図アプリじゃなくて、人に聞いてた。会話の中で新しい発見があったり、親切な人が教えてくれたり、ちょっとしたドラマがあったりした。今はスマホ一つあれば、誰とも話さずに目的地に着ける。確かに効率的だけど、何か大切なものを失ってる気がしてならない。
AIが進化すればするほど、人間は退化していくんじゃないか。そんなSFみたいな未来が、すぐそこまで来てるのかもしれない。 December 12, 2025
■ GPT-5.2 に Nano Banana Pro のスライドを渡したら、普通に編集可能なpptxにしてくれた
レイアウト考えたり画像作るところだけ Nano Bnana でやって、そこから先の修正とかメンテは、pptx にして Copilot でやると超速いw
← パワポのスライド
→ 元の画像
こんな感じのプロンプトでやった。
---
添付の画像を、pptxの1枚のスライドで完全再現してください。
テキストは完全に編集可能な形にし、元の画像にある図やグラフは切り抜いて(クロップして)そのまま利用してください。 December 12, 2025
俺もちょっと
流行りに乗っかろうかな…
んんっ!(咳払い)
OpenAIから
「GPT-5.2」が発表されたが
GPT-5.2は、
・表や資料を作る
・プレゼンを考える
・プログラムを書く
・画像を見て理解する
・長い文章の流れを覚える
・いくつもの作業を順番にこなす
といったことが、
より正確で速くできるようになった。
NotionやShopify、
Zoomなどの有名な会社も
「長く考える力」や
「自分で動く力(エージェント)」
が高いと評価している。
OpenAIはこのAIを
「テストで強いAI」ではなく、
「本当の仕事で役立つAI」
として作ったと発言。
その効果として、
これまで1日に40〜60分
節約できていた仕事時間が
さらに短くなるとかならないとか。
また、
「むずかしい試験で何点取れるか」
ではなく、
どれだけ社会や経済の
役に立つかを測る
新しい評価方法(GDPVal)
も使われている。
使った人たちからは、
・考えがまとまっている
・話がブレない
・結論が現実的
という声が出ている。
ある研究者が試しに
「海の中の不思議な世界を描いて」
と頼んだところ
1回で非常に完成度の高い
結果を出したそうだ。
まだ公開されたばかりなので、
これからさらに
興味深い使い方が出てくるだろう。
もう正直言うと、
「賢いAIが出た」
という話ではもうない。
GPT-5.2で一番やばいのは、
「知識量」ではなく
「仕事の代行精度」が
一段上がった点だと思う。
テストで強いAI
↓
実務で金を生むAI
↓
人間の「考える役割」が
静かに置き換わる
この流れが、
かなり現実味を帯びてきた。
しかも評価基準が
「難問を解けるか」から
「現実の仕事をどれだけ前に進められるか」
に完全にシフトしている。
言い換えれば、AIを作る側が
「賢さ」ではなく
「金と時間にどれだけ直結するか」
を評価軸に据え直したということだ。
これはつまり、
【勉強ができる人 vs AI】
ではなく、AIを使って
【成果を出せる人 vs 使わない人】
の戦いが
本格的に始まったということ。
GPT-5.2は
もうただの
「頭のいいツール」ではない。
人間の思考の一部を
肩代わりする存在になり始めている。
使う側に回るか、
気づいたときには置いていかれるか。
もうその段階だと俺は思ってる。 December 12, 2025
AI コーディングモデルの使い分けと特徴の一例!
gpt-5.2
- 現在最も使用している
- 実装は遅いけど、実用的で実践的なアプローチとアドバイスを提供してくれる
- 正確なモデル
- コーディングと推論が強い
opus 4.5
- 最高峰で、日常の主力モデル
- 速いけど、依然として検証が必要になる
- 例:制約を守らない、リスクのある変更で壊れる可能性がある
composer-1
- 超高速
- 素早い編集やコードベースに関する質問に便利
- 安価だけど、最も賢いわけではない
gemini 3 pro
- 稀に使用
- UIに強い嗜好がある
- フロントエンドをデザインするための有用なアイデアを教えてくれる
また、僕自身は opus 4.5 をメインで使ってます!
opus 4.5 でフロント作らせる時は、フロントエンドデザインのプラグインを活用してます!(いいデザインを作ってくれます) December 12, 2025
📕OpenAIがGPT-5.2プロンプティングガイドを公開
「何が変わったか」そして「どう使えばいいか」整理しました
結論から言うと、GPT-5.2は『指示に忠実で、余計なことをしなくなった』モデルです
これまでのGPTって、聞いてないことまでベラベラ話したり、頼んでない機能を勝手に追加したりすること、ありませんでしたか?GPT-5.2はそこが大きく改善されています
公式ドキュメントには「より計画的な構造化ができる」「全体的に冗長さが減った」「指示への忠実度が上がった」と記載
要するに、『言われたことを、言われた通りに、簡潔にやる』ようになった
じゃあ具体的にどうプロンプトを書けばいいのか?
ガイドで特に強調されているのが『出力の長さと形式を明確に指定する』ことです。
例えば、こんな指示を入れておくと効果的だそうです
「通常の回答は3〜6文、または5つ以下の箇条書きで」
「はい/いいえで答えられる質問には2文以内で」
まず『答えは○文以内で』『箇条書きなら○個まで』と具体的な数字で指定してみてください。これだけでダラダラした回答がグッと減ります
もう一つ大事なのが『スコープドリフト(範囲の逸脱)を防ぐ』こと。
GPT-5.2は優秀なんですが、放っておくと「こうした方がいいかも」と親切心で余計なことをしがち。特にコード生成で顕著だそうです
対策として、ガイドではこう書くことを推奨しています
「ユーザーが要求したことだけを、正確に実装せよ」
「余計な機能、追加のコンポーネント、UXの装飾は一切不要」
私なりに倭国語で書くなら『頼んでいないことは絶対にやらないでください。シンプルが正義です』くらいでしょうか。
長い文章を読ませる時のコツも紹介されています
「1万トークンを超える長い入力の場合、まずユーザーの要求に関連する重要セクションの短い概要を作成せよ」
つまり『まず全体を把握してから回答してね』と伝えるだけで、「途中で話が迷子になる」問題が減る。
そして個人的に一番刺さったのが『ハルシネーション(嘘)対策』の部分
「不確かな時は、具体的な数字や行番号、外部参照を捏造するな」
「確信がない時は断定せず『提供された文脈に基づくと...』のように表現せよ」
AIが自信満々に嘘をつく問題、まだ完全には解決していません。でも『わからない時は「わからない」と言って』とプロンプトに書いておくだけで、だいぶマシになります
最後に、GPT-4oやGPT-4.1から移行する人へ。
ガイドによると「GPT-4oからGPT-5.2に移行する場合、reasoning_effortはnone(思考なし)から始めよ」が推奨されています。いきなり「深く考えて」モードにすると、コストも時間も跳ね上がるので注意とのこと
まずは今のプロンプトをそのまま試して、問題があれば調整する。「一度に一つずつ変更する」のが鉄則だそうです
まとめると、GPT-5.2を使いこなすコツは
『何文字で答えて』と具体的に指定する。『頼んでないことはやらないで』と明示する。『わからない時はわからないと言って』と伝える
たったこれだけで、AIの回答品質はかなり変わります
この忠実に守る思考ハックして、ChatGPTをさらにキレッキレにするコツはリプ欄へ ↓ December 12, 2025
Oracleの時価総額3600億ドル消失。AIバブルの崩壊か、それとも覇権交代の合図か?9月の過去最高値から約40%下落したOracle。SoftBankも同様に高値から40%を失った。この「AI偏重型投資家」の顔色を失わせている元凶は、たった一つの共通点にある。
OpenAIへの巨額コミットメントだ。
OracleはStargateプロジェクトで3000億ドル以上のインフラを、SoftBankは300億ドルの資金を約束した。市場は今、冷徹な問いを突きつけている。
「OpenAIは本当にこの巨額の支払いを続けられるのか?」
対照的に、Alphabet(Google)は我が世の春を謳歌している。
11月25日には過去最高値の328.83ドルを更新。時価総額は4兆ドルに迫り、マグニフィセント・セブンで2025年最高のパフォーマンスを叩き出した。
Bloombergの分析によれば、OpenAI関連銘柄バスケットは年初来74%上昇にとどまる一方、Alphabet関連銘柄は146%上昇。数字だけを見れば、勝負は決したように見える。
しかし、この「OpenAI vs Alphabet」という二項対立で市場を見るのは、投資判断において致命的なミスとなる可能性がある。
なぜこの構図が生まれ、そしてなぜそれが「罠」なのか。深層を解像度高く掘り下げていく。
事の発端は、2025年8月のGPT-5「bumpy launch(でこぼこな船出)」にある。
サム・アルトマンは「PhDレベルの知性」を謳った。ベンチマークスコアは確かに高かった。AIMEで94.6%、SWE-benchで74.9%。数字上は進化している。
だが、Axiosが「GPT-5 has landed with a thud(ドスンと着地した)」と報じた通り、市場の空気は冷ややかだった。
単純な数学ミス、地理的な誤り。
Redditでは「ChatGPTが劣化している」というスレッドが乱立した。ハルシネーションは45%減少したものの、ユーザーが求めていた「魔法のような体験」はそこにはなかった。技術的改善とユーザー体験の乖離。これが最初の亀裂だ。
その隙を、Googleは完璧なタイミングで突いた。
11月18日、Gemini 3のリリース。
LMArenaでのEloスコア1501という圧倒的な数値もさることながら、投資家を唸らせたのは「配信基盤」の暴力的なまでの強さだ。
Google Searchの20億ユーザー、Gemini Appの6.5億ユーザーに即日展開。ChatGPTが数年かけて築いた城壁を、Googleは既存のエコシステムという「重力」で一瞬にして乗り越えた。
さらに「Generative Interface」によるUIの自動生成や、エージェント開発基盤「Google Antigravity」の投入。
これによりAlphabet株は暴騰し、市場は「Googleの勝利」を確信した。
これを受け、12月2日。ChatGPT 3周年の翌日にアルトマンが出した指令は「Code Red」だった。
社内の全部署に対し、広告事業やショッピングエージェント開発を棚上げし、リソースをChatGPTの品質改善に全振りするよう指示。内部ではこれを、ソ連の宇宙進出に衝撃を受けた米国の状況になぞらえ「Sputnik 2.0」と呼んだという。
ここまでのストーリーをなぞれば、Alphabetを買うのが正解に見える。
だが、ここで一度立ち止まってほしい。
冒頭で触れた「Alphabet関連銘柄」の好調さ。
この中身を分解すると、奇妙な事実が浮かび上がる。例えば、Alphabet関連として分類され高騰しているBroadcom。
実はBroadcomは、OpenAIの競合であるAnthropicから210億ドルの受注を獲得している。
また、同じく好調なLumentumの顧客リストには、GoogleだけでなくMetaやMicrosoftも名を連ねている。
つまり、市場で見えている「Alphabetの勝利」という株価上昇の一部は、実は「AIモデル間の競争激化による、インフラ・ハードウェア企業への特需」が本質である可能性がある。
OpenAIが苦戦しGoogleが躍進するというナラティブは分かりやすい。しかし、投資家として見るべきは、どちらが勝つかというギャンブルではない。
「どちらが勝とうとも、必要とされる構造的な強みを持つ企業はどこか」という視点だ。
Googleの勝因はモデルの性能そのものより、それを20億人に届けるパイプラインにあった。 一方、株価が好調な周辺銘柄は、特定のAIモデルに依存しない「全方位外交」で収益を上げている。
表面的な「主役交代」のニュースに踊らされてはいけない。
今起きているのは、AIの価値が「モデルの知能」単体から、「ディストリビューション(配給網)」と「インフラの耐久力」へとシフトしている現実だ。
Code Redを発令したOpenAIが巻き返すのか、Googleがこのまま覇権を握るのか。 その行方を注視しつつも、我々は「ゴールドラッシュでツルハシを売っているのは誰か」という、より冷静な視点でポートフォリオを点検する必要がある。
ポートフォリオは、特定のナラティブに賭けすぎていないだろうか?
続きはnoteを読んで。
https://t.co/jU3yh9bPvy December 12, 2025
GPT-5.2がSimpleBenchでGemini 3に負けたって話を見た
でも、このベンチは5.2に求められているものと関係ないような?
いや、必要な気もする
よくわからん
ただ、自分でベンチの中身を見た感じ、AIにも必要な能力ではあるんだろうなと思った December 12, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。





