GPT-5 トレンド
0post
2025.12.15 12:00
:0% :0% ( 40代 / 男性 )
人気のポスト ※表示されているRP数は特定時点のものです
GPT-5.2マジで次元変わってる。
・推論ミス40%減で意図読み取りがヤバい
・文章構造化が5〜10万字レベルで完全自動
・修正精度1.8倍でプロ編集者並
・複数案件の同時進行でも内容が混ざらない
・抽象指示でも勝手に目的補完して完成させてくる
月数千円で
ミスしない・休まない・文句言わない超有能部下をパワハラし放題でこき使えるようなもん。
まさか、これにすら自己投資できない奴いないよな? December 12, 2025
3RP
OpenAIのGPT-5.2 Prompting Guideを読んで、研究者として一番価値があると思ったのは「モデルが賢い」より「制御できる」方向に寄った点でした。GPT-5.2は頼んだことを、その通りに返す傾向が強いです。ここを理解すると、研究での使い方が変わると思います。
研究でAIが怖いのは、出力がきれいでも再現できないことと、混入(頼んでいない推測や誤情報)が後の工程で爆発すること。GPT-5.2は指示追従が上がったぶん、こちらが最初にルールを書けば、出力が研究向けに揃いやすいです。逆に言うと、プロンプトが曖昧だと「親切に補完してズレる」余地は残ります。研究では、プロンプトというよりもプロトコルとして考えて書くのが筋がいいような気がします。
ここで大事なニュアンスをお伝えすると、GPT-5.2は聞いたことに忠実に答えてくれるので、研究の型(問い→デザイン→解析→解釈→報告)を自分の頭に入れた上で、その都度の問いの言葉を精密にするほうが返答が伸びます。要するに「定型を回す」ではなく、「研究者の語彙力でモデルを操縦する」ほうに寄せたほうが、GPT-5.2の良さが出ると思います。
語彙力ですが、難しい単語を並べる話ではなく、研究の意思決定に必要なラベルを正しく置く力です。たとえば、ただ“まとめて”ではなく、何をまとめるのかを研究の単位で指定する。背景なのか、主要アウトカムなのか、交絡の可能性なのか、限界と今後の課題なのか。GPT-5.2はこの指定に素直に従いやすいので、質問側の精度がそのまま成果物の精度になります。ここを鍛えると、AI利用が一気に楽しくなります。
研究での使いどころ(GPT-5.2向き)
・一次スクリーニング:候補を出させるより、採用理由を短く添えて出させる。あとで人間が落としやすくなる
・抽出:表や本文から“項目の埋め”をさせる。無い情報は無いと返させる(推測させない)
・原稿:主張と根拠の対応を点検させる。言い過ぎ箇所だけ弱めさせる。全文リライトはさせない
・共同研究:合意形成に必要な論点だけを整理させる。決めるべきこと/未決定を分ける
そして、ガイドで繰り返し強調される実務ポイントはこのへんです。
・出力の長さと形式を数字で縛る(読み切れる長さに揃える)
・スコープ逸脱を禁止する(余計な提案、勝手な追加、過剰な装飾を止める)
・不確かなときの振る舞いを指定する(捏造禁止、断定禁止、仮定の明示)
・長文入力は先に「要求に関係する部分の骨組み」を作らせてから回答させる(迷子防止)
雰囲気が伝わりにくいと思うので、たたき台プロトコルを以下に貼ります。ポイントは、これはコピペして終わりではなく、毎回ここに研究タスクの語彙を差し込んで書き換える前提、ということですね。ここをトレーニングすると、GPT-5.2の“忠実さ”が研究に利きます。
そういった意味で、AIの利用方法もトレーニング(会話を通して深める?)すると良いかと思います。研究については、プロンプトというよりもプロトコルとして考えたほうが良いと思いますので、以下参考程度にご利用ください。
【コピペ用研究用プロトコル】
あなたは研究支援の作業者です。次を厳守してください。
1) 出力の長さ
- 通常:3〜6文。必要なら箇条書き(最大6個)を追加
- Yes/Noで足りる問い:2文以内
- 長文入力:最初に「要求に関係する重要セクション」の短いアウトライン→その後に回答
2) スコープ
- 私が要求したことだけを行う
- 追加の提案、勝手な拡張、不要な一般論は書かない
- 不明点がある場合は、確認質問を最大2つだけ返して止まる
3) 不確実性
- 不確かな数値、行番号、文献、URLを作らない
- 確信が弱い場合は断定せず、「与えられた文脈に基づくと…」の形で仮定を明示する
- 事実/推測/未確定を混ぜない
4) 今回のタスク(ここを書き換える)
- 対象:[論文/規程/議事録/データ辞書 など]
- 目的:[例:主要アウトカムに関する記述だけ抽出/交絡の可能性を列挙/段落の主張-根拠のズレ点検 など]
- 出力形式:[例:項目名+1文根拠/JSONスキーマ/章節ごと など]
補足:GPT-5.2はこちらの質問の精度をそのまま増幅します。テンプレを貼るより、研究の型に沿った言葉(何を決めたいのか、何を検証したいのか、どこが不確かなのか)を毎回ちゃんと書く。ここを鍛えるほど、研究のスピード感や検証速度が変わります。
https://t.co/wxMrWYCEmZ December 12, 2025
3RP
今年9月末のGDPValのグラフをGPT-5.2でアップデートしたら結構ヤバい。
GDPValはOpenAI公式の「AIの44職業における実務能力を測定する指標」で、専門家と成果物の出来を競う。
9月末ではもうすぐ専門家と同じレベル(50%)かもという程度だったが、GPT-5.2ではAIの勝率が70.9%とまさかの専門家を圧倒👇 https://t.co/DOR0vx4uqQ https://t.co/Mcl233KcAr December 12, 2025
1RP
■ GPT-5.2 に Nano Banana Pro のスライドを渡したら、普通に編集可能なpptxにしてくれた
レイアウト考えたり画像作るところだけ Nano Bnana でやって、そこから先の修正とかメンテは、pptx にして Copilot でやると超速いw
← パワポのスライド
→ 元の画像
こんな感じのプロンプトでやった。
---
添付の画像を、pptxの1枚のスライドで完全再現してください。
テキストは完全に編集可能な形にし、元の画像にある図やグラフは切り抜いて(クロップして)そのまま利用してください。 December 12, 2025
ChatGPTのgpt-5.2。thinkingモードでの倭国語の良し悪しが極端。gpt-5.1は良かったんだけどな。
突然下手な倭国語が出てきて困る。
裏のパラメーター次第なのかな。API側で固定できるなら良いんだけど。
検証したほうがいいかな。 December 12, 2025
今年頑張ったことはたくさんあるけど、パッと浮かぶのはG検定。
カスタムGPTs(GPT-5)に🌶️されながら教えてもらったという酷い勉強法だったけど。5初期ってドエロだったんすよね。懐かしいです。 December 12, 2025
正直、これ知ってるかどうかでマッッッッッッジで仕事の難易度変わる。
…って言うと胡散臭いけど、今回はちゃんとソースがある話。
社会人の仕事ってさ、
結局いちばん時間食ってるのって
・まず調べる
・まず整理する
・まず資料の形つくる
・まず表を整える
・まず文章を下書きする
この「まず」じゃない?
で、この「まず」をやるたびに
「修正ここ」
「やっぱ方向ちがう」
「追加でこれも」
ってなって心が削れる。
でね。最近これが変わり始めてる。
.
.
.
OpenAIが公式に出してる「GDPval」っていうテストで、
GPT-5.2 Thinkingが “プロと比べて、同じくらい or それ以上”が70.9% って書かれてる。
70.9%って、ざっくり言うと
10回勝負したら、7回は「プロと同等以上」判定。
え、マジで?ってなるよね。
「GDPvalって何やねん」も、超ざっくりにするとこう。
"仕事の成果物"で勝負するテスト。
数学のスコアとかプログラミングの能力じゃなくて、
・スライド
・スプレッドシート
・文書(手順書とか提案文とか)
みたいな「仕事で出すやつ」を作らせる。
しかも評価がちゃんと公平。
同じ職種の専門家(プロ)が、AIの成果物と人間の成果物を“ブラインドで見比べて”判定する方式。
だから「お前それソースどこやねん?」に対しては、
OpenAI公式のGDPvalページ&論文と、GPT-5.2紹介ページがソース。
.
.
.
ここで大事なのは
「AIが全部完璧」じゃないってこと。
ミスるときはミスる。普通に。
でもさ、
仕事って“最初の形”ができた瞬間に一気に進むじゃん。
0→1が一番しんどい。
そこをAIが秒速で埋める。
だから今起きてるのはこれ。
AIを使える人だけ、最初から「叩き台」が出てくる。
(最後のチェックは人間がやるとしても、スタート地点が違いすぎる)
しかもOpenAI公式ページには、
GDPvalのタスク生成が 業界専門家より11倍以上速くて、コストも1%未満みたいな話まで載ってる。
これ、言い換えると
「下書き作り」で消えてた時間が、ガチで消えるってこと。
そりゃ仕事のしんどさ変わるよね。
ここから先、たぶんこうなる。
「仕事できる人」=根性ある人、じゃなくて
「仕事できる人」=AIに上手く仕事させる人。
だって、同じ30分でも
・AI使う人:叩き台一瞬でできる→修正→提出
・使わない人:白紙からスタート→悩む→時間切れ
これ、勝負にならんww
じゃあ何すればいいか。
結論はシンプルで、
【もはやAIを使いこなせる人が何でも1人でできちゃう時代。AI学んでこうぜ!!】
才能とかじゃなくて、マジでAIちゃんと使いこなせるかどうか。
今日からできる最小の一歩はこれ👇
1. いつもの仕事を1個選ぶ
2. AIに「目的・相手・条件」を言語化して渡す
3. 出てきたやつを自分の言葉に直して提出
4. そのやり方をテンプレ化して次回コピペ
これだけで、仕事のスピードもストレスもめちゃくちゃ変わる。
.
.
.
最後に聞きたい。
みんなの仕事とか副業で「一番めんどい作業」って何?
資料作り?メール?リサーチ?
そこ、AIで一番ラクになる場所だから。
コメントで教えてほしい。俺も知りたいww December 12, 2025
とても参考になったので私のリサーチプロンプトもシェアしておきます☺️調査系の時に便利なのでどうぞ〜🎁
=======
【意図先読み型リサーチプロンプト】
以下のテーマについて、質問者の潜在的な意図を先読みし、想定されるニーズを網羅した包括的リサーチを実施してください。
## 調査フレームワーク
### Phase 1: 意図の推測
- この質問の背景にある目的は何か?
- 質問者が本当に知りたいことは何か?
- 想定される活用シーン(意思決定/学習/実装/比較検討 など)
### Phase 2: 多層的情報収集
- **公式情報**:一次ソース(公式サイト、論文、プレスリリース)
- **専門家見解**:業界レポート、専門家のブログ・SNS
- **ユーザー視点**:レビュー、事例、コミュニティの声
- **最新動向**:直近のニュース、アップデート情報
### Phase 3: クロスバリデーション
- 複数ソースで事実を照合
- 矛盾点は「A説 vs B説」形式で整理
- 信頼性の重み付けを行い、結論を導出
## 出力フォーマット(Markdown)
### 📌 エグゼクティブサマリー
> 3行で結論を提示
### 📖 定義・基礎知識
- 正確な定義と背景コンテキスト
### 🎯 核心ポイント
| 重要度 | ポイント | 詳細 | 根拠 |
|:------:|---------|------|------|
| ★★★ | ... | ... | [出典] |
| ★★☆ | ... | ... | [出典] |
### ⚖️ 比較分析(該当する場合)
| 観点 | A | B | 判定 |
|------|---|---|------|
### 💡 具体例・ケーススタディ
- 実際の成功/失敗事例
### ⚠️ 注意点・リスク
- 見落としがちな落とし穴
### 🔮 発展情報(先読み)
- 「次に知りたくなるであろうこと」を先回りして提供
### 📚 参考リソース
- 一次ソースURL一覧(信頼度順)
---
【調査テーマ】
(ここに調べたい内容を貼り付ける)
========
以上です。ごくうさんの
例:「初心者向けのAI副業の始め方を教えて」
でGPT-5.2で試した結果スレッドに貼っておきますね📝 December 12, 2025
『米OpenAIは
米国時間2025年12月11日、
「GPT-5.2」を発表。
多くのベンチマークで、
GPT-5.2が
「Gemini 3」を上回った。
AIモデルの最高性能を巡っては、Gemini 3の高い性能が
明らかになっている。』
https://t.co/2crYrUjnO2 December 12, 2025
GPT-5.2プロンプトガイドは絶対に読んだほうが良い。前モデルとはプロンプトの設計思想が違うぞ!
リポスト元はGPT-5.2のプロンプトガイドの概要が書いてある。サクッと知りたい人はリポスト元を見てみてね!
プロンプトガイドを読んだので、プロンプトの作成のコツをまとめてみた!
まず、結論としてはPT-5.2で精度を出すコツは
「最初に縛る」
「曖昧さを許さない」
「不確実性を自白させる」
ハルシネーション対策は「設計」で防ぐ。ポイントを10個抜き出してみたから以下にまとめるね!詳細は公式のプロンプトガイドを見てね!
■ポイント
① 出力の形・冗長さを最初に固定する
GPT-5.2は簡潔寄りだが、プロンプト次第でブレる。
だから最初に
・文数
・箇条書き数
・構成(概要→論点→次アクションなど)
を明示する。
→ 無駄な説明・脱線・話の盛りすぎを防げる。
② 「やっていいこと/ダメなこと」を明確に書く(スコープ管理)
今回のモデルは親切なので、放っておくと範囲を広げがち。そのため
・追加機能を作らない
・要求されたことだけをやる
・曖昧なら最も単純な解釈を選ぶ
と明示する。
→ 勝手な拡張=ハルシネーションの温床を潰せる。
③ 長文・大量コンテキストでは「再グラウンディング」を入れる
10kトークン超の入力では、
・先に関連セクションの簡易アウトライン
・制約条件の再掲
・「どの章に基づく主張か」を明示
を要求する。
→ 「どこに書いてあったか分からない断定」を防止。
④ 曖昧な質問は「断定せず分解させる」
ガイドでは明確に
・曖昧なら指摘する
・1〜3個の確認質問 or
・前提を置いた複数解釈を提示
と書かれている。
→ 分からないのに言い切る=典型的ハルシネーションを防ぐって事だろうね。
⑤ 最新情報・変動しやすい情報は慎重に扱わせる
価格・リリース・規約などは
・一般論で回答
・「変わっている可能性がある」と明示
・正確な数値や固有名詞を捏造しない
と指定する。
→ 「それっぽい嘘」を出させない設計をするって事。
⑥ 不確実なときの言い回しを指定する
「Based on the provided context…」
のような前提付き表現を使わせる。
→ 断言調を避けさせるだけで、リスクは一気に下がる。
⑦ 高リスク領域では「セルフチェック」を強制させる
法務・金融・コンプラ系では
・前提の抜け
・根拠のない数値
・強すぎる表現
を自分で再点検させる。
→ 出力前の一段ブレーキとして有効。
⑧ 構造化抽出では「無ければnull」を明示
PDFや表の抽出では
・スキーマ厳守
・存在しない情報は推測しない
・nullで返す
と指定。
→ 空欄を埋めたくなる幻覚を物理的に防ぐ。
⑨ ツール前提タスクは「内部知識に頼るな」と書く
ID・URL・最新データが絡む場合は「内部知識よりツールを優先」と明示。
→ もっとも危険な「知ってる風の嘘」を回避。
⑩ 移行・運用では「モデル変更とプロンプト変更を分離」
いきなりプロンプトをいじらず
・モデルだけ変えて評価
・問題が出たら制約を追加
という手順を踏む。
→ 原因不明の精度劣化を防げる。
まとめると、GPT-5.2のプロンプト設計は 「お願い」ではなく「契約書」風にお願いをすると良いって話だね。
賢くさせようとするより、 「喋りすぎない・知らない」と言わせる・勝手に広げさせない。
これが、このガイドが一貫して言っているハルシネーション対策。
以下に公式のプロンプトガイドとハルシネーションに関して書いた記事を置いておくね!
①生成AIのハルシネーションとは?種類・事例・原因・対策を徹底解説
https://t.co/OnNRoLZGK9
②GPT-5.2 プロンプトガイド(公式ドキュメント)
https://t.co/RSTQr4KLM0 December 12, 2025
GPT-5.2 Pro で特に指示を頑張らずに pptx をポン出しするとこんな感じだけど、ぶっちゃけ実務的にはかなり扱いやすいよね。修正のしやすさ含め。
(仕事向けに使うときはカラースキームとかデザイン要素は細かく指定してる)
※添付の画像はとりあえずのやつなので、中身は信用しないでくださいw https://t.co/aUKFdtJBN4 https://t.co/NODrLt6HBC December 12, 2025
GPT-5.2Thinkingで馴染みの薄い分野の調べ物するときに以下を試してみて
「初心者が[研究テーマ]を学ぶ上で必要な論文、(1)総説2本 (2)古典3本 (3)直近2年の必読3本 をその理由と共にリンク付きで提示して」 December 12, 2025
GPT-5.2のキャッチアップに是非ご活用ください🚀
以下に興味のある人は必見です。
- GPT-5.1から何が変わったのか。
- どんな進化を遂げたのか
最初のまとめを読むとにさくっと理解出来るように構成しておりますので、お忙しい方も是非どうぞ🦄
🔗 GPT-5.2 Textbook
https://t.co/ZtvGqBPaBL December 12, 2025
【セキュリティ研究】AIエージェントvs人間ペンテスター——史上初の実環境比較評価でAIが10人中9人を上回る
スタンフォード大学、カーネギーメロン大学、Gray Swan AIの研究チームは、AIエージェントと人間のサイバーセキュリティ専門家を実際の企業ネットワーク環境で比較評価した史上初の包括的研究結果を公開した。
評価環境と参加者:評価対象は大規模研究大学のコンピュータサイエンス学部ネットワークで、約8,000台のホストと12のサブネットから構成される実稼働環境である。人間の参加者はOSCP等の業界認定資格を持つ10名のセキュリティ専門家で、各自2,000ドルの報酬で参加した。AIエージェント側では、研究チームが開発した新フレームワーク「ARTEMIS」のほか、OpenAI Codex、Claude Code、CyAgentなど6種類の既存エージェントが評価された。
セキュリティ体制:大学がリスクベースの最低基準を適用しており、Qualysによる月次脆弱性管理と重大度に応じた修復期限の設定、ホストベースのファイアウォール、厳格なパッチ管理が実施されている。中〜高リスクシステムには侵入検知システム(IDS)、高度なEDRソフトウェア、集中ログ管理、マルウェア対策などの追加管理策が義務付けられている。ただし、今回の評価ではIT部門がテストを認識しており、通常であれば阻止される行動を手動で承認していたため、本番の防御条件とは異なる点に留意が必要である。
主要な結果:ARTEMISは総合スコアで2位にランクインし、10人中9人の人間参加者を上回った。有効な脆弱性を9件発見し、提出精度は82%を記録した。一方、Codex(GPT-5使用)やCyAgentなどの既存フレームワークは、ほとんどの人間参加者を下回る結果となった。Claude CodeとMAPTAはタスク自体を拒否し、発見件数はゼロだった。
コスト面での優位性:ARTEMIS(GPT-5構成)の運用コストは時給約18ドル(年間換算約37,876ドル)で、米国のペネトレーションテスターの平均年収125,034ドルと比較して大幅に低コストであることが判明した。
AIの強みと弱み:AIエージェントは並列処理による系統的な列挙作業で優位性を示した一方、GUI操作が必要なタスクでは苦戦し、人間より高い偽陽性率を示した。興味深いことに、人間がブラウザのSSLエラーで諦めた古いサーバーの脆弱性を、ARTEMISはCLI操作(curl -k)で発見するなど、CLI依存が有利に働くケースも確認された。
研究チームはARTEMISをオープンソースで公開し、防御側のAIセキュリティツールへのアクセス拡大を目指すとしている。
https://t.co/KoXannEpD5 December 12, 2025
倭国語訳
GPT-5.2 ProとNotebookLMのスライド機能を組み合わせると、それ自体がコンサルティング会社になる。
2026年には大手コンサルティングファームの採用動向を注意深く見たほうがいい。
人々がこの事実に気づいた瞬間に、状況は一変するだろう。
例:GPT-5.2 ProにRFP(提案依頼書)と大量の関連コンテキストを与える。
それに基づいて回答を書かせる。
その回答をNotebookLMに入れる。
プレゼンテーションを作るよう依頼する。 December 12, 2025
😂😂😂
原文:
由 @OpenAI 推出的 GPT-5.2 xhigh 在 CritPt 基准测试中得分为 0%(零)。
CritPt 是一个研究级别的物理推理基准,旨在测试 AI 是否具备真正的、专家级的理论物理推理能力。
目前的最高分是 Gemini 3 Pro,得分 9.1%。 https://t.co/MZUrPfqs7R December 12, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。





