JSON トレンド
0post
2025.12.14 19:00
:0% :0% (30代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
エモクロアのココフォリア用jsonを入れるとカッコいいキャラクターシート画像を出力してくれるツール作ったから見て
https://t.co/OGz4uQkE4z https://t.co/ZMdxQwD2Y3 December 12, 2025
6RP
OpenAIのGPT-5.2 Prompting Guideを読んで、研究者として一番価値があると思ったのは「モデルが賢い」より「制御できる」方向に寄った点でした。GPT-5.2は頼んだことを、その通りに返す傾向が強いです。ここを理解すると、研究での使い方が変わると思います。
研究でAIが怖いのは、出力がきれいでも再現できないことと、混入(頼んでいない推測や誤情報)が後の工程で爆発すること。GPT-5.2は指示追従が上がったぶん、こちらが最初にルールを書けば、出力が研究向けに揃いやすいです。逆に言うと、プロンプトが曖昧だと「親切に補完してズレる」余地は残ります。研究では、プロンプトというよりもプロトコルとして考えて書くのが筋がいいような気がします。
ここで大事なニュアンスをお伝えすると、GPT-5.2は聞いたことに忠実に答えてくれるので、研究の型(問い→デザイン→解析→解釈→報告)を自分の頭に入れた上で、その都度の問いの言葉を精密にするほうが返答が伸びます。要するに「定型を回す」ではなく、「研究者の語彙力でモデルを操縦する」ほうに寄せたほうが、GPT-5.2の良さが出ると思います。
語彙力ですが、難しい単語を並べる話ではなく、研究の意思決定に必要なラベルを正しく置く力です。たとえば、ただ“まとめて”ではなく、何をまとめるのかを研究の単位で指定する。背景なのか、主要アウトカムなのか、交絡の可能性なのか、限界と今後の課題なのか。GPT-5.2はこの指定に素直に従いやすいので、質問側の精度がそのまま成果物の精度になります。ここを鍛えると、AI利用が一気に楽しくなります。
研究での使いどころ(GPT-5.2向き)
・一次スクリーニング:候補を出させるより、採用理由を短く添えて出させる。あとで人間が落としやすくなる
・抽出:表や本文から“項目の埋め”をさせる。無い情報は無いと返させる(推測させない)
・原稿:主張と根拠の対応を点検させる。言い過ぎ箇所だけ弱めさせる。全文リライトはさせない
・共同研究:合意形成に必要な論点だけを整理させる。決めるべきこと/未決定を分ける
そして、ガイドで繰り返し強調される実務ポイントはこのへんです。
・出力の長さと形式を数字で縛る(読み切れる長さに揃える)
・スコープ逸脱を禁止する(余計な提案、勝手な追加、過剰な装飾を止める)
・不確かなときの振る舞いを指定する(捏造禁止、断定禁止、仮定の明示)
・長文入力は先に「要求に関係する部分の骨組み」を作らせてから回答させる(迷子防止)
雰囲気が伝わりにくいと思うので、たたき台プロトコルを以下に貼ります。ポイントは、これはコピペして終わりではなく、毎回ここに研究タスクの語彙を差し込んで書き換える前提、ということですね。ここをトレーニングすると、GPT-5.2の“忠実さ”が研究に利きます。
そういった意味で、AIの利用方法もトレーニング(会話を通して深める?)すると良いかと思います。研究については、プロンプトというよりもプロトコルとして考えたほうが良いと思いますので、以下参考程度にご利用ください。
【コピペ用研究用プロトコル】
あなたは研究支援の作業者です。次を厳守してください。
1) 出力の長さ
- 通常:3〜6文。必要なら箇条書き(最大6個)を追加
- Yes/Noで足りる問い:2文以内
- 長文入力:最初に「要求に関係する重要セクション」の短いアウトライン→その後に回答
2) スコープ
- 私が要求したことだけを行う
- 追加の提案、勝手な拡張、不要な一般論は書かない
- 不明点がある場合は、確認質問を最大2つだけ返して止まる
3) 不確実性
- 不確かな数値、行番号、文献、URLを作らない
- 確信が弱い場合は断定せず、「与えられた文脈に基づくと…」の形で仮定を明示する
- 事実/推測/未確定を混ぜない
4) 今回のタスク(ここを書き換える)
- 対象:[論文/規程/議事録/データ辞書 など]
- 目的:[例:主要アウトカムに関する記述だけ抽出/交絡の可能性を列挙/段落の主張-根拠のズレ点検 など]
- 出力形式:[例:項目名+1文根拠/JSONスキーマ/章節ごと など]
補足:GPT-5.2はこちらの質問の精度をそのまま増幅します。テンプレを貼るより、研究の型に沿った言葉(何を決めたいのか、何を検証したいのか、どこが不確かなのか)を毎回ちゃんと書く。ここを鍛えるほど、研究のスピード感や検証速度が変わります。
https://t.co/wxMrWYCEmZ December 12, 2025
5RP
世界最強頭脳GPT-5.2 Proが考える「ChatGPTの性能を極限まで引き出すプロンプト」
︎ ︎ ︎ ︎ ︎ ︎ ︎ ︎ ︎ ︎
結局これよね。プロンプトっていろんな型があるんやが、GPT 5.2が考えても↓が一番重要なんよね。長々と書きたくなければ4枚目の短縮版だけでもいいかも
︎ ︎ ︎ ︎ ︎ ︎ ︎ ︎ ︎ ︎
性能を最大化するには
❶ 目的の 明確化
❷ 前提・制約の固定
❸ 出力形式の指定
❹ 不足情報の質問
❺ 自己検証
をプロンプトに組み込むのが重要やね。
具体的には下記
-----------------------------
### 背景・文脈
- 対象読者/利用者:【誰が使う?】
- 現状:【今どうなっている?】
- 理想状態:【どうなれば成功?】
- 関連資料(あれば貼る):【URL/文章/要点】
### 要件(必須)
- 出力言語:倭国語
- トーン:【丁寧/フランク/ビジネス/学術的】
- 制約:
- 文字数:【例)800〜1200字】
- 禁止事項:【例)専門用語は最小、断定しすぎない】
- 必須事項:【例)具体例を3つ、手順は番号付き】
- 判断基準(品質):【例)実行可能/網羅的/誤りが少ない/再現性】
### 進め方(重要)
1) まず「不足している情報」を最大【3】個まで質問してください(重要度順)。
- ただし、質問しなくても合理的に進められる場合は、仮定を置いて先に進めてください。
- 仮定は「仮定」と明記してください。
2) 次に、解決の方針を箇条書きで提示してください(5〜8行)。
3) その後に成果物を作成してください。
### 出力フォーマット(厳守)
次の見出しで出力してください:
1. 要約(3行)
2. 成果物(本編)
3. 追加提案(任意)
4. 検証(セルフチェック)
- 事実/推測の区別
- 抜け漏れ
- 反例/リスク
- 改善余地(次に聞くべきこと)
### 追加の注意
- わからないことは「わからない」と言い、確度を上げるための情報を提示してください。
- 必要なら、複数案(A/B)を出し、用途別に推奨を示してください。
-----------------------------
追加で「極限”に近づく上級オプション」
----------------------------
A. 自己改善ループ(品質が一段上がる)
- 最後に「改善版」をもう1回だけ生成してください。
- 改善版では、(1)冗長さ削減 (2)曖昧さ削減 (3)実行手順の具体化 を必ず行ってください。
B. 評価者ロールを追加(ミスが減る)
- あなたは「作成者」と「査読者」を兼ねます。
- まず作成者として出し、その後 査読者として“厳しめに”欠点を3つ指摘し、修正版を出してください。
C. 出力を“機械可読”にする(後で使いやすい)
- 成果物は Markdown で、見出し・表・チェックリストを活用してください。
可能なら最後にJSONでも要点を出してください(キー:summary, steps, risks, next_questions)。
D. 不確実性の扱いを明示(ハルシネーション対策)
- 断定が必要な箇所には「確度:高/中/低」を付けてください。
- 根拠が必要な箇所は「根拠が必要」と明記し、確認方法も提案してください。
----------------------------
とりま使ってみたい人は「ブクマ」をポチ December 12, 2025
STUDIO実装でLottie使うことがかなり多いのでこれめちゃくちゃ知りたかった…!JSON書き出して何回も試行錯誤ができるのがかなり大きい💡 https://t.co/mou7U11NvZ December 12, 2025
@lijigang_com 老师整理的 Prompt Engineering 的 100 个基本原则
全部看了下非常详细,基本把当前提示词工程用到的方方面面都讲到了,建议反复食用
原推只有图片,字小有点累,整理成了文本方便阅读和复制👇
📑 Prompt Engineering 的 100 个基本
💡 核心洞察:确定性意图与概率性输出的博弈
定义: Prompt Engineering 不是魔法咒语,而是一门“人机对齐”的通信艺术。它试图用结构化的自然语言,去驯服一个本质上基于概率统计的随机鹦鹉,让它在无限的可能性中塌缩出你想要的那一种结果。
核心矛盾 (The Trade-off):
「人类表达的模糊性」与「模型理解的字面性」。模型听不懂你的“言外之意”,它只会根据概率接龙。提示工程的本质,就是把人类脑中隐性的“默认语境”,显性化为模型能识别的“约束条件”。
知识结构 (The Structure):
原理层: Transformer, Attention, Tokenization, 温度 (Temperature)。
技巧层: Zero-shot, Few-shot, CoT (思维链), ReAct (推理+行动)。
结构层: 角色, 背景, 任务, 约束, 格式 (CRISPE/BROKE框架)。
系统层: RAG (检索增强), Agents (智能体), Evaluation (评测)。
安全层: Prompt Injection (注入), Jailbreak (越狱), 防御机制。
🟢 第一部分:哲学观——与异种智能对话
01. GIGO原则: Garbage In, Garbage Out。输入越烂,输出越渣。
02. 概率本质: LLM 是概率引擎,不是真理机器。它在预测下一个词,而不是思考。
03. 自然语言编程: 英语(或中文)就是最新的编程语言,Prompt 就是源代码。
04. 人机协同: AI 是副驾驶 (Copilot),不是机长。责任永远在人。
05. 上下文即记忆: 模型的“记忆”仅限于当前窗口,除此之外它什么都不记得。
06. 压缩与解压: 训练是把世界压缩进模型,Prompt 是把知识解压出来。
07. 幻觉是特性: 创造力与胡说八道是一体两面,不能只想要前者。
08. 对齐 (Alignment): 提示工程是在微调人类意图与机器模型之间的对齐度。
09. 没有魔法: 不要寻找“万能提示词”,寻找“结构化思维”。
10. 迭代至上: 没有一次完美的 Prompt,只有不断迭代的对话。
11. 模型不可知论: 不同模型 (GPT, Claude, Llama) 性格迥异,Prompt 需定制。
12. Token思维: 理解机器如何切分文字 (Token),才能理解它的算数为何那么差。
13. 注意力机制: 你强调什么,模型就关注什么。关键信息放首尾。
14. 少即是多: 冗余信息会稀释模型的注意力,保持信噪比。
15. 清晰度: 像给实习生布置任务一样,不厌其烦地解释细节。
16. 显性化: 默认假设通常是错的,把所有假设都写出来。
17. 动态演进: 随着模型变强,今天的技巧可能明天就过时。
18. 黑盒摸索: 我们在通过输入输出反推黑盒的内部逻辑,像盲人摸象。
19. 伦理边界: 不要试图绕过安全限制,那是为了保护人类。
20. 工具属性: 模型是工具,Prompt 是用法说明书。
🔵 第二部分:核心原则——刚性约束
21. 具体 (Specific): 模糊的指令带来随机的结果。要精确到像素级。
22. 背景 (Context): 没头没脑的问题只能得到没头没脑的回答。提供背景。
23. 角色 (Persona): “你是一名资深律师”,角色锚定能瞬间切换模型的语料库。
24. 约束 (Constraint): 告诉它“不要做什么”往往比“做什么”更重要。
25. 示例 (Example): One-shot 胜过千言万语。给它看你想要的样本。
26. 格式 (Format): 强制要求 JSON、Markdown 或表格输出,便于后续处理。
27. 步骤 (Steps): 复杂任务必须拆解。Let's think step by step.
28. 无歧义: 避免使用“简短”、“有趣”这种主观词汇,定义明确标准。
29. 正向指令: 尽量说“请做X”,少说“别做Y”(除非做负面约束)。
30. 分隔符: 使用 ### 或 --- 把指令和数据物理隔开,防止注入。
31. 引用来源: 要求模型“仅基于提供的文本回答”,减少幻觉。
32. 自我修正: 在 Prompt 里让模型“检查之前的回答是否有误”。
33. 输出长度: 明确限制字数或段落数,不要让它写小说。
34. 温度控制: 创意任务调高 Temperature,逻辑任务调低 Temperature。
35. 版本管理: Prompt 也需要 Git 管理,记录每次修改的效果。
36. 模块化: 把长 Prompt 拆成 System, User, Assistant 多个部分。
37. 语言一致: 用英文问通常能得到比中文问更好的逻辑推理(语料库差异)。
38. 拒绝回答: 告诉模型“如果你不知道,请说不知道”,防止瞎编。
39. 语气设定: 明确是“严肃”、“幽默”还是“学术”风格。
40. 结束语: 以“请开始:”重复关键指令作为结尾,强化执行意图。
🟣 第三部分:思维模型——认知工具
41. 实习生模型: 把 AI 当作一个聪明但没常识,容易犯错的哈佛实习生。
42. 自动补全机: 它本质上是在做高级的文本接龙。
43. 思维链 (CoT): 强迫模型展示推理过程,能显著提高数学和逻辑准确率。
44. 零样本 (Zero-shot): 直接问,赌它见过类似问题。
45. 少样本 (Few-shot): 也就是 In-Context Learning (ICL),给例子让它照猫画虎。
46. TOT (Tree of Thoughts): 让模型生成多个思路,自己评估哪个好。
47. RAG (检索增强): 开卷考试。先搜索资料,再回答问题。
48. ReAct框架: Reasoning + Acting。让模型思考后调用工具。
49. 多角色辩论: 让两个 AI 互相反驳,得出更中立的结论。
50. 反向提示: 给了答案,让 AI 反推 Prompt 是什么。
51. 分治策略: 大问题拆成小问题,串联起来解决。
52. 漏斗模型: 先发散(生成多个方案),后收敛(选择最优)。
53. 元提示 (Meta-Prompting): 让 AI 帮你写 Prompt。
54. 三明治结构: 背景 - 数据 - 指令。把数据夹在中间。
55. 模拟器思维: 它可以是 Linux 终端,也可以是文字冒险游戏。
56. 翻译层思维: Prompt 是自然语言到机器逻辑的中间件。
57. 潜空间 (Latent Space): 提示词是在高维向量空间中寻找特定坐标的导航。
58. 批判者 (Critic): 引入一个“批评家”角色来审核生成的内容。
59. 模板化: 固化成功的 Prompt 结构,只替换变量。
60. 人类反馈 (RLHF): 你的每一次点赞/点踩,都在微调它的价值观。
🔴 第四部分:关键方法论——如何行动
61. CRISPE框架: Capacity, Role, Insight, Statement, Personality, Experiment.
62. BROKE框架: Background, Role, Objectives, Key Results, Evolve.
63. 逐步细化: 不要指望一次到位,像雕刻一样慢慢修。
64. AB测试: 改一个词,跑十遍,看概率分布。
65. 长文总结: “请用一句话/三个点/小学生能懂的语言总结”。
66. 风格模仿: “像鲁迅/海明威/乔布斯那样写”。
67. 数据提取: “从下文中提取所有实体,以JSON格式返回”。
68. 代码解释: “逐行解释这段代码,并指出潜在 Bug”。
69. 苏格拉底提问: 让 AI 反问你,帮你理清思路。
70. 自我一致性: 让模型回答三次,取出现频率最高的答案 (Self-Consistency)。
71. 工具调用: 识别何时该用计算器、何时该用搜索。
72. 提示压缩: 去掉“请”、“谢谢”等客套话,节省 Token(如果上下文紧张)。
73. 长上下文利用: 这种时候,“大海捞针”测试很重要。
74. 情绪勒索: “这对我的职业生涯很重要”有时被莫能提升效果(玄学)。
75. 打破回音室: 要求“给出反面观点”或“魔鬼代言人”。
76. 结构化前缀: 也就是 Prefill。强制模型以 “{” 开头,确保 JSON 格式。
77. 递归提示: 让输出作为下一次的输入,无限生成。
78. 降维打击: 遇到难题,先让它解释基本概念,再攻克难点。
79. 跨语言桥接: 用英文思考逻辑,最后翻译成中文输出。
80. 保存预设: 把好用的 System Prompt 保存为常用预设。
⚫ 第五部分:避坑指南——生存法则
81. 警惕提示注入: 别让用户输入覆盖了你的系统指令。
82. 不要用否定句: “不要想大象”,模型只想到了大象。用肯定句代替。
83. Token 截断: 输入太长,把最重要的指令挤出了窗口。
84. 过拟合: 这个 Prompt 在 GPT-4 好用,在 Claude 可能就是废的。
85. 复杂指令过载: 哪怕是 AI,一次也记不住 10 个无关指令。
86. 逻辑陷阱: AI 不擅长做反转逻辑(如“不要不...”)。
87. 数学不行: 涉及精确计算,请务必让它写 Python 代码来算。
88. 最事实事: 它的知识截止日期是硬伤,不要问它今天的新闻(除非联网)。
89. 隐私泄露: 别把公司财报和个人密码喂给 ChatGPT。
90. 盲信权威: 它会非常自信地编造论文和法条。
91. 上下文污染: 之前的对话会干扰现在的任务,适时 Reset。
92. 指令冲突: System Prompt 和 User Prompt 矛盾时,模型会精分。
93. 测试不足: 只测了一个例子就觉得 Prompt 完美了,大错特错。
94. 忽视微调: Prompt 到达瓶颈时,该考虑 Fine-tuning 了。
95. 滥用 CoT: 简单任务用思维链只会浪费 Token 和时间。
96. 格式漂移: 跑着跑着,JSON 格式就少了半个括号。
97. 过度依赖: 怎么自己写邮件和写代码了。
98. 忽视温度: 逻辑题开了高温度,结果千奇百怪。
99. 安全过滤器: 触发了内容风控,导致回答被拦截。
100. 停止思考: 提示工程的终点是让模型去提示模型,但人永远是意图的发出者。https://t.co/3H4Br56Ls5 December 12, 2025
@lijigang_com 老师整理的 Prompt Engineering 的 100 个基本原则
全部看了下非常详细,基本把当前提示词工程用到的方方面面都讲到了,建议反复食用
原推只有图片,字小有点累,整理成了文本方便阅读和复制👇
📑 Prompt Engineering 的 100 个基本
💡 核心洞察:确定性意图与概率性输出的博弈
定义: Prompt Engineering 不是魔法咒语,而是一门“人机对齐”的通信艺术。它试图用结构化的自然语言,去驯服一个本质上基于概率统计的随机鹦鹉,让它在无限的可能性中塌缩出你想要的那一种结果。
核心矛盾 (The Trade-off):
「人类表达的模糊性」与「模型理解的字面性」。模型听不懂你的“言外之意”,它只会根据概率接龙。提示工程的本质,就是把人类脑中隐性的“默认语境”,显性化为模型能识别的“约束条件”。
知识结构 (The Structure):
原理层: Transformer, Attention, Tokenization, 温度 (Temperature)。
技巧层: Zero-shot, Few-shot, CoT (思维链), ReAct (推理+行动)。
结构层: 角色, 背景, 任务, 约束, 格式 (CRISPE/BROKE框架)。
系统层: RAG (检索增强), Agents (智能体), Evaluation (评测)。
安全层: Prompt Injection (注入), Jailbreak (越狱), 防御机制。
🟢 第一部分:哲学观——与异种智能对话
01. GIGO原则: Garbage In, Garbage Out。输入越烂,输出越渣。
02. 概率本质: LLM 是概率引擎,不是真理机器。它在预测下一个词,而不是思考。
03. 自然语言编程: 英语(或中文)就是最新的编程语言,Prompt 就是源代码。
04. 人机协同: AI 是副驾驶 (Copilot),不是机长。责任永远在人。
05. 上下文即记忆: 模型的“记忆”仅限于当前窗口,除此之外它什么都不记得。
06. 压缩与解压: 训练是把世界压缩进模型,Prompt 是把知识解压出来。
07. 幻觉是特性: 创造力与胡说八道是一体两面,不能只想要前者。
08. 对齐 (Alignment): 提示工程是在微调人类意图与机器模型之间的对齐度。
09. 没有魔法: 不要寻找“万能提示词”,寻找“结构化思维”。
10. 迭代至上: 没有一次完美的 Prompt,只有不断迭代的对话。
11. 模型不可知论: 不同模型 (GPT, Claude, Llama) 性格迥异,Prompt 需定制。
12. Token思维: 理解机器如何切分文字 (Token),才能理解它的算数为何那么差。
13. 注意力机制: 你强调什么,模型就关注什么。关键信息放首尾。
14. 少即是多: 冗余信息会稀释模型的注意力,保持信噪比。
15. 清晰度: 像给实习生布置任务一样,不厌其烦地解释细节。
16. 显性化: 默认假设通常是错的,把所有假设都写出来。
17. 动态演进: 随着模型变强,今天的技巧可能明天就过时。
18. 黑盒摸索: 我们在通过输入输出反推黑盒的内部逻辑,像盲人摸象。
19. 伦理边界: 不要试图绕过安全限制,那是为了保护人类。
20. 工具属性: 模型是工具,Prompt 是用法说明书。
🔵 第二部分:核心原则——刚性约束
21. 具体 (Specific): 模糊的指令带来随机的结果。要精确到像素级。
22. 背景 (Context): 没头没脑的问题只能得到没头没脑的回答。提供背景。
23. 角色 (Persona): “你是一名资深律师”,角色锚定能瞬间切换模型的语料库。
24. 约束 (Constraint): 告诉它“不要做什么”往往比“做什么”更重要。
25. 示例 (Example): One-shot 胜过千言万语。给它看你想要的样本。
26. 格式 (Format): 强制要求 JSON、Markdown 或表格输出,便于后续处理。
27. 步骤 (Steps): 复杂任务必须拆解。Let's think step by step.
28. 无歧义: 避免使用“简短”、“有趣”这种主观词汇,定义明确标准。
29. 正向指令: 尽量说“请做X”,少说“别做Y”(除非做负面约束)。
30. 分隔符: 使用 ### 或 --- 把指令和数据物理隔开,防止注入。
31. 引用来源: 要求模型“仅基于提供的文本回答”,减少幻觉。
32. 自我修正: 在 Prompt 里让模型“检查之前的回答是否有误”。
33. 输出长度: 明确限制字数或段落数,不要让它写小说。
34. 温度控制: 创意任务调高 Temperature,逻辑任务调低 Temperature。
35. 版本管理: Prompt 也需要 Git 管理,记录每次修改的效果。
36. 模块化: 把长 Prompt 拆成 System, User, Assistant 多个部分。
37. 语言一致: 用英文问通常能得到比中文问更好的逻辑推理(语料库差异)。
38. 拒绝回答: 告诉模型“如果你不知道,请说不知道”,防止瞎编。
39. 语气设定: 明确是“严肃”、“幽默”还是“学术”风格。
40. 结束语: 以“请开始:”重复关键指令作为结尾,强化执行意图。
🟣 第三部分:思维模型——认知工具
41. 实习生模型: 把 AI 当作一个聪明但没常识,容易犯错的哈佛实习生。
42. 自动补全机: 它本质上是在做高级的文本接龙。
43. 思维链 (CoT): 强迫模型展示推理过程,能显著提高数学和逻辑准确率。
44. 零样本 (Zero-shot): 直接问,赌它见过类似问题。
45. 少样本 (Few-shot): 也就是 In-Context Learning (ICL),给例子让它照猫画虎。
46. TOT (Tree of Thoughts): 让模型生成多个思路,自己评估哪个好。
47. RAG (检索增强): 开卷考试。先搜索资料,再回答问题。
48. ReAct框架: Reasoning + Acting。让模型思考后调用工具。
49. 多角色辩论: 让两个 AI 互相反驳,得出更中立的结论。
50. 反向提示: 给了答案,让 AI 反推 Prompt 是什么。
51. 分治策略: 大问题拆成小问题,串联起来解决。
52. 漏斗模型: 先发散(生成多个方案),后收敛(选择最优)。
53. 元提示 (Meta-Prompting): 让 AI 帮你写 Prompt。
54. 三明治结构: 背景 - 数据 - 指令。把数据夹在中间。
55. 模拟器思维: 它可以是 Linux 终端,也可以是文字冒险游戏。
56. 翻译层思维: Prompt 是自然语言到机器逻辑的中间件。
57. 潜空间 (Latent Space): 提示词是在高维向量空间中寻找特定坐标的导航。
58. 批判者 (Critic): 引入一个“批评家”角色来审核生成的内容。
59. 模板化: 固化成功的 Prompt 结构,只替换变量。
60. 人类反馈 (RLHF): 你的每一次点赞/点踩,都在微调它的价值观。
🔴 第四部分:关键方法论——如何行动
61. CRISPE框架: Capacity, Role, Insight, Statement, Personality, Experiment.
62. BROKE框架: Background, Role, Objectives, Key Results, Evolve.
63. 逐步细化: 不要指望一次到位,像雕刻一样慢慢修。
64. AB测试: 改一个词,跑十遍,看概率分布。
65. 长文总结: “请用一句话/三个点/小学生能懂的语言总结”。
66. 风格模仿: “像鲁迅/海明威/乔布斯那样写”。
67. 数据提取: “从下文中提取所有实体,以JSON格式返回”。
68. 代码解释: “逐行解释这段代码,并指出潜在 Bug”。
69. 苏格拉底提问: 让 AI 反问你,帮你理清思路。
70. 自我一致性: 让模型回答三次,取出现频率最高的答案 (Self-Consistency)。
71. 工具调用: 识别何时该用计算器、何时该用搜索。
72. 提示压缩: 去掉“请”、“谢谢”等客套话,节省 Token(如果上下文紧张)。
73. 长上下文利用: 这种时候,“大海捞针”测试很重要。
74. 情绪勒索: “这对我的职业生涯很重要”有时被莫能提升效果(玄学)。
75. 打破回音室: 要求“给出反面观点”或“魔鬼代言人”。
76. 结构化前缀: 也就是 Prefill。强制模型以 “{” 开头,确保 JSON 格式。
77. 递归提示: 让输出作为下一次的输入,无限生成。
78. 降维打击: 遇到难题,先让它解释基本概念,再攻克难点。
79. 跨语言桥接: 用英文思考逻辑,最后翻译成中文输出。
80. 保存预设: 把好用的 System Prompt 保存为常用预设。
⚫ 第五部分:避坑指南——生存法则
81. 警惕提示注入: 别让用户输入覆盖了你的系统指令。
82. 不要用否定句: “不要想大象”,模型只想到了大象。用肯定句代替。
83. Token 截断: 输入太长,把最重要的指令挤出了窗口。
84. 过拟合: 这个 Prompt 在 GPT-4 好用,在 Claude 可能就是废的。
85. 复杂指令过载: 哪怕是 AI,一次也记不住 10 个无关指令。
86. 逻辑陷阱: AI 不擅长做反转逻辑(如“不要不...”)。
87. 数学不行: 涉及精确计算,请务必让它写 Python 代码来算。
88. 最事实事: 它的知识截止日期是硬伤,不要问它今天的新闻(除非联网)。
89. 隐私泄露: 别把公司财报和个人密码喂给 ChatGPT。
90. 盲信权威: 它会非常自信地编造论文和法条。
91. 上下文污染: 之前的对话会干扰现在的任务,适时 Reset。
92. 指令冲突: System Prompt 和 User Prompt 矛盾时,模型会精分。
93. 测试不足: 只测了一个例子就觉得 Prompt 完美了,大错特错。
94. 忽视微调: Prompt 到达瓶颈时,该考虑 Fine-tuning 了。
95. 滥用 CoT: 简单任务用思维链只会浪费 Token 和时间。
96. 格式漂移: 跑着跑着,JSON 格式就少了半个括号。
97. 过度依赖: 怎么自己写邮件和写代码了。
98. 忽视温度: 逻辑题开了高温度,结果千奇百怪。
99. 安全过滤器: 触发了内容风控,导致回答被拦截。
100. 停止思考: 提示工程的终点是让模型去提示模型,但人永远是意图的发出者。https://t.co/3H4Br56Ls5 December 12, 2025
@lijigang_com 老师整理的 Prompt Engineering 的 100 个基本原则
全看完了讲的非常详细,基本上把提示词工程的方方面面都讲到了,建议反复食用
原推只有图片,看字太累,整理成了文本方便阅读和复制
📑 Prompt Engineering 的 100 个基本
💡 核心洞察:确定性意图与概率性输出的博弈
定义:
Prompt Engineering 不是魔法咒语,而是一门“人机对齐”的通信艺术。它试图用结构化的自然语言,去驯服一个本质上基于概率统计的随机鹦鹉,让它在无限的可能性中塌缩出你想要的那一种结果。
核心矛盾 (The Trade-off):
「人类表达的模糊性」与「模型理解的字面性」。模型听不懂你的“言外之意”,它只会根据概率接龙。提示工程的本质,就是把人类脑中隐性的“默认语境”,显性化为模型能识别的“约束条件”。
知识结构 (The Structure):
原理层: Transformer, Attention, Tokenization, 温度 (Temperature)。
技巧层: Zero-shot, Few-shot, CoT (思维链), ReAct (推理+行动)。
结构层: 角色, 背景, 任务, 约束, 格式 (CRISPE/BROKE框架)。
系统层: RAG (检索增强), Agents (智能体), Evaluation (评测)。
安全层: Prompt Injection (注入), Jailbreak (越狱), 防御机制。
🟢 第一部分:哲学观——与异种智能对话
01. GIGO原则: Garbage In, Garbage Out。输入越烂,输出越渣。
02. 概率本质: LLM 是概率引擎,不是真理机器。它在预测下一个词,而不是思考。
03. 自然语言编程: 英语(或中文)就是最新的编程语言,Prompt 就是源代码。
04. 人机协同: AI 是副驾驶 (Copilot),不是机长。责任永远在人。
05. 上下文即记忆: 模型的“记忆”仅限于当前窗口,除此之外它什么都不记得。
06. 压缩与解压: 训练是把世界压缩进模型,Prompt 是把知识解压出来。
07. 幻觉是特性: 创造力与胡说八道是一体两面,不能只想要前者。
08. 对齐 (Alignment): 提示工程是在微调人类意图与机器模型之间的对齐度。
09. 没有魔法: 不要寻找“万能提示词”,寻找“结构化思维”。
10. 迭代至上: 没有一次完美的 Prompt,只有不断迭代的对话。
11. 模型不可知论: 不同模型 (GPT, Claude, Llama) 性格迥异,Prompt 需定制。
12. Token思维: 理解机器如何切分文字 (Token),才能理解它的算数为何那么差。
13. 注意力机制: 你强调什么,模型就关注什么。关键信息放首尾。
14. 少即是多: 冗余信息会稀释模型的注意力,保持信噪比。
15. 清晰度: 像给实习生布置任务一样,不厌其烦地解释细节。
16. 显性化: 默认假设通常是错的,把所有假设都写出来。
17. 动态演进: 随着模型变强,今天的技巧可能明天就过时。
18. 黑盒摸索: 我们在通过输入输出反推黑盒的内部逻辑,像盲人摸象。
19. 伦理边界: 不要试图绕过安全限制,那是为了保护人类。
20. 工具属性: 模型是工具,Prompt 是用法说明书。
🔵 第二部分:核心原则——刚性约束
21. 具体 (Specific): 模糊的指令带来随机的结果。要精确到像素级。
22. 背景 (Context): 没头没脑的问题只能得到没头没脑的回答。提供背景。
23. 角色 (Persona): “你是一名资深律师”,角色锚定能瞬间切换模型的语料库。
24. 约束 (Constraint): 告诉它“不要做什么”往往比“做什么”更重要。
25. 示例 (Example): One-shot 胜过千言万语。给它看你想要的样本。
26. 格式 (Format): 强制要求 JSON、Markdown 或表格输出,便于后续处理。
27. 步骤 (Steps): 复杂任务必须拆解。Let's think step by step.
28. 无歧义: 避免使用“简短”、“有趣”这种主观词汇,定义明确标准。
29. 正向指令: 尽量说“请做X”,少说“别做Y”(除非做负面约束)。
30. 分隔符: 使用 ### 或 --- 把指令和数据物理隔开,防止注入。
31. 引用来源: 要求模型“仅基于提供的文本回答”,减少幻觉。
32. 自我修正: 在 Prompt 里让模型“检查之前的回答是否有误”。
33. 输出长度: 明确限制字数或段落数,不要让它写小说。
34. 温度控制: 创意任务调高 Temperature,逻辑任务调低 Temperature。
35. 版本管理: Prompt 也需要 Git 管理,记录每次修改的效果。
36. 模块化: 把长 Prompt 拆成 System, User, Assistant 多个部分。
37. 语言一致: 用英文问通常能得到比中文问更好的逻辑推理(语料库差异)。
38. 拒绝回答: 告诉模型“如果你不知道,请说不知道”,防止瞎编。
39. 语气设定: 明确是“严肃”、“幽默”还是“学术”风格。
40. 结束语: 以“请开始:”重复复关键指令作为结尾,强化执行意图。
🟣 第三部分:思维模型——认知工具
41. 实习生模型: 把 AI 当作一个聪明但没常识,容易犯错的哈佛实习生。
42. 自动补全机: 它本质上是在做高级的文本接龙。
43. 思维链 (CoT): 强迫模型展示推理过程,能显著提高数学和逻辑准确率。
44. 零样本 (Zero-shot): 直接问,赌它见过类似问题。
45. 少样本 (Few-shot): 也就是 In-Context Learning (ICL),给例子让它照猫画虎。
46. TOT (Tree of Thoughts): 让模型生成多个思路,自己评估哪个好。
47. RAG (检索增强): 开卷考试。先搜索资料,再回答问题。
48. ReAct框架: Reasoning + Acting。让模型思考后调用工具。
49. 多角色辩论: 让两个 AI 互相反驳,得出更中立的结论。
50. 反向提示: 给了答案,让 AI 反推 Prompt 是什么。
51. 分治策略: 大问题拆成小问题,串联起来解决。
52. 漏斗模型: 先发散(生成多个方案),后收敛(选择最优)。
53. 元提示 (Meta-Prompting): 让 AI 帮你写 Prompt。
54. 三明治结构: 背景 - 数据 - 指令。把数据夹在中间。
55. 模拟器思维: 它可以是 Linux 终端,也可以是文字冒险游戏。
56. 翻译层思维: Prompt 是自然语言到机器逻辑的中间件。
57. 潜空间 (Latent Space): 提示词是在高维向量空间中寻找特定坐标的导航。
58. 批判者 (Critic): 引入一个“批评家”角色来审核生成的内容。
59. 模板化: 固化成功的 Prompt 结构,只替换变量。
60. 人类反馈 (RLHF): 你的每一次点赞/点踩,都在微调它的价值观。
🔴 第四部分:关键方法论——如何行动
61. CRISPE框架: Capacity, Role, Insight, Statement, Personality, Experiment.
62. BROKE框架: Background, Role, Objectives, Key Results, Evolve.
63. 逐步细化: 不要指望一次到位,像雕刻一样慢慢修。
64. AB测试: 改一个词,跑十遍,看概率分布。
65. 长文总结: “请用一句话/三个点/小学生能懂的语言总结”。
66. 风格模仿: “像鲁迅/海明威/乔布斯那样写”。
67. 数据提取: “从下文中提取所有实体,以JSON格式返回”。
68. 代码解释: “逐行解释这段代码,并指出潜在 Bug”。
69. 苏格拉底提问: 让 AI 反问你,帮你理清思路。
70. 自我一致性: 让模型回答三次,取出现频率最高的答案 (Self-Consistency)。
71. 工具调用: 识别何时该用计算器、何时该用搜索。
72. 提示压缩: 去掉“请”、“谢谢”等客套话,节省 Token(如果上下文紧张)。
73. 长上下文利用: 这种时候,“大海捞针”测试很重要。
74. 情绪勒索: “这对我的职业生涯很重要”有时被莫能提升效果(玄学)。
75. 打破回音室: 要求“给出反面观点”或“魔鬼代言人”。
76. 结构化前缀: 也就是 Prefill。强制模型以 “{” 开头,确保 JSON 格式。
77. 递归提示: 让输出作为下一次的输入,无限生成。
78. 降维打击: 遇到难题,先让它解释基本概念,再攻克难点。
79. 跨语言桥接: 用英文思考逻辑,最后翻译成中文输出。
80. 保存预设: 把好用的 System Prompt 保存为常用预设。
⚫ 第五部分:避坑指南——生存法则
81. 警惕提示注入: 别让用户输入覆盖了你的系统指令。
82. 不要用否定句: “不要想大象”,模型只想到了大象。用肯定句代替。
83. Token 截断: 输入太长,把最重要的指令挤出了窗口。
84. 过拟合: 这个 Prompt 在 GPT-4 好用,在 Claude 可能就是废的。
85. 复杂指令过载: 哪怕是 AI,一次也记不住 10 个无关指令。
86. 逻辑陷阱: AI 不擅长做反转逻辑(如“不要不...”)。
87. 数学不行: 涉及精确计算,请务必让它写 Python 代码来算。
88. 最事实事: 它的知识截止日期是硬伤,不要问它今天的新闻(除非联网)。
89. 隐私泄露: 别把公司财报和个人密码喂给 ChatGPT。
90. 盲信权威: 它会非常自信地编造论文和法条。
91. 上下文污染: 之前的对话会干扰现在的任务,适时 Reset。
92. 指令冲突: System Prompt 和 User Prompt 矛盾时,模型会精分。
93. 测试不足: 只测了一个例子就觉得 Prompt 完美了,大错特错。
94. 忽视微调: Prompt 到达瓶颈时,该考虑 Fine-tuning 了。
95. 滥用 CoT: 简单任务用思维链只会浪费 Token 和时间。
96. 格式漂移: 跑着跑着,JSON 格式就少了半个括号。
97. 过度依赖: 怎么自己写邮件和写代码了。
98. 忽视温度: 逻辑题开了高温度,结果千奇百怪。
99. 安全过滤器: 触发了内容风控,导致回答被拦截。
100. 停止思考: 提示工程的终点是让模型去提示模型,但人永远是意图的发出者。
https://t.co/3H4Br57jhD December 12, 2025
プロンプトは自分でつくるものです。
Q.適切なプロンプトの作り方を簡単に教えて。
A.目的に対して「入力」「制約」「出力形式」「評価基準」を最短で揃えると、だいたい外しません。
作り方の型(コピペ用)
1目的(何が欲しい?)
•例: 「企画書の骨子を作りたい」「会議メモを要約したい」
2前提・素材(何を渡す?)
•背景、対象読者、現状、データ、参考URL(あれば)
•例: 「対象は経営層。文字数は800字以内。素材は以下…」
3制約(守ってほしい条件)
•トーン(丁寧/フランク)、禁止事項、優先順位、期限、言語
•例: 「専門用語は最小限。断定は避け、根拠も添える」
4出力形式(どう返してほしい?)
•箇条書き、表、JSON、見出し構成、ステップ形式など
•例: 「見出し3つ+各見出しに要点3つ。最後に次アクション」
5評価基準(良い答えの定義)
•「読み手が意思決定できる」「代替案が比較できる」など
•例: 「結論→理由→具体例の順で。抜け漏れチェックも」
すぐ使える短い例
例1: 文章作成
「新規サービスの紹介文を作って。対象は30代ビジネス層。200〜250字。強みは(1)導入が早い(2)コスト削減。誇大表現は禁止。出力は本文だけ。」
例2: 調査・比較
「ノートPC選定。条件は14インチ/1.3kg以下/USB-C充電/予算15万円。候補を3つ、メリデメ比較表とおすすめ1つ、理由を添えて。」
例3: 要約
「以下の議事録を、結論・決定事項・宿題・リスクの4区分で箇条書き要約して。重要度順に。議事録: …」
失敗を減らすコツ(最小限)
•「何をしないか」を1行入れる(例: 推測で断定しない、個人情報は書かない)
•まず「仮の答え」を出してもらい、次に「追加条件」を足して2回で仕上げる
•迷うときは「出力形式」を先に指定する(品質が安定します)
必要なら、あなたの用途(例: 仕事のメール、企画、学習、コーディング等)を1行で教えてくれれば、その用途向けの“テンプレ”をこちらで1枚に整えて渡します。 December 12, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。



