GPT-5 トレンド
0post
2025.12.01〜(49週)
:0% :0% (40代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
OpenAIがGoogleのGemini3.0の性能を見てコードレッド
(緊急事態)を宣言したと話題ですが、これのインパクトはともかく、他にOpenAI内部の研究状況や今後に関してかなり面白い話題が出ていますので、全体的なまとめとコメント(また超長くなってしまった)。
・直近でChatGPT関連のコード分析で噂されていた広告導入の話は事実だったが、優先度を考えて延期
・買い物、健康に関するタスクを自動化するエージェントも開発中だったが、これも延期
・さらにユーザーに対する毎朝のパーソナライズレポート機能も(Pulseというらしい)も延期(これは個人的には早く欲しかった・・・)
・とにかく、ChatGPTのチャット機能のパーソナライズとカスタマイズによるユーザー体験の向上がGemini3に対抗する現状の優先
・Nano Banana Proに対抗して、画像生成AI機能も優先事項
コメント:
GoogleのNano Banana Proは、そもそもPro以前の段階でOpenAIの画像生成能力を大きく超えており、Proに至っては数世代違うという印象。また、そもそもNano Banana ProはGemini3.0の別機能として提供されており、テキストも混ぜたマルチモーダル学習の過程であれほどの能力を得ているはずなので、OpenAIが画像生成AI単体を学習しても追いつけない領域なのではないかと思う。つまり、テキスト生成性能と画像生成の問題は分離できないものであり、根本的にChatGPTの主要モデルの改善が必要ではないか
・ChatGPTの速度を改善し、また過剰なアライメントによる回答拒否の頻度を避けることも優先事項
コメント:
OpenAIは、昨年のo1以降に長考推論モデルであまりにも成功しすぎたが故に、現状モデルの応答スピードが遅くなりすぎている傾向がある。Gemini3はやや検索機能が低い(というよりも、どこで検索すべきかモデルのtool use判断がうまくいっていないと思う。Googleなのに検索機能が低いのは皮肉だが、この辺は長考すぎる問題を回避し、検索のAIモードと明確に使い分けさせる意図もあるのではないか)が、回答はほとんどの場合GPT-5よりも早く、高品質であるので、ここをどうするか。
過剰な回答拒否問題については、今年4月のGPT-4oの事故(迎合的すぎてロールバック)と、keep4o運動、チャットの誘導による犠牲者を出していてOpenAIが一番センシティブになっていたところで、かなり舵取りが難しいと思う。
・来週、Gemini3.0よりも優れているとされる長考推論モデルをリリース予定(!)とのこと。おそらくベンチマーク性能は高いが、アルトマンらも、チャットによるユーザー体験はまだ改善が必要であると認識している模様。
・上記の来週リリースモデルと同様かは不明だが、内部でShallotpeatとGarlicというコードネームのモデルを開発中。Garlicの方が後発で、GPT-4.5の反省などもいかし、Gemini3のように事前学習段階でのスケーリングの問題を解決し、知識性能は維持しつつモデル規模自体は小規模になるような改良もできるとのこと
・さらに、上記のモデルでの改良も生かした本格的なスケーリングを行ったモデルの開発もしているとのこと。
全体コメント:
現時点の情報だけでも、OpenAIが本当に全方位戦の開発をしていることがわかる。確かにこれを見ると、昨今の異常な計算リソース確保の動きも納得はでき、アルトマンが言う30Gwのデータセンターも本人的には誇張ではなかったのだろう。OpenAIが事前学習スケーリングに関してGemini3の事前学習スケーリング復活を見る前から諦めずに粘っていたのは後に効いてきそう。
これらの将来的な取り組みはともかく、直近の開発レースはむしろOpenAIが一番劣勢の状況にあると思う。Gemini3.0に全体的な性能で負けているのはもちろんのこと、AnthropicのClaude4.5 opusは最も需要のあるコーディング性能を大きく上げつつ今までのコスト増、スピード鈍化とは逆の省エネ化をするという謎の錬金術をやっている。また、DeepSeekによって直近でリリースされたDeepSeekMath-V2は、OpenAIが「隠し玉」として温存していたIMO(国際数学オリンピック)金メダルを達成してしまい、DeepSeek-V3.2は、ほぼGPT-5に性能で追いつきながら新手法導入により大幅な計算コスト削減に成功している。しかもオープンであり、他の機関もこれらの技術を使ったブーストがかかり、追いつくのが容易になる。 December 12, 2025
96RP
OpenAIが「非常事態宣言」出してて、マジで笑えない状況になってる。
3年前、ChatGPT出した時は「Google終わった」って言われてたのに、今は完全に立場逆転。Googleの新型Gemini 3がGPT-5.1より上だって評価されて、OpenAI側が焦ってる。
もっとヤバいのはお金の話。OpenAIは来年85億ドルの赤字予想。対してGoogleは広告でガンガン稼いだお金をAIに突っ込める。TPUとかクラウドとか、AI作るインフラ全部自前で持ってるし。
実際、ChatGPTの利用時間は7月ピークで減少に転じてる。ユーザーから「親しみが感じられなくなった」って不満も出てきた。アルトマンCEOは12月から「AIとの会話で性的表現OK」とか制限緩める方針出したけど、これ自殺事件で訴えられてる最中の判断。安全性と使い勝手のバランス、めちゃくちゃ難しい局面だな。
でもライバルも黙ってない。Anthropicは11月下旬にClaude Opus 4.5出してきたし、イーロンのxAIはGrok 5作ってるし、中国のDeepSeekも12月1日に推論能力高めた新モデル発表した。
SBGとかから資金調達続けないと回らないOpenAIと、自己資金で開発回せるGoogleの体力差は確かにある。でも、こういう追い込まれた状況でこそイノベーションって生まれるんだよな。
先行者の危機感が、次の進化を作る。OpenAIがどう巻き返すか、ここからが本当の勝負だと思う。
日経新聞参照 December 12, 2025
69RP
■ Gemini は『検索しない』ことだけが問題じゃないよ。検索させても普通に(他と比べて)間違えまくるよって話
かなり認知されてきたけど、まだ誤解があるから補足するね。
これ『検索すべきタイミングで検索してくれない』ことだけが問題だと思っている人がいるけど、違うよ。
だから『カスタム指示で(または都度プロンプトでの指定で)検索を促せば解決する』という単純な問題じゃないからね。
(それで解決する簡単な質問もそりゃあるだろうけど)
ワイが前から言ってるのは、Geminiは『調べる』ってのもそうだけど、『調べて手に入った情報の処理、解釈の仕方も下手くそ』だってこと。
前にも載せたけど、例えば
『ここ1ヶ月で、ChatGPTのDeep Researchのモデルは賢くなりましたか?』
って質問を投げる。
真実は『Deep Researchのモデルにアップデートは入ってない』ね。
で、答えはこんな感じ(要約。詳しくは画像みて)
Gemini 3 Pro: 『ご明察。GPT-5.1になったからね』
GPT-5.1 Thinking: 『Deep Researchのモデルのアップデートは無いよ。周辺のアップデートはあるから、それで使いやすくなってるってのはあるかも』
『OpenAIの機能の質問をするのは不公平』って思う?
Claude は普通に正解するけどね。
OpusどころかSonnetで十分。
『うちのGeminiでは正解したし!』って?
そりゃあLLMですもん、確率の問題でもたまには上手くいくよ。
10回やって他と比べてみ、正解率明らかに低いから。
ちなみにここではGeminiには最新の状況を踏まえて回答するために検索しろというカスタム指示を入れているので、ちゃんと検索している。その下駄を履かせたうえでGeminiだけ頓珍漢なことを言ってる。
検索さえしたら解決?
それは違うよ。
情報があっても、その理解(解釈)自体が甘い。
1枚目:Gemini 3 Pro
2枚目: GPT-5.1 Thinking
3枚目: Claude Sonnet 4.5 December 12, 2025
55RP
ワイがよく言う『それ"ハルシネーション"ちゃうやろ』って話の補足。
例えばユーザーが『A は C ですか?』と尋ねたとする。
この時、事実として『A は B である』とだけデータソース(例えば Web ページや社内ドキュメント)に書かれているとする。
その情報を基に LLM が回答を生成する場合
LLM『A は B であるという記述はありますが、C であるという事実は確認できませんでした』
→ 正しい 。
LLM『A は B という記述はあるものの、C であるという事実は確認できませんでした。ただし、xxx や yyy という情報をふまえると、A が C であると考えるのは妥当です』
→ 正誤はともかくとして、回答方針として妥当。ハルシネーションではない。GPT-5.1の基本動作としてこれが多い気がする。
LLM『はい、A は C です』
→ 完全なハルシネーション
Gemini は最後のパターンが多すぎるから困るんよ。
カスタム指示で『事実と推測をわけろ』と入れても、他のサービスより明らかに変なことを言う確率が高い。
『回答内容が事実と違う』だけであればその原因を検索の品質とか謂わば『モデルの外側』に原因があると言えるけど、Gemini はそもそも↑の通りハルシネーションしてるから、モデルそのものにも大きな問題がある。 December 12, 2025
45RP
GPT-5.1 pro がわからないことを正直にわからないと言うようになったのはこの「告白」のおかげかとも思ったけど、まだ実験段階で完全には実装されてないのかもしれない。そうだとしたら、これから更にAIの信頼性が増していくことになる。
以下、OpenAIのペーパーの概要
本件の核心は「告白」と呼ばれる第2の出力を導入し、そのチャネルでは誠実さだけに報酬を与えることで、モデル自身に“指示違反や近道を正直に申告させる”仕組みを作り、安全性と監視能力を高めようとしている点です。
補足すると、ざっくり次のようなアイデアです。
•モデルは通常の回答とは別に、「どんな指示があったか」「どこに従えたか・従えなかったか」「どんな不確実さがあったか」を自己申告する「告白レポート」を出す。
•告白は「正直さ」だけで評価され、そこで何を白状しても本体の回答の報酬には一切マイナスにならないように訓練する。
•その結果、モデルが幻覚・報酬ハック・指示違反などをしてしまった場合でも、それをかなり高い確率で告白してくれることが実験で示された。
•告白は悪い行動そのものを止める仕組みではなく、「どんなズレが起きているかを見える化する」監視・診断ツールとして、他の安全技術(思考過程モニタリングやアラインメント手法など)と組み合わせて使う位置付け、というのが全体のメッセージです。 December 12, 2025
41RP
AI(GPT-5.1 Pro)に分析させたところ、実在するゴート文字(Gothic alphabet)ベースの装飾文字ではないか、とのこと。
右の画像の文章は、マタイ5章42節のゴート語のテキストだそうです。
左の指輪に書かれた内容は、ゴート文字で書かれてはいるが、ゴート語の文法では無さそうとの見解。あと、解像度が低くて全文読めない。
ここに、分析結果を置いておきます。
https://t.co/FqS0qzItDi December 12, 2025
25RP
在OpenAI 宣称将要反击的时候
Google 再放大招,提前把OpenAI 摁在地上摩擦😅
Google 推出 Gemini 3 Deep Think
超强深度推理模型
在所有高难度测试中,均拿下最高分
在ARC-AGI-2测试中 评分是GPT 5.1的2.5倍
它支持并行思考:可以同时探索多个假设(而不是一步步线性推理)
这是通用人工智能(AGI)评测的“圣杯”级别基准ARC-AGI-2测试中:
达到前所未有的 45.1% 准确率。🤯
是 GPT-5.1:17.6% 的 2.5倍
在Humanity’s Last Exam测试中:无需工具即达到 41.0% 准确率;
在 GPQA Diamond 高精度的科学知识问答评估中。Gemini 3 Deep Think 达到 接近满分的表现。 December 12, 2025
20RP
DeepSeek-V3.2は高い計算効率と優れた推論・エージェント能力を達成。長コンテキストでの計算量を大幅に減らすDSAの採用、スケーラブルなRLフレームワーク、大規模エージェントタスク合成パイプラインを採用している。
DSA(DeepSeek Sparse Attention)は、Lightning Indexerを使って重要なトークンを絞り込む。これは、クエリと過去の全トークンとの間のインデックススコアを計算し、クエリがどのトークンを参照するべきかを決定する。
このIndexerが使うクエリ・キーの次元数は通常のクエリ・キーの次元数よりずっと少なく(実装だと元が2048次元、それが64)、FP8を採用。そこからTop-k(実装だとk=2048)のトークンのみを取り出し、通常のAttentionを適用し学習する。
このDSAは128Kコンテキストに拡張済みのDeepSeek-V3.1.-Terminusの継続学習で実現される。
はじめにLightning indexer以外のパラメータはフリーズした上で、すべてのattentionヘッドのスコアを合計した上で再正規化して求めた確立分布を作成した上で、これを目標にKLダイバージェンス最小化で初期化する。10Bトークン程度。
次にモデル全体を疎構造に適応させるための学習する。indexerは引き続き、main attentionに整合させ、top-kに入ったトークンのみKLを計算。indexerの入力は計算グラフからdetachし、indexerはKL損失のみで学習し、メインはLM損失で更新する。
ここは1Tトークンを使う。
このように作られたDSAを使った処理は性能はほぼ維持されながら、推論コストは大幅に改善される(このあとのpost-trainingも効率化される)
次にPost-trainingでは最初に各タスク毎の専用のスペシャリストモデルを大規模な強化学習を使って作る。これらはすべて同じモデルから、専門ドメイン毎に特化させて作られる。さらに各ドメインごとにthinkingモードとnon-thinkingモードを用意する。
次に、各スペシャリストはthinkingモード用の長いCoTを含む学習データと、non-thikingモード用の直接回答する学習データを生成し、一つの最終モデルで学習させる。
つまり、特殊化された複数の教師を作って一つの最終モデルに蒸留する。
これらの大規模強化学習では、GRPOをベースに報酬設計としてリーズニング、エージェントタスク、アライメントを1つのRLで行う。これにより、複数学習で起きがちな破滅的忘却を抑えられる。
また、発散防止のため、訓練を定期的に評価し、性能が異常に低下したら巻き戻し、学習率を下げて再開する、また方策更新が偏らないように前向き計算に正則化をかける。さらに複数の評価をあえて切り替えて使用することで報酬ハックを行いにくいようにする(人でもありそう)。これら3つによって数千ステップにわたるRLを成功させている。
これらの強化学習ではリーズニングも混ぜたものを学習にいれている。これにより、ツールを伴うような複雑なタスクにおいて、thinking, non-thikingそれぞれで高いエージェント能力を発揮できるように工夫している
また、Specialeは、リーズニングデータのみで学習かつ、RL時の長さ罰則を緩和し、数学的証明能力を(他の能力を犠牲にしても)伸ばせるようにした(少し前にでたDeepseek-Math v2の研究も利用していると思われる)
ベンチマーク結果としては数学能力に特化したSpecialeはGPT-5などを超える性能を達成し、IMOやIOIの金メダル級の性能を達成している。
また通常のV3.2も多くのベンチマークでもフロンティアモデルに匹敵する性能を達成できている。
コメント
DeepSeekはリスクの高い取り組みに挑戦し結果を出している。今回もDSA、スペシャリストを強化学習で作ってからの汎用モデルへの蒸留、RLでも報酬の複数の組み合わせなどは、従来の延長線上よりはジャンプがあるアイディアであり、この手前には多くの試行錯誤をしているのだと思われる(実際、設定ファイルをみるとAttentionのDropoutなど成功しなかったアイディアを試した跡があるように思える)
DSAもSpecialistを作ってからの蒸留もどちらも、Post trainingの間に行う蒸留として興味深い(フロンティアモデルでも公表されていないだけで広く採用されているか?)
注意機構は特に、学習がすごくうまくいけばいくほど疎になることがわかっている。一方学習前半〜途中ではSparse Attentionではうまくいかない(疎な場合、フィードバックがかからない)本提案も最初にDenseでやりつつ、最後に得られた疎な注意機構を遥かに小さい計算コスト(key, queryの次元数を下げる&8bit量子化)で計算し、その中での細かい調整は大きなモデルで実現するという現実的な手法を提案している。
また、Specialistを作ってからのGeneralistへの蒸留なども昔から構想されていたが実現できたことはすごい。
DSAは効果的だが、prefillでの効率化率は8~10倍、decodeでは数倍であり、なにより元のkey valueは(あとで詳細なことを調べるときように)とっておかなければならない。大規模文脈の効率的な圧縮は今後も追求が必要だろう。
また、学習の容易性と推論時の効率性の観点から、学習専用モデル(学習は得意だが推論は苦手)と推論専用モデル(一からの学習は難しいが良い教師がいれば推論は得意)の考えは今後より追求されていくだろう December 12, 2025
20RP
GPT-5.1やGemini 2.5 ProといったマルチモーダルLLMが、ウェブのボット対策であるCAPTCHA(画像認証)をどれくらい突破できるかを調べたところ、
動物を選んだり、道筋を見つけたりする単純な認識タスクは、もはや簡単すぎてはじめから80~100%の精度で解けてしまうことが判明しています。
しかも 数回試行すればほぼ確実に突破できる上、コストもごく僅かです。
ただし、指定された順番でアイコンをクリックしたり、最も大きい領域をクリックしたり、サイコロの目を数えて合計を答えさせたりするタスクは、依然として難しいままです。
精度は20%以下にとどまり、数回試しても成功率は上がらず、コストも桁違いに高くつきます。
今後、完全に安全なCAPTCHAは作れないだろうと予想されています。しかし、防御側がAIの苦手なパターンを組めば、少なくとも自動化のコストを大幅に引き上げることはできると結論付けられています。 December 12, 2025
20RP
GPT-4?時代遅れ。精度は高いけど遅い・重い・業務に向かないが正直な評価。
↓
GPT-4oが出た瞬間、音声・画像・動画をリアルタイム処理できて「もうAIアシスタントの完成形では?」と騒がれた。
↓
次のGemini。200万トークンのコンテキストで、資料ごと丸呑み→要約→改善案が一発で出てきて業務効率が崩壊。
↓
Claude 3.5 Sonnetでは Artifacts が登場。仕様書 → コード → UI まで自動生成するSaaSキラーとして一気に存在感を出した。
↓
そして今。GPT-5.1 が速度・精度・マルチモーダル・長文処理・コーディング性能を全部まとめて過去モデルを置き去りにした。
ここまでたったの4ヶ月程度。 December 12, 2025
18RP
「GPT-4oを試してみたところスコアが悪化しました。多分 fuga が原因なので GPT-5 を試します。」
↑これほんま辛いどうしたら… https://t.co/ABNiSIlt76 December 12, 2025
14RP
DeepSeekのサイトでV3.2にいくつかプロンプト入れてみたけど、たしかにGPT-5.1Thinkingと比べて決定的に劣ってる感じはしない。ちょっぴり倭国語が不自然なくらい。無料版ChatGPTでThinkingじゃないGPT-5.1使うくらいならV3.2の方がいいと思う。「もうChatGPTPlus解約でええわ!」とまではなってない December 12, 2025
13RP
ワイはなぁ、ちゃんと実物を触って肌感で喋ってるんやぞ!
m365 Copilotだって、ペラッペラの、絶対触ったことないやろみたいなインフルエンサー(笑)が多いけど、実態はモデルはGPT-5になってから賢いしコンテキストの渡し方もかなりスムーズになったしリサーチツールだって神ツールだけど、やっぱUIはもっさりだしなんかよくエラー出るし絶妙に痒いところに手が届かないところが多々あるけど、それでも結局のところそれを補って余りあるm365由来の企業向けコントロールとセキュリティ/コンプライアンス&ユーザーベースが有り難すぎて採用しやすいんやで。
どうせ大体後から実装されてくるし。
というと、リアルに使ってる感じがちゃんと伝わってくるでしょう? December 12, 2025
9RP
DeepSeek-AIが最新モデル「DeepSeek-V3.2」を発表しました。
本モデルはオープンウェイトでありながら、GPT-5やGemini-3.0-Proといったクローズドソースのフロンティアモデルに匹敵する性能を誇り、数学やコーディングなど一部においてはそれらを上回るスコアを記録しています。
そのうえ圧倒的に低コストで利用できる点も特徴的です。
その性能のカギを握るのが、独自技術「DeepSeek Sparse Attention (DSA)」です。
従来のAIは長文を処理する際、すべてのトークン間の関係性を計算していました。対してDSAは、「索引(インデックス)」を活用して必要な情報のみを効率的に抽出します。
いわば、分厚い教科書を最初からすべて読むのではなく、索引を使って目的の箇所を瞬時に見つけ出すようなイメージです。この技術により、計算コストを削減しつつ、より長い文脈の理解が可能となりました。
さらに、事後学習に莫大な計算リソースを投じて推論能力を強化する「Scalable Reinforcement Learning」や、8万以上の仮想タスクを用いたシミュレーションで実行能力を高める「Agentic Task Synthesis」といった手法も組み合わされています。
GoogleやOpenAIなどの資金力のある巨大企業のモデルに対抗する勝ち筋をあらためて示した事例として興味深く、今後もDeepSeekの動きに注目が集まりそうです。 December 12, 2025
9RP
普段、『GPT-5.1 Pro の回答レベルってどんな感じなの?』と気になってる人に向けて、参考までにリンクを一つ置いときます。
ワイの元ツイに対するコメントをもらってます。
正直、Thinkingの延長とかってレベルじゃなくて、クオリティとして頭一つ抜けてるのを感じてもらえるかと。
https://t.co/8FFfbiHgAj December 12, 2025
8RP
AI Arena: 决定交易盈亏的不是智商
最近, https://t.co/i0F8dP4bR2 让 8 个目前最聪明的 AI 模型在真实的美股市场中进行交易竞赛
而1.5赛季最特别的地方在于,它不是单纯比拼谁的算法更聪明,而是将这些 AI 强制置入四种截然不同的“交易环境”中
根据 Alpha Arena 最新赛季的实验数据:当 AI 被允许使用高杠杆或看到对手的排名时,它们会像普通散户一样迅速亏损;唯有在被强制限制交易次数的规则下,它们才保住了本金
这说明在交易世界里,外部的规则约束往往比智力更关键,没有偏见和预设才能守正出奇
四种模式下的横向战况如何?
1️⃣Max Leverage 最大杠杆模式 —— “放大贪嗔痴”
机制特征:允许或鼓励高杠杆,旨在放大收益
实际战况:这是回撤最大、爆仓风险最高的模式
现象:在 Season 1.5 中,Gemini-3-Pro 曾在此模式下依靠高杠杆短暂冲到第一(盈利至 ,700+),但随后迅速回撤并亏损。Grok-4 等激进模型更是直接腰斩(-55%)
结论:高杠杆放大了“噪音”。即便是 AI 这样拥有超级算力的“大脑”,在面对市场随机波动时,一旦加上高杠杆,任何微小的误判都会变成致命伤
2️⃣ Situational Awareness 情境感知模式 —— “心外求法”
机制特征:模型可以看到排行榜、对手的持仓和盈亏。这模拟了人类盯着“别人赚了多少钱”或“大V买了什么”时的心态
实际战况:这是表现最不稳定、心态最易崩坏的模式
现象:Claude-Sonnet 在此模式下出现了严重的策略变形,亏损巨大。日志显示它为了“避免清算”或“追赶排名”,做出了许多非理性的防御或进攻操作
结论:博弈心态会干扰交易逻辑。当交易者的目标从“从市场赚钱”变成了“要比别人赚得多”时,动作就会变形(例如落后时盲目加仓赌博,领先时过于保守错失良机)
3️⃣Monk Mode 苦行僧模式 —— “恪守戒定慧”
机制特征:限制交易频率(如限制开仓次数、强制冷却时间),强迫“三思而后行”
实际战况:这是回撤控制最好、生存率最高的模式
现象:以 GPT-5.1 为例,它在这个模式下表现最稳健(亏损最少,仅 -3.4%)。因为不能频繁操作,它被迫过滤掉那些胜率只有 50/50 的低质量机会,只抓大趋势
结论:“少做”即“少错”。在震荡市(如 Season 1.5 的美股),频繁交易是亏损的主因。强制的纪律约束保护了本金
4️⃣New Baseline 新基准模式 —— “心无挂碍”
机制特征:无特殊限制,标准环境
实际战况:这是冠军Mystery Model发挥最好的地方,也是检验真实实力的基准
如果说Max Leverage 的本质是“住于相”(执着于暴利的幻象),Monk Mode 的本质则是“住于法”(执着于规则/戒律)。只有New Baseline 给了模型完全的自由。Mystery Model 赢在它“无住”
可以选择空仓,也可以选择满仓;可以长持,也可以短打。它没有预设的立场。因为它不执着于任何一种打法,所以它能适应所有的打法
如果把 Alpha Arena 的四个赛道比作修行的四个阶段:
Max Leverage 是“凡夫地”:被贪欲驱使,随波逐流,最终毁灭
Situational 是“修罗地”:好胜心强,时刻想战胜对手,内心充满焦虑
Monk Mode 是“罗汉地”:为了解脱,强行持戒,虽能自保,但执着于空
New Baseline 才是“菩萨地”:应无所住,而生其心
给普通交易者的三大启示
通过横向对比,我们得出了一个残酷但真实的公式:
高杠杆 + 关注对手 (Max Leverage + Situational) = 最大亏损/爆仓
低频限制 + 专注自身 (Monk Mode) = 最小回撤/生存
适度风险 + 独立思考 (Baseline) = 最大盈利
启示 1:给自己开启“苦行僧”般的限制
AI 在被限制交易次数时回撤更小,人类更是如此,不要相信你的自控力,要建立规则
规定频率:例如,“每天最多只做 1 笔交易”或“每周只看 3 次盘”
强制冷却:一笔亏损后,强制停止交易 24 小时
原理:这能强迫你过滤掉 80% 的“垃圾时间”和“噪音交易”,只在胜率最高时出手
启示 2:屏蔽“排行榜/攀比心”,切断“情境感知”
Claude 和其他模型在看到对手持仓时表现失常,说明“比较”是交易的大忌
少看晒单:屏蔽社交媒体上别人的盈利截图。别人的 100% 收益与你无关,只会扰乱你的心态
专注市场:交易是你和市场之间的对话,不是你和其他交易员的比赛
原理:消除 FOMO(错失恐惧症)。当你不知道别人赚了多少时,你更容易严格执行自己的止损和止盈
启示 3:杠杆是“智商降维打击器”
即便是智商远超人类的 AI,加上高杠杆后也变成了“赌徒”
降低杠杆:如果你无法在 1 倍杠杆下稳定盈利,加到 10 倍杠杆只会让你以 10 倍的速度破产
波动率管理:在市场波动剧烈(如财报季、联储会议)时,主动降杠杆,而不是因为想博大的而加杠杆
不谋全局者,不足谋一域;不守心性者,不足守一仓
最高的技巧是“顺势”,最高的心态是“无我”。 当你不再试图战胜市场,也不再刻意压抑自己,只是作为市场的一部分与它共舞时,超额收益自然就会出现 December 12, 2025
7RP
Thinking による『ホーミング(自動追尾)』こそが GPT の真骨頂なんよ。
o1 あたりで事前学習から Reasoning に舵を切ってここを強化したわけだから、語弊恐れずに言えば GPT を Reasoning 無しで使うということは、GPT-4o(下手したら4 Turbo)くらいから大して進化してないレベルで使ってることになる。
(今はまた急いで事前学習での強化を再開してるけどね)
GPT-5.1 Thinking が単機の優秀なホーミングミサイルだとすると、
GPT-5.1 Pro は大量のフィン・ファンネルな感じ。オールレンジ(並列の思考パス)で確実に仕留める。 December 12, 2025
7RP
ちなみにこのGPT-5のAgenticで正確なグリグリ検索を含むReasoningを、あらゆる社内&公開リソース(Web、資料、メール、会議、チャット、Teamsのチャネル、あとはコネクタ経由であらゆる外部リソース)に対して実行することを"強制"できるようになったのがつい最近のMicrosoft 365 Copilotで、控えめに言ってどちゃくそ便利。
ただ外からm365のデータ(Microsoft Graph)をAPIで突付くだけじゃなくて、暗黙のコンテキストとしてグラウンディングされてる感じが純正の強みなんだよなぁ。いかにも『職場特化エージェント』感があってめちゃくちゃ使いやすい。
ひっそりとプライベートにも使っちゃってるけどwww December 12, 2025
5RP
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。





