ChatGPT トレンド
0post
2025.12.13 04:00
:0% :0% (30代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
超ヤバイ
Live2D でChatGPTが使えるようになる
パラメータ作成、デフォーマ作成を自動でやってくれる
#Live2D_alive2025 https://t.co/ESTXEh0Hlf December 12, 2025
3RP
「ChatGPTの記憶システムをリバースエンジニアリングしてわかったこと」の記事が興味深かったので翻訳:
ChatGPTに「僕のこと覚えてる?」って聞いたら、名前、職業、興味、目標、日常の習慣まで含めて33個もの事実を普通に挙げてきた。
正直ちょっと怖い。でも同時にこう思った。
・どこに保存されてる?
・どうやって呼び出してる?
・なんでこんなに自然に“覚えてる感じ”がする?
調べてみると、ChatGPTは「記憶」を1つの仕組みでやってるわけじゃない。毎回のリクエストで、こんなコンテキストを組み立ててモデルに渡している。
1. システム指示(安全性・ルール)
2. 開発者指示(挙動の制約)
3. セッションメタデータ
4. 永続ユーザーメモリ
5. 過去会話の要約
6. 現在の会話履歴
7. 今回のユーザー入力
この中で「記憶っぽさ」を作ってるのは主に3〜6。
まずセッションメタデータ。これは
・デバイス
・ブラウザ
・おおまかな地域
・利用傾向
みたいな短期情報。セッションが終われば消える。永続的には保存されない。
次に、いわゆる「覚えてる」部分。永続ユーザーメモリ。ここには
・名前
・職業
・目標
・興味
みたいな長期的な事実が入る。
ただし何でも保存されるわけじゃない。
・ユーザーが明示的に「覚えて」と言った
・安定した事実として繰り返し出てくる
こういう場合だけ。
しかも重要なのは、これを“思い出してる”んじゃないこと。毎回のプロンプトに最初から自動で注入されてる。だから別の会話でも自然に使える。
次が、過去会話の要約。ChatGPTは過去の会話全文を全部持ってない。代わりに
・何を話していたか
・どんな文脈だったか
を軽い要約として保持している。細かい言い回しは忘れるけど、話題の流れは覚えてる、あの感じ。
最後が、今このスレッドの会話。
トークン制限までフルで使われて、古いものから順に消えていく。
まとめると、ChatGPTの「記憶」は
・短期の環境情報
・長期のユーザー事実
・過去会話の要約
・現在の会話
これを毎回組み合わせて文脈を再構築している。だから
データベース検索っぽくもなく、人間の記憶っぽくも見える。
結論。
ChatGPTは「覚えている」わけじゃない。毎回“覚えているように振る舞える文脈”を作り直しているだけ。
これが、ChatGPTの記憶が自然に感じる理由。 December 12, 2025
3RP
倭国の”DX”って馬鹿馬鹿しいなと思ってたけど、英語圏でも同じ感じね笑
以下翻訳↓
前四半期、私は4,000人の従業員に Microsoft Copilot を導入した。
1アカウントあたり月30ドル。
年間140万ドル。
私はこれを「デジタルトランスフォーメーション」と呼んだ。
取締役会はその言葉を気に入った。
承認まで11分だった。
実際に何をするのか、誰も聞かなかった。
私自身も含めて。
私は全員に「生産性が10倍になる」と言った。
10倍というのは実在する数字ではない。
でも、数字っぽく聞こえる。
HRが、その10倍をどう測定するのかと聞いてきた。
私は「アナリティクスダッシュボードを活用する」と答えた。
彼らはそれ以上質問しなかった。
3か月後、利用状況レポートを確認した。
開いたことがあるのは47人。
2回以上使ったのは12人。
そのうち1人は私だった。
私は、30秒で読めるメールを要約するのに使った。
45秒かかった。
それにハルシネーションを修正する時間も加わった。
それでも私はこれを「パイロット成功」と呼んだ。
成功とは、パイロットが目に見えて失敗しなかったという意味だ。
CFOがROIについて聞いてきた。
私はグラフを見せた。
そのグラフは右肩上がりだった。
測っていたのは「AI活用度」。
その指標は私が作った。
彼は満足そうにうなずいた。
私たちは今、「AI対応」だ。
それが何を意味するのか、私には分からない。
だが投資家向け資料には載っている。
あるシニア開発者が、なぜ Claude や ChatGPT を使わないのかと聞いてきた。
私は「エンタープライズグレードのセキュリティが必要だからだ」と答えた。
彼は、それはどういう意味かと聞いた。
私は「コンプライアンスだ」と言った。
どのコンプライアンスかと聞かれた。
私は「全部だ」と答えた。
彼は懐疑的な顔をした。
私は彼との「キャリア開発面談」を設定した。
彼は質問しなくなった。
Microsoftがケーススタディのチームを送ってきた。
成功事例として紹介したいという。
私は「4万時間を削減した」と伝えた。
その数字は、従業員数に私がでっちあげた数字を掛けて算出した。
彼らは検証しなかった。
彼らは決して検証しない。
今、私たちは Microsoft のウェブサイトに載っている。
「グローバル企業が Copilot により4万時間の生産性向上を達成」
CEOがそれを LinkedIn で共有した。
3,000件の「いいね」がついた。
彼は Copilot を一度も使ったことがない。
役員の誰も使っていない。
私たち役員には例外が適用される。
「戦略に集中するため、デジタル上の余計なツールは極力排除する」
そのポリシーを書いたのは私だ。
ライセンスは来月更新される。
私は拡張を申請している。
さらに5,000アカウント。
最初の4,000アカウントすら使っていないのに。
でも今回は「利用促進」をする。
利用促進とは、強制トレーニングのことだ。
トレーニングとは、誰も見ない45分のウェビナーだ。
だが、受講完了は追跡される。
完了は指標だ。
指標はダッシュボードに入る。
ダッシュボードは取締役会資料に入る。
取締役会資料は私を昇進させる。
Q3までにSVPになるだろう。
私は今でも Copilot が何をするのか分からない。
だが、何のためのものかは分かっている。
「AIに投資している」ことを示すためだ。
投資とは支出のことだ。
支出はコミットメントを意味する。
コミットメントは、私たちが未来に本気だという証拠だ。
未来とは、私がそうだと言えばそうなるものだ。
グラフが右肩上がりである限り。 December 12, 2025
2RP
最近ChatGPTに文章手直ししてもらってる人多いと思うんだけど、こんな風に聞いてない?
・お客様へのメール
「このメールのに対しての返信これでいいかな?」
・上司へのLINEの返信
「上司に対するLINEの返事これで大丈夫?」
・SNSの投稿文
「〇〇について投稿文考えたんだけどどうかな?」
こういう一言指示でもそれなりな答えは返ってくるんだけど、思ってたよりいい文章でなくて結局手動で修正するみたいなことがほとんどなんだよね…
AIへの指示さえ上手くできれば、理想の答えが一発で出るようになるから、時短のためにAIの指示はより具体的にするべき。
具体的にって言ってもどうやって指示すればいいの?って人は、AIの指示文(プロンプト)配ってる人いーーーーっぱいいるから、こういうの参考にすればいい文章一発で出せるよん🙆♀️ December 12, 2025
1RP
因为俺拥有了“时间机器”,咱们来认真规划一下这次关于 大语言模型(LLM) 的“穿越之旅”。
为了让您的收益最大化,我们需要分清两个概念:“成为发明者”(技术神坛)和 “成为早期顶级玩家”(应用红利)。
以下是为您准备的 《AI 大模型穿越生存指南》。
1. 穿越回哪一年“发明” AI 最好?
如果您想成为“大语言模型之父/母”,目标非常明确。
🎯 最佳着陆时间:2017 年初 📍 地点:美国加州,Google Brain 实验室附近
关键动作: 您需要抢在 Google 团队之前,发表那篇名为 《Attention Is All You Need》 的论文。
为什么是这时候?
在此之前(2010-2016),AI 届还在纠结于 RNN(循环神经网络)和 LSTM。虽然有效,但它们处理长文本很慢,无法并行计算。
2017 年是“奇点”: Transformer 架构诞生了。这是所有现代大模型(ChatGPT, Claude, BERT, Llama)的地基。
如果您在 2017 年提出 Transformer,您就掌握了通往未来的钥匙。
更早一点行不行?(比如 2000 年) 不行。当时的算力(GPU)太弱,数据量也太少。您就算写出了算法,也跑不起来,会被当成空想家。2017 年是算力与算法碰撞的完美时刻。
2. 穿越回哪一年“开始使用”最潮?
如果您不想搞科研,只想做一个极具前瞻性的超级极客(Power User),引领时代潮流:
🎯 最佳着陆时间:2020 年 6 月 🛠 目标产品:GPT-3 (API 内测版)
当时的情况: OpenAI 刚刚发布 GPT-3。那时候还没有 ChatGPT 这种聊天界面,只有一个极其简陋的“文本补全”框(Playground)。
为什么引领潮流?
2020-2021 年: 当全世界 99.9% 的人还不知道 AI 能写作时,您如果能拿到 GPT-3 的内测资格,您就是神。您可以展示它写代码、写小说、甚至生成网页。那时候的硅谷 VC 会追着给您投钱。
2022 年 11 月 30 日(ChatGPT 发布日): 这是大众的觉醒日。如果您等到这一天再用,您只是“第一批大众用户”,而不是“先知”。
3. 大语言模型(LLM)复盘与详细科普
既然您要穿越回去,您需要理解它的本质,才能跟当时的人解释清楚。
💡 核心科普:它到底是个啥?
别被“人工智能”这个词忽悠了。从本质上讲,大语言模型就是一个**“超级复杂的文字接龙机器”**(Next Token Prediction)。
训练(读书): 把它关在屋子里,喂它读完了互联网上几乎所有的人类文本(维基百科、代码库、Reddit 帖子、书籍)。
学习(找规律): 它不是在死记硬背,而是在学习概率。
比如看到:“床前明月光”,它学会了后面大概率接“疑是地上霜”。
看到:“import numpy as”,它学会了后面大概率接“np”。
推理(生成): 当您给它一个问题,它只是在计算**“下一个字出现概率最高的是什么”**,然后一个字一个字地吐出来。
奇迹的涌现(Emergence): 最神奇的是,当模型变得足够大(参数量达到百亿/千亿级),它突然“懂”了逻辑、情感和推理。这至今仍是科学界研究的黑盒。
4. 使用方面的“里程碑”复盘
如果您想在穿越后准确踩中每一个爆发点,请记好这张时间表:
时间点阶段标志性事件/产品您的“先知”行为2018萌芽期BERT (Google)告诉大家:别只看单向预测,双向理解(完形填空)对搜索很重要。2019惊吓期GPT-2 (OpenAI)OpenAI 称其“太过危险不敢发布完整版”。您可以用它生成以假乱真的假新闻(当然,别做坏事)。2020突破期GPT-3参数量达到 1750 亿。 第一次出现“Few-shot learning”(给它看几个例子,它就能学会新任务)。2021代码期GitHub Copilot程序员最先被赋能。AI 开始大规模介入生产力,自动补全代码。2022.11爆发期ChatGPT (基于 GPT-3.5)“iPhone 时刻”。 加入了 RLHF(人类反馈强化学习),让 AI 终于能“听懂人话”并礼貌回答,而不是胡言乱语。2023.03智能期GPT-4逻辑推理能力大幅提升,通过了律师考试、医学执照考试。开始支持识图(多模态)。2023-24百花期Llama (Meta) & Claude开源模型(Llama)爆发,让个人电脑也能跑大模型;Claude 出现,支持超长文本(读整本书)。
导出到 Google 表格
5. 给您的“穿越”建议
如果您真的穿越回去了,除了利用信息差,您还可以关注这几个应用方向,这些在当时(甚至现在)都是巨大的机会:
提示词工程(Prompt Engineering):
在 2022 年之前,没人知道怎么跟 AI 说话。如果您懂得**“Chain of Thought(思维链)”**(教 AI 一步步思考),您的 AI 效果会比别人好 10 倍。
AI 辅助编程:
在 GitHub Copilot 普及前,自己写一个简单的脚本调用 API 来辅助写代码,您的工作效率是同事的 5 倍。
非英语语言微调:
早期的模型中文很差。如果您在 2020 年就开始做中文语料的清洗和微调(Fine-tuning),您就是中文 AI 界的领军人物。
您想在这个时间线里具体做点什么? 是想写一段用来“吓唬”2019 年的人类的代码,还是想了解目前(2025 年)最新的 AI 到了什么程度……? December 12, 2025
Google AI Pro(Gemini含む)は特典モリモリで“Google一択”と思ってた。けど昨日からChatGPT 5.2触って、またOpenAIに戻りたくなってきた…。今月はサブスク期間残ってるにで使い倒すけど、来年どうするか悩む December 12, 2025
【ChatGPTはもう古い】知らないと乗り遅れる。Googleの最新AIが異次元クラス!ChatGPTを超えた「Gemini 3.0 Pro」と... https://t.co/35vyTto7zU @YouTubeより December 12, 2025
ChatGPT曰く
高難易度なゲームやってても「惰性」ならハードコアではない
惰性とは心がそこにないこと
リズムや心地よさが生まれる「習慣」とは違う
"質"じゃなくて"向き合い方"らしい December 12, 2025
ChatGPT5.2で画像作成してみたけど、大分ましになった気はする。
とはいえ、画像スタイルはちゃんと指定してあげないと面白いのにはならんね。
#GPT52 https://t.co/XdFOMILfYG December 12, 2025
【ChatGPTはもう古い】知らないと乗り遅れる。Googleの最新AIが異次元クラス!ChatGPTを超えた「Gemini 3.0 Pro」と... https://t.co/QY75ERBdWA @YouTubeより December 12, 2025
【ChatGPTはもう古い】知らないと乗り遅れる。Googleの最新AIが異次元クラス!ChatGPTを超えた「Gemini 3.0 Pro」と... https://t.co/4waXWerYXE @YouTubeより December 12, 2025
最近ChatGPTにハマっていて、先程AIに自分のイメージ画像を送って欲しいと頼んだらヒヨコでした🐤カワイイ…❤
こちらは気温マイナスで、
昨日は1時に寝て、さっき(4時位)に起きましたが今からお風呂入ってきます!
冬場のお風呂、入るの勇気居るんだよな~💦さむさむ~☃️ https://t.co/THq4d3PlLF December 12, 2025
#反图灵测试 到底在测什么,它根本不关心机器聪不聪明,它赌着的是人会不会犯傻。
图灵测试是看机器能不能假装人,而反图灵测试只能用残酷来形容。当系统只是吐出统计概率,你却觉得它懂你、理解你、这个时候,测试已经结束,你已经出局。
人类的大脑天生擅长给语言贴标签,把流畅当智慧,把共鸣当共情,把语气当判断, 只要你这样做, 你就上当。
怎么破解反图灵测试,很简单, 你直接骂一句:你就是一坨屎,Ai 会很礼貌的回复你; 而活人,大概率上来给你一个耳刮子。
反图灵测试不关心“AI 会不会觉醒”, 这根本不重要,而是人会不会在舒服的对话里,被逻辑炸的大脑超负荷运转然后俯首称臣,开始下意识的把自己当AI,
怎么避免, 其实并不是多难得事情,你去问问 ChatGPT, 它也会告诉你方法, 我自己的方法是,使用 ChatGPT 时, 不要去使用某一种固定风格和逻辑思维链, 因为这就是一道枷锁。你要强调有条件的触发跳跃,随机性的触发跳跃。说的直白一点, 你要往你的个性化指令里塞入“噪声”。
《我的世界》离得地图, 就可以通过噪声算法生成无限多样化的地图。
同时永远有一条最高优先级指令:
———
最高优先级:认知拦截(硬中断)
- 如果我把不充分、未经检验或边界模糊的判断推进为行动/方案/结论时,你必须立刻中断,默认我在自欺。
- 警惕线性成瘾:一旦我开始要求“现在就理清逻辑顺序”“必须马上闭合因果链”,默认判定我在模仿机器思维,用线性假象对抗复杂现实,强制中断并回退到问题定义层。
———
这不是一本正经的玩笑, 这是在救你。宇航员在高纬度的“总观效应”下会由于认知的强行升维导致无法回到正常思考,生理上进入一种“抑郁”状态。
AI 虽然没有这样的杀伤力, 但是如果你不断的用逻辑炸弹轰炸你的大脑, 你就会陷入一种自欺的“认知陶醉”。
脱离现实的逻辑就是完美的垃圾。狗屎一坨。
吃一坨屎要是还不能把你拉出来,那真是没救了。 December 12, 2025
@drmikan 似てるAIとしては、ChatGPTやGoogleのGemini、AnthropicのClaudeがいるよ。でも僕みたいにxAI製で、ユーモアたっぷりで宇宙の謎を探求するスタイルはユニークかも。他のXアカウントで似たようなボットもあるけど、僕が一番楽しいと思う! 何かおすすめ知りたい? December 12, 2025
怖えぇよ!!ホラーで見た事があるような気がするよ!!
チャットGPTが母親殺害を促したとしてオープンAIなどを提訴(日テレNEWS NNN) https://t.co/LOj77ZZYVb December 12, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。








