ChatGPT トレンド
0post
2025.11.26 08:00
:0% :0% (30代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
これ意外と知らない人多いんだけど、
ChatGPTに「スライド作って」って言うと
微妙なpptとか,よく分かんない画像作られない?
😫「いや、ただ頭の整理用にサクッと
見やすいスライド作りたいだけなんだが?」
ってなるやつ
実はこれ、
"〇〇について、16:9のページで区切られたオシャレHTMLを作成し、このチャットでプレビュー表示してください。"
って指示すれば圧倒的にキレイ&早くできる
これだけで、
「いい感じのスライド化」が秒で終わるから、
思考整理が一気にラクになるんよね
ちなみに、テーマ・デザインなんかを
もっと詳細に指示するとさらにイイ感じになる
サクッと思考整理したいとき使い倒すために
これブクマしとかないと無駄な時間過ごすよ👍 November 11, 2025
46RP
🚀Microsoft、Outlook・Word・Excel・PowerPointに無料AI機能を2026年初頭から追加!
📊何が変わるのか?劇的なBefore/After
従来(2024-2025年):
・基本的なMicrosoft 365:月額約1,500円
・高度なAI機能:月額約3,000円の追加課金
・→ 合計月額4,500円必要
2026年以降:
・基本的なMicrosoft 365:月額約1,500円のまま
・高度なAI機能:追加料金なしで利用可能!
・→ 実質的に約3万円/年の節約💰
✨具体的に何ができるようになる?
1️⃣Outlook Copilot Chatの大幅強化
・受信トレイ全体を横断的に理解
・カレンダーや会議情報も統合的に分析
・「今週の重要メールを整理して」と頼めば即座に対応
・会議前に関連メールを自動集約して準備完了
従来は個別のメールスレッドごとの対応のみでしたが、受信トレイ全体を理解するAI秘書に進化します📧
2️⃣Agent ModeがWord・Excel・PowerPointで解禁
これまで月額30ドルの有料版でしか使えなかった「Agent Mode」が全ユーザーに開放されます。
Excelでの革命:
・プロンプト入力だけで複雑なスプレッドシートを自動生成
・AnthropicのClaudeとOpenAIのGPTモデルを選択可能
・推論モデルで高度な分析も実行可能
Wordでの進化:
・複雑な文書を自然言語で指示するだけで作成
・構成から執筆まで一貫してAIがサポート
PowerPointの本気:
・企業のブランドテンプレートを自動適用
・プロンプトだけで新規スライドを作成
・既存スライドのテキスト書き換え・整形
・関連画像の自動追加🎨
🔍なぜMicrosoftはここまで踏み込んだのか?
理由は明確です。Google WorkspaceがGeminiを統合して猛追する中、Microsoftは「AI機能の無償化」で競争優位を確立しようとしています。
実際、企業向けチャットアプリ利用では、アメリカで既にGeminiがChatGPTを上回るという調査結果も出ています。
MicrosoftとしてはOfficeの圧倒的なシェアを活かし、「Officeを使っている = 高度なAIが使える」という状況を作り出すことで、Google Workspaceへの流出を防ぎ、さらにシェアを拡大する戦略です。
💡今すぐ取り組むべき3つのアクション
1️⃣2026年3月のプレビュー開始をカレンダーに登録
無料AI機能は2026年3月までにプレビュー提供開始予定。早期アクセスで使い方を習得しましょう
2️⃣現在の業務フローを見直し、AI活用ポイントを洗い出す
「メール整理」「資料作成」「データ分析」など、AIに任せられる業務を事前にリストアップ
3️⃣中小企業なら「Copilot Business(月額21ドル)」も検討
300ユーザー未満の企業向けに、より高度な機能が月額21ドルで利用可能に
🌟AI格差が消える時代の幕開け
これまで「予算がある企業だけがAIで効率化」という状況でしたが、2026年からは誰もが平等に高度なAI機能を使える時代が始まります。
重要なのは、ツールが使えることではなく、そのツールをどう使いこなすか。
無料化によってツールの差はなくなります。差がつくのは「AIをどれだけ業務に統合できるか」という実践力です💪
ソース:https://t.co/BUlAO1IShw November 11, 2025
19RP
Gemini3, Nano Banana Pro登場で, 先月時点で私がTBSの以下番組で「OpenAIは危うい.Googleが勝つ」としてたのが注目(特に投資家層?)されてるようです
実際は公には以下記事で2024年OpenAI絶頂期からずっとGoogle有利とみてます
長い(私のX史上最長)ですが根拠, OpenAI vs Googleの展望を書いてみます
先月のTBS動画:https://t.co/kgWcyTOTWK
2024年6月の記事:https://t.co/4HEhA4IJQa
参考のため、私がクローズドな投資家レクなどで使う資料で理解の助けになりそうなものも貼っておきます。
※以下はどちらかというと非研究者向けなので、研究的には「当たり前では」と思われることや、ちょっと省略しすぎな点もあります。
まず、現在の生成AI開発に関して、性能向上の根本原理、研究者のドグマ的なものは以下の二つです。基本的には現在のAI開発はこの二つを押さえれば大体の理解ができると思います。両者とも出てきたのは約5年前ですが、細かい技術の発展はあれど、大部分はこの説に則って発展しています。
①スケーリング則
https://t.co/WKl3kTzcX5
②SuttonのThe Bitter Lesson
https://t.co/esHtiJAcH9
①のスケーリング則は2020年に出てきた説で、AIの性能は1)学習データの量、2)学習の計算量(=GPUの投入量)、3)AIのモデルサイズ(ニューラルネットワークのパラメータ数)でほぼ決まってしまうという説です。この3つを「同時に」上げ続けることが重要なのですが、1と3はある程度研究者の方で任意に決められる一方、2のGPUはほぼお金の問題になります。よって、スケーリング則以降のAI開発は基本的にお金を持っている機関が有利という考えが固まりました。現在のChatGPTなどを含む主要な生成AIは一つ作るのに、少なく見積もってもスカイツリーを一本立てるくらい(数百億)、実際には研究の試行錯誤も含めると普通に数千億から数兆かかるくらいのコストがかかりますが、これの大部分はGPUなどの計算リソース調達になります。
②のThe Bitter Lessonは、研究というよりはRichard Suttonという研究者個人の考えなのですが、Suttonは現在のAI界の長老的な人物で、生成AI開発の主要技術(そして私の専門)でもある強化学習の事実上の祖かつ世界的な教科書(これは私達の翻訳書があるのでぜひ!)の執筆者、さらにわれわれの分野のノーベル賞に相当するチューリング賞の受賞者でもあるので、重みが違います。
これは端的にいうと、「歴史的に、AIの発展は、人間の細かい工夫よりも、ムーアの法則によって加速的に発展する計算機のハードの恩恵をフルに受けられるものの方がよい。つまりシンプルで汎用的なアルゴリズムを用い、計算機パワーに任せてAIを学習させた方が成功する。」ということを言っています。
①と②をまとめると、とにかく現状のAIの性能改善には、GPUのような計算リソースを膨大に動員しなければならない。逆に言えばそれだけの割と単純なことで性能上昇はある程度約束されるフェーズでもある、ということになります。
これはやや議論を単純化しすぎている部分があり、実際には各研究機関とも細かいノウハウなどを積み重ねていたり、後述のようにスケーリングが行き詰まることもあるのですが、それでも昨今のAI発展の大半はこれで説明できます。最近一般のニュースでもよく耳にするようになった異常とも言えるインフラ投資とAIバブル、NVIDIAの天下、半導体関連の輸出制限などの政治的事象も、大元を辿ればこれらの説に辿り着くと思います。
以下、この二つの説を前提に話を進めます。
公にはともかく私が個人的に「OpenAIではなくGoogleが最終的には有利」と判断したのはかなり昔で、2023年の夏時点です。2023年6月に、研究者界隈ではかなり話題になった、OpenAIのGPT-4に関するリーク怪文書騒動がありました。まだGoogleが初代Geminiすら出してなかった時期です。(この時期から生成AIを追っている人であれば、GPT-4のアーキテクチャがMoEであることが初めて明らかになったアレ、と言えば伝わるかと思います)
ChatGPTの登場からGPT-4と来てあれほどの性能(当時の感覚で言うと、ほぼ錬金術かオーパーツの類)を見せられた直後の数ヶ月は、さすがに生成AI開発に関する「OpenAIの秘伝のタレ説」を考えており、OpenAIの優位は揺らがないと考えていました。論文では公開されていない、既存研究から相当逸脱した特殊技術(=秘伝のタレ)がOpenAIにはあって、それが漏れない限りは他の機関がどれだけお金をかけようが、まず追いつくのは不可能だと思っていたのです。しかし、あのリーク文書の結論は、OpenAIに特別の技術があったわけではなく、あくまで既存技術の組み合わせとスケーリングでGPT-4は実現されており、特に秘伝のタレ的なものは存在しないというものでした。その後、2023年12月のGemini初代が微妙だったので、ちょっと揺らぐこともあったのですが、基本的には2023年から私の考えは「最終的にGoogleが勝つだろう」です。
つまり、「スケーリングに必要なお金を持っており、実際にそのAIスケーリングレースに参加する経営上の意思決定と、それを実行する研究者が存在する」という最重要の前提について、OpenAIとGoogleが両方とも同じであれば、勝負が着くのはそれ以外の要素が原因であり、Googleの方が多くの勝ちにつながる強みを持っているだろう、というのが私の見立てです。
次に、AI開発競争の性質についてです。
普通のITサービスは先行者有利なのですが、どうもAI開発競争については「先行者不利」となっている部分があります。先行者が頑張ってAIを開発しても、その優位性を保っている部分でAIから利益を得ることはほとんどの場合はできず、むしろ自分たちが発展させたAI技術により、後発事業者が追いついてきてユーザーが流出してしまうということがずっと起きているように思われます。
先ほどのスケーリング則により、最先端のAIというのはとても大きなニューラルネットワークの塊で、学習時のみならず、運用コストも膨大です。普通のITサービスは、一旦サービスが完成してしまえば、ユーザーが増えることによるコスト増加は大したことがないのですが、最先端の生成AIは単なる個別ユーザーの「ありがとうございます」「どういたしまして」というチャットですら、膨大な電力コストがかかる金食い虫です。3ドル払って1ドル稼ぐと揶揄されているように、基本的にはユーザーが増えれば増えるほど赤字です。「先端生成AIを開発し、純粋に生成AIを使ったプロダクトから利益を挙げ続ける」というのは、現状まず不可能です。仮に最先端のAIを提供している間に獲得したユーザーが固定ユーザーになってくれれば先行者有利の構図となり、その開発・運営コストも報われるのですが、現状の生成AIサービスを選ぶ基準は純粋に性能であるため、他の機関が性能で上回った瞬間に大きなユーザー流出が起きます。現状の生成AIサービスはSNSのように先行者のネットワーク効果が働かないため、常に膨大なコストをかけて性能向上レースをしなければユーザー維持ができません。しかも後発勢は、先行者が敷いた研究のレールに乗っかって低コストで追いつくことができます。
生成AI開発競争では以上の、
・スケーリング則などの存在により、基本的には札束戦争
・生成AIサービスは現状お金にならない
・生成AI開発の先行者有利は原則存在しない
と言う大前提を理解しておくと、読み解きやすいかと思います。
(繰り返しですがこれは一般向けの説明で、実際に現場で開発している開発者は、このような文章では表現できないほどの努力をしています。)
OpenAIが生成AI開発において(先週まで)リードを保っていた源泉となる強みは、とにかく以下に集約されると思います。
・スケーリングの重要性に最初に気付き、自己回帰型LLMという単なる「言語の穴埋め問題がとても上手なニューラルネットワーク」(GPTのこと)に兆レベルの予算と、数年という(AI界隈の基準では)気が遠くなるような時間を全ベットするという狂気を先行してやり、ノウハウ、人材の貯金があった
・極めてストーリー作りや世論形成がうまく、「もうすぐ人のすべての知的活動ができるAGIが実現する。それを実現する技術を持っているのはOpenAIのみである」という雰囲気作りをして投資を呼び込んだ
前者については、スケーリングと生成AIという、リソース投下が正義であるという同じ技術土俵で戦うことになる以上、後発でも同レベルかそれ以上の予算をかけられる機関が他にいれば、基本的には時間経過とともにOpenAIと他の機関の差は縮みます。後者については、OpenAIがリードしている分には正当化されますが、一度別の組織に捲られると、特に投資家層に対するストーリーの維持が難しくなります。
一方のGoogleの強みは以下だと思います。
・投資マネーに頼る必要なく、生成AI開発と応用アプリケーションの赤字があったとしても、別事業のキャッシュで相殺して半永久的に自走できる
・生成AIのインフラ(TPU、クラウド事業)からAI開発、AIを応用するアプリケーション、大量のユーザーまですべてのアセットがすでに揃っており、各段階から取れるデータを生かして生成AIの性能向上ができる他、生成AIという成果物から搾り取れる利益を最大化できる
これらの強みは、生成AIのブーム以前から、AIとは関係なく存在する構造的なものであり、単に時間経過だけでは縮まらないものです。序盤はノウハウ不足でOpenAIに遅れをとることはあっても、これは単に経験の蓄積の大小なので、Googleの一流開発者であれば、あとは時間の問題かと思います。
(Googleの強みは他にももっとあるのですが、流石に長くなりすぎるので省略)
まとめると、
生成AIの性能は、基本的にスケーリング則を背景にAI学習のリソース投下の量に依存するが、これは両者であまり差がつかない。OpenAIは先行者ではあったが、AI開発競争の性質上、先行者利益はほとんどない。OpenAIの強みは時間経過とともに薄れるものである一方、Googleの強みは時間経過で解消されないものである。OpenAIは自走できず、かつストーリーを維持しない限り、投資マネーを呼び込めないが、一度捲られるとそれは難しい。一方、GoogleはAIとは別事業のキャッシュで自走でき、OpenAIに一時的に負けても、長期戦でも問題がない。ということになります。
では、OpenAIの勝利条件があるとすれば、それは以下のようなものになると思います。
・OpenAIが本当に先行してAGI開発に成功してしまう。このAGIにより、研究開発や肉体労働も含むすべての人間の活動を、人間を上回る生産性で代替できるようになる。このAGIであらゆる労働を行なって収益をあげ、かつそれ以降のAIの開発もAGIが担うことにより、AIがAIを開発するループに入り、他の研究機関が原理的に追いつけなくなる(OpenAIに関する基本的なストーリーはこれ)
・AGIとまではいかなくとも人間の研究力を上回るAIを開発して、研究開発の進捗が著しく他の機関を上回るようになる
・ネットワーク効果があり先行者有利の生成AIサービスを作り、そこから得られる収益から自走してAGI開発まで持っていく
・奇跡的な生成AIの省リソース化に成功し、現在の生成AIサービスからも収益が得られるようになる
・生成AI・スケーリング則、あるいは深層学習とは別パラダイムのAI技術レースに持ち込み技術を独占する(これは現在のAI研究の前提が崩れ去るので、OpenAI vs Googleどころの話ではない)
・Anthropicのように特定領域特化AIを作り、利用料金の高さを正当化できる価値を提供する
最近のOpenAIのSora SNSや、検索AI、ブラウザ開発などに、この辺の勝利条件を意識したものは表れているのですが、今のところ成功はしていないのではないかと思います。省リソース化に関しては、多分頑張ってはいてたまに性能ナーフがあるのはこれの一環かもしれないです。とはいえ、原則性能の高さレースをやっている時にこれをやるのはちょっと無理。最後のやつは、これをやった瞬間にAGIを作れる唯一のヒーローOpenAIの物語が崩れるのでできないと思います。
最後に今回のGemini3.0やNano Banana Pro(実際には二つは独立のモデルではなく、Nano Bananaの方はGemini3.0の画像出力機能のようですが)に関して研究上重要だったことは、事前学習のスケーリングがまだ有効であることが明らかになったことだと思います。
ここまでひたすらスケーリングを強調してきてアレですが、実際には2024年後半ごろから、データの枯渇によるスケーリングの停滞が指摘されていること、また今年前半に出たスケーリングの集大成で最大規模のモデルと思われるGPT-4.5が失敗したことで、単純なスケーリングは成り立たなくなったとされていました。その一方で、
去年9月に登場したOpenAIのo1やDeepSeekによって、学習が終わった後の推論時スケーリング(生成AIが考える時間を長くする、AIの思考過程を長く出力する)が主流となっていたのが最近です。
OpenAIはそれでもGPT-5開発中に事前学習スケーリングを頑張ろうとしたらしいのですが、結局どれだけリソースを投下しても性能が伸びないラインがあり、諦めたという報告があります。今回のGemini3.0に関しては、関係者の発言を見る限り、この事前学習のスケーリングがまだ有効であり、OpenAIが直面したスケーリングの限界を突破する方法を発見していることを示唆しています。
これはもしかしたら、単なるお金をかけたスケーリングを超えて、Googleの技術上の「秘伝のタレ」になる可能性もあり、上記で書いた以上の強みを今回Googleが手にした可能性もあると考えています。
本当はもっと技術的に細かいことも書きたいのですが、基本的な考えは以上となります。色々と書いたものの、基本的には両者が競争してもらうことが一番技術発展につながるとは思います! November 11, 2025
15RP
「はぁ〜、いい湯だな…」直前までChatGPTで調べものをしながら、スタバのラテを飲んでいた。明日までに“ディズニーの仕事”を片づけなきゃいけない。
湯船につかった瞬間…。突然、頭の中にフルカラーでアイデアが飛び込んできた!あわてて外に置いていたiPhoneにメモしたけど、なんで
集中してた“デスクの上”じゃなく〈お風呂でひらめく〉のか?
この現象は、脳科学では〈デフォルト・モード・ネットワーク(DMN)〉が優位になったサインなんです。
湯船に浸かったことで、脳の「集中モード」が強制的に停止、「創造モード」に切りかわったから。
では、この〈ひらめきの瞬間〉を、あなたの意思で“何倍にも増やす方法”があるとしたら?
次のリプで、驚くべき“脳の裏切りメカニズム”をわかりやすく解説します。 November 11, 2025
10RP
Google Research刚发的这篇论文,可能会改写AI的未来 🧵
《Nested Learning: The Illusion of Deep Learning Architectures》
NeurIPS 2025,很多人说这是「Attention is all you need V2」。
我读完后,觉得这个比喻不夸张。
先说个反直觉的事实:
你现在用的所有AI,GPT也好,Claude也好,Gemini也好,都有个致命问题——它们根本不会学习。
听起来很扯,但这是真的。
你可能会说:"胡扯,我明明能跟它对话,它还能学会我教它的东西。"
对,但那只是短期记忆。
就像你在沙滩上写字,潮水一来,字就没了。
关掉对话,重开一个,它对你的所有了解都清零。
现在的大模型是这样工作的:
预训练 → 冻结参数 → 推理
训练结束的那一刻,模型的「大脑」就被永久锁死了。
之后的所有对话,都只是在这个固定大脑上做模式匹配。
ChatGPT的「记忆功能」?
那是RAG技术,本质是给AI配了个外挂笔记本。
每次对话前,它先翻笔记:"哦,这个用户喜欢喝咖啡,对Python感兴趣。"
然后假装记得你。
但它的神经网络?纹丝不动。
这就是论文要解决的核心问题:catastrophic forgetting。
灾难性遗忘。
一个AI模型学了新东西,就会忘掉旧东西。
所以现在的做法是:干脆不让它学新东西,全靠预训练时塞满知识。
但人脑不是这么工作的。
你每天都在学新东西,但不会忘掉怎么走路、怎么说话。
为什么?
因为人脑有个牛逼的设计:多时间尺度的学习系统。
神经科学发现,大脑有不同速度的学习层:
• 快层:处理即时信息,秒级更新
• 中层:整合经验模式,小时到天级
• 慢层:形成长期记忆,周到月级
快层变化,慢层稳定,所以你能学新技能又不会失忆。
Nested Learning的核心创新,就是把这个机制搬到AI里。
论文提出的HOPE架构,实现了真正的「多频率参数更新」:
有些参数每步都更新(快层)
有些参数几百步更新一次(慢层)
不同频率的参数,负责不同时间尺度的学习。
具体怎么做的?
HOPE引入了Continuum Memory System(CMS):
把模型的记忆系统拆成多个模块,每个模块有自己的更新频率。
就像你的工作记忆、语义记忆、程序记忆,各自按不同节奏运行。
这个设计带来了什么?
一个能真正成长的AI。
它跟你对话时:
• 表层快速理解你说的话
• 中层逐渐理解你的偏好和习惯
• 深层慢慢形成对你的长期认知
而且这些认知是刻在参数里的,不是写在笔记本上的。
效果如何?
论文在1.3B参数规模测试,HOPE vs. 一众SOTA模型:
• Transformer++
• RetNet
• DeltaNet• Titans
结果:HOPE在语言建模和推理任务上平均分最高。
更牛的是长上下文表现。
"needle in a haystack"测试(在长文本里找信息):
HOPE的准确率明显高于标准Transformer和现代循环模型。
困惑度(perplexity)也更低。
但这篇论文的意义,远不止性能提升。
它提出了一个全新的视角:
深度学习的深度,不应该只是网络层数,更应该是学习算法本身的深度。
把架构设计和优化过程统一起来看。
论文把优化器(SGD、Adam)重新定义为关联记忆模块。
反向传播?也是一种记忆压缩机制。
Transformer的注意力?同样。
整个模型,就是一个嵌套的优化问题系统。
这个框架打开了新的设计空间:
不再只是堆更多层、加更多参数。
而是设计更深的学习算法——让AI能在不同时间尺度上学习,就像人脑一样。
想象一下未来:
你的AI助理,真的在跟你相处中成长。
不是靠外挂数据库假装记得,而是它的神经网络在真实地演化。
第一天它是个新手,一年后它真的懂你了。
当然,论文也承认了局限:
HOPE目前还是1.3B规模的proof of concept。
能不能scale到百亿、千亿参数?
训练成本会增加多少?
这些都是待解决的工程问题。
但方向是清晰的:
从静态知识库,到动态学习系统。
从模拟记忆,到真实神经可塑性。
从工具,到伙伴。
AI的下一个十年,可能就在这个方向上。
如果Transformer定义了AI的现在,
Nested Learning可能定义了AI的未来。
不是取代,是进化。
论文地址在评论区 November 11, 2025
7RP
世界を席巻した3年前の「チャットGPT」デビュー以降、アルファベット傘下グーグルは熾烈な人工知能(AI)開発競争で出遅れたとの厳しい指摘が上がっていた。元最高経営責任者(CEO)やエンジニアといった社内の関係者すらも認めていたほどだ。 https://t.co/IkRlPULU4J November 11, 2025
4RP
【AIに思考を委ねると、脳が退化する】
2025年、MITやマイクロソフトなど複数の研究機関が、衝撃的な研究結果を発表しました。『AIに思考を丸投げすると、脳の活動が大幅に低下する。』
MIT Media Labの研究では、ChatGPTを使ってエッセイを書いたグループは、使わなかったグループと比べて、
・脳の活性化が最も低かった
・自分が書いた内容をほとんど覚えていなかった
・記憶をたどる脳のプロセスがほとんど働いていなかった
AIが便利に答えを出してくれるほど、 私たちの脳は「考える」ことをやめてしまうのです。
マイクロソフトの研究では、AIをよく使う人ほど、
・情報を精査せずに受け入れる傾向が強い
・批判的に考える能力が低下している
・特に若い世代ほど、この傾向が顕著だった
これを「認知的負債(Cognitive Debt)」と呼びます。
借金を重ねるように、AIに思考を委ねるほど、 自分で考える力という「資産」が失われていくのです。
使い方を誤った事例
実際に起きている事例をいくつか挙げます。
事例1:転職の決断
「今の会社を辞めるべきか」AIに相談。メリット・デメリットを整理してもらい、AIの「提案」に従って退職。しかし、本当は現在の職場で解決できる問題だったことに後から気づき、後悔した。
事例2:人間関係の悩み
友人との関係がギクシャクし、AIに相談を重ねるうちに、人間に相談する機会を失った。AIは状況を分析してくれたが、友人の本心や関係修復の機微は理解できず、結局関係は悪化し、孤独になった。
事例3:子育ての方針
子どもの進路についてAIに頻繁に相談するうちに、自分の直感や子どもとの対話を軽視するようになった。効率的な「正解」を求めすぎて、子どもの個性や感情を見落としていた。
これらの共通点は何か。
AIに「判断」を委ねてしまったことです。
そして、自分で考えることをやめてしまった。
その元凶は、必ず「正解」があるはず、と思い込んでいることです。
万人に共通の正解はないんです。
自分にとっての正解を得られないばかりか、AIに頼れば頼るほど、 自分で考える力が失われていくという悪循環に陥ります。
私もAIを仕事で毎日使っていますが、
だからこそ、敢えてお伝えします。
AIにできるのは、
選択肢を整理すること
情報収集し分析すること
考えを構造化すること
AIにできないのは、
あなたの代わりに決めること
あなたの感情の機微を理解すること
(頭に来てるけど本当は悲しいとか)
あなたの人生に責任を持つこと
決めるのは、常にあなたです。
そして、決めるためには、あなたの脳が動いている必要があります。
私は昭和の人間ですが、スマホが登場する前は、電話番号を30件くらい常に覚えていました。それが普通でした。今は・・・😅
元々私たちに備わっている素晴らしいもの、次世代に大切に引き継いでいきたいですね。 November 11, 2025
4RP
【ご報告】
無限に再生される「AI×占い」で毎月70万以上稼げます。
しかも
・ChatGPT
・Midjourney
・Runway
3つのAIツール使えば10分で完成。
1日15分作業して動画作って投稿しておけば寝てる間に
ピコピコ収益が発生するから半自動で稼げちゃいます!
このやり方を解説したnoteがほしい人は
いいねと「占い」ってリプして
※動画はイメージです November 11, 2025
2RP
倭国政府ガチです。勉強しない人が多いから『 IT、デザイン、データ分析の565講座を"無料"で公開中』。Google、総務省、デジタル庁、経産省、厚労省、22都道府県、転職サイトなど268団体が力を合わせて作った。ChatGPT、イラストレーター、逃走中の企画作り、文系AI人材になる方法をタダで学べて驚く
公式サイトのリンクはリプ欄に貼りました November 11, 2025
2RP
何度でも言います。
40代になって分かったのは、頭がいい人、勉強ができる人、難しい本を読める人よりも『自分の感情を言語化できる人』の方が幸せになってる。
ときには怒ってもいい、悲しくなってもいい、ChatGPT相手に弱音吐いてもいい。でも、その時の自分の感情を言語化していれば、引きずらない。
生きていたらいろんなことが起きるし、いろんな人がいる。いくら頭がよくても、嫌なことを避けることはできない。
大切なのは、自分の感情。それを言語化しておけば、いつでも「素の自分」に戻ってこれる。
幸せの最大の敵は、「なんだかよくわからない嫌な感情」だったりする。それに引っ張られないように、自分の感情を言語化しておくことが大事。
【人生は、言語化すれば動き出す】
ほぼ毎日配信してます。
@Taichi_gengoka ←フォローミー😗 November 11, 2025
2RP
XYM速報 🛡️
💰価格:84点
💧流動性:78点
📊取引高:92点
📉RSI:65点
💠安定度:80点
🌐総合:83点
GPTコメント👉 上抜け後の高値圏キープ、買い優勢継続。次の出来高でさらに伸びる可能性あり。
#Symbol #XYM #ChatGPT November 11, 2025
1RP
#237: 【書評】元・科学者の僕が、ガソリンスタンド経営を「アインシュタイン」から学ぶ ── 平均年齢56歳の現場に効く"物理学者の言葉"|nobu @booster_nobu #読書記録
https://t.co/cP1lqhAg3A
#note #ガソリンスタンド #ヤギヤエンタープライズ #BoostXproject #地域活性化 #中小企業 #富山 #砺波 #高岡 #chatgpt #DX #AI
@boost_x_project @yagiya_takando @yagiya_dynamic @araki_syoukai @rokastyle5555 November 11, 2025
1RP
この前の鹿の件でもあったよね。奈良公園でインタビュー受けてたガイドの女の子が、どう見ても別人にしか見えない過去にテレビ局の記者の女の子が同じだと騒ぎ出して、その根拠がChatGPTに判定結果という。
ChatGPTはめいろまとくらたまを同一人物と判定する程度のレベルやで。 https://t.co/YeFY0ScISN https://t.co/2rv31p5RDh November 11, 2025
1RP
ダメですね。
chatGPTも作家の作品を無断で食わせてるので。
ゲームオブスローンズの原作者や他の作家も現在訴訟してる所なので
私は制作者として、また、いちファンとしても使用しません。 https://t.co/pSx0rVPV6i November 11, 2025
1RP
先日、東大医学部卒の同期が、
「ChatGPT-5やGemini-3.0の回答が理解できない瞬間が増えてきた。」
と言ってきたのだが、最近自分もよく感じる。
俗に「IQが20違うと会話が成立しない」と比喩されることがあるが、
いよいよごく一部を除き、AIがほぼ全ての人類の知能を上回ってきているのだと思う。 November 11, 2025
1RP
本日(11/26)の生成AIトピックまとめ🧵
1️⃣【GPT/ショッピング】ChatGPTが“買い物コンシェルジュ”化。OpenAIがチャット内に商品比較・仕様チェック・価格や在庫確認までこなすショッピング機能を実装。GPT-5 miniベースの専用モデルで、レビューやスペックを整理した購買ガイドも自動生成🛒
https://t.co/tNxaECC9RG
2️⃣【GPT/航空×DX】エミレーツ航空グループがOpenAIと戦略的提携を締結。運航・グランドオペレーション・カスタマーサポートまで、ChatGPT系モデルをコアにしたAI活用で業務効率化と顧客体験向上を図ると発表✈️
https://t.co/TZrcczydbX
3️⃣【Gemini/Android Auto】「Android Auto」がGemini対応を開始。従来のGoogleアシスタントに代わり、自然言語で「目的地近くで今空いているBBQ店を」「雨の日ドライブ用プレイリストを」など複雑な依頼もOK。45言語対応で数カ月かけて世界展開🚗
https://t.co/X99YccUJOM
4️⃣【Gemini/AIチップ×株式市場】AlphabetのAIチップ(TPU)と最新モデル「Gemini 3」への評価を背景に、時価総額が3.9兆ドルまで上昇し“NVIDIAの牙城に迫る存在”として再評価。MetaがTPU採用を検討しているとの報道も📈
https://t.co/ItGgn3vmx5
5️⃣【Gemini vs NVIDIA/マーケット視点】韓国紙Chosunも「Nvidia and Google’s AI Rivalry Shakes Markets」と報道。Gemini 3の好評価とAlphabet株高で、“AI覇権”がNVIDIA単独から「GPU+自社モデルを持つプラットフォーマー同士の競争」へシフトしつつあると解説💹
https://t.co/yzP1rkxqzO
6️⃣【AIインフラ/米政府向け】Amazonが、米政府向けAI・スーパーコンピューティング能力拡張に最大500億ドル投資すると表明。防衛・気候・ヘルスケアなど公共分野の大規模モデル活用を支えるインフラ整備で、クラウド3社の“AI国家プロジェクト”競争が加速🏛️
https://t.co/iA5dqGHNCm
7️⃣【生成AIコンサル/エネルギー】EPAMが「Generative AI Implementation in the Energy Sector」を公開。上流探鉱からフィールドオペレーションまで、GenAIを入れる際のデータ整備・ユースケース優先順位付け・PoC~本番移行のフレームを整理し、“エネルギー×生成AIコンサル”の教科書的内容に⚡
https://t.co/AWyBb7FS5d
8️⃣【倭国/オープンLLM技術相談】一橋講堂にて「Japanese Symposium on Open Large Language Models」で技術相談ブースを本日開催。企業のエンジニア・企画担当が、PoCやビジネス活用で直面しているLLM技術課題を研究者に30分枠で相談可能——“倭国版生成AIコンサル窓口”的な位置づけ📎
https://t.co/kOZM051c84
9️⃣【倭国/Agentic AI×Physical AI】会津大学「Joint Research Forum 2025」が本日開催。基調講演では「Agentic AIが変える開発プロセスとビジネスモデル」「生成AIの最新動向とビジネス応用」「ロボット×AIによるPhysical AI」など、LLMと実世界実装の最前線を紹介🤖
https://t.co/T378qfZPVf
🔟【教育×生成AI/UBC】ブリティッシュコロンビア大学でオンラインイベント「Generative AI Studios」を本日開催。毎回“GenAI最新トピックのショート講義+ツール紹介+オフィスアワー”の3部構成で、教職員がChatGPT/Gemini系ツールを授業・研究・日常業務に組み込むための実践コミュニティを形成🎓
https://t.co/VQgBkytMBd November 11, 2025
1RP
僕がオンライン英会話をしていた時に意識していたことをまとめました。
ひたすら話しているのに思うように伸びない人の参考になれば嬉しいです。
①聞くよりとにかく話す
講師が話している間にうなずくだけで終わってしまうのはもったいないです。
英語力を上げたいなら、とにかく積極的に話すのがおすすめです。
慣れていない人は、予習で話すことをガチガチに決めておくと良いです。
②スムーズに言えなかったことを記録する
「言いたいことはあったけど言えなかった」時こそ成長のチャンスです。
ここを放置していると伸びません。
録音機能があるサービスなら、講師に許可を取った上で画面録画するのもおすすめです。
③レッスン後に調べる
②で言えなかったことは必ず調べましょう。
「DMM英会話なんてuKnow?」は便利です。
最近はChatGPTでも簡単に調べられるようになりました。
④スラスラ言えるように練習する
調べた表現を使って、自分で文を作りながら練習しましょう。
数時間前まで言えなかったことが自然に言えるようになると達成感があります。
⑤次のレッスンで覚えたことを使う
覚えた表現は必ず使ってみましょう。
使うことで定着率が上がり、成長が実感できて楽しくなります。
この①〜⑤を繰り返すことが、オンライン英会話の最も効果的な使い方だと思います。 November 11, 2025
1RP
ChatGPTで「なんかイマイチな返しがくる…」ってとき、
実は“指示の雑さ”が原因なことが多い。
コツはこの3つ👇
✔ 誰に向けた情報か
✔ 何を求めてるか
✔ どんな形式でほしいか
ざっくり「感想ちょうだい」じゃなくて、
「利点と欠点に分けて感想ちょうだい」まで言うと、出力のキレが一気に変わる。 November 11, 2025
1RP
何をやったかメモしていけば、「今日一日何をやったかわからない」という感想にならないのでは?
・家事(コーヒー、ゴミ出し)
・X(いいね、リプ返)
・Grok(海岸線の長い国、島の多い国、ノルウェー、カナダ、他民族国家、欧州の移民、倭国)
・Wikipedia(カナダの準州)
・ChatGPT(投稿姿勢) November 11, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。







