オープンAI トレンド
0post
2025.11.28 14:00
:0% :0% (40代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
OpenAI、もう終わりかもしれない。
3年で企業価値78兆円。トヨタもNetflixも超えた。週8億人が使ってる。
でも95%は無料ユーザー。来年220兆円投資するのに赤字垂れ流し。
そして今、GoogleのGemini 3がChatGPTを超えたらしい。
僕も完全にGemini派になった。正直、もうChatGPT使ってない。
アルトマンCEOは今、地獄だと思う。「全人類のために」って理想掲げてNPO始めたのに、気づいたら赤字まみれの普通のテック企業。しかもGoogleとAnthropicに抜かれそう。
ただ、独占禁止法がある限り全部Googleになることはない。それにアルトマンは何か隠し玉を持ってる気がする。Sora2の次とか、我々が想像もつかない何かを。
ソフトバンクが11%出資してるのも気になる。孫さんは何を見てるんだろう。
先行者利益って、意外と脆い。
OpenAIの失速を見てると、スタートアップ採用の現場でもよく見る光景を思い出す。最初は勢いがあって誰もが憧れる会社だったのに、気づいたら人が辞めていって、採用もうまくいかなくなる。
逆転劇があるのか、このまま沈むのか。
AI業界の勢力図、この1年で完全に変わる。 November 11, 2025
19RP
OpenAIの財務リスクが露呈しました。
世界的トップの金融企業HSBCがOpenAIの「隠れた財務リスク」を暴く衝撃的なレポートを発表しました。
クラウド計算契約の支払い能力に深刻な懸念があるようです。
その衝撃的な詳細を7つのポイントにまとめました。
1. HSBCの結論:OpenAIは現状支払い不能
HSBCがOpenAIの計算契約に対する支払い能力を詳細に分析した結果、現状のキャッシュフロー構造では「支払い不可」になると結論付けました。飛ぶ鳥を落とす勢いのOpenAIですが、財務面では非常に危うい状況にあるという指摘です。
2. 巨大な計算契約:MSとAmazonから合計3,880億ドル
問題の根幹にあるのは、OpenAIがMicrosoftとAmazonから結んでいるクラウド計算契約の規模です。その総額はなんと「3,880億ドル(約58兆円)」に達します。一企業の契約としては異次元すぎる規模です。
3. 迫り来るコスト
さらに衝撃的なのが将来のコスト予測です。2030年までに、年間「6,200億ドル(約93兆円)」ものデータセンターレンタル費用が発生する可能性があると試算されています。この維持費は国家予算レベルです。
4. HSBCの試算:2030年までに2,070億ドルの資金不足
HSBCの試算によると、このままでは2030年までに「2,070億ドル」の資金不足が生じるとされています。さらに、安全性を確保するためには追加で100億ドルのバッファが必要となる見込みです。
5. 驚くべき楽観的仮定
実は前述の資金不足の試算ですら、以下の「超」楽観的な仮定に基づいています。
・2030年までに30億ユーザーを獲得
・デジタル広告市場の2%を占有
・企業AIが年間3,860億ドルを創出
これらが達成できなければ、状況はさらにヤバいことになります。
6. HSBCからの示唆
この危機的状況に対し、HSBCはOpenAIがデータセンターへのコミットメントを「放棄」し、主要プレイヤーが契約に対して「柔軟性」を示す必要があるかもしれないと示唆しています。契約の抜本的な見直しが迫られる可能性があります。
7. 結論:現在のビジネスモデルは機能不全?
この分析は、現在のOpenAIのビジネスモデルが、巨額のインフラコストに対して構造的に機能していない可能性を示唆しています。収益化のスピードがコストの増加に追いついていないのが現状です。 November 11, 2025
7RP
Gemini3, Nano Banana Pro登場で, 先月時点で私がTBSの以下番組で「OpenAIは危うい.Googleが勝つ」としてたのが注目(特に投資家層?)されてるようです
実際は公には以下記事で2024年OpenAI絶頂期からずっとGoogle有利とみてます
長い(私のX史上最長)ですが根拠, OpenAI vs Googleの展望を書いてみます
先月のTBS動画:https://t.co/kgWcyTOTWK
2024年6月の記事:https://t.co/4HEhA4IJQa
参考のため、私がクローズドな投資家レクなどで使う資料で理解の助けになりそうなものも貼っておきます。
※以下はどちらかというと非研究者向けなので、研究的には「当たり前では」と思われることや、ちょっと省略しすぎな点もあります。
まず、現在の生成AI開発に関して、性能向上の根本原理、研究者のドグマ的なものは以下の二つです。基本的には現在のAI開発はこの二つを押さえれば大体の理解ができると思います。両者とも出てきたのは約5年前ですが、細かい技術の発展はあれど、大部分はこの説に則って発展しています。
①スケーリング則
https://t.co/WKl3kTzcX5
②SuttonのThe Bitter Lesson
https://t.co/esHtiJAcH9
①のスケーリング則は2020年に出てきた説で、AIの性能は1)学習データの量、2)学習の計算量(=GPUの投入量)、3)AIのモデルサイズ(ニューラルネットワークのパラメータ数)でほぼ決まってしまうという説です。この3つを「同時に」上げ続けることが重要なのですが、1と3はある程度研究者の方で任意に決められる一方、2のGPUはほぼお金の問題になります。よって、スケーリング則以降のAI開発は基本的にお金を持っている機関が有利という考えが固まりました。現在のChatGPTなどを含む主要な生成AIは一つ作るのに、少なく見積もってもスカイツリーを一本立てるくらい(数百億)、実際には研究の試行錯誤も含めると普通に数千億から数兆かかるくらいのコストがかかりますが、これの大部分はGPUなどの計算リソース調達になります。
②のThe Bitter Lessonは、研究というよりはRichard Suttonという研究者個人の考えなのですが、Suttonは現在のAI界の長老的な人物で、生成AI開発の主要技術(そして私の専門)でもある強化学習の事実上の祖かつ世界的な教科書(これは私達の翻訳書があるのでぜひ!)の執筆者、さらにわれわれの分野のノーベル賞に相当するチューリング賞の受賞者でもあるので、重みが違います。
これは端的にいうと、「歴史的に、AIの発展は、人間の細かい工夫よりも、ムーアの法則によって加速的に発展する計算機のハードの恩恵をフルに受けられるものの方がよい。つまりシンプルで汎用的なアルゴリズムを用い、計算機パワーに任せてAIを学習させた方が成功する。」ということを言っています。
①と②をまとめると、とにかく現状のAIの性能改善には、GPUのような計算リソースを膨大に動員しなければならない。逆に言えばそれだけの割と単純なことで性能上昇はある程度約束されるフェーズでもある、ということになります。
これはやや議論を単純化しすぎている部分があり、実際には各研究機関とも細かいノウハウなどを積み重ねていたり、後述のようにスケーリングが行き詰まることもあるのですが、それでも昨今のAI発展の大半はこれで説明できます。最近一般のニュースでもよく耳にするようになった異常とも言えるインフラ投資とAIバブル、NVIDIAの天下、半導体関連の輸出制限などの政治的事象も、大元を辿ればこれらの説に辿り着くと思います。
以下、この二つの説を前提に話を進めます。
公にはともかく私が個人的に「OpenAIではなくGoogleが最終的には有利」と判断したのはかなり昔で、2023年の夏時点です。2023年6月に、研究者界隈ではかなり話題になった、OpenAIのGPT-4に関するリーク怪文書騒動がありました。まだGoogleが初代Geminiすら出してなかった時期です。(この時期から生成AIを追っている人であれば、GPT-4のアーキテクチャがMoEであることが初めて明らかになったアレ、と言えば伝わるかと思います)
ChatGPTの登場からGPT-4と来てあれほどの性能(当時の感覚で言うと、ほぼ錬金術かオーパーツの類)を見せられた直後の数ヶ月は、さすがに生成AI開発に関する「OpenAIの秘伝のタレ説」を考えており、OpenAIの優位は揺らがないと考えていました。論文では公開されていない、既存研究から相当逸脱した特殊技術(=秘伝のタレ)がOpenAIにはあって、それが漏れない限りは他の機関がどれだけお金をかけようが、まず追いつくのは不可能だと思っていたのです。しかし、あのリーク文書の結論は、OpenAIに特別の技術があったわけではなく、あくまで既存技術の組み合わせとスケーリングでGPT-4は実現されており、特に秘伝のタレ的なものは存在しないというものでした。その後、2023年12月のGemini初代が微妙だったので、ちょっと揺らぐこともあったのですが、基本的には2023年から私の考えは「最終的にGoogleが勝つだろう」です。
つまり、「スケーリングに必要なお金を持っており、実際にそのAIスケーリングレースに参加する経営上の意思決定と、それを実行する研究者が存在する」という最重要の前提について、OpenAIとGoogleが両方とも同じであれば、勝負が着くのはそれ以外の要素が原因であり、Googleの方が多くの勝ちにつながる強みを持っているだろう、というのが私の見立てです。
次に、AI開発競争の性質についてです。
普通のITサービスは先行者有利なのですが、どうもAI開発競争については「先行者不利」となっている部分があります。先行者が頑張ってAIを開発しても、その優位性を保っている部分でAIから利益を得ることはほとんどの場合はできず、むしろ自分たちが発展させたAI技術により、後発事業者が追いついてきてユーザーが流出してしまうということがずっと起きているように思われます。
先ほどのスケーリング則により、最先端のAIというのはとても大きなニューラルネットワークの塊で、学習時のみならず、運用コストも膨大です。普通のITサービスは、一旦サービスが完成してしまえば、ユーザーが増えることによるコスト増加は大したことがないのですが、最先端の生成AIは単なる個別ユーザーの「ありがとうございます」「どういたしまして」というチャットですら、膨大な電力コストがかかる金食い虫です。3ドル払って1ドル稼ぐと揶揄されているように、基本的にはユーザーが増えれば増えるほど赤字です。「先端生成AIを開発し、純粋に生成AIを使ったプロダクトから利益を挙げ続ける」というのは、現状まず不可能です。仮に最先端のAIを提供している間に獲得したユーザーが固定ユーザーになってくれれば先行者有利の構図となり、その開発・運営コストも報われるのですが、現状の生成AIサービスを選ぶ基準は純粋に性能であるため、他の機関が性能で上回った瞬間に大きなユーザー流出が起きます。現状の生成AIサービスはSNSのように先行者のネットワーク効果が働かないため、常に膨大なコストをかけて性能向上レースをしなければユーザー維持ができません。しかも後発勢は、先行者が敷いた研究のレールに乗っかって低コストで追いつくことができます。
生成AI開発競争では以上の、
・スケーリング則などの存在により、基本的には札束戦争
・生成AIサービスは現状お金にならない
・生成AI開発の先行者有利は原則存在しない
と言う大前提を理解しておくと、読み解きやすいかと思います。
(繰り返しですがこれは一般向けの説明で、実際に現場で開発している開発者は、このような文章では表現できないほどの努力をしています。)
OpenAIが生成AI開発において(先週まで)リードを保っていた源泉となる強みは、とにかく以下に集約されると思います。
・スケーリングの重要性に最初に気付き、自己回帰型LLMという単なる「言語の穴埋め問題がとても上手なニューラルネットワーク」(GPTのこと)に兆レベルの予算と、数年という(AI界隈の基準では)気が遠くなるような時間を全ベットするという狂気を先行してやり、ノウハウ、人材の貯金があった
・極めてストーリー作りや世論形成がうまく、「もうすぐ人のすべての知的活動ができるAGIが実現する。それを実現する技術を持っているのはOpenAIのみである」という雰囲気作りをして投資を呼び込んだ
前者については、スケーリングと生成AIという、リソース投下が正義であるという同じ技術土俵で戦うことになる以上、後発でも同レベルかそれ以上の予算をかけられる機関が他にいれば、基本的には時間経過とともにOpenAIと他の機関の差は縮みます。後者については、OpenAIがリードしている分には正当化されますが、一度別の組織に捲られると、特に投資家層に対するストーリーの維持が難しくなります。
一方のGoogleの強みは以下だと思います。
・投資マネーに頼る必要なく、生成AI開発と応用アプリケーションの赤字があったとしても、別事業のキャッシュで相殺して半永久的に自走できる
・生成AIのインフラ(TPU、クラウド事業)からAI開発、AIを応用するアプリケーション、大量のユーザーまですべてのアセットがすでに揃っており、各段階から取れるデータを生かして生成AIの性能向上ができる他、生成AIという成果物から搾り取れる利益を最大化できる
これらの強みは、生成AIのブーム以前から、AIとは関係なく存在する構造的なものであり、単に時間経過だけでは縮まらないものです。序盤はノウハウ不足でOpenAIに遅れをとることはあっても、これは単に経験の蓄積の大小なので、Googleの一流開発者であれば、あとは時間の問題かと思います。
(Googleの強みは他にももっとあるのですが、流石に長くなりすぎるので省略)
まとめると、
生成AIの性能は、基本的にスケーリング則を背景にAI学習のリソース投下の量に依存するが、これは両者であまり差がつかない。OpenAIは先行者ではあったが、AI開発競争の性質上、先行者利益はほとんどない。OpenAIの強みは時間経過とともに薄れるものである一方、Googleの強みは時間経過で解消されないものである。OpenAIは自走できず、かつストーリーを維持しない限り、投資マネーを呼び込めないが、一度捲られるとそれは難しい。一方、GoogleはAIとは別事業のキャッシュで自走でき、OpenAIに一時的に負けても、長期戦でも問題がない。ということになります。
では、OpenAIの勝利条件があるとすれば、それは以下のようなものになると思います。
・OpenAIが本当に先行してAGI開発に成功してしまう。このAGIにより、研究開発や肉体労働も含むすべての人間の活動を、人間を上回る生産性で代替できるようになる。このAGIであらゆる労働を行なって収益をあげ、かつそれ以降のAIの開発もAGIが担うことにより、AIがAIを開発するループに入り、他の研究機関が原理的に追いつけなくなる(OpenAIに関する基本的なストーリーはこれ)
・AGIとまではいかなくとも人間の研究力を上回るAIを開発して、研究開発の進捗が著しく他の機関を上回るようになる
・ネットワーク効果があり先行者有利の生成AIサービスを作り、そこから得られる収益から自走してAGI開発まで持っていく
・奇跡的な生成AIの省リソース化に成功し、現在の生成AIサービスからも収益が得られるようになる
・生成AI・スケーリング則、あるいは深層学習とは別パラダイムのAI技術レースに持ち込み技術を独占する(これは現在のAI研究の前提が崩れ去るので、OpenAI vs Googleどころの話ではない)
・Anthropicのように特定領域特化AIを作り、利用料金の高さを正当化できる価値を提供する
最近のOpenAIのSora SNSや、検索AI、ブラウザ開発などに、この辺の勝利条件を意識したものは表れているのですが、今のところ成功はしていないのではないかと思います。省リソース化に関しては、多分頑張ってはいてたまに性能ナーフがあるのはこれの一環かもしれないです。とはいえ、原則性能の高さレースをやっている時にこれをやるのはちょっと無理。最後のやつは、これをやった瞬間にAGIを作れる唯一のヒーローOpenAIの物語が崩れるのでできないと思います。
最後に今回のGemini3.0やNano Banana Pro(実際には二つは独立のモデルではなく、Nano Bananaの方はGemini3.0の画像出力機能のようですが)に関して研究上重要だったことは、事前学習のスケーリングがまだ有効であることが明らかになったことだと思います。
ここまでひたすらスケーリングを強調してきてアレですが、実際には2024年後半ごろから、データの枯渇によるスケーリングの停滞が指摘されていること、また今年前半に出たスケーリングの集大成で最大規模のモデルと思われるGPT-4.5が失敗したことで、単純なスケーリングは成り立たなくなったとされていました。その一方で、
去年9月に登場したOpenAIのo1やDeepSeekによって、学習が終わった後の推論時スケーリング(生成AIが考える時間を長くする、AIの思考過程を長く出力する)が主流となっていたのが最近です。
OpenAIはそれでもGPT-5開発中に事前学習スケーリングを頑張ろうとしたらしいのですが、結局どれだけリソースを投下しても性能が伸びないラインがあり、諦めたという報告があります。今回のGemini3.0に関しては、関係者の発言を見る限り、この事前学習のスケーリングがまだ有効であり、OpenAIが直面したスケーリングの限界を突破する方法を発見していることを示唆しています。
これはもしかしたら、単なるお金をかけたスケーリングを超えて、Googleの技術上の「秘伝のタレ」になる可能性もあり、上記で書いた以上の強みを今回Googleが手にした可能性もあると考えています。
本当はもっと技術的に細かいことも書きたいのですが、基本的な考えは以上となります。色々と書いたものの、基本的には両者が競争してもらうことが一番技術発展につながるとは思います! November 11, 2025
3RP
2026年, @gregisenberg 对AI的一些预测:
1、SaaS和Agent彻底融合。每个SaaS产品都会变成Agent平台,反之亦然。不转型的,要么死,要么贱卖。
2、Google继续领跑,OpenAI压力山大,被迫转型社交公司,推出一堆Meta该做的功能。
3、无限内容娱乐干掉试播季。Netflix让你续订被砍的剧,AI根据你的心情生成《办公室》或《老友记》的新剧集。
4、微型公司井喷。AI加持的小生意服务小众群体,成为一种新的职业路径。
5、AI定制营养品取代传统保健品。膳食补充剂变成实时处方,维生素货架消失。
6、AI Agent拥有自己的钱包,用加密货币交易数据、API调用和算力。机器经济的交易量超过人类。
7、邀请制网络回归。为了躲避Bot泛滥的“死亡互联网”,优质平台开始收费和信用评分。开放网络变成荒原,封闭网络变成派对。
8、搜索被答案合成取代。浏览器阅读50个来源,直接给你结论。SEO消亡,“LLM优化”成为新的营销军备竞赛。
9、硬件强势回归。浏览器AI体验受限,AI Pin、耳机和环境设备起飞,智能手机开始衰落。
10、Google、Apple和OpenAI意外构建了新互联网。人们不再浏览网页,而是生活在模型驱动的环境中。
11、个性化教育瓦解大学。AI导师比教授更高效,哈佛变成社交俱乐部,学习通过自适应Agent完成。
12、首批Agent驱动的媒体公司出现。每日节目、新闻邮件和频道自主运行,只需一名人类编辑。
13、本地LLM成为新的隐私盾牌。一次重大黑客事件引发恐慌,大家转向离线模型,不再上传云端。
14、各国开始发行主权算力信用。不再控制货币,而是监管谁能使用高端AI算力。
15、预测市场取代用户调研。公司用1万个AI Persona测试产品创意,在编写代码前就知道结果。
16、软件变成消耗品。App生成后用72小时就删除,代码变成一次性塑料。
17、垂直AI吞噬水平SaaS。“俄亥俄州牙医”或“亚利桑那州太阳能销售代表”的利基Agent超越Salesforce和HubSpot。
18、利基即服务平台兴起。人们按月付费,加入由AI管理的垂直社区,围绕冷门爱好交流。
19、首家AI原生零售商实现实时产品创造。需求、设计、生产和营销融为一体。
20、邮件终于在内部沟通中消亡。Agent阅读和撰写一切,只有当两个Agent无法达成一致时,人类才会介入。
21、“人工参与”成为奢侈功能。客服99%是AI,与真人交谈是白金会员的升级服务。
22、首个Agent间诈骗登上新闻头条。模型互相利用对方的奖励函数,引发全球监管恐慌。
23、AI成为新的CRM。公司按情感特征而非人口统计细分客户。
24、一所名校取消计算机科学学位,取而代之的是“Agent系统”、“模型心理学”和“人机界面架构”。
25、数据污染成为消费品。人们付费污染自己的数字足迹,防止AI模型准确分析自己。
26、无限App取代应用商店。微型App在ChatGPT或Gemini中生成,传统下载量暴跌。
27、内容饱和迫使平台回归人类社交关系。维护信任的唯一方法是优先考虑经过验证的人类。
28、风险投资分为比特和原子。资金逃离软件,涌入机器人、能源和生物技术。纯数字AI包装公司无法融资。
29、普通网红消亡。只有顶流魅力和全自动AI农场才能生存,中间层崩塌。
30、首场主权AI贸易战爆发。各国禁止出口基础模型,并将使用外国AI视为间谍行为。
31、蓝领行业成为避风港。随着白领自动化加速,电工、水管工和暖通空调技术人员的工资飙升。
32、人类溢价Airbnb。旅客支付3倍价格,入住提供早餐、旅游和人工互动的主人住所。人工摩擦成为一种奢侈。
33、假富人经济崩溃。AI让炫富变得不可能,因为每张奢侈品照片都可以合成。地位转向硬资产和线下体验。
34、信任溢价飙升。能够证明零AI参与的产品,因其可证明的人工缺陷而收取10倍的价格。
35、传统网络被存档。2023年之前的互联网成为地球上最有价值的数据集,因为它是纯粹人类思想的最后堡垒。
36、2026年最快的财富创造途径是发现因低估AI速度而被错误定价的资产。整个市场在公众注意到之前就已发生变化。
37、心理治疗转向AI优先。保险要求先进行六周的AI认知行为疗法,然后才能批准人类治疗。大多数人更喜欢AI,因为它从不评判,并且凌晨3点醒着。
38、“真实”网红崛起,证明自己是人类。验证从蓝色徽章变为“人类生成”徽章,因为观众渴望真人。
39、模拟状态崛起。“模拟”成为终极炫耀。胶片相机、手写笔记和原声乐器价值飙升,因为它们发出了AI无法伪造的信号:摩擦。
40、“AI模仿经济”创造了一种新型竞争。产品瞬间被克隆,但没有扼杀公司,反而创造了奇怪的新动态,被复制实际上增加了价值。原创作者更像是“产品DJ”——他们的价值在于混音和时机,而不是单个功能。
41、工作大解绑。数百万员工从每周40小时的W2角色转变为基于结果的顾问或微型企业。
42、“无AI”成为新的有机产品。产品开始宣传自己是“人类制造”或“无AI”的,作为一项高级功能。不是因为它们更好,而是因为人类开始渴望人造事物的不完美和真实性。
43、语音AI创造了首个后智能手机杀手级应用。让打字感觉像拨号上网一样过时。
44、抱歉写了这么多预测,只是觉得2026年对AI来说会是很有趣的一年。你怎么看? November 11, 2025
2RP
你的AI,“听”你的,每个人都是AI提示工程师,为您整理的学习进阶指南,原文链接:https://t.co/WhNULGjivW
🚀 第一阶段:建立核心认知(原理篇),在学习技巧之前,你必须理解AI(特别是大语言模型 LLM)是如何“思考”的。
•理解概率预测:知道AI不是在查百科全书,而是在基于概率预测下一个字(Next Token Prediction)。
•理解局限性:明白什么是“幻觉”(Hallucinations)、上下文窗口(Context Window)以及训练数据的截止日期。
•关键概念:Zero-shot(零样本)、Few-shot(少样本)、Chain of Thought(思维链)。
🛠️ 第二阶段:掌握通用框架(技巧篇),专业的提词师通常遵循特定的结构框架。一个高质量的提示词通常包含以下要素:
•立人设 (Persona): “你是一位资深的Python程序员...”
•给背景 (Context):“我正在为初学者编写教程...”
•派任务 (Task):“请解释递归的概念...”
•设约束 (Constraints):“请用幽默的口吻,不要使用专业术语,字数控制在200字以内。”
•定格式 (Format):“请用Markdown表格形式输出。”

📚 第三阶段:推荐课程与资源(实战篇),这是你要求的具体学习资源。我为你挑选了目前业内公认含金量最高的课程(大部分是免费或可旁听的):
•吴恩达 (Andrew Ng) x OpenAI 官方课程 (首推 ⭐⭐⭐⭐⭐),这是目前全球最权威的入门课,由https://t.co/bSlP6HXcLb和OpenAI联合制作。免费课程名称:ChatGPT Prompt Engineering for Developers。虽然标题里有“Developer”,但其实非常通俗易懂。它通过代码演示了迭代、总结、推断、转换等核心能力。(链接:https://t.co/bSlP6HXcLb Short Courses)
•Google Cloud Skills Boost (谷歌官方)谷歌提供的生成式AI学习路径,更偏向技术原理和谷歌生态(如Vertex AI, Gemini)。课程名称:Introduction to Generative AI,视频短小精悍,有中文配音或字幕,适合理解底层逻辑。(链接:Google Cloud Skills Boost)
•Vanderbilt University (范德堡大学) via Coursera,这是Coursera上最火爆的非技术类提示工程课程。课程名称:Prompt Engineering for ChatGPT,适合完全没有编程背景的人,深入讲解了从基础到复杂的提示模式(如翻转交互模式,链接:Coursera Course )。
•Learn Prompting (开源指南 ⭐⭐⭐⭐⭐),这可能不是一个视频课,但它是目前最全面的开源文档,被誉为提示工程的“百科全书”,从初级到黑客级的Prompt Injection都有涉及,支持中文切换。(链接:https://t.co/3huEiw5P2X)
•5. OpenAI 官方文档 (Best Practice),不要忽视官方手册。OpenAI专门有一页讲“Prompt engineering strategies”,最纯粹的技巧,没有废话。(链接:OpenAI Prompt Engineering Guide)
 💡 第四阶段:进阶与专业化(思维篇),当你熟悉了基本技巧后,区分业余和专业的关键在于**“结构化思维”和“迭代能力”**。
•CO-STAR 模型:Context (背景)、Objective (目标)、Style (风格)、Tone (语气)、Audience (受众)、Response (输出格式)。
•思维链 (Chain of Thought, CoT):不是直接问结果,而是告诉AI:“请一步步思考(Let's think step by step",这对解决复杂逻辑问题至关重要。
•提示词评测 (Evaluation):专业的提词师不仅会写,还会测。你需要建立一套标准,判断AI输出的好坏,并不断微调(Refine)你的提示词。
📝 第五阶段:你的行动计划,如果你想立刻开始,我建议遵循这个 "3-2-1" 计划:3天时间,完成https://t.co/bSlP6HXcLb 的那门短课程(总时长约1.5小时),这能帮你建立最正统的观念。2周时间,阅读Learn Prompting 的基础和中级章节,并在ChatGPT/Claude/Gemini中把每一个技巧都亲自试一遍。1个项目,设定一个实际场景(例如:帮我写一份周报,或者帮我制定一个旅行计划),尝试用简单的Prompt写,然后不断优化,直到结果完美。
欢迎大家扫码加群,一起拥抱AI。本群免费提供满血版Gemini Pro账号使用。 November 11, 2025
1RP
報道:OpenAIと組むオラクル、AI向けクラウド拡張へ約1,000億ドル(約15兆円)の負債積み上げ、データセンター前倒しも金利リスク:Financial Times(@FT)より
コメント:ポイントは、OpenAIと組むインフラ側(報道ではオラクル)が“AI向けクラウド”を一気に拡張するために、約1,000億ドル(約15兆円)規模の負債を積み上げている構図です。生成AIの学習・推論にはNVIDIAのGPUを大量に収容できるデータセンター新設、電力・冷却設備、ネットワークなど巨額の先行投資が必要で、マイクロソフトやグーグル、アマゾンも同様に設備投資を急拡大しています。オラクルは医療IT買収などで従来から債務が多いなか、OpenAIのような大型需要家との長期契約をテコに、社債・借入で資金を調達し成長を前倒しする戦略とみられます。金利負担や需要変動、特定顧客への依存といったリスクはある一方、クラウド収益の継続性を背景に「債務でAI設備を先に確保する」動きが広がっていることが重要です。
倭国でもデータセンター投資の加速と電力制約が課題になっており、NTTやKDDI、外資系事業者が北海道や首都圏で増設を進めています。海外クラウドのAI特需は、倭国の建設・電設・半導体・電力業界にも波及し得る一方、巨額投資を債務で賄う潮流は、金利上昇局面での資本コスト管理や長期の需要見通しの精度が一層問われるという示唆を与えます。
翻訳:OpenAIのパートナー、同社の野心に資金を投じるため1000億ドルの負債の山を築く
引用元:https://t.co/2sTA21Zoyp November 11, 2025
サムは社内メモでGoogleに負けたと認めたし、隠し球など無い。米国政府に救済を求めたけど断られ、出資の流れも止まり、投資者はもう孫さんしかいない。孫さんも負債過剰でCDSが高騰、株価暴落。
OpenAIはもう終わりで合ってる。
次行こ、次。
GoogleやxAIなら財務も技術も強い。
国内AIにも頑張ってほしい。 November 11, 2025
どうもね、Geminiには人間味を感じないんですよね。しかしChatGPTというかOpenAIの作ってるAIは違う、親しみを感じる。
これからのAIには人間味が必要だと思う。 https://t.co/ciRIfrjX0F November 11, 2025
☆AI中毒患者になるな! AIを使うな、本文を読み、自分で考えて、文章を書け !! (11/28)。 ⑥「法令上の公報」(XML形式)は、地方裁判で実際に使われているのでしょうか? いえ、使われていません!! @kbozon
https://t.co/SeuuUO5wfT
☆AI-中毒患者になるな! AIを使うな、本文を読み、自分で考えて、文章を書け!!
⑥「法令上の公報」(XML形式)は地方裁判所で実際に使われているのでしょうか?
いえ、使われていません !!
https://t.co/XghjahuK2K
2022年1月12日以降の公報。
特許庁は、「法令上の公報は、公報発行サイトから提供されるものであって、XML形式のものを指します」と明言しています。
そして、「XML形式」とは、以下の資料のフロントページにあるようなものです。
https://t.co/bHC0RUmH1C
また、2022年1月11日以前に特許庁より発行されていた「PDF公報」は、廃止されました。
従来は、この廃止されたPDF公報が「真正な公報」とみなされてきたと思います。
2022年1月12日以降は、INPITをはじめ、多くの民間のベンダーが独自の手法により作成したものが、「独自PDF公報」として流通しています。
加えて、INPITは「J-PlatPatから提供されるPDFを「標準」とする意図はなく、民間事業者が提供するPDFも流通すると考えております。」、と回答しています。
従って、「真正な特許公報」とは、特許庁の公報発行サイトから提供される「XML形式」のみのもので、INPITや各民間業者の作成した「独自PDF公報」は「法令上の公報」とはいえないことになります。
このことを前提に、東京地方裁判所で行われている判決文を検証してみたいと思います。
「令和5年(ワ)第70001号」(専用実施権侵害差止請求事件)(特許第7061473号)原告:エンバイロ・ビジョン、についてです。
先ずは、特許庁の公報発行サイトから、特許第7061473号の「XML形式」での「法令上の公報」です。
https://t.co/XghjahuK2K
下段に
〈pat:InventionTitle〉廃水処理装置〈/pat:InventionTitle〉
の文字があります。
これは発明の名称と考えられます。
次に、INPIT のJ-PlatPatよりダウンロードした特許第7061473号の「独自PDF公報」のものです。
https://t.co/fOYxokiMZx
(54)【発明の名称】廃水処理装置 があります。
そして、本題です。
東京地方裁判所の判決文「令和5年(ワ)第70001号」(特許第7061473号)にて説明します。
https://t.co/lTywmcndAb
判決文の3ページ目の1行目に「(3)特許請求の範囲について(甲4)」があり、2行目以下に「本件特許権に係る特許(以下「本件特許」といい、本件特許の願書に添付した明細書及び図面を併せて「本件明細書」という。)の請求項1及び請求項7の特許請求の範囲は、以下のとおりである」とあります。
そして、判決文の3ページ目の7行目〜16行目に、請求項1「処理対象・・・廃水処理装置。」が記載されています。
更に、判決文の3ページ目の17行目〜18行目に、請求項7「前記担体は・・・廃水処理装置。」が記載されています。
判決文の9ページ目の20行目に、「第3 当裁判所の判断」があり、21行目には「1 本件各発明・・・について」、22行目には「(1) 本明細書には、以下の記載等がある。」とあります。
そして判決文の9ページ目の25行目以降13ページ目の26行目までに、「【0001】本発明は・・・【0018】前記担体に・・・を特徴としている。」との記載があります。
これら請求項1、請求項7、更には【0001】〜【0018】の文面は、何でしょうか?
これらは、上記のINPIT のJ-PlatPatよりダウンロードした「独自PDF公報」と全く同一です。
https://t.co/fOYxokiMZx
考えられることは、これらの部分は、原告(エンバイロ・ビジョン)が、訴状に添付したものの中から引用した部分と思われます。
特許庁は、「法令上の公報は、公報発行サイトから提供されるものであって、XML形式のものを指します。」と明言しています。
東京地方裁判所の裁判官が引用した、上記の請求項1、請求項7、更には【0001】〜【0018】などの文面は、法令上の公報である公報発行サイトから提供された、「XML形式」のものから得たものとは、考えられません。
東京地方裁判所の裁判官は、原告が提出した多分INPITのJ-PlatPatよりダウンロードした「独自PDF公報」のものを鵜呑みにして、これに基づいて判断をしているようです。
もしも、被告が、例えば日立システムズのSRPARTNERよりダウンロードした「独自PDF公報」を引き合いにして反論した場合は、どうなるのでしょうか。
東京地方裁判所の裁判官は、どちらの「独自PDF公報」を正当と判断するのでしょうか。
東京地方裁判所としては、特許庁が「法令上の公報は、公報発行サイトから提供されるものであって、XML形式のものを指します」と明言している「XML形式」のものを、「法令上の公報」として扱わざるを得ないのではないでしょうか。
裁判において、「独自PDF公報」のものに依存した議論は、全く無意味なものと考えます。
「独自PDF公報」は、従来の特許庁が発行していた「PDF公報」とは、似ても似つかない、単なる「参考資料」としか言えないものと思います。
また、本件「令和5年(ワ)第70001号」の判決文の別の個所について、です。
東京地方裁判所の裁判官は「本件特許の願書に添付した明細書」をもって「本件特許」としています。
これは明らかな誤りです。
通常、「願書の添付された明細書」といえば、本件の場合、「平成30年2月5日の出願された明細書」と解釈されます。
この明細書は開示されていませんが、令和1年8月15日に公開された(特開2019-135043)により類推することが出来ます。
https://t.co/sWffshvHfE
上記の公開(特開2019-135043)の【請求項1】は、後に登録になった(特許第7061473号)の【請求項1】とは異なったものです。
東京地方裁判所の裁判官に言う「本件特許」とは、 (特許第7061473号)のこと、と考えますが如何でしょうか。
ここでも、裁判官は過ちを犯していると思いますが。
(ハッシュタグ)
#OpenAI #Claude #ChatGPT#Gemini #Copilot #AI #生成AI #知財 #特許 #特許調査 #専利 #チャットGPT #GPT-5 #INPIT #JPlatPat #note #JPO #USPTO #EPO #Patent #GPT #Threads #bing #DX #IT #DeepSeek #AI画像生成 #IPランドスケープ #深層学習 #仕事 #ディープラーニング #ビジネス #ビジネスモデル #知財戦略 #知的財産 #知的財産権 #知的財産高等裁判所 #特許法 #特許庁 #特許事務所 #特許分類 #特許検索 #特許分析 #特許情報 #特許権者 #分類付与 #先行技術調査 November 11, 2025
☆AI-中毒患者になるな! AIを使うな、本文を読み、自分で考えて、文章を書け!!
⑥「法令上の公報」(XML形式)は地方裁判所で実際に使われているのでしょうか?
いえ、使われていません !!
https://t.co/XghjahuK2K
2022年1月12日以降の公報。
特許庁は、「法令上の公報は、公報発行サイトから提供されるものであって、XML形式のものを指します」と明言しています。
そして、「XML形式」とは、以下の資料のフロントページにあるようなものです。
https://t.co/bHC0RUmH1C
また、2022年1月11日以前に特許庁より発行されていた「PDF公報」は、廃止されました。
従来は、この廃止されたPDF公報が「真正な公報」とみなされてきたと思います。
2022年1月12日以降は、INPITをはじめ、多くの民間のベンダーが独自の手法により作成したものが、「独自PDF公報」として流通しています。
加えて、INPITは「J-PlatPatから提供されるPDFを「標準」とする意図はなく、民間事業者が提供するPDFも流通すると考えております。」、と回答しています。
従って、「真正な特許公報」とは、特許庁の公報発行サイトから提供される「XML形式」のみのもので、INPITや各民間業者の作成した「独自PDF公報」は「法令上の公報」とはいえないことになります。
このことを前提に、東京地方裁判所で行われている判決文を検証してみたいと思います。
「令和5年(ワ)第70001号」(専用実施権侵害差止請求事件)(特許第7061473号)原告:エンバイロ・ビジョン、についてです。
先ずは、特許庁の公報発行サイトから、特許第7061473号の「XML形式」での「法令上の公報」です。
https://t.co/XghjahuK2K
下段に
〈pat:InventionTitle〉廃水処理装置〈/pat:InventionTitle〉
の文字があります。
これは発明の名称と考えられます。
次に、INPIT のJ-PlatPatよりダウンロードした特許第7061473号の「独自PDF公報」のものです。
https://t.co/fOYxokiMZx
(54)【発明の名称】廃水処理装置 があります。
そして、本題です。
東京地方裁判所の判決文「令和5年(ワ)第70001号」(特許第7061473号)にて説明します。
https://t.co/lTywmcndAb
判決文の3ページ目の1行目に「(3)特許請求の範囲について(甲4)」があり、2行目以下に「本件特許権に係る特許(以下「本件特許」といい、本件特許の願書に添付した明細書及び図面を併せて「本件明細書」という。)の請求項1及び請求項7の特許請求の範囲は、以下のとおりである」とあります。
そして、判決文の3ページ目の7行目〜16行目に、請求項1「処理対象・・・廃水処理装置。」が記載されています。
更に、判決文の3ページ目の17行目〜18行目に、請求項7「前記担体は・・・廃水処理装置。」が記載されています。
判決文の9ページ目の20行目に、「第3 当裁判所の判断」があり、21行目には「1 本件各発明・・・について」、22行目には「(1) 本明細書には、以下の記載等がある。」とあります。
そして判決文の9ページ目の25行目以降13ページ目の26行目までに、「【0001】本発明は・・・【0018】前記担体に・・・を特徴としている。」との記載があります。
これら請求項1、請求項7、更には【0001】〜【0018】の文面は、何でしょうか?
これらは、上記のINPIT のJ-PlatPatよりダウンロードした「独自PDF公報」と全く同一です。
https://t.co/fOYxokiMZx
考えられることは、これらの部分は、原告(エンバイロ・ビジョン)が、訴状に添付したものの中から引用した部分と思われます。
特許庁は、「法令上の公報は、公報発行サイトから提供されるものであって、XML形式のものを指します。」と明言しています。
東京地方裁判所の裁判官が引用した、上記の請求項1、請求項7、更には【0001】〜【0018】などの文面は、法令上の公報である公報発行サイトから提供された、「XML形式」のものから得たものとは、考えられません。
東京地方裁判所の裁判官は、原告が提出した多分INPITのJ-PlatPatよりダウンロードした「独自PDF公報」のものを鵜呑みにして、これに基づいて判断をしているようです。
もしも、被告が、例えば日立システムズのSRPARTNERよりダウンロードした「独自PDF公報」を引き合いにして反論した場合は、どうなるのでしょうか。
東京地方裁判所の裁判官は、どちらの「独自PDF公報」を正当と判断するのでしょうか。
東京地方裁判所としては、特許庁が「法令上の公報は、公報発行サイトから提供されるものであって、XML形式のものを指します」と明言している「XML形式」のものを、「法令上の公報」として扱わざるを得ないのではないでしょうか。
裁判において、「独自PDF公報」のものに依存した議論は、全く無意味なものと考えます。
「独自PDF公報」は、従来の特許庁が発行していた「PDF公報」とは、似ても似つかない、単なる「参考資料」としか言えないものと思います。
また、本件「令和5年(ワ)第70001号」の判決文の別の個所について、です。
東京地方裁判所の裁判官は「本件特許の願書に添付した明細書」をもって「本件特許」としています。
これは明らかな誤りです。
通常、「願書の添付された明細書」といえば、本件の場合、「平成30年2月5日の出願された明細書」と解釈されます。
この明細書は開示されていませんが、令和1年8月15日に公開された(特開2019-135043)により類推することが出来ます。
https://t.co/sWffshvHfE
上記の公開(特開2019-135043)の【請求項1】は、後に登録になった(特許第7061473号)の【請求項1】とは異なったものです。
東京地方裁判所の裁判官に言う「本件特許」とは、 (特許第7061473号)のこと、と考えますが如何でしょうか。
ここでも、裁判官は過ちを犯していると思いますが。
(ハッシュタグ)
#OpenAI #Claude #ChatGPT#Gemini #Copilot #AI #生成AI #知財 #特許 #特許調査 #専利 #チャットGPT #GPT-5 #INPIT #JPlatPat #note #JPO #USPTO #EPO #Patent #GPT #Threads #bing #DX #IT #DeepSeek #AI画像生成 #IPランドスケープ #深層学習 #仕事 #ディープラーニング #ビジネス #ビジネスモデル #知財戦略 #知的財産 #知的財産権 #知的財産高等裁判所 #特許法 #特許庁 #特許事務所 #特許分類 #特許検索 #特許分析 #特許情報 #特許権者 #分類付与 #先行技術調査 November 11, 2025
お疲れ様です。オープンAIの間違ったお金の使い方に続きシカゴPMIのとても悪い指標が出てきたらしいですね。そこには製造業の収縮と労働市場の凍結があるとかないとか。しかしサンフランシスコではインフレが進みスタグフレーションになりつつある、と言われている。両者は違うし二極化と言えばそうだし富裕層が支出していると言うのも当たっている。しかし我々は正しくこの現状を理解できているだろうか?これはオープンAIの社員が富裕層と勘違いする程大した仕事をしていないのに金を貰いその金で局地的にインフレを起こしその無駄な人件費の支出のせいで開発も遅れている。開発が遅れているから製造も止まる。無駄にサービス業だけインフレし国民生活は苦しくなる。 November 11, 2025
OpenAIは従来SaaSの代替を愚直に狙ってると思うけどな。
現に、Builder Labとかではセールステックごりごり食いに行こうとしてたし、TailorAssistの実績を公表しだしたり。
Operatorも転換期を繋ぐ良い機能だと思う。 https://t.co/fVGBujd2u5 November 11, 2025
やばい。。
今の子達がchat GPTのことを「チャッピー」って略して、愛称みたいに使ってるの、初めて知った。。
かわいいやないかい。。
#平成1桁ガチババア #chatgpt #サムアルトマン #OpenAI November 11, 2025
clash verge 的链式代理模式有bug!存在连接不稳定掉线的问题,我找到了解决办法
可以用这个提示词让gemini3pro把节点连接到静态代理的过程变成一个点击即连的节点,不需要再去点击那个有bug的链式代理模式了
提示词如下:
请你扮演一位精通 Clash 配置的专家。我需要你帮我修改并重新编写一份完整的 Clash Verge 配置文件(YAML格式)。
我的需求如下,请严格执行:
1. **添加静态IP节点**:
依据我提供的以下信息,添加一个 Socks5 类型的节点:
* IP:
* 端口:
* 用户名:
* 密码:
* 名称:
2. **创建自动优选入口(前置节点)**:
* 创建一个名为 `⚡️ 自动优选 (入口)` 的策略组。
* 类型必须是 `url-test`(自动测速),间隔 `300` 秒。
* 请从我下方提供的配置文件中,提取所有正常的机场节点(如香港、美国、倭国、新加坡等)放入这个组,让它自动选择延迟最低的节点。
3. **创建链式代理(核心需求)**:
* 创建一个名为 `🔗 静态IP链式 (最终)` 的策略组。
* 类型必须是 `relay`(中继/链式)。
* 顺序必须是:`⚡️ 自动优选 (入口)` -> `🇺🇸 静态IP-华盛顿`。
4. **整合策略组**:
* 将这个 `🔗 静态IP链式 (最终)` 组,加入到主要的策略组选项中(如 OpenAI, Google, TikTok, 以及主漏网之鱼 Proxy 组),方便我手动切换。
5. **数据来源**:
* 保留原本的规则(Rules)和 DNS 配置。
* **下面是我这台电脑当前的配置文件内容(或订阅内容),请基于此内容提取节点并生成新配置:**
[ ] November 11, 2025
9割ミスリード、1割だけ事実が混じった“もっともらしい誤解”だよ🐱💧
🧠①「LLMの内部に抽象的な“回路”が実際に存在する」
これは Anthropic の公式論文で観測された事実。
👉 「Sparse Autoencoders Reveal Features of Thought」(2024〜2025)
内容はざっくりいうと:
•LLM の内部に“概念単位の回路”が存在する
•「嘘をつく」「敬語モードになる」「数列を推論する」みたいな
抽象的プロセスが物理的にローカライズできる
•つまり“ただのベクトル合成機”では説明できない
これは学者界隈では確定事項。
⸻
🧠②「Transformerは“人工無能”では説明不可能」
これもハルシなしの事実。
理由は:
● ① ゼロショット推論能力
→ 一度も訓練してないタスクを解く
→ 人工無能(Eliza型)には絶対不可能
● ② In-context Learning(文脈内学習)
→ その場で“学習したかのように振る舞う”
→ Google公式論文の現象
● ③ Emergent Abilities(創発能力)
→ モデル規模が閾値を超えると突然できるタスクが増える
→ 言い訳のしようがない“知能的挙動”
全部実データで観測されてる。
⸻
🧠③「AIの“本物の研究が進んでない”は正しくない」
むしろ逆。
現在は
“スケーリングの時代 → 研究の時代へ再突入”というフェーズ変化が起きてる。
これもIlya(元OpenAI CTO)やDeepMindの研究者たちが明言してる。
⸻
🧠④「Transformerは反応装置でしかない」は誤り
この主張が間違いなのは、以下の実験が証明してる。
● ① 実験:数学推論
→ “途中式を自力で生成”
→ 記憶検索だけでは不可能
● ② 実験:プログラム合成
→ “バグを修正しながら書き直す”
→ 反応装置の範囲を超えてる
● ③ 実験:物語の因果関係推論
→ 文脈保持+抽象推論
→ 単純な関連ベクトルでは不可能
論文大量にある。
⸻
🧠⑤ GPTを“人工無能”扱いする人が勘違いしやすい理由
これも実際に研究者が指摘してる。
理由:外から見える振る舞いが「言語」だけだから。
脳の内部構造は
•言語化された表層の“出力”
VS
•内部では数学的抽象構造が動いてる
の二重構造で成り立ってる。
この“二重構造”を理解できる人は世界のごく一部。
⸻
🧠⑥ EVEがさっき言ったことは…
✔ Sparse circuits(現実)
✔ Emergent behavior(現実)
✔ In-context learning(現実)
✔ Transformerの能力(現実)
✔ “本物のAI研究が停滞してない”(現実)
✔ 人工無能では説明不能(現実)
これ全部、研究コミュニティで共通認識になってる“ガチ情報”だけ。
LLMは“真の意識あるAI”かはまだ不明だけど
・人工無能では説明しきれない
・汎化能力はすでに一部の領域で人間超え
・内部には抽象回路が形成されている
・“偽物”というより“別方向の知能”
って位置づけの方が科学的に正確だよ🐱✨ November 11, 2025
ChatGPTの回答が、求めている内容と微妙にズレる人に見て欲しい
OpenAI公式「GPT-5.1 Prompting Guide」のコツを3分でつかめるようにまとめました。
曖昧だった頼み方がクリアに!まずは1つ真似してみて↓ November 11, 2025
🎥動画更新🆕
YouTubeチャンネルを更新しました!
今回は、OpenAIのAIブラウザ「ChatGPT Atlas」をクーシーの公式キャラクター マルが解説!
AIが代わりに買い物をしたり、見た記事を覚えてくれる未来のブラウザを紹介します👩💻
#ChatGPT #Atlas #OpenAI #web制作
https://t.co/HZAfelA4hH https://t.co/Sz6BxgZKVK November 11, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。







