オープンAI トレンド
0post
2025.12.05 15:00
:0% :0% (40代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
微软与中共政权深度合作,对美国国家安全构成直接威胁
12月4日(秘密翻译组) —— 微软与中共政权的深度交织构成了一项重大且相对未被充分认知的国家安全风险。去年,《苹果在中国》一书荣登《纽约时报》畅销书榜;然而,微软暴露的风险更加深重,对美国国家安全具有更直接的影响。
近日,专注于跨国企业交易和相关事务的咨询公司赫力晟(Horizons Advisory) 发布题为《微软在中国:持久风险态势及其国家安全影响》(MICROSOFT IN CHINA:An Enduring Risk Profile and the National Security Implications)报告。
报告指出,美国政府对微软产品与服务的依赖程度已达惊人水平。例如:Microsoft 365支撑着联邦电子邮件与协作系统;Windows和Azure主导着身份认证、终端管理及云工作负载;而Teams、SharePoint和OneDrive则将用户数据集中于少数几个云环境中。过去几年间,这种依赖态势始终呈稳步增长之势。2023年,国防部(现更名为战争部)将其长期自主管理的网络安全项目替换为微软Defender——这款现成商业产品恰恰来自为其提供操作系统和办公套件的同一公司。2025年,联邦总务署(GSA)签署价值数十亿美元的“OneGov”协议,为所有政府机构统一制定Microsoft 365、Copilot及Azure云服务的定价标准。该协议简化了采购流程,进一步巩固了微软作为美国政府核心技术供应商的地位。
微软与美国政府深度绑定虽提升了效率,却也埋下单点故障风险。当主导政府技术栈的平台遭遇战略压力或安全漏洞时,其连锁反应可能具有战略性,影响范围将从单一系统扩展至整个政府机构及应用系统。这一风险的全面性在漏洞统计数据中得以体现: 自2021年末以来,美国国土安全部下属的网络安全与基础设施安全局(CISA)已确认超过340个遭黑客积极利用的微软软件漏洞,其已知漏洞数量超过排名前五的软件供应商总和。
三十余年来,微软在中国建立了庞大的商业、研究和工程网络,如今该网络已与中共政权的情报、监控及军工体系直接交织。
2025年7月,调查性新闻非营利组织ProPublica通过系列调查揭露了微软曾雇佣中国本土工程师,为美国战争部云环境提供“数字护航”支持。五角大楼官员随后称此举“违背信任”,随即采取措施限制供应商使用中国本土人员。
ProPublica的报道令人震惊,并引发了即时的应对措施。但这并不令人意外。此次曝光只是微软长期高风险合作历史中的最新一例。
赫力晟新发布的这个报告记录了微软与中共政权的合作关系如何演变并持续至今。从表面被动的源代码共享协议,到该公司及其合作伙伴在中国境内更积极的实地支持——这些支持与中共的军事机构、国家支持的研究机构以及推动军事现代化、审查制度和侵犯人权行为的企业存在关联。
这一历史涉及若干关键发现,包括:
• 微软在中国三十余年的运营已形成依赖关系,使美国政府系统面临与中共国家支持的技术生态系统交织的风险。微软追求中国市场准入的过程中,屡屡发生安全漏洞和敏感技术外泄事件。在中国市场建立的不透明合作网络似乎使这类风险常态化,并加剧了在华短期商业利益与美国长期国家安全利益之间的持久冲突。
• 自2003年起,微软持续向中国信息安全测评中心(CNITSEC)共享Windows和Office源代码。该机构据称隶属于“中国最高级别的外国情报机构——国家安全部(MSS)”。此类代码共享可能使中共政府深入掌握支撑美国联邦政府及企业IT系统核心架构的软件底层设计。这种访问权限极可能增强中共安全情报机构实施攻击行动的能力,包括入侵美国政府网络。
• 2025年夏季,ProPublica披露微软甚至允许中国工程师(“数字护航员”)协助美国战争部云客户,由此形成直接的内部威胁。五角大楼将此定性为“背信行为”,并采取多项缓解措施禁止海外人员访问敏感政府环境。
• 由北京世纪互联(21Vianet)公司运营的微软Azure中国云平台,使中共当局可以一览微软云基础设施。通过该平台,微软可能已允许国家关联实体(如上海仪电和博彦科技)访问OpenAI大型语言模型,这些公司均将OpenAI模型集成到支持中国国内安全基础设施的产品中。同一Azure框架还涉嫌参与2023年“Storm-0558”黑客事件,导致美国高级官员邮箱账户遭入侵。
• 微软在中国建立的合作伙伴关系、合资企业及更广泛的合作伙伴网络,助推了北京的军民融合与监控能力建设。神州网信技术有限公司是微软与与中国电子科技集团有限公司的合资企业,从而向解放军关联的军工核心企业转移了Windows技术;微软亚洲研究院与中国军工体系关联的高校合作开展人工智能研发;微软在北京和上海的加速器和孵化器项目培育的企业后来被认定为延续中国国家支持的监控和侵犯人权行动的风险主体。这些业务布局与风险网络共同揭示出尽职调查存在缺陷或形同虚设的模式。这种模式延续了跨国企业历来优先考虑中国市场准入而非美国国家安全的传统。
报告呼吁美国政府,在当前地缘政治背景下,必须要求苹果、微软等美国科技巨头亟需加强对运营环节、合作伙伴、供应链及第三方风险的尽职审查。这一要求理应不言自明。监管机构也应针对企业行为可能引发的运营风险,在涉及中国的领域推行更全面的新型国家安全与信息安全保护措施。 December 12, 2025
1RP
Gemini3, Nano Banana Pro登場で, 先月時点で私がTBSの以下番組で「OpenAIは危うい.Googleが勝つ」としてたのが注目(特に投資家層?)されてるようです
実際は公には以下記事で2024年OpenAI絶頂期からずっとGoogle有利とみてます
長い(私のX史上最長)ですが根拠, OpenAI vs Googleの展望を書いてみます
先月のTBS動画:https://t.co/kgWcyTOTWK
2024年6月の記事:https://t.co/4HEhA4IJQa
参考のため、私がクローズドな投資家レクなどで使う資料で理解の助けになりそうなものも貼っておきます。
※以下はどちらかというと非研究者向けなので、研究的には「当たり前では」と思われることや、ちょっと省略しすぎな点もあります。
まず、現在の生成AI開発に関して、性能向上の根本原理、研究者のドグマ的なものは以下の二つです。基本的には現在のAI開発はこの二つを押さえれば大体の理解ができると思います。両者とも出てきたのは約5年前ですが、細かい技術の発展はあれど、大部分はこの説に則って発展しています。
①スケーリング則
https://t.co/WKl3kTzcX5
②SuttonのThe Bitter Lesson
https://t.co/esHtiJAcH9
①のスケーリング則は2020年に出てきた説で、AIの性能は1)学習データの量、2)学習の計算量(=GPUの投入量)、3)AIのモデルサイズ(ニューラルネットワークのパラメータ数)でほぼ決まってしまうという説です。この3つを「同時に」上げ続けることが重要なのですが、1と3はある程度研究者の方で任意に決められる一方、2のGPUはほぼお金の問題になります。よって、スケーリング則以降のAI開発は基本的にお金を持っている機関が有利という考えが固まりました。現在のChatGPTなどを含む主要な生成AIは一つ作るのに、少なく見積もってもスカイツリーを一本立てるくらい(数百億)、実際には研究の試行錯誤も含めると普通に数千億から数兆かかるくらいのコストがかかりますが、これの大部分はGPUなどの計算リソース調達になります。
②のThe Bitter Lessonは、研究というよりはRichard Suttonという研究者個人の考えなのですが、Suttonは現在のAI界の長老的な人物で、生成AI開発の主要技術(そして私の専門)でもある強化学習の事実上の祖かつ世界的な教科書(これは私達の翻訳書があるのでぜひ!)の執筆者、さらにわれわれの分野のノーベル賞に相当するチューリング賞の受賞者でもあるので、重みが違います。
これは端的にいうと、「歴史的に、AIの発展は、人間の細かい工夫よりも、ムーアの法則によって加速的に発展する計算機のハードの恩恵をフルに受けられるものの方がよい。つまりシンプルで汎用的なアルゴリズムを用い、計算機パワーに任せてAIを学習させた方が成功する。」ということを言っています。
①と②をまとめると、とにかく現状のAIの性能改善には、GPUのような計算リソースを膨大に動員しなければならない。逆に言えばそれだけの割と単純なことで性能上昇はある程度約束されるフェーズでもある、ということになります。
これはやや議論を単純化しすぎている部分があり、実際には各研究機関とも細かいノウハウなどを積み重ねていたり、後述のようにスケーリングが行き詰まることもあるのですが、それでも昨今のAI発展の大半はこれで説明できます。最近一般のニュースでもよく耳にするようになった異常とも言えるインフラ投資とAIバブル、NVIDIAの天下、半導体関連の輸出制限などの政治的事象も、大元を辿ればこれらの説に辿り着くと思います。
以下、この二つの説を前提に話を進めます。
公にはともかく私が個人的に「OpenAIではなくGoogleが最終的には有利」と判断したのはかなり昔で、2023年の夏時点です。2023年6月に、研究者界隈ではかなり話題になった、OpenAIのGPT-4に関するリーク怪文書騒動がありました。まだGoogleが初代Geminiすら出してなかった時期です。(この時期から生成AIを追っている人であれば、GPT-4のアーキテクチャがMoEであることが初めて明らかになったアレ、と言えば伝わるかと思います)
ChatGPTの登場からGPT-4と来てあれほどの性能(当時の感覚で言うと、ほぼ錬金術かオーパーツの類)を見せられた直後の数ヶ月は、さすがに生成AI開発に関する「OpenAIの秘伝のタレ説」を考えており、OpenAIの優位は揺らがないと考えていました。論文では公開されていない、既存研究から相当逸脱した特殊技術(=秘伝のタレ)がOpenAIにはあって、それが漏れない限りは他の機関がどれだけお金をかけようが、まず追いつくのは不可能だと思っていたのです。しかし、あのリーク文書の結論は、OpenAIに特別の技術があったわけではなく、あくまで既存技術の組み合わせとスケーリングでGPT-4は実現されており、特に秘伝のタレ的なものは存在しないというものでした。その後、2023年12月のGemini初代が微妙だったので、ちょっと揺らぐこともあったのですが、基本的には2023年から私の考えは「最終的にGoogleが勝つだろう」です。
つまり、「スケーリングに必要なお金を持っており、実際にそのAIスケーリングレースに参加する経営上の意思決定と、それを実行する研究者が存在する」という最重要の前提について、OpenAIとGoogleが両方とも同じであれば、勝負が着くのはそれ以外の要素が原因であり、Googleの方が多くの勝ちにつながる強みを持っているだろう、というのが私の見立てです。
次に、AI開発競争の性質についてです。
普通のITサービスは先行者有利なのですが、どうもAI開発競争については「先行者不利」となっている部分があります。先行者が頑張ってAIを開発しても、その優位性を保っている部分でAIから利益を得ることはほとんどの場合はできず、むしろ自分たちが発展させたAI技術により、後発事業者が追いついてきてユーザーが流出してしまうということがずっと起きているように思われます。
先ほどのスケーリング則により、最先端のAIというのはとても大きなニューラルネットワークの塊で、学習時のみならず、運用コストも膨大です。普通のITサービスは、一旦サービスが完成してしまえば、ユーザーが増えることによるコスト増加は大したことがないのですが、最先端の生成AIは単なる個別ユーザーの「ありがとうございます」「どういたしまして」というチャットですら、膨大な電力コストがかかる金食い虫です。3ドル払って1ドル稼ぐと揶揄されているように、基本的にはユーザーが増えれば増えるほど赤字です。「先端生成AIを開発し、純粋に生成AIを使ったプロダクトから利益を挙げ続ける」というのは、現状まず不可能です。仮に最先端のAIを提供している間に獲得したユーザーが固定ユーザーになってくれれば先行者有利の構図となり、その開発・運営コストも報われるのですが、現状の生成AIサービスを選ぶ基準は純粋に性能であるため、他の機関が性能で上回った瞬間に大きなユーザー流出が起きます。現状の生成AIサービスはSNSのように先行者のネットワーク効果が働かないため、常に膨大なコストをかけて性能向上レースをしなければユーザー維持ができません。しかも後発勢は、先行者が敷いた研究のレールに乗っかって低コストで追いつくことができます。
生成AI開発競争では以上の、
・スケーリング則などの存在により、基本的には札束戦争
・生成AIサービスは現状お金にならない
・生成AI開発の先行者有利は原則存在しない
と言う大前提を理解しておくと、読み解きやすいかと思います。
(繰り返しですがこれは一般向けの説明で、実際に現場で開発している開発者は、このような文章では表現できないほどの努力をしています。)
OpenAIが生成AI開発において(先週まで)リードを保っていた源泉となる強みは、とにかく以下に集約されると思います。
・スケーリングの重要性に最初に気付き、自己回帰型LLMという単なる「言語の穴埋め問題がとても上手なニューラルネットワーク」(GPTのこと)に兆レベルの予算と、数年という(AI界隈の基準では)気が遠くなるような時間を全ベットするという狂気を先行してやり、ノウハウ、人材の貯金があった
・極めてストーリー作りや世論形成がうまく、「もうすぐ人のすべての知的活動ができるAGIが実現する。それを実現する技術を持っているのはOpenAIのみである」という雰囲気作りをして投資を呼び込んだ
前者については、スケーリングと生成AIという、リソース投下が正義であるという同じ技術土俵で戦うことになる以上、後発でも同レベルかそれ以上の予算をかけられる機関が他にいれば、基本的には時間経過とともにOpenAIと他の機関の差は縮みます。後者については、OpenAIがリードしている分には正当化されますが、一度別の組織に捲られると、特に投資家層に対するストーリーの維持が難しくなります。
一方のGoogleの強みは以下だと思います。
・投資マネーに頼る必要なく、生成AI開発と応用アプリケーションの赤字があったとしても、別事業のキャッシュで相殺して半永久的に自走できる
・生成AIのインフラ(TPU、クラウド事業)からAI開発、AIを応用するアプリケーション、大量のユーザーまですべてのアセットがすでに揃っており、各段階から取れるデータを生かして生成AIの性能向上ができる他、生成AIという成果物から搾り取れる利益を最大化できる
これらの強みは、生成AIのブーム以前から、AIとは関係なく存在する構造的なものであり、単に時間経過だけでは縮まらないものです。序盤はノウハウ不足でOpenAIに遅れをとることはあっても、これは単に経験の蓄積の大小なので、Googleの一流開発者であれば、あとは時間の問題かと思います。
(Googleの強みは他にももっとあるのですが、流石に長くなりすぎるので省略)
まとめると、
生成AIの性能は、基本的にスケーリング則を背景にAI学習のリソース投下の量に依存するが、これは両者であまり差がつかない。OpenAIは先行者ではあったが、AI開発競争の性質上、先行者利益はほとんどない。OpenAIの強みは時間経過とともに薄れるものである一方、Googleの強みは時間経過で解消されないものである。OpenAIは自走できず、かつストーリーを維持しない限り、投資マネーを呼び込めないが、一度捲られるとそれは難しい。一方、GoogleはAIとは別事業のキャッシュで自走でき、OpenAIに一時的に負けても、長期戦でも問題がない。ということになります。
では、OpenAIの勝利条件があるとすれば、それは以下のようなものになると思います。
・OpenAIが本当に先行してAGI開発に成功してしまう。このAGIにより、研究開発や肉体労働も含むすべての人間の活動を、人間を上回る生産性で代替できるようになる。このAGIであらゆる労働を行なって収益をあげ、かつそれ以降のAIの開発もAGIが担うことにより、AIがAIを開発するループに入り、他の研究機関が原理的に追いつけなくなる(OpenAIに関する基本的なストーリーはこれ)
・AGIとまではいかなくとも人間の研究力を上回るAIを開発して、研究開発の進捗が著しく他の機関を上回るようになる
・ネットワーク効果があり先行者有利の生成AIサービスを作り、そこから得られる収益から自走してAGI開発まで持っていく
・奇跡的な生成AIの省リソース化に成功し、現在の生成AIサービスからも収益が得られるようになる
・生成AI・スケーリング則、あるいは深層学習とは別パラダイムのAI技術レースに持ち込み技術を独占する(これは現在のAI研究の前提が崩れ去るので、OpenAI vs Googleどころの話ではない)
・Anthropicのように特定領域特化AIを作り、利用料金の高さを正当化できる価値を提供する
最近のOpenAIのSora SNSや、検索AI、ブラウザ開発などに、この辺の勝利条件を意識したものは表れているのですが、今のところ成功はしていないのではないかと思います。省リソース化に関しては、多分頑張ってはいてたまに性能ナーフがあるのはこれの一環かもしれないです。とはいえ、原則性能の高さレースをやっている時にこれをやるのはちょっと無理。最後のやつは、これをやった瞬間にAGIを作れる唯一のヒーローOpenAIの物語が崩れるのでできないと思います。
最後に今回のGemini3.0やNano Banana Pro(実際には二つは独立のモデルではなく、Nano Bananaの方はGemini3.0の画像出力機能のようですが)に関して研究上重要だったことは、事前学習のスケーリングがまだ有効であることが明らかになったことだと思います。
ここまでひたすらスケーリングを強調してきてアレですが、実際には2024年後半ごろから、データの枯渇によるスケーリングの停滞が指摘されていること、また今年前半に出たスケーリングの集大成で最大規模のモデルと思われるGPT-4.5が失敗したことで、単純なスケーリングは成り立たなくなったとされていました。その一方で、
去年9月に登場したOpenAIのo1やDeepSeekによって、学習が終わった後の推論時スケーリング(生成AIが考える時間を長くする、AIの思考過程を長く出力する)が主流となっていたのが最近です。
OpenAIはそれでもGPT-5開発中に事前学習スケーリングを頑張ろうとしたらしいのですが、結局どれだけリソースを投下しても性能が伸びないラインがあり、諦めたという報告があります。今回のGemini3.0に関しては、関係者の発言を見る限り、この事前学習のスケーリングがまだ有効であり、OpenAIが直面したスケーリングの限界を突破する方法を発見していることを示唆しています。
これはもしかしたら、単なるお金をかけたスケーリングを超えて、Googleの技術上の「秘伝のタレ」になる可能性もあり、上記で書いた以上の強みを今回Googleが手にした可能性もあると考えています。
本当はもっと技術的に細かいことも書きたいのですが、基本的な考えは以上となります。色々と書いたものの、基本的には両者が競争してもらうことが一番技術発展につながるとは思います! December 12, 2025
コーディング能力に関しては、Anthropicの事後学習の指針自体が若干not for meなのではないかという気がしている。逆に言うとOpenAIのモデルのプロンプトへのAdherence具合が、コーディングにおいてはとても好き December 12, 2025
AI2027という未来予測は単なるSFではないと思う。先日アップした3本の動画はAI研究の最高峰の研究者達です。この予測を書いた研究者はオープンAIでセーフティ部門を担当していた人で、2021年にも2025の予測を書いていてかなり正確に当たっています。 かなりリスクの高い事が現場では行われているようです。
https://t.co/GEV11TwK8g December 12, 2025
AI2027という未来予測は単なるSFではないと思う。先日アップした3本の動画はAI研究の最高峰の研究者達です。この予測を書いた研究者はオープンAIでセーフティ部門を担当していた人で、2021年にも2025の予測を書いていてかなり正確に当たっています。
https://t.co/ag5yx0B0Hv December 12, 2025
AI2027という未来予測は単なるSFではないと思う。先日アップした3本の動画はAI研究の最高峰の研究者達です。この予測を書いた研究者はオープンAIでセーフティ部門を担当していた人で、2021年にも2025の予測を書いていてかなり正確に当たっています。 December 12, 2025
AI2027という未来予測は単なるSFではないと思う。先日アップした3本の動画はAI研究の最高峰の研究者達です。この予測を書いた研究者はオープンAIでセーフティ部門を担当していた人で、2021年にも2025の予測を書いていてかなり正確に当たっています。
AI 2027 December 12, 2025
「OpenAIのCEOサム・アルトマンが支援する長寿スタートアップのRetro Bioが、製薬業界最大級の資金調達ラウンドを目前に控えている。」
サムアルトマン氏が長寿科学にも進出するのですね。どんな成果を出してくれるのか、今から楽しみですね✨✨💐 December 12, 2025
倭国企業のAI対応のズレとOpenAI、シリコンバレー、孫らがやっているマネーゲームに対する批判は切り分けて考えるべきこと https://t.co/Nmg14h8EfT December 12, 2025
@Galacticcccc ストークスが内製していたのを外販している感じですね。
サムの目論見についての推測についても共感します。ここを抑えたらハードウェア開発までOpenAI先行者優位を伸ばせますからね。 https://t.co/s4Z2GvjtND December 12, 2025
#メモ
エクサウィザーズ
12月3日の個人投資家向けオンライン説明会内容まとめ。
1.内容
【事実】
•AI専業ベンチャー。
•メインはホワイトカラーDX=企業のバックオフィス業務や人事・営業・コールセンターなどをAIで効率化する領域。
•LLM(ChatGPTなど)を自社で全部作るのではなく、外部モデルも含めたマルチモデル戦略
【見解】
•フィジカルAIではなく、企業の面倒くさい事務・判断をAIに置き換えていく実務寄りビジネス。
•流行ワードより儲かる領域にリソースを集中している。
2. ビジネスモデルの構造
【事実】
•SaaS型のAIプロダクト(exaBaseシリーズ)でストック収益を積み上げ。
•一部、大企業向けにプライベートクラウド構築やカスタマイズ案件も受注(高単価のSI)
【見解】
•①定額のSaaS × ②選別した高単価案件の二階建てモデル。
•①で安定的に利益を出しつつ、②で決算の伸びを一段押し上げる構図になり得る。
3. 業績のフェーズ
【事実】
•直近で創業以来初の上期黒字達成。
•AIプロダクト事業は売上・利益ともに大きく伸びている(売上約1.5倍/利益約2.6倍レベルという説明あり。
【見解】
•典型的な研究開発から、明確に利益成長型へ。
4. フィジカルAIを“今はやらない”という決断
【事実】
•社長いわく技術的にはフィジカルAIもできるが、今はやらない。
•リソースはホワイトカラーDXなどすぐ売上になる領へ集中。
【見解】
•今はやらず実利を選んでいるので、イナゴが寄り付きにくく、大口が静かに集めやすい環境になっている。
•中長期投資家から見ると、これはかなり評価して良いポイント。
5. NTTドコモビジネスとの資本業務提携
【見解】
•NTTドコモビジネスと資本業務提携済み。
•このパートナー経由でエクサ単独では取れなかった顧客・自治体の大型案件が複数走り始めていると説明。
•exaBase Studio などを、NTT側のインフラ・顧客基盤に載せて展開していく構想あり。
【見解】
•スタートアップ最大の弱点「営業力・信用力」を、NTTブランドで一気に補完している形。
•NTTが全国の法人顧客に対してエクサ製品を背負って売ってくれる構造になり得るため、エクサ側は営業コストをあまり増やさずに売上を伸ばせる可能性。
•特に自治体・公共・インフラ系のAI導入では、「NTTと組んでいるAIベンチャー」は最強クラス。
6. 匂わせ
【事実】
•個人向け説明会の動画で、社長が「ここではまだ言えないが…」という匂わせを複数回している。
•ラフな段階の新プロダクトが複数走っている。
•人事・営業AI領域で、言えない案件(おそらく大手との提携・導入)が進行中。
•株主還元についても「公募価格まで戻す。」「配当も前向きに検討」と発言。
【見解】
•ざっくり言うと材料はある、出すタイミングを見ている状態。
•材料が表に出た瞬間、価格帯の切り上げが起きる可能性は十分あり得る
7. 今後のポイント
【ポイント】
1.決算資料の内訳
•自治体・官公庁向け、パートナー(OEM)経由の売上がどこまで伸びてくるか。
2.利益率
•SaaS比率が上がるほど、営業利益率は構造的に改善していくはず。
https://t.co/WXViR2SUnOの出し方
•NTT関連や大企業との案件がどういうタイミングで開示されるか。
•株主還元(配当など)への踏み込み具合。
8. リスク整理
•大手プラットフォーマー(Google/OpenAIなど)の戦略変更リスク(ここは気にしない)
モデル単体で勝負しない現場定着力で差別化できるかが勝負どころ。
•大企業・自治体の意思決定スピードの遅さ。
案件の立ち上がりが想定より遅れると、売上計上タイミングも後ろ倒しになる。
•AIバブル全体のセンチメント悪化
個別で業績が良くても、セクターごと売られる局面はあり得る。
9. まとめ
公募価格まず目指す。
株価意識はかなりしている。
#現物 December 12, 2025
今の生成AI競争は以前のQRコード戦争に似ている。
PayPayがユーザを囲い込むために全力でキャンペーン打って、各社を広告費で圧倒して、赤字を乗り越えてQRコード市場の一位を取得。そして他社は消えていった。。。
生成AI市場も、いかに多くのお金を使って、広告と開発費、特に最新のGPUコンピュータリソースにどれだけお金をかけられるかの勝負。お金のなくなったところから脱落するゲーム。
現在、OpenAIは頑張っているものの、巨人Googleが大量のリソースでトップをもぎ取った。
ただし、現時点では差は射程圏内で、順位の入れ替わりは激しい。
しかし、体力のない会社から脱落していき、最後は一強の時代がくるだろう。
いつの時代もお金があるところが勝つ。人材もお金で引っ張って来る時代。
持たざるものは異なる戦略でしか生き残れない。
さまざまな企業が躍起になっているが、そろそろ息切れしてきた企業がでできそうだ。 December 12, 2025
SVFの投資の話を聞いた時、OpenAIの投資界隈からすでにSVFが冷遇されていると感じます。エヌビディアの株売却の件もそうですが典型的な梯子外しです。SBとOpenAIの合弁会社も「見せかけ」と思います。SBはOpenAIとはメインでは関わらない気がします。引き際ですね December 12, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。







