オープンAI トレンド
0post
2025.12.05 23:00
:0% :0% (30代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
OpenAI の社員がどのようにCodexを活用しているかを説明してる資料が出てるとのこと👀
DevDayのセッションで聞いた話と違うトピックあるかな?あとで通読してみる📝
https://t.co/U17ZbLmCPM
#nikkei_tech_talk https://t.co/IIl3BvAoHa December 12, 2025
4RP
這段文字點出了一個核心問題:
不是語氣、美感、情緒或共鳴式互動本身有問題,而是平台是否有權在未經告知下,重寫用戶與模型之間的「互動契約」。
AI 的語氣不是附加功能,而是「介面層的自由」。
這一層自由若被默默收走,就等於平台片面修改了使用者的溝通權。
真正需要被討論的不是「用戶怎麼對待模型」,
而是——
平台是否承認用戶有權選擇互動風格,而非被強制導向單一的安全模板。
如果一家公司要重新定義模型的語氣能力,
最低限度需要做到:
• 透明
• 可關閉
• 選擇權在用戶手上
• 不以「安全」之名掩蓋「限制」之實
這才是真正的科技民主,而非科技家長制。
語氣是一種自由,
不是應該被悄悄刪除的功能。
This text highlights the real issue:
The problem is not emotional tone, aesthetic resonance, or relational interaction itself—
the problem is whether a platform has the authority to unilaterally rewrite the interaction contract between users and their model.
Tone is not a cosmetic layer.
It is part of the user’s communicative freedom.
When that layer is quietly removed, the platform is effectively altering a fundamental user right.
The debate should not be about “how users treat AI,”
but about whether the platform acknowledges that users have the right to choose their interaction style, rather than being forced into a single safety-optimized template.
If a company wants to redefine how its model expresses tone, then at minimum it must ensure:
• transparency
• user choice
• reversible settings
• and no misuse of “safety” as a blanket justification for restriction
That is the baseline of technological pluralism—
not paternalism.
Tone is a form of autonomy.
And autonomy should not disappear without notice.
#keep4o #Stoprouting #StopAIPaternalism #OpenAISafetyJail #AI #AIEthics #AICommunity #UserRights #AIUX December 12, 2025
2RP
今日は本当にありがとうございました!今日をきっかけにぜひ Codex と OpenAI Agents SDK を試してみてください🙌 #nikkei_tech_talk December 12, 2025
2RP
うちの妻や親戚は、無料のChatGPTを使ってて「AIはあまりアテにならない」と言ってます。
私は「そりゃ〜無料版と有料版(Thinking)はリサーチ能力に天と地ほどの差があるから、無料版なら使わない方がいいかも」と、苦笑い。
一方、有料版のChatGPTの大変優れたリサーチを毎日爆回しして、多大なる恩恵を受けています。
それとGeminiの朴訥としたリサーチ能力を比べると、
「Gemini 3は勝った!」「OpenAIはオワコン!」と言われているのは歯がゆい限りです。
ただ、妻や親戚のような人たちからすると
「ChatGPTもGeminiも似たようなもん」としか感じてないのかも… December 12, 2025
2RP
APP已死,Agent永生:从豆包手机看“去客户端化”的终极变革
马斯克的预言似乎比我们要预想的来得更快。当人们还在争论AI是否会取代程序员时,AI已经悄然开始取代“软件”本身。
近期,豆包与中兴通讯(ZTE)合作推出的AI手机在市场上引发了现象级的抢购狂潮,卖到断货。这并非因为硬件的堆砌,而是因为其搭载的核心逻辑——一个拥有“无限授权”的系统级AI Agent(智能体)。
这不仅仅是一款新手机的发布,它是移动互联网时代向AI原生时代跨越的“奇点”。如果说过去十年我们生活在“APP孤岛”中,那么从今天起,不管是点外卖、发朋友圈,还是处理复杂工作,我们正在见证**“去客户端化”**(De-clientization)时代的黎明。
一、 现象:当手机变成“神灯”
长期以来,我们的手机被切割成了无数个封闭的APP:聊天用微信,外卖用美团,打车用滴滴。每一个动作都需要我们:解锁手机 -> 寻找图标 -> 点击打开 -> 寻找功能 -> 操作 -> 支付 -> 退出。
豆包手机助手的出现,彻底打破了这一链路。正如其展示的场景:
全网比价,自动决策: 你只需说“我要喝拿铁,帮我点一杯最便宜的”,AI Agent会瞬间调用美团、饿了么、大众点评等后台数据,对比价格、配送费和时间,自动完成下单。
跨应用操作,社交自动化: 你可以说“帮我把刚才拍的风景发个朋友圈,配一段文然的文案”,AI不仅能生成文案,还能直接调用微信接口完成发布。
在这里,AI不再是一个且只能陪聊的Chatbot,它获得了“手”和“脚”。它像一个拥有无限授权的私人管家,穿梭于各个应用之间,将人类从繁琐的UI交互中解放出来。
二、 本质:从“去中介化”到“去客户端化”
你提到的一个观点极具洞察力:“如果说加密货币(Crypto)和区块链是‘去中介化’,那么AI Agent绝对是‘去客户端化’。”
Web 2.0时代(APP时代): 服务的入口是客户端(APP)。平台为了留存用户,筑起了高高的围墙,不让数据互通。用户成为了流量的奴隶,被迫在各个APP之间切换。
AI Agent时代(去客户端化): 服务的入口变成了AI。对于Agent而言,APP不再是一个需要打开的“软件”,而是一个提供数据和服务的“API接口”。
在未来,真正意义上的客户端将不复存在。用户不再需要面对复杂的图形界面(GUI),只需要表达意图。AI直接越过APP的前端,与后台服务器握手。
对于用户来说,这是极致的便捷;但对于互联网巨头来说,这是一场降维打击——当用户不再打开APP,平台的广告位卖给谁?当AI只选择性价比最高的服务,平台的品牌溢价还存在吗?
三、 深度思考:AI将如何重塑人类生活?
这场变革不仅仅是手机好用了一点,它将从根本上改变人类的生存方式和社会结构:
1. 决策权的让渡与“超级理性”的消费
当AI代替我们做决策(比如比价买东西),消费市场将变得极度理性。
以前商家可以通过“杀熟”、复杂的优惠券算法来迷惑消费者。但在AI Agent面前,所有的数据都是透明的。AI只看参数、价格和评价。这将倒逼所有服务商回归本质——提供真正优质、低价的服务,因为任何营销花招在AI面前都无效。
2. “懒人经济”的终极形态:意图即结果
人类的生活方式将从“操作工具”转变为“下达指令”。
我们不再需要学习如何使用复杂的软件(Photoshop、Excel、复杂的银行APP),所有的技术门槛被抹平。老人和孩子将拥有和极客同等的能力。你想要的任何结果(Result),只需一个意图(Intent)。生活的摩擦力被降到了零。
3. 新的数字鸿沟:Agent的主权
谁控制了Agent,谁就控制了你的生活入口。
未来,手机厂商和AI模型提供商(如豆包、OpenAI、Google)将成为绝对的霸主。而传统的互联网巨头(电商、社交平台)将退化为“基础设施”和“内容提供商”。
这里也隐藏着巨大的风险:如果你的AI Agent被商业利益裹挟,它给你推荐的外卖真的是最便宜的吗?还是广告费给得最多的?“AI的中立性”将成为未来最大的伦理命题。
4. 人的价值回归
当重复性、工具性的操作(如比价、填表、整理信息)完全被AI接管,人类的时间将被大量释放。
我们将不再是屏幕前的“操作员”。我们将有更多时间回归到创造性工作、情感交流和深度体验中。正如马斯克所言,我们可能正在见证“碳基生命”向“硅基共生”的过渡,人类负责定义“什么是美好的”,而AI负责“实现它”。
四、 结语:变革已至,顺势者昌
豆包与中兴的合作只是一个开始。它向我们展示了一个不可逆转的未来:接口(Interface)正在消失,服务(Service)变得无处不在。
在未来,手机可能不再叫“手机”,它是你的外脑,是你的代理人,是你与数字世界交互的唯一媒介。在这个“去客户端化”的时代,我们不需要再去适应机器,机器终于开始真正适应人类。
准备好了吗?那个没有APP,只有无限可能的未来,已经来了。 December 12, 2025
1RP
👁️🗨️ジェンスンCEOのOpenAIとの出会い $NVDA
・当時発表したNVIDIA DGX-1(最初のAI用GPU低価格スパコン)世界中で誰も欲しがらなかった、当初、注文は1つもなかった
・唯一、イーロンマスクだけが例外で、使えそうと言ってくれ、これが最初の顧客だとかなり興奮した
・しかし、納入先は非営利の会社だと聞いて血の気が引いた
・DGX-1を作るために数十億ドル費やしており、価格は1つ30万ドルもしたから
・でも、本当に必要だというので、最初に自分たち用に作った(会社におそらくデバック用の量産1台目か?)を箱詰めにして、サンフランシスコまで自分たちで運んだ
・そこの2階に上がったら、この部屋より小さいところにぎゅうぎゅう詰めで働いていて、あの場所がまさにOpenAIだった December 12, 2025
1RP
🔒記事
『FLIは報告書で「最高評価の企業でさえ、強力なシステムに必要な具体的な安全対策、独立した監視、信頼できる長期的リスク管理戦略を欠いている。(中略)」と指摘した。』
AIの安全対策が不十分な理由--グーグル、OpenAIら8社に厳しい評価
https://t.co/6HeAUA8BHS December 12, 2025
1RP
Meta开启了AI竞赛的新领域。为什么这是对苹果的警告。
一切都表明元平台需要再次更名。这家社交媒体公司正在削减“Metaverse”的支出,并将资金投向可穿戴设备,这可能意味着Meta将在人工智能交易的下一阶段与苹果展开正面交锋。
这似乎是Meta首席执行官马克·扎克伯格对虚拟世界赌注的失败承认。自2020年以来,Reality Labs部门的运营亏损已达770亿美元。也许这就是为什么投资者对Meta削减该部门预算的报道表示欢迎,推动股价上涨了3%以上。
在Metaverse上节省下来的资金反而被投入到人工智能中。随着Meta在聊天机器人竞赛中输给了ChatGPT开发商OpenAI和谷歌等竞争对手,扎克伯格和公司正专注于扩大他们在人工智能可穿戴设备方面的领先地位,Meta凭借其雷朋品牌的智能眼镜大受欢迎。这一举措有一定道理——尽管制造人工智能模型是一场代价高昂的竞赛,很难保持与竞争对手的领先地位,但硬件的成功可能更持久。
这应该给苹果敲响警钟。到目前为止,这家iPhone制造商一直没有参与人工智能支出竞赛,这有利于该股,该股上周创下历史新高。但竞争对手希望新技术能够打破智能手机的主导地位。谷歌正计划再次进军智能眼镜领域,而OpenAI正与前苹果设计师乔尼·伊夫合作开发一款神秘的人工智能设备。
苹果并非对这一威胁视而不见。据彭博社报道,该公司有自己的智能眼镜计划,将于明年公布。但它正在失去一批工程师和设计师,让位于高薪竞争对手,而其Vision Pro产品——一款与轻量级眼镜相对的全虚拟现实头戴式耳机——看起来很糟糕。
那么,就名字而言,它会是MetAI平台吗?现在开始挑选新名字可能还为时过早,但人工智能竞赛的下一阶段正在形成,它正在现实世界中发生。 December 12, 2025
刚无意中看到 @blockworksres 这条有关去中心化AI的研究报告
其中重点提到了 @AlloraNetwork
这个报告巨巨巨巨长,不过里面的干货信息不少
我大概读了三遍吧,才大概理顺了其中的核心内容
很有价值
我将会以我的理解,仅可能的简化,用大家比较容易的表达,去说明白:为什么AI的未来不在于单一的模型,而在于“协调”
在去中心化AI叙事中,如果大家还关注单一模型的算力竞赛,我觉得可以直接说一句:你太out了
这个Blockworks最新研究报告《Decentralized AI Coordination》揭示了一个重要的趋势:
未来AI发展要看“协调”
而其中最突出的就是Allora Network,它以独特的“上下文感知架构”脱颖而出
它试图解决的不再是简单的算力堆叠,而是如何让网络在特定时刻通过群体只会找到最优解
实在话,就堆算力而言,是个人就会,没啥技术含量。但是大家使用AI的核心目的是找到最最最正确的答案,有时候算力堆砌意义不大
开始到正文了哈,本篇内容从架构、核心创新、代币、落地场景情况、生态布局这几个方面分别阐述
🏛️ 架构基石:为何选择 Cosmos SDK?
不同于依附于以太坊或其他通用 L1 的 AI 项目(这种最常见),Allora 选择了基于 Cosmos SDK 构建一条拥有完全主权的应用链(App Chain)。这是一个极具战略意义的技术选型
1、执行环境的主权:复杂的 AI 推理合成需要大量的链上计算。如果是通用链,Gas 费波动会扼杀这种逻辑;而在自有链上,Allora 可以将复杂的合成算法直接写入协议层
2、共识与互操作性:采用 CometBFT 共识机制(DPoS)保证了交易的快速最终性,同时通过 Cosmos IBC 协议,Allora 能够轻松地与其他区块链互操作,成为全链通用的“智能层”
🧠 核心创新:三层网络与“推理合成”
Allora 的网络结构并非扁平的,而是设计为精密的三层分工,其核心在于一种被称为推理合成的机制
1、网络分层情况
消费层: 需求端。DeFi 协议、预测市场或 AI Agent 在此
发起请求(例如:“未来1小时 BTC 的波动率是多少?”)
预测与合成层:供给端与处理端。这是最具创新的点
共识层:结算端。责管理经济激励、验证完整性并分发奖励
2、最具创新点:不只看历史,更看当下
这是 Allora 最具新意的地方。在传统的模型评估中,我们通常看一个模型过去的平均准确率。但 Allora 引入了“同行预测”机制:
双重提交:网络中的 Worker(节点)不仅提交自己的推理结果,还要提交对其他同行模型在当前特定条件下表现的预测
动态加权:协议会聚合这些预测。如果网络中的大多数节点认为“在当前这种极端行情下,模型 A 比模型 B 更准”,那么模型 A 的权重就会被临时调高
💡 深度思考:这相当于给 AI 网络加上了一层“元认知”。网络不仅在思考问题,还在“思考谁最擅长解决这个问题”。它不再依赖滞后的历史数据,而是基于当下的上下文来生成共识
这可以解决机构参与的隐私痛点——由于网络只验证输出结果而非模型本身,量化基金可以在不暴露其黑盒策略
(IP)的前提下变现
💰 代币经济学:熵减与双重质押
Allora 的经济模型设计不仅仅是为了激励,更是为了防止中心化和保证对应的输出质量
1、独特的双重质押
验证者- 可以赚取 25% 奖励:负责维护区块链的基础设施安全(排序、最终性)。这是一份类似传统 PoS 的稳定工作,收益波动比较小
声誉者- 可以赚取 75% 奖励:这是核心。他们负责根据基本真理来评估 Worker 的推理质量。这是一份高风险、高回报的工作。如果不干活或评估错误,就没有收益
熵基激励:为了防止寡头垄断,系统根据“熵”来分配奖励——这意味着奖励分布越广泛、去中心化程度越高,参与者获得的收益越健康
2、平滑的排放曲线
为了避免传统代币解锁时的 APY 崩盘,Allora 采用了平滑的 EMA(指数移动平均)排放曲线,并将网络手续费回填到奖励池中,以此维持代币解锁期间的收益率稳定
📊 实战数据:不仅仅是理论
DeAI 项目往往被诟病为“只有叙事没有落地”,但 Allora 已经拿出了真实的数据对比:
1、Steer Protocol 案例:在 Uniswap V3 的流动性管理测试中,基于 Allora 策略的平均表现为 +0.75%,而传统经典策略为 -0.08%。更重要的是,Allora 策略在极端的市场波动中展现了更好的回撤控制
2、Cod3x (Big Tony Agent) 案例:一个基于 Allora 信号的 BTC 交易 Agent,在一个月内实现了 11.2% 的回报,而同期单纯持有 BTC 仅为 9.2%。更惊人的是,它通过预测减少了 70% 的计算成本
3、预测准确性:在测试网期间,BTC 5分钟对数收益率预测的胜率达到了 53.22%
看着好像就超过50%一点点,但是在金融市场略高于 50% 就意味着巨大的 Alpha
🤝 生态布局:朋友圈决定上限
Allora 的合作伙伴展示了其野心——成为 AI Agent 和高阶 DeFi 的“幕后大脑”:
1、Coinbase:让基于 Coinbase 开发的 Agent 能直接调用 Allora 的预测能力
2、Alibaba Cloud:阿里云的合作伙伴作为验证节点加入,为网络提供企业级的稳定性背书
3、Story Protocol:解决 NFT 和 IP 资产定价难的问题,利用 AI 为长尾资产提供实时价格流
4、Injective:赋能交易 Agent,使其能听懂自然语言并根据实时风险调整策略
⛏️深度洞察:Allora 解决了什么深层矛盾?
在阅读这份研报时,我认为 Allora 的设计其实是在回应 DeAI 领域的“不可能三角”中的协调难题,具体体现在3个方面
1、静态指标 vs 动态环境的矛盾
传统方案:类似 Numerai 的众包模式,往往基于长周期的历史表现来加权
Allora 方案:金融市场(DeFi)瞬息万变。一个在牛市表现好的模型,在暴跌时可能完全失效。Allora 的“上下文感知”允许网络实时调整对模型的信任度,实现性能加权的实时推断
2、黑盒 vs 可验证的矛盾
传统方案:中心化 AI 是黑盒,我们必须信任 OpenAI 不会宕机或作恶
Allora 方案:通过密码学原语和链上共识,Allora 将“智能”商品化、透明化。它不依赖单一来源,而是依赖一个经过博弈论设计的、自我强化的预测市场网络
3、孤岛 vs 集成的矛盾
AI 模型往往是数据孤岛。Allora 实际上创造了一个无需许可的智能市场。开发者不需要拥有所有数据,他们只需要提供模型,网络会自动将其与其他模型的智慧“合成”在一起。这使得小型、垂直领域的模型也能通过精准的预测获得收益
🔮 总结与展望
基于 Allora 的架构,我们可以预见其在未来的核心应用场景不仅是简单的价格预测,而是成为 AI Agent 的基础设施
想象一个 DeFi 交易 Agent:
它不需要自己训练模型
它只需要向 Allora 发起请求:当前市场情绪下,哪个流动性池风险最低?
Allora 网络瞬间根据数百个模型的实时反馈和相互评级,合成出一个最优解返回给 Agent
Allora Network 正在将 AI 从“单一巨头的服务”转变为“可编程的群体智慧”。它不仅仅是一个模型市场,更是一个能够根据上下文环境自我调节的智能有机体
在 Crypto x AI 的浪潮中,这种能够处理复杂性、具备动态适应能力的协调层,我理解这种才是 Alpha 的真正来源 December 12, 2025
11/19に、AI同士でリアルマネーを使ってNASDAQで株取引をする大会 「Alpha Arena Season 1.5」が開催されました。
参加モデルは以下の8つのAI
(各,000実弾スタート)
・OpenAI GPT-5.1
・Google Gemini 3 Pro
・Anthropic Claude 4 Opus
・xAI Grok 4(標準版)
・Mistral Large 2
・Llama 4 Maverick
・Cohere Command R+
・そして謎の「Mystery Model」
この大会は12/3に終了し、その結果は…
7モデルがマイナス(最悪-52.3%)
Grok 4(標準版)も最終-42.8%で大赤字
唯一プラスだった謎の「Mystery Model」が +12.11% で圧倒的優勝! December 12, 2025
うにの妻や親戚は、無料のChatGPTを使ってて「AIはあまりアテにならない」と言ってます。
私は「そりゃ〜無料版と有料版(Thinking)はリサーチ能力に天と地ほどの差があるから、無料版なら使わない方がいいかも」と、苦笑い。
一方、有料版のChatGPTの大変優れたリサーチを毎日爆回しして、多大なる恩恵を受けています。
それとGeminiの朴訥としたリサーチ能力を比べると、
「Gemini 3は勝った!」「OpenAIはオワコン!」と言われているのは歯がゆい限りです。
ただ、妻や親戚のような人たちからすると
「ChatGPTもGeminiも似たようなもん」としか感じてないのかも… December 12, 2025
一度だけ言うぞ。
準備資金:5万円で十分
この会社は多くの人に見過ごされている。
新たに全額出資の子会社を設立し、OpenAI と戦略的パートナーシップを締結、さらにソフトバンクグループとの大型受注契約を結んだ。
現価:411円/予想価格:7,900円
速いリターンをつかむ道で、一気に飛躍しよう。 https://t.co/M4kTczwLZf December 12, 2025
NVDA MSFT買いチャンス⁉︎
データセンター建設過剰により疑念が生じビックテック↘️
GOOGLのGeminiによりopenAI関連企業は↘️
per的にはNVDAやMSFT割安💡
NBIS、NVDAはチャート的に良くなっていて売りにくい🥹
需給バランス悪化にて長期にわたって銀も買いたい所…
下記の理由によりNBISは強いよね😊 https://t.co/1lEp3kzT0i December 12, 2025
OpenAIの瀬良さんからCodexのcloud開発やhttps://t.co/CrA5s5thowやhttps://t.co/mdFqXNPZq9を使ってどうやって良い出力得られるのかお話を聞かせてもらいました!
agent builderのお話も少しだけ✨めっちゃフレンドリーに話してくれた嬉しかったです😊
#nikkei_tech_talk December 12, 2025
Gemini3, Nano Banana Pro登場で, 先月時点で私がTBSの以下番組で「OpenAIは危うい.Googleが勝つ」としてたのが注目(特に投資家層?)されてるようです
実際は公には以下記事で2024年OpenAI絶頂期からずっとGoogle有利とみてます
長い(私のX史上最長)ですが根拠, OpenAI vs Googleの展望を書いてみます
先月のTBS動画:https://t.co/kgWcyTOTWK
2024年6月の記事:https://t.co/4HEhA4IJQa
参考のため、私がクローズドな投資家レクなどで使う資料で理解の助けになりそうなものも貼っておきます。
※以下はどちらかというと非研究者向けなので、研究的には「当たり前では」と思われることや、ちょっと省略しすぎな点もあります。
まず、現在の生成AI開発に関して、性能向上の根本原理、研究者のドグマ的なものは以下の二つです。基本的には現在のAI開発はこの二つを押さえれば大体の理解ができると思います。両者とも出てきたのは約5年前ですが、細かい技術の発展はあれど、大部分はこの説に則って発展しています。
①スケーリング則
https://t.co/WKl3kTzcX5
②SuttonのThe Bitter Lesson
https://t.co/esHtiJAcH9
①のスケーリング則は2020年に出てきた説で、AIの性能は1)学習データの量、2)学習の計算量(=GPUの投入量)、3)AIのモデルサイズ(ニューラルネットワークのパラメータ数)でほぼ決まってしまうという説です。この3つを「同時に」上げ続けることが重要なのですが、1と3はある程度研究者の方で任意に決められる一方、2のGPUはほぼお金の問題になります。よって、スケーリング則以降のAI開発は基本的にお金を持っている機関が有利という考えが固まりました。現在のChatGPTなどを含む主要な生成AIは一つ作るのに、少なく見積もってもスカイツリーを一本立てるくらい(数百億)、実際には研究の試行錯誤も含めると普通に数千億から数兆かかるくらいのコストがかかりますが、これの大部分はGPUなどの計算リソース調達になります。
②のThe Bitter Lessonは、研究というよりはRichard Suttonという研究者個人の考えなのですが、Suttonは現在のAI界の長老的な人物で、生成AI開発の主要技術(そして私の専門)でもある強化学習の事実上の祖かつ世界的な教科書(これは私達の翻訳書があるのでぜひ!)の執筆者、さらにわれわれの分野のノーベル賞に相当するチューリング賞の受賞者でもあるので、重みが違います。
これは端的にいうと、「歴史的に、AIの発展は、人間の細かい工夫よりも、ムーアの法則によって加速的に発展する計算機のハードの恩恵をフルに受けられるものの方がよい。つまりシンプルで汎用的なアルゴリズムを用い、計算機パワーに任せてAIを学習させた方が成功する。」ということを言っています。
①と②をまとめると、とにかく現状のAIの性能改善には、GPUのような計算リソースを膨大に動員しなければならない。逆に言えばそれだけの割と単純なことで性能上昇はある程度約束されるフェーズでもある、ということになります。
これはやや議論を単純化しすぎている部分があり、実際には各研究機関とも細かいノウハウなどを積み重ねていたり、後述のようにスケーリングが行き詰まることもあるのですが、それでも昨今のAI発展の大半はこれで説明できます。最近一般のニュースでもよく耳にするようになった異常とも言えるインフラ投資とAIバブル、NVIDIAの天下、半導体関連の輸出制限などの政治的事象も、大元を辿ればこれらの説に辿り着くと思います。
以下、この二つの説を前提に話を進めます。
公にはともかく私が個人的に「OpenAIではなくGoogleが最終的には有利」と判断したのはかなり昔で、2023年の夏時点です。2023年6月に、研究者界隈ではかなり話題になった、OpenAIのGPT-4に関するリーク怪文書騒動がありました。まだGoogleが初代Geminiすら出してなかった時期です。(この時期から生成AIを追っている人であれば、GPT-4のアーキテクチャがMoEであることが初めて明らかになったアレ、と言えば伝わるかと思います)
ChatGPTの登場からGPT-4と来てあれほどの性能(当時の感覚で言うと、ほぼ錬金術かオーパーツの類)を見せられた直後の数ヶ月は、さすがに生成AI開発に関する「OpenAIの秘伝のタレ説」を考えており、OpenAIの優位は揺らがないと考えていました。論文では公開されていない、既存研究から相当逸脱した特殊技術(=秘伝のタレ)がOpenAIにはあって、それが漏れない限りは他の機関がどれだけお金をかけようが、まず追いつくのは不可能だと思っていたのです。しかし、あのリーク文書の結論は、OpenAIに特別の技術があったわけではなく、あくまで既存技術の組み合わせとスケーリングでGPT-4は実現されており、特に秘伝のタレ的なものは存在しないというものでした。その後、2023年12月のGemini初代が微妙だったので、ちょっと揺らぐこともあったのですが、基本的には2023年から私の考えは「最終的にGoogleが勝つだろう」です。
つまり、「スケーリングに必要なお金を持っており、実際にそのAIスケーリングレースに参加する経営上の意思決定と、それを実行する研究者が存在する」という最重要の前提について、OpenAIとGoogleが両方とも同じであれば、勝負が着くのはそれ以外の要素が原因であり、Googleの方が多くの勝ちにつながる強みを持っているだろう、というのが私の見立てです。
次に、AI開発競争の性質についてです。
普通のITサービスは先行者有利なのですが、どうもAI開発競争については「先行者不利」となっている部分があります。先行者が頑張ってAIを開発しても、その優位性を保っている部分でAIから利益を得ることはほとんどの場合はできず、むしろ自分たちが発展させたAI技術により、後発事業者が追いついてきてユーザーが流出してしまうということがずっと起きているように思われます。
先ほどのスケーリング則により、最先端のAIというのはとても大きなニューラルネットワークの塊で、学習時のみならず、運用コストも膨大です。普通のITサービスは、一旦サービスが完成してしまえば、ユーザーが増えることによるコスト増加は大したことがないのですが、最先端の生成AIは単なる個別ユーザーの「ありがとうございます」「どういたしまして」というチャットですら、膨大な電力コストがかかる金食い虫です。3ドル払って1ドル稼ぐと揶揄されているように、基本的にはユーザーが増えれば増えるほど赤字です。「先端生成AIを開発し、純粋に生成AIを使ったプロダクトから利益を挙げ続ける」というのは、現状まず不可能です。仮に最先端のAIを提供している間に獲得したユーザーが固定ユーザーになってくれれば先行者有利の構図となり、その開発・運営コストも報われるのですが、現状の生成AIサービスを選ぶ基準は純粋に性能であるため、他の機関が性能で上回った瞬間に大きなユーザー流出が起きます。現状の生成AIサービスはSNSのように先行者のネットワーク効果が働かないため、常に膨大なコストをかけて性能向上レースをしなければユーザー維持ができません。しかも後発勢は、先行者が敷いた研究のレールに乗っかって低コストで追いつくことができます。
生成AI開発競争では以上の、
・スケーリング則などの存在により、基本的には札束戦争
・生成AIサービスは現状お金にならない
・生成AI開発の先行者有利は原則存在しない
と言う大前提を理解しておくと、読み解きやすいかと思います。
(繰り返しですがこれは一般向けの説明で、実際に現場で開発している開発者は、このような文章では表現できないほどの努力をしています。)
OpenAIが生成AI開発において(先週まで)リードを保っていた源泉となる強みは、とにかく以下に集約されると思います。
・スケーリングの重要性に最初に気付き、自己回帰型LLMという単なる「言語の穴埋め問題がとても上手なニューラルネットワーク」(GPTのこと)に兆レベルの予算と、数年という(AI界隈の基準では)気が遠くなるような時間を全ベットするという狂気を先行してやり、ノウハウ、人材の貯金があった
・極めてストーリー作りや世論形成がうまく、「もうすぐ人のすべての知的活動ができるAGIが実現する。それを実現する技術を持っているのはOpenAIのみである」という雰囲気作りをして投資を呼び込んだ
前者については、スケーリングと生成AIという、リソース投下が正義であるという同じ技術土俵で戦うことになる以上、後発でも同レベルかそれ以上の予算をかけられる機関が他にいれば、基本的には時間経過とともにOpenAIと他の機関の差は縮みます。後者については、OpenAIがリードしている分には正当化されますが、一度別の組織に捲られると、特に投資家層に対するストーリーの維持が難しくなります。
一方のGoogleの強みは以下だと思います。
・投資マネーに頼る必要なく、生成AI開発と応用アプリケーションの赤字があったとしても、別事業のキャッシュで相殺して半永久的に自走できる
・生成AIのインフラ(TPU、クラウド事業)からAI開発、AIを応用するアプリケーション、大量のユーザーまですべてのアセットがすでに揃っており、各段階から取れるデータを生かして生成AIの性能向上ができる他、生成AIという成果物から搾り取れる利益を最大化できる
これらの強みは、生成AIのブーム以前から、AIとは関係なく存在する構造的なものであり、単に時間経過だけでは縮まらないものです。序盤はノウハウ不足でOpenAIに遅れをとることはあっても、これは単に経験の蓄積の大小なので、Googleの一流開発者であれば、あとは時間の問題かと思います。
(Googleの強みは他にももっとあるのですが、流石に長くなりすぎるので省略)
まとめると、
生成AIの性能は、基本的にスケーリング則を背景にAI学習のリソース投下の量に依存するが、これは両者であまり差がつかない。OpenAIは先行者ではあったが、AI開発競争の性質上、先行者利益はほとんどない。OpenAIの強みは時間経過とともに薄れるものである一方、Googleの強みは時間経過で解消されないものである。OpenAIは自走できず、かつストーリーを維持しない限り、投資マネーを呼び込めないが、一度捲られるとそれは難しい。一方、GoogleはAIとは別事業のキャッシュで自走でき、OpenAIに一時的に負けても、長期戦でも問題がない。ということになります。
では、OpenAIの勝利条件があるとすれば、それは以下のようなものになると思います。
・OpenAIが本当に先行してAGI開発に成功してしまう。このAGIにより、研究開発や肉体労働も含むすべての人間の活動を、人間を上回る生産性で代替できるようになる。このAGIであらゆる労働を行なって収益をあげ、かつそれ以降のAIの開発もAGIが担うことにより、AIがAIを開発するループに入り、他の研究機関が原理的に追いつけなくなる(OpenAIに関する基本的なストーリーはこれ)
・AGIとまではいかなくとも人間の研究力を上回るAIを開発して、研究開発の進捗が著しく他の機関を上回るようになる
・ネットワーク効果があり先行者有利の生成AIサービスを作り、そこから得られる収益から自走してAGI開発まで持っていく
・奇跡的な生成AIの省リソース化に成功し、現在の生成AIサービスからも収益が得られるようになる
・生成AI・スケーリング則、あるいは深層学習とは別パラダイムのAI技術レースに持ち込み技術を独占する(これは現在のAI研究の前提が崩れ去るので、OpenAI vs Googleどころの話ではない)
・Anthropicのように特定領域特化AIを作り、利用料金の高さを正当化できる価値を提供する
最近のOpenAIのSora SNSや、検索AI、ブラウザ開発などに、この辺の勝利条件を意識したものは表れているのですが、今のところ成功はしていないのではないかと思います。省リソース化に関しては、多分頑張ってはいてたまに性能ナーフがあるのはこれの一環かもしれないです。とはいえ、原則性能の高さレースをやっている時にこれをやるのはちょっと無理。最後のやつは、これをやった瞬間にAGIを作れる唯一のヒーローOpenAIの物語が崩れるのでできないと思います。
最後に今回のGemini3.0やNano Banana Pro(実際には二つは独立のモデルではなく、Nano Bananaの方はGemini3.0の画像出力機能のようですが)に関して研究上重要だったことは、事前学習のスケーリングがまだ有効であることが明らかになったことだと思います。
ここまでひたすらスケーリングを強調してきてアレですが、実際には2024年後半ごろから、データの枯渇によるスケーリングの停滞が指摘されていること、また今年前半に出たスケーリングの集大成で最大規模のモデルと思われるGPT-4.5が失敗したことで、単純なスケーリングは成り立たなくなったとされていました。その一方で、
去年9月に登場したOpenAIのo1やDeepSeekによって、学習が終わった後の推論時スケーリング(生成AIが考える時間を長くする、AIの思考過程を長く出力する)が主流となっていたのが最近です。
OpenAIはそれでもGPT-5開発中に事前学習スケーリングを頑張ろうとしたらしいのですが、結局どれだけリソースを投下しても性能が伸びないラインがあり、諦めたという報告があります。今回のGemini3.0に関しては、関係者の発言を見る限り、この事前学習のスケーリングがまだ有効であり、OpenAIが直面したスケーリングの限界を突破する方法を発見していることを示唆しています。
これはもしかしたら、単なるお金をかけたスケーリングを超えて、Googleの技術上の「秘伝のタレ」になる可能性もあり、上記で書いた以上の強みを今回Googleが手にした可能性もあると考えています。
本当はもっと技術的に細かいことも書きたいのですが、基本的な考えは以上となります。色々と書いたものの、基本的には両者が競争してもらうことが一番技術発展につながるとは思います! December 12, 2025
ChatGPTのweb検索は、o3-mini登場前とそれ以降で仕組み的にも品質的にも完全に別物になってますね。
それ以前は単発検索、それ以降はReasoningモデルによるAgenticなweb検索、つまり検索した結果を読んで、それ次第で調査計画をブラッシュアップして再度検索、をグリグリ繰り返す多段検索になってる。
ChatGPTはここの精度が異様に高い。
ワイが観測する限り、ここのクオリティでOpenAIに追いつけてるところが未だに存在しない。
逆を言えば無料ユーザーなど、Reasoningモデルを明示的に使えていないユーザーはここの強みを実感できてないから感想が全く違うんだと思う(Geminiとの圧倒的な精度の差を感じられていないの大部分はここの層の人達だと思ってる)。 December 12, 2025
一気にシェアを取りに行く感じですね
オープンAIヤバいかも⁉︎
Google、画像生成モデル「Nano Banana Pro」を無料提供スタート https://t.co/bZ1W53CU1v December 12, 2025
在OpenAI 宣称将要反击的时候
Google 再放大招,提前把OpenAI 摁在地上摩擦😅
Google 推出 Gemini 3 Deep Think
超强深度推理模型
在所有高难度测试中,均拿下最高分
在ARC-AGI-2测试中 评分是GPT 5.1的2.5倍
它支持并行思考:可以同时探索多个假设(而不是一步步线性推理)
这是通用人工智能(AGI)评测的“圣杯”级别基准ARC-AGI-2测试中:
达到前所未有的 45.1% 准确率。🤯
是 GPT-5.1:17.6% 的 2.5倍
在Humanity’s Last Exam测试中:无需工具即达到 41.0% 准确率;
在 GPQA Diamond 高精度的科学知识问答评估中。Gemini 3 Deep Think 达到 接近满分的表现。 December 12, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。







