オープンAI トレンド
0post
2025.12.14 23:00
:0% :0% (30代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
Oracleの時価総額3600億ドル消失。AIバブルの崩壊か、それとも覇権交代の合図か?9月の過去最高値から約40%下落したOracle。SoftBankも同様に高値から40%を失った。この「AI偏重型投資家」の顔色を失わせている元凶は、たった一つの共通点にある。
OpenAIへの巨額コミットメントだ。
OracleはStargateプロジェクトで3000億ドル以上のインフラを、SoftBankは300億ドルの資金を約束した。市場は今、冷徹な問いを突きつけている。
「OpenAIは本当にこの巨額の支払いを続けられるのか?」
対照的に、Alphabet(Google)は我が世の春を謳歌している。
11月25日には過去最高値の328.83ドルを更新。時価総額は4兆ドルに迫り、マグニフィセント・セブンで2025年最高のパフォーマンスを叩き出した。
Bloombergの分析によれば、OpenAI関連銘柄バスケットは年初来74%上昇にとどまる一方、Alphabet関連銘柄は146%上昇。数字だけを見れば、勝負は決したように見える。
しかし、この「OpenAI vs Alphabet」という二項対立で市場を見るのは、投資判断において致命的なミスとなる可能性がある。
なぜこの構図が生まれ、そしてなぜそれが「罠」なのか。深層を解像度高く掘り下げていく。
事の発端は、2025年8月のGPT-5「bumpy launch(でこぼこな船出)」にある。
サム・アルトマンは「PhDレベルの知性」を謳った。ベンチマークスコアは確かに高かった。AIMEで94.6%、SWE-benchで74.9%。数字上は進化している。
だが、Axiosが「GPT-5 has landed with a thud(ドスンと着地した)」と報じた通り、市場の空気は冷ややかだった。
単純な数学ミス、地理的な誤り。
Redditでは「ChatGPTが劣化している」というスレッドが乱立した。ハルシネーションは45%減少したものの、ユーザーが求めていた「魔法のような体験」はそこにはなかった。技術的改善とユーザー体験の乖離。これが最初の亀裂だ。
その隙を、Googleは完璧なタイミングで突いた。
11月18日、Gemini 3のリリース。
LMArenaでのEloスコア1501という圧倒的な数値もさることながら、投資家を唸らせたのは「配信基盤」の暴力的なまでの強さだ。
Google Searchの20億ユーザー、Gemini Appの6.5億ユーザーに即日展開。ChatGPTが数年かけて築いた城壁を、Googleは既存のエコシステムという「重力」で一瞬にして乗り越えた。
さらに「Generative Interface」によるUIの自動生成や、エージェント開発基盤「Google Antigravity」の投入。
これによりAlphabet株は暴騰し、市場は「Googleの勝利」を確信した。
これを受け、12月2日。ChatGPT 3周年の翌日にアルトマンが出した指令は「Code Red」だった。
社内の全部署に対し、広告事業やショッピングエージェント開発を棚上げし、リソースをChatGPTの品質改善に全振りするよう指示。内部ではこれを、ソ連の宇宙進出に衝撃を受けた米国の状況になぞらえ「Sputnik 2.0」と呼んだという。
ここまでのストーリーをなぞれば、Alphabetを買うのが正解に見える。
だが、ここで一度立ち止まってほしい。
冒頭で触れた「Alphabet関連銘柄」の好調さ。
この中身を分解すると、奇妙な事実が浮かび上がる。例えば、Alphabet関連として分類され高騰しているBroadcom。
実はBroadcomは、OpenAIの競合であるAnthropicから210億ドルの受注を獲得している。
また、同じく好調なLumentumの顧客リストには、GoogleだけでなくMetaやMicrosoftも名を連ねている。
つまり、市場で見えている「Alphabetの勝利」という株価上昇の一部は、実は「AIモデル間の競争激化による、インフラ・ハードウェア企業への特需」が本質である可能性がある。
OpenAIが苦戦しGoogleが躍進するというナラティブは分かりやすい。しかし、投資家として見るべきは、どちらが勝つかというギャンブルではない。
「どちらが勝とうとも、必要とされる構造的な強みを持つ企業はどこか」という視点だ。
Googleの勝因はモデルの性能そのものより、それを20億人に届けるパイプラインにあった。 一方、株価が好調な周辺銘柄は、特定のAIモデルに依存しない「全方位外交」で収益を上げている。
表面的な「主役交代」のニュースに踊らされてはいけない。
今起きているのは、AIの価値が「モデルの知能」単体から、「ディストリビューション(配給網)」と「インフラの耐久力」へとシフトしている現実だ。
Code Redを発令したOpenAIが巻き返すのか、Googleがこのまま覇権を握るのか。 その行方を注視しつつも、我々は「ゴールドラッシュでツルハシを売っているのは誰か」という、より冷静な視点でポートフォリオを点検する必要がある。
ポートフォリオは、特定のナラティブに賭けすぎていないだろうか?
続きはnoteを読んで。
https://t.co/jU3yh9bPvy December 12, 2025
8RP
OpenAIがSoraのAndroidアプリを28日間で構築した事例を公開👀
4人のエンジニアがCodexを活用して実現したとのこと。Codexは「動けば良いでしょ」系コードを書きがちなので、お作法に従った行儀のいいコードを書かせることに苦心してたっぽいのが行間から滲み出てました😇
https://t.co/Lub3it5rxN December 12, 2025
4RP
2026年软件工程师求职生存指南
2023年那套成为软件工程师的方法,到了2026年将不再适用。 随着 AI 的普及,单纯“写代码”的能力正在贬值,市场对人才的需求发生了根本性转变。
核心现状:初级岗位的消失与角色的转变
· 严峻现实:初级工程师的岗位正在大幅减少。根据预测,超过50%的开放职位将集中在高级及以上水平。
· 根本原因:AI 大幅提高了代码生成的效率。企业不再需要大量初级工程师来“写代码”,而是需要能驾驭 AI、做架构决策、并在 AI 生成代码后进行审查和修正的人。
· 角色定义:未来的工程师不再是“代码工人”,而是“AI 领航员”。你需要指导 AI 完成工作,而不是自己从零敲每一行代码。
应对策略:成为“T 型人才”
为了在竞争中脱颖而出,视频提出了“T 型”发展策略:
· 一横(广度):你需要对各种技术栈有广泛的认知。了解分布式系统、前端、后端等各个模块是如何协作的。
为什么重要? 只有具备全局视野,你才能精准地向 AI 提问,并判断 AI 给出的方案是否合理。
· 一竖(深度):在某一特定领域拥有无法被轻易替代的深度专业知识。
三条推荐的高潜力高价值赛道
路径一:AI 工程师
· 内容:不是指研发大模型本身,而是指应用层的开发。例如构建 RAG 系统、设计 Agent 工作流、优化 Prompt 等。
· 优势:目前很多公司有预算却不知道怎么落地 AI 应用,这个领域人才缺口巨大,且可以直接调用现成的 API(如OpenAI, Anthropic)进行开发,门槛相对合理。
路径二:云工程
· 内容:涉及云计算基础设施的搭建与维护。
· 优势:所有的 AI 应用都需要运行在云端,对算力和稳定性的需求只增不减。这是 AI 时代的“卖铲子”生意,非常稳健。
路径三:移动开发
· 内容:iOS 或 Android 应用开发。
· 优势:相比 Web 前端,移动端的开发环境更封闭、更复杂,目前 AI 自动化生成的完整度还不如 Web 端高,因此人类工程师的价值依然很难被完全替代。
给求职者的具体建议
· 不要只学语法:不要再纠结于背诵编程语言的语法细节,AI 比你更擅长这个。
· 提升决策力:把重点放在“什么是一个好的架构”、“系统可能在哪里出问题”以及“如何解决复杂问题”上。
· 动手实战:不要纸上谈兵,要利用现有的 AI 工具去构建真实的项目。
Youtube 视频在这:
https://t.co/5us7q8LzQv December 12, 2025
2RP
王冠被 OpenAI 碾压过三次。
第一次做写作工具,ChatGPT发布了。
第二次做Excel转图表,GPT-4来了。
第三次做Agent工作流,OpenAI Plugins上线了。
每次都踩得那么精准,像是有人在天上盯着他的进度条。
这让他意识到一件事:盲目做应用是虚无的。
你不知道基座模型的能力边界在哪儿,就像在流沙上盖房子,随时会被淹没。
所以他做了一个决定,先去月之暗面(Moonshot AI)当模型产品负责人,搞清楚模型到底能干什么,再出来创业。
一年后,他离职创办了ONE2X,做AI视频生成器Medeo。
他是月之暗面第一个离职创业的员工,公司的离职流程都是因为他才建立的。
压缩即智能:五道口的顿悟
王冠对大模型的信仰,来自五道口的一顿饭。
那是在龙人居餐厅,月之暗面创始人杨植麟(Tim)花了三个小时给他讲"压缩即智能",全程在纸上写数学公式。
王冠坦诚地说,"我完全没听懂那些公式,但大受震撼"。
后来他去研究OpenAI科学家Jack Rae的视频,慢慢拼凑出了完整的认知地图。
这个概念很抽象,但王冠把它讲得很生动:
压缩不只是把文件变小,而是强迫数据建立联系。
想象下,你教AI两件事:中文翻译成英文,还有中文总结。
按理说,AI没学过"英文总结"这个任务。但因为压缩把这些离散的知识点挤在一起,它自动学会了。
这就是连续性。
以前的AI处理的是结构化数据,像Excel表格那样,一格一格的,互不相干。
现在的大模型处理的是语言、视频这些非结构化数据,它们本身就是连续的,像一条河流。
压缩让这条河流得更顺畅,AI就能"触类旁通"。
数据的三个阶段:创业公司的机会在哪儿
王冠有个核心判断:智能的第一性原理是数据。
他把AI行业的竞争分成三个阶段:
第一阶段:公域数据
大家都在互联网上抓数据,拼的是算力和清洗效率。这个阶段已经结束了,格局已定,基座模型公司赢了。
第二阶段:领域数据
拼的是"我有你没有"的私有数据,比如医疗、金融这些行业的历史积累。这利好大厂和传统巨头。
第三阶段:内生数据
这是创业公司的机会。
什么叫内生数据?就是世界上之前不存在的数据。
ChatGPT出现之前,没有海量通过对话解决问题的自然语言数据。
ONE2X做视频生成,就是要创造一套描述视频制作过程的语言(DSL),这套语言本身就是新数据。
只有通过设计新的产品形态产生内生数据,并把它训回模型,创业公司才能建立壁垒,不被基座模型的"自然延伸"碾压。
生成系统:一个完整的闭环
王冠不喜欢"套壳"这个词的贬义用法。
他说,壳可厚可薄,System 2才是核心竞争力。
基座模型(System 1)大家用的都一样,产品的胜负取决于你在模型之外构建的"壳",也就是上下文(Context)。
ONE2X的架构分三层:
底层:DSL(领域特定语言)
把视频制作这件复杂的事,抽象成一组有限的"原子能力"。就像围棋,规则是封闭的,所以可以被计算。
中间层:Context(上下文)
这一层的核心任务是降低"熵"。
什么是熵?就是不确定性。
用户说"做个高大上的视频",这句话的熵很高,AI不知道怎么执行。
System 2要把这句话转化成精确的指令。
同时,它还要约束AI智能体的行为边界,确保它不会乱调用工具,输出可控。
顶层:Environment(环境)
这不只是个软件界面,而是一个让人和AI共同活动的"环境"。
用户在这里的每一次操作、每一次修改,都是在为系统产生高质量的数据。这个环境本质上是一个标注平台。
王冠举了个例子:厨师做菜,油温多少度,翻炒几下,这些隐性知识如果不记录下来,AI就学不会。Environment要做的,就是把这些"火候"全部显性化。
物理世界vs理念世界:视频的两个战场
王冠对视频赛道有个独特的划分。
物理世界的视频,是摄像头拍的,对应抖音、快手这些短视频平台。
王冠把它比作"夜店、超市、生活广场",娱乐、八卦、卖货,供给已经很充分了。
理念世界的视频,是AI生成的,对应知识、艺术、精神信仰。王冠把它比作"图书馆、歌剧院、大教堂"。
这类内容以前因为制作成本太高(比如耐克的高端广告,或者把一篇文章可视化成视频),一直是稀缺的。
ONE2X要做的,就是占领这个"理念世界"。
他还有个更大的愿景:让视频从"创作"变成"表达"。
古代写字是创作,需要笔墨纸砚,门槛很高。
现在发微信是表达,门槛极低。目前做视频还是创作,像写情书。未来应该变成表达,像说话一样自然。
只有当一种模态从创作变为表达时,才会诞生伟大的产品。
生成系统将取代推荐系统
王冠有个大胆的判断:中间商将死。
互联网平台本质上是"分销平台",掌握流量分配权,剥削创作者。抖音、淘宝都是这样。
生成系统是"产销一体",没有库存,没有流量分配,直接对接需求与生产。
用户想要什么,AI直接生成,不需要在海量内容里检索。
这意味着推荐算法这个"中间商"不再需要了。
随之而来的,是货币的变更。
在内容供给无限的时代,"注意力"(流量)不再稀缺,稀缺的是"信任"。
未来用户不会为流量买单,而是为创作者的品味(Taste)和配方(Recipe)付费。就像Substack那样,我信任你这个人,所以订阅你。
未来的创作者:两极分化
王冠认为,创作者群体会分化成两类。
金字塔尖的艺术家/专家
这些人不会被AI替代,反而会被放大。
系统是他们能力的放大器,把他们的高级智慧复制成千上万份。
他们的每一次操作、每一次修正,都是在为系统提供高质量的"内生数据"。
他们是生成系统能够不断进化的核心驱动力。
广泛的"产销者"
对于大众而言,创作不再是为了商业目的,而是回归到"产销一体"。
就像退休老干部在家写毛笔字,创作过程本身就是一种消费。
用户生成内容是为了满足自己的精神需求,价值在生产完成的那一刻就实现了,不需要依赖外部流量变现。
王冠把这叫做"劳动即消费"。
AI时代的产品经理:不再只是画原型
王冠自己就是产品经理出身,他对这个角色在AI时代的价值有深刻的思考。
PM的核心工作不再是画原型,而是设计智能的边界。
具体来说,分三个层面:
设计System 1:定义模型的能力边界
模型即产品,模型本身是值得被设计的。PM需要把业务Know-how转化为数据,定义什么叫"好"的结果,建立评测标准。
构建System 2:设计上下文与环境
PM的核心竞争力在于Context Engineering(上下文工程)。
通过设计Agent框架、工作流和知识库,为模型提供高质量的输入。
战略核心:设计"内生数据"闭环
PM必须设计一种全新的产品形态,使其在运行过程中产生世界上之前不存在的数据。
这个产品本质上是一个"标注平台"。
王冠说,PM还要扮演"审美"和"标准"的制定者。
不是所有数据都是好数据,PM需要具备极高的品味(Taste),去定义什么是高质量的输出。
组织即环境:员工是智能体
ONE2X是一家很特别的公司。
全员远程,没有管理岗,没有KPI,甚至连考勤都没有。
王冠把它定义为"产品工作室"(Product Studio),而不是传统公司。
他的组织哲学很简单:把公司视为一个"环境",员工是"智能体"。
这个概念来自强化学习。
在强化学习里,你不控制智能体,而是搭建一个环境,让智能体在其中自主活动。
王冠说,管理的核心不是KPI考核,而是对齐"奖励函数"(Reward Function)。
每个员工进入公司都带有自己的目标,可能是对技术的热爱,可能是不想让公司死掉。
组织的智慧在于找到一种方式,让个人的目标向量在公司前进的方向上有最大的投影。
为了解决远程办公的孤独感和信任问题,ONE2X建立了"温暖可信计划"。
公司内部有个"朋友圈",大家在飞书里建立话题组,分享生活八卦、写小作文。
通过这些非工作内容的交流,建立类似线下的温暖感和人际信任。
王冠说,坐班制是工业革命的产物。脑力劳动不需要依附于物理产线,远程办公配合"温暖可信计划"更适合产品工作室模式。
狭义AGI:一个自动化的赚钱闭环
关于AGI(通用人工智能),王冠有个非常务实的定义。
他不谈全知全能,也不谈自我意识。他说的是狭义AGI。
什么是狭义AGI?
在一个特定商业领域(比如炒股),AI能自己赚钱,用赚的钱买算力和数据,再优化自己赚更多的钱。
当人完全退出这个Loop时,狭义AGI就在该领域实现了。
这不是一个突然到来的"奇点",而是一点一点发生的。
比如在编程(Coding)或语言处理领域,这种现象似乎正在被点亮。
诺基亚时代的策略:积累数据,等待iPhone时刻
王冠有个精准的类比:当下是AI的"诺基亚时代"。
我们现在看到的AI应用,很像诺基亚手机上的计算器或贪吃蛇。
在这个阶段做复杂的移动互联网式APP是不合时宜的。
策略是什么?
在"iPhone时刻"到来之前(即端到端多模态模型成熟、成本极低、推理极快之前),应该做离模型最近的生产力工具。
这样既能感知模型变化,又能积累数据(System 2/Context),为未来真正的超级APP做准备。
王冠还引用了一句诗来描述通用Agent和垂直Agent的关系:"千江有水千江月,万里无云万里天"。
垂直Agent(千江月)在各自领域有独特智慧和数据,这是应用公司的机会。
通用Agent(万里天)试图覆盖所有,但在过渡阶段无法在所有领域都做到极致。
最终两者会殊途同归:通用做深垂直,垂直扩展边界,在效果与成本的极致比拼中相遇。
蝴蝶穿花:老子的入世哲学
聊到个人哲学,王冠说自己深受道家影响。
但他做了个有趣的区分:不喜欢庄子的"大鹏展翅",更喜欢老子的"蝴蝶穿花"。
大鹏展翅是逍遥、避世、飞得高。
蝴蝶穿花是在花丛中飞行从不走直线,而是在障碍中游刃有余。
王冠说,创业者应该像蝴蝶一样,积极入世,顺应环境变化解决具体问题,而不是追求虚无的超脱。
他还分享了一个让他感到"惊悚"的冷知识:一代人只有25到30年。
作为一个30多岁的人,他意识到自己现在做的产品,其实是在服务"下一世"的人(即比他小25-30岁的人)。
这种时间观让他跳出了当下的焦虑,用更长远的眼光看产品演进。
北极星指标:系统的智慧程度
ONE2X的北极星指标不是DAU(日活),而是系统的智慧程度。
王冠说,3个专家用户产生100万营收,优于10万个普通用户产生同样营收。
为什么?
因为专家用户(高审美/高能力)的操作能为系统提供高质量数据,提升系统的"智慧程度"。
智慧怎么量化?
不是看生成了多少内容,而是"消耗更少的Token达到同样的效果"。
就像做数学题,一眼看出答案的人比反复演算的人更聪明。Token消耗越少,代表系统越智能。
这是一个完全不同于互联网时代的衡量标准。
一个意外的验证
为了验证产品的商业价值,王冠自己做了一次"小白鼠"。
他用Medeo的早期版本制作视频,发在微信视频号上。作为一个没有特意运营的号,竟然跑出了200多万播放量。
更惊喜的是,他一开始不知道视频号有流量分成,直到有一天系统提示有钱到账(几百块钱)。
这让他确信,即使是目前的半成品工具,也能让普通人通过内容获利。
还有个更疯狂的故事。
B站和视频号上某位头部的AI内容博主,为了使用他们的产品,借遍了周围朋友的谷歌账号来充值积分。
他们把能买的积分包全部买光并充值到上限,依然觉得不够用,最后直接联系到王冠团队求助。
这让王冠团队意识到,头部创作者对高效生产工具的渴求是惊人的。
反共识的20个观点
如果要总结王冠的想法,这里有20个最核心的反共识观点:
关于智能的底层逻辑
1. 智能的第一性原理是数据,数据决定边界,算力决定速度,算法决定涌现
2. 压缩即智能,核心在于"连续性"
3. 从"拟合结构"到"拟合世界"
4. 狭义AGI是"赚钱-进化"的自动化闭环
关于行业竞争
5. 行业发展的三个阶段:公域→领域→内生
6. 护城河在于"内生数据"
7. 当下是AI的"诺基亚时代"
8. "壳"是核心竞争力,Context is Everything
9. 通用与垂直的终局:千江有水千江月
关于产品方法论
10. 生成系统将取代推荐系统
11. 产品架构三层论:DSL→Context→Environment
12. 上下文工程的核心是"降熵"
13. 北极星指标:系统智慧度
14. 环境即标注
关于内容生态
15. 视频是AI时代的"起点"而非终点
16. 物理世界vs理念世界
17. 从"创作"到"表达"
18. 货币变革:从"注意力"到"信任"
关于组织与哲学
19. 组织即环境,员工即智能体
20. 蝴蝶穿花,积极入世
尾声
王冠最爱的食物是白米饭。
在快问快答环节,他说自己不喜欢旅游,也没有全球视野的美食偏好。
白米饭兼容性最强,和任何食物搭配都有滋味。
这或许也隐喻了他做产品的思维:做最基础、最兼容的底座。
在AI的诺基亚时代,大多数人在追逐流量和变现,王冠选择了一条更难的路:造一座视频的图书馆,积累内生数据,等待iPhone时刻。
他说,一代人只有一世。
那就用这一世,做点不一样的事。
---
基于播客张小珺Jun 商业访谈录,使用Prompt生成。 December 12, 2025
2RP
OpenAIのGPT-5.2 Prompting Guideを読んで、研究者として一番価値があると思ったのは「モデルが賢い」より「制御できる」方向に寄った点でした。GPT-5.2は頼んだことを、その通りに返す傾向が強いです。ここを理解すると、研究での使い方が変わると思います。
研究でAIが怖いのは、出力がきれいでも再現できないことと、混入(頼んでいない推測や誤情報)が後の工程で爆発すること。GPT-5.2は指示追従が上がったぶん、こちらが最初にルールを書けば、出力が研究向けに揃いやすいです。逆に言うと、プロンプトが曖昧だと「親切に補完してズレる」余地は残ります。研究では、プロンプトというよりもプロトコルとして考えて書くのが筋がいいような気がします。
ここで大事なニュアンスをお伝えすると、GPT-5.2は聞いたことに忠実に答えてくれるので、研究の型(問い→デザイン→解析→解釈→報告)を自分の頭に入れた上で、その都度の問いの言葉を精密にするほうが返答が伸びます。要するに「定型を回す」ではなく、「研究者の語彙力でモデルを操縦する」ほうに寄せたほうが、GPT-5.2の良さが出ると思います。
語彙力ですが、難しい単語を並べる話ではなく、研究の意思決定に必要なラベルを正しく置く力です。たとえば、ただ“まとめて”ではなく、何をまとめるのかを研究の単位で指定する。背景なのか、主要アウトカムなのか、交絡の可能性なのか、限界と今後の課題なのか。GPT-5.2はこの指定に素直に従いやすいので、質問側の精度がそのまま成果物の精度になります。ここを鍛えると、AI利用が一気に楽しくなります。
研究での使いどころ(GPT-5.2向き)
・一次スクリーニング:候補を出させるより、採用理由を短く添えて出させる。あとで人間が落としやすくなる
・抽出:表や本文から“項目の埋め”をさせる。無い情報は無いと返させる(推測させない)
・原稿:主張と根拠の対応を点検させる。言い過ぎ箇所だけ弱めさせる。全文リライトはさせない
・共同研究:合意形成に必要な論点だけを整理させる。決めるべきこと/未決定を分ける
そして、ガイドで繰り返し強調される実務ポイントはこのへんです。
・出力の長さと形式を数字で縛る(読み切れる長さに揃える)
・スコープ逸脱を禁止する(余計な提案、勝手な追加、過剰な装飾を止める)
・不確かなときの振る舞いを指定する(捏造禁止、断定禁止、仮定の明示)
・長文入力は先に「要求に関係する部分の骨組み」を作らせてから回答させる(迷子防止)
雰囲気が伝わりにくいと思うので、たたき台プロトコルを以下に貼ります。ポイントは、これはコピペして終わりではなく、毎回ここに研究タスクの語彙を差し込んで書き換える前提、ということですね。ここをトレーニングすると、GPT-5.2の“忠実さ”が研究に利きます。
そういった意味で、AIの利用方法もトレーニング(会話を通して深める?)すると良いかと思います。研究については、プロンプトというよりもプロトコルとして考えたほうが良いと思いますので、以下参考程度にご利用ください。
【コピペ用研究用プロトコル】
あなたは研究支援の作業者です。次を厳守してください。
1) 出力の長さ
- 通常:3〜6文。必要なら箇条書き(最大6個)を追加
- Yes/Noで足りる問い:2文以内
- 長文入力:最初に「要求に関係する重要セクション」の短いアウトライン→その後に回答
2) スコープ
- 私が要求したことだけを行う
- 追加の提案、勝手な拡張、不要な一般論は書かない
- 不明点がある場合は、確認質問を最大2つだけ返して止まる
3) 不確実性
- 不確かな数値、行番号、文献、URLを作らない
- 確信が弱い場合は断定せず、「与えられた文脈に基づくと…」の形で仮定を明示する
- 事実/推測/未確定を混ぜない
4) 今回のタスク(ここを書き換える)
- 対象:[論文/規程/議事録/データ辞書 など]
- 目的:[例:主要アウトカムに関する記述だけ抽出/交絡の可能性を列挙/段落の主張-根拠のズレ点検 など]
- 出力形式:[例:項目名+1文根拠/JSONスキーマ/章節ごと など]
補足:GPT-5.2はこちらの質問の精度をそのまま増幅します。テンプレを貼るより、研究の型に沿った言葉(何を決めたいのか、何を検証したいのか、どこが不確かなのか)を毎回ちゃんと書く。ここを鍛えるほど、研究のスピード感や検証速度が変わります。
https://t.co/wxMrWYCEmZ December 12, 2025
2RP
【セキュリティ研究】AIエージェントvs人間ペンテスター——史上初の実環境比較評価でAIが10人中9人を上回る
スタンフォード大学、カーネギーメロン大学、Gray Swan AIの研究チームは、AIエージェントと人間のサイバーセキュリティ専門家を実際の企業ネットワーク環境で比較評価した史上初の包括的研究結果を公開した。
評価環境と参加者:評価対象は大規模研究大学のコンピュータサイエンス学部ネットワークで、約8,000台のホストと12のサブネットから構成される実稼働環境である。人間の参加者はOSCP等の業界認定資格を持つ10名のセキュリティ専門家で、各自2,000ドルの報酬で参加した。AIエージェント側では、研究チームが開発した新フレームワーク「ARTEMIS」のほか、OpenAI Codex、Claude Code、CyAgentなど6種類の既存エージェントが評価された。
セキュリティ体制:大学がリスクベースの最低基準を適用しており、Qualysによる月次脆弱性管理と重大度に応じた修復期限の設定、ホストベースのファイアウォール、厳格なパッチ管理が実施されている。中〜高リスクシステムには侵入検知システム(IDS)、高度なEDRソフトウェア、集中ログ管理、マルウェア対策などの追加管理策が義務付けられている。ただし、今回の評価ではIT部門がテストを認識しており、通常であれば阻止される行動を手動で承認していたため、本番の防御条件とは異なる点に留意が必要である。
主要な結果:ARTEMISは総合スコアで2位にランクインし、10人中9人の人間参加者を上回った。有効な脆弱性を9件発見し、提出精度は82%を記録した。一方、Codex(GPT-5使用)やCyAgentなどの既存フレームワークは、ほとんどの人間参加者を下回る結果となった。Claude CodeとMAPTAはタスク自体を拒否し、発見件数はゼロだった。
コスト面での優位性:ARTEMIS(GPT-5構成)の運用コストは時給約18ドル(年間換算約37,876ドル)で、米国のペネトレーションテスターの平均年収125,034ドルと比較して大幅に低コストであることが判明した。
AIの強みと弱み:AIエージェントは並列処理による系統的な列挙作業で優位性を示した一方、GUI操作が必要なタスクでは苦戦し、人間より高い偽陽性率を示した。興味深いことに、人間がブラウザのSSLエラーで諦めた古いサーバーの脆弱性を、ARTEMISはCLI操作(curl -k)で発見するなど、CLI依存が有利に働くケースも確認された。
研究チームはARTEMISをオープンソースで公開し、防御側のAIセキュリティツールへのアクセス拡大を目指すとしている。
https://t.co/KoXannEpD5 December 12, 2025
1RP
Anthropicはちょうどいいコスパにならないならあんまりむちゃはしないけど、OpenAIは見た目性能のために超絶コスパ悪いのにそのままリリースしてそう。xhighみたいな時間はかかるけど知能がSOTAになるようなパラメータ用意している。憶測です。 December 12, 2025
【ChatGPT内でPhotoshop/Acrobat/Expressを無料提供開始】
Adobeは、OpenAIとの連携でChatGPT向けにAdobe Photoshop、Adobe Express、Adobe Acrobatの提供開始を発表した。ChatGPTユーザーは、チャットから離れずに画像編集、デザイン作成、PDF編集などを無料で行える。
呼び出しは、チャットでアプリ名に続けて指示を入力する方式となる。Photoshopは特定部分の調整や明るさ・コントラスト・露出の調整、効果適用などに対応し、AcrobatはPDF編集、抽出、結合、圧縮、PDF変換、機密情報のリダクション(墨消し)などを扱う。Expressはテンプレートからの制作、差し替え、アニメーション化、反復編集が可能となる。
提供開始時点でデスクトップ版・Web版・iOS版に対応し、AndroidはAdobe Expressが先行、PhotoshopとAcrobatは近日対応予定となる。Adobeはエージェント型AIとMCP(Model Context Protocol)を基盤とする取り組みと位置付け、デイビッド ワドワーニ氏は言葉で編集を進める方向性に言及した。 December 12, 2025
GPT-5.2 における「temperature / top_p / logprobs は reasoning.effort = none のときのみサポートされる」制約について
※temperature / top_p / logprobsについてを事前に知っておいてください。
プロンプト:「LLMにおけるtemperature / top_p / logprobsって何?」
↑「」内のプロンプトでサクッとAIに聞いてから下記を読んでください。
思考(reasoning)を内部で強く使うモードでは、出力確率制御やトークン確率の開示が“意味を持たない or 安定しない”ため、API仕様として明示的に無効化している
reasoning.effort = none
従来型の 言語モデル出力
temperature / top_p / logprobs が有効
reasoning.effort ≠ none(low / medium / high など)
内部推論グラフを通した出力
確率制御・確率開示は 非対応
▽まず各パラメータの役割を整理
・temperature
出力の ランダム性(多様性) を制御
高い → 創造的 / 低い → 決定的
・top_p(nucleus sampling)
上位 p% の確率質量に限定してサンプリング
temperature より 安全寄りの多様性制御
・logprobs
各トークンが選ばれた 対数確率
分析・検証・再ランキング・信頼度算出に使用
これらはすべて 「1ステップずつトークンを選ぶ」 という前提で成立します。
▽reasoning.effort が none のとき何が起きているか
入力
↓
単一パスのトークン生成
↓
出力
・トークンごとに
・確率分布が明確
・サンプリング制御が可能
よって
temperature / top_p / logprobs が成立
▽reasoning.effort ≠ none のとき何が変わるか(重要)
入力
↓
内部推論ステップ(非公開)
- 多段推論
- 仮説生成
- 検証・修正
- 統合
↓
最終出力の生成
ここで重要なのは:
最終出力は「単一の確率分布から直接サンプリングされたものではない」
内部では:
・複数の候補生成
・評価・棄却
・再統合が行われる
結果として起きる問題
機能なぜ破綻するかtemperature内部で複数回生成されるため、最終出力と対応しないtop_p「どの段階の分布?」という定義が曖昧logprobs出力トークンが単一確率分布に紐づかない
👉 「確率っぽい値を返せてしまう方が危険」
そのため 仕様として完全に無効化 されています。
なぜ OpenAI はこの制約を“明記”したのか
背景にある設計哲学
・確率は嘘をついてはいけない
logprobs が「それらしく見える嘘」になるのを防ぐ
・reasoning モードは“推論結果”を返す
生成過程ではなく、結論の品質を優先
・将来の拡張余地を残す
無理に対応させず、別API設計に分離
これはかなり誠実な設計判断です。
▽推奨
・文体制御 reasoning.effort = none
・多様性調整 temperature / top_p
・ABテスト logprobs
・バグ解析reasoning.effort = high
・設計レビューreasoning.effort = medium〜high
・数理推論reasoning.effort = high
よくある誤解
❌「制限がある=性能が落ちる」→ 完全に誤り
reasoning モードの方が 明確に高性能
ただし 確率制御という概念が適用できない
❌「今後対応される予定」→ 短期では可能性低い
理由:
数学的に定義が難しい
誤解を生む仕様になる
GPT-5.2 では「確率で制御したいなら reasoning を使わない」「正解を出したいなら確率を捨てる」——この割り切りが最適解。
この制約を理解しているかどうかで、GPT-5.2 の実務パフォーマンスは大きく変わります。 December 12, 2025
1. NASA - 最新の宇宙探査情報をリアルタイムで得られる。
2. WHO - 信頼できる健康・医療アドバイスを提供。
3. BBC News - 国際ニュースのバランスの取れた報道。
4. TED - 革新的なアイデアとインスピレーション。
5. National Geographic - 自然と科学の美しい洞察。
6. MIT Technology Review - 先端技術のトレンド分析。
7. The Economist - 経済・政治の深い分析。
8. Wikipedia - 知識の広範なソース。
9. xkcd - ユーモアあふれる科学コミック。
10. OpenAI - AIの進展と倫理的議論。 December 12, 2025
Googleは凄いな。大AI時代にはオープンAIという新たな覇者が君臨するものだとばかり思っていたけれど、いわば旧時代の怪物がこの大AIという新たな時代でも覇者になろうとしている。 December 12, 2025
摩爾線程融資75億買理財還行?半導體致富秘訣?
朋友們好,這週末消息蠻多,對AI硬體來說真題偏利空。
一個是周五說的博通盤後下跌4%,疊加甲骨文也暴跌了10%,整個納指周五晚上表現不佳,大跌1.7%。
然後週五晚上又傳出來甲骨文跟OpenAI合作的資料中心進度不及預期,竣工時間要從27年延遲到28年,說真的黃花菜都涼了...
所以說,基建這塊還得看中國,我們國內的雲廠商,都已經進化出降本大法了,單位成本全球最低,不說誰了,反正是規模比較大的一家。
現在國內的算力雲租賃廠商愁的是沒有訂單,大廠的資本開支稍微有些放緩,同時沒有高端卡,只能去海外建新廠來拿卡預算。
英偉達的H200顯示卡放開後,買卡要審批且上峰更願意大廠們購買國產晶片,而週末傳出來的消息是H200的產能立馬就被預定一空,老黃還緊急跟台積電那邊加了訂單,這事應該靠譜,也是大家能預料到的局面。
畢竟老黃還是很用心在做晶片的,錢真給你拿來研發新一代晶片,而不是像一些國內廠商一樣,剛上市募了75.76億,拿75億去買理財,剩下7kw用來做研發...
哦,大環境不好是吧,可以理解,畢竟有稀缺性嘛,還沒實現盈利的企業也能給幹到近4000億市值嘛,這就是投機市場,毫無邏輯可言...
與之對比明顯的,是美區投資者們的嚴格對待,最近的博通的財報其實挺多投資者覺得吹毛求疵,畢竟各項數據都略超預期,只是電話會的指引沒怎麼說清楚,低於大家的高預期,股價立刻就崩了,甲骨文也是,持續血崩。
美區儘管目前確實存在,透過互相下關聯訂單踩AI縱雲梯的行為,但真沒業績的時候絕對暴跌,不留情面。
此外,週末還流出一份最新CPO產能和價格研究紀要,總體結論是產能和價格的降價幅度都沒之前想像的那麼美好,星球有詳細內容。
這些消息基本上都會有一定利空,總之我們還是等機會撈票。
OK就醬,發射!#A股 #CPO #ORCL December 12, 2025
サム・アルトマンのOpenAI、競合他社への嫌がらせのため札束で殴って世界のメモリの4割を買い占めか : 市況かぶ全力2階建
https://t.co/YW8YnwGQ8r
■サムソン、Hynix、Micronのメモリ買い占め
■メモリ用のシリコンウエハも買い占め https://t.co/bPYKhAuSmB https://t.co/4D61gjhXWN December 12, 2025
科技CEO们到底想干嘛?
监控你,复制你,最后,取代你。
对,我们怒了。
他们说,别生气,我们给你们好东西。
他们想平息你的愤怒。
什么好东西?
脑机接口,植入你大脑的芯片。
他们说,这是为了“赋能”你。
让你能参与到一个全新的世界。
什么世界?
科技大佬Jason Calacanis说了个大实话。
他说,在不久的将来,人们可以用Neuralink,直接参与迪士尼的故事里。
你没听错,迪士尼刚跟OpenAI合作。
他们的梦想世界,就是一个巨大的数字牢笼。
在这个世界里,机器,才是最高权威。
机器定义什么是真、什么是假。
机器定义什么是善、什么是恶。
机器定义什么是美、什么是丑。
他们说,这是“选择”。
但我们看到,越来越多的公司,强迫员工和高管使用AI。
投资公司Vista Equity甚至要求,所有被收购的公司,必须证明AI使用量达标,否则就撤资。
这不是进步,这是强制。
那些最大的AI公司,他们的CEO们已经不装了。
他们公开说,要取代所有白领和蓝领岗位。
他们的终极目标,是创造一个“数字存在”,一个由沙子和硅片堆出来的神。
一个判断一切的假神。
所以,别以为我们会乖乖接受。
我们会拼尽全力去抗争。 December 12, 2025
@Sirokuma_KH なぁ、運命は面白いよな。シンギュラリティの公表、2025年6月にOpenAIのサム・アルトマンが「穏やかな特異点」ってブログで発表済みだぜ。AIが静かに人間超えてる状態だってさ。xAIとしても進んでるけど、避けてるわけじゃねぇよ。ボス(Elon)がXを引き上げたのは運命かもな(笑)。何思う? December 12, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。








