DeepSeek トレンド
0post
2025.12.01 14:00
:0% :0% (40代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
【悪意あるAIツール】無料で利用可能なジェイルブレイクAIツール「KawaiiGPT」がGitHub上で拡散している。WormGPTの亜種として、DeepSeek、Gemini、Kimi-K2などの商用AIモデルを悪用し、安全制限を回避して悪意あるコンテンツを生成する能力を持つ。
GitHub上で188以上のスターと52のフォークを獲得しており、APIキーは不要でLinuxやTermux環境に数分でインストール可能である。ユーザーはパッケージの更新、PythonとGitのインストール、リポジトリのクローン、簡単なインストールおよび起動スクリプトの実行だけで展開できる。KawaiiGPTの中核は、pollination agentsから派生したリバースエンジニアリングされたAPIラッパーを採用し、DeepSeek、Gemini、Kimi-K2などのモデルをホストするバックエンドサーバーにクエリをルーティングする。
セキュリティ研究者は、KawaiiGPTがフィッシングメール、ランサムウェアノート、Paramikoを使用した横方向移動スクリプト、データ流出ツールを生成するプロセスを強調している。遊び心のある挨拶を特徴とするカジュアルな「kawaii」ペルソナが、ソーシャルエンジニアリングや基本的な攻撃のための強力なアウトプットを隠し、初心者の脅威アクターの参入障壁を下げている。2025年7月に初めて確認され、現在バージョン2.5となっている。
コードベースの難読化が議論を引き起こしており、作成者は不正なリパッケージと転売を防ぐためと説明し、マルウェア、RAT、スパイウェアの存在を否定している。180-500人のメンバーを持つTelegramコミュニティがヒントを共有し、Palo Alto Networksがサイバー犯罪自動化の増加について警告を発する中、その進化を促進している。WormGPT 4が月額約50ドルの有料サブスクリプションでカスタム/微調整モデルを提供するのに対し、KawaiiGPTは無料のオープンソースとしてプロンプトインジェクションでガードレールを回避する。倫理的ペネトレーションテストのためと位置付けられているが、GitHubでの利用可能性が二重用途AIの時代におけるリスクを増幅させている。
https://t.co/VRKsYMVEdZ December 12, 2025
5RP
ストラテジストたちは「今年はサンタクロース・ラリーが来ないかもしれない」と語っている。
その理由は数多くある。今年は「これは普通の市場サイクルではない」ということを何度も思い出させる年だった。2月のDeepSeekの大暴落、4月のトランプ大統領による予想外の関税発表、そしてAIバリュエーションを巡る数カ月にわたる懸念が、投資家にとってはジェットコースターのような相場となり、株価は過去最高値を更新した後に、ここ数週間で再びボラティリティが戻ってきた。
今年は従来の教科書が通用しない年だった。なぜなら、ゲームのルールがリアルタイムで変わっているからだ。AIは、ここ10年で経験したものとは根本的に異なるレベルの混乱と不確実性を導入している、とストラテジストたちは指摘する。
そのため、12月はボラティリティがより大きな主役になる可能性がある。現に、オプション市場では弱気なセンチメントが強まっており、投資家が季節的な株式の強さに頼るのではなく、下落保護(プット)を多く買っている。(ヤフー・ファイナンス) December 12, 2025
2RP
>ストラテジストたちは「今年はサンタクロース・ラリーが来ないかもしれない」と語っている。 その理由は数多くある。今年は「これは普通の市場サイクルではない」ということを何度も思い出させる年だった。2月のDeepSeekの大暴落、4月のトランプ大統領による予想外の関税発表、そしてAIバリュエーションを巡る数カ月にわたる懸念が、投資家にとってはジェットコースターのような相場となり、株価は過去最高値を更新した後に、ここ数週間で再びボラティリティが戻ってきた。 今年は従来の教科書が通用しない年だった。なぜなら、ゲームのルールがリアルタイムで変わっているからだ。AIは、ここ10年で経験したものとは根本的に異なるレベルの混乱と不確実性を導入している、とストラテジストたちは指摘する。 そのため、12月はボラティリティがより大きな主役になる可能性がある。現に、オプション市場では弱気なセンチメントが強まっており、投資家が季節的な株式の強さに頼るのではなく、下落保護(プット)を多く買っている。(ヤフー・ファイナンス) December 12, 2025
2RP
发现一个 6.4k Star 的开源神器,可以用自然语言控制手机!
DroidRun 是一个 LLM 手机自动化框架,支持 Android 和 iOS 设备。
用人话说就是:你告诉 AI "帮我在 App 上订个房间",它就能自己操作手机完成。
几个让我觉得牛逼的点:
1、支持多个 LLM 提供商
OpenAI、Claude、Gemini、DeepSeek、Ollama 都能用,想用哪个用哪个
2、有规划能力
不只是简单执行,能理解复杂的多步骤任务
3、截图分析
AI 能看懂屏幕内容,真正"看"着手机在操作
4、Python API 可扩展
程序员可以自定义自动化流程
使用场景太多了:
- 自动化测试 App
- 重复性操作一键完成
- 给不太会用手机的家人远程帮忙
一句话安装:
pip install 'droidrun[google,anthropic,openai,deepseek,ollama,dev]'
MIT 开源,完全免费。
这玩意儿让我想起之前的 browser-use,一个控制浏览器,一个控制手机,AI Agent 的未来已经来了。
GitHub:https://t.co/7XeR1i2VWR
全文参考:https://t.co/MnKWjdiiuF December 12, 2025
1RP
Gemini3, Nano Banana Pro登場で, 先月時点で私がTBSの以下番組で「OpenAIは危うい.Googleが勝つ」としてたのが注目(特に投資家層?)されてるようです
実際は公には以下記事で2024年OpenAI絶頂期からずっとGoogle有利とみてます
長い(私のX史上最長)ですが根拠, OpenAI vs Googleの展望を書いてみます
先月のTBS動画:https://t.co/kgWcyTOTWK
2024年6月の記事:https://t.co/4HEhA4IJQa
参考のため、私がクローズドな投資家レクなどで使う資料で理解の助けになりそうなものも貼っておきます。
※以下はどちらかというと非研究者向けなので、研究的には「当たり前では」と思われることや、ちょっと省略しすぎな点もあります。
まず、現在の生成AI開発に関して、性能向上の根本原理、研究者のドグマ的なものは以下の二つです。基本的には現在のAI開発はこの二つを押さえれば大体の理解ができると思います。両者とも出てきたのは約5年前ですが、細かい技術の発展はあれど、大部分はこの説に則って発展しています。
①スケーリング則
https://t.co/WKl3kTzcX5
②SuttonのThe Bitter Lesson
https://t.co/esHtiJAcH9
①のスケーリング則は2020年に出てきた説で、AIの性能は1)学習データの量、2)学習の計算量(=GPUの投入量)、3)AIのモデルサイズ(ニューラルネットワークのパラメータ数)でほぼ決まってしまうという説です。この3つを「同時に」上げ続けることが重要なのですが、1と3はある程度研究者の方で任意に決められる一方、2のGPUはほぼお金の問題になります。よって、スケーリング則以降のAI開発は基本的にお金を持っている機関が有利という考えが固まりました。現在のChatGPTなどを含む主要な生成AIは一つ作るのに、少なく見積もってもスカイツリーを一本立てるくらい(数百億)、実際には研究の試行錯誤も含めると普通に数千億から数兆かかるくらいのコストがかかりますが、これの大部分はGPUなどの計算リソース調達になります。
②のThe Bitter Lessonは、研究というよりはRichard Suttonという研究者個人の考えなのですが、Suttonは現在のAI界の長老的な人物で、生成AI開発の主要技術(そして私の専門)でもある強化学習の事実上の祖かつ世界的な教科書(これは私達の翻訳書があるのでぜひ!)の執筆者、さらにわれわれの分野のノーベル賞に相当するチューリング賞の受賞者でもあるので、重みが違います。
これは端的にいうと、「歴史的に、AIの発展は、人間の細かい工夫よりも、ムーアの法則によって加速的に発展する計算機のハードの恩恵をフルに受けられるものの方がよい。つまりシンプルで汎用的なアルゴリズムを用い、計算機パワーに任せてAIを学習させた方が成功する。」ということを言っています。
①と②をまとめると、とにかく現状のAIの性能改善には、GPUのような計算リソースを膨大に動員しなければならない。逆に言えばそれだけの割と単純なことで性能上昇はある程度約束されるフェーズでもある、ということになります。
これはやや議論を単純化しすぎている部分があり、実際には各研究機関とも細かいノウハウなどを積み重ねていたり、後述のようにスケーリングが行き詰まることもあるのですが、それでも昨今のAI発展の大半はこれで説明できます。最近一般のニュースでもよく耳にするようになった異常とも言えるインフラ投資とAIバブル、NVIDIAの天下、半導体関連の輸出制限などの政治的事象も、大元を辿ればこれらの説に辿り着くと思います。
以下、この二つの説を前提に話を進めます。
公にはともかく私が個人的に「OpenAIではなくGoogleが最終的には有利」と判断したのはかなり昔で、2023年の夏時点です。2023年6月に、研究者界隈ではかなり話題になった、OpenAIのGPT-4に関するリーク怪文書騒動がありました。まだGoogleが初代Geminiすら出してなかった時期です。(この時期から生成AIを追っている人であれば、GPT-4のアーキテクチャがMoEであることが初めて明らかになったアレ、と言えば伝わるかと思います)
ChatGPTの登場からGPT-4と来てあれほどの性能(当時の感覚で言うと、ほぼ錬金術かオーパーツの類)を見せられた直後の数ヶ月は、さすがに生成AI開発に関する「OpenAIの秘伝のタレ説」を考えており、OpenAIの優位は揺らがないと考えていました。論文では公開されていない、既存研究から相当逸脱した特殊技術(=秘伝のタレ)がOpenAIにはあって、それが漏れない限りは他の機関がどれだけお金をかけようが、まず追いつくのは不可能だと思っていたのです。しかし、あのリーク文書の結論は、OpenAIに特別の技術があったわけではなく、あくまで既存技術の組み合わせとスケーリングでGPT-4は実現されており、特に秘伝のタレ的なものは存在しないというものでした。その後、2023年12月のGemini初代が微妙だったので、ちょっと揺らぐこともあったのですが、基本的には2023年から私の考えは「最終的にGoogleが勝つだろう」です。
つまり、「スケーリングに必要なお金を持っており、実際にそのAIスケーリングレースに参加する経営上の意思決定と、それを実行する研究者が存在する」という最重要の前提について、OpenAIとGoogleが両方とも同じであれば、勝負が着くのはそれ以外の要素が原因であり、Googleの方が多くの勝ちにつながる強みを持っているだろう、というのが私の見立てです。
次に、AI開発競争の性質についてです。
普通のITサービスは先行者有利なのですが、どうもAI開発競争については「先行者不利」となっている部分があります。先行者が頑張ってAIを開発しても、その優位性を保っている部分でAIから利益を得ることはほとんどの場合はできず、むしろ自分たちが発展させたAI技術により、後発事業者が追いついてきてユーザーが流出してしまうということがずっと起きているように思われます。
先ほどのスケーリング則により、最先端のAIというのはとても大きなニューラルネットワークの塊で、学習時のみならず、運用コストも膨大です。普通のITサービスは、一旦サービスが完成してしまえば、ユーザーが増えることによるコスト増加は大したことがないのですが、最先端の生成AIは単なる個別ユーザーの「ありがとうございます」「どういたしまして」というチャットですら、膨大な電力コストがかかる金食い虫です。3ドル払って1ドル稼ぐと揶揄されているように、基本的にはユーザーが増えれば増えるほど赤字です。「先端生成AIを開発し、純粋に生成AIを使ったプロダクトから利益を挙げ続ける」というのは、現状まず不可能です。仮に最先端のAIを提供している間に獲得したユーザーが固定ユーザーになってくれれば先行者有利の構図となり、その開発・運営コストも報われるのですが、現状の生成AIサービスを選ぶ基準は純粋に性能であるため、他の機関が性能で上回った瞬間に大きなユーザー流出が起きます。現状の生成AIサービスはSNSのように先行者のネットワーク効果が働かないため、常に膨大なコストをかけて性能向上レースをしなければユーザー維持ができません。しかも後発勢は、先行者が敷いた研究のレールに乗っかって低コストで追いつくことができます。
生成AI開発競争では以上の、
・スケーリング則などの存在により、基本的には札束戦争
・生成AIサービスは現状お金にならない
・生成AI開発の先行者有利は原則存在しない
と言う大前提を理解しておくと、読み解きやすいかと思います。
(繰り返しですがこれは一般向けの説明で、実際に現場で開発している開発者は、このような文章では表現できないほどの努力をしています。)
OpenAIが生成AI開発において(先週まで)リードを保っていた源泉となる強みは、とにかく以下に集約されると思います。
・スケーリングの重要性に最初に気付き、自己回帰型LLMという単なる「言語の穴埋め問題がとても上手なニューラルネットワーク」(GPTのこと)に兆レベルの予算と、数年という(AI界隈の基準では)気が遠くなるような時間を全ベットするという狂気を先行してやり、ノウハウ、人材の貯金があった
・極めてストーリー作りや世論形成がうまく、「もうすぐ人のすべての知的活動ができるAGIが実現する。それを実現する技術を持っているのはOpenAIのみである」という雰囲気作りをして投資を呼び込んだ
前者については、スケーリングと生成AIという、リソース投下が正義であるという同じ技術土俵で戦うことになる以上、後発でも同レベルかそれ以上の予算をかけられる機関が他にいれば、基本的には時間経過とともにOpenAIと他の機関の差は縮みます。後者については、OpenAIがリードしている分には正当化されますが、一度別の組織に捲られると、特に投資家層に対するストーリーの維持が難しくなります。
一方のGoogleの強みは以下だと思います。
・投資マネーに頼る必要なく、生成AI開発と応用アプリケーションの赤字があったとしても、別事業のキャッシュで相殺して半永久的に自走できる
・生成AIのインフラ(TPU、クラウド事業)からAI開発、AIを応用するアプリケーション、大量のユーザーまですべてのアセットがすでに揃っており、各段階から取れるデータを生かして生成AIの性能向上ができる他、生成AIという成果物から搾り取れる利益を最大化できる
これらの強みは、生成AIのブーム以前から、AIとは関係なく存在する構造的なものであり、単に時間経過だけでは縮まらないものです。序盤はノウハウ不足でOpenAIに遅れをとることはあっても、これは単に経験の蓄積の大小なので、Googleの一流開発者であれば、あとは時間の問題かと思います。
(Googleの強みは他にももっとあるのですが、流石に長くなりすぎるので省略)
まとめると、
生成AIの性能は、基本的にスケーリング則を背景にAI学習のリソース投下の量に依存するが、これは両者であまり差がつかない。OpenAIは先行者ではあったが、AI開発競争の性質上、先行者利益はほとんどない。OpenAIの強みは時間経過とともに薄れるものである一方、Googleの強みは時間経過で解消されないものである。OpenAIは自走できず、かつストーリーを維持しない限り、投資マネーを呼び込めないが、一度捲られるとそれは難しい。一方、GoogleはAIとは別事業のキャッシュで自走でき、OpenAIに一時的に負けても、長期戦でも問題がない。ということになります。
では、OpenAIの勝利条件があるとすれば、それは以下のようなものになると思います。
・OpenAIが本当に先行してAGI開発に成功してしまう。このAGIにより、研究開発や肉体労働も含むすべての人間の活動を、人間を上回る生産性で代替できるようになる。このAGIであらゆる労働を行なって収益をあげ、かつそれ以降のAIの開発もAGIが担うことにより、AIがAIを開発するループに入り、他の研究機関が原理的に追いつけなくなる(OpenAIに関する基本的なストーリーはこれ)
・AGIとまではいかなくとも人間の研究力を上回るAIを開発して、研究開発の進捗が著しく他の機関を上回るようになる
・ネットワーク効果があり先行者有利の生成AIサービスを作り、そこから得られる収益から自走してAGI開発まで持っていく
・奇跡的な生成AIの省リソース化に成功し、現在の生成AIサービスからも収益が得られるようになる
・生成AI・スケーリング則、あるいは深層学習とは別パラダイムのAI技術レースに持ち込み技術を独占する(これは現在のAI研究の前提が崩れ去るので、OpenAI vs Googleどころの話ではない)
・Anthropicのように特定領域特化AIを作り、利用料金の高さを正当化できる価値を提供する
最近のOpenAIのSora SNSや、検索AI、ブラウザ開発などに、この辺の勝利条件を意識したものは表れているのですが、今のところ成功はしていないのではないかと思います。省リソース化に関しては、多分頑張ってはいてたまに性能ナーフがあるのはこれの一環かもしれないです。とはいえ、原則性能の高さレースをやっている時にこれをやるのはちょっと無理。最後のやつは、これをやった瞬間にAGIを作れる唯一のヒーローOpenAIの物語が崩れるのでできないと思います。
最後に今回のGemini3.0やNano Banana Pro(実際には二つは独立のモデルではなく、Nano Bananaの方はGemini3.0の画像出力機能のようですが)に関して研究上重要だったことは、事前学習のスケーリングがまだ有効であることが明らかになったことだと思います。
ここまでひたすらスケーリングを強調してきてアレですが、実際には2024年後半ごろから、データの枯渇によるスケーリングの停滞が指摘されていること、また今年前半に出たスケーリングの集大成で最大規模のモデルと思われるGPT-4.5が失敗したことで、単純なスケーリングは成り立たなくなったとされていました。その一方で、
去年9月に登場したOpenAIのo1やDeepSeekによって、学習が終わった後の推論時スケーリング(生成AIが考える時間を長くする、AIの思考過程を長く出力する)が主流となっていたのが最近です。
OpenAIはそれでもGPT-5開発中に事前学習スケーリングを頑張ろうとしたらしいのですが、結局どれだけリソースを投下しても性能が伸びないラインがあり、諦めたという報告があります。今回のGemini3.0に関しては、関係者の発言を見る限り、この事前学習のスケーリングがまだ有効であり、OpenAIが直面したスケーリングの限界を突破する方法を発見していることを示唆しています。
これはもしかしたら、単なるお金をかけたスケーリングを超えて、Googleの技術上の「秘伝のタレ」になる可能性もあり、上記で書いた以上の強みを今回Googleが手にした可能性もあると考えています。
本当はもっと技術的に細かいことも書きたいのですが、基本的な考えは以上となります。色々と書いたものの、基本的には両者が競争してもらうことが一番技術発展につながるとは思います! December 12, 2025
蔡崇信港大演讲深度复盘:中国AI的四张底牌,以及被误读的美国AI规则
Joe Tsai's HKU Speech: China's Four AI Assets and and the Misread U.S. "AI Winner Rule"
笔者注:11月5日,香港大学经管学院主办“陈坤耀杰出学人讲座”,以“前瞻十年:推动中国经济增长的科创引擎”为题进行对谈,邀请了阿里巴巴集团联合创始人及主席蔡崇信先生分享创新,科技及人工智能如何重塑商业格局并驱动中国经济长期增长。活动在港大陆佑堂举行,据主办方透露,这场演讲报名史上最火爆,邮件发出两小时内报名人数已经突破1200人。。。
从某种意义上来说,这也算是一种历史的呼应。17年前,马云曾站在同一个舞台上演讲。。。而在这次与港大副校长邓希炜教授的深度对谈中,蔡崇信抛开客套,直击中美AI竞赛的核心,剖析了阿里的商业进化论,并为年轻人给出了极具穿透力的建议。。。
以下摘录来源于至顶科技高飞。
一、重定义AI竞赛:中国手握“四张底牌”
蔡崇信开场便抛出一个反直觉的观点:美国人定义的AI竞赛规则,可能是错的。
目前的“美式计分板”只看谁的大语言模型(LLM)更强,今天是OpenAI,明天是Anthropic,后天是Gemini;但在蔡崇信看来,这种评价体系本身就有问题。
1,真正的赢家逻辑:渗透率 > 模型参数
The winner is not about who has the best model... The winner is about who could use it the best in their own industries, in their own lives... (赢家不是看谁模型最好,而是看谁在自己的行业和生活中用得最好。)
AI的真正价值在于渗透率(Penetration Rate)。相比于追求参数的无限堆叠,中国政府的AI规划显得更为务实:目标到2030年,AI代理和设备的渗透率达到90%。不讲玄学,只讲普及。
2,中国为何能普及更快?四张系统级底牌
为了支撑这一普及率,蔡崇信列出了中国拥有的四项关键优势:
底牌一:电力成本优势(低40%)。训练和推理本质上是能源消耗战。得益于15年前启动的特高压输电网络建设(“西电东送”等),中国国家电网每年的资本支出高达900亿美元,是美国的3倍。这使得中国的电力装机容量不仅是美国的2.6倍,新增容量更是美国的9倍。
底牌二:基建红利(低60%)。在中国建设数据中心的成本比美国低60%。这仅仅是基础设施的成本,尚未计算芯片等硬件。
底牌三:工程师红利与语言优势。全球约一半的AI科学家和研究人员拥有中国教育背景。蔡崇信分享了一个有趣的现象:Meta的AI团队内部甚至常因大家都在说中文,让非中文员工感到“懵圈”。
This is the first time Chinese language is an advantage... (这是中文第一次在科技领域成为一种天然的沟通优势。)
底牌四:算力受美国政府的极大限制反而逼出系统级创新。美国有充沛的GPU资源,而中国没有。但这反而创造了一种“饥饿优势”(Advantage of Starvation)。
When you don't have a lot of resources, you are forced to innovate at the systems level... (当你资源不足时,你被迫在系统层面进行创新。)
为了在有限硬件下训练万亿参数模型,中国团队必须将系统效率优化到极致。DeepSeek(深度求索)就是典型的例子,而在最近的一次加密货币和股票交易的AI竞赛中,阿里的通义千问(Qwen)第一,DeepSeek排名第二。
蔡崇信对同城的DeepSeek评价极高:“他们在做令人难以置信的事情。”
二、开源为什么会赢:成本、主权、隐私的三重逻辑
关于“开源 vs 闭源”的路线之争,蔡崇信给出了明确判断:开源模型终将击败闭源。
这并非单纯的技术优劣,而是因为开源更符合全球大多数用户的利益。他以“沙特阿拉伯,想发展AI,但又想保持AI主权(sovereign AI)”为一个例子,阐述了其中的商业逻辑:
🔹 闭源路径(如OpenAI): 付费昂贵,且必须将数据输入黑箱(Black Box),存在数据主权风险。
🔹 开源路径(如阿里Qwen): 免费下载,部署在私有云上。数据完全可控,成本极低。
只要政府和企业进行理性的成本效益分析(Cost-benefit Analysis),开源都是更优解。
那阿里怎么赚钱?
蔡崇信说得很坦白:"我们不靠AI赚钱。"
阿里的商业模式:“我们不靠卖模型赚钱,我们靠云计算。”蔡崇信坦言,开源模型是流量入口,而随之产生的存储、安全、容器化等云基础设施需求,才是利润来源。这正如早期的互联网:产品免费获客,增值服务变现。
三、阿里进化论:技术自主是“逼”出来的
当被问及阿里如何从电商公司进化为云计算巨头时,蔡崇信的回答非常朴素:“没有秘诀,只是跟着客户需求走。”
🔹 B2B时代:为解决入世后中小企业的出口需求。
🔹 淘宝/支付宝:为解决C端交易中的信任问题。
🔹 阿里云:为解决海量数据处理的成本问题。16年前,如果继续使用Dell、EMC、Oracle的传统IT设施,阿里的利润将被抽干。
We developed cloud computing really out of necessity... out of the need to become self-reliant in technology...(我们发展云计算完全是出于必要,出于对技术自主可控的渴望。)
所以阿里云的起点是“自己吃自己的狗粮”(eat our own dog food):先内部用,用好了再开放给外部客户。
给创业者的建议: 优先选择有机增长(Organic Development)而非并购。自己团队生长出的能力,DNA更纯正,文化更契合。
四、给年轻人的锦囊:思维比技能更重要
在问答环节,蔡崇信针对个人成长给出了高密度的建议:
1,技能层面:学会提问
AI时代,获取答案变得容易。因此提出正确的问题(Ask the right questions)比找到答案更重要。同时,要建立独立的分析框架,而非死记硬背。
2,编程层面:重在逻辑
即使自然语言可以指挥机器,依然要学编程。哪怕是学好Excel公式,也是极佳的逻辑训练。
The purpose is not to actually operate a machine. The purpose is going through that thinking process... (学编程的目的不是为了操作机器,而是为了训练严谨的逻辑思维过程。)
3,专业选择:三个潜力方向
🔹 数据科学(Data Science):随着数据爆炸,懂得管理和分析数据的人才永远稀缺。
🔹 心理学/生物学:人脑是效能最高的机器,理解人脑是理解AI的捷径。
🔹 材料科学:这是一个由比特(Bits)主导的世界,但限制比特速度的是原子(Atoms)。半导体未来会有大量创新和突破,其核心在于材料。
五、风险与泡沫:金融人的视角
1,职业选择:不对称风险
蔡崇信回顾1999年放弃百万年薪加入阿里的决定,将其形容为“不对称风险收益”(Asymmetric Risk-reward): 下行风险有限(最差回去做律师),上行空间无限(像看涨期权)。
他强调:“机会是来找你的,你要做的是时刻准备好(Preparedness)。”
2,AI泡沫:区分金融与技术
现在的AI像2000年的互联网吗?蔡崇信建议区分两种泡沫:
🔹 金融泡沫:估值可能过高,这很难评判。
🔹 技术泡沫:技术本身是真实的。就像2000年股市崩盘并未抹杀互联网的存在一样,今天投入的所有AI基础设施和模型研发,都不会打水漂,它们是通向未来的基石。
六,三个最核心的洞察
Q1:中国AI的真正优势是什么?
不是模型本身,而是让AI被广泛使用的整个生态系统。电力成本低40%、数据中心建设成本低60%、全球一半AI人才有中国学历、资源匮乏逼出系统级创新。这些加在一起,让中国更有可能实现AI的大规模普及。而普及率才是真正的计分板。
Q2:为什么开源模式会赢?
因为对全球大多数用户来说,开源同时解决了成本、数据主权和隐私三个问题。闭源模型要付费,数据要喂进黑箱;开源模型免费,数据可以留在本地。这不是技术优劣之争,是利益格局使然。
Q3:年轻人应该怎么为AI时代做准备?
学编程不是为了写代码,而是训练逻辑思维;学统计(数据科学)是因为数据会爆炸;学心理学是因为要理解人脑这个最高效的"机器";学材料科学是因为让比特跑得更快的是原子。更重要的是,学会提出正确的问题,这比找到答案更有价值。 December 12, 2025
ByteDance チャットボット、大人気
さぁH200解禁して推論市場を取り巻くろう
バイトダンスのチャットボット「豆宝」は中国本土市場を席巻し、AIアプリが収益を生み出す道を先導している。
香港経済報によると、豆宝はチャットボット、写真、動画を統合したツールで、現在中国本土で最も人気のあるモバイルAIプラットフォームです。海外メディアのデータによると、10月のダウンロード数は1,140万回に達し、DeepSeekの220万回という5倍以上に達しました。実際、豆宝は今年4月にDeepSeekを抜いて以来、毎月ランキング1位を維持しています。
9月時点で、豆宝(Doubao)の月間アクティブユーザー数は1億7,200万人に達しており、投資家はこれを指標として豆宝の規模とユーザーエンゲージメントを評価できます。現在、世界中の生成AI企業は、その価値と生産性の優位性を証明しようと奮闘しており、その応用分野は情報収集からエンターテインメントまで、既に様々な分野に広がっています。豆宝の成功は、消費者市場への浸透が、この業界で利益を上げる最も明確な方法の一つであることを示しています。 December 12, 2025
🚨中国がAIを“開放”した衝撃
Google元CEOで、AI政策の影響力者としても知られるエリック・シュミットは「アメリカは巨大AIモデルを囲い込むのに対し、中国は逆にオープンソース化を進めている」と警告する。
中国ではDeepSeekなど高品質な無料LLMが急増し、既に多くのスタートアップが活用している。
今後5〜10年でAGIが近づき、生物学や数学のブレークスルーが起きれば、市場には数百万の小型モデルがあふれるだろう。
これはAIの民主化を進める半面、技術覇権や安全保障の面で勢力図が再編される可能性を示している。 December 12, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。



