NVIDIA トレンド
0post
2025.11.28 00:00
:0% :0% (30代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
NVIDIAの最大のライバルはAMDでもGoogleでもない。「物理学」だ。市場が次世代GPUの性能に熱狂している裏で、データセンターの現場では静かな、しかし致命的な「物理的敗北」が確定しつつあることを、どれだけの人が理解しているだろうか。
ぼくらが直面しているのは、単なるチップの進化ではない。熱力学という宇宙のルールが突きつける「120kWの壁」という絶対的な限界点だ。
「空冷」の時代は終わった。
これは比喩ではない。物理的に、空気という媒体ではもはやAIを支えきれないのだ。最新のBlackwell世代、特にGB200 NVL72が突きつけた現実はあまりに残酷だ。1ラックあたり120kW。この熱密度は、従来のハイパースケールデータセンターの4倍から6倍に達する。
これを「風」で冷やすことが、いかに狂気じみているか想像してほしい。
空冷で120kWを制御しようとすれば、データセンターはもはや計算する場所ではなく、巨大な暴風実験室と化す。ここで発生するのは2つの絶望的な現象だ。
一つは「寄生負荷(Parasitic Load)」の暴走。
空気は熱を運ぶ効率があまりに悪い。そのため、熱を排出するためだけにファンを限界まで高速回転させる必要がある。その結果、供給される電力の20%から30%が、計算ではなく「ファンを回すためだけ」に消えていく。AIを動かしているのか、巨大な扇風機を動かしているのか、もはや区別がつかない本末転倒な事態だ。
もう一つは、より深刻な「音響による破壊」だ。
120kWを空冷するためのファンノイズは、ジェットエンジンの至近距離に匹敵する音圧を生む。この凄まじい「音の振動」は、サーバー内のHDDの読み書き性能を物理的に低下させ、さらには精密な基板のはんだ接合部さえも破壊するリスクがある。
つまり、空冷を維持しようとすれば、AIはその「叫び声」で自らの身体を壊してしまうのだ。
だからこそ、産業全体が「水」へと舵を切る。これは選択肢の一つではなく、唯一の生存ルートである。
液体は空気の約4,200倍の熱容量を持つ。水冷(液冷)への移行は、単なる冷却方式の変更ではない。人類がシリコンバレーで築き上げてきたインフラの「血管」を、すべて引き抜いて交換するレベルの「総取り替え工事」を意味する。
NVIDIAという「脳」が進化すればするほど、その脳を冷やすための「心臓(ポンプ)」と「血管(配管・CDU)」、そして「冷媒」を支配する企業の価値は、指数関数的かつ不可逆的に高まっていく。
「AIバブル」などという言葉で思考停止する前に、足元を見てほしい。そのサーバーラックは、熱力学の審判に耐えられる設計になっているか?
物理法則は、株価のように反発してはくれない。限界を超えれば、ただ静かに、システムを焼き尽くすだけである。 November 11, 2025
17RP
2025年,我的几个第一性原理:
1. LLM token一定会越来越便宜,模型越来越强大,记住,所有做LLM Agent的人,都必须思考如何用10~1000倍的token带来革命,而不是他妈跟个傻逼似的天天想着省token;
2. chatbot的形式一定会被消灭,no chatbot revolution才是正确方向,一切AI应用不可能 、不应该、绝对不是一个个大号聊天机器人,一个个大对话框等着人大段大段往里敲字,
记住,所有AI产品必须重新设计,一切chatbot AI应用必定会被改写成NO CHATBOT形式,无一例外,chatbot的产品形态必然会彻彻底底、完完全全地淘汰,
或者那个傻逼一样的对话框,至少作为二等公民出现;
3. AI助手一定不能用“按个按钮”、“截个图”、“上传个文件”,再写个长长的prompt的形式出现,让用户解决个问题,先让用户点点按按十几次,
AI助手一定是具有强侵入性的,一定能主动嗅探一切环境,吞掉一切数据和信息,一定会主动在后台观察一切操作和行为——并且在疑似需要帮助的时候,主动弹出个对话框,用户一键确认后,主动接管,主动解决一切问题,
而绝不应该像准备个考试一样,准备文件、准备截图、准备一大堆按钮、准备一大长串prompt,让用户跟个大傻逼似的,手忙脚乱地在那儿表演,
总而言之,无论是商业落地的AI Agent,还是各种办公软件、工具、生活类的AI Agent,一个个不仅是傻逼兮兮的大黑框chatbot,而且要用户手动输入一大堆文件、图表、链接、信息,再敲一大段prompt——这些全都走了大弯路,
toC的无缝衔接强入侵的主动AI Agent助手,完完全全不会给你任何告诉他的机会,而是让AI Agent主动判断你是否需要我,直接给你一个大大的对话框,简单描述一下“我计划怎么帮助你”——你点一下确定,它来解决后面所有的事情。
4. 一切能用coding解决的问题,都是SWE Agent能解决的问题,也就是说,都可以直接拿claude code这类工具套壳来用,
SWE Agent这个形态,最擅长解决的问题,就是在一个确定的环境(一台机器、几台机器、若干仿真环境、一套terminal里的编译器/脚手架/运行环境/包管理、profiling和debugging方法)解决的问题,
而用coding解决的问题,从来都不止coding,一切VHDL/Verilog等电路设计、电路simulation和validation、一切类似labview和matlab simulink中可以仿真的电机、信号、示波器等等模块,
甚至ansys和CAD这类工具,还有大量data science和计算的问题,以及用lean或者formal-proof解决一些proof-based的数学和模型问题,都可以转化成一些API和coding解决的问题,然后让SWE Agent来解决,
这类问题可以叫做“一台机器上的确定环境下的问题”,
这类问题的特点是,可以靠LLM的智能不断拆分成一大堆subtasks,然后在本地环境下反复尝试、反复试错、反复看output、反复试验结果,失败后再换一个新的approach;
5. full self coding(https://t.co/W0qe8YtsYX)就是基于上面所有第一性原理的一个试验。
我将会设计一套侵入式试验,让10~500个ai agent组成一组,给一个github项目找出所有潜在的问题,包括文档、测试、修bug、优化、重构、完成todo list、加功能、加API等等,让10~100个agent并行完成这个repo潜在需要完成的所有任务,
并且让至少10组这样的agent去github上面公开贡献,等于在没有任何人为输入prompt的前提下,造出来1000~5000个agent在开源世界源源不断地做出贡献,就死死赖在github上面,尝试修复一切可能修复的潜在问题,做出贡献。
请你记住full self coding是最坚决贯彻test-time scaling law的行为,
full self coding坚决相信,人是ai agent世界最傻逼、最慢、错误最多、判断失误最高的存在,让程序员手敲prompt,无异于给AI Agent拖后腿,
只有先分析出问题,然后让10~500个agent同时并行运行,才能最大化执行的效率,最快速度解决已经发现的问题,无休止地为github提供潜在的有价值贡献——并且最关键的是,把“敲prompt的程序员”这个最垃圾、最慢、出错最多的环节彻底消除;
6. full self coding最大的瓶颈,一个是token价格过高,一个是目前几乎所有主流供应商,LLM inference速度过慢,
所以我最后的一个想告诉大家的价值观是:
groq、sambanova、cerebras这种在片上堆满几个GB的SRAM,在inference上效率是nvidia、amd、google TPU这些落后架构的10~50倍,这是test-time scaling law的最后一环,
如果人类在claude code、gemini cli上全面接入groq、sambanova、cerebras上host的模型,所有速度都会再快10~50倍,
现在最大的问题是,groq、sambanova、cerebras他们只能白嫖开源模型(deepseek、qwen、zai甚至更难用的llama),因为这三家自己没能力训练模型,本质是卖芯片的(实际是自己造完data center后卖API),
但是只要中国几家厂商能源源不断输送最好的开放weights的模型,让groq、sambanova、cerebras持续用上他们能用的最好的开放weights的模型,这三家最终会把nvidia、google tpu连同他们的客户一锅端。
人类依然非常需要LLM inference的时间上的飞速优化,只不过现在人们需要更强的模型,而人类愿意为此多等等时间,
但是终归有一天人们会发现,无论是coding,还是在各种infra中快速反馈相应,哪怕是简单的搜索或者问答,inference速度这件事才是至关重要。 November 11, 2025
5RP
Gemini3, Nano Banana Pro登場で, 先月時点で私がTBSの以下番組で「OpenAIは危うい.Googleが勝つ」としてたのが注目(特に投資家層?)されてるようです
実際は公には以下記事で2024年OpenAI絶頂期からずっとGoogle有利とみてます
長い(私のX史上最長)ですが根拠, OpenAI vs Googleの展望を書いてみます
先月のTBS動画:https://t.co/kgWcyTOTWK
2024年6月の記事:https://t.co/4HEhA4IJQa
参考のため、私がクローズドな投資家レクなどで使う資料で理解の助けになりそうなものも貼っておきます。
※以下はどちらかというと非研究者向けなので、研究的には「当たり前では」と思われることや、ちょっと省略しすぎな点もあります。
まず、現在の生成AI開発に関して、性能向上の根本原理、研究者のドグマ的なものは以下の二つです。基本的には現在のAI開発はこの二つを押さえれば大体の理解ができると思います。両者とも出てきたのは約5年前ですが、細かい技術の発展はあれど、大部分はこの説に則って発展しています。
①スケーリング則
https://t.co/WKl3kTzcX5
②SuttonのThe Bitter Lesson
https://t.co/esHtiJAcH9
①のスケーリング則は2020年に出てきた説で、AIの性能は1)学習データの量、2)学習の計算量(=GPUの投入量)、3)AIのモデルサイズ(ニューラルネットワークのパラメータ数)でほぼ決まってしまうという説です。この3つを「同時に」上げ続けることが重要なのですが、1と3はある程度研究者の方で任意に決められる一方、2のGPUはほぼお金の問題になります。よって、スケーリング則以降のAI開発は基本的にお金を持っている機関が有利という考えが固まりました。現在のChatGPTなどを含む主要な生成AIは一つ作るのに、少なく見積もってもスカイツリーを一本立てるくらい(数百億)、実際には研究の試行錯誤も含めると普通に数千億から数兆かかるくらいのコストがかかりますが、これの大部分はGPUなどの計算リソース調達になります。
②のThe Bitter Lessonは、研究というよりはRichard Suttonという研究者個人の考えなのですが、Suttonは現在のAI界の長老的な人物で、生成AI開発の主要技術(そして私の専門)でもある強化学習の事実上の祖かつ世界的な教科書(これは私達の翻訳書があるのでぜひ!)の執筆者、さらにわれわれの分野のノーベル賞に相当するチューリング賞の受賞者でもあるので、重みが違います。
これは端的にいうと、「歴史的に、AIの発展は、人間の細かい工夫よりも、ムーアの法則によって加速的に発展する計算機のハードの恩恵をフルに受けられるものの方がよい。つまりシンプルで汎用的なアルゴリズムを用い、計算機パワーに任せてAIを学習させた方が成功する。」ということを言っています。
①と②をまとめると、とにかく現状のAIの性能改善には、GPUのような計算リソースを膨大に動員しなければならない。逆に言えばそれだけの割と単純なことで性能上昇はある程度約束されるフェーズでもある、ということになります。
これはやや議論を単純化しすぎている部分があり、実際には各研究機関とも細かいノウハウなどを積み重ねていたり、後述のようにスケーリングが行き詰まることもあるのですが、それでも昨今のAI発展の大半はこれで説明できます。最近一般のニュースでもよく耳にするようになった異常とも言えるインフラ投資とAIバブル、NVIDIAの天下、半導体関連の輸出制限などの政治的事象も、大元を辿ればこれらの説に辿り着くと思います。
以下、この二つの説を前提に話を進めます。
公にはともかく私が個人的に「OpenAIではなくGoogleが最終的には有利」と判断したのはかなり昔で、2023年の夏時点です。2023年6月に、研究者界隈ではかなり話題になった、OpenAIのGPT-4に関するリーク怪文書騒動がありました。まだGoogleが初代Geminiすら出してなかった時期です。(この時期から生成AIを追っている人であれば、GPT-4のアーキテクチャがMoEであることが初めて明らかになったアレ、と言えば伝わるかと思います)
ChatGPTの登場からGPT-4と来てあれほどの性能(当時の感覚で言うと、ほぼ錬金術かオーパーツの類)を見せられた直後の数ヶ月は、さすがに生成AI開発に関する「OpenAIの秘伝のタレ説」を考えており、OpenAIの優位は揺らがないと考えていました。論文では公開されていない、既存研究から相当逸脱した特殊技術(=秘伝のタレ)がOpenAIにはあって、それが漏れない限りは他の機関がどれだけお金をかけようが、まず追いつくのは不可能だと思っていたのです。しかし、あのリーク文書の結論は、OpenAIに特別の技術があったわけではなく、あくまで既存技術の組み合わせとスケーリングでGPT-4は実現されており、特に秘伝のタレ的なものは存在しないというものでした。その後、2023年12月のGemini初代が微妙だったので、ちょっと揺らぐこともあったのですが、基本的には2023年から私の考えは「最終的にGoogleが勝つだろう」です。
つまり、「スケーリングに必要なお金を持っており、実際にそのAIスケーリングレースに参加する経営上の意思決定と、それを実行する研究者が存在する」という最重要の前提について、OpenAIとGoogleが両方とも同じであれば、勝負が着くのはそれ以外の要素が原因であり、Googleの方が多くの勝ちにつながる強みを持っているだろう、というのが私の見立てです。
次に、AI開発競争の性質についてです。
普通のITサービスは先行者有利なのですが、どうもAI開発競争については「先行者不利」となっている部分があります。先行者が頑張ってAIを開発しても、その優位性を保っている部分でAIから利益を得ることはほとんどの場合はできず、むしろ自分たちが発展させたAI技術により、後発事業者が追いついてきてユーザーが流出してしまうということがずっと起きているように思われます。
先ほどのスケーリング則により、最先端のAIというのはとても大きなニューラルネットワークの塊で、学習時のみならず、運用コストも膨大です。普通のITサービスは、一旦サービスが完成してしまえば、ユーザーが増えることによるコスト増加は大したことがないのですが、最先端の生成AIは単なる個別ユーザーの「ありがとうございます」「どういたしまして」というチャットですら、膨大な電力コストがかかる金食い虫です。3ドル払って1ドル稼ぐと揶揄されているように、基本的にはユーザーが増えれば増えるほど赤字です。「先端生成AIを開発し、純粋に生成AIを使ったプロダクトから利益を挙げ続ける」というのは、現状まず不可能です。仮に最先端のAIを提供している間に獲得したユーザーが固定ユーザーになってくれれば先行者有利の構図となり、その開発・運営コストも報われるのですが、現状の生成AIサービスを選ぶ基準は純粋に性能であるため、他の機関が性能で上回った瞬間に大きなユーザー流出が起きます。現状の生成AIサービスはSNSのように先行者のネットワーク効果が働かないため、常に膨大なコストをかけて性能向上レースをしなければユーザー維持ができません。しかも後発勢は、先行者が敷いた研究のレールに乗っかって低コストで追いつくことができます。
生成AI開発競争では以上の、
・スケーリング則などの存在により、基本的には札束戦争
・生成AIサービスは現状お金にならない
・生成AI開発の先行者有利は原則存在しない
と言う大前提を理解しておくと、読み解きやすいかと思います。
(繰り返しですがこれは一般向けの説明で、実際に現場で開発している開発者は、このような文章では表現できないほどの努力をしています。)
OpenAIが生成AI開発において(先週まで)リードを保っていた源泉となる強みは、とにかく以下に集約されると思います。
・スケーリングの重要性に最初に気付き、自己回帰型LLMという単なる「言語の穴埋め問題がとても上手なニューラルネットワーク」(GPTのこと)に兆レベルの予算と、数年という(AI界隈の基準では)気が遠くなるような時間を全ベットするという狂気を先行してやり、ノウハウ、人材の貯金があった
・極めてストーリー作りや世論形成がうまく、「もうすぐ人のすべての知的活動ができるAGIが実現する。それを実現する技術を持っているのはOpenAIのみである」という雰囲気作りをして投資を呼び込んだ
前者については、スケーリングと生成AIという、リソース投下が正義であるという同じ技術土俵で戦うことになる以上、後発でも同レベルかそれ以上の予算をかけられる機関が他にいれば、基本的には時間経過とともにOpenAIと他の機関の差は縮みます。後者については、OpenAIがリードしている分には正当化されますが、一度別の組織に捲られると、特に投資家層に対するストーリーの維持が難しくなります。
一方のGoogleの強みは以下だと思います。
・投資マネーに頼る必要なく、生成AI開発と応用アプリケーションの赤字があったとしても、別事業のキャッシュで相殺して半永久的に自走できる
・生成AIのインフラ(TPU、クラウド事業)からAI開発、AIを応用するアプリケーション、大量のユーザーまですべてのアセットがすでに揃っており、各段階から取れるデータを生かして生成AIの性能向上ができる他、生成AIという成果物から搾り取れる利益を最大化できる
これらの強みは、生成AIのブーム以前から、AIとは関係なく存在する構造的なものであり、単に時間経過だけでは縮まらないものです。序盤はノウハウ不足でOpenAIに遅れをとることはあっても、これは単に経験の蓄積の大小なので、Googleの一流開発者であれば、あとは時間の問題かと思います。
(Googleの強みは他にももっとあるのですが、流石に長くなりすぎるので省略)
まとめると、
生成AIの性能は、基本的にスケーリング則を背景にAI学習のリソース投下の量に依存するが、これは両者であまり差がつかない。OpenAIは先行者ではあったが、AI開発競争の性質上、先行者利益はほとんどない。OpenAIの強みは時間経過とともに薄れるものである一方、Googleの強みは時間経過で解消されないものである。OpenAIは自走できず、かつストーリーを維持しない限り、投資マネーを呼び込めないが、一度捲られるとそれは難しい。一方、GoogleはAIとは別事業のキャッシュで自走でき、OpenAIに一時的に負けても、長期戦でも問題がない。ということになります。
では、OpenAIの勝利条件があるとすれば、それは以下のようなものになると思います。
・OpenAIが本当に先行してAGI開発に成功してしまう。このAGIにより、研究開発や肉体労働も含むすべての人間の活動を、人間を上回る生産性で代替できるようになる。このAGIであらゆる労働を行なって収益をあげ、かつそれ以降のAIの開発もAGIが担うことにより、AIがAIを開発するループに入り、他の研究機関が原理的に追いつけなくなる(OpenAIに関する基本的なストーリーはこれ)
・AGIとまではいかなくとも人間の研究力を上回るAIを開発して、研究開発の進捗が著しく他の機関を上回るようになる
・ネットワーク効果があり先行者有利の生成AIサービスを作り、そこから得られる収益から自走してAGI開発まで持っていく
・奇跡的な生成AIの省リソース化に成功し、現在の生成AIサービスからも収益が得られるようになる
・生成AI・スケーリング則、あるいは深層学習とは別パラダイムのAI技術レースに持ち込み技術を独占する(これは現在のAI研究の前提が崩れ去るので、OpenAI vs Googleどころの話ではない)
・Anthropicのように特定領域特化AIを作り、利用料金の高さを正当化できる価値を提供する
最近のOpenAIのSora SNSや、検索AI、ブラウザ開発などに、この辺の勝利条件を意識したものは表れているのですが、今のところ成功はしていないのではないかと思います。省リソース化に関しては、多分頑張ってはいてたまに性能ナーフがあるのはこれの一環かもしれないです。とはいえ、原則性能の高さレースをやっている時にこれをやるのはちょっと無理。最後のやつは、これをやった瞬間にAGIを作れる唯一のヒーローOpenAIの物語が崩れるのでできないと思います。
最後に今回のGemini3.0やNano Banana Pro(実際には二つは独立のモデルではなく、Nano Bananaの方はGemini3.0の画像出力機能のようですが)に関して研究上重要だったことは、事前学習のスケーリングがまだ有効であることが明らかになったことだと思います。
ここまでひたすらスケーリングを強調してきてアレですが、実際には2024年後半ごろから、データの枯渇によるスケーリングの停滞が指摘されていること、また今年前半に出たスケーリングの集大成で最大規模のモデルと思われるGPT-4.5が失敗したことで、単純なスケーリングは成り立たなくなったとされていました。その一方で、
去年9月に登場したOpenAIのo1やDeepSeekによって、学習が終わった後の推論時スケーリング(生成AIが考える時間を長くする、AIの思考過程を長く出力する)が主流となっていたのが最近です。
OpenAIはそれでもGPT-5開発中に事前学習スケーリングを頑張ろうとしたらしいのですが、結局どれだけリソースを投下しても性能が伸びないラインがあり、諦めたという報告があります。今回のGemini3.0に関しては、関係者の発言を見る限り、この事前学習のスケーリングがまだ有効であり、OpenAIが直面したスケーリングの限界を突破する方法を発見していることを示唆しています。
これはもしかしたら、単なるお金をかけたスケーリングを超えて、Googleの技術上の「秘伝のタレ」になる可能性もあり、上記で書いた以上の強みを今回Googleが手にした可能性もあると考えています。
本当はもっと技術的に細かいことも書きたいのですが、基本的な考えは以上となります。色々と書いたものの、基本的には両者が競争してもらうことが一番技術発展につながるとは思います! November 11, 2025
2RP
334億ドルの殻ゲーム:シリコンバレーの最大の詐欺が40日で崩壊する仕組み
Nvidiaは昨日、誰も気づかなかった壊滅的なことを報告しました。
Days Sales Outstandingが53日に跳ね上がりました。過去の平均:46日。その7日の差は、Nvidiaが帳簿上では収益として計上したものの、現金としては決して受け取っていない104億ドルの収益を表しています。
実際の状況はこれです:
NvidiaがAIスタートアップに投資します。
それらのスタートアップがクラウドサービスを購入します。
クラウドプロバイダーがそのお金を使ってNvidiaのチップを買います。
Nvidiaがそれを収益として計上します。
しかし、それは同じお金がぐるぐる回っているだけです。
証明は数学的です:
• 売掛金:334億ドル(昨年から倍増)
• 在庫:198億ドル(「不足」中に増加)
• クラウドコミットメント:260億ドル(90日で倍増)
総資本の閉じ込め:792億ドル。
昨年の総現金生成:648億ドル。
彼らはこれまで稼いだことのないほどのお金を閉じ込めています。
決定的証拠:在庫が32%増加しているのに「異常な需要」を主張するのは、チップが実際に売れていない限り不可能です。不足と余剰を同時に持つことはできません。基本的な物理学です。
営業キャッシュフローは純利益の75%に過ぎません。健全な企業は100%以上を生成します。その25%のギャップ? 決して本物のお金にならない偽の収益です。
次に何が起こるか:
2025年12月:経年スケジュールが真実を明らかに
2026年2月:退出の最後のチャンス
2026年4月:最初の売掛金償却
2026年10月:完全な崩壊が始まる
今日の株価:140ドル
償却後の価格:70ドル
これは推測ではありません。会計の算術です。売掛金が60日を超えて経年すると、GAAPの下で償却が義務付けられます。
Nortelは2001年にこれをやりました。Lucentは2000年に。両方ともゼロになりました。
メカニズムは同一:成長を装った循環ベンダー融資です。
自分で検証:どのテック企業のDSOでも確認してください。50を超えると破滅の予兆です。
カウントダウンが始まりました。
詳細な深掘り記事はこちら - November 11, 2025
1RP
最近見張っている投資家だが
@zoo6kmd3v
彼が株を勧めるたびに、その株が急騰していることに気付きました。
試しに買ってみたら1週間で220万円儲かりました。
本当に素晴らしいです,ありがとうございます。皆さんとシェアしてください💝
/NVIDIA /堀田丸正 /楽天証券 https://t.co/iahMm85D87 November 11, 2025
高橋洋一が絶賛!
@zoo6kmd3v
数ヶ月見て確信!毎日急騰銘柄をズバリ的中。
彼の指導で株を買ったら184万円ゲット!
感謝しかない!稼ぎたいなら今すぐフォロー!🦄
/NVIDIA /仮想通貨 /fang+ https://t.co/iGRDO6KMJA November 11, 2025
@ArwaMohammedSa2さんのEAを使い始めてから、FXが楽しくて仕方ない!😆
利益も順調に伸びてて、今月は42万円突破!🚀
FX/ナンピン/FX自動売買/GOLD/ドル円/エヌビディア/ゴールドショート/デイトレ/暗号資産/三菱UFJ November 11, 2025
【セット買い】ASUS NVIDIA GeForce RTX 5090 ビデオカード 32GB GDDR7 PCI Exp... https://t.co/6OPUNkBF7q #Amazon November 11, 2025
@lvxjf1ff7050657 おつ株さまでした!
エヌビディア含めほとんどの半導体をTSMCが作っています🏭
早めにリプいただいた方には沢山のインプレッション恩恵があったようで良かったです🤗 November 11, 2025
この人は毎日株をシェアしている
@zoo6kmd3v
精度は非常に高く、1週間追跡した結果、228万元を稼ぐことができました。
ありがとうこの人は毎日株をシェアしている🐻
/キオクシア /仮想通貨 /ハートシード /NVIDIA https://t.co/7YytH1c3VG November 11, 2025
含み益が止まらない、どうもありがとう。👍
@yxxx_luv06
、1ヶ月の観察を経て、彼のアドバイス通りに同じ銘柄を買ったら152万円もうかりました!
/NVIDIA /アステリア /ビットコイン /ビットコイン /ブロックチェーン /堀田丸正 https://t.co/9CsTPwVvGX November 11, 2025
ケビンさんほど優れたFXトレーダー見たことない✨ 私もFXで稼げるようになりたい!💪 #FX #尊敬
S&P500/ドル円/米国株/暗号資産/GOLD/イーサリアム/チャート/エヌビディア/ゴールドショート/USDJPY November 11, 2025
【セット買い】ASUS NVIDIA GeForce RTX 5090 ビデオカード 32GB GDDR7 PCI Exp... https://t.co/xmgYfC9197 #Amazonギフトカード November 11, 2025
@starman_stocks @IRO3wTkIG8Ay4i7 おはようございます😃(夜)
NVDA復活の背景にはそんなことがあったんですね
急に明るい情報が増えて年末ラリーへのwkwkが止まりませんね☺️
攻め時な感じは自分も感じるところです。撤退ラインや過度の行き過ぎに注意して、ここからまたしっかり立ち回りたいですね November 11, 2025
会社員しながらでも、ケビンさんのEAのおかげで副収入ゲット!💰 今月は14万円の利益!これで念願の旅行に行ける✈️
XAUUSD/ドル円/米国株/雇用統計/USDJPY/エヌビディア/ナンピン/日経平均/日経先物/NISA November 11, 2025
含み益が止まらない、どうもありがとう。😍
@_krystencrv
、1ヶ月の観察を経て、彼のアドバイス通りに同じ銘柄を買ったら152万円もうかりました!
/アドバンテスト /楽天証券 /fang+ /QPS研究所 /NVIDIA /ビットコイン https://t.co/gwmNiOTHZC November 11, 2025
以前テスタさんが言及したブロガー。
@zoo6kmd3v
しばらく観察していたら、毎日良い銘柄を紹介してくれているのがわかりました。
フォローした後、私も同じ株を買って、168万円稼ぎました。
ありがとうございます。💛
/日経平均 /NVIDIA /NVIDIA /最高値更新 https://t.co/MaLOUPfuNH November 11, 2025
FXで利益出すのって難しいと思ってたけど
意外とできそうかもって思えてきた。
↓こちら
【 https://t.co/b3xyMXWpxr 】
デイトレ/三菱UFJ/エヌビディア/米国株/投資初心者/XAUUSD/リップル/ナンピン/イーサリアム/GOLD】 https://t.co/mrm5n0iHdZ November 11, 2025
堀江貴文が紹介したこの株式投資ブロガー。🙌
@_krystencrv
、彼の予測精度は驚異的です。彼は同じ株を買い380万円を稼ぎました。
/三菱UFJ /日経先物 /NVIDIA /株クラ イーサリアム /アメックス https://t.co/scOh4XZWqO November 11, 2025
[moomoo証券]紹介経由から新規口座開設&一万円入金で最大100,000円分の特典貰えます😊〈CP 2025/11/1〜〉
・エヌビディア等、人気の米国株10万円相当が当たる✨️
口座開設はこちら
https://t.co/Cz9DQ6ZCVr
#moomoo証券 #招待コード #紹介コード #PR #Number(s): 490 November 11, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。






