1
gsm
0post
2025.11.24〜(48週)
:0% :0% (30代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
母さん「あんた、会社から封筒来てるよ」
就活生「合否通知か。……!…これはッ(葉巻を踏み消す)」
母さん「どないしたん」
就活生「継ぎ目が少なく口が内側に折れる高級仕様…カマス貼りだ。マットで気品に溢れるコットン。本文も指に吸い付くようなコットンだが…これは300~310gsmほどか。差し紙にアイボリーのヴェラム紙を入れて開封プロセス自体の儀式性を高めている。エンボスのロゴ押し加工に…立体エンブレムの留め具。それだけじゃない、ほぼ全ての構成要素が入念に吟味され、カスタム化されている。並の企業の合否通知じゃない」
母さん「へぇ、よかったやん。そんだけしてくれるってことは」
就活生「あぁ、出禁だ」
(Snake Eater演奏開始) December 12, 2025
896RP
今まで投げた話+αのgkrkとgnzuと女人と冬gsmと私本をごちゃ混ぜした尊直の本を改めて作ろうかなと思っているのですが欲しい方とかいたりするのかな。新刊カードもらえるくらいの少部数を刷ろうかと思ってるのですが……いたらこそっと教えてください。 December 12, 2025
5RP
The House of Rags Japan の
ディーバガラスタオルを初めて使いましたがこのタオルすごいです🤩
70:30ブレンド韓国産で400GSM・40×40cm
片面がツイストループで窓の汚れを拭き取って裏の短いファンシーヤーン?で仕上げができてスポンジみたいなコアが入ってる感じで厚みがあってクニャっとならなくてマジでよかったです🤩
これは使ったらビックリすると思います
ブラックフライデーでお安くなってますのでオススメです🤩
@detailguardz
https://t.co/yuyc7KASFD December 12, 2025
2RP
気象庁の二つの数値予報モデル、GSMとMSMの降水予想の比較を1枚の画像に合成
※画像の右肩に、対応する倭国時間を表示しますが、あくまでも、数ある気象予想モデルのうちの二つであって、モデル間や実況との比較のためにアニメーション化しています。
左:2025年10月26日21JST(12z)イニシャルのGSMによる96時間先までの降水予想
右:同時刻イニシャルのMSMによる78時間先までの降水予想
●この先、低気圧が倭国海~サハリン付近を通過し、これに連なる前線が倭国付近を通過し、その後は一時冬型となり、終盤には北倭国を前線が通過しそう。
両モデル間には、低気圧や前線の位置、降水分布や強度に差が見られます。
※Xとyoutubeの両方に動画をアップ。
https://t.co/4gX41rhpqB December 12, 2025
1RP
気象庁の二つの数値予報モデル、GSMとMSMの降水予想の比較を1枚の画像に合成
※画像の右肩に、対応する倭国時間を表示しますが、あくまでも、数ある気象予想モデルのうちの二つであって、モデル間や実況との比較のためにアニメーション化しています。
左:2025年10月29日21JST(12z)イニシャルのGSMによる96時間先までの降水予想
右:同時刻イニシャルのMSMによる78時間先までの降水予想
●この先、北倭国を前線が相次いで通過し、終盤には強い冬型となりそう。
両モデル間には、低気圧や前線の位置、降水分布や強度に差が見られます。
※Xとyoutubeの両方に動画をアップ。
https://t.co/DiXMgxTgct December 12, 2025
1RP
下着欲しいです!!
・手渡し、郵送どちらでも🙆
・顔出し(マスク有OK)必須
連絡お待ちしてます🙏
#下着売ります #下着買います #郵送
#鹿児島 #kgsm December 12, 2025
1RP
ねぇねぇ!この靴めっちゃ可愛くない?🥺💕 オニツカタイガーのやつ、革が柔らかくて履き心地最高らしいんだけど、誰か買ってあげてー!💦
オニツカタイガーGSM SD アイボリー ネイビー 24cm
https://t.co/5exeV7HjLf December 12, 2025
🇵🇭同僚から聞いた話ですが”Green GSMはドライバーが遠回りして距離を稼ぎ、多めに料金を請求するというネガティブレビューが多い”らしいです。
Grab/InDriveよりアプリで提示される料金はかなり安いですが、何か裏がありそうですね。
#GSM
#Grab
#フィリピン https://t.co/EXUO5u6mWw December 12, 2025
🔥ホーム&キッチン3位🔥 売れ筋ランキング
【Amazon限定】タオル研究所 [軽さの理由] #006 フェイスタオル ウォームグレー ほうじ茶色 5枚セット 速乾 薄手 絞りやすい 高速吸水 耐久性 綿100% 305GSM JapanTechnology
※類似ブラ
⚡1,251円⚡(18:40倭国標準時点)https://t.co/PS2ElwlNhf December 12, 2025
🔥ホーム&キッチン8位🔥 売れ筋ランキング
【Amazon限定】タオル研究所 [毎日シンプル] #001 フェイスタオル ソフトグレー 5枚セット スタンダードタイプ 中厚手 毛羽落ち少ない 高速吸水 耐久性 綿100% 420GSM JapanTechnology
⚡1,589円⚡(18:45倭国標準時点)https://t.co/l5oQOahOQu December 12, 2025
🔥ホーム&キッチン30位🔥 売れ筋ランキング
【Amazon限定】タオル研究所 [自然なやわらかさ] #024 フェイスタオル ダークブルー 5枚セット やわらか 厚手 なめらか 長持ち 高速吸水 耐久性 綿100% 480GSM JapanTechnology
※類似
⚡1,589円⚡(19:07倭国標準時点)https://t.co/zZv41J8uOA December 12, 2025
気象庁の二つの数値予報モデル、GSMとMSMの降水予想の比較を1枚の画像に合成
※画像の右肩に、対応する倭国時間を表示しますが、あくまでも、数ある気象予想モデルのうちの二つであって、モデル間や実況との比較のためにアニメーション化しています。
左:2025年10月27日21JST(12z)イニシャルのGSMによる96時間先までの降水予想
右:同時刻イニシャルのMSMによる78時間先までの降水予想
●この先、低気圧が倭国海~サハリン付近を通過し、これに連なる前線が倭国付近を通過し、その後は一時冬型となり、後半には北倭国を前線が通過しそう。
両モデル間には、低気圧や前線の位置、降水分布や強度に差が見られます。
※Xとyoutubeの両方に動画をアップ。
https://t.co/QimxlbZQlZ December 12, 2025
よなー、このオニツカタイガーのクリーム/タン、状態良すぎて羨ましいわ。箱付きとか完璧じゃん!
オニツカタイガー GSM クリーム/タン 22.5cm
https://t.co/wMwMoFYPLq December 12, 2025
うわっ1979年YAMAHA L-5がM80載せで出てる!欲しい〜私も弾いたらもっと輝けるのに🔥
YAMAHA L-5前期型1979年 L.R. BaggsM80搭載ほか
https://t.co/moXkssSVKG December 12, 2025
うわっオニツカのGSM黒23.5が美品で出てる!
俺の分まで買っとけよ〜むかむか😠
【美品】Onitsuka Tiger GSM ブラックスニーカー 23.5cm
https://t.co/BkC7CeqYNe December 12, 2025
2025年10月、NVIDIA Researchとオックスフォード大学が共同で、AI史に残る論文を静かに投下した。
論文タイトルは地味に聞こえるかもしれない。
でも中身を読んだ瞬間、世界中の研究者が同じ言葉を漏らした。
「終わった……バックプロップの時代が、ついに終わりを迎えた」
何が起きたのか?超シンプルに言うと
「10億〜100億パラメータ級の最新鋭言語モデルが、
勾配計算ゼロ、バックプロペガーションゼロで訓練できるようになった」
しかも性能は、現在の最強手法(LLaMA-3、Grok-4、DeepSeek、GRPOなど)と完全に互角か、場合によっては上回る。
使われた手法は何か?
30年以上前に生まれた「進化戦略(Evolution Strategies)」という超古典的手法。
自然進化を真似するだけの、めちゃくちゃシンプルなアルゴリズム:
1. モデルを何十万〜百万匹コピーする
2. それぞれにランダムノイズを足す
3. 性能を測って、上位の個体を親にして次世代を作る
4. 繰り返す
→ 微分なんて一ミリも使わない
なぜ今まで誰もできなかったのか?
単純にメモリと計算量がバグってたから。
10億パラメータのモデルで人口1000匹すら作ると、メモリが数ペタバイト必要で即死してた。
2018年のOpenAIのES論文以降、みんな「大規模では永遠に無理」と諦めていた。
NVIDIA+Oxfordがやった革命的な一手
彼らはたった一つのアイデアで全てをひっくり返した。
名前は「EGGROLL」(Evolutionary Gradient Generator with Rank-One Low-rank Layers)
トリックはこれだけ:
「ノイズをフルサイズで作るのをやめて、
超細長い低ランク行列(A ∈ ℝ^{10億×128})だけで生成する」
そしてその行列A自体も、世代ごとに一緒に進化させる。
→ 結果、メモリ使用量が16万分の1に激減
→ 人口100万個体でも、たった48GBのGPUメモリで回るようになった
数学的には、世代が進むごとにこの低ランク更新が「真のフルランク勾配」に収束していくことが厳密に証明されている(誤差は O(1/√(rank × generation)) )。
実際の実験結果
1. 8億パラメータの再帰Transformerをゼロから事前訓練
→ 使用データ型:INT8のみ(バックプロップ物理的に不可能)
→ 1200億トークン処理 → 最終perplexity 9.81(LLaMA-3-8Bとほぼ同等)
2. 最難関ベンチマークでの直接対決
GSM8K:94.8%(現行最強GRPOの94.2%を上回る)
MATH・CodeContestでも同等か勝利
3. 訓練の安定性が異常
AdamWは3回loss爆発 → EGGROLLは0回(完全に単調減少)
これから世界はどう変わるのか?
(2026〜2028年の現実的な未来)
- 次世代の大規模モデルは「一部の層だけEGGROLLで訓練」するハイブリッド方式が標準になる
- 離散トークン直接最適化(真のRLHF)がようやく実用化される
- 量子コンピュータ、ニューロモルフィックチップ、アナログAIチップ上の学習が一気に現実味を帯びる
- Neural Architecture Search(モデル構造そのものの自動設計)が復活する
- バックプロップが物理的に使えないハードウェアが全部攻略対象になる
最後に、歴史的な視点で一言
2017年:Transformerが「アーキテクチャ」の常識を壊した
2025年:EGGROLLが「最適化パラダイム」の常識を壊した
バックプロペガーションは1940年代後半〜1980年代に生まれた技術。
約80年間、AIの王座に君臨し続けた。
その王座が、今、静かに崩れはじめる。
これは大げさでも誇張でもない。
我々は今、リアルタイムでAIの歴史の転換点を目撃している。
読んでおかないと、2年後に確実に後悔します。 December 12, 2025
2025年10月、NVIDIA Researchとオックスフォード大学が共同で、AI史に残る論文を静かに投下した。
論文タイトルは地味に聞こえるかもしれない。
でも中身を読んだ瞬間、世界中の研究者が同じ言葉を漏らした。
「終わった……バックプロップの時代が、ついに終わりを迎えた」
何が起きたのか?超シンプルに言うと
「10億〜100億パラメータ級の最新鋭言語モデルが、
勾配計算ゼロ、バックプロペガーションゼロで訓練できるようになった」
しかも性能は、現在の最強手法(LLaMA-3、Grok-4、DeepSeek、GRPOなど)と完全に互角か、場合によっては上回る。
使われた手法は何か?
30年以上前に生まれた「進化戦略(Evolution Strategies)」という超古典的手法。
自然進化を真似するだけの、めちゃくちゃシンプルなアルゴリズム:
1. モデルを何十万〜百万匹コピーする
2. それぞれにランダムノイズを足す
3. 性能を測って、上位の個体を親にして次世代を作る
4. 繰り返す
→ 微分なんて一ミリも使わない
なぜ今まで誰もできなかったのか?
単純にメモリと計算量がバグってたから。
10億パラメータのモデルで人口1000匹すら作ると、メモリが数ペタバイト必要で即死してた。
2018年のOpenAIのES論文以降、みんな「大規模では永遠に無理」と諦めていた。
NVIDIA+Oxfordがやった革命的な一手
彼らはたった一つのアイデアで全てをひっくり返した。
名前は「EGGROLL」(Evolutionary Gradient Generator with Rank-One Low-rank Layers)
トリックはこれだけ:
「ノイズをフルサイズで作るのをやめて、
超細長い低ランク行列(A ∈ ℝ^{10億×128})だけで生成する」
そしてその行列A自体も、世代ごとに一緒に進化させる。
→ 結果、メモリ使用量が16万分の1に激減
→ 人口100万個体でも、たった48GBのGPUメモリで回るようになった
数学的には、世代が進むごとにこの低ランク更新が「真のフルランク勾配」に収束していくことが厳密に証明されている(誤差は O(1/√(rank × generation)) )。
実際の実験結果
1. 8億パラメータの再帰Transformerをゼロから事前訓練
→ 使用データ型:INT8のみ(バックプロップ物理的に不可能)
→ 1200億トークン処理 → 最終perplexity 9.81(LLaMA-3-8Bとほぼ同等)
2. 最難関ベンチマークでの直接対決
GSM8K:94.8%(現行最強GRPOの94.2%を上回る)
MATH・CodeContestでも同等か勝利
3. 訓練の安定性が異常
AdamWは3回loss爆発 → EGGROLLは0回(完全に単調減少)
これから世界はどう変わるのか?
(2026〜2028年の現実的な未来)
- 次世代の大規模モデルは「一部の層だけEGGROLLで訓練」するハイブリッド方式が標準になる
- 離散トークン直接最適化(真のRLHF)がようやく実用化される
- 量子コンピュータ、ニューロモルフィックチップ、アナログAIチップ上の学習が一気に現実味を帯びる
- Neural Architecture Search(モデル構造そのものの自動設計)が復活する
- バックプロップが物理的に使えないハードウェアが全部攻略対象になる
最後に、歴史的な視点で一言
2017年:Transformerが「アーキテクチャ」の常識を壊した
2025年:EGGROLLが「最適化パラダイム」の常識を壊した
バックプロペガーションは1940年代後半〜1980年代に生まれた技術。
約80年間、AIの王座に君臨し続けた。
その王座が、今、静かに崩れはじめている。
これは大げさでも誇張でもない。
我々は今、リアルタイムでAIの歴史の転換点を目撃している。
読んでおかないと、2年後に確実に後悔します。 December 12, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。



