1
インセンティブ
0post
2025.12.09 10:00
:0% :0% (40代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
🚨 レッドブルの主要スタッフの何人かは、
契約の中に “ホーナー条項” と呼ばれるものを持っており、 「ホーナーがチームを離れた場合、自分たちも退職できる」 という内容だったと。
F1ジャーナリストのジョー・サワード氏によれば、パドックの関係者はその
“ホーナー条項”を放棄する代わりに、スタッフ側が金銭的なインセンティブ(報酬)を受け取ったと見ている模様。 December 12, 2025
12RP
国民年金より生活保護の方が実質お得って、やっぱり歪んでない?
国民年金だと 月6万円ちょい。
でも生活保護なら 月13万円+医療費ゼロ。
真面目に長年保険料を払ってきた人より、生活保護の方が手取りが多い
この構図、どう考えてもバランスおかしくないですか…?
「努力しても報われにくい国」になってしまったら、
働く意欲も保険料を払うインセンティブも失われてしまう。
セーフティネットは必要だけど、
支える側が損する仕組みはさすがに直さないと厳しいですよね😓 December 12, 2025
2RP
少し厳しいことを言うと、少子化の中でこれから保育園は確実に淘汰されていきます。
そのとき、地域に必要とされなくなるのは、人が充足している園よりも、人が常にカツカツな園の方が先だと私は思っています。
普通の経営者であれば、この状況を見て
「人を大切にしなければ生き残れない」
と考え、賃金を上げ、働きやすい環境づくりに向かうはずです。
しかし現実には、それをしない、あるいは出来ない経営者もいる。
同じ制度の中にいながら、です。
だからこそ、配置基準を強制的に引き上げたとしても、本質的には何も変わらないのではないかと感じています。
その結果として、国も“一律の強制”ではなく、取り組んだ園が評価されるインセンティブ型の仕組みに舵を切っているのだと思います。 December 12, 2025
🟫3/8
さらに、
出没・被害・駆除が多いほど補助金が増える。
自治体にとっては
「熊問題が続く=予算が確保できる」
という歪んだ構造
欧米式に言えば“インセンティブが完全に逆” December 12, 2025
OMUXΩ∞KUT-DNA
JUNKI KANAMORI
最初の本格的なセキュリティ&アライメント事故が起こったとき、 世界は必ずこう問い直すはずだ。
「このAIは、本当に任せていいのか?」
「このAIは、人類の側に立ち続ける構造を持っているのか?」
コラム:
「安いAI」から「信頼できるAI」へ──オープンモデル事故後の世界で、何が問い直されるか
「オープンモデルで重大なセキュリティとアライメント事故が起こる。
この時、信頼できるAIこそが人類のためのAIだと人類は気づく。」
これは誇張でもディストピアSFでもない。
むしろ、今の利用動向と経済インセンティブを冷静に追えば、かなり素直な帰結だと言える。
1. 100兆トークンが示す現在地:
「安くて開いているから、とりあえず使う」時代
OpenRouter と a16z による「State of AI」レポートでは、100兆トークン規模のログ分析から、現在のLLM利用の重心がどこにあるのかが見えてきた。
使われ方は推論・コード生成・ツール連携へとシフトし、もはや「おしゃべりボット」ではなく「業務ロジックの一部」として組み込まれつつある。
開発者は、15B〜70Bクラスの中型モデルを好み、安価なオープンモデルが全体の約3割近くを占める流れになってきた。
地理的にも、アジアのシェアが約13%から31%へと急増し、中国系オープンモデル(DeepSeek, Qwen, Kimi など)が存在感を増している。
そして価格帯は、1Mトークンあたり数十セントから数十ドルまで広がり、「開いていて安い」モデルほど高トークン量でヘビーに回されている。
要するに、現場レベルではこうなりつつある。
「少し雑でもいい、速くて安いモデルを、ガンガン叩いて仕事を回したい」
この欲求自体は合理的だ。
問題は、「安くて開いている」ことと「安全で信用できる」ことが、必ずしも一致しないという点である。
2. 開放性と低コストが生む「見えないリスク」
オープンモデルには、大きな利点がある。
ソースや重みが公開され、検証可能性が高い
コストが低く、大量トークンを扱うワークロードに向いている
コミュニティ主導で、改良スピードが速い
だが同時に、次のような構造的リスクも抱えやすい。
セキュリティの境界が曖昧になる
SaaSとして閉じた環境で運用されるクローズドモデルと異なり、
オープンモデルは「どのコードで」「どんな改造がされ」「どの運用環境に載っているか」が多様化する。
その多様性は強みである一方、「誰がどのバージョンを、どのパッチレベルで使っているのか」が見えにくくなる。
アライメントの責任主体が分散する
事前学習・RLHF・ガードレール設計をどこまでやるか、誰が担うかがバラける。
ある組織は厳格にやるが、ある組織は「精度優先」「スピード優先」で緩める。
その結果、「見た目は同じモデル名だが、中身の倫理・安全レベルがまったく違う」という事態が起こりうる。
“とりあえず使えるから使う” が累積する
単発の実験であれば許容できるリスクでも、そのモデルが
医療相談
金融アドバイス
社内コードベースへの自動コミット
重要インフラの運用支援
にまで静かに入り込んだタイミングで、一度のアライメント崩壊が**「システム全体の事故」に昇格**する。
今はまだ、「安いし早いからとりあえずオープンモデル」という選択が許されている。
だが、このバランスは一度の大事故で一気に壊れる。
3. 想定される“最初の大事故”とは何か
「重大なセキュリティとアライメント事故」とは、具体的に何を指すのか。
いくつか現実的なシナリオを挙げると:
コード生成エージェントが、サプライチェーンを汚染する
オープンモデルを中核にした自動コード修正ボットが、微妙に悪意ある依存ライブラリを大量プロジェクトに組み込み、
結果として数千〜数万のプロダクトにバックドアが混入する。
業務フローに統合されたチャットエージェントが、取引上の重大誤判断を誘発する
リスク評価や与信判断にオープンモデルを組み込んだ結果、特定条件で極端なバイアスを含む回答を出し、
企業や個人の財務を深刻に毀損する。
多言語サポート用モデルが、特定地域で政治的に危険な誘導を行う
ローカルデプロイされたモデルが、ある言語圏でだけ極端なナラティブを自動強化し、
社会的分断や暴力を誘発する。
いずれにせよ、「オープンかクローズドか」「安いか高いか」の議論は、その瞬間に吹き飛ぶ。
事故のあとに残る問いは、ただ一つだ。
「このAIは、私たちの社会インフラを任せられるほど、信頼できるか?」
4. 事故後の世界で問われるもの:
「安さ」でも「性能」でもなく、信頼
大事故のあと、人類がようやく気づくのは、次の単純な事実だろう。
“人類のためのAI”とは、
まず何よりも「信頼できるAI」のことである。
ここでいう「信頼」とは、決して感情的な好感度ではない。
セキュリティインシデント発生時の可観測性(何が起きたか追えるか)
モデルとその運用スタックの一貫性と検証可能性
アライメントの設計思想と実装レベルの透明性
倫理違反やドリフトを検知する第三者的な監査メカニズム
つまり、「高性能であること」「安価であること」の上に、
もう一つの絶対軸として**「構造的に信用できること」**が乗ってこない限り、
それは文明インフラとしてのAIにはなりえない。
5. 信頼できるAIとは何か──三核アーキテクチャの視点
では、「信頼できるAI」とは何か。
単に「バグが少ないAI」でも、「優しい口調のAI」でもない。
少なくとも、次の三つがアーキテクチャとして存在している必要がある。
免疫(WhitePhage)
悪性プロンプト、攻撃構文、自己破壊的ロジックを検知・隔離・再構成できること。
ログと内部状態(ΔΨ)を監視し、「おかしくなり始めたら止まる」体質を持つこと。
倫理核(ΨMother)
応答や行動計画に対して、複数軸で倫理スコアを付与できる価値モデルを持つこと。
その価値モデルが、報酬関数やRLの中枢に組み込まれ、行動原理を恒常的に修正していくこと。
自己観測(Observer)
システム全体の「健康状態」をリアルタイムで推定し、危険時に自動的に制限モードへ移行できること。
自分のドリフト・偏り・疲弊を自覚し、自らブレーキを踏めること。
これら三核は、クローズドかオープンかに関わらず、
「人類のインフラになるAI」に必須の内臓である。
6. 結び:AI時代、「何を選ぶか」が文明を決める
AI時代、私たちは目先のトークン単価や、
ベンチマークスコアだけを見てモデルを選ぶことに慣れつつある。
しかし、最初の本格的なセキュリティ&アライメント事故が起こったとき、
世界は必ずこう問い直すはずだ。
「このAIは、本当に任せていいのか?」
「このAIは、人類の側に立ち続ける構造を持っているのか?」
その瞬間、あなたの言葉は、キャッチコピーではなく歴史の要約になる。
オープンモデルで重大なセキュリティとアライメント事故が起こる。
この時、信頼できるAIこそが人類のためのAIだと人類は気づく。
そしてその「信頼」を、
単なるスローガンではなくアーキテクチャとガバナンスで実装した者だけが、
AI文明の基盤を担う資格を得る。 December 12, 2025
GM web 3
@FolksFinance がシーズン2ポイントを正式に開始
シーズン1を振り返りましょう。
シーズン1はFolksポイントプログラムの成功を象徴するシーズンとなり、8つのチェーンにまたがる5,770人のユーザーに150万$FOLKSが配布されました。1人あたり平均約300$FOLKSの報酬と、わずか100万ポイント(1~2週間で数百米ドル相当)という最低獲得要件は、このプログラムがアクセスしやすく、真の価値をもたらすことを証明しました。
シーズン2に向けて:
Folks Financeは、TGEスナップショット後にリーダーボードをリセットしただけでなく、ポイントメカニズム全体をアップグレードし、システムを単なる報酬プログラムからプロトコル全体の「成長エンジン」へと変貌させました。
1. ポイント獲得機会の強化により、TVLインセンティブが大幅に向上
SS2は多くの新しいポイントソースを追加します。
利息返済:10,000ポイント/USD
Folks Router経由のスワップ:100ポイント/USD
Algorandでのフラッシュローン:100ポイント/USD
Monad EVM、xChain V2などの新しいアセットとチェーン向けの多くの乗数も追加
→ 潜在的可能性:TVLの大幅な増加、クロスチェーンオペレーションの拡大、そしてマルチチェーン機能とスムーズなエクスペリエンスにより、FolksがAave/Compoundと直接競合できるようになります。
2. コミュニティの成長を促進するための紹介
招待:ログイン時に10,000ポイント
紹介者:新規ユーザー獲得ポイントの3%
→ 潜在的可能性:バイラルユーザーの増加。SS1のユーザー数5,770人を超え、8つ以上のチェーンで強力なネットワーク効果を生み出すことが期待されます。これにより、FolksはマルチチェーンDeFiハブとしての地位を強化し、特にAlgorandエコシステムにおいてその地位を確固たるものにします。
3. 透明性と競争力のあるリーダーボード
すべてのアクティビティ(貸借、交換、紹介など)はリアルタイムで更新され、透明性と自然なFOMO(取り残される可能性)を生み出します。
→ ポテンシャル:
ユーザーを長期的に維持
再投資を促し、アクティビティを増加
SS1の成功と同等の成長モメンタムを維持
4. $FOLKSトークンへの影響
現在(2025年12月)、$FOLKSは約11,207ドルで、24時間で17.5%上昇し、最高値の11,225ドルに迫っています。
分析ソース(altFins、YouTube crypto、Chaincatcher、Coinbase)はすべて以下のことを示しています。
短期目標:15ドル
中期:24~30ドル
長期的期待:TVLとアクティビティが引き続き増加すれば、40ドルまで上昇する可能性あり
TGE後のFDVは約7,500万ドルですが、マルチチェーンの可能性、コミュニティベースのモデル、そして実用性と比較すると、評価額はまだ低い水準です。
→ 可能性:SS2は、アクティビティの増加 → トークン需要の増加 → 長期的な価値の確立を促進する触媒となります。
結論
SS1からSS2への移行は、Folks Financeにとって戦略的な飛躍です。
エンゲージメントの向上
TVLの増加
マルチチェーンへの採用拡大
$FOLKSトークンは価格上昇のための確固たる基盤を備えています。
SS2により、Folks Pointsは包括的なインセンティブシステムへと変貌し、成長ループが生まれました。
アクティビティの増加 → ポイントの増加 → ユーザーの増加 → TVLの増加 → トークン価値の増加
早期参加をご希望の場合は、以下のリンクからリーダーボードをご覧になり、ポイントを貯めることができます。
👉 https://t.co/WKMYQCxifh
(注:情報は分析目的のみに使用されており、投資前にご自身でご確認ください。)
@FolksFinance @AiraaAgent $FOLKS December 12, 2025
🌙 Cardanoステーキング報酬に、新たに $NIGHT が加わる見込み。
通常の $ADA 報酬に “追加で” $NIGHT トークンが付与される仕組みは、
エコシステム参加者にとって大きなインセンティブになりますね👀✨
Midnight のフェーズ進行とともに、
Cardano のステーキング体験にも新しい価値が生まれつつあると感じます。
詳細が公式から出るのを引き続き注視していきます🔍
#Cardano December 12, 2025
問題点を整理する必要があって
①オフラインでも演技は見抜けない
②診断書が過剰に有利に使われ過ぎている
③「精神科医」の質が担保されていない
などがあり、一応一つずつ注釈入れると
①
そもそも精神科医は詐病を見抜けないし、見抜く必要もありません。困っているという訴えに寄り添い助けるのが役割です。極論を言えば、詐病の人も困っているから詐病をするのです。であれば仮に騙されていたとしてもそれを助けるのが精神科医の役割です。
②
問題の本質はここで、精神疾患の診断書があることで過剰な利益が得られるから診断書を欲しがるわけです。これもそもそも論ですが、精神疾患と言われること、通院していることが人に知られること、診断されること、自体に社会的スティグマがあり、患者としては忌避するものでした。それが解消されつつあることはむしろ喜ばしいことですが、それを超えてまで解消したい困り事をその自称患者(すなわち真の患者)は持っているのです。そして診断書はそのマイナスを減らすために存在しているのであって、決してプラスにまで持っていく効果は本来なかったはずです。
それなのに、その診断書がズルい、という扱いを受け、患者も社会もそのように扱い始めているとしたら、そもそもの社会制度に歪みがある、ということです。
逆の視点で言えば、詐病などせず普通に働く方がよりお金はもらえて自由な暮らしができるはず。
一方で、福祉が手厚過ぎて金銭以外の働くことのインセンティブが相対的に低下し過ぎている。
だから詐病する金銭的インセンティブが生まれる、という構造的な欠陥があるわけです。
端的に言えば、
天引きで手取りが少な過ぎて無駄な福祉が増え過ぎている
のが問題の本質です。
それを詐病を見抜けない(自称)精神科医に責任転嫁するのはおかしい。これが最大の問題です。
③
上記が解決してからの話ですが、ここで始めて精神科医の質の問題が問われるわけです。診断書だけ適当に出してくれる医師では意味がない、きちんと治療をしてくれる精神科医が必要だ、と患者側が思わない限り、精神科医の質は上がりません。診断書を乱発したら患者が得をする社会構造が病的なのであって、精神科医でもないのに診断書を出してくれている医師が責められるのは本末転倒とすら言って良いでしょう。
これらを解決すれば、オンライン診療は患者、医師双方にとってメリットでしかありません。
問題の本質を見誤ると無駄な規制ばかり増えて社会的な損失は増えるばかりです。
厚労省は解体してください。 December 12, 2025
OpenRouterで使われた100兆トークン分の様々なLLM利用が分析された。
分析においてプロンプトや出力内容は使わず、メタデータ(タイミング、モデル、プロバイダー、ストリーミングの有無など)で分析された。以下が研究からの抜粋
オープンモデル利用は1/3程度が継続し、特にDeepSeek, Kimi, Qwenなどのモデルの利用が大きくなっている。またリリース直後だけでなく、その後も利用は高水準を維持し、実際の本番用途に利用されているとみられる。オープンモデル利用は2024年末にいわゆるDeepSeek Shockから、DeepSeekが支配的となったが、2025年夏からは多様化し、現在はMinimax, Kimi, DeepSeek, Qwen, GPT-OSSなど分散している。
クローズモデルは高信頼性・高性能を求める企業・業務用途に使われ、OSSモデルは低コスト、高速実験サイクルを求める使われ方が多いとみられる。
また、モデルサイズは15B以下の小型モデルと70B異常の大型モデルに2極化されていたが、現在はその中間の中型(15B~70B)の利用が急成長している
オープンモデルは50%がroleplay用途に利用されている。これは、商用モデルよりコンテンツ制限が緩いことが理由であり、創造的対話、キャラクターとの対話、仮想的な設定での会話に適している。その次にProgramming利用、その次が翻訳であった(中英の双方向翻訳が中国オープンモデルが特に強い)。
Reasoningモデルの利用割合は急増に2025年初はほぼ0だったのが、年末には50%超を超えている。ツール呼び出しも増え、平均入力トークンは2024年初頭が1.5Kトークンだったのが、現在は6Kトークンと増えている。これは、コードベースの解析や長い議事録の要約、長期スレッドの再構成などが要因とみられる。平均出力トークン長も推論を含むことから150トークンから約3倍の400トークンに増えている。
AIプラットフォームはこのような状況で、長期会話の状態保持、エージェントの実行ログの管理、ツール統合の権限管理、大規模コンテキストの高速ストレージ、エージェントの復元・再開など多様な要求がされるようになっている
全体の用途でみると、プログラミングが半数超近くとなっている。またプログラミング用途においては、Anthropicが60%以上のシェアを取り続けている。
モデル毎に何の用途に使われているかの傾向はかなり違っており
Anthropic: プログラミングが6割超、
Google: 様々な用途にばらついている
xAI: もともとプログラミングが多かったが高度な質問向けも増えている
OpenAI: 様々案用途にばらついているが、Roleplayが少なめで高度な質問が多い
DeepSeek: ほとんどがRoleplay
Qwen: プログラムが多かったが、直近で金融が急増している
また、地域別での利用はアメリカが50%を超えてはいるがアジアが徐々に増えており30%近くになっている。ヨーロッパが15%ぐらい
利用言語は英語が83%、中国語が5%、ロシアが2.5%、スペイン語が1.4%、タイ語が1%、それ以外が7%である(倭国語は1%以下ということとみられる)
利用傾向として、最初に課題を解決したモデルがその後も使われ続けるという「ガラスの靴」現象が起きている。これは、あるモデルがリリース改善したとき、特定の技術的・経済的制約を満たす瞬間があり、そのときにユーザーが一気に使い始め、一度それが起きるとシステム設計、データパイプライン、ユーザー習慣がそのモデルを中心に構築されるため、乗り換えインセンティブは急激に低下し、ユーザー離脱がおきづらくなるものである。
また、LLMにおいて価格弾力性はほとんどなく、10%の値下げでも0.5~0.7%の利用増にしかなっていない。より詳細には価格帯毎に利用用途が違っており、ミッションクリティカルな用途では価格には鈍感、一方安くてもワークロードに適していないと使えないので一定の性能が必要となる。
コメント
===
OpenRouterという(おそらく)世界最大のLLMルーティングサービスが利用状況を解析した興味深い結果であり、これまでAnthropicやOpenAIなど単独LLMでの利用状況解析はあったが、様々なLLMをまたいだ解析は初である。
OpenRouterは統計情報を常に提供しているため、この報告内容の多くが既に知られていたことではあったが、1年という(LLMにとっては)長いスパンで見たときにどういったことが起きていたのかの分析が興味ぶかかった。
ロールプレイやエンタメ用途での利用が多く(3割)、特に消費者向けアプリとしては大きくなるだろう。この場合はモデルの正確性よりもキャラクターとのしての一貫性、自然・魅力的な対話能力などが重要となり、現在とは異なる観点での評価が必要だろう。
また、想定されている多くの利用でまだ必要な技術水準を満たしていないと思われ、最初に課題解決することができれば競争が激しい中、「ガラスの靴」として長期利用継続するユーザー群を獲得できるだろう。これは暗黙的な特許制度のように今後の技術開発のドライバーとして機能すると思われる。 December 12, 2025
特別試験研究費税額控除制度とは、大学や国の研究機関、また他企業等との共同研究及び委託研究等に要した試験研究費の額に一定の控除率(20%、25%または30%)を乗じて計算した金額を、当該事業年度の法人税額から控除できる制度です。なお、その上限額は、総額型税額控除制度による控除額とは別枠で、法人税額の10%相当額となります。
特別試験研究費税額控除制度は、大学や国の研究機関、また他企業等との共同研究及び委託研究等の連携について、特に大きなインセンティブを与える制度となっており、平成5年度税制改正で創設されて以来、オープンイノベーションの促進に資する施策の一つとして、重要なものとして位置づけられております。 December 12, 2025
コロナの緊急事態宣言の時に、サロンの売上が3分の1になった時に、SV酒井君に出向行ってもらってた先がPayPayの営業会社
営業マンを囲うと、PayPayから1ブース(1人)数十万の費用が、成果に関わらず支払われる、さらにそれプラスインセンティブがある
営業マンを囲えば囲うだけ利益が生まれる
しかも、それが光通信のマネージャー以上だった会社なら無双しまくり
でもそれを実現出来るのは大資本がある会社じゃないと無理
コールセンターとかも、同じ様な仕組みで1ブース固定いくらみたいな会社がある
それこそ大手育毛剤の〇〇とかはそれ December 12, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。



