1
ガードレール
0post
2025.12.08〜(50週)
:0% :0% ( 30代 / 男性 )
人気のポスト ※表示されているRP数は特定時点のものです
「軽トラ」で爆走するカオスなハイテンション・ドライビングアクションゲーム『ドライブクレイジー』が正式リリース
https://t.co/Lx4Ig3ijhb
ガードレールや電柱をなぎ倒し、ビルの壁を走り、オフィスの中を突っ切ったりしながら崩壊していく倭国を走りぬけ。コンソール版も発売決定 https://t.co/bgzptZCfk4 December 12, 2025
161RP
成人期に入ったばかりの19歳の女性が、健康な乳房を切り刻み、身体にテストステロンを注入し、社会から眉をひそめられることすらなく自らを「トランスマスキュリン・ノンバイナリー」だと宣言する自由があるべきだ、などと軽薄に一蹴して済ませるのは、単に知的に怠慢なだけではない。近視眼的だ。
身体的自律(Bodily autonomy)という言葉は、洗練されたリベラルのスローガンのように聞こえるが、基礎的な生物学、発達心理学、そして他者への波及効果という現実の重みの前では崩れ去ってしまう。
その「他者」には、部外者がコメントし、批評し、そしてこれを「退行的で、伝染病のような一時の流行」というその正体通りに糾弾する権利も、断固として含まれている。
* * *
まず、認知の問題から始めよう。19歳の時点では、衝動の抑制、長期的計画、結果の比較検討を司る脳の中枢である前頭前野は、まだ工事中の段階だ。
米国心理学会のような団体による神経画像研究やNIH(米国立衛生研究所)での長期研究は、脳の機能が完全に成熟するのは18歳や20歳ではなく、25歳前後であることを一貫して示している。
これは安易に考案された恣意的な年齢制限ではない。だからこそ、スコットランド(そして英国や米国の他の管轄区域でも増えているが)のような司法管轄区では、25歳未満の「ヤングアダルト」が犯罪を犯した際、我々が期待するような大人の責任能力が彼らには完全には備わっていないと認め、刑を軽くしているのだ。
また、NHS(英国民保健サービス)自身のガイドラインが、不可逆的な後悔のリスクを理由に、30歳未満の不妊手術(妊孕性の除去)を門前払いしているのも同じ理由だ。
それなのに、イデオロギー的な偏向と不可解なねじれによって、「ジェンダーアイデンティティ」という魔法の言葉さえ唱えれば、義務教育を終えたばかりの十代の若者に乳房切除術を行い、テストステロンを提供することには同意するのだから呆れてしまう。
もし19歳が、心理学的評価や長年のカウンセリングなしに卵管結紮する手術の判断を任せられないのだとしたら、生命を育むために進化的に研ぎ澄まされた器官である乳房を切り取る判断を、一体なぜ信用できるというのか?
その年齢における「本当の自身を知った」という言葉は、確固たる真実というより、TikTokのエコーチェンバー(共鳴室)である可能性が高い。将来、自分の子供を母乳で育てたいと切望する日が来るのか、あるいは単に、思春期の苦悩の霧の中で焼き捨ててしまった女性としての肉体を嘆くことになるのか、彼女が後知恵のような明晰さをもって予測することなど不可能なのだ。
だが、危機に瀕しているのは彼女の未発達な前頭葉だけではない。医療倫理、すなわち治療と身体毀損(mutilation)を隔てるガードレールそのものが危機にあるのだ。
ヒポクラテスの誓いは「まず、害をなすなかれ」と言っている。
しかしここでは、外科医たちが子供たちの健康な組織を切り刻んでいる。英国キャス・レビュー報告書(Cass Review)等のデータによれば、そうした子供たちのいわゆる「ジェンダー違和」は、自然な成熟に任せれば、成人するまでに80〜90%の割合で消失するにもかかわらずだ。
* * *
19歳での両側乳房切除術は「肯定(アファーミング)」ではない。
それは「選択的な切断手術」であり、一時的な多幸感と引き換えに、慢性疼痛、感覚の喪失、ホルモンによる不妊のロシアン・ルーレット、そして早期警戒の歩哨である注意深い乳房を失うことによるがんリスクの急増といった、生涯続く合併症を抱えることだ。
心理的に安定した成人は、自分の一部を消し去ろうと急いだりしない。この行為は、未解決の苦悩、おそらくはトラウマや、啓蒙などではなくオンラインでの承認に対する必死の渇望を叫んでいるのだ。
そして「ノンバイナリー」を自称すること?
それは解放などではなく、言葉を使った手品であり、すべての細胞に刻まれた二元性(バイナリー)を無視した「第3の性」のファンタジーに過ぎない。XX染色体は、代名詞や造語に屈したりはしない。それは究極の性差別的な責任逃れであり、女性という存在をフリルやヒールといったものに矮小化している。
さらに悪いことに、これは真空パックされた単独行動ではない。
「社会的伝染(Social contagion)」は、特に少女や若い女性にとって現実のものだ。若者のジェンダー・クリニックへの紹介件数の爆発的増加――タヴィストックの内部告発者によれば英国では4000%増――は、自然な発生ではない。
それは「クラスター発生」であり、90年代の拒食症の広がりや、Tumblrでの自傷行為の流行を模倣している。
19歳の公然たる「カミングアウト」(誕生日の自撮付き)は、彼女一人で完結するものではない。
それは学校中に跳ね返り、アルゴリズムに餌を与えて多感な14歳にミームを押し付け、思春期の混乱が落ち着く前に不可逆的なステップを踏むことを正常化(ノーマライズ)してしまう。
私たちは抽象的な「影響」について話しているのではない。傷ついた胸と停滞した人生への後悔を口にする、脱トランス者(detransitioners)の世代について話しているのだ。
もしアパートに住む一人のヘビースモーカーが、隣に住む喘息患者のために建物中を煙で充満させる「自律性」を持っているとしたら、社会は介入する。個人の自律性が公益のために制限される例は無数にある。
なぜ十代の若者の「身体改造マニフェスト」だけが、若い少女たちが生きる文化的な空気を毒するためのフリーパスを得られるというのか?
だから断る。私たちは「自制(cope)」もしないし、沈黙もしない。コメントすることは偏見ではない。それは「牙のある慈悲」であり、立ち止まれという緊急の懇願であり、混乱から利益を得ている医薬産業複合体から弱者を守ることなのだ。
19歳の若者は、「待て、成熟しろ。君は女性であり、あるがままで完全でかけがえのない存在だ」と言うには、あまりに臆病な大人たちによって、崖から落ちるのを喝采される以上の扱いを受けるに値する。本当の問題とは、そうではないふりをすることだ。 (訳) December 12, 2025
100RP
そろそろ覚えてほしいのだが、AIの権利問題はすべてが無断学習という単純なものではないんよね。忙しい人は🔢だけ読んでな!
ワシの意見として言うけど、この話はガチで混ざりやすいんよね。だから先に、論点をちゃんと分けて整理しとくな。
1️⃣大規模事前学習は原則合法
倭国だと、情報解析みたいな非享受目的での利用を広めに認める考え方があって、ここに大規模事前学習が乗りやすいんよ。もちろん何でも無制限にOKって話ではなくて、ケースで判断が揺れる余地はある。けど「学習=即違法」みたいな単純化はマジで雑なんよ。
2️⃣大規模事前学習が間違って出力する著作物は、ガードレールで対応(これを悪意として批判するのはハンロンの剃刀)
学習がどうであれ、出力が既存の表現に寄りすぎたらトラブルになる。だから現場は、フィルタ、類似チェック、禁止プロンプト、通報と削除、出力の抑制みたいなガードレールを積むんや。ここを最初から「わざとやってる」って決めつけるのは、ハンロンの剃刀的にも危ないし、議論が混乱するやろ。運用で潰せる問題は運用で潰す…が基本やね。
3️⃣再現目的の学習は学習時に許諾が必要(主に声優AIなどの出力が単一になるもの)
特定の人物の声、特定のキャラ、特定の作家の作風をピンポイントで再現する目的の学習は、そもそも「その表現を出す」ための学習になりやすい。ここは許諾が必要になりやすい領域なんよ。声優AIとかは分かりやすくて、出力が単一の対象に寄るから、線引きもはっきりしやすい。
4️⃣再現学習のベースには無許諾の基盤モデルが使われる(完全クリーンとのずれが出てる)
現実の開発は、既存の基盤モデルに追加学習して作ることが多いんよ。だから「追加学習データは許諾済み」でも「基盤モデルの由来はどうなん?」って論点が残る。ここが「完全クリーン」って言い方と噛み合わなくて揉める原因になりがちやね。
ただ逆に言えば基盤モデル+追加学習は、追加学習の許諾を取れば、権利侵害は極めて起きにくくなる点は理解してほしいんよ。これを攻撃するのはマジで権利者にもマイナスにしかならん。
5️⃣出力時の悪用・トラブル、学習時の海賊版を意図的に利用する行為はすでに裁判で負けている
ここはワシも強めに言うけど、悪用はアウトやし、海賊版を意図的に使うのはやべぇんよ。学習の合法性の議論と、データの入手経路や、出力の悪用は別の論点として扱うべきやね。混ぜると、正しく線が引けなくなる。
6️⃣結果的に権利者とAI企業の提携が増えている
揉めながらも、結局は契約で前に進める動きが増えてるんよ。権利者側は対価とコントロールを得たいし、AI企業側は合法性と継続性を確保したい。だから提携が増えるのは自然な流れなんよね。
⭕️AIの学習はそのまま出力しない学習なら未来においても無許諾で合法
ワシはここ、かなり重要だと思ってる。学習が「鑑賞の代替」ではなく「解析・開発」寄りで、かつそのまま出力しない運用を徹底するなら、無許諾でも合法として整理されやすい。もちろん将来の制度や運用で細部は変わりうるけど、方向性としてはそうなりやすいんよ。
※原理的に学習を再現する能力があると最新の論文が公開しているが、それがサービスとして学習をだすかどうかとは関係ない。
ここも混ざりやすいポイントやね。研究として「引き出し方によっては学習データがそのまま出る」みたいな話があっても、それをそのままサービスが出す設計にするかは別問題なんよ。実際のサービスは、ガードレールと運用で「出さない」方向に寄せられる。
原理と実装と運用は、分けて見るのが大事やとワシは思うよ! December 12, 2025
41RP
AI安全性は「SFの暴走劇」ではなく、ターボジェットの信頼性のように、目的設定・設計・検証を積み上げていく工学の問題になると彼は言う。超知能の出現は、機械のスイッチが入った瞬間に到来する事件ではなく、段階的に一般性が増していく「連続的な進歩」にすぎないからだ。
ヤン・ルカン「私たちはそれら(AI)に明確な目的を与え、できることがその目的を達成することだけになるような形で構築します。もちろん、これで完璧になるという意味ではありませんが、将来のAI安全性という問題について、私はターボジェットの信頼性を心配するのと同じように心配しています。つまり、ターボジェットって本当にすごいんです。
あなたはどうか分かりませんが、私の父は航空エンジニアで、それでも私は、二発エンジンの飛行機で地球の半分を完全に安全に飛べるという事実に心底驚かされます。すごいですよね。私たちはそれを当たり前のように安全だと感じています。これは現代世界の科学と工学が生み出した、魔法のような成果です。
AI安全性も、この種の問題です。つまり工学の問題なのです。私が思うに、恐怖の多くはSF的なシナリオ、『どこかで誰かが超知能の秘密を発明して機械のスイッチを入れたら、次の瞬間に世界を乗っ取る』みたいな想像から来ています。
そんなのは完全にデタラメです。世界はそんなふうには動きません。少なくとも技術や科学の世界は、そんなふうには動きません。
超知能の出現は、『ある一つの出来事』にはならないはずです。実際、私たちはすでに超知能的なタスクをこなせる超知能的なシステムを持っていて、進歩は一度に一つずつ連続的に起きています。今後、現在よりも汎用的な知能を持つかもしれないAIシステムを作るための、より良いレシピを見つけることになるでしょう。そして間違いなく、人間より賢いシステムも生まれます。
しかし私たちは、それらがガードレールの制約のもとで、私たちが与えた目標を満たすように構築するのです」 December 12, 2025
12RP
ディズニーがOpenAIと手を組ぶ一方で、Googleには強い態度を取っているように見える。ここを感情の話にすると一気に混乱するけど、仕組みの話として整理するとガチで分かりやすくなるんよ。ワシは、キャラクターをどう扱う設計にしているかが、判断を分けた大きな理由だと思ってる。
忙しい人は⭐だけでも読んでな!
⭐️最初にAIが画像を作る仕組みを知ると話が一気に整理できる
AIが画像や動画を作るとき、ざっくり言うと二段構えになってる。まず基盤モデルという土台があって、これは大量のデータで学習して身につけた一般的な生成能力ね。次に、その場で追加される条件があって、プロンプトや参照画像や許諾された素材セットや各種ルールがここに入る。
この二段構えを知らないと、あとで出てくる外せる外せないの話がマジで噛み合わない。どこに情報が入っているかで、止め方が変わるからなんよ。
⭐️外付け参照は許諾のスイッチで止めやすい設計になる
外付け参照ってのは、基盤モデルの外側に参照データや許諾素材を置いておいて、必要なときだけ参照させる考え方ね。許諾を取り下げたら参照を無効化する、参照データを削除する、対象の機能を止める。こういう運用のレバーが作りやすい。
ディズニーみたいにブランド事故が致命傷になる会社は、止めたいときに確実に止められることがスゲえ重要なんよ。ここが外付け参照の強さになる。
⭐️学習に混ざる形は後から切り離すのが重くなる
学習に混ざるってのは、訓練の段階で大量の画像やテキストを食わせて、その影響がモデルの中に分散して入る可能性がある状態ね。もし特定IPの画像が学習に含まれていた場合、モデルの中のどこにどう影響しているかを外から特定しにくい。
だから、あとから特定のIPだけを抜きたいと思っても、ファイルを消して終わりみたいにはならない。これが外付け参照と決定的に違うところで、やべぇくらい現実に効いてくる。
⭐️マルチモーダルが強いほど見た目の特徴を拾いやすくなる
マルチモーダルは、文章だけじゃなく画像や動画もまとめて扱えるタイプのAIのことね。これが強いと、画像の特徴を拾う能力も上がるし、生成でもそれっぽい形を作れる範囲が広がる。
ここで大事なのは、能力が上がること自体が悪いって話じゃないってこと。問題は、その強さが学習に依存している場合、後から特定の要素だけを切り離す作業が重くなりやすい点なんよ。
⭐️Googleがディズニーキャラを学習しているかは外から確定できない
ここは線引きが必要。Googleがディズニーキャラを学習しているかどうかは、外部の人間には確定できない。だからワシはここを事実として断定しない。
ただし、仮に学習に含まれていた場合に何が起きるかは、構造として説明できる。学習で能力として入ったものは、外付け参照みたいにスイッチ一発で消える設計になりにくい。ワシが言いたいのはこの構造の差なんよ。
⭐️ガードレールは現実解だが漏れを完全にゼロにする保証は難しい
ガードレールは、生成の出口で止める仕組みね。特定キャラ名を弾く、似た出力を検知して止める、危ないプロンプトをブロックする、ログ監査する。こういう対策はマジで大事で、実務では多層でやるのが普通。
でもガードレールを積んでも、漏れを完全にゼロだと保証するのは難しい。汎用モデルは回り道の表現が多いし、ユーザーが意図せず似せてしまうケースもある。企業が怖がるのは、この最後の残り方なんよ。
⭐️除外学習は研究されているが大規模モデルで確実に効かせるのが難しい
特定の情報をモデルから忘れさせる、いわゆる除外学習や忘却の研究はある。だから概念として存在しないわけじゃない。
ただ、巨大モデルで、特定IPだけを狙って忘れさせて、他の性能を落とさず、抜け道もなく、監査できる形で確実に機能させるのは技術的に難易度が高い。現場目線だと、ここを単発の手段として頼り切るのは厳しくて、外付け参照や許諾セット運用やガードレールを組み合わせる方向が強くなる。
⭐️ディズニーがOpenAIに寄る理由は止めやすさと責任分界を作りやすいから
ここまでの話をまとめると、ディズニーが選びやすいのは、許諾したキャラや素材を許諾した範囲で使わせる座組なんよ。外付け参照や許諾セット運用に寄せられると、問題が起きたときに止めるレバーがあるし、誰が何に責任を持つかの境界も作りやすい。
逆に、もし学習に混ざっている疑いがある形だと、止めたいのに止まらないリスクが残るし、ガードレールを入れても不安がゼロにならない。この差が、OpenAIとは組めるが、Googleには強く出る、という動きの説明として一番スッキリしてるとワシは思ってる。ガチでここが本質なんよ。 December 12, 2025
11RP
今週末は備北でドリフトの大会に出ます!
井口選手とダブルエントリーですが、先輩乗る前に壊さないようにしなくては、、、
砂利の山の上に駐車しようと思ってたのにガードレールになってるとは😭😭😭 https://t.co/hpbTthXPiV December 12, 2025
10RP
タイヤがアスファルトを噛む乾いた音だけが響いていた
社会人3年目
誰もが羨む大手企業に入社したはずだった
けれど現実は無機質な数字と人間関係の摩耗の日々
同期が楽しそうに飲み歩く中、私は誰とも馴染めず心をすり減らした
とどめを刺したのは、学生時代から付き合っていた恋人の裏切りだった
「ごめん、他に好きな人ができた」
その言葉一つで私の世界を繋ぎ止めていた最後の糸がぷつりと切れた
仕事も、人間関係も、もうどうでもいい…
幸い友人付き合いもなく
趣味もなかった私の通帳にはソコソコ貯金が残っていた
私は辞表を出しその足でロードバイクとキャンプ道具一式を買い揃え、アパートを引き払った
倭国一周
それはただの「逃避」だった。
旅を始めて一ヶ月
雨に打たれ、峠を越え、いくつもの絶景を見た
倭国海に沈む夕日も
アルプスの山々も美しかった
けれど、私の心はどこか麻痺したままだった
ペダルを漕ぐ肉体的な疲労だけが、余計な思考を消してくれる
それだけが救いだった
ある日、私は名も知らぬ山間の集落を目指していた
スマホの地図アプリだけを頼りにペダルを回していたが、不運は重なるものだ
峠の頂上付近で、後輪がパンクした
「まじか…」
パンク修理など旅に出る前に動画で見ただけだ
慣れない手つきでタイヤを外そうとするが、レバーがうまく噛み合わない
焦れば焦るほど時間は過ぎ
修理が終わった頃には、手元すら見えないほどの夜になっていた
街灯など一本もない
スマホの電波も圏外
そして、ガードレールの支柱に括り付けられた『熊出没注意』の看板が…
背筋が凍った
テントを張るなんて自殺行為だ
進むしかない
私は頼りない自転車のライトだけを点け、暗闇へと漕ぎ出した
右も左もわからない
ただ、後ろから何かが追いかけてくるような恐怖に追われ、無我夢中でペダルを踏んだ
孤独と恐怖で足の感覚がなくなりかけた時、暗闇の中にポツンと光が浮かんでいるのが見えた
…民家だ
助かった!と思うのと同時に、躊躇いが生まれた
こんな夜更けに、見ず知らずの男が訪ねて怪しまれないだろうか
だが、背後の闇が私を押し出した
「すみません……! どなたかいらっしゃいませんか!」
古びた木造の平屋
引き戸を叩くと、しばらくして土間の奥から「はいはい」としわがれた声が聞こえた
現れたのは小柄な老婆だった
私は必死で事情を話した
旅をしていること、自転車が壊れたこと野宿が怖いこと
老婆は私の泥だらけの服と、引きつった顔をじっと見つめふにゃりと笑った
「んだか 熊が出るからねぇ ここは 怖かったべ あがんなさい」
拍子抜けするほどあっさりと彼女は私を招き入れてくれた
家の中は線香と古畳の懐かしい匂いがした
「ばあちゃん一人だから、なんのお構いもできねぇけど」
そう言って出されたのは、熱いお茶と、自家製の漬物だった
冷え切った体に熱が染み渡る
「どこから来たの」
「東京です」
「東京! そりゃあ遠いとこから。若いのにえらいねぇ」
えらい、なんて言葉、久しぶりに聞いた気がした
老婆の屈託のない笑顔を見ているうちに、張り詰めていた糸が緩んでいく
最初は旅のルートや自転車の話をしていた。けれど、老婆の「なんでまた、一人でこんな辛いことを?」という純粋な問いかけに、私は言葉を詰まらせた
「……逃げてきたんです」
ポツリと、本音が漏れた
仕事がうまくいかなかったこと
誰とも馴染めなかったこと
信じていた人に裏切られたこと
「全部が嫌になって、全部捨ててきたんです。倭国一周なんて格好つけてますけど、ただの現実逃避なんです。僕には、帰る場所も、待っている人もいない」
初対面の、名前も知らないお婆さんに、私は堰を切ったようにすべてを吐き出していた
みっともない…情けない…
けれど、老婆はただ「うん、うん」と、私の背中をさするように相槌を打ってくれた
否定もせず安っぽい励ましも言わなかった
「辛かったねぇ。よく、ここまで走ってきたねぇ」
そのしわだらけの手の温かさに触れた瞬間、堪えていたものが決壊した
私は人目もはばからず、子供のように泣いた
大手企業の名刺も、貯金の残高も関係ない
ただの弱い人間として、誰かに受け入れられたかったのだと、その時初めて気づいた
その夜は、客間の布団で泥のように眠った
夢は見なかった
翌朝
トントン、という包丁がまな板を叩く小気味良い音と、出汁の香りで目が覚めた
障子を開けると、まぶしいほどの朝日が縁側に差し込んでいた
「おはよう。よく眠れたかい?」
割烹着姿の老婆がお盆を持って立っていた
炊きたてのご飯で握ったおにぎり
野菜たっぷりの味噌汁
そして昨日の漬物
どこにでもある
けれど今の私には宝石のように見える朝食だった
🧓「朝ごはん作ったから食べていってね」 December 12, 2025
10RP
⭐️AIを使わない自由とAIを使わせない強要は全然違うし、AIの課題を理由に排除へ走るのは筋が通っとらん
👇時間ある人だけ読んでね!
ワシはAIを使わん選択自体は全力でリスペクトしとる。手描きの世界観を守りたいとか、工程そのものが表現であり魂なんだという価値観は本当に素敵や。創作とは、自分の美学と生き方を作品に通す行為やからな。
でもな、問題はそこから一歩踏み越えた時なんよ。自分がAIを使わないのは自由。でもそこから他人にAIを使わせない方向に変質した瞬間、それは思想じゃなくて強制に変わる。他者の表現を奪い始めた時点で、それは自由の侵害なんよ。
しかも厄介なのは、本人がその線を越えとることに気付いてない場合が多いことなんよ。美学の主張のつもりが、いつの間にか排除のための圧力になっとる。こういう空気が広がると、創作は一気に窮屈になるんよ。道具の自由が奪われた場所で、多様な表現は育たん。
もちろんAIには課題が残っとる。それもワシはちゃんと認めとる。AIが悪意なく学習元を間違って出してしまう事故はまだ完全にはゼロじゃない。だからこそ企業がガードレールを強化することも重要やし、悪用するユーザーを批判するのも当然や。そこはワシも完全に同意見や。
ただな、ここで飛躍が起きるのが一番危険なんよ。課題が残っているからAIは全面禁止すべきとか、未熟な部分があるからAIユーザーは悪だとか、それは理屈として破綻しとる。ナイフが危険だから料理人を犯罪者扱いするのかという話や。表現の道具を正しく管理して改善していくことと、道具そのものを悪と決めつけることは全く別なんよ。
AIの課題は改善すればいい。悪用は取り締まればいい。そのうえで、AIを使う自由とAIを使わない自由の両方が守られる世界こそ理想や。手描きの魂が輝く作品も、AIの速度と拡張性を生かした作品も、どっちも創作やし、どっちも胸を張ってええ。
ワシが戦っとるのはAI派と反AI派という構造じゃない。創作の自由か、排除と萎縮かの分岐点なんよ。
クリエイター同士が勝手に敵と味方に分けられて対立させられる世界じゃなく、自由に選んで自由に作れて、結果で語れる世界になって欲しいと、ワシは本気で願ってるよ! December 12, 2025
9RP
⭐️AIの大規模事前学習は無許可で学習して良い。その上でマルチモーダルは企業のガードレールとユーザーのモラルの両方で扱うべき。これ理解してる?
👇学習したい人は読んで!
ワシが言いたいのは、大規模事前学習は「大量データを読んで特徴の分布を抽出する」仕組みで、学習データをそのまま吐き出す構造じゃないから無許可で学習して良いって事。
これは法律とか空気感とかじゃなく、現代のAIインフラを成立させとる根本の設計。ここが止まったら検索も翻訳も医療AIも自動運転も全部巻き添えで止まる。
再現学習は別の話。特定の声や絵柄やキャラを識別可能な精度で再現すること自体を目的にしとるから、許諾が必要になる。どの技術を使ってるかじゃなく、再現をゴールにしとる設計がアウト側になる。
さらに今の主流はマルチモーダル。画像認識と画像生成が同じモデルに統合されとるタイプや。認識できるってことは著作物の形を理解できるってことでもあるから、そこから誤って似すぎるものを出す可能性がある。この部分は技術の欠陥とか悪意じゃなく、構造上起こり得る事象やから対応が必要になる。
ここで大事なのは「企業側のガードレール」と「ユーザー側のモラル」の二本立て。企業は記憶抑制・出力制御・自動検出みたいな安全層を進化させ続ける。ユーザーは、明らかに既存作品に似すぎたものは公開や商用利用に使わない判断をする。どっちか片方じゃなく両方で成熟させていくのが一番現実的に事故を減らせるやり方なんよ。
AIは創作を壊す技術じゃなく、扱い方しだいで創作を何倍にも加速できる技術。大規模事前学習は無許可で学習できる前提で成り立ってる。マルチモーダルはガードレールとモラルで安全に使っていく。
ワシはこのルールでちゃんと共存できる未来が普通に来ると思っとるよ。 December 12, 2025
8RP
⭐️自分でAIを使わない道を選んだのに他人にAIを使うのはずるいっていうのはおかしくない?
ワシが引っかかってるのはここなんよ。自分で「AIを使わない」と決めるのはめちゃくちゃ自由やし、むしろ誇りを持って選んだスタイルならそれでいい。でもその選択はあくまで自分のものなんよ。他人にまで「お前も使うな」「使ってるやつはズルい」って言い出した瞬間、創作じゃなくて同調圧力になる。
創作の世界って昔からずっとこうやって技術進化のたびに揺れてきた。デジタルが出たときも「手描きじゃないからズルい」って言われたし、3DCGが来たときも「アニメじゃない」って叩かれた。でもどの時代も結果として表現の幅が広がって、アナログもデジタルも共存していった。AIも結局その延長線上にあるだけなんよ。
もちろん、AIには著作権の課題がまだ残ってる。ここを無視しろとはワシも言わん。ガードレールの整備も必要やし、企業のミスは改善すべきやし、著作物を意図的に盗用するような悪用には全力で反対でいい。そこはワシもクリエイターとして完全に同じ立場や。
ただ、問題はその先なんよ。
AIの課題を指摘するのは健全なのに、いつの間にか「すべてのAIは盗用」「AIを使うと言った時点で犯罪者」「AIを使う人はクリエイターじゃない」みたいな極端な方向に会話を持っていこうとする勢力が出てくる。ここで事実とデマが混ざって、創作文化そのものが破壊され始める。
AIには著作権の問題はまだ課題として残ってるけど、すでに問題ない使い方も出来る。それを、すべてのAIが著作権違反だというデマを流してまで足を引っ張るのは流石におかしい。悪用にだけ反対するならワシも支持する。でも問題ない使い方まで問題があるかのようにデマを流して足を引っ張るのは流石に辞めて欲しいとワシは思うよ December 12, 2025
6RP
#山口県 の深い山の中。そこは地元住民でさえ通ることのない荒廃した山道だった!行く手を阻む走行困難な山道の先、捜索隊をまさかの事態が襲う…!?日曜よる7時54分からの #ポツンと一軒家🏡
#所ジョージ #林修 #浅利陽介 #ハシヤスメアツコ
👇ガードレールがオレンジ
https://t.co/vdZwnB9jZj December 12, 2025
5RP
→DeepSeekは導入前の安全性テストを一切実施していない。v3.2新モデルのシステムカードには、そのような評価に関する記述はどこにもなく、DeepSeek社が評価を実施し、その情報を一切公開しないことを選択した可能性はあるが、私たちにはそれを知る術がない。もし DeepSeek が実際に安全性テストを省略していたとしたら、それは極めて無責任な決定だろう。OpenAI、Google DeepMind、Anthropicはいずれも、彼らのモデルが、特に初心者による生物兵器の開発を助ける可能性があることから、真に危険な状態になりつつあると警告している。彼らのモデルはクローズドウェイトなので、リクエストの拒否やユーザーの監視と禁止など、悪用を困難にするガードレールを使用して、ある程度のリスクを管理することができるが、DeepSeekのようなオープンウェイトモデルでは、このようなガードレールを簡単に取り除くことができる。現在の技術では、オープンウェイトモデルの誤用を防ぐことはほぼ不可能だ。バージョン3.2が実際に危険である可能性は低いと思われるが、だからといって安全性試験を省略する理由にはならない。近い将来、おそらく近い将来、モデルは危険な性能閾値を超えるだろう。オープンウェイトモデルを配備する前に、いつそれが起こったかを特定することが重要だ。なぜなら、一度配備されてしまうと、取り返しがつかないためだ。DeepSeekが安全性試験を実施したかどう かの透明性の欠如は、中国が本当に一部の人が言うほどAIの安全性を真剣に受け止め ているのかどうかという疑問を投げかける。
残念ながら、それは逆に、米国企業が競争に明け暮れ、安全性を軽視する論拠を 強めてしまう。世界に危険なモデルが存在するのであれば、なぜ新たなモデルを リリースしないのだろうか?
これは、半導体輸出規制の必要性を強めるものでもある。中国が責任ある行動を とると信頼できないのであれば、米国は中国のAI開発を完全に阻止するために可 能な限りの努力をすべきだ。
https://t.co/7rlwPvYXwh December 12, 2025
5RP
能登半島を東から西に移動して輪島へ。途中の道のガードレールがひしゃげているのや山肌がぱっくりむき出しになっている様子に地震の破壊力の大きさを感じながら進む… December 12, 2025
4RP
いやーこのTikTokの動画で、ディズニーがAIを活用するって話してて、そのコメント欄がもう「文化祭の出し物会議」みたいになってるのが最高だよね。「ハンスぶっ飛ばす動画つくろ🤣」「アベンジャーズvsデッドプール😎」「コンプラガチャやろうな😂」ってさ。要するにみんな、観客じゃなくて作り手側に回りたいわけだ。
で、これってガチでディズニー公式が制度にしようとしてる話でね、今回のディズニー×OpenAIはものすごい文化革新になる可能性がある。
ディズニーがOpenAIに10億ドル規模で出資して、Soraみたいな生成AIでディズニー、マーベル、ピクサー、スター・ウォーズのキャラを、一定の条件のもとで使えるようにする。
しかも俳優の顔や声は使わない、悪用を防ぐ仕組みも入れるって 線引きをセットで出してきた。
さらに2026年からディズニープラス側でもユーザー制作の短尺動画を扱う方向、社内でもChatGPTを展開って、完全に「AIは敵か味方か」じゃなく「AIを管理された道具にする」へ舵切ってる🎯イーロンマスクもこれにはびっくりじゃない?🥳
ここで星野ロミさんが言ってる「AIを嫌って国益を損なう未来」って主張も大事なわけだよ。
星野ロミさんは、「反AIの声がデカい界隈ほど、手で描けの空気圧が強くて、バレたら謝罪に追い込まれる。結果、グッズ作るにも非効率でコストが増える。中国、韓国などの海外がAIで量産、高速化したら、スピードも利益も勝てない」ってことをわかりやすく教えてくれてる✨
これ、言い方は荒いけど、現場の萎縮って点はわりと本質突いてるのよね💡
ただね、反AIや不買運動がぜんぶ間違いかっていうと、そうでもない。最近の「サクラクレパスの販促ポスターが生成AIだった件」みたいに、表示、確認、合意の設計が甘いと、企業は炎上して信用を落とす。
で、結局クリエイターも巻き添えで疑心暗鬼になる。だから不買や批判は、本来、ルール作れ、表示しろ、権利処理しろって圧力としては意味があるんじゃないかしら?
問題はここから先でね、倭国が一番やっちゃダメなのは、包丁の議論で包丁そのものを燃やすやつ。包丁でケガする奴がいるからって、料理人に手でちぎれって言うのは狂気だろ?
AIも同じで、悪用や無断学習っぽい運用があるなら、燃やすんじゃなくて「刃こぼれしないように管理する」「子どもに持たせるならカバー付ける」「店は注意書きと講習する」って方向に行かなきゃいけない。
ディズニーの動きって、まさにそこを狙ってるんだよ。
誰でも監督になれる世界を作る代わりに、キャラはライセンス、俳優の顔と声は別扱い、ガードレールを付けて遊べる範囲を決める。
これができると、コメント欄の妄想大会が違法コピーじゃなく公園の遊具になる。公園で遊ぶ分にはみんな幸せってやつだよ。
で、倭国が勝ちたいなら結論はシンプル。
反AIの熱量を禁止じゃなく、制度に変換しろってこと。
つまり、AIを使うならAI使用表示を徹底して、権利元に金が落ちる仕組み。ライセンスや包括契約を整える。
学習データや素材の扱いも白に寄せる。クリエイター側にはAIを使う自由と同じくらい使わない自由と無断利用されない権利を用意する。
これができないまま魔女狩りだけが続くと、現場はビビってコストだけ増えて、海外は普通に量産して市場を取る。
すると最後は「倭国は絵が上手いね」で終わって、産業としては負ける。
AI不買ってのは、文明が進むほど手作りが尊いって気持ちの表れでもあるんだよ。
それは分かる🎯
だけどその尊さを守る方法が、道具の破壊になった瞬間に、守りたいはずの文化が先に息切れする。
だから倭国は、怒りを上手く使って、ルールを作って、堂々と作って、堂々と儲ける😆💰✨って感じでもいいんじゃないかしら? December 12, 2025
4RP
石破氏が左に見えてるくらいだからその道路は既に車線も道路も機能してないんだよ。自民党支持者の多くは車線越えてガードレールの外を走ってる。道の話をするならせめて道路を走ってほしいね。 https://t.co/C1bzNrTMVU December 12, 2025
3RP
AI安全性コミュニティの閉鎖性についてまとめた記事。もともとAIアライメントは、MIRIやBostrom、Russell らによって大学・思想界隈で議論されてきたが、長く「非主流派扱い」だった。いまは最先端モデルにアクセスできるのは主に企業であり、100,000枚以上のGPUや数億ドル規模の計算資源が必要で、大学はそもそもそのスケールに対応できない。その結果、「大学(遅い・貧しい)」でも「営利企業(商業圧と情報統制)」でもない、EA(効果的利他主義)系・NPO中心の独自エコシステムがAI安全の主舞台になった。DeepMind・OpenAI などの企業は昔は基礎研究に寛容だったが、商業化が進むにつれ、論文やブログの公開に対する社内レビューが巨大な「検閲装置」になっている。企業はリスクを否定するのではなく、むしろ「壊滅的リスク」「甚大な被害の恐れ」を強調しつつ、「だからこそ我々が急いで善いバージョンを作らないといけない」と語っている。公的研究費でアライメントに大金を出す機関はほとんどなく、Open Philanthropy(現 Coefficient Giving)などEA系ドナーがこの分野をほぼ席巻している。MATS・ARENA・METRなど多くの組織が同じ資金ネットワーク上にある。研究者・資金提供者・元ラボ研究者が、サンフランシスコ/バークレー/ロンドンなど ごく少数の都市に物理的にも対人関係的にもギュッと固まっている。友人・同僚・恋人までほぼ同じコミュニティで完結しがち。これにより、利益相反の懸念・グループシンク・同質的なアイデアが優勢になりやすい土壌が生まれている。メカニスティックな解釈可能性のブームは、一部のラボやグラントメイカーの嗜好から来ており、「主流NLPコミュニティとの接続が弱く、既存手法の再発明をしている」という批判もある。「スキーミング(AIの策略行動)」研究についても、同じ小さな著者コミュニティが互いの前提を共有したまま証拠を過大解釈しているリスクが指摘されている。通常の学会・ジャーナルの査読は遅く、さらに質も低下しており、ML全体として arXiv や Twitter での流通が主になっているが、AI安全界隈はさらに一歩進んで、LessWrong や AI Alignment Forum など自前のフォーラムに集まり、クローズドな信頼ネットワークの中で議論を回す傾向が強い。
Alignment Forum への参加には「既存メンバーからの大きな信頼」が必須で、外部のML研究者から見たときに「閉じた宗派」っぽく見える要因にもなっている。実際、非アカデミックな安全研究者たちは「話したい相手はすでに自分の周りにいる」「ML論文の書き方を知らない」「忙しすぎて普通の論文は書けない」といった理由で、主流ML会合に出てこないことが多い。結論としてはAI安全性界隈は専門性とスピードの代償として、信頼と外部チェックを失っている。いま、非常に小さく同質的なコミュニティが、変革的AIへの社会的備えのかなりの部分を決めてしまっている。その結果、研究アイデアが十分な批判にさらされない。いくつかのクラスターにばかりリソースが集中する。
外部の研究者や一般社会からの信頼が得られないといった問題が起きている。一方で、従来科学の「遅さ」を生む仕組み(査読・資格・長い訓練)は、同時に社会からの正当性と信頼を支えるガードレールでもあった。AI安全コミュニティは、自分たちのスピードと効率性を維持しつつも、より広い世界と連携し、透明性と外部の検証を取り戻さないと、内向きさそのものが重大なリスク要因になるという著者のメッセージ。
https://t.co/mOMu2Pekle December 12, 2025
3RP
間接プロンプト・インジェクションは不可避? ChatGPT Atlas などのエージェントがもたらすリスクとは?
https://t.co/t1kU6e97IM
Atlas の個別の脆弱性よりも、自律性を持つエージェントに対して、どこまで権限とツールを渡すべきかという論点を深掘りする記事です。メールや Web ページなどの信頼できないコンテンツを読ませる設計と、エージェントに広いツール権限と機密データへのアクセスを与えることで、間接的なプロンプト・インジェクションが現実的な攻撃経路になっています。特に、小さな組織ほど、ガードレールの設計や権限の見直しが追いつかず、便利さを優先した結果としてリスクが積み上がっていく構図が描かれています。
#AIAgent #AIML #ChatGPTAtlas #PromptInjection December 12, 2025
2RP
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。



