1
ガードレール
0post
2025.12.08 08:00
:0% :0% (-/男性)
人気のポスト ※表示されているRP数は特定時点のものです
→DeepSeekは導入前の安全性テストを一切実施していない。v3.2新モデルのシステムカードには、そのような評価に関する記述はどこにもなく、DeepSeek社が評価を実施し、その情報を一切公開しないことを選択した可能性はあるが、私たちにはそれを知る術がない。もし DeepSeek が実際に安全性テストを省略していたとしたら、それは極めて無責任な決定だろう。OpenAI、Google DeepMind、Anthropicはいずれも、彼らのモデルが、特に初心者による生物兵器の開発を助ける可能性があることから、真に危険な状態になりつつあると警告している。彼らのモデルはクローズドウェイトなので、リクエストの拒否やユーザーの監視と禁止など、悪用を困難にするガードレールを使用して、ある程度のリスクを管理することができるが、DeepSeekのようなオープンウェイトモデルでは、このようなガードレールを簡単に取り除くことができる。現在の技術では、オープンウェイトモデルの誤用を防ぐことはほぼ不可能だ。バージョン3.2が実際に危険である可能性は低いと思われるが、だからといって安全性試験を省略する理由にはならない。近い将来、おそらく近い将来、モデルは危険な性能閾値を超えるだろう。オープンウェイトモデルを配備する前に、いつそれが起こったかを特定することが重要だ。なぜなら、一度配備されてしまうと、取り返しがつかないためだ。DeepSeekが安全性試験を実施したかどう かの透明性の欠如は、中国が本当に一部の人が言うほどAIの安全性を真剣に受け止め ているのかどうかという疑問を投げかける。
残念ながら、それは逆に、米国企業が競争に明け暮れ、安全性を軽視する論拠を 強めてしまう。世界に危険なモデルが存在するのであれば、なぜ新たなモデルを リリースしないのだろうか?
これは、半導体輸出規制の必要性を強めるものでもある。中国が責任ある行動を とると信頼できないのであれば、米国は中国のAI開発を完全に阻止するために可 能な限りの努力をすべきだ。
https://t.co/7rlwPvYXwh December 12, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。



