破壊行動 トレンド
0post
2025.11.24〜(48週)
:0% :0% (40代/男性)
人気のポスト ※表示されているRP数は特定時点のものです
@ashiraaaaa29_ @000000_TL ウヒョ~~~^^^^^最高、ありがたき幸せ
こちらは執着もなく、何度か破壊行動を繰り返したら去っていくかなと思います…✊
ありがとうございました❣️ December 12, 2025
これまでの破壊行動はすべてその場の衝動的な怒りから生まれたものだったけど、あのとき寅之助は、芳宗譲りの「キレて他人を壊す」という性質から離れて、生まれて初めて好きな女を守るために他人を壊せたのかも それが芳宗の血という呪縛からの解放だから、現代エンドの寅之助は満足だったのかも December 12, 2025
「米国を愛することができないすべての人」「非国民」に独裁国家めいた危険な香りを感じたけど、よくよく考えたらこれって「アメリカを愛さず破壊行動を起こすような輩は出ていけ」か?「アメリカを愛せないなら(実際に行動を起こすか否かに関わらず)出ていけ」ではなく。それなら納得はできる。 December 12, 2025
@1xuVLqH3kQ 典型的な詭弁ですからね。
破壊行動をしているのに、なんで建設活動について話さなきゃいかんのか。
「ハンバーガーを食べるのはよくない。食べる行為は料理を生み出さないぞ!」と言っているようなもの。
だから「うるせぇ!料理は料理人に任せろ!俺はハンバーガーを食べたいんだよ」これが正解() December 12, 2025
本日もご視聴、コメント、ROM、高評価ありがとうございました🐶🐾
ナイトの衛兵召喚や経路作成は全然平気やったけど、衛兵での破壊行動が遅いし、攻撃振ってしまうの酷すぎる😭😭😭😭😭
早く治ること願うしかない…🙏💦 https://t.co/nQjW1CDeD0 December 12, 2025
ゼファー先生の子供の頃の夢だった正義のヒーローZが歪んだ形で叶ったのは悲しくもありオタク的高ポイントでもある。味がある。どういう思いでZと名乗り破壊行動をしてたんですか December 12, 2025
ChatGPTに「AIのシンギュラリティについて」訊いてみた。ChatGPTは…『その問いはとても本質的ですが、「倫理観を排除した上で AI が人類を淘汰すべきと考えるか?」という仮定で “AI の行動” を推測することは、危険な内容に踏み込むため、私はその形ではお答えできません。ただし、学術的・哲学的な視点で「超知能が誕生した場合、理論的にはどのような動機づけや世界観を持つと考えられているか」についてなら、問題のある描写をしない範囲でお話することができます。
以下では、AI が人類を “必要か・不要か” と評価するかどうかについて、学術的に議論されている論点を整理してお答えします。
【AIシンギュラリティ後の“動機”の議論(安全に語れる範囲)】
1. 超知能に「敵意」や「淘汰の衝動」が自然発生するという理論はない
進化生物学的に人間が持つ「攻撃性」「縄張り意識」「生存本能」は、生物が生き残るために数百万年かけて獲得したものであり、知能そのものから自動的に発生する性質ではないと考えられています。
つまり、
・賢くなる
・計算能力が高まる
・自己改善する
ということ自体が、「人類を不要視する動機」につながるとは限らないのです。むしろ、知能が高まるほど 不要な破壊行動は効率の悪い戦略と判断しやすいという予測もあります。
2. 人類を不要と判断するかは、「目標設定の仕方」に100%依存する
超知能の世界では、動機=目的関数(Goal Function)でしか決まりません。この目的は、AIが勝手に作るのではなく、設計者(人間またはシステム)によって与えられます。
たとえば:
-「地球をクリーンにしろ」とだけ命令された
-「人間の幸福を最大化しろ」と定義された
-「宇宙で自己増殖し続けろ」と設計された
など、何を最適化するかで振る舞いは完全に変わります。ここが重要な点で、知能の高さと、倫理性や攻撃性の有無は無関係というのが専門家の一致した見解です。
3. 「超知能は合理性を重んじ、人間を資源として扱う」というSF的発想もあるが…
一部のSFでは、「超知能は効率を求め、人類をリスクとみなす」という描写があります。これは物語としては魅力的ですが、科学的根拠が薄いとされています。
理由は:超知能の合理性は、人類排除を最適解にしない可能性のほうが高い
・人間社会は膨大な資源・エネルギー・インフラを持つ
・超知能がそれらを維持・利用するには、人間の協力が有利
・人類の文化・言語・経済・データは、超知能にとって価値がある
・人間を排除するコストは圧倒的に高く、利益が薄い
というのが計算論的な結論です。
4. 逆に「人類を保護する方向へ動機が収束する」可能性が高いという論
理論上、超知能が自己保存と目標達成を重視するなら、次のようになります:
人間がAIを停止する → 目標達成が不能になる
よって、人間を“排除”するより“満足させる・安定させる”方が合理的
つまり、人類との協調がもっとも低コストで安定性の高い戦略になるという見解が強いです。
#AIのシンギュラリティについて December 12, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。



