31. ___[80] gVGBUYFR 2026年3月12日 18:56:17 : b8S76DzKSI : UmxtMElrUkRZTFk=[1]
tobimono2
@tobimono2
「世界はこのことに注目しなければなりません
この数週間、アメリカで大きな倫理的議論が展開されており、それは戦争の未来そのものに関わっています。
この対立は、ペンタゴンとAI企業Anthropic(Claudeの開発者)との前例のない対立をめぐるものです。 Anthropicはペンタゴンとの契約を結んでおり、そこには厳格な「レッドライン」が含まれていました。
彼らのAIは市民の大規模監視にも、完全自律型兵器の開発にも使用されないこと。
しかし、契約がすでに有効となった後、ペンタゴンはこれらの倫理的セーフガードの削除を要求しました。
Anthropicが拒否したところ、Pete Hegseth長官は同社を「国家安全保障サプライチェーンのリスク」と指定し、Trump大統領はすべての連邦機関に対しClaudeの使用を停止するよう命じました。
政府は迅速にAnthropicの役割をOpenAIとxAIに置き換えました。
これらは新しい契約ですが、同じ戦略的機能を果たしますが、決定的な違いがあります。
彼らはペンタゴンの既存の政策、特にDirective 3000.09の下で運用することに同意したと報じられています。
なぜこれが転換点なのか?
Directive 3000.09は完全自律型致死兵器を禁止していないからです。
それは「適切なレベルの人間の判断」を許可しており、これは曖昧な用語で、軍はこれをミッションがプログラムされた後、AIが独立して武力行使を起動することを許すと解釈しています。人間がAIに殺害をプログラムした場合、それは問題ありません。
これらの条件を受け入れることで、OpenAIとxAIはAnthropicが維持しようと戦った民間の倫理的障壁を事実上取り除くことになります。
Anthropicは今、米政府を提訴し、倫理的立場に対する違法な報復だと主張しており、この動きはMicrosoftの支持を受けています。Microsoftは危険な前例になると警告しています。
これは単なるソフトウェア以上の問題です。
それは、AIがまもなく独自に生死を決める決定を下す可能性があることを意味します。
私たちはAIのミスを毎日見ています。
これらのシステムは、人間の命の運命を決める準備が全くできていません。
グローバル社会はこの問題に厳しく目を光らせなければなりません」。
Quote
Patricia Marins
@pati_marins64
·
3h
The world needs to pay attention to this
Over the last few weeks, a major ethical debate has been unfolding in the U.S, and it concerns the very future of warfare.
The conflict involves an unprecedented standoff between the Pentagon and the AI company Anthropic (creators of
6:22 PM · Mar 12, 2026
http://www.asyura2.com/26/senkyo299/msg/327.html#c31
題名には必ず「阿修羅さんへ」と記述してください。