国防総省、Anthropicと2.7億ドル契約締結!国家安全保障AIに「憲法的AI」で安全・倫理を徹底追求

概要

国防総省(DoD)は、主に研究部門であるDARPAを通じて、AI安全性企業のAnthropicに対し、2億7000万ドルと報じられる巨額の契約を締結しました。このパートナーシップは、Anthropicの大規模言語モデル(LLM)に関する専門知識を活用し、ペンタゴンのAIリスクとメリットへの理解を深め、国防用途向けの「憲法的AI」を開発し、LLMの脆弱性を厳格に評価することを目的としています。この協力は、複雑な倫理的配慮を乗り越え、民主的価値との整合性を確保しながら、高度なAI技術を統合しようとするDoDの喫緊の推進を強調しています。

インサイト

この協力は、国家安全保障のためのAI開発と展開における極めて重要な転換点を示しています。AIの安全性への根源的なコミットメントと、「憲法的AI」(AIを人間の価値観や原則に整合させる手法)の開発で知られるAnthropicは、攻撃的な兵器に直接貢献するのではなく、安全性と倫理的順守を優先するシステムを構築するために軍と協力しています。この関与は、DoDが最先端のAIを採用するだけでなく、中国のような国々とのグローバルなAI競争が激化する中で、AIに内在する危険を積極的に理解し軽減するという戦略的な責務を反映しています。

Anthropicの創設者が以前、トランプ政権のテクノロジー推進の下でのOpenAIの商業化の道筋や軍事応用への懸念からOpenAIを離脱したという歴史的背景は、事態をより複雑にしています。これは、AI技術の急速な進歩、倫理的配慮、そして国家安全保障の要求との間の根強い緊張を浮き彫りにします。LLM技術のデュアルユース(軍民両用)という性質は依然として大きな課題であり、意図しない結果や誤用を防ぐために、堅牢なガバナンスと慎重に作り上げられた倫理的枠組みが不可欠です。

影響

この契約は、米国防衛機構内に高度で倫理的に整合されたAIを統合するための大きな一歩を示しています。これは、AI安全性企業が軍事用途にどのように関わるかについて前例を設定し、防衛分野における責任あるAI開発と調達の将来のガイドラインに影響を与える可能性があります。成功裏に実装されれば、DoDは戦略分析、脅威評価、意思決定支援のための高度なツールを手に入れ、膨大なデータと潜在的なシナリオをより良く理解できるようにすることで、軍事作戦と情報収集を潜在的に変革するでしょう。

逆に、いかなる誤解、目的の逸脱、または明示された安全目標からの逸脱も、AIの軍事化に対する国民の懸念を煽り、AI安全性のリーダーとしてのAnthropicの評判を損ない、責任あるAI開発を確実にするためのより広範な努力に影響を与える可能性があります。このイニシアチブは、AI優位性を巡る広範な地政学的な競争の重要な要素であり、競争上の優位性を確保しつつ、責任ある価値観に合致した開発を着実に強調することで、国家防衛におけるAIの将来の展望を形作ることになります。

出典: https://www.theverge.com/policy/886489/pentagon-anthropic-trump-dod

上部へスクロール