Antigravity Lab

AI 최신뉴스 · 2026-02-28

앤트로픽과 미 국방부의 AI 군사 활용 갈등 격화

앤트로픽과 미 국방부의 AI 군사 활용 갈등 격화
생성형 AI의 윤리적 가이드라인을 선도해온 앤트로픽이 미국 국방부와의 갈등에 직면했습니다. 국방부는 앤트로픽의 최신 AI 모델인 클로드(Claude)를 전략적 의사결정 및 전술 시스템에 도입하기 위해 기존의 사용 제한 정책 완화를 요구해 왔습니다. 그러나 앤트로픽 측은 양심상의 이유를 들어 기술의 살상 무기 체계 통합이나 공격적 군사 작전 활용에 동의할 수 없다는 입장을 고수하고 있습니다. 이에 미 국방부는 앤트로픽을 국가 안보 공급망 리스크 기업으로 분류하겠다며 강하게 압박하고 있으며, 일각에서는 오픈AI나 xAI가 이 공백을 메우기 위해 중재자로 나설 가능성을 제기하고 있습니다. 기술 윤리와 국가 안보라는 두 가치가 정면으로 충돌하는 상징적 사례로 기록될 전망입니다.
소개 | 문의하기 | 개인정보처리방침
← 모든 포스팅 보기