생성형 AI의 윤리적 가이드라인을 선도해온 앤트로픽이 미국 국방부와의 갈등에 직면했습니다. 국방부는 앤트로픽의 최신 AI 모델인 클로드(Claude)를 전략적 의사결정 및 전술 시스템에 도입하기 위해 기존의 사용 제한 정책 완화를 요구해 왔습니다. 그러나 앤트로픽 측은 양심상의 이유를 들어 기술의 살상 무기 체계 통합이나 공격적 군사 작전 활용에 동의할 수 없다는 입장을 고수하고 있습니다. 이에 미 국방부는 앤트로픽을 국가 안보 공급망 리스크 기업으로 분류하겠다며 강하게 압박하고 있으며, 일각에서는 오픈AI나 xAI가 이 공백을 메우기 위해 중재자로 나설 가능성을 제기하고 있습니다. 기술 윤리와 국가 안보라는 두 가치가 정면으로 충돌하는 상징적 사례로 기록될 전망입니다.