미국 정부와 인공지능 선두 기업 간의 갈등이 마침내 법정으로 향하게 되었습니다. 2026년 3월 4일 미 국방부는 앤스로픽(Anthropic)과 그 생산 제품들을 국가 안보에 위협이 되는 '공급망 리스크'로 공식 지정한다고 통보했습니다. 이에 대해 앤스로픽의 다리오 아모데이(Dario Amodei) 최고경영자는 3월 5일 즉각적인 법적 도전 의사를 밝히며 강하게 반발하고 나섰습니다.
이번 사태의 핵심은 인공지능의 활용 범위를 둘러싼 철학적 차이에 있습니다. 앤스로픽은 자사의 모델인 클로드(Claude)가 미국 시민에 대한 대량 감시나 자율 살상 무기 시스템에 사용되지 않도록 보장해달라고 요구해 왔습니다. 하지만 펜타곤은 국가 안보라는 명목하에 기술 활용의 자율성을 요구했고, 이 과정에서 협상이 결렬된 것으로 알려졌습니다. 특히 앤스로픽이 정부와의 계약에서 배제된 직후 오픈AI가 국방부와 새로운 계약을 체결했다는 사실이 밝혀지면서, 기업 간의 정치적 지형 변화에 대한 논란도 가열되고 있습니다.
현재 클로드는 미 국방부의 기밀 클라우드 내에서 작동하는 유일한 인공지능 시스템으로, 대 이란 작전 등 실제 군사 행동의 타격 계획 수립에 활용되고 있는 것으로 전해집니다. 아모데이 CEO는 내부 유출된 게시물이 본인의 신중한 의견이 아니었다며 사과하면서도, 기술의 안전한 활용을 위한 가이드라인 준수 의지는 꺾지 않았습니다.
이 사건은 기술 기업이 국가 권력의 요구와 기업의 윤리적 가치 사이에서 겪는 딜레마를 여실히 보여줍니다. 3,800억 달러의 기업 가치와 200억 달러의 연매출을 눈앞에 둔 앤스로픽이 이번 법적 공방을 통해 어떤 선례를 남길지 주목됩니다. 인공지능 주권과 안보, 그리고 기술 윤리가 충돌하는 이 지점은 향후 전 세계 인공지능 규제와 산업 정책의 중대한 분수령이 될 것입니다.