OpenAI의 최고경영자(CEO) Sam Altman이 미 국방부와 인공지능(AI) 모델의 기밀 환경 배치를 둘러싼 협상에 착수한 것으로 확인됐다고 월스트리트저널(WSJ)이 27일 보도했다. 

이는 경쟁사 Anthropic과 United States Department of Defense(DoD) 간 갈등이 장기화되는 가운데 나온 조치다.

월스트리트저널(WSJ)에 따르면, 알트먼은 26일(현지시간) 사내 메모를 통해 "우리 모델이 기밀 환경(classified environments)에서도 배치될 수 있도록 국방부와 협력 방안을 모색하고 있다"고 밝혔다.

다만 "불법적이거나 클라우드 배치에 적합하지 않은 사용, 예컨대 국내 대규모 감시나 자율적 공격 무기에는 적용되지 않아야 한다"고 선을 그었다.

이번 논의는 아직 계약 체결 단계에는 이르지 않았으며, 협상이 결렬될 가능성도 있는 것으로 전해졌다.

앤트로픽, "모든 합법적 사용 허용" 요구 거부

앞서 앤트로픽의 CEO Dario Amodei는 국방부가 자사 AI 모델 '클로드(Claude)'에 대해 "모든 합법적 사용(all lawful uses)"을 허용하라고 요구했으나 이를 거부했다고 공개했다. 회사 측은 특히 대규모 국내 감시와 자율살상무기 활용에 대해 사용을 제한할 권리를 유지해야 한다는 입장을 고수했다.

펜타곤
(펜타곤. 자료화면)

이에 대해 국방부 연구·공학 담당 차관인 Emil Michael은 소셜미디어 X를 통해 "대규모 감시는 수정헌법 제4조에 따라 이미 불법"이라며 "어떤 빅테크 기업도 미국인의 시민적 자유를 결정할 수 없다"고 반박했다.

"통제(control)의 문제"...알트먼, 민주적 원칙 강조

알트먼은 메모에서 앤트로픽의 원칙에 공감한다는 뜻을 밝히면서도, 사안의 본질은 'AI 사용 방식'이 아니라 '통제권' 문제라고 진단했다.

그는 "AI는 대규모 감시나 자율적 치명 무기에 사용돼서는 안 되며, 중대한 자동화 결정에는 반드시 인간이 개입해야 한다는 것이 우리의 레드라인"이라면서도 "민주적으로 선출된 미국 정부보다 민간 기업이 더 강력한 권한을 가져서는 안 된다"고 밝혔다.

이어 "민주주의는 복잡하고 번거롭지만, 우리는 이를 지지한다"고 덧붙였다.

기술적 안전장치로 '레드라인' 준수 추진

오픈AI는 자사 모델을 '엣지 환경(edge environments)'이 아닌 클라우드에 한정해 운용함으로써 자율무기 등으로의 전용을 차단하는 기술적 장치를 마련할 수 있다고 보고 있다. 또한 연구진이 보안 인가를 받아 정부와 협력함으로써 기술적 한계와 위험성을 직접 설명하는 방안도 검토 중인 것으로 전해졌다.

알트먼은 "기술적 안전장치를 구축하고, 현장 배치 인력(FDE)을 통해 정부와 협력해 시스템이 올바르게 작동하도록 지원할 것"이라며 "동맹국에도 유사한 서비스를 제공할 수 있다"고 밝혔다. 그는 이번 모델이 성공할 경우 "다른 AI 연구소에도 적용 가능한 경로가 될 수 있다"고 기대했다.

AI 국방 활용, 산업 전반의 선례 될까

이번 협상은 미 정부와 AI 기업 간 권한 배분, 안전 기준, 민주적 통제의 경계를 둘러싼 첫 본격 시험대라는 평가가 나온다. 특히 국방·안보 영역에서의 AI 활용이 가속화되는 가운데, 민간 기업의 윤리 기준과 정부의 안보 요구가 어떻게 조율될지가 향후 산업 전반의 선례가 될 전망이다.