조 링 켄트: 오늘 시간 내주셔서 감사합니다.

다리오 아모데이: 초대해 주셔서 감사합니다.

조 링 켄트: Anthropic의 CEO 다리오 아모데이 씨 맞으시죠?

다리오 아모데이: 네, 맞습니다.

조 링 켄트: 첫 번째 질문인데요, 왜 Anthropic은 미국 정부에 AI를 제한 없이 제공하지 않는 건가요?

다리오 아모데이: 먼저 맥락을 좀 짚고 넘어가야 할 것 같습니다. 사실 Anthropic은 AI 기업들 중에서 미국 정부, 미국 군과의 협력에 가장 적극적으로 나선 회사입니다. 기밀 클라우드(classified cloud)에 자사 모델을 올린 첫 번째 기업이었고, 국가 안보 목적의 맞춤형 모델을 개발한 것도 우리가 처음이었습니다. 사이버, 전투 지원 작전 등 다양한 분야에서 정보기관과 군에 걸쳐 배포되어 있어요. 이렇게 해온 이유는, 저는 우리나라를 지켜야 한다고 믿기 때문입니다. 중국이나 러시아 같은 권위주의 적국으로부터 나라를 지켜야 한다고요. 그래서 우리는 상당한 규모의 공공 부문 팀을 꾸리고 적극적으로 협력해왔습니다.

하지만 동시에 저는 항상, 우리가 권위주의 적국에 맞서 방어하는 방식이 우리의 민주주의적 가치를 지키는 방식이어야 한다고 믿어왔습니다. 그래서 우리는 국방부(Department of War)에 이렇게 말해왔습니다. 원하는 사용 사례의 98~99%는 다 괜찮다, 다만 두 가지만은 우려스럽다고요.

첫째는 국내 대규모 감시(domestic mass surveillance)입니다. AI로 인해 이전에는 불가능했던 일들이 가능해질 수 있거든요. 예를 들어, 민간 기업이 수집한 데이터를 정부가 구매해서 AI로 대량 분석하는 것 같은 일이요. 이게 불법은 아닙니다. AI 시대 이전에는 그냥 쓸모가 없었을 뿐이에요. 기술이 너무 빠르게 발전하다 보니 법이 따라잡지 못하고 있는 겁니다.

둘째는 완전 자율 무기(fully autonomous weapons)입니다. 지금 우크라이나나 대만에서 쓰이는 반자율 무기(partially autonomous weapons)가 아닙니다. 인간의 개입 없이 완전히 스스로 발사하는 무기 개념입니다. 언젠가는 우리 적국도 이런 무기를 갖게 될 수 있고, 민주주의 수호를 위해 필요해질 수도 있다는 건 압니다. 하지만 현재의 AI 시스템은 신뢰도가 충분하지 않고, 기술적으로 아직 해결되지 않은 근본적인 예측 불가능성이 있어요. 또 감독(oversight) 문제도 있습니다. 누구를 표적으로 할지, 누구에게 발사할지 결정하는 인간 없는 드론·로봇 군단에 대한 사회적 논의가 아직 이루어지지 않았습니다.


조 링 켄트: 국방부 측은 두 가지 제한 조건에 원칙적으로 동의했고 합의를 원했다고 했는데요. 왜 합의가 이루어지지 못한 건가요?

다리오 아모데이: 이 과정이 몇 단계에 걸쳐 진행됐는데, 모든 게 그들이 제시한 3일이라는 매우 짧은 기간 안에 결정되었습니다. 우리에게 3일 안에 조건에 동의하거나, 그렇지 않으면 공급망 위험(supply chain risk)으로 지정하거나 방위생산법(Defense Production Act) 조치를 취하겠다는 최후통첩을 한 거예요.

어느 시점에 그들이 보내온 문서를 보면 표면적으로는 우리 조건을 수용하는 것처럼 보였는데, “국방부가 적절하다고 판단할 경우” 혹은 “법에 따른 모든 행위”와 같은 단서 조항들로 가득 차 있었습니다. 실질적인 양보가 전혀 없었던 거죠. 국방부 대변인 숀 파넬이 협의 전날 올린 “우리는 합법적인 모든 사용만을 허용한다”는 입장이 그들이 우리에게 보낸 조건과 동일했어요. 결국 우리가 요청한 예외 조항 중 어느 것도 의미 있는 방식으로 수용되지 않았습니다.


조 링 켄트: 대통령이 Anthropic의 “이기심이 미국인의 생명을 위험에 빠뜨리고, 우리 군을 위기에 처하게 하며, 국가 안보를 위협하고 있다”고 했습니다. 어떻게 생각하세요?

다리오 아모데이: 어제와 오늘 발표한 성명에서 밝혔듯이, 국방부나 트럼프 행정부가 이런 전례 없는 조치를, 즉 외국 적국에나 쓰던 공급망 지정을 우리에게 취한다 해도, 서비스가 끊기지 않도록 최대한 지원하겠다고 했습니다. 우리 대신 이 일을 기꺼이 하려는 경쟁사로 전환이 완료될 때까지요.

조 링 켄트: 철수 준비를 한다는 거네요.

다리오 아모데이: 네. 우리가 공급망 위험으로 지정되면 “모든 시스템에서 즉시 퇴출하라”는 명령이 떨어지는 거잖아요. 현장 장교들과 직접 이야기를 나눴는데, “이게 없으면 6개월, 12개월, 어쩌면 그 이상 뒤처진다. 필수적이다”라고 했습니다. 이 모든 일정은 국방부가 주도한 것이지 우리가 아닙니다. 우리는 서비스 연속성을 제공하고 합의에 이르려 하고 있습니다.


조 링 켄트: 그렇다면 미국인들의 안전에는 어떤 의미가 있나요?

다리오 아모데이: 단기적으로는 국방부에 달린 문제입니다. 우리는 여전히 합의를 위해 노력 중입니다.

조 링 켄트: 지금도요?

다리오 아모데이: 네, 여전히 대화를 시도하고 있습니다.

조 링 켄트: 그쪽에서도 대화하고 있나요?

다리오 아모데이: 여러 방면으로 소통은 하고 있습니다. 우리의 우려를 해소하는 내용은 아직 못 봤지만, 레드라인(red lines) 범위 안에서 협력하는 것에 여전히 관심이 있다는 뜻입니다.

조 링 켄트: 헤그세스 장관이 이미 공급망 위험으로 지정한 상황에서, 합의가 가능하다고 보세요?

다리오 아모데이: 합의는 양측 의지가 필요합니다. 우리 입장에서는 레드라인 범위 내에서라면 국방부, 정보기관, 민간 부처 어디든 기꺼이 모델을 제공할 의사가 있습니다. 미국의 국가 안보를 위해서요. 특정 행정부나 관료를 위해서가 아닙니다. 그리고 앞으로도 그럴 겁니다.


조 링 켄트: 왜 민간 기업 Anthropic이 군의 AI 사용 방식을 펜타곤보다 더 많이 결정해야 한다고 생각하시는 건가요?

다리오 아모데이: 먼저 중요한 점을 짚고 싶습니다. 현장에서 실제로 이 예외 조항의 한계에 부딪힌 경우는, 우리가 아는 한, 없습니다. 이건 사용 사례의 1%에 해당하는 것이고, 실제 문제가 발생했다는 증거도 없어요.

장기적으로는 민주적 토론이 필요하다는 데 동의합니다. 의회가 해야 할 일이에요. 정부가 미국인의 위치, 개인 정보, 정치적 성향 같은 데이터를 대량으로 구매해 AI로 분석하는 것이 합법이라면, 수정헌법 제4조(Fourth Amendment)의 사법 해석이나 의회가 통과시킨 법률이 기술 현실을 아직 따라잡지 못한 겁니다.

다만 의회는 빠르지 않습니다. 지금 당장은 우리가 이 기술을 최전선에서 보고 있는 사람들이에요. 정부에 의한 감시를 받지 않을 권리, 군사적 결정을 기계에 완전히 넘기지 않을 권리, 이것들은 미국의 근본 원칙입니다.


조 링 켄트: 그 근본 원칙의 이름으로, 왜 미국인들이 연방 정부 대신 민간 기업 CEO인 당신을 신뢰해야 하나요?

다리오 아모데이: 두 가지로 답하겠습니다. 첫째, 우리는 민간 기업입니다. 원하는 것을 팔 수도, 안 팔 수도 있어요. “Anthropic과 원칙이 맞지 않으니 다른 모델을 쓰겠다”고 했다면, 동의하지 않더라도 존중했을 겁니다.

그런데 실제로는 국방부를 넘어 다른 정부 기관의 계약까지 처벌적으로 취소하려 했고, 공급망 지정을 통해 군 계약이 있는 민간 기업이 Anthropic을 사용할 수 없도록 했습니다. 민간 기업의 행동에까지 손을 뻗은 거예요. 보복 외에 다른 해석이 어렵습니다.

우리가 아는 한, 이 공급망 지정 조치는 미국 기업에 적용된 적이 없습니다. 러시아 사이버 보안 기업 카스퍼스키(Kaspersky Labs)나 중국 반도체 공급업체 같은 적국에만 적용됐어요. 우리가 미국 국가 안보를 위해 해온 일을 감안하면, 그들과 같은 선상에 놓이는 건 매우 보복적이고 부당합니다.


조 링 켄트: Anthropic이 펜타곤보다 더 잘 안다고 생각하시는 건가요?

다리오 아모데이: 자유 시장에서 각기 다른 원칙 아래 다른 제품을 제공할 수 있습니다. 이건 단순한 이용 약관 문제가 아니에요. 우리 모델이 무엇을 안정적으로 할 수 있고 없는지에 대해서는 우리가 가장 잘 판단할 수 있다고 생각합니다.

하지만 장기적으로 민간 기업과 펜타곤이 이 문제를 두고 싸우는 게 옳은 해결책이 아니라는 데 동의합니다. 의회가 나서야 합니다. 다만 의회는 빠르게 움직이지 않아요.


조 링 켄트: 의회가 행동하기 전까지 입장을 고수하시겠다는 거군요. 그런데 보잉은 미군을 위해 항공기를 만들지만 그 사용 방식을 군에게 지시하지는 않잖아요. 이 경우와 뭐가 다른가요?

다리오 아모데이: 두 가지 면에서 다릅니다. 첫째, 기술의 새로움 문제입니다. 항공기는 오래됐고 장군들도 잘 압니다. AI는 달라요. 모델에 투입되는 연산량이 4개월마다 두 배로 늘고 있습니다. 지수함수적 성장(exponential trend)이에요. 이런 혁신의 속도는 전례가 없습니다.

조 링 켄트: 그 속도가 계속된다면 미국 정부는 영원히 따라잡지 못하는 거 아닌가요? 의회도 못 따라잡는다면, 왜 협력을 거부하는 건가요?

다리오 아모데이: 단 한 번의 따라잡기면 충분하다고 생각합니다. 제기되는 문제는 수가 적어도 매우 중요합니다. 딱 두 가지예요: 국내 대규모 감시, 완전 자율 무기. 이 위험들을 의회가 이해할 수 있도록 도울 필요가 있습니다. 정부에게 감시받고 싶어 하는 미국인은 없습니다.


조 링 켄트: 우리의 적국들은 이미 빠르게 따라오고 있습니다. 우리 군이 미국 국민을 지키는 데 결정적이라면, 왜 협력을 거부하는 건가요?

다리오 아모데이: 실제 두 가지 사용 사례를 구체적으로 봐야 합니다. 국내 대규모 감시는 적국보다 앞서는 데 도움이 안 됩니다. 기술적으로 합법이라도 정부 권력의 남용이에요.

완전 자율 무기에 대해서는, 저도 경쟁력 유지가 필요하다는 걱정을 합니다. 다만 기술이 아직 준비가 안 됐습니다. 우리는 완전 자율 무기를 범주적으로(categorically) 반대하는 게 아닙니다. 신뢰도가 아직 충분하지 않고, 감독 방식에 대한 논의가 필요하다는 겁니다. 우리는 국방부와 협력해 샌드박스(sandbox) 환경에서 시제품을 만들겠다고 제안했는데, 그들은 처음부터 모든 걸 자유롭게 할 수 없다면 협력하지 않겠다는 태도였습니다.