전쟁 양상 바꾼 빅테크들의 AI기술 경쟁 위험성 [카테고리 설정이 아직되어 있지 않습니다.] 팔란티어 주최 메이븐 스마트 시스템 시연회에서 드론이 짝은 영상 속 주차장의 자동차들(흰 점) 번호가 왼쪽에 하나 하나 적시돼 있다. 아사히신문 4월 17일
지구가 내려다 보이는 위성화상. 중동지역을 확대해 가다가 어느 섬에 있는 시설들을 비추는 드론 화상으로 장면이 바뀐다. 정차 중인 자동차 번호가 표시되면서 한 대 한 대씩 식별한다. 화면상에서 표적과 공격방법을 선택한 뒤 ‘허가(승인)’ 버턴을 누르면, 표적이 폭파되는 장면이 뜬다.
이란 침공 때 활용된 AI 기반 ‘메이븐 스마트 시스템’
표적 선정에서 공격까지 하나의 시스템으로 해낼 수 있다. 혁명적이다.” 모델 설명자로 나선 사람은 미국 국방부 AI담당 책임자 캐머런 스탠리.
지난 3월 트럼프 대통령 지지자로 브레인 역할까지 한 피터 틸이 공동설립한 미국 빅데이터 분석 및 소프트웨어 전문기업 팔란티어(Palantir Technologies)가 주최한 ‘메이븐 스마트 시스템(Maven Smart System’) 시연회에서였다. 메이븐 스마트 시스템은 미국 국방부가 팔란티어의 기술을 토대로 개발한 인공지능(AI) 기반 ‘전장 표적화 및 지휘관 의사결정 지원 시스템’이다. 전장에서 공격표적을 찾아내 언제 어떻게 파괴, 제거할지를 AI가 알려 주면 지휘관은 오케이 버턴만 누르면 된다.
좌 클릭, 우 클릭, 좌 클릭. 마술처럼 표적을 찾아낼 수 있다.” 스탠리는 AI를 핵무기와 스텔스 기술처럼 미국이 압도적 우위에 설 수 있도록 해 주는 기술이라며 이렇게 덧붙였다. 나는 공평한 싸움을 바라지 않는다. 우리가 이겨서 병사들이 (무사)귀환할 수 있도록 하겠다.”(아사히신문 4월 17일)
몇 시간 걸리던 표적 선정과 제거, 단 몇 초만에
미국과 이스라엘의 이란 공격에 이처럼 AI가 정보분석과 표적 선정 도구로 활용됐다.
워싱턴포스트는 3월 2일, 미군이 이란 공격 초기 24시간 내에 이란 혁명수비대와 헤즈볼라 기지 등 군사시설 1천 곳을 공격했다고 보도했다. 그때 메이븐 스마트 시스템이 실시간(리얼 타임)으로 표적과 공격의 우선순위를 정하는 데 기여했다”고 기사는 썼다.
미국 중부사령부 브래드 쿠퍼 사령관(해군 대장)은 이란 공격 때 몇 시간, 장소에 따라서는 며칠도 걸리던 프로세스가 AI 덕에 몇 초만에 끝났다”고 했다.
미군이 이 AI시스템을 도입할 때 책임자였던 잭 셰너헌 예비역 공군중장은 3월 17일의 워싱턴 이벤트 때 말했다. AI가 표적 찾기에 너무 뛰어나기 때문에 프로세스(진행)가 점점 빨라져 인간에 대한 압박감이 커지고 있다.” 그는 장차 AI가 스스로 판단하고 공격하는 ‘완전자율형 무기’가 등장할 것이라며 주의할 필요가 있다고 했다. 상대를 제거할지 말지 최종판단과 실행까지 AI가 하게 되는 때가 곧 온다는 얘기다.
미국 국방부가 메이븐 스마트 시스템 개발을 시작한 것은 2017년이었다. 지금은 시스템 핵심부분을 팔란티어가 제공한다. 2024년부터 이 시스템을 움직이는 AI모델에 다리오 아모데이 등이 만든 AI 스타트업 앤트로픽(Anthropic PBC)의 대형 언어모델 클로드(Claude)가 사용되면서 해석 능력과 속도가 향상됐다.
중국 군사시설을 촬영한 위성영상에 대해 설명하고 있는 블랙스카이 테크놀로지의 제품 책임자 켄 조이스. 아사히신문 4월 17일
중국군 잠수함 움직임까지 파악하는 위성 화상
이 시스템에는 위성 화상 기술도 중요한 몫을 하고 있다. AI가 두뇌라면 눈에 해당하는 위성 화상 기술의 진화가 두뇌의 역량을 떠받친다. 아사히신문에 따르면, 미국 인공위성 기업 블랙스카이(BlackSky Technology)는 지구 궤도상에 떠 있는 15기의 위성을 관리하는 회사인데, 지표상의 동일한 지점을 하루 10회 이상 촬영해 그 화상을 고속으로 지구에 송신할 수 있다. 촬영에서 지상의 수신까지의 평균시간은 90분 정도.
1.8m 길이의 원통형인 최신 위성은 아래에 눈과 같은 망원렌즈가 장착돼 있고, 35cm 이상 크기의 지상의 물체들 형태를 판별할 수 있다. 고공에서 야구장 내야에 있는 사람을 식별할 수 있을 정도의 높은 해상도를 갖고 있는 것이다.
블랙스카이의 총괄 제품부문 책임자 켄 조이스는 중국 하이난 섬의 군사시설을 촬영한 위성 화상에 대해 설명하면서 기술 진화로 지상의 표적을 거의 다 꿰뚫어볼 수 있다고 했다.
이것은 중국 하이난 섬에 있는 군사시설이다. 잠수함이 오가고 있고, 엄중하게 관리되고 있는 전략적 거점을 최신 위성은 촬영할 수 있다.” 화상에는 잠수함이 보라색 선으로 표시돼 있었다. 조이스는 화상의 해상도가 낮으면, 잠수함을 식별하기가 매우 어렵다”며 수면에서 어둡게 보이도록 설계돼 있기 때문”이라고 했다. 하지만 블랙스카이의 신기술은 잠수함이 수중에서 잠항할 때의 움직임이나 배와 잠수함의 차이, 개수 등을 정확하게 파악할 수 있다”며 몸체를 숨기기가 지극히 어렵다”고 했다.
모사드 AI기술 등장으로 첩보세계 새 시대로”
이스라엘도 AI의 군사적 이용에 매우 적극적이다. 이란 공격에도 활용했다. 이스라엘 매체 ‘Y넷’ 등에 따르면 이스라엘군은 이란의 최고지도자 알리 하메네이를 살해하기 위해 수도 테헤란의 교통감시 카메라를 몇 년에 걸쳐 해킹하고, 경호 상황과 이동 루트 등의 정보를 AI로 분석해 동향을 파악해 왔다. 이스라엘 정보기관 모사드의 전직 간부는 AI 기술의 등장으로 첩보의 세계는 새로운 시대로 진입했다”고 말했다.
미국과 이스라엘은 하메네이와 이란 신정체제 지도자 다수를 폭사시킨 2월 28일 미국-이스라엘의 공격 때 휴민트(사람을 통한 첩보활동)와 위성 등의 신기술 이용 첩보를 모두 활용해 그들이 언제 어느 장소에 모이는지를 사전에 정확하게 파악해 공격했다. 가디언은 그 사실을 보도하면서 이스라엘의 첩보활동 무게중심이 신기술 활용 쪽으로 옮겨가고 있다고 했는데, 모사드 간부의 얘기와 일맥상통한다.
이스라엘은 가자지구의 하마스 조직을 공격할 때도 ‘하브소라’(Habsorah, 복음)라는 AI 툴을 활용했다. 위성화상이나 통신 데이터 등을 분석해 ‘군사 표적’을 찾아내는 기술이다.
이스라엘 국방부의 다니엘 골드 국방연구개발국장은 이스라엘군의 이란 공격 전에 AI가 더 효율적이고 정확하게 표적을 노릴 수 있게 해줘서 실수나 부수피해를 막는데 도움이 되고 있다 고 주장했다. 하지만 이스라엘군의 2년여에 걸친 가자공격으로 7만 명이 넘는 민간인들이 목숨을 잃은 현실에서 설득력 없는 주장이다. 오히려 그런 기술이 무차별적이고 효과적인 살상을 정당화하는 구실로 이용되고 있는 건 아닌가.
AI모델 ‘클로드’ 이용제한 두고 기업과 정부 대립
이처럼 인명 살상으로 이어지는 군사업무에 AI를 이용하는 것을 누가 어디까지 허용할 것인가. 이 문제를 둘러싸고 정부와 기업 간, 그리고 기업들 간에 갈등과 경쟁이 거세지고 있다.
자료 사진: 2026년 3월 1일에 제작된 일러스트. 미국 전쟁부 와 앤스로픽 로고. 로이터 연합뉴스
앤트로픽은 2025년 7월에 2년간 미국 국방부에 자사의 AI모델 ‘클로드’를 제공하는 최대 2억달러짜리 계약을 맺었다. AI기업으로서는 처음으로 국가기밀정보를 취급할 수 있는 자격을 인정받은 것이다.
앤트로픽은 안전성을 둘러싼 노선 대립 때문에 샘 올트먼의 오픈AI를 그만두었다는 다리오 아모데이 등이 2021년에 창업한 회사로, 아마존과 구글 등으로부터 출자를 받았다.
앤트로픽은 자사 AI모델 ‘클로드’ 사용과 관련해 계약서에 이용을 제한할 수 있도록 해 놓았다. 국방부와의 계약에서 ”미국인을 대상으로 한 대규모 감시 와 ”완전자율형 무기 는 제한한다는 조항을 두었는데, 그 분야에 AI가 활용될 경우 위험성이 크다고 판단했기 때문이다. 하지만 이는 앤트로픽의 자율적인 제한이고 법률로 금지돼 있는 것은 아니다.
국방부는 ”모든 합법적인 목적 으로 AI를 사용하는 것을 막아서는 안 된다며 제한조항 철폐를 요구했다. 전쟁 때 싸우는 것을 인정하지 않는 AI모델은 쓸 수 없다는 것이다. 예컨대 군사작전 중에 앤트로픽이 서비스를 중단해 버릴 경우 일개 기업이 군사작전 ‘거부권’을 갖게 되는 것이라며, 그것은 미국 시민의 생명을 위험에 빠뜨리고 미국의 군사력에도 영향을 끼칠 수 있는 ”중대한 위험 이라고 주장한다.
트럼프 2기 정권은 2025년 1월 20일 출범하자마자 AI 안전성을 중시한 조 바이든 전 정권의 대통령령을 철회하는 등 AI 이용에 적극적인 자세를 취했다. 올해 1월에는 피터 헤그세스 국방장관이 ”군사용 AI에 대한 미국의 패권을 확립해야 한다 고 강조했고, 2월 27일에는 앤트로픽을 ‘서플라이 체인(공급망) 리스크(위험)’로 지정하겠다고 밝혔다. ‘공급망 위험’ 지정은 원래 적대국을 대상으로 한 것이어서, 자국 기업에 대해 같은 조치를 취한 것은 매우 이례적이다.
그러나 앤트로픽은 AI는 잘못된 정보를 출력할 수 있는 불완전한 것이라며 국방부 방침에 따르지 않았고, 국방부가 공급망 위험 대상으로 지정하자 이를 철회하라며 국방부를 상대로 소송을 제기했다.
앤트로픽은 AI가 과거의 데이터를 학습해서 추론하기 때문에 미리 상정하지 않은 환경에서 사용할수록 성능이 떨어지는데, 자사 AI 모델인 클로드는 원래 자율형 무기를 상정한 훈련이나 테스트를 받지 않았기 때문에 자율형 무기에 사용될 경우 전투원과 민간인을 분명하게 구별하지 못할 우려가 있다고 주장한다.
그리고 대규모 감시도 위험성이 크다고 주장한다. 그것은 감시 카메라나 스마트 폰의 위치정보, 크레딧 카드 거래 이력 등의 데이터를 분석해서 대상을 감시하는 기술인데, AI가 상정돼 있지 않은 속도와 규모로 정보수집과 분석을 해 버릴 경우 오류를 범할 가능성이 ”현저하게 높아진다 는 것이다.
앤트로픽 배제되자 오픈AI가 대신 국방부와 계약
소송전에서 구글과 오픈AI의 직원 37명이 앤트로픽의 주장에 찬동한다는 의견서를 제출했다. 그리고 두 회사의 직원 1천여 명은 자사 경영진에 대해 앤트로픽과 같은 안전조치를 취하라고 요구하는 공개서한도 발표했다.
그러나 군사분야에서 AI의 중요성이 점점 커지면서 테크(기술) 기업들은 다시 군과의 연계를 강화하고 있다. 구글과 오픈AI는 결국 AI의 군사 이용에 반대하는 방침을 철회했다. 올해 2월 앤트로픽이 국방부와 갈등을 빚고 배제되자 오픈AI는 국방부와 계약을 체결했다.
앤트로픽 공동설립자 다리오 아모데이 CEO. 위키피디아
국방부와의 협업에서 오락가락하는 빅데크들
구글은 국방부가 2017년에 메이븐 스마트 시스템을 개발하기 시작할 때 거기에 가담했으나 2018년에 국방부가 개발을 완료한 뒤 구글이 그 계획에 참여한 사실이 드러나자 엔지니어들이 반발했다. 그러자 구글은 계약 갱신을 포기했다. 구글은 그해에 발표한 ‘AI 기본이념’에서 무기 개발과 감시를 위해 AI를 이용하지 않겠다는 방침을 내걸었다.
2019년에 구글을 대신해 팔란티어가 메이븐 관련 계약을 수주했고, 안전성 문제를 놓고 갈등하다 오픈AI를 떠난 다리오 아모데이 등은 2021년에 앤트로픽을 설립했다.
오픈AI는 2024년에 군사와 전쟁에 AI를 활용하지 못하도록 금지한 이용규약을 개정해 금지사항에서 ‘군사와 전쟁’을 빼 버렸다. 같은 해에 팔란티어와 앤트로픽이 제휴해 팔란티어는 미군용 툴에 앤트로픽의 AI를 사용할 수 있게 됐다. 2025년에는 구글이 AI의 윤리에 관한 지침에서 ‘무기’와 ‘감시’에 사용하지 않겠다는 구절을 삭제했다. 같은 해에 앤트로픽, 구글, 오픈AI, xAI 등 4개사와 국방부가 AI기술 도입과 관련해 각각 최대 2억 달러의 계약을 체결했다.
2026년 2월 국방부가 앤트로픽을 ‘국가안전보장상의 서플라이 체인 리스크(공급망 위험)’로 지정하자 앤트로픽은 지정 철회를 요구하며 국방부를 제소했다. 하지만 경쟁사인 오픈AI가 국방부와 계약을 체결하자 앤트로픽도 정부와 협의를 계속해 가겠다는 쪽으로 다시 입장을 바꿨다.
2023년 6월 23일 촬영된 자료사진. 컴퓨터 마더보드에 AI(인공지능)라는 글자가 놓여 있는 모습. 로이터 연합뉴스
브레이크 없는 승자독식 경쟁구조
빅테크들이 이처럼 오락가락하는 것은 AI 개발 경쟁에서 뒤처지면 죽음이라는 승자독식의 경쟁구조 때문이다. ”어느 정도 숭고한 이념이 있다 하더라도 개발 경쟁 앞에서는 무의미하다 고 구글의 한 직원은 말했다. 승자독식의 생사를 건 치열한 개발 경쟁이 벌어지는 것은 미국 국내의 빅테크들끼리만 그런 것이 아니다. 중국 등 외부세계와의 경쟁도 날로 거세지고 있고, 국제적인 규칙 등의 브레이크가 없는 상태가 앞으로도 계속될 것이다.
최신 AI 모델 ‘클로드 미토스’ 등장, 태도 바꾼 정부
4월 7일 앤트로픽이 한층 더 발전된 고성능 최신 AI모델 ‘클로드 미토스(Claude Mythos)’를 발표하면서 AI의 위험성에 대한 논쟁은 방향과 차원이 달라지고 있다. 앤트로픽과 소송전을 벌일 정도로 AI 활용에 적극적이었던 미국 정부가 국가안보를 위협할 정도의 감당하기 어려운 수준으로 AI가 진화하자 태도를 바꾸고 있다.
클로드 미토스는 소프트웨어 취약점을 찾아내는 데 놀라울 정도로 뛰어나 악용될 경우 은행부터 병원까지 주요 기반 시설을 위협할 수 있다. 빠른 속도로 성능이 향상되고 있는 AI 모델은 생물 보안 위험부터 대규모 사기 행위에 이르기까지 점점 더 많은 위험을 초래하고 있다.
앤트로픽의 CEO 다리오 아모데이는 미토스가 일반에 공개하기에는 너무 위험하다고 보고, 컴퓨팅, 소프트웨어, 금융 분야의 대기업 약 50곳으로 미토스 제공을 제한해 자체 방어 체계를 강화할 수 있도록 했다. 스콧 베센트 재무장관은 주요 은행들을 소집해 긴급 대책회의를 열었다.
클로드 미토스의 등장으로 경계 수준이 한층 더 높아지자 이제까지 ”기술의 완전한 지배 를 추구해 온 트럼프 대통령은 15일 AI기술에 대해 ”정부가 강제정지를 위한 킬 스위치(kill switch, 비상정치장치)를 가져야 한다 고 말했다.
신처럼 인공지능(AI)을 통제하고 있는 빅테크 CEO들. 이코노미스트 4월 16일
세계에서 가장 강력한 신기술을 소수의 사람들에게 맡기는 것이 과연 옳은 일일까? 다리오 아모데이 앤트로픽 CEO, 데미스 허사비스 구글 딥마인드 CEO, 일론 머스크 테슬라 CEO, 마크 저커버그 메타 CEO, 샘 올트먼 오픈AI CEO… (이들이) 미래를 바꿀 인공지능 모델을 거의 신과 같은 수준으로 통제하고 있다. 트럼프 행정부는 이 모델들이 놀라운 능력을 갖추는 동안에도 방관적인 태도를 유지해 왔다. 민간 기업 간의 자유로운 경쟁이야말로 미국이 중국과의 AI 경쟁에서 승리하는 최선의 방법이라고 확신했기 때문이다.
하지만 이제 상황이 달라졌다. 미국의 AI에 대한 무분별한 접근 방식이 갑자기 종말을 맞이할 조짐을 보이고 있다. 그 이유는 바로 이 모델들의 눈부신 발전이 미국의 국가 안보에도 위협이 될 수 있기 때문이다. 이는 이전에는 과도한 규제를 더 우려했던 트럼프 행정부 인사들조차 불안하게 만들기 시작했다. 동시에 미국 유권자들의 커져가는 불만은 AI를 정치적 쟁점으로 만들고 있다. 자유방임주의적 접근 방식은 더 이상 정치적으로 용납될 수 없으며 전략적으로도 현명하지 못하다. (이코노미스트 4월 16일)
2년 전 바이든 정부 시절에는 AI 규제에 대한 논의가 주로 AI의 잠재적 위험에 초점을 맞추었다. 그러나 오늘날 AI의 능력은 이미 놀라울 정도로 강력해져 현실적 위험이 되고 있다. 새로운 버전이 출시될 때마다 AI모델은 더욱 강력해지고 있다. 혁신의 속도가 워낙 빠르기 때문에 과거에는 수년, 심지어 수십 년에 걸쳐 진행되었던 정부의 적절한 역할에 대한 논쟁을 이제는 몇 달 안에 해결해야 한다. 인간에게 주어진 ‘생각할 시간’이 별로 없다.