AI 가짜 전쟁 영상 넘쳐… 잠시 멈추고 검증부터 [카테고리 설정이 아직되어 있지 않습니다.] 28일(현지시간) 이스라엘의 공격으로 연기가 피어오르는 이란 테헤란 모습. 로이터연합뉴스
요즘 SNS를 켜는 순간, 우리는 거대한 전쟁의 한복판으로 던져진다. 타임라인에는 미국과 이란이 서로를 향해 미사일을 발사하고, 전투기가 격추되며, 항공모함이 불길에 휩싸이는 장면들이 연이어 올라온다. 화면 아래에는 속보”, 실시간”, 방금 전”이라는 자막이 붙는다. 심지어 어떤 영상은 위성 화면처럼 보이고, 어떤 것은 군인 헬멧 카메라 시점으로 구성되어 있어 현장감이 극대화된다. 한순간 우리는 전쟁을 ‘목격자’처럼 체험한다.
그러나 차분히 들여다보면, 그중 상당수는 실제 상황이 아니라 생성형 인공지능으로 만들어진 합성 영상이다. 연기의 농도, 폭발의 파편, 빛의 반사, 인물의 표정, 긴박한 교신 음성까지 정교하게 계산된 결과물이다. 과거에는 합성 사진의 어색한 경계선이나 그림자 방향으로 가짜를 구분할 수 있었다. 이제는 그렇지 않다. AI는 수많은 전쟁 기록 영상과 영화, 다큐멘터리를 학습해 현실과 거의 구별되지 않는 장면을 재구성한다. 인간의 상상력과 기술이 결합해 ‘있을 법한 장면’을 너무나 자연스럽게 창조해낸다.
문제는 이 영상들이 단순한 장난이나 패러디로 소비되지 않는다는 데 있다. 불안정한 국제 정세라는 토양 위에 떨어질 때, 가짜 영상은 곧바로 ‘가능성 있는 현실’로 받아들여진다. 사람들은 이미 마음속에 축적된 뉴스 조각들을 떠올린다. 중동의 군사적 긴장, 제재와 보복, 드론 공격과 해상 충돌에 대한 단편적 기억들이 합쳐지면서 결국 터질 것이 터졌구나”라는 심리가 작동한다. 확증 편향은 이렇게 완성된다.
SNS의 알고리즘은 이러한 심리를 증폭한다. 분노와 공포, 충격은 가장 강력한 확산 연료다. 자극적인 영상일수록 빠르게 공유되고, 댓글은 더욱 과격해진다. 세계대전의 시작이다”, 이제 경제는 끝났다”, 당장 피난 준비를 해야 한다”는 식의 과장된 반응이 꼬리를 문다. 사실 확인은 그 뒤에 온다. 그러나 이미 퍼질 대로 퍼진 정보는 되돌리기 어렵다. 디지털 공간에서의 전쟁은 총성이 아니라 클릭과 공유로 확산된다.
트럼프 미국 대통령 페이스북
이런 가짜 전쟁 영상은 금융시장에도 실제 영향을 미칠 수 있다. 전쟁 우려가 커졌다는 인식만으로도 유가, 금값, 환율, 주식시장은 민감하게 반응한다. 개인 투자자들은 공포에 휩싸여 급하게 매도 버튼을 누르거나, 안전자산으로 이동한다. 나중에 영상이 조작으로 밝혀져도 이미 발생한 손실과 심리적 충격은 쉽게 회복되지 않는다. 허구의 장면이 현실의 경제를 흔드는 역설이 벌어진다.
정치적 파장도 무시할 수 없다. 특정 국가를 악마화하거나 일방적 피해자로 묘사하는 영상은 국민 감정을 자극한다. 여론이 격앙되면 정치권은 강경한 발언으로 호응하고, 이는 다시 상대국의 반발을 낳는다. 실제로는 교전이 없었음에도, 디지털 공간에서는 이미 감정의 전쟁이 시작된 셈이다. 오해와 불신은 눈덩이처럼 불어난다.
더 심각한 문제는 우리가 더 이상 ‘영상=증거’라는 공식을 신뢰할 수 없게 되었다는 점이다. 카메라에 찍혔다는 사실만으로 객관성을 부여하던 시대는 저물고 있다. 이제 영상은 언제든지 생성될 수 있고, 인물의 목소리도 합성되며, 존재하지 않는 기자회견과 가짜 성명서도 만들어진다. 눈으로 본다는 이유만으로 진실을 확신하는 태도는 위험해졌다.
그렇다고 기술 자체를 악으로 단정할 수는 없다. 생성형 AI는 교육, 예술, 산업 등 다양한 영역에서 혁신을 이끌고 있다. 문제는 사용 방식과 검증 체계의 부재다. 누군가는 조회수와 광고 수익을 위해, 또 누군가는 정치적 목적을 위해 의도적으로 가짜 영상을 제작한다. 진실과 거짓의 경계가 흐려질수록, 이익을 얻는 쪽은 언제나 자극을 설계하는 사람들이다.
우리는 어떻게 대응해야 할까. 첫째, 출처를 확인하는 습관이 필요하다. 영상이 최초로 게시된 계정은 누구인지, 공신력 있는 언론이 동일한 사건을 보도했는지 살펴보아야 한다. 둘째, 날짜와 장소를 검증해야 한다. 과거의 전쟁 장면을 현재 상황처럼 재활용하는 사례도 적지 않다. 셋째, 감정이 격해질수록 잠시 멈추어야 한다. 분노와 공포를 강하게 자극하는 콘텐츠일수록 의심이 필요하다.
플랫폼의 책임도 크다. 자극적인 콘텐츠를 우선 노출하는 알고리즘 구조는 허위 정보 확산의 통로가 된다. AI로 제작된 콘텐츠임을 표시하도록 하는 기술적·제도적 장치가 필요하다. 동시에 표현의 자유를 침해하지 않으면서 허위 정보의 피해를 최소화하는 균형 감각이 요구된다. 이는 단순한 기술 문제가 아니라 민주주의의 문제다.
교육 또한 핵심이다. 미디어 리터러시는 이제 선택이 아니라 생존 능력이다. 청소년뿐 아니라 성인에게도 정보 검증 능력을 키우는 교육이 필요하다. 보았다”는 사실과 사실이다”는 판단은 다르다는 점을 반복해 훈련해야 한다. 디지털 시대의 시민은 단순한 소비자가 아니라 정보 생태계의 일원이다. 우리가 공유하는 순간, 우리는 생산자이기도 하다.
결국 전쟁보다 더 무서운 것은 허위 정보가 만들어내는 집단적 공황일지도 모른다. 실제 폭격이 없는데도 우리는 심리적으로 전시 상태에 들어간다. 가족과 친구에게 급히 메시지를 보내고, 불안에 휩싸여 뉴스를 새로고침한다. 그러나 그 출발점이 조작된 영상 하나였다면, 우리는 거짓에 의해 감정을 동원당한 셈이다.
지금 우리에게 필요한 것은 더 빠른 손놀림이 아니라 더 깊은 호흡이다. 즉각적인 공유 대신 잠시 멈추는 용기, 화면 속 불길 앞에서 정말인가”를 묻는 질문. 진실은 속도가 아니라 검증을 통해 드러난다. 디지털 시대의 시민적 책임은 거창한 것이 아니다. 클릭 한 번을 늦추는 것, 그것이 허위 전쟁을 막는 첫걸음일지 모른다.