검색   로그인   회원가입   초대장  
페이지투미   페이지투미 플러스
페이지투미 홈   서비스 소개   아카이브   이야기   이용 안내
페이지투미는 사회혁신 분야의 새로운 정보를 모아 일주일에 3번, 메일로 발송해드립니다.

link 세부 정보

정보 바로가기 : 전쟁에 AI 이용 멈추게 할 국제조약 서둘러야

전쟁에 AI 이용 멈추게 할 국제조약 서둘러야
[카테고리 설정이 아직되어 있지 않습니다.]
엔트로픽의 다리오 아모데이 최고경영자(CEO), TechCrunch Disrupt 2023https://commons.wikimedia.org/wiki/File:Dario_Amodei_at_TechCrunch_Disrupt_2023_01.jpg , Creative Commons Attribution 2.0 Generic license 2026년 3월 9일 미국의 인공지능(AI) 회사인 앤트로픽(Anthropic) 은 트럼프 행정부를 상대로 연방법원에 소송을 제기하였다. 얼마 전인 2월 27일 피트 헤그세스 미 국방부 장관이 이 회사의 AI인 클로드(Claude) 를 연방기관에서 전면 금지한 조치가 보복성 제재로서 수정헌법 제 1조에서 구체적으로 언급한 표현의 자유 를 위반한 것이라고 주장하면서였다. 미 법원이 최종적으로 어떤 판결을 내릴지 주목된다. 과연, 대규모 감시나 인간의 개입 없는 완전자율살상 무기에 AI가 사용되는 것을 금하는 회사의 안전 수칙을 고수하면서도 국방부에서 사용될수 있을 것인지에 대한 질문을 던지게 된다. 회사 운영에 필요한 예산의 상당 부분을 정부에 의존하는 특성 때문에 이 일은 미국의 일만이 아니다.   앤트로픽의 클로드 어플리케이션. 연합뉴스 자료사진  반면, 오픈AI 는 미 국방부의 요구에 협상하겠다고 하였다. 2015년에 열린 소스(Open source) 를 지향하는 비영리 기관으로 출발한 회사의 태도라고 할 수 없다. 구글도 같은 태도를 표명하였다. 이 문제와 관련하여, 2026년 3월 10일자 네이처 잡지는 편집자란(Editorial) 에 법으로 합의하기 전에는 AI의 전쟁 이용을 멈추라(Stop AI use in war until laws are agreed) 는 제목의 짧은 글이 실렸다. 이는 100여명의 오픈AI 연구자들과 900여명의 구글 연구자들이 앞선 미 국방부의 요구를 거절하도록 자사의 경영진에게 요청한 일과 관련된 것이다. 이 성명서 참여자들은 자기 회사의 AI가 미국 전쟁부(국방부)의 요구, 즉 대량 감시와 자율 살상에 사용되는 것을 거부하기를 희망한다고 하였다. 이러한 주장을 위해 우리는 분열하지 않을 것이다(We will not be divided) 라는 제목의 서신을 인터넷에 공개하고 있으며, 1030명에 이르는 서명자의 명단을 실명 또는 비실명의 형식으로 성명서 뒷부분에 기입하였다. 그리고, 보다 많은 이들이 이 서명에 참여하기를 요청하고 있다.   미국방부. 로이터 자료사진 연합뉴스 모든 미국 AI 기업이 함께 저항하면 미국 정부의 이런 요구를 무력화시킬 수 있다는 것이다. 이에 호응하여 오픈AI의 로보틱스를 이끄는 케이틀린 칼리노우스키(Caitlin Kalinowski)는 회사를 그만 두며 다음과 같은 말을 남겼다. AI는 국가 안보에서 중요한 역할을 하고 있다. 그러나, 사법적 허락 없이 미국인을 감시하거나 인간의 승인 없이 치명적 자율성을 갖도록 하는 일은 현재 이루어진 것보다 더욱 깊은 숙고가 필요하다. 이러한 움직임은 최근 극소수의 하이퍼스케일러(hyperscaler, 대규모 데이터센터와클라우드 인프라를 운영하며 막대한 컴퓨팅 자원을 제공하는 기업) 소유주들이 더 많은 부와 권력을 얻기 위해 AI를 독점하고 있다는 버니 샌더스 미 상원의원의 최근 경고를 양심적으로 따르는 것이 아닐까 한다. 기술적 측면에서는, 현재 최고의 AI조차 능력이 부정확하여 어떻게 안전 수칙을 구현할 수 있을지도 불분명하다. 그런데도 2024년 오픈AI는 군사적 무기에 사용되어서는 안된다는 자체 규약을 폐기하였다. 2026년 2월 구글도 뒤따랐다. 또 엔트로픽의 최고경영자(CEO)인 다리오 아모데이(Dario Amodei)는 독재국가에 대한 군사적 우위를 위해서 AI를 사용할 수 있다고 암시하였다. 국방성의 요청에 응하겠다는 뜻인가? AI의 안전성, 정직성, 신뢰성 이라는 일면 진보적 가치를 표방하며 오픈AI에서 독립한 이 회사가 지금 갈림길에 서 있는 것처럼 보인다.   버니 샌더스 미국 상원의원이 2023년 루이스 이나시오 룰라 다 시우바 브라질 대통령과 회동하며 손을 맞잡고 있다.  www. metropoles.com 발췌 이러한 문제는 AI의 안전성에 대한 국제조약이 시급히 필요함을 일깨운다. 2023년 5월 일본 히로시마에서 열린 선진 7개국(G7) 정상회의에서 채택된 히로시마 AI 프로세스”는 안전하고 투명한 AI 구축을 목표로 11개의 국제지침을 채택했으나 법적 구속력이 없어 실질적 규제의 역할을 못하고 있다. 따라서  핵확산 금지 조약(NPT) 이나 생물무기 금지협약(BWC) 처럼 과학자들이 나서서 조약으로 만들어야 한다는 것이다. 이를 위해서 독립적인 UN 국제과학패널에서 자율적으로 작동하는 AI 무기 가 무엇인지 구체적으로 규정해야 한다. 그런데 이를 가로 막는 건 다름 아닌 중국, 이스라엘, 그리고 미국이라고 편집자는 주장한다. 미국과 중국은 서로 상대방을 핑계로 책임을 회피해서는 안 된다는 뜻이다. 그리고 이 조약이 최종적으로 비준되기 전까지는 각 AI 기업의 연구자들은 자사의 AI가 전쟁에 이용되는 위험에 지속적으로 반대 의견을 표명해야 한다는 것이다. 국제적 해결이 느리다고 해서 아무런 행동도 취하지 않는 것이 정당화되지 않는다고 편집자는 강조한다. 튜링상 수상자이며 AI 분야에서 최다 논문 피인용 학자인 캐나다의 요수아 벤지오(Yoshua Bengio) 교수는 이러한 현실을 어느 인터뷰에서 AI에 대한 규제는 샌드위치에 대한 것보다 못하다”고 말한 적이 있다.   요수아 벤지오 교수. 2025, Singaporehttps://commons.wikimedia.org/wiki/File:ICLR_2025_-_Yoshua_Bengio_02.jpgCreative Commons Attribution-Share Alike 4.0 International license. 많은 이들이 AI 발전이 기후위기를 해결하는 데 중요한 역할을 할 수 있다는 기대를 한다. 그런데 4년째에 들어선 러시아-우크라이나 전쟁에서 양측은 AI 기반의 표적 인식 및 분석, 안면 인식, 자율살상 드론 등을 활용하고 있다. 이외에도 보다 많은 전쟁 이용 사례를 인터넷에서 쉽게 찾을 수 있다. 격화되고 있는 전쟁을 겪으면서 AI가 보다 효과적으로 전쟁을 수행하는 데 사용되어 우리의 기대와 정반대 방향으로 발전하면 그것은 대체 누구를 위한 것이 될까? 다시 한번 샌더스 의원의 지적을 상기하지 않을수 없다. 남북 대결 상태에 있는 우리의 AI 업계에도 중요한 숙제를 던진다. 2026년 3월 13일 과학기술정보통신부는 안전하고 신뢰할수 있는 인공지능 구현을 위한 전문가 자문단을 발족했다. 이후 오는 6월까지 윤리원칙을 제정할 계획이라 한다. 샌더스 의원의 지적처럼, 정부는 무엇보다도 투명하고 민주적인 주체로 하여금 AI 윤리와 안전 정책을 수행하도록 지원하기 바란다.  참고문헌 1. 네이처 편집자란 https://www.nature.com/articles/d41586-026-00762-y 2. 서명 연구자 명단이 궁금하면 https://notdivided.org/


최근 3주간 링크를 확인한 사용자 수

검색 키워드


주소 : (12096) 경기도 남양주시 순화궁로 418 현대그리너리캠퍼스 B-02-19호
전화: +82-70-8692-0392
Email: help@treeple.net

© 2016~2026. TreepleN Co.,Ltd. All Right Reserved. / System Updated

회사소개 / 서비스소개 / 문의하기 / 이용약관 / 개인정보취급방침
Top