선거 앞 혐오 댓글 창궐…네이버 클린봇 더 강력해져야 [카테고리 설정이 아직되어 있지 않습니다.] 클린봇 은 네이버가 지정한 욕설 키워드가 있는 악플을 가리기만 할 뿐이었고 이용자에 대한 제재는 거의 이루어지지 않았다.
국내 최대 포털 네이버가 뉴스 댓글 창의 악성 댓글을 걸러내는 기술을 한 단계 높였다. 지난 4월 29일 발표된 네이버의 인공지능(AI) 클린봇 3.0 업그레이드는 기사의 맥락을 파악해 2차 가해와 비인륜적 댓글을 차단하겠다는 내용을 골자로 한다. 특히 사건·사고 기사 본문을 AI가 직접 읽고, 그 상황에 부합하지 않는 조롱이나 비하를 잡아내겠다고 표방한 것은 분명 주목할 만하다.
또 악성 댓글이 늘어나는 조짐이 보이면 아예 해당 기사의 댓글 창을 닫는 선제적인 조치도 이번 업그레이드에 포함됐다.
하지만 인터넷 이용자들의 뿌리깊은 불신을 걷어낼 수 있을지는 의문이다. 우리는 이미 고도화된 AI 기술로 혐오를 근절하겠다 는 네이버의 약속을 여러 차례 들어왔기 때문이다.
2019년, 네이버는 클린봇 시스템을 처음 도입했다.
과거를 돌아보자. 2019년 네이버가 클린봇을 전체 뉴스에 확대 적용했을 당시를 기억하는가. 당시에도 네이버는 20만 개의 욕설 데이터베이스(DB)를 바탕으로 사람처럼 혐오 표현을 인지한다 고 장담했다.
그러나 결과는 처참했다. ㅈㄴ 같은 단순 초성 욕설은 걸러냈지만, 특정 국가의 국민을 비하하는 짱깨 나 기혼 여성을 멸시하는 맘충 같은 명백한 혐오 표현은 클린봇의 눈을 비웃듯 버젓이 노출되었다. 불법 촬영물 피해자를 향한 2차 가해성 댓글 역시 욕설이 없다 는 이유로 방치되곤 했다.
당시 네이버의 태도는 기술적 한계 뒤에 숨은 방조 에 가까웠다. 혐오가 곧 트래픽이 되고, 트래픽이 곧 광고 수익이 되는 포털의 구조적 한계가 표현의 자유 라는 방패 뒤에서 작동하고 있었던 것이다.
포털 네이버에 따라 붙은 그린 일베 라는 별칭은 결코 가볍지 않다. 이는 네이버의 상징색인 초록색과 극단적 혐오 사이트의 정체성을 결합시킨 것이었다. 여론을 표출하는 네이버 댓글 창이 특정 집단에 대한 증오를 배설하는 하수구로 전락하는 동안, 네이버는 자율 규제 라는 모호한 원칙만을 되풀이해 왔다.
정치적 갈등, 젠더 혐오, 사회적 약자에 대한 비하가 댓글 창을 점령할 때마다 네이버는 시스템을 개선하겠다고 말했지만, 실제 이용자들이 체감하는 정화 효과는 미미했다. 2019년의 실패는 네이버가 혐오의 맥락 과 사회적 감수성 을 읽으려는 의지가 부족했음을 증명하는 뼈아픈 기록으로 남아 있다.
네이버는 2023년에도 악플을 방지한다며 클린봇 기능을 업데이트하였다.
이런 뜻에서 이번 AI 클린봇 3.0 업데이트는 기술의 고도화보다 의지의 증명 이 우선되어야 한다. 이번 발표에서 핵심으로 꼽힌 기사 본문 대조 분석 기능은 이론적으로 매우 강력하다. 안타까운 사고 소식에 따라 붙는 잘 죽었다 거나 꼴좋다 처럼, 욕설 없는 조롱을 AI가 문맥상 악플로 판독하겠다는 취지다. 이는 그동안 비권력자, 소수자, 피해자들이 요구해 온 맥락적 규제 에 한 걸음 다가선 모습이다.
그런데 클린봇 3.0이 실행된 지 한참 지난 4일에도 조작기소 특검법과 관련한 기사의 댓글 창에는 아래처럼 적나라한 혐오 표현이 걸러지지 않고 있다. 악성 댓글로 고통을 받아온 세월호 유족들은 12주기를 앞두고도 여전히 악성 댓글에 시달렸다.
클린봇 3.0 이 실행된 지 한참 지난 시점에도 여전히 악성 댓글이 사라지지 않은 네이버 댓글 창
악성 댓글로 고통을 받아온 세월호 유족들은 12주기를 앞두고도 여전히 악성 댓글에 시달렸다.
기술은 언제나 우회로를 찾기 마련이다. 신조어를 섞거나 비유를 활용한 교묘한 혐오 표현은 끊임없이 생성된다. 결국 기술이 완벽할 수 없다면, 그 빈틈을 메우는 것은 플랫폼 운영사의 강력한 징계 정책뿐이다.
이제 네이버는 시스템 뒤에 숨는 비겁함 을 버려야 한다. AI가 걸러내지 못한 혐오 표현에 대한 신고가 접수되었을 때, 이를 판단하는 기준에 소수자 차별 금지 와 인권 보호 라는 명확한 가치가 박혀 있어야 한다. 단순히 욕설 유무를 따지는 것이 아니라, 해당 게시물이 타인의 존엄성을 훼손하는지를 판단하는 적극적인 모니터링 체계가 병행되어야 한다.
또한, 반복적으로 혐오를 생산하는 이용자에 대해서는 아이디 차단을 넘어선 영구 퇴출과 필요시 수사 기관 협조를 통한 법적 책임을 묻는 무관용 원칙 이 실행되어야 한다.
기업의 사회적 책임은 기술 개발에서 끝나는 것이 아니라, 그 기술이 실패했을 때 기업이 어떤 태도를 취하느냐로 결정된다. 네이버에게 이번 업데이트는 그린 일베 라는 꼬리표를 뗄 수 있는 마지막 기회다. 더 이상 기술적 한계를 핑계로 혐오를 수익의 재료로 삼는다는 의심을 사서는 안 된다.
플랫폼의 영향력은 그 공간을 이용하는 이들의 안전과 비례해야 한다. 혐오 표현을 방치하는 것은 곧 잠재적 범죄를 묵인하는 것과 다름없다. 특히 지방선거처럼 정치적으로 민감한 시기를 앞두고 댓글 창이 증오의 전장이 된다면 네이버의 공적 플랫폼 으로서 위상은 위협받게 될 것이다.
결론적으로, 우리는 네이버가 알고리즘의 고도화 가 아닌 상식의 고도화 를 드러내길 기다린다. AI가 아무리 기사를 잘 읽는다 해도, 운영 주체인 기업의 철학이 부재하다면 클린봇 3.0 역시 지난 버전들과 마찬가지로 실패한 실험이 될 것이다.
혐오는 결코 기술만으로 멈출 수 없다. 혐오를 생산하는 대가보다 이를 차단함으로써 얻는 사회적 가치가 더 크다는 것을 네이버 스스로 행동으로 증명해야 한다. 이번에도 말뿐인 조치로 끝난다면, 네이버의 초록색 로고는 긍정적인 의미가 아니라 방치와 오염 의 상징으로 기억될 것이다.
이번에는 반드시 제대로 인터넷 혐오의 사슬을 끊어내야 한다. 네이버는 기억하라. 플랫폼의 진정한 파워는 트래픽이 아니라 신뢰에서 나온다는 사실을,