선거 악용목적 딥페이크 영상, AI 탐지 모델로 3초면 잡는다

2026-03-10 19:43   사회

 AI 탐지 모델이 딥페이크 영상을 99.9% 확률로 허위 영상으로 판정한 결과 화면. (사진 제공: 행정안전부)

정부가 선거용 딥페이크 영상 조작 범죄를 적발하기 위한 인공지능(AI)을 활용한 탐지 모델을 도입합니다.

행정안전부는 오늘(10일) "국립과학수사연구원과 함께 개발한 ‘AI 딥페이크 탐지 모델’을 오는 6월 제9회 전국동시지방선거에 적용한다"고 밝혔습니다.

이 모델은 △전역 분석(영상 전체 흐름 분석) △국소 분석(얼굴 등 특정 부위 조작 흔적 판별)을 동시에 진행합니다. 약 92% 수준의 탐지 정확도를 지녔습니다.

딥페이크 영상을 검증 모델에 올리면 약 3초 만에 검증 결과가 나옵니다. 딥페이크 영상으로 분류되면‘FAKE’ 글자와 함께 어느 정도의 확률로 가짜 영상으로 판단했는지 수치도 보여줍니다.

행안부 관계자는 “해당 모델을 선거관리위원회에 제공해 지방선거 모니터링 요원들이 가짜 영상을 처리하는 데 활용할 예정”이라고 설명했습니다.

현행 선거법은 선거 90일 전부터 선거일까지 AI 기술로 만든 딥페이크 영상·음향을 이용한 선거운동을 전면 금지하고 있습니다. 위반 시 7년 이하 징역이나 1000만~5000만 원 이하의 벌금에 처할 수 있습니다. AI 기술로 제작된 영상은 가상 정보인 걸 명확히 표기해야 합니다.

행안부는 성평등가족부, 경찰청 등 관계부처와 협력해 탐지 모델 활용 범위를 단계적으로 넓혀나갈 계획입니다.


김승희 기자 sooni@ichannela.com