메뉴 검색
‘진짜 같은 가짜’ 딥페이크, 방패 기술과의 경쟁 시작 AI 딥페이크 영상 피해 급증… 방지 기술 시장 10조 원 전망 장은숙 2026-01-23 09:42:55


▲ 사진=KBS뉴스영상캡쳐

지난해 말 프랑스 파리에서 쿠데타가 발생했다는 내용의 영상이 공개됐다. 영상에는 신원이 밝혀지지 않은 대령이 쿠데타를 주도하고, 에마뉘엘 마크롱 대통령의 몰락 가능성이 언급되기도 했다. 또 불법 도박 앱 홍보에 유명 아이돌 멤버가 등장하기도 했다.


그러나 모두 인공지능(AI)이 만든 딥페이크 영상이었다. AI 기본법상 SNS를 활용하는 크리에이터들은 해당 영상이 AI로 제작됐음을 알릴 의무가 없다.


최근 딥페이크 피해는 1년 사이 3배 이상 급증했다. 정부 조사 결과, 응답자 40%는 가짜 뉴스를 판별하지 못한다고 답했다.


딥페이크 방지를 위한 기술도 발전하고 있다. 사진을 조작하려 하면 순간 형체가 일그러져 알아보기 어렵게 된다. 안면 인식을 통한 신분 인증 역시 편리하지만, 해킹 가능성을 막기 위해 카메라 앞에서 촬영하자마자 얼굴이 모자이크 처리되는 방식이 적용된다. 이는 딥페이크 악용 가능성을 원천적으로 차단하는 방패 기술이다.


‘진짜 같은 가짜’가 활개 치면서, 이를 막기 위한 방패 기술도 빠르게 확산되고 있다. 업계에서는 AI 기술 발전에 따라 10년 뒤 딥페이크 방지 시장 규모가 10조 원을 넘어설 것으로 전망한다.

주소를 선택 후 복사하여 사용하세요.

뒤로가기 새로고침 홈으로가기 링크복사 앞으로가기