과목명: 컴퓨터공학 종합설계 (202502-CSE4205-004)
팀명: 현우진
학번: 12223690
이름: 강유진
담당: 프론트엔드 개발 및 UI/UX 디자인
최근 생성형 AI 기술의 급격한 발전으로 누구나 쉽게 사실적인 가짜 이미지를 생성할 수 있게 되었다. Stable Diffusion, Midjourney 같은 이미지 생성 모델은 몇 장의 샘플 이미지만으로 특정 인물의 얼굴을 학습하고, 실제로는 존재하지 않는 장면을 만들어낼 수 있다.
2024년 트럼프 대통령 피격 사건 당시 경호원들의 표정이 조작된 이미지가 확산되며 "사건은 자작극"이라는 가짜 뉴스가 퍼졌고, 국내에서도 연예인 및 일반인의 얼굴이 합성된 딥페이크 성착취물이 사회적 문제가 되고 있다. 특히 이러한 피해는 일단 이미지가 유포된 후에는 완전히 삭제하거나 확산을 막기 어렵다는 특징이 있어, 피해자에게 지속적인 정신적 고통을 준다.
현재 딥페이크 대응은 크게 두 가지 방향으로 이뤄지고 있다.
사후 탐지 방식
가짜 이미지를 판별하는 AI 모델(예: Microsoft의 Video Authenticator)을 개발하는 접근이다. 그러나 생성 모델이 계속 발전하면서 탐지 모델을 우회하는 사례가 증가하고 있으며, 이미 유포된 후에 탐지하는 것은 피해 방지에 한계가 있다. 또한 탐지 모델과 생성 모델 간의 군비 경쟁이 반복되면서 근본적인 해결책이 되지 못하고 있다.
법적 규제
성폭력처벌법 개정으로 딥페이크 제작 및 유포가 처벌 대상이 되었지만, 익명성이 보장되는 온라인 환경에서 범인 검거가 어렵고, 피해자는 이미 심각한 정신적 피해를 입은 후다. 법적 처벌은 사후 대응일 뿐, 피해 자체를 예방하지는 못한다.
피해가 발생한 후 대응하는 것보다, 이미지 자체를 AI가 학습하거나 변조하지 못하도록 사전에 보호하는 선제적 접근이 필요하다. 이를 위해 Adversarial Perturbation 기술을 활용한 이미지 보호 연구가 진행되고 있으나, 대부분 CLI 기반 도구로 제공되어 일반 사용자의 접근이 어렵다. 본 프로젝트는 이러한 선제적 방어 기술을 일반 사용자도 쉽게 사용할 수 있는 웹 인터페이스로 제공하는 것을 목표로 한다.