AI가 만든 허위정보, AI로 막는다[테크트렌드]

허위정보 확산에 따라 각국 규제 강화…AI 허위정보 방지기술 개발도


얼마 전 세계적인 미국의 싱어송라이터인 테일러 스위프트를 합성한 이미지가 소셜미디어인 엑스(X)에서 유포되면서 전 세계적으로 큰 논란이 됐다. 이 가짜 이미지는 스위프트의 얼굴을 인공지능(AI) 기술을 이용해 성적으로 음란한 다른 사진과 합성해 만든 것이다.

해당 사진은 엑스에 17시간 동안 남으면서 4500만 회 이상의 조회수와 2만4000회 재게재 수를 기록했다. 이 사진이 삭제된 것은 스위프트의 팬덤인 ‘스위프티(Swifties)’가 엑스에 트윗을 보내 이미지 검색을 방해하고 문제의 게시물을 삭제하도록 했기 때문이다.

스위프트의 합성 이미지는 오픈AI에서 개발한 이미지 생성 AI인 달리2(DALL-E2)를 활용한 이미지 편집 앱인 마이크로소프트 디자이너(Microsoft Designer)를 사용하여 제작됐다. AI로 생성된 가짜뉴스와 딥페이크(deep fake) 같은 허위정보(disinformation) 문제가 또다시 수면 위로 올라오고 있는 중이다. 생성형 AI가 촉발하는 허위정보 논쟁 가열합성 미디어 기술을 이용해 제작된 가짜 사진과 영상이 유포되는 것은 흔한 일이다. 생성형 AI의 등장으로 일반인도 가짜 이미지와 영상을 쉽게 만들 수 있게 됐다. 생성형 AI로 인해 낮아진 진입장벽으로 누구나 쉽고 빠르고 저비용으로 허위 정보를 생산하고 배포할 수 있게 된 셈이다.

생성형 AI는 생산성과 효율성 면에서 많은 이점이 있지만 그에 못지않은 심각한 부작용을 양산한다. 특히 생성형 AI가 만든 콘텐츠는 진위 여부를 판명하기 거의 불가능하기 때문에 그 파급효과가 매우 크다. 최근 일어난 미국 국방부 청사 근처 건물 대형 폭발 사건이나 기시다 후미오 일본 총리의 외설적인 발언 가짜 영상 등이 대표적이다. 기존 법에 더해 플랫폼 사업자 책임 강화 등 추가 규제 도입 미국은 허위정보 생성이나 배포를 금지하는 연방 차원의 법률이 없다. 미국 연방대법원이 수정헌법 제1조에 의해 허위표현 자체만으로 처벌 및 규제를 하는 것은 표현의 자유를 위축시키는 것이라 허용될 수 없다는 입장이기 때문이다. 다만 미국의 9개 주에서는 주 차원에서 이를 법률로써 금지하고 있다.

유럽연합(EU)은 ‘디지털 서비스법(DSA)’을 제정하고 올 2월 중순 시행했다. 이 법은 온라인 플랫폼에 대한 유해 콘텐츠 검열 의무를 규정한 매우 강력한 법이다. 위반 시 매출의 최대 6% 과징금 부과와 최악의 경우 EU 가입국에서 퇴출되는 등 엄격하다. 다만 프랑스, 독일, 리투아니아, 헝가리 등은 개별 국가 차원에서 별도의 법을 가지고 있다.

한국의 허위정보 법은 이미 기존 법안에서 처리 가능하다. 형법, 정보통신망법상 모욕이나 명예훼손죄, 민법상 손해배상 책임으로 처벌 가능하며 공직선거 관련 허위정보는 공직선거법상 허위사실공표죄 등으로 처벌 가능하다. 다만 선거법 예측 보도 등 일부 기존 법 적용이 어려운 것은 법제화가 진행 중이다.

허위정보에 대한 접근법은 국가마다 차이가 있고 표현의 자유 침해 논란 등으로 새로운 법 제정보다는 기존 관련 법 안에서 규제하려는 상황이다. 하지만 최근 생성형 AI를 활용한 딥페이크가 확산되면서 기존 법으로는 적용하기 어려운 문제가 발생하면서 추가적인 법제화 필요성이 제기되고 있다. 이에 따라 각국 규제기관과 관련 기업들의 움직임이 빨라지고 있으며, 특히 허위정보를 유포한 플랫폼 사업자에 대한 책임이 강화되고 있는 추세다.

예를 들어 미국에서는 온라인 플랫폼에 이용자가 생성한 콘텐츠에 대한 책임을 면제한 통신 품위법(Communications Decency Act) 230조의 개정 요구가 발생했다. 이에 따라 미국 상원은 2023년 6월 생성형 AI가 만든 콘텐츠에 대해 사업자가 법적 책임을 지도록 하는 법안인 AI 면책 조항 금지법안을 발의한 바 있다.

올 1월에는 미국 상원의원들에 의해 AI가 생성한 딥페이크 이미지를 방지하는 ‘명시적 위조 이미지 및 미합의 편집 금지법(DEFIANCE Law)’이 제안되었다. 이 법안은 디지털 위조나 누드 또는 성적으로 노골적인 상황을 묘사한 사진의 피해자를 보호하고 보상을 제공하기 위한 목적으로 발의되었다. 이 법안이 시행되면 배포할 목적으로 위조한 자료를 제작하거나 소유한 개인 또는 심지어 해당 자료를 받은 사람들까지도 민사처벌을 받게 된다.

한편 이러한 규제 강화 움직임과는 별개로 빅테크 기업들은 이용자 보호와 기업 리스크 최소화를 위해 허위정보 방지 기술 개발에 박차를 가하고 있다. 허위정보 방지 기술: 워터마크에서 나이트 셰이드까지대표적인 허위정보 방지 기술로는 워터마크(watermark)가 있다. 워터마크는 이미지, 음성, 텍스트와 같은 데이터에 눈에 보이거나 보이지 않는 방식으로 정보를 삽입하는 기술이다.

대표적으로 메타의 이매진드 위드 AI(Imagined with AI)가 있다. 이는 메타가 자체 AI를 사용해 만든 이미지에 AI 생성물임을 나타내는 표식이다. 메타는 여기에 더 나아가 구글, 오픈AI, 마이크로소프트, 미드저니 등의 도구를 사용해 만든 AI 생성 사진에도 동일한 표식을 부착할 예정이다. 구글도 선거방송 광고 시 AI 사용 여부 표시를 의무화하는 신스아이디(Synth ID)를 2023년 개발해 공개한 바 있다.

챗GPT를 개발한 오픈AI는 올 1월 자사 제품이 허위정보에 사용되는 것을 방지하기 위한 새로운 기술을 발표했다. 이 기술은 달리3(Dall-E 3)로 생성된 이미지를 출처 정보와 함께 인코딩하는 접근방식을 구현한다. 이를 통해 특히 선거 유권자들이 인터넷에서 보는 이미지가 AI로 제작됐는지 여부를 식별할 수 있게 도와준다.

두 번째는 딥페이크를 판별하는 탐지기술이다. 인텔(Intel)은 세계 최초로 가짜 동영상을 96%의 정확도로 판별하는 실시간 딥페이크 탐지기 페이크 캐처(Fake Catcher)를 개발했다. 구글도 신뢰할 만한 매체 15만 곳의 데이터를 토대로 검증하는 가짜점검탐색기(Fake Check Explorer)를 내놓았다. AI가 만든 사진인지 아닌지를 판별해서 알려주는 옵틱의 에이아이오낫(aiornot)나 1000자 텍스트에 대해 AI가 작성했을 가능성을 5단계로 구분하여 알려주는 오픈AI의 AI 텍스트분류기(AI Text Classifier)도 있다.

세 번째는 가짜로 생성한 이미지를 사전에 오염시키는 기술이다. 최근 미국 시카고대 연구진은 창작자의 동의 없이 창작물을 활용하거나 모델 학습에 사용되는 것을 방지하기 위해 나이트 셰이드(Night Shade)라는 기술을 출시하였다. 이 기술은 이미지에 오염된 학습 데이터를 주입하는 기술로 이미지 데이터를 중독시켜 AI 모델 학습을 쓸모없게 하거나 방해한다.

마지막으로, 사전에 편견을 줄 수 있는 내용을 선제적으로 방지하는 기술도 있다. 디즈니는 AI 기반의 검토용 시스템인 지디아이큐(GD-IQ: Spellcheck for Bias)를 활용해 애니메이션에 인종과 성별 및 장애인에 대한 편견을 줄 수 있는 내용을 삭제하는 기술을 개발했다.정부와 기업 간 자율규제 강화 협력과 허위정보 방지기술 개발 필요올해 세계 76개국에서 선거가 치러진다. 우리나라에서는 4월 제22대 국회의원선거가, 11월에는 미국 대선이 예정돼 있다. 이러한 선거철에 등장하는 이슈가 가짜뉴스와 조작된 이미지인 딥페이크다. 이들 모두 의도적인 행위에서 비롯됐다는 점에서 허위정보다.

이러한 허위정보는 민주주의의 근간을 흔들고 국가안보에 위협을 준다는 측면에서 매우 심각한 문제다. 개인의 정보보호나 프라이버시 차원에서도 묵과할 수 없는 중대한 개인권 침해 등 사회문제를 야기한다. 그 어느 때보다 정부와 적극적 협업을 통한 기업 차원의 자율규제 강화와 허위정보 방지기술 개발이 필요한 이유다.

심용운 SK경영경제연구소 수석연구원
상단 바로가기