[지식재산권 산책]
올해 초 미국의 팝스타인 테일러 스위프트의 음란물이 소셜네트워크서비스(SNS)를 통해 퍼져나갔다. 그 조회수는 삽시간에 수천만에 이르렀다. 이는 가수의 얼굴을 딥페이크 기술로 합성한 것이었다. 이 사건은 또다시 전 세계적으로 인공지능(AI) 기술에 대한 경계심을 높이는 계기가 됐다.
한국의 경우 2020년 ‘성폭력범죄의 처벌 등에 관한 특례법’ 개정을 통해 사람의 얼굴이나 신체 또는 음성을 합성한 음란물을 반포 목적으로 만든 자를 처벌하고 있다. 이 같은 음란물을 반포한 자, 그리고 영리 목적으로 인터넷 등을 이용해 음란물을 반포한 자 역시 처벌 대상이다. 또 상습범에 대해선 가중 처벌도 하고 있다.
따라서 딥페이크 기술을 이용해 반포 목적으로 음란물을 작성하거나 반포할 경우 형사 처벌을 할 수 있다. 그러나 최근에는 허위의 딥페이크 음란물을 소지 및 구입, 또는 시청만 해도 처벌하거나 반포 목적과 관계없이 처벌이 가능하도록 법률을 개정하여야 한다는 움직임이 있다.
음란물로 인한 폐해가 가장 크기는 하지만 그다음으로 딥페이크의 남용이 우려되고 있는 부분이 가짜뉴스다.
이에 한국의 공직선거법은 선거일 전 90일부터 선거일까지 선거운동을 위해 AI 기술 등을 이용해 만든 실제와 구분이 어려운 딥페이크 음성이나 영상 등을 제작·편집·유포·상영 또는 게시하면 안 된다.
선거 기간이 아니더라도 선거운동을 위해 딥페이크 영상 등을 게시하는 경우도 해당 정보가 AI 기술 등을 이용해 만든 가상의 정보라는 사실을 명확하게 인식할 수 있도록 해야 한다.
예를 들어 ‘이 영상은 실제가 아닌 AI 기술 등을 이용해 만든 가상의 정보입니다’와 같은 표시를 딥페이크 영상에 함께 명시하도록 정하고 있다. 작년에 통과된 개정 사항에 따라서 올해 있었던 총선부터 이 같은 규정이 적용됐다.
홍콩에서는 금융회사 직원이 화상회의를 했는데 그 화상회의의 상대방이 사실은 진짜 최고재무책임자가 아니라 딥페이크로 만들어진 가짜 영상이었음이 드러났다. 자신이 진짜 최고재무책임자와 이야기하고 있다고 착각한 직원은 결국 수백억원을 송금했다.
사실 해당 직원은 사기꾼 일당이 최고재무책임자로 가장해 보낸 메일을 받았었고, 사기를 의심한 직원이 화상회의를 요구했는데 화상회의 자체도 가짜였다. 이렇게 딥페이크로 인한 금전 손해 사례도 발생하고 있다.
최근 우리나라에서는 일반인을 대상으로 한 딥페이크 성 착취물이 다량 유포돼 큰 충격을 안겨줬고 해외에서도 이 문제를 비중 있게 다루고 있다.
딥페이크의 희생자는 이제 유명 연예인들을 넘어서 일반인으로 범위가 확대되고 있다. 일본의 경우 일본에서 확인된 딥페이크는 전년 대비 27배가 증가했다고 한다. 딥페이크 영상물 등의 양도 엄청난 속도로 늘어나고 있다.
이에 그 결과물이 음란물이나 가짜뉴스 유포와 같은 범죄에 해당하는지 여부와 관계없이 당사자의 동의 없이는 딥페이크 영상 등의 제작을 금지해야 하는지 여부까지도 그 논의가 이어지고 있다.
우리나라 부정경쟁방지법은 타인의 초상 및 음성 등을 공정한 상거래 관행이나 경쟁 질서에 반하는 방법으로 자신의 영업을 위해 무단으로 사용함으로써 타인의 경제적 이익을 침해하는 행위를 금지하고 있다.
하지만 이는 그야말로 상업적 이용을 전제하는 것이다. 물론 초상권의 이용 형태에 따라서 명예훼손 등이 성립하는 경우에는 민법 혹은 형법상으로 문제로 삼을 수도 있다. 그러나 타인의 딥페이크 영상 작성 등을 무조건 금지하고 있는 법률은 우리나라에도 외국에도 존재하지 않는 것으로 보인다.
분명히 딥페이크 기술은 그 이름이 나타내는 바와 같이 악용될 소지가 큰 AI 기술이다. 그러나 타인의 동의를 전제로 할 때만 딥페이크 기술 사용이 가능하다면 이는 딥페이크 기술을 사장하는 것과 다름없다. 지금은 문제가 발생할 소지가 있는 분야를 찾아내 그 부분을 규제하고 딥페이크인지 실제인지를 구별할 수 있는 기술을 발굴해야 할 때다.
김윤희 법무법인(유) 세종 변호사
올해 초 미국의 팝스타인 테일러 스위프트의 음란물이 소셜네트워크서비스(SNS)를 통해 퍼져나갔다. 그 조회수는 삽시간에 수천만에 이르렀다. 이는 가수의 얼굴을 딥페이크 기술로 합성한 것이었다. 이 사건은 또다시 전 세계적으로 인공지능(AI) 기술에 대한 경계심을 높이는 계기가 됐다.
한국의 경우 2020년 ‘성폭력범죄의 처벌 등에 관한 특례법’ 개정을 통해 사람의 얼굴이나 신체 또는 음성을 합성한 음란물을 반포 목적으로 만든 자를 처벌하고 있다. 이 같은 음란물을 반포한 자, 그리고 영리 목적으로 인터넷 등을 이용해 음란물을 반포한 자 역시 처벌 대상이다. 또 상습범에 대해선 가중 처벌도 하고 있다.
따라서 딥페이크 기술을 이용해 반포 목적으로 음란물을 작성하거나 반포할 경우 형사 처벌을 할 수 있다. 그러나 최근에는 허위의 딥페이크 음란물을 소지 및 구입, 또는 시청만 해도 처벌하거나 반포 목적과 관계없이 처벌이 가능하도록 법률을 개정하여야 한다는 움직임이 있다.
음란물로 인한 폐해가 가장 크기는 하지만 그다음으로 딥페이크의 남용이 우려되고 있는 부분이 가짜뉴스다.
이에 한국의 공직선거법은 선거일 전 90일부터 선거일까지 선거운동을 위해 AI 기술 등을 이용해 만든 실제와 구분이 어려운 딥페이크 음성이나 영상 등을 제작·편집·유포·상영 또는 게시하면 안 된다.
선거 기간이 아니더라도 선거운동을 위해 딥페이크 영상 등을 게시하는 경우도 해당 정보가 AI 기술 등을 이용해 만든 가상의 정보라는 사실을 명확하게 인식할 수 있도록 해야 한다.
예를 들어 ‘이 영상은 실제가 아닌 AI 기술 등을 이용해 만든 가상의 정보입니다’와 같은 표시를 딥페이크 영상에 함께 명시하도록 정하고 있다. 작년에 통과된 개정 사항에 따라서 올해 있었던 총선부터 이 같은 규정이 적용됐다.
홍콩에서는 금융회사 직원이 화상회의를 했는데 그 화상회의의 상대방이 사실은 진짜 최고재무책임자가 아니라 딥페이크로 만들어진 가짜 영상이었음이 드러났다. 자신이 진짜 최고재무책임자와 이야기하고 있다고 착각한 직원은 결국 수백억원을 송금했다.
사실 해당 직원은 사기꾼 일당이 최고재무책임자로 가장해 보낸 메일을 받았었고, 사기를 의심한 직원이 화상회의를 요구했는데 화상회의 자체도 가짜였다. 이렇게 딥페이크로 인한 금전 손해 사례도 발생하고 있다.
최근 우리나라에서는 일반인을 대상으로 한 딥페이크 성 착취물이 다량 유포돼 큰 충격을 안겨줬고 해외에서도 이 문제를 비중 있게 다루고 있다.
딥페이크의 희생자는 이제 유명 연예인들을 넘어서 일반인으로 범위가 확대되고 있다. 일본의 경우 일본에서 확인된 딥페이크는 전년 대비 27배가 증가했다고 한다. 딥페이크 영상물 등의 양도 엄청난 속도로 늘어나고 있다.
이에 그 결과물이 음란물이나 가짜뉴스 유포와 같은 범죄에 해당하는지 여부와 관계없이 당사자의 동의 없이는 딥페이크 영상 등의 제작을 금지해야 하는지 여부까지도 그 논의가 이어지고 있다.
우리나라 부정경쟁방지법은 타인의 초상 및 음성 등을 공정한 상거래 관행이나 경쟁 질서에 반하는 방법으로 자신의 영업을 위해 무단으로 사용함으로써 타인의 경제적 이익을 침해하는 행위를 금지하고 있다.
하지만 이는 그야말로 상업적 이용을 전제하는 것이다. 물론 초상권의 이용 형태에 따라서 명예훼손 등이 성립하는 경우에는 민법 혹은 형법상으로 문제로 삼을 수도 있다. 그러나 타인의 딥페이크 영상 작성 등을 무조건 금지하고 있는 법률은 우리나라에도 외국에도 존재하지 않는 것으로 보인다.
분명히 딥페이크 기술은 그 이름이 나타내는 바와 같이 악용될 소지가 큰 AI 기술이다. 그러나 타인의 동의를 전제로 할 때만 딥페이크 기술 사용이 가능하다면 이는 딥페이크 기술을 사장하는 것과 다름없다. 지금은 문제가 발생할 소지가 있는 분야를 찾아내 그 부분을 규제하고 딥페이크인지 실제인지를 구별할 수 있는 기술을 발굴해야 할 때다.
김윤희 법무법인(유) 세종 변호사