오픈AI의 텍스트투비디오 서비스 '소라'가 만들어낸 영상. 사진=오픈AI 홈페이지 캡처
오픈AI의 텍스트투비디오 서비스 '소라'가 만들어낸 영상. 사진=오픈AI 홈페이지 캡처
오픈 AI가 사용자의 명령에 따라 1분 이내 분량의 영상을 만들어내는 인공지능(AI) 모델 ‘소라’를 공개했다. 15일(현지시간) 워싱턴포스트에 따르면 소라는 오픈AI의 이미지 생성 도구인 ‘달리’를 기반으로 한다. 오픈 AI는 당분간은 소규모의 화가, 영화 감독 등 창작자에게만 서비스를 제공하며 안전성을 검토하겠다고 덧붙였다.

오픈 AI 홈페이지에서 명령문에 따라 소라가 만들어낸 다양한 영상의 예시를 확인할 수 있다. 사용자가 영상에 담고 싶은 인물과 배경을 상세하게 묘사하면 이를 그대로 담은 1분 분량의 영상이 만들어진다.

예를 들어 ‘세련된 여성이 검정색 가죽자켓과 붉은 드레스를 입고 걷는다’, ‘여성이 걷는 도쿄 거리에는 따뜻하고 반짝이는 네온사인이 비친다. 비가 온 거리에 웅덩이가 고여 빛이 거울처럼 반사된다’라고 프롬프트에 적으면 그럴듯한 영상이 나온다.

사람의 얼굴이나 동물을 클로즈업한 영상이나 역동적인 움직임을 강조하는 영상도 확인할 수 있다. ‘35mm 카메라로 찍은 영상’이라는 명령을 넣으면 영화의 한 장면 같은 영상도 만들어준다.
'농구공이 골대를 통과한 뒤 폭발한다'는 명령어로 '소라'가 만든 영상. 사진=오픈AI 홈페이지 캡처
'농구공이 골대를 통과한 뒤 폭발한다'는 명령어로 '소라'가 만든 영상. 사진=오픈AI 홈페이지 캡처
오픈 AI는 아직 복잡한 장면에서 정확한 물리적 현상을 담아내지 못한다는 취약점도 있다고 말했다. 예를 들어 쿠키를 베어 먹는 장면 뒤 쿠키에 이빨 자국이 보이지 않을 수 있다. 또 ‘농구공이 골대를 통과하고 폭발한다’는 명령으로 만든 영상에 불길만 보이고 농구공의 형태는 그대로 남아있기도 한다.

기술 자체의 취약점보다 인공지능 기술이 영상의 영역으로 확대됐을 때의 부작용을 우려하는 목소리도 커지고 있다. 이미 이미지 생성 AI 기술의 발전으로 인해 딥페이크 범죄가 성행하며 피해를 낳고 있기 때문이다. 이에 오픈 AI 측은 서비스 대중화 전에 ‘레드 팀’이라고 불리는 연구진을 주도로 안전성을 검토하겠다고 전했다. 폭력적이거나 선정적인 이미지 또는 유명인의 초상이나 타 회사의 IP를 도용하려는 사용자의 명령어를 선별해 거부하도록 설계하겠다는 방침이다.

임나영 인턴기자 ny924@hankyung.com