AI가 제작하는 동영상으로 인한 우려 – 글로벌 정책과 기업들의 대응

최근 인공지능 (AI) 기술의 급속한 발전으로 인해, 동영상과 이미지 등 멀티미디어 콘텐츠를 사실과 거의 구분할 수 없을 정도로 생성할 수 있게 되었다. 초기에는 이미지 위주였고 여러 문제점이 있었지만 이러한 문제점이 점차 개선되어 이제는 자연스러운 이미지의 단계를 너머 동영상까지 제작하는 수준이 되었다.

이러한 기술은 창작과 표현의 영역에서 새로운 가능성을 열어주지만, 동시에 허위정보, 가짜뉴스, 여론 조작 등 사회적 위험을 동반한다. 사용자 입장에서 AI가 만든 콘텐츠인지 실제인지 판단하기 어려워, 정보 신뢰도 저하와 사회 혼란 가능성이 커지고 있다.  특히 온라인 동영상 플랫폼에서는 AI가 만든 이미지에 대한 구분이 어려운 관계로

문제의 본질

AI 제작 동영상이나 이미지는 사실과 구분이 어렵다는 특성 때문에, 특히 정치, 사회, 경제 분야에서 왜곡과 조작에 악용될 위험이 큰 것이 문제가 되고 있다.  이는 단순한 패러디나 예술적 표현과 달리, AI가 제작한 콘텐츠가 마치 사실처럼 공유되면 사회적 혼란이 발생할 우려가 높고 더욱이 많은 플랫폼에서 AI 생성물임을 표시하지 않아, 사용자는 출처를 확인할 수 없고, 정보 판단 능력이 제한될 수밖에 없다.  이러한 이유로 AI가 제작한 동영상이 악의적으로 이용되거나 사실을 왜곡하는 수단으로 변질될 가능성마저 우려되고 있는 것이 현실이다.

각국의 대응 노력

중국: 중국은 2025년 9월부터 시행 예정인 국가표준을 통해, AI 생성 콘텐츠에 명시적 라벨과 메타데이터를 삽입하도록 의무화했다. Cyberspace Administration of China(CAC)는 텍스트, 이미지, 동영상, 오디오 등 모든 형태의 AI 생성물을 대상으로 이 규정을 적용하며, 라벨링을 통해 사용자가 해당 콘텐츠가 AI로 제작되었음을 명확히 알 수 있도록 했다. 중국의 이러한 조치는 AI 생성 콘텐츠가 사실로 오인되는 것을 방지하고, 사회적 혼란을 최소화하기 위한 전략으로 볼 수 있다.

유럽: 유럽연합(EU)은 AI Act를 통해 AI 생성 콘텐츠 표시 및 워터마킹을 권고하고 있다. 특히 회원국별 집행 방식에 차이가 있지만, 전반적인 목표는 AI 생성물의 출처와 생성 방식을 명확히 표시하여 허위정보 확산을 방지하는 것이다. 일부 국가, 예컨대 스페인에서는 AI 생성물 라벨링을 하지 않으면 벌금을 부과하는 법안을 승인했고, 덴마크는 Deepfake와 AI 모사 콘텐츠에 대한 개인 권리를 강화하며 플랫폼의 책임을 명시했다.  결과적으로 유럽의 경우 아직까지 ‘권고’수준이기 때문에 이를 의무화 하는 단계까지는 이르지 못한 것으로 보인다.

AI 기업들의 입장

Meta Platforms는 자사 플랫폼에 AI가 생성한 이미지와 영상에 “Made with AI” 또는 “Imagined with AI”라는 라벨을 부착하기로 발표했다. 또한 외부 AI 도구(OpenAI, Google 등)로 생성된 콘텐츠도 라벨링 대상에 포함하고 있다. TikTok 역시 외부 AI 생성 영상을 자동 감지하여 라벨링하는 정책을 공개하고 있다. 반면, Google은 강제적인 라벨링 정책은 시행하지 않고 있으며, AI 생성물 표시 여부는 자율적 권장 수준에 머물러 있는 상황이다.  모든 AI업체가 공통적으로 강조하는 것은 투명성 확보와 허위정보, 조작미디어 위험 감소지만, 동시에 창작의 자유와 표현의 자유도 보호해야 한다는 균형을 고려하고 있다.

기술적 대응

AI 생성물 탐지 알고리즘과 기술적 방안도 병행되고 있어 워터마크, 메타데이터 삽입, 블록체인 기반 검증 등 다양한 시도가 이루어지고 있는 한편, AI 생성물인지 여부를 판별할 수 있는 기술이 개발되고 있다. 그러나 아직 이러한 기술에 대한 완전한 검증은 아직 어렵고, 라벨 위변조 가능성도 존재하기 때문에 기술적 조치와 정책이 함께 작용해야만 신뢰도 높은 정보 환경을 구축할 수 있을 것으로 보인다.

정책적 쟁점

사실 라벨링 정책이 실효성을 발휘할 수 있을지에 대한 의문도 있다. 일부 연구에서는 AI 생성물에 라벨을 붙여도 정보의 설득력이나 공유 의도가 크게 감소하지 않는다는 결과가 나오고 있는가 하면 각국과 기업의 기준이 다르고 집행 환경도 다양하여, 사용자 입장에서는 혼란이 발생할 수 있다. 정책과 기술, 사회적 기대 사이의 균형이 중요한 과제로 남아 있다.  따라서 아직까지 AI생성물에 대한 많은 논의가 이루어져야 할 것이라는 생각이 든다.

사회적, 교육적 대응

AI 제작물 표시뿐 아니라, 사용자 측면에서도 미디어 리터러시 교육이 중요하다고 생각한다. 사람들은 AI 생성 콘텐츠와 실제 콘텐츠를 구분하고, 출처를 확인하는 능력을 길러야 하며 이는 정책이나 기술적 조치만으로는 해결할 수 없는 문제로, 사회 전체의 정보 수용 능력 향상이 필요하다고 본다.

글로벌 협력의 필요성

AI 기술은 국경을 초월하여 유통되므로, 단일 국가의 정책만으로는 충분하지 않으며 국제적 기준과 협력, 플랫폼과 국가 간 협력을 통해 투명한 라벨링과 검증 체계를 마련해야 할 것이라고 생각한다. 이는 허위정보 확산을 방지하고, AI 기술의 신뢰성과 사회적 수용성을 동시에 높일 수 있는 방안이 될 수 있다.

AI 제작 동영상과 이미지는 창작의 새로운 가능성을 제공하지만, 동시에 허위정보와 왜곡의 위험을 동반하므로 각국 정부와 기업들은 AI 생성물 라벨링, 메타데이터 삽입, 탐지 기술 개발 등 다양한 대응책을 마련하고 있지만 정책, 기술, 사회적 책임이 모두 함께 작동해야 하며, 사용자 교육과 국제 협력도 필수적이라고 할 수 있다. 결국 AI 시대의 정보 신뢰성을 확보하기 위해서는 투명성, 책임성, 교육이라는 세 축이 균형을 이루어야 할 것으로 본다.

참고자료

https://www.insideprivacy.com/international/china/china-releases-new-labeling-requirements-for-ai-generated-content/

https://chatgpt.com/c/69018f04-3f6c-8320-a6d5-c4b1b01e2096

이미지 저작권

AartlistDesign – Pixabay.com
https://pixabay.com/illustrations/ai-generated-robot-machine-8747658/

Share This Story, Choose Your Platform!

About the author : admin

Get Social

카테고리

최신 댓글

    Tags