💌 뉴스레터 112호
🌞 인디&임팩트가 뜨거운 여름 재충전 시간을 보내고 다시 찾아왔습니다~ 😎
생성형 AI(Gen AI)는 미디어 생태계와 세상을 긍정적으로든 부정적으로든 빠르게 변화시키고 있습니다. 다큐멘터리는 이 새로운 기술로 인해 실존적 위기에 직면하고 있는데요. 바로 생성형 AI가 사실/진실이라는 신뢰에 기반한 관계를 위협하기 때문입니다.
📜 이런 우려 속에서 다큐멘터리에 사용된 기록 자료의 진실성을 조사, 출처 확인, 검증하는 전문가인 아카이브 프로듀서들이 모여 빠르게 다가오는 생성형 AI 미래에 대한 가이드라인을 만들었습니다. "다큐멘터리 영화에서 '생성형 AI' 사용에 대한 우려를 해소하고, 이용 표준을 통합함으로써, 다큐멘터리가 미래에도 역사를 기록하고 인간의 경험을 표현하는 매력적이고 신뢰할 수 있는 스토리텔링의 한 형태로 계속 자리매김하게 할 것"이라는 발간 취지가 인상 깊네요! 🧐
👩🏫 2주 만에 찾아온 뉴스레터에서는 다큐멘터리 창작자와 미디어 활동가들이 '생성형 AI' 활용 시에 꼭 참고해야 할 <다큐멘터리 생성형 AI 활용 가이드라인> & <생성형 AI 툴킷>을 소개합니다. 생성형 AI에 대한 환호와 우려가 공존하는 지금, 기술의 민주적 활용과 윤리적 가치를 지켜가기 위한 논의가 한국에서도 활발히 이루어지길 기대합니다!! 🤗
소중한 후원금은 뉴스레터 원고료로 사용됩니다.
✨ 구독후원은 언제나 큰 힘이 됩니다! 구독하기에서 멤버십을 선택해주세요!
월 5,000원으로 인디&임팩트는 계속 달려갈 수 있습니다~ 🏃♀️
생성형 AI 시대,
다큐멘터리와 미디어운동을 위한 두 가지 지침서
- APA, <다큐멘터리 생성형 AI 활용 가이드라인> & <생성형 AI 툴킷>
최근 몇 년 사이, 생성형 AI는 분야를 막론하고 우리 생활 곳곳으로 빠르게 확산되고 있다. 미디어 활동 현장 역시 예외가 아니다. 지역 미디어센터, 공동체미디어, 미디어교육, 독립다큐멘터리 제작, 언론운동 등의 다양한 실천 속에서 AI는 이미 도구이자 위협으로 다가오고 있다. 문제는 기술 도입의 속도에 비해, 민주적 가치와 기록의 신뢰성을 지키기 위한 기준과 논의는 아직 부족하다는 점이다. 바로 이 지점에서 해외에서 먼저 제시된 두 개의 문서가 우리에게 중요한 참고점을 제공해줄 수 있다.
미국과 국제 다큐멘터리 현장에서 활동하는 수백 명의 아카이브 프로듀서들로 이루어진 ‘아카이브 프로듀서 연합(Archival Producers Alliance, 이하 APA)’에서는 작년과 올해 다큐멘터리 제작에서 생성형 AI를 어떻게 활용해야 하는가에 대한 논의 결과를 정리한 두 개의 자료를 내놓았다. 이들은 수많은 1차 사료를 발굴하고 검증하는 일을 통해, 다큐멘터리라는 장르가 사회적 신뢰를 획득해 온 과정을 잘 알고 있으며, 재현에서의 진실성의 가치를 지키기 위해 누구보다 노력해온 이들이다. APA는 2023년 여름 생성형 AI에 대한 우려로 결성되었고, 공개 서한과 IDA 컨퍼런스 발표를 거쳐 연합체로 발전했다. 이후 학자·법률가·방송사 전문가들과의 협력 속에 수개월간 공동 집필 과정을 거쳐 가이드라인을 완성했다. 현재는 재단과 협회의 지원을 받아 다큐멘터리를 넘어 다양한 기록 미디어 분야로 논의를 확장하고 있다.
APA에서 발표한 두 개의 자료는 <다큐멘터리 생성형 AI 활용 가이드라인 Best Practices for Use of Generative AI in Documentaries>(2024)와 그 연장선에서 제작된 <생성형 AI 툴킷 GenAI Best Practices Tool Kit>(2025)이다. 전자는 다큐멘터리 제작 현장에서 지켜야 할 원칙을 정리한 선언적 문서이고, 후자는 현장에서 곧바로 적용할 수 있는 실천적 매뉴얼이다. 이 두 문서를 함께 읽으면, 우리가 AI와 마주할 때 고민해야 할 지점과 활용가능한 방법론에 대해 도움을 얻을 수 있을 것이다.
기록의 신뢰성을 지키기 위한 원칙
- <다큐멘터리 생성형 AI 활용 가이드라인>
이 가이드라인에서 말하는 생성형 AI(GenAI)는 사용자의 프롬프트(지시)에 따라 새로운 이미지·영상·음성 등 미디어를 만들어내는 기술을 뜻한다. 일반적인 워크플로우에서 쓰이는 다른 AI와 구분되며, 단순한 리터칭·복원·해상도 개선은 논외다. 여기서 중점은 새 콘텐츠를 창작하거나 기존 자료를 의미가 달라지도록 변형해 관객을 오도할 수 있는 경우이며, 이런 경계는 기존처럼 영화인이 스스로 판단해야 한다. 생성형 AI의 사용에 관해 이들이 제시한 가이드라인은 크게 네 가지 원칙으로 요약된다.
- 1차 사료의 가치 - 인간이 특정한 시간과 장소에서 기록한 사료는 대체 불가능하다. 반면, AI가 생성한 합성 이미지는 출처와 책임이 불분명하며, 아카이브처럼 유통될 경우, 역사 기록을 왜곡할 위험이 크다. 생성형 AI를 1차 자료 대신 사용할 경우, 역사 기록을 왜곡하거나 혼탁하게 만들 위험, 알고리즘 편향의 재생산, 원본 자료의 맥락 훼손 가능성이 뒤따른다. 따라서 제작자는 원본 형식과 의미를 존중하고, 변형 시에는 관객에게 이를 명확히 알리며, 재연이나 재창작과 마찬가지로 높은 정확성과 신중함을 유지해야 한다.
- 투명성 - 생성형 AI 활용 시 제작 과정의 투명성을 내부와 외부로 나누어 확보해야 한다. 내부적으로는 제작팀, 법률 자문, 배급사 등이 어떤 자료가 AI 생성물인지 명확히 공유하고, 출처 기록을 위해 큐시트(프롬프트, 소프트웨어 버전, 참고 자료, 저작권 상태, 사용 위치 등)를 남겨야 한다. 외부적으로는 관객이 무엇이 실제이고 무엇이 합성인지 알 수 있도록 워터마크, 화면 구성 변화, 내레이션, 자막 등을 통해 명시적으로 알릴 필요가 있다. 특히 딥페이크, 역사적 사건의 합성, 실제 인물·장소의 조작처럼 오해의 소지가 큰 경우에는 각별한 주의가 요구된다. 또한 예고편, 홍보물, 엔드 크레딧 등에서도 AI 활용 사실을 밝히고, 사용한 도구와 제작자 정보를 명시해야 한다.
- 법적 고려 - 다큐멘터리에서 생성형 AI를 활용할 경우 소프트웨어 이용권 문제, 노동조합 계약 준수, 초상권·성명권 침해, 저작권 없는 AI 산출물의 활용 등 기존 법제도와의 복잡한 충돌이 발생할 수 있다. 이에 따라 충분한 시간과 예산을 확보해 법률 검토를 진행하고, 최신 동향에 밝은 전문 변호사와 협력하는 것이 필요하다. 아울러 기존 저작물의 무단 전용 가능성, 보험 보장의 사각지대, 관객에게 제공할 고지 문구, 국제법적 규제 등도 함께 고려해야 한다.
- 인간 시뮬레이션 창조과정에서의 윤리 - 생성형 AI를 이용해 실제 인물의 얼굴, 몸, 목소리를 조작할 때는 각별한 주의가 필요하며, 제작하려는 장면과 관련된 1차 자료를 충분히 조사하고, 대상 인물의 동의를 적절히 구하거나 동의를 얻기 어려운 경우 추가적 주의를 기울이며, 문화적 민감성과 역사적 기록에 미칠 영향을 고려하고, 인간 시뮬레이션 사용 사실이 제작팀과 관객에게 투명하게 공개되는지를 신중히 검토해야 한다.
APA는 AI가 새로운 서사적 가능성을 제공할 수 있다고 인정하면서도, 다큐멘터리의 사회적 신뢰를 지키려면 인간의 분별과 책임이 중심에 있어야 한다는 점을 분명히 한다. 이는 단지 영화 제작자만의 문제가 아니다. 시민언론, 지역 아카이브, 인권운동 현장 등 기록을 다루는 모든 활동가에게 직접적으로 닿는 원칙이다.
현장에서 곧바로 쓸 수 있는 매뉴얼 – <생성형 AI 툴킷>
2025년에 공개된 <생성형 AI 툴킷>은 앞선 가이드라인을 토대로, 현장에서 사용할 수 있는 실천적 지침과 템플릿, 참고자료 등을 담고 있다. 여기에는 활동가와 교육자가 당장 활용할 수 있는 요소들이 정리되어 있다.
1. ‘10가지 질문’ 체크리스트
먼저 10가지 질문 체크리스트를 통해 왜 AI를 쓰려는지, 배급사와 보험은 이를 허용하는지, AI 사용을 추적·기록할 책임자는 누구인지, 인물 시뮬레이션을 만들 때 동의와 문화적 민감성은 고려되었지, 법적·윤리적 고려는 충분한지, 그리고 관객에게 어떻게 공개할 것인지 등 제작자가 프로젝트 시작 전에 반드시 짚어야 할 사항을 제시한다.
2. 투명성 실천법
툴킷은 단순히 고지 문구를 붙이는 것을 넘어, 워터마크·화면 구성 변화·내레이션 언급·홍보 자료 반영 등 다양한 방식으로 관객이 혼동하지 않도록 안내한다. 필요에 따라 웹 부가자료나 “메이킹 필름” 형식의 보충 콘텐츠를 만들어 관객과 투명성을 공유할 수 있도록 권장한다.
3. 생성형 AI 큐시트·트래커 템플릿
Google Sheet와 Excel 양식으로 제공되는 이 문서는, 어떤 프롬프트를 언제 사용했는지, 어떤 자료를 참고했는지, 저작권 상태가 무엇인지, 소프트웨어 버전과 결과물이 어디에 쓰였는지를 기록할 수 있다. 이런 기록은 단순한 내부 문서가 아니라, 나중에 법적 분쟁이 생겼을 때 증거 자료가 되며, 비평가·관객·배급사가 제기할 수 있는 의문에 답할 근거가 된다. 교육적으로는 훈련 교재로 활용해, 학생이나 활동가가 AI 활용 과정을 체계적으로 학습하는 도구가 될 수도 있다.
4. 워크플로우 단계별 팁
사전 제작 단계에서는 AI 사용 여부와 이유를 명확히 하고, 법률 자문·배급사와의 사전 협의를 권장한다. 제작·편집 단계에서는 AI 생성물을 전용 트랙에 관리하고, 임시 워터마크를 삽입해 혼동을 줄이며, 편집자가 자동 보정 도구 사용 여부를 반드시 공유해야 한다고 강조한다. 후반 작업 단계에서는 AI로 생성한 모든 요소를 제작사의 AI 추적 시스템에 기록하고, 법률 전문가가 라이선스·사용 내역·공개 방식을 검토하여 법적 문제와 보험 요구 사항을 충족하도록 해야 한다. 배급·홍보 단계에서는 관객 및 언론 대응을 위한 설명문 준비, 크레딧 표기, 홍보용 자료에서의 고지까지 제안한다.
5. 크레딧 작성 가이드
단순히 “AI 사용”이라고만 쓰는 것이 아니라, 어떤 소프트웨어·버전·학습 데이터·자문 전문가가 관여했는지를 기록한다. 예컨대 “이 장면의 합성 이미지는 XX 툴 버전 X.X를 사용했고, 역사적 정확성은 XX대학 연구자의 자문을 받았다”는 식의 구체적 표기를 권장한다. 이는 관객 신뢰를 높이는 동시에, 기록물의 투명성을 제도화하는 효과가 있다.
6. 참고 자료 링크
마지막으로, 툴킷은 외부 자료와 국제적 흐름까지 함께 소개한다. AI 저작권 소송 데이터베이스, EU AI 규제 동향, 미국·영국 방송사들의 자체 가이드라인, 시민단체(Witness Media Lab, Content Authenticity Initiative 등)의 자료가 링크와 함께 제공된다. 활동가는 이를 통해 해외 동향을 빠르게 확인하고, 자국의 정책·운동과 비교하며 전략을 세울 수 있다.
우리도 우리의 기준을 만들 때
생성형 AI는 이미 우리의 활동 현장 속에 들어와 있다. 그것은 기록을 강화하는 도구가 될 수도 있고, 진실을 흐리는 위험이 될 수도 있다. 따라서 중요한 것은 어떻게 쓸 것인가, 어디까지 허용할 것인가에 대한 집단적 합의다. 한국 사회에서도 역사 기록과 진실 보도는 여전히 정치적 쟁점이며, 언론의 신뢰는 위기에 처해 있다. 하루 빨리 현장에서 AI를 어떻게 투명하게 쓸 것인지, 어떤 선을 넘어서는 안 되는지에 대한 합의를 만들어갈 때이다. <다큐멘터리 생성형 AI 활용 가이드라인>과 <생성형 AI 툴킷>은 그 논의를 시작할 수 있는 좋은 지침서가 될 수 있을 것이다. 기술은 이미 현실이 되었고, 이제는 우리가 기준을 세울 차례다. 🔗
🗽 글쓴이. 김지현
독립미디어연구소 연구원으로 활동하고 있다. 두 아이를 키우며 본인과 다음 세대를 위한 더 나은 삶의 조건에 대해 고민과 관심이 많다.
📚 관련 기사 더 보기
인디&임팩트미디어 뉴스레터는 미디어운동에 대해 새롭게 질문하고 좀 더 발전할 수 있는 방법은 무엇인지 여러 사람들이 함께 고민하고 찾아가기 위해 발행됩니다.
미디어 환경이 빠르게 변화하고 각종 담론과 현상이 범람하는 가운데 과연 우리가 주목해야 할 대상은 무엇인지, 사람들의 삶을 개선하는 데 있어 정작 중요하게 필요한 미디어의 변화는 무엇인지 관점을 제공하는 공간을 만들고자 합니다.
이름에 맞게 ‘임팩트’ 있는 뉴스레터가 되도록 노력하겠습니다.
관심 있는 분들의 많은 구독과 주변 홍보를 부탁드려요! 감사합니다. 🙇♀️
의견을 남겨주세요