BBC와 KBS, 방송사 AI 가이드라인 톺아보기

ACT! 142호 [AI와 독립미디어] 4번째 기사

2026.02.27 | 조회 1.37K |
0
|
from.
ACT!
진보적 미디어운동 연구저널 ACT의 프로필 이미지

진보적 미디어운동 연구저널 ACT

미디어운동의 새로운 이론적, 실천적 지평을 열고자 하는 목적으로 미디액트가 발행하는 온라인 저널입니다.

안녕하세요! 독립미디어세미나입니다. 👀✨

2026년 2~3월에 걸쳐 'AI와 독립미디어'를 주제로 기사를 보내드릴 예정입니다.

이번 ACT! 141호에서 우리는 독립 창작자의 관점에서 AI를 바라봅니다. AI가 독립 창작자들에게 가져온 변화를 국내외에서 면밀히 살펴보고, 놓치지 말아야 할 지점 또는 아직 상상되지 못한 공공적·대안적 가능성을 짚어보려 합니다. 또한 빅테크 중심의 AI 산업에 개입하는 창작자와 노동자 주도의 거버넌스 구조를 상상해보고자 합니다.

이러한 관점에서 탐구하고 써내려 간 이번 주제, 재밌게 읽어주세요!


첨부 이미지

AI 사용의 규범화는 가능하고 필요한가

 미디어 생산에서 인공지능(이하 AI) 사용은 충분히 보편화되었다고 볼 수 있다. 스마트폰 제조 회사가 연달아 자체 개발 AI를 제공하면서 평소에 촬영한 사진과 영상을 수정하고 편집하는 데 활용할 수 있다는 사실을 강조한다. 그리고 AI가 미디어에 관여한 흔적은 점점 매끄러워지는 중이다. 조금 더 시간이 지나면 AI 활용 여부를 구분하지 못하는 상황이 올지도 모르겠다. 가짜 뉴스와 딥페이크 미디어가 사회적인 문제로 대두했을 때 미디어 리터러시는 팩트체크를 통해 가짜인 것과 아닌 것을 판별하는 역량을 뜻하고는 했다. 당시에 ‘가짜의 범람’은 인간의 일상적인 노력과 학습으로 극복할 만한 문제로 간주했다. 그래서 미디어 관련 공공 기관은 팩트체크 캠페인이나 콘퍼런스를 추진하거나 관련 교재를 개발하는 등의 노력을 기울였다.

 그럼, AI 미디어 리터러시는 어떻게 인식되고 있을까? 기술을 활용한 미디어 생산에서 창작과 배포의 윤리를 지켜야 한다는 원론적인 논의는 이어지고 있지만 더는 미디어 리터러시 교육으로 해소하기는 어렵다고 생각하는 분위기를 읽을 수 있다. 이유를 몇 가지 정리해 보자. 우선 AI의 발전 속도가 무척 빠르다. 각종 AI의 업데이트를 모두 추적하기도, 그것에 맞추어 제도를 보완하는 건 필연적으로 늦을 수밖에 없게 되었다. 다른 이유로는 AI가 아주 많은 사람에게 매우 폭넓게 사용되고 있다. 과거에는 어떤 기술이 도입하면 그것을 상용화하는 데 일정 기간의 실험을 거쳐 매뉴얼이 만들어진 후 보급했던 반면 AI는 세대와 계층에 따라 차이는 있겠지만 대체로 유예 기간 없이 우리 삶에 스며들었다.

 앞과 같은 이유로 미디어 생산에서 AI 사용을 규범화하는 일이 필요하다고 생각하면서도 과연 실효성이 있을지 의문이 들었다. 이 의문 또한 층위를 나눌 수 있다. 첫째, 과연 규범화하는 일이 가능한가? 오늘날 기술이 규범적, 제도적, 행정적 대응을 할 수 있는 일인지 고민해 본다. 둘째, 규범이 생긴다면 사람들이 그것을 준수할까? 이미 미디어 산업과 문화의 규모가 무척 크고 기술적으로 감출 수 있는데, 과연 규범을 지켜야 한다고 생각할지 모르겠다. 그럼에도 공영 방송과 같은 매스 미디어의 지침이 사람들의 미디어 생산과 소비에서 일종의 지침 역할을 할 수 있지 않을지 조금의 기대도 해보게 된다. 이번 글에서는 한국 KBS와 영국 BBC의 AI 가이드라인을 살펴보고자 한다.

KBS의 AI 가이드라인 2025년 8월 버전 (출처: KBS)
KBS의 AI 가이드라인 2025년 8월 버전 (출처: KBS)

 사실 공영성, 책무성, 사실 확인과 검증, 권익 보호 등은 AI 가이드라인을 만들어 새롭게 마주한 요소가 아니다. 공영성과 책무성은 공영 방송의 기반이자 전제이다. 그리고 사실 확인과 검증이나 권익 보호는 공영 방송의 취재와 보도 윤리에서 긴 시간 논의해 왔다. 공영 방송이 AI를 도입하면서 쟁점화하는 것은 ‘인간 중심’이다. KBS의 AI 가이드라인에서 인간 중심은 AI 사용의 목적과 적용 범위를 설정하는 일에서 호출한다. KBS는 AI를 인간의 창의성 및 업무의 효율성을 높이고자 할 때 사용해야 하며 “인간의 자율성과 의사결정을 보조하는 수단”으로 써야 한다고 말한다(KBS, 2025). 공영 방송의 미디어 생산에서 AI의 역할을 규정한 세칙이면서, 공영 방송이 AI 사용을 정당화하는 근거가 된다.

 한편, KBS의 AI 가이드라인 제5조 투명성은 시청자의 자리에서 모니터링할 수 있는 구체적이고 실무적인 조항이다. KBS는 “인공지능이 생성한 글, 이미지, 영상, 오디오가 대국민 서비스 및 콘텐츠 생산에 핵심적인 요소로 활용된 경우 인공지능이 활용된 사실을 시청자가 명확히 인지할 수 있도록 적절한 방법으로 알려야 하며, 필요시 그 출처도 표시해야” 하는 의무가 생긴다(같은 글).

 하지만 제1조 인간 중심과 제5조 투명성은 아직 모호해 보인다. 제1조의 경우 업무의 효율성을 높이기 위해 AI를 사용할 수 있다고 하는데, 효율성을 견제할 수 있는 윤리적 개입의 여지가 확보되어 있지 않다. 그리고 AI를 업무에 사용할 때 어디까지가 보조적인 수단으로 쓰이는 영역이고 어디를 넘어섰을 때 AI를 주된 수단으로 사용하는 것인지 규정하기 어렵다. 제5조 투명성의 문제는 시청자가 공영 방송의 AI 사용 고지 여부를 점검할 수는 있겠지만 생산자가 어디서 얼마큼 AI를 사용하였는지 판별하기 어렵다는 점에서 투명성 모니터링의 근본적인 한계가 보인다.

 

영국 BBC의 AI 가이드라인의 강조점

 영국 BBC는 2023년 10월 발 빠르게 생성형 AI 사용 지침을 발표한 후 다음 해 개정하는 등 적극적으로 규범 생산에 임하고 있다. BBC의 AI 가이드라인은 크게 7개의 챕터가 있다. 첫 번째 챕터에서는 AI 가이드라인을 만든 사회문화적 배경에서 대원칙을 소개한다. 두 번째 챕터에서는 AI를 개념화한다. 세 번째와 네 번째 챕터에서는 AI를 미디어 생산에 사용했을 때 생길 수 있는 실질적인 이슈를 언급한다. 다섯 번째 챕터는 미디어 생산자의 AI 사용에서 이슈가 발생할 시 문제 해결 지원을 받을 수 있음을 명시한다. 여섯 번째 챕터는 실제로 BBC가 AI를 어떻게 사용할 수 있는지 사례를 제시한다. 마지막에서는 BBC 바깥 민간, 독립 미디어 생산자에게도 적용할 수 있는 사항을 언급한다.

영국 BBC의 AI 가이드라인의 주요 사항을 발췌하여 번역, 요약하였다. (번역: 임종우)
영국 BBC의 AI 가이드라인의 주요 사항을 발췌하여 번역, 요약하였다. (번역: 임종우)

  현재 한국 KBS의 AI 가이드라인에서는 보기 어려운 영국 BBC의 AI 가이드라인의 특징이 있다면 두 가지로 정리할 수 있다. 첫째, 영국 BBC의 AI 가이드라인은 AI 사용의 문제에 관해 ‘해야 한다, 또는 해서는 안 된다.’, ‘할 수 있다, 또는 할 수 없다’와 같은 이분법적인 판정을 명시하는 일을 넘어서 그 규범을 어떻게 준수하도록 할 것인지 절차의 서술이 이루어져 있다. 그러므로 두 번째, 영국 BBC의 AI 가이드라인은 절차를 구성하는 과정에서 AI 사용에 관여하는 미디어 생산 주체에게 책임과 권한을 명확하게 부과한다. 특히 BBC는 AI 사용을 점검하고 통제하는 주체로서 사람인 담당자의 배치를 의무화하고 있다. 공영 방송, 매스 미디어이라는 미디어의 생산 주도성이 인간 집단에 계속 남아 있게 하고 AI를 사용하면서도 견제하려는 BBC의 의지를 읽을 수 있는 대목이다.

 

AI 가이드라인이 생략한 질문이 있다면

 하지만 BBC의 AI 가이드라인을 조금 삐딱하게 다시 바라보면, 한편으로 인간에 대한 신뢰를 쉽게 전제하고 있다는 생각도 하게 된다. 윤리적인 미디어의 생산에서 과연 인간은 신뢰할 만한가? 우리는 AI를 적극적으로 도입하기 전에도 수많은 윤리적인 이슈를 마주했고 그것과 대결해 왔지 않았느냐 싶은 것이다. 이 문제 또한 AI가 해결할 수 있다고 누군가는 말하겠지만, 이러한 주장은 또다시 기술결정론을 강화할 뿐이다. 그리고, 도대체 무엇이 인간다운 것일까? 어디까지가 인간이고 비인간일까? 인간의 본연 업무와 AI가 매개한 인간의 업무와 역할을 구분할 수 있는가? 인간에 대한 철학적 전제가 부재한 채 가이드라인이 만들어지고 있는 것은 아닐까? 여러 AI 가이드라인이 발표되고 있는데 면면을 보면 위와 같은 일련의 질문에 자기 입장을 충분히 밝히고 있는 것 같지는 않다.

 그리고 AI 가이드라인은 앞으로 더욱 세분되고 구체적인 세칙을 추가해 나가는 방향으로 개선, 보완하는 것이 좋은지도 질문하게 된다. 엄밀성(예를 들어 ‘OOO 사용에서 OOO를 할 때에는 OOO를 해야 한다.’ 끝없는 세칙 추가의 늪에 빠지게 되지는 않을까?)과 확산 가능성(모호함을 감수하되 포괄적인 약속을 만들 수 있을 것이다. 하지만 있으나 마나 한 이야기를 반복하게 되지는 않을까?) 사이에서 AI를 활용한 미디어 생산의 규범화는 앞으로 어떻게 끌어 나가는 것이 좋을까? 우리는 AI 가이드라인이라는 규범화 실천의 상을 어떻게 제시할 수 있어야 할까? 무결한 규범은 없다. 특히 AI에 관한 규범은 기술의 속도와 기술 그 자체를 적극적으로 대면하며 생산자와 이용자가 논의에 참여하는 과정이 중요할 것이다. 기존의 AI 가이드라인을 비판 없이 수용하지 않되 비관하거나 무시하지는 않으면서 질적으로 개선해 나가는 일이 필요하다. 📖


글쓴이. 임종우

2018년부터 2023년까지 ACT!의 기획과 편집에 참여했다. 요즘까지도 독립 미디어(독립영화 등), 미디어 교육(디지털 문화예술교육), 미디어와 문화예술의 매개에 관심을 기울이고 있다. 미디액트에서는 동료와 함께 독립 미디어 세미나에 참여하며 새로운 실천의 방향을 모색하는 중이다.


참고 자료

영국 BBC의 AI 가이드라인.


이번 기사 좋았나요? 다음 기사도 기대해주세요! 매주 1개의 기사를 보내드립니다.

[ACT! 141호] AI와 독립미디어 기사 목록

  • BFI 발간 영국 영화 산업 AI 전망 보고서
  • APA 발간 다큐멘터리 제작자를 위한 AI 윤리 가이드
  • 생성형 AI 이미지를 통한 다큐멘터리 제작 사례와 쟁점
  • KBS와 BBC의 방송사 AI 가이드 라인
  • AI NOW 2025 Report "인공권력" 요약
  • 보다 공적인 AI 생태계를 위한 Public AI 이해
  • 대안적·공적 AI 사례

🎁 긴 글 읽어낸 당신을 위한 짧은 콘텐츠 선물!

✨ 미디액트 후원으로 독립미디어세미나 운영에 힘을 보태주세요!

⏳ 2026년 이전 ACT! 아카이브 만나보기

👀 액트의 자매지! 독립미디어 동향과 의제를 만나보세요

 

다가올 뉴스레터가 궁금하신가요?

지금 구독해서 새로운 레터를 받아보세요

이번 뉴스레터 어떠셨나요?

진보적 미디어운동 연구저널 ACT 님에게 ☕️ 커피와 ✉️ 쪽지를 보내보세요!

댓글

의견을 남겨주세요

확인
의견이 있으신가요? 제일 먼저 댓글을 달아보세요 !
© 2026 진보적 미디어운동 연구저널 ACT

미디어운동의 새로운 이론적, 실천적 지평을 열고자 하는 목적으로 미디액트가 발행하는 온라인 저널입니다.

메일리 로고

도움말 자주 묻는 질문 오류 및 기능 관련 제보

서비스 이용 문의admin@team.maily.so 채팅으로 문의하기

메일리 사업자 정보

메일리 (대표자: 이한결) | 사업자번호: 717-47-00705 | 서울특별시 성동구 왕십리로10길 6, 11층 1109호

이용약관 | 개인정보처리방침 | 정기결제 이용약관 | 라이선스