[산하] 법정까지 위협하는 AI 환각

우리의 오늘에 다가온 인공지능 윤리

2024.12.10 | 조회 186 |
3
|
단산 LAB의 프로필 이미지

단산 LAB

실리콘 밸리 이공계 박사 부부가 보는 세상 이야기

오늘은 최근 제 눈길을 잡은 뉴스를 주제로 가져왔습니다. 이 글을 작성하는 데에 있어서 Stanford 대학 신문인 The Stanford Daily 의 두 기사로부터 많은 도움을 받았음을 미리 밝힙니다.

지난 몇년간 정말 빠른 인공지능 기술의 발전이 있었고, 특히 생성형 인공지능, 그러니까 "진짜" 같은 글, 사진, 영상 등을 생성해내는 기술의 발전이 눈에 띄었습니다. 동시에, 딥페이크 (deepfake) 기술이 많은 윤리적, 법적 논란을 만들어냈습니다. 인공지능이 만들어낸 그럴싸한 가짜 사진과 영상 등을 통해서 잘못된 정보, 가짜 뉴스가 퍼지고, 사회를 어지럽힐 수 있다는 우려에서요. 지난 몇번의 미국 대통령 선거 때, 소셜미디어를 통해 많이 퍼진 가짜 뉴스가 중요한 사회적 화두가 되었기에, 2024년 미국 대선을 앞두고 딥페이크를 어떻게 규제할 것인가는 많은 이들의 관심사였습니다.

이러한 시대적 흐름에 맞춰, 2023년 미국 미네소타 주에서는 선거에 영향을 끼치는 딥페이크 자료를 유포하는 것을 범죄 행위로 규정하고, 초범에게도 최대 징역 90일 혹은  최대 1000달러의 벌금을 부과하는 법령을 만들었습니다.

선거 관련 딥페이크를 규제하는 미네소타 법령. 선거일로부터 90일 이내에 선거 출마자의 동의 없이, 당사자에게 해를 끼치거나 선거 결과에 영향을 줄 수 있는 딥페이크 자료를 유포한 자는 징역형 또는 벌금형에 처한다.
선거 관련 딥페이크를 규제하는 미네소타 법령. 선거일로부터 90일 이내에 선거 출마자의 동의 없이, 당사자에게 해를 끼치거나 선거 결과에 영향을 줄 수 있는 딥페이크 자료를 유포한 자는 징역형 또는 벌금형에 처한다.

그런데 올해 9월, 대선을 얼마 안 남겨둔 시점, 두 사람이 미네소타 주 정부를 상대로 위헌 소송을 제기합니다. 위의 미네소타 법령 609.771 은 언론의 자유를 억압한다는 주장을 하면서요. 원고 두 명은 딥페이크 영상물을 포함한 정치 풍자로 유명한 보수 성향의 유튜버 Kohls, 그리고 공화당 소속의 미네소타 주 하원의원 Franson 입니다. Kohls 는 지난 7월 현재 미국 부통령이자 민주당 측 대통령 후보였던 Harris 의 딥페이크 영상으로 인해 큰 인기를 얻음과 동시에 많은 비판을 받았고, Franson 의원은 그 영상을 트위터 등의 매체에 공유하며 Harris 후보를 풍자, 비판했었거든요. 이번 소송을 통해 미네소타 주의 딥페이크 관련 법령을 무효화시키고, 앞으로 대선까지 계속 이런 유형의 정치 풍자 컨텐츠를 시청하고 유포하고 싶다는 취지였던 것이죠.

아직 소송이 끝나지 않았기에 해당 법령이 어떻게 될지는 좀 더 지켜봐야겠습니다만, 여러분은 어떻게 생각하시나요? 해당 법령은 합당해보이나요? 딥페이크 영상물도 언론의 자유, 정치인을 풍자할 자유로 보호받아야 마땅할까요? 아니면, 징역형을 받을만한 중범죄로 보아야 할까요?

아직 최종 판결은 모르지만, 이번 소송에 등장한 생성형 인공지능은 Kohls 의 딥페이크 영상 뿐이 아니었습니다. 전혀 예상치 못하게, 피고 측, 그러니까 미네소타 법무부 측에서 제출한 전문가 의견이 문제가 되었는데요. 피고 측에서 제출한 문서는 Stanford 대학 교수인 Hancock 이 작성한 것으로, 딥페이크 자료는 기존의 가짜 뉴스보다 훨씬 더 그럴싸하고, 특히 더 팩트체크하기 어렵고, 민주주의에 위협적이니 그만큼 더 강력한 규제를 필요로 한다는 주장이 담겨있습니다.

Stanford 대학의 Jeff Hancock 교수. 커뮤니케이션 학과 소속으로, 소셜 미디어와 가짜 뉴스, 그리고 인공지능이 커뮤니케이션에 끼치는 영향 등을 연구한다.이미지 출처: Andrew Brodhead, Stanford Report
Stanford 대학의 Jeff Hancock 교수. 커뮤니케이션 학과 소속으로, 소셜 미디어와 가짜 뉴스, 그리고 인공지능이 커뮤니케이션에 끼치는 영향 등을 연구한다.
이미지 출처: Andrew Brodhead, Stanford Report

문제는 Hancock 교수의 선언문에서 딥페이크의 위험성을 증거하기 위해 인용한 논문 두편이 존재하지 않는 가짜 논문으로 밝혀진 데서 시작됐습니다. 존재하지 않는 논문을 인용했다는 점을 기반으로, Hancock 교수가 선언문을 작성하는 데에 있어서 ChatGPT 를 사용하였고, 인용된 가짜 논문들이 ChatGPT 의 환각 현상이었던 것 아니냐는 주장이 제기되었고, 지난 12월 4일 Hancock 교수는 이를 시인하였습니다. 본인의 선언문에 쓸 관련 논문 조사를 위해 ChatGPT 를 사용했는데, 이 과정에서 환각 현상으로 가짜 논문이 포함되었고, 이를 제출 전에 알아차리지 못했다는 겁니다. (추가적으로, 인용 논문 리스트 작성에 실수가 있었을 뿐, 선언문의 내용은 여전히 본인의 전문가적 의견과 일치하며, 의도적으로 누군가를 속일 의도는 없었다고 말했습니다.

2023년 2월,
2023년 2월, "ChatGPT 는 어떻게 우리의 생각과 일의 방식을 바꿔놓을까" 라는 제목의 교내 기사. Hancock 교수와의 인터뷰가 주된 내용이다.이미지 출처: Stanford Report

아, 이 얼마나 아이러니한 상황인가요. 인공지능 가짜 뉴스와 관련된 소송에, 인공지능 가짜 뉴스를 연구하는 교수가 내놓은 선언문에, 인공지능이 만들어낸 가짜 논문이 인용되어 논란이 된다니요. 정말 SF 영화의 설정일 것만 같은 이런 일이, 현실에서 벌써 일어나고 있습니다.

그만큼 인공지능은 우리 삶에 생각보다 깊숙히 들어와있고, 또 조용히 우리의 일상을 위협하고 있습니다. 이번 사건에 있어서 Hancock 교수는 비판 받아 마땅하지만, 어쩌면 그의 실수야말로 인공지능의 위험을 오히려 더 적나라하게 보여주는 좋은 예시일지도 모르겠습니다. 인공지능이 유명 대학의 최고 석학조차 속일 수 있다면 (혹은 실수하게끔 한다면), 일반인에게 끼치는 영향력은 얼마나 크겠어요. 특히나 그 주제가 선거와 같이 우리 사회에 중대한 사안이라면, 이 얼마나 위험한 기술입니까.

빠르게 진보하는 인공지능 기술에 발맞춰, 법적 규제와 윤리적 사용 범위에 있어서 빠른 사회적 합의가 이루어지기를 바라 봅니다. 또, 실리콘 밸리의 많은 인공지능 기술 전문가들도 이러한 필요를 느끼고 있고, 또 기존의 유명 기업들을 떠나 인공지능 윤리/안전성 등을 주된 목표로 하는 창업을 시작하고 있습니다. 화려하고 그럴싸한 인공지능 뿐만 아니라, 윤리적인 인공지능 개발을 지속적으로 많은 투자와 연구가 이뤄져야겠지요.

하지만 당장 우리 모두가 함께 져야 할 개인 차원에서의 책임은, 아무래도 꼼꼼한 팩트 체크인 것 같습니다. 기사나 영상 등을 보면 꼭 출처를 확인하고, 그 내용을 공유하고 싶다면 특별히 더 공부하고 조사해야하는 세상입니다. "개개인이 모두 전문가처럼, 언론인처럼 살 순 없지 않느냐" 고 따지고 싶은 마음도 이해는 가지만, 그래야만 하는 세상이 되었습니다. 별생각없이 공유한 인스타그램 스토리, 중요한 속보 같아서 단톡방에 공유한 이미지 하나가, 나도 모르게 멀리 퍼져서 의도치 않은 선동이 될 수 있는 무서운 세상이 되었어요.

개개인이 속지 않고 실수하지 않아야 사회가 속지 않을 수 있습니다. 법적 안전망이 갖춰지기 전까진, 개개인의 팩트 체크가 촘촘한 체를 이뤄야, 가짜 뉴스를 거르고, 우리 사회를 지킬 수 있습니다. 건강한 민주주의 사회는, 모두가 동의하는 명확한 팩트 위에서만 바로 설 수 있으니까요.

미국도, 한국도, 정치적으로 혼란스러운 시기를 지나고 있습니다. 감정이 요동칠 수 밖에 없는 혼돈의 시대를 살고 있지만, 우리 모두 그 가운데 냉정하고 명철한 이성을 놓치 않길, 가짜 뉴스와 선동으로부터 안전하길 기도합니다.

산하 드림.

 

다가올 뉴스레터가 궁금하신가요?

지금 구독해서 새로운 레터를 받아보세요

✉️

이번 뉴스레터 어떠셨나요?

단산 LAB 님에게 ☕️ 커피와 ✉️ 쪽지를 보내보세요!

댓글 3개

의견을 남겨주세요

확인
  • 거북이의 프로필 이미지

    거북이

    1
    17 days 전

    안녕하세요, 한국과학기술원에서 산업공학을 전공하는 대학생 김영진이라고 합니다! 너무 좋은 글 잘 읽었습니다 ㅎㅎ 한가지 여쭙고 싶은 부분이 있습니다만, 혹시 AI가 고의적으로 만들어낸 거짓정보도 환각(hallucination)이라고 부르나요? 제가 아는 환각은 유저의 의사와는 별개로 AI가 실수 또는 고의로 거짓정보를 생성하는 상황이어서 여쭙니다.

    ㄴ 답글 (2)
© 2024 단산 LAB

실리콘 밸리 이공계 박사 부부가 보는 세상 이야기

메일리 로고

자주 묻는 질문 서비스 소개서 오류 및 기능 관련 제보

서비스 이용 문의admin@team.maily.so

메일리 사업자 정보

메일리 (대표자: 이한결) | 사업자번호: 717-47-00705 | 서울 서초구 강남대로53길 8, 8층 11-7호

이용약관 | 개인정보처리방침 | 정기결제 이용약관 | 라이선스