Saturday Deep Dive

LETTER12. 10억 달러 가치가 된 15세가 만든 '가짜 인간을 만드는 회사 Aaru' 이제 인간의 자유의지란 무엇인가

시뮬레이션 속 인간의 자유의지에 대해서

2026.04.25 |

2차 욕구의 상실과 설계된 자유 

 

그런데 이 기술을 제대로 보려면, 두 층위를 분리해야 합니다.

첫 번째는 정밀도의 층위입니다. Aaru는 완벽하지 않습니다. 2024년 미국 대선에서 Aaru는 카멀라 해리스의 승리를 예측했지만, 도널드 트럼프가 당선되었습니다. Semafor의 보도에 따르면, AI 에이전트들은 언제나 '전화를 받기' 때문에 실제 조사에서 응답을 거부하는 숨은 트럼프 지지자들을 포착하지 못했습니다. Aaru의 모형에는 아직 인간의 침묵이 담기지 않았습니다.

웃음이 터져 나오는 에피소드도 있습니다. 검증 과정에서 AI 에이전트 한 명이 '미키마우스에게 투표하겠다'고 응답했습니다. 팀이 당황해 조사했더니, 에이전트의 설명은 이것이었습니다.

"해리스도 싫고 트럼프도 싫습니다. 미키마우스를 쓰겠습니다."

그러나 한편 그냥 웃고 넘기기는 어려운 지점이기도 합니다. 왜냐하면 기계가 인간의 정치적 환멸까지도 재현해냈기 때문입니다. 어쩌면 이것이 가장 정확한 예측이었는지도 모르겠습니다. 2024년 미국 선거에서 실제로 수백만 명이 백지 투표를 했거나 기권했으니까요.

그러나 더 중요한 것은 두 번째, 존재론적 층위입니다. 오차는 줄어들고 있습니다. 정확도는 높아지고 있습니다. 그리고 그 지점에서 우리는 훨씬 더 근본적인 질문과 마주합니다.

철학자 해리 프랑크푸르트(Harry Frankfurt, 프린스턴 대학교 명예교수)는 1971년 논문 〈의지의 자유와 인격의 개념(Freedom of the Will and the Concept of a Person)〉에서 인간을 동물과 구분하는 기준을 '2차 욕구(second-order desires)'로 정의했습니다. 1차 욕구가 '무언가를 원하는 것'이라면, 2차 욕구는 '내가 어떤 욕구를 갖기를 원하는지에 대한 욕구'입니다. 배가 고프더라도 '지금은 먹지 않는 사람이 되고 싶다'고 결정하는 능력. 광고를 봐도 '나는 이 유혹에 저항하는 사람이고 싶다'고 판단하는 능력. 이 반성적 자기조정 능력이 바로 인간의 자유의지를 구성한다는 것입니다.

Aaru의 모형이 90%의 정확도로 당신의 행동을 예측한다는 것은, 이 2차 욕구까지 포함된 당신의 전체 행동 패턴이 데이터로 모형화된다는 의미입니다. 당신이 광고를 거부할지 말지, 어떤 후보에게 마음을 돌릴지, 어떤 메시지에 반응해 복지를 신청할지, 당신의 '반성적 판단'조차 이미 예측 가능한 변수가 된다는 점입니다.

여기에 와튼 스쿨의 마케팅 교수 조나 버거(Jonah Berger)의 연구를 겹쳐 놓으면, 이 문제는 더욱 명확해집니다. 버거는 저서 《The Catalyst》(2020)에서 인간이 변화하지 않는 이유를 '장벽(barriers)'에서 찾습니다. 심리적 저항(reactance), 현상 유지 편향(endowment), 불확실성 회피(uncertainty). 그의 핵심 발견은 위대한 설득가는 상대방을 밀어붙이지 않는다는 것입니다. 그들은 상대방의 변화를 막는 장벽이 무엇인지 정확히 파악하고, 그 장벽만 정밀하게 제거합니다. 사람들이 자신이 스스로 결정했다고 느끼면서 원하는 방향으로 이동하도록 설계하는 것입니다.

콘텐츠를 개별 결제하시면 읽을 수 있어요

결제하시려면 아래를 클릭해주세요
(멤버십 구독과는 별도로 개별 결제 해야 합니다)

다른 뉴스레터

Note

NOTE6. 집중력의 위기는 500년 전에도 있었다

정말 바빠서 집중을 못하는 걸까, 아니면 '집중할 대상'을 찾지 못해서 그런 걸까. 1657년, 코펜하겐의 한 의학도는 하루를 시작할 때마다 같은 문제에 부딪혔습니다. 책상 위에는 읽어야 할 책이 쌓여 있었습니다. 해부학 논문, 신학 사본, 철학 저작, 의학 교재

2026.03.14
Note

NOTE4. "Not now"라고 말하는 순간, 그것은 이미 "Never"입니다.

실패 없는 게임을 하는 사람들의 네 가지 원칙. 들어가며: 남의 꿈을 살고 있는 사람들에게 2008년 10월, 그레이엄 위버(Graham Weaver)는 새벽 3시에 잠을 잘 수가 없었습니다. 리먼 브라더스(Lehman Brot

2026.02.28
Note

NOTE5. AI의 정확성, 확실성이 우리를 더 위험하게 만들고 있다면?

의심은 편치 않지만, 확신은 더 터무니 없는 것. 아이의 질문 일곱 살짜리 딸이 차 뒷좌석에서 아빠(나, Adam Waytz, Morris and Alice Kaplan Chair in Ethics and Decision Mana

2026.03.07
One Question at Work

WORK6. 앤트로픽 CEO, 'AI가 언어(Logos) 정복,' 인간의 고유영역은 어디까지인가

미래에 필요한 사람과 일에 대해서. 의식을 가진 새로운 종 2026년 2월 13일, 앤트로픽의 CEO 다리오 아모데이(Dario Amodei)는 뉴욕타임스 팟캐스트 "Interesting Times"에 출연해 진행자

2026.02.20
One Question at Work

WORK1. AI 10초 vs. 내 3시간, 기획서는 왜 내가 직접 써야할까?

글쓰기는 사고의 운동장입니다. Y Combinator 공동창업자 폴 그레이엄은 1993년부터 지금까지 100여 편의 에세이를 써왔습니다. 어떤 에세이는 며칠, 심지어 몇 주가 걸렸지만, 30년간 그는 "글을 쓰

2026.02.07
One Question at Work

WORK5. 일론 머스크가 AGI시스템에 묻고 싶었던 딱 하나의 질문

시스템 안(System-In)사고의 종말. 실존적 도약 머스크의 시뮬레이션 우주론은 단순한 공상이 아닙니다. 그것은 철저한 물리주의자의 입장입니다. 팟캐스트 인터뷰에서 그는 시뮬레이션과 현실을 구분할 수 없다면, 물리적 관

2026.02.18
© 2026 One Good Question

평범함을 넘어 탁월함(Arete)으로—질문을 통해 Best Self를 형성해 갑니다.

뉴스레터 문의wehumanbecoming@gmail.com

메일리 로고

도움말 자주 묻는 질문 오류 및 기능 관련 제보

서비스 이용 문의admin@team.maily.so 채팅으로 문의하기

메일리 사업자 정보

메일리 (대표자: 이한결) | 사업자번호: 717-47-00705 | 서울특별시 송파구 위례광장로 199, 5층 501-8호

이용약관 | 개인정보처리방침 | 정기결제 이용약관 | 라이선스