우아한 뇌를 위한 유해한 교양

당신은 인간이 맞습니까?

2025.12.15 | 조회 34 |
0
|
당신의 인생 디버깅 샵의 프로필 이미지

당신의 인생 디버깅 샵

"인간이라는 불완전한 OS를 위한 패치(Patch) 노트"

첨부 이미지

인간이 인공지능을 테스트하는 것이 아니라, 인공지능이 인간을 역으로 테스트하는 시대가 왔다. 인공지능은 무례하게 이렇게 요구한다. 당신이 인간이 맞다면 신호등이 포함된 타일을 모두 고르시오!


첨부 이미지

여기서 문제, 왼쪽 두 개는 확실히 신호등이 포함됐으니 클릭한다고 하고 신호등을 매달고 있는 기둥은 신호등인가 아닌가? 만약 기둥을 신호등의 연장선으로 본다면 가로로 길게 뻗은 타일을 모두 클릭해야 하는데 틀릴까봐 망설여진다. 혹시 내가 자동으로 이메일에 가입하고, 스팸이나 나르고 있는 인공지능 봇으로 취급될까 두렵다!

인공지능의 '인간 테스트'를 한번에 패스한 사람도 있겠지만, 그러지 못한 사람도 있다. 틀릴 때마다 다른 퍼즐이 나오고 이번에는 버스를 골라라, 자전거를 맞춰봐, 하며 나를 놀리는 것 같다. 그러면서도 나는 의심한다. 나 혹시 바보인가? 인간이 아닌가? 아니면 영화처럼 인공지능이면서도 자기가 인간으로 착각하고 있는 것 아닐까? 

 

흔히 캡차(CAPTCHA)라 부르는 이 퍼즐은 우습게도 정해진 정답이 없다. 이것이 첫 번째 함정이다. 정확히 말하면 정답이 있는 퍼즐과 없는 퍼즐 두 가지가 교묘하게 섞여 있다. 정답이 있는 것은 봇이나 스팸을 방지하기 위한 목적이니 그렇다치고, 정답이 없는 퍼즐의 목적은 무엇일까?

그 목적을 알기 위해서는 구글이 제시하는 테스트가 버스, 신호등, 소화전, 자전거 같은 교통 상황에 관련된 퍼즐임에 주목해야 한다. 왜 사과, 전기밥솥, 휴대폰, 가방을 찾으라는 퍼즐은 본 적이 없을까? 그 이유는 명쾌하다. 이 테스트의 목적이 자율 주행차의 성능을 개선하기 위한 것이기 때문이다.

 

구글은 자율주행 자회사인 웨이모(Waymo)의 AI에게 도로 상황을 학습시키고, 구글 스트리트 뷰의 정확도를 높이기 위해 이 시스템을 고안했다. 이 시스템을 만든 루이스 폰 안(Luis von Ahn) 교수는 이 방식을 '인간 연산(Human Computation)'이라고 칭했는데, 인공지능의 성능을 향상 시키는데 인간의 연산이 필요했기 때문이었다. 

AI는 무엇이 '신호등'인지 모른다. 이때 인간이 "이 타일이 신호등이야"라고 찍어줌으로써 AI는 "아, 이런 모양이 신호등이구나"라고 학습한다. 이렇게 인공지능을 위해 설계한 퍼즐에 걸려 들었을 경우 한번에 맞추는 인간은 거의 없다고 봐야 한다. 왜냐하면 AI 학습이 목적이기 때문에 방문자 1인에게 최소 서너 번의 테스트를 제시해야 효율이 높기 때문이다. 

살짝 짜증나는 점은 인간 테스트를 보안 인증으로 속였다는 것이다. 물론 보안 인증의 역할도 있었다. 하지만 실상은 자율주행차가 도로를 달릴 수 있도록 무료로 과외를 해주고 있었던 셈이다. 요즘 들어 위와 비슷한 퍼즐이 잘 튀어나오지 않는 이유도 간단하다. 이제 자율 주행 AI는 도로 상황에 대해 충분히 배웠다. 인간 연산은 굳이 필요하다!

물론 웹사이트의 스팸 차단 기능이 더 진화한 탓도 있다. 대부분 사이트에서 적용되고 있는 reCAPTCHA v3는 사용자에게 '버스를 고르라'는 등의 시각적 문제를 제시하는 대신, 웹사이트에서 사용자의 행동 패턴을 분석한다. 마우스 움직임의 속도와 패턴, 클릭 횟수, 페이지를 탐색하는 방식, 키보드 입력 속도 등을 종합적으로 판단해 해당 사용자가 로봇일 확률을 계산한다. 게다가 요즘 인공지능은 예전에 나왔던 신호등 고르기 정도는 가볍게 통과할 정도로 진화했다. 하긴 요즘의 인공지능 유치원에서는 인간의 마우스 움직임 속도와 패턴을 배우고 있을지도 모를 일이다. 또 다른 목적을 위해서.


실제 신호등 고르기 보다 먼저 상용화된 CAPTCHA 시스템은 AI의 문자 인식 기능(OCR) 향상을 위해 사용됐다. 

첨부 이미지

위와 같이 맞추기 쉬운 것도 있지만 어떤 것은 도저히 무슨 글자인지 모를 때가 있었을 것이다. 

첨부 이미지

이게 뭐지? 왜 이런 글자가 나왔는지 살펴보니 AI가 인식해야 할 문서 중에 글씨를 알아보기 힘든 고문서가 있었기 때문이다. 아래와 같다. 

첨부 이미지

빨간 동그라미 친 부분! 이런 고문서를 해석하는데 개발자들은 인간의 인식 능력이 필요했다. 그래서 '너 인간 맞아?'라는 테스트를 하며 난해한 글자를 제시하고 정답을 맞추라고 하면서 사실은 그들의 AI를 정교하게 학습시켰다. 역시 공짜로. 

 

뭐, 괜찮다. 구글을 비롯한 빅테크들이 무료로 우리에게 베풀어 주는 많은 서비스들에 비하면 이 정도 의무는 수행해야 계산이 맞다고 생각할 수 있다. 아무 데나 튀어 나오는 광고도 보고, 용량이 부족하면 멤버십에 가입도 하지만 그래도 괜찮다. 남들도 다 하고 있는 것에 나만 유난 떨 이유는 없다. 더구나 이제까지 몰랐던 사실 아닌가?  

하지만 좀 우습지 않나? 우리는 우리가 '고객'인 줄 알았지만, 실상은 데이터를 라벨링 해주는 '연산 장치'에 불과했다. 역시 구글은 천재적이다. 전 인류를 무임금 알바생으로 고용하고도 칭송 받았다.


인공지능이 인간을 흉내 내려 하니 인간 연산이 필요한 것은 어쩔 수 없다. 일각에서는 지금의 생성형 AI 보다 업그레이된 AGI가 나오면 인간의 지적 수준은 금붕어와 비슷한 레벨로 내려갈 것이라 주장한다. 그런데 인간에게 배워 인간을 뛰어넘고 나면, 인공지능은 누구에게 배워 더 진화할 것인가?

스스로 이 세계와 인간에 대해 배워 나갈까? 그렇게 스스로 배워서 인간을 훨씬 능가한 AGI가 지금처럼 인간을 위해 순순히 결과값을 출력해 줄까? 조금 궁금하다.

또 아직은 인공지능과 인간이 많이 다르고 인간이 나은 점이 있으니까 이런 저런 테스트로 '인간이 맞는지' 구분한다고 치자. 그러나 인공지능이 인간을 추월하고 나면 새로운 인간 테스트는 어떻게 해야 하나?

인간을 어떻게 구분하지? 수학 문제를 풀어 보라고 할까? 그럼 다 틀릴 껄. 미분도 못 하는 바보들 많잖아.  아니야, 우리는 못 하고 인간만 잘 하는 것을 물어야지! 그런 게 있나? 있다고 치고, 그런데 인간만 잘 하는 것을 인간이 풀었다면 우리는 그것을 못 하는데 그게 맞는지 어떻게 알지? 

이에 더해 인간 테스트의 목적이 '입장'이 아니라 '거절'이라면? 인간은 접속할 수 없는 시스템이 수없이 생겨나지 않을까?

이건 진짜 궁금하다. ☈


'No Humans Zone'

[경고] 비효율적인 유기체의 접근이 감지되었습니다. 시스템 보호를 위해 접속을 차단합니다.

첨부 이미지

 

 

다가올 뉴스레터가 궁금하신가요?

지금 구독해서 새로운 레터를 받아보세요

✉️

이번 뉴스레터 어떠셨나요?

당신의 인생 디버깅 샵 님에게 ☕️ 커피와 ✉️ 쪽지를 보내보세요!

댓글

의견을 남겨주세요

확인
의견이 있으신가요? 제일 먼저 댓글을 달아보세요 !
© 2025 당신의 인생 디버깅 샵

"인간이라는 불완전한 OS를 위한 패치(Patch) 노트"

뉴스레터 문의imt4408@gmail.com

메일리 로고

도움말 자주 묻는 질문 오류 및 기능 관련 제보

서비스 이용 문의admin@team.maily.so

메일리 사업자 정보

메일리 (대표자: 이한결) | 사업자번호: 717-47-00705 | 서울특별시 성동구 왕십리로10길 6, 11층 1109호

이용약관 | 개인정보처리방침 | 정기결제 이용약관 | 라이선스