Divided by Zero에 오신 걸 환영합니다. IT테크, 스타트업 그리고 자본시장에 대한 2차적 사고를 공유합니다.
AGI(일반인공지능)는 정말 이제 거의 다 온 순간일까요? OpenAI, 구글, 앤트로픽 같은 리더들은 연일 더 똑똑해진 모델을 내놓으며 'AGI가 코앞에 왔다'는 듯한 분위기를 만들고 있죠. 그런데 말입니다, 이 뜨거운 축제에 찬물을 끼얹는 목소리가, 그것도 가장 뜻밖의 장소에서 나왔습니다. 바로 애플(Apple)입니다.
애플은 지난주 '사고의 환상(The Illusion of Thinking)'이라는 도발적인 제목의 연구 논문을 발표했습니다. AI 경쟁에서 한참 뒤처졌다고 평가받던, 그래서 늘 조용하기만 했던 애플이 갑자기 경쟁사들의 최신 AI 모델들이 가진 근본적인 결함을 조목조목 지적하고 나선 겁니다.
과연 이건 순수한 학술적 기여일까요, 아니면 AI 레이스의 판도를 바꾸기 위한 정교하게 계산된 한 수일까요? 애플은 왜 갑자기 AI의 '발전 속도'가 아닌, 그 '발전의 본질'에 대해 의문을 제기하기 시작했을까요?
진짜 생각하는게 아닐지도
애플 논문의 핵심은 충격적일 만큼 간단합니다. 현재 가장 뛰어나다는 AI 추론 모델(LRMs)들이, 문제가 조금만 더 복잡해지면 마치 절벽에서 떨어지듯 처참하게 무너져 내린다는 겁니다.
- 복잡성의 절벽: 애플의 연구진들은 '하노이의 탑' 같은 고전적인 퍼즐의 난이도를 조금씩 높여가며 AI 모델들을 테스트했습니다. 그 결과, 특정 난이도까지는 거의 완벽에 가까운 성능을 보이던 모델들이, 그 지점을 넘어서는 순간 정확도가 0으로 수직 낙하하는 현상을 발견했습니다. 앤트로픽의 클로드 3.7 소네트나 딥시크 R1 같은 최신 모델들조차 하노이의 탑 원반이 5개가 되자 실패하기 시작했다고 하죠
- 포기 현상: 더 이상한 점도 있습니다. 문제가 어려워져서 더 깊이 생각해야 할 시점에, AI 모델들은 오히려 '생각하는 노력', 즉 추론에 사용하는 토큰의 양을 줄여버렸습니다. 마치 어려운 수학 문제를 풀다가 "에라, 모르겠다" 하고 그냥 포기해버리는 학생처럼 말이죠
- 실행 실패: 이게 진짜 뼈아픈 지적인데요. 연구진이 아예 문제 풀이 알고리즘(단계별 정답)을 알려주고 "이대로만 따라 해"라고 지시했음에도 불구하고, AI 모델들은 여전히 특정 복잡성 단계에서 실패했습니다
이게 주장하는 바는 명확합니다. 현재 AI 모델들이 보여주는 추론 능력은 진짜 논리적인 '사고'라기보다, 훈련 데이터에서 학습한 방대한 패턴을 그럴듯하게 흉내 내는 '정교한 패턴 매칭'에 가까울 수 있다는 겁니다. 정해진 패턴을 넘어서는, 진짜 처음 보는 복잡한 문제나 깊은 논리적 절차가 필요한 상황에서는 속수무책으로 무너져 내리는 거죠. 애플은 바로 이 지점을 '사고의 환상'이라고 부른 겁니다.
반박
물론 애플의 주장이 완벽하기만 한 건 아닙니다. 논문이 공개된 후, 여러 전문가와 커뮤니티에서 비판적인 의견도 나왔습니다.
일리노이 대학 연구원 맥스 미첼(Max Mitchell)은 하노이의 탑 실험에서 모델이 실패한 이유가, 진짜 추론 능력이 부족해서가 아니라 단순히 '컨텍스트 창(Context Window)'의 한계 때문일 수 있다고 지적했습니다. 문제의 난이도가 높아지면 정답을 서술하는 데 필요한 텍스트의 양이 기하급수적으로 늘어나는데, 이게 모델이 한 번에 처리할 수 있는 용량을 초과해버렸다는 거죠.
이 외에도 "애플이 일부러 자신들에게 유리한, 혹은 경쟁사 모델의 약점을 드러내는 특정 퍼즐만 골라서 테스트한 것 아니냐"는 체리피킹 의혹도 제기됐습니다. 하지만 이런 반박들을 감안하더라도, 애플이 제기한 실행 실패 문제는 현재 AI 모델들의 근본적인 한계에 대한 중요한 질문을 던지는 것은 분명해 보입니다.
경쟁사들은 몰랐을까
여러 반박들에도 불구하고, 애플이 제기한 '추론의 한계' 문제는 AI 업계의 아픈 곳을 찔렀다는 평가도 많습니다. 그렇다면 OpenAI, 구글 같은 경쟁사들은 정말 이 문제를 모르고 있었을까요? 그럴리는 없죠. 사실 이들도 각자의 방식으로 이 문제에 오래전부터 대응하고 있었죠
- OpenAI: 이들은 AI 모델의 생각의 사슬 과정(Chain-of-Thought)을 모니터링하며, 애플이 지적한 '포기 현상'과 같은 잘못된 행동을 감지하고 이해하려는 연구를 진행 중입니다. 특히 'o3' 시리즈 같은 모델은 단순히 모델을 키우는 것을 넘어, 강화학습을 통해 추론 능력을 직접적으로 개선한다고 하는데 (사용자 입장에선 잘 모르긴하겠습니다)
- 구글 딥마인드: 'SELF-DISCOVER'라는 프레임워크를 통해, AI가 문제에 맞춰 스스로 최적의 추론 구조를 구성하도록 유도하는 연구를 하고 있습니다. 복잡한 문제를 여러 AI 에이전트가 협력해서 풀게 하는 'Chain-of-Agents' 같은 접근법도 시도 중이고요
- 앤트로픽: 앤트로픽은 특히 '자기 교정(Self-Correction)' 능력에 집중하는 모습입니다. 최신 클로드 모델들은 복잡한 작업을 수행하다가 스스로 오류를 발견하고 수정하는 능력을 갖추도록 설계되고 있다고 합니다. 애플이 지적한 '실행 실패' 문제에 대한 직접적인 대응책이 될 수도
결국 애플이 제기한 문제가 완전히 새로운 발견이라기보다는, 업계의 리더들이 이미 인지하고 다양한 방식으로 해결하려 애쓰고 있던 '공공연한 비밀'을 수면 위로 꺼내 공론화했다는 편이 더 정확해 보입니다.
그래서 애플은 왜 이런 말을 하는 걸까?
자, 여기서 우리는 한 걸음 더 나아가야 합니다. 애플이 이 논문을 발표한 시점은 자신들의 연례 개발자 회의(WWDC)가 열리기 불과 며칠 전이었습니다. 과연 이게 우연일까요? 여기에는 애플의 전략적 의도가 숨어있을 가능성이 높습니다.
- 자신들의 느린 속도 정당화?: 애플은 그동안 AI 경쟁에서 뒤처졌다는 비판을 받아왔습니다. 이 논문은 "우리가 느렸던 게 아니라, 신중했던 것이다. 저들이 달려가는 길이 사실은 막다른 길일 수 있다"고 말하는 것과 같습니다. 경쟁사들의 현란한 발전이 사실은 '사고의 환상'일 수 있다고 지적함으로써, 자신들의 신중한 접근법에 정당성을 부여하는 거죠.
- 경쟁사들에 대한 견제: OpenAI, 구글, 앤트로픽 등 앞서가는 경쟁사들의 모델이 가진 한계를 공개적으로 드러냄으로써, 이들의 기술적 우위에 대한 시장의 맹신에 균열을 내려는 의도도 엿보입니다. 시장에서 열광하는 모델들, 사실 이런 문제도 해결 못한다라고 넌지시 알려주는 셈
- 새로운 게임의 룰: 어쩌면 애플은 이 논문을 통해 AI 경쟁의 프레임을 바꾸려 할 수 있겠죠. "누가 더 큰 모델을 더 빨리 만드느냐"의 경쟁에서, "누가 더 안정적이고, 신뢰할 수 있으며, 진짜 논리적인 추론이 가능한 AI를 만드느냐"의 경쟁으로 말이죠. 그리고 이 새로운 게임의 룰 위에서, 애플은 자신들이 곧 선보일 '애플 인텔리전스'가 바로 그 해답이라는 서사를 만들고 싶어 할 겁니다. 근데 애플 인텔리전스가 제대로 나와야 이게 먹히겠지만 말이죠
결국 이 논문은 단순한 학술적 기여를 넘어, AI 시장의 판도를 자신들에게 유리하게 재편하려는 애플의 정교한 시장 신호로 해석하는 것이 더 타당해 보입니다.
애플은 발전 속도를 우려할까?
실마리는 보이는 것 같죠. 애플이 우려하는 것은 자신들의 속도 그 자체가 아닙니다. 애플은 현재 AI 업계가 달려가고 있는 '방향'에 대해 근본적인 의문을 제기하고 있는 겁니다. 단순히 모델을 키우고, 더 많은 데이터를 쏟아붓는 방식만으로는 진정한 의미의 '생각하는 기계'를 만들 수 없으며, 이는 결국 '복잡성의 절벽'이라는 한계에 부딪힐 것이라는 경고죠.
애플이 AI 경쟁에서 워낙 뒤쳐진 인상을 주고있다보니 그다지 설득력이 없어보이긴 합니다.
그럼에도 불구하고 애플의 이 도발적인 문제 제기는 AI 업계 전체에 던지는 중요한 화두입니다.
"우리가 지금 보고 있는 것이 진짜 지능의 발전인가, 아니면 그저 더 정교해진 환상일 뿐인가?"
AI 레이스의 승자가 누가 될지는 아직 아무도 모릅니다. 어쩌면 이제 이 경쟁은 단순히 더 빨리 달리는 것만으로는 이길 수 없는, 더 복잡하고 철학적인 국면으로 접어들수도 있겠죠. 어쩌면 애플은 경쟁사들이 결승선이라고 믿고 달려가는 그 지점이 사실은 신기루일 뿐이라고 말하며, 전혀 다른 곳에 있는 진짜 결승선을 향해 조용히 나아가고 있는지도 모르죠.
의견을 남겨주세요