들어가며
구독자님, 지난 2026년 3월 25일 LA 법원에서 배심원단이 Meta와 Google에 600만 달러 배상 판결을 내렸어요. 6살 때 유튜브를, 9살 때 인스타그램을 시작한 20세 여성이 플랫폼의 중독적 설계로 정신 건강에 피해를 입었다는 소송이었죠.
600만 달러라는 숫자만 보면 시가총액이 수조 달러인 두 회사에겐 '푼돈'이에요. 그런데 이 판결 직후 Moody's가 집계한 유사 소송 건수는 4,000건 이상, 피고 기업은 166곳이에요. 하루 뒤 뉴멕시코 주에서는 Meta에 3억 7,500만 달러 배상 판결이 나왔고요.
숫자보다 중요한 건 판결의 논리예요. 이번 판결이 깨뜨린 건 빅테크가 30년간 의지해온 법적 방패의 구조 자체거든요. 오늘은 그 방패가 무엇이었고, 왜 지금 깨지고 있으며, 이것이 소셜미디어를 넘어 어디까지 영향을 미치는지 이야기해 볼게요. 그리고... 덕분에 PM들이 할 일이 더 늘어나 버린 것에 대하여도.. 말이죠.
30년간 빅테크를 지켜온 방패, Section 230
이 판결을 이해하려면 1996년으로 돌아가야 해요. 미국 의회는 그해 통신품위법(Communications Decency Act) 제230조[1]를 제정했어요. 핵심은 단순해요. "플랫폼은 이용자가 올린 콘텐츠에 대해 법적 책임을 지지 않는다." 이 법은 30년동안 엄청난 무적의 방패가 되아요.
인터넷 초창기에 이 법은 합리적이었어요. 게시판에 누군가 명예훼손 글을 올렸다고 게시판 운영자를 처벌하면, 아무도 인터넷 서비스를 만들려 하지 않을 테니까요. Section 230은 사실상 실리콘밸리의 성장 엔진이었어요.
문제는 30년이 지나는 동안 플랫폼이 근본적으로 변했다는 점이에요. 1996년의 인터넷 게시판은 말 그대로 '콘텐츠를 올려놓는 공간'이었어요. 하지만 2026년의 인스타그램과 유튜브는 알고리즘이 콘텐츠를 선별하고, 무한 스크롤이 이용자를 붙잡고, 자동 재생이 다음 영상을 밀어넣는 능동적 설계 시스템이에요.
그럼에도 빅테크는 소송이 들어올 때마다 같은 전략을 썼어요. "우리는 콘텐츠를 만들지 않았다. 이용자가 올린 콘텐츠의 문제이고, Section 230이 우리를 보호한다." 여기에 수정헌법 제1조(표현의 자유)까지 방어 논리로 덧붙였고요.
실제로 이 전략은 거의 완벽하게 작동했어요. 2017년 데이팅 앱 Grindr를 상대로 한 소송에서 원고 측 변호사가 '결함 있는 제품'이라고 주장했지만, 법원은 Section 230을 근거로 기각했어요. 플랫폼이라는 포지셔닝이 법적 방패 역할을 충실히 한 거예요.
⚖️ 방패에 구멍을 뚫은 전략: "콘텐츠가 아니라 설계가 문제다"
이번 캘리포니아 판결에서 원고 측 변호사 마크 레니어(Mark Lanier)가 쓴 전략은 정확히 이 방패를 우회하는 것이었어요.
핵심 논리는 이랬어요. "우리는 플랫폼에 올라온 콘텐츠를 문제 삼는 게 아니다. 플랫폼 자체의 설계가 결함 있는 제품이라고 주장하는 것이다." 무한 스크롤, 자동 재생, 푸시 알림, 좋아요·팔로워 같은 가변비율 보상 체계[2], 알고리즘 추천 — 이 기능들이 의도적으로 중독을 유발하도록 설계되었다는 거예요.
이 프레이밍이 중요한 이유는 Section 230의 적용 범위를 벗어나기 때문이에요. Section 230은 '제3자 콘텐츠'에 대한 면책이지, '제품 설계'에 대한 면책이 아니거든요. 담당 판사인 캐롤린 쿠울(Carolyn B. Kuhl)도 이 구분을 받아들였어요. 재판을 허용하면서 "이 사건은 제3자 콘텐츠의 성격이 아니라, 제품 설계가 이용자 행동에 어떻게 영향을 미쳤는가에 관한 것"이라고 판시했죠.
배심원단은 9일간의 심리 끝에 Meta에 70%, Google에 30%의 책임을 인정했어요. 더 주목할 부분은 배심원단이 두 회사가 "악의, 억압, 또는 사기"를 행했다고 판단해 징벌적 손해배상까지 부과했다는 점이에요.
재판 과정에서 공개된 Meta의 내부 문서들이 결정적이었어요. 그중 하나에는 이런 내용이 있었어요. "청소년 시장에서 크게 성공하려면 10~12세 사이부터 끌어와야 한다." 또 다른 내부 분석에서는 11세 아동이 경쟁 앱 대비 인스타그램에 4배 더 자주 복귀한다는 데이터가 나왔어요 — 자사 정책상 최소 이용 연령이 13세인데도요.
🚬 '빅 타바코 모먼트'인가, 과장인가
이 판결을 두고 미국 언론에서 가장 많이 등장하는 비유가 '빅 타바코(Big Tobacco) 모먼트'예요. 1990년대 담배 소송과의 유사점은 확실히 있어요. 제가 유튜브나 오프라인 강의에선 많이 다뤘는데요. 증세를 위해서 세상은 지금 빅테크의 SNS를 담배, 주류와 같은 좋은 과세 대상으로 보고 있어요.
닮은 점: 기업이 자사 제품의 유해성을 내부적으로 인지하면서도 공개적으로는 부인한 점, 미성년자를 타깃으로 삼은 마케팅 전략, 내부 문서가 결정적 증거가 된 재판 구조. 1998년 담배 회사들이 46개 주와 합의한 마스터 합의(Master Settlement Agreement)의 규모는 현재 가치로 4,000억 달러 이상이었어요.
다른 점도 분명해요. 담배 소송은 니코틴이라는 물질의 물리적 중독과 암이라는 명확한 인과관계가 있었어요. 반면 소셜미디어와 정신 건강 사이의 인과관계는 훨씬 복잡해요. AEI(American Enterprise Institute)의 분석에 따르면, '소셜미디어 중독'은 아직 DSM-5-TR[3]에 공식 진단명으로 등재되지도 않았어요. 현재 인정되는 행동 중독은 도박 장애 하나뿐이고요.
또한 담배는 표현의 자유와 무관하지만, 소셜미디어 플랫폼은 이용자의 표현과 수신의 자유가 걸려 있어요. 수정헌법 제1조 방어가 항소심에서 다시 쟁점이 될 수 있는 이유예요.
그래서 이번 판결이 곧바로 빅테크의 '1998년 모먼트'가 된다고 보기는 어려워요. 다만 방향성은 명확해요. Santa Clara 대학 법학 교수 에릭 골드만(Eric Goldman)은 이렇게 요약했어요. "원고 측 변호사들이 체계적이고 집요한 소송을 통해 Section 230의 보호에 균열을 만들어가고 있다." 실제로 Moody's 집계 기준 중독적 소프트웨어 설계를 주장하는 소송은 4,000건 이상, 대상 기업은 166곳이에요. 소셜미디어뿐 아니라 비디오 게임, 온라인 도박 앱, 심지어 AI 챗봇까지 포함되어 있고요.
AI까지 번지는 '설계 책임' 논리

사실 이 판결의 파급력이 가장 큰 곳은 소셜미디어가 아니라 AI 산업일 수 있어요.
2024년 플로리다에서 제기된 Garcia v. Character Technologies 소송이 대표적이에요. AI 챗봇 Character.AI와의 대화가 10대 소년의 자살에 기여했다는 주장이었는데, 법원은 AI 챗봇을 서비스가 아닌 '제품'으로 분류하고 제조물 책임법[4] 적용을 허용했어요. 더 놀라운 건 LLM[5]을 제공한 Google까지 '부품 제조자(component part manufacturer)' 책임을 물을 수 있다고 판단한 점이에요.
이건 소셜미디어 소송보다 한 발 더 나간 거예요. 소셜미디어 소송에서는 플랫폼 운영사만 피고였지만, AI 소송에서는 기반 모델을 만든 회사, 클라우드 인프라를 제공한 회사까지 공급망 전체가 소송 대상이 될 수 있다는 선례가 만들어진 거죠.
2026년 3월에 발의된 '트럼프 아메리카 AI 법안(Trump America AI Act)' 초안도 이 방향과 궤를 같이해요. AI 개발자와 배포자에게 예측 가능한 피해를 방지할 주의 의무(duty of care)를 부과하고, Section 230 폐지까지 포함하고 있어요. 아직 의회 위원회에 회부되지는 않았지만, 법적 프레임워크의 방향성을 보여주는 신호탄이에요.
오스왈드의 시선
저는 이 판결을 '법률 뉴스'가 아니라 '프로덕트 전략의 전환점'으로 읽어요. 기획자들 입장에서는 이제 설계서와 우린 이럴 의도가 아니였다는 법적 근거와 설계 의도 등 다양한 방어 전략을 준비해놔야 하는거죠. (억울해도 어쩌겠어...) 지금까지 지켜본 빅테크의 가장 강력한 전략적 자산은 기술력이 아니었어요. "우리는 플랫폼이다"라는 포지셔닝 자체가 방패였어요. 플랫폼이면 콘텐츠 책임에서 자유롭고, 이용자 행동의 결과도 이용자 몫이 되니까요.
이 전략이 무너지고 있어요. 법원이 "당신들은 콘텐츠 호스팅만 하는 플랫폼이 아니라, 이용자 행동을 설계하는 제품을 만드는 기업이다"라고 판단하기 시작한 거예요. 이건 프로덕트 디자이너와 PM에게 실질적인 과제를 던져요.
지금까지 프로덕트 디자인의 핵심 KPI는 인게이지먼트였어요. DAU, 세션 시간, 리텐션율 — 이용자를 더 오래, 더 자주 붙잡는 게 좋은 설계였죠. 무한 스크롤, 자동 재생, 알림 배지의 빨간 점... 이 모든 패턴이 인게이지먼트를 극대화하기 위해 수십 년간 정교하게 다듬어진 것들이에요.
그런데 이제 이 패턴들이 법적 결함의 증거가 되고 있어요. "왜 이 기능을 이렇게 설계했는가?"라는 질문에 "인게이지먼트를 높이기 위해서"라고 답하면, 그게 곧 "이용자를 중독시키기 위해 의도적으로 설계했다"는 원고 측 주장의 근거가 되는 거예요.
앞으로 프로덕트 팀이 신경 써야 할 건 분명해요. 첫째, 설계 의사결정의 문서화예요. "왜 이 기능을 이렇게 만들었는가"에 대한 기록이 재판 증거가 될 수 있어요. 내부 문서에 "이용자를 더 오래 잡아두기 위해"라고 적혀 있으면 그게 법적 리스크가 돼요. 둘째, 인게이지먼트 지표 외에 이용자 웰빙 지표의 병행 측정이에요. 세션 시간이 길어질수록 좋다는 가정 자체가 법적으로 도전받는 시대가 온 거예요. 셋째, 'Privacy by Design'에서 'Safety by Design'으로의 확장이에요. GDPR이 데이터 처리 설계에 책임을 물었듯이, 이제 제품의 행동 설계에도 같은 프레임이 적용되기 시작했어요.
마치며
정리하면 이래요.
- 이번 판결의 핵심은 금액이 아니라 논리예요. "콘텐츠가 아니라 설계가 문제다"라는 프레이밍이 법원에서 받아들여졌고, 이 논리는 4,000건 이상의 후속 소송에 적용될 수 있어요.
- Section 230이라는 30년짜리 방패에 구멍이 뚫렸어요. '플랫폼'이라는 포지셔닝으로 제조물 책임을 회피하던 전략이 더 이상 통하지 않게 되고 있어요.
- 이 논리는 소셜미디어에서 AI, 게임, 도박 앱까지 확장되고 있어요. 프로덕트를 설계하는 모든 기업이 "왜 이렇게 만들었는가"라는 질문에 답할 준비가 필요해요.
다음에 여러분의 프로덕트 로드맵을 리뷰할 때, 한 가지만 자문해 보세요. "이 기능의 설계 이유를 법정에서 설명해야 한다면, 자신 있게 답할 수 있는가?"
참고자료 & 더 읽기
핵심 출처
- "What the Meta and Google verdict means for social media design", Scientific American, 2026.
- "Meta, Google under attack as court cases bypass 30-year-old legal shield", CNBC, 2026.
- "Can Social Media or AI Be a Defective Product?", McGuireWoods, 2026.
- "Social Media Addiction Lawsuits: The Deceptively Flawed Tobacco Analogy", American Enterprise Institute, 2026.
배경 지식
- "Beyond Section 230: Principles for AI Governance", Harvard Law Review, Vol. 138, 2025.
- 김민우·김일환, "아동의 소셜 미디어(SNS) 이용 규제 입법 동향에 관한 고찰", 미국헌법연구 36(1), 2025.
- 방송통신정책연구원(KISDI), "온라인 상의 아동·청소년 보호를 위한 제도개선 방안 연구", 2025.
각주
- [1] Section 230 (통신품위법 제230조): 1996년 미국 의회가 제정한 법으로, 인터넷 서비스 제공자가 이용자가 올린 콘텐츠에 대해 발행인(publisher)으로서의 법적 책임을 지지 않도록 면책해주는 조항이에요. "인터넷의 26개 단어"라고도 불려요.
- [2] 가변비율 보상 체계 (Variable-ratio reward schedule): 보상이 불규칙한 간격으로 주어지는 구조예요. 슬롯머신이 대표적이에요. 좋아요나 팔로워 알림이 언제 올지 모르기 때문에 계속 확인하게 되는 원리가 이와 같아요.
- [3] DSM-5-TR (정신질환 진단 및 통계 매뉴얼 제5판 텍스트 개정판): 미국 정신의학회(APA)가 발행하는 정신질환 분류 체계예요. 정신건강 분야의 국제 표준 진단 기준으로, 여기에 등재되지 않은 진단명은 공식적으로 인정되지 않아요.
- [4] 제조물 책임법 (Products Liability): 결함이 있는 제품으로 인해 소비자가 피해를 입었을 때, 제조자에게 책임을 묻는 법리예요. 원래 물리적 제품(자동차, 의약품 등)에 적용되던 것이 디지털 제품으로 확장되고 있는 것이 이번 판결의 핵심이에요.
- [5] LLM (Large Language Model, 대규모 언어 모델): ChatGPT, Gemini 같은 AI 챗봇의 기반이 되는 모델이에요. 대량의 텍스트 데이터를 학습해 문장을 생성하는 구조인데, 이번 소송에서는 이 모델 자체를 '부품'으로 보고 제조자 책임을 물을 수 있는지가 쟁점이 됐어요.

의견을 남겨주세요