돌이켜보면 늘 그랬습니다. 레코딩 기술이 처음 나와서 실제 연주가 아닌 녹음된 음악을 처음으로 들은 사람들은 소스라치게 놀랐고, 보코더나 오토튠, 하모나이저 같은 음악 도구가 등장했을 때에도 저게 뭐냐, 사기 아니냐 라는 소리는 늘 따라붙었죠. 사람이란 그런 것 같습니다. 태어나 처음 보는 형태의 엄청난 새로움은 아무래도 두려움이나 반감을 불러일으킬 수밖에 없겠죠. 녹음본이란 걸 처음 들은 사람들은 유령의 장난 같은 거라고 생각해 두려움에 떨었다고 하잖아요. 하긴 얼마나 놀랐겠어요, 사람이 없는 곳에서 나오는 사람의 목소리를 태어나서 처음 들었던 거였을 테니까요.
오늘 준비한 이야기는 그런 사례들 이야기입니다. 음악계의 혁신 혹은 논란이 되었던 이야기들과 그 음악들. 처음엔 저게 도대체 뭐냐는 소리를 수도 없이 들었지만 지금은 하나의 스타일로, 장르로 굳어진 최초의 음악 이야기들입니다. 이렇게 적으니까 좀 딱딱한 사례 모음집 같은데, 많이들 이미 알고 즐겁게 읽고 들으실 만한 음악들이에요.

루픽레터는 원래 구독자 전용입니다. 구독 간단하고 공짜인데 이번 주는 그냥 풀겠습니다.
별 이유는 없고 그냥 제 마음입니다! (이중적 의미❤️🔥)
1. 보이스 변형의 충격: Believe – Cher (1998), Buy U a Drank (Shawty Snappin) (2007)
'오토튠' 을 아십니까? 모르신다면 아래 곡을 44초부터 들어보세요. (장담하는데 분명히 아시는 곡일 겁니다)
저런 개굴개굴(??)한 소리가 오토튠이냐면 그건 아니고요, 원래 오토튠은 녹음된 음성의 음정을 보정하는 기능입니다. 아시는지 모르겠지만 우리가 듣는 상업용 음반의 트랙들과 TV에서 송출되는 라이브 프로그램의 무대는 오토튠이 대부분 강하게 걸려 있어요. 쉽게 이야기하면 기준이 되는 노래의 음계를 입력해 그 기준에 벗어나는 음정은 자동으로 피치를 맞춰 주는 것입니다.
근데 저런 보컬 교정의 본래 목적보다도 '음성 왜곡' 효과가 꽤 멋있더란 말이죠. 위에 첨부드린 셰어의 'Believe'라는 곡이 이 효과를 사용한 최초의 발매음악입니다. 이 곡이 발표될 때만 하더라도 제작사는 오토튠을 사용했다는 걸 좀 부끄럽게 여겼는지 숨기고 싶어했다고 해요. 심지어 레이블에서는 발표하기 전 저 효과를 뺄 것을 요구했지만, 아티스트가 완강하게 반대해 그대로 발매되었고 결과적으로 폭발적인 히트를 거두어 세상은 저 오토튠의 효과를 '셰어 이펙트'로 부르게 됩니다.
이를 적극적으로 활용한 또 다른 가수는 2005년 데뷔한 R&B 가수 T-Pain입니다. 그래서 이 효과를 '셰어 이펙트' 와 더불어 'T-Pain 효과'라고도 부릅니다. 프로듀싱의 영역에서 은밀하게 사용되던 오토튠을 대놓고 하나의 장르로 자리잡게 만들었죠.
T-Pain이 적극적으로 오토튠을 활용하던 2000년대 중반, 오토튠 사용에 대한 비난은 거셌습니다. 제일 많았던 비판은 역시 '보컬 실력에 자신 없으니까 오토튠으로 버무린(?) 것 아니냐'는 것이었는데요. T-Pain은 사실 음악적 역량과 감각이 뛰어난 아티스트로, 보컬을 가상악기처럼 사용하는 방식의 장인(!)으로써 뛰어난 실력을 오히려 오토튠으로 더 빼어나 보이게 만들었을 뿐입니다. 실제로 오토튠을 사용하지 않은 라이브가 공개된 이후 이 반발은 거의 잦아들었죠. 뭐든 그렇습니다, 도구 하나가 마법처럼 기반도 없는 뭔가를 주진 않아요. 오토튠이 다소 부족한 음정피칭을 잘 잡아낼 수 있어서 그 부분이 취약한 보컬을 살려주는 기능이 있는 건 사실이지만, 음정에 대한 이해나 감이 아예 없는 사람이 자동으로 노래를 잘하게 만들어주는 마법상자 같은 건 아닙니다. (그러니까 못해도 적당히 못해야)
2. 가상악기 사용 금지 논란 (2003–2004), 그리고 가상악기로 잘 만들어진 멋진 음악들
가상악기란 쉽게 이야기하면 실제 악기의 소리를 컴퓨터로 구현할 수 있게 하는 디지털 악기입니다. 드럼이든 첼로든 신디사이저든 악기를 실제로 가지고 와서 사람이 연주를 하는 게 아니라 그 악기의 소리를 컴퓨터에 입력해두어 연주하는 것과 같은 사운드를 얻어낼 수 있는 것이죠. 이게 시장에 처음 나온 건 1980년대, '샘플러' 라는 게 나와서 한 명이 여러 악기의 소리를 재현하는 게 가능해질 무렵인데요. 이 때도 연주자들 사이에서 뭐 저딴 게 다 있나며 불편함을 느끼는 사람이 많았지만 본격적으로 논란이 된 건 2000년대 초반입니다. 실제 오케스트라 사운드의 구현이 가능한 고품질 샘플이 등장하자 브로드웨이 뮤지션 노조에서 '일자리 침해'를 이유로 강하게 반발하며 단체 행동에 나선 것이죠. 당시 브로드웨이에서는 가상악기 사용 금지를 위해 연주자 노조가 파업으로 논쟁을 벌였고, 실제로 일부 극장에서 가상악기 사용 금지 협약까지 이끌어 냈습니다. 지금 생각하면 조금 우습기도 하지만, 당시에는 상당히 진지한 논의였을 겁니다. 사람의 연주가 없어도 이 정도 수준이 가능해진다는 게 얼마나 센세이셔널한가요.
그리고 아래는 2009년 발표된 Owl City라는 아티스트의 대 히트곡 중 하나인데요. 저의 유년시절에서 빼놓을 수 없는, 개인적으로 매우 애정하는 곡입니다.
느닷없이 이 곡을 소개드리는 이유는, Owl City의 본캐(?)인 Adam Young이 자기 집 스튜디오에서 세션 연주자 하나 없이 홀로 만든 곡으로 빌보드 Hot 100 1위를 달성한 대 히트곡이기 때문이죠. 이 곡에서 순수한 어쿠스틱 악기는 사람 보컬뿐입니다.(아니, 튜닝을 했다면 완전 순수하진 않을 수도..) 뮤직비디오야 당연히 영화적 연출이겠지만, 예민하신 분들은 똑같은 악기에서 소리가 계속 달라진다는 거 눈치채셨을 거에요.
지금이야 작곡, 편곡, 시퀀싱, 신디사이저 사운드 생성이 모두 프로듀서 개인의 컴퓨터 한 대에서 이루어지는 게 별로 놀라운 일은 아닙니다. 이렇게 만들어지는 곡들이 하루에도 수없이 쏟아지고 있죠. 근데 이것도 오래 전에는 '직접 연주하지 않는 음악이 말이 되느냐'는 논란이 있었다는 게, 저는 꽤 상징적이라고 생각해요.
3. 지금의 AI툴을 활용한 음악 논란, 사실은 새롭지 않을지도 모릅니다
지금 소개드린 가수의 음성을 기계적으로 변형하는 것, 가상 악기로 사람 연주자가 없이도 음악 제작이 가능해진 점 외에도 음악의 역사를 가만히 가늠해보면 논란은 늘상 있어오지 않았나 싶어요. 튜닝을 거친 보컬도, 악기 샘플도 초창기에는 꽤 많은 뮤지션들은 호호탕탕 '사람의 감각과 뉘앙스를 절대로 따라오지는 못한다' 고 확언하곤 했습니다. 저도 실제로 많이 들었어요, 저런 건 제아무리 날고 기어도 사람의 결을 가진 그 고유한 뉘앙스를 절대로 살릴 순 없다고요. 근데 정말 그런가요?
결국 디테일만 달라졌지 질문은 하나인 것 같아요.
"기술의 발전은, 음악의 가치를 망가뜨리는가?"
오토튠 기술도, 소프트웨어 가상 악기도 사라지지 않았고 음악적인 표현의 범주를 더욱 넓히는 데 일조했습니다. 새로운 기술은 인간의 진정성이 없다는 이유로 음악과 예술을 망친다고 늘 비판받아 왔지만, 결국에는 세월을 거쳐 상업화에 성공한 이후에는 또 다른 하나의 표준이 되었죠.
중요한 건 기술의 발전 그 자체가 아닐지도 모릅니다. 어떤 경우에도 '살아남는' 음악을 만들어내고 알아볼 줄 아는 것 아닐까요.
재미있게 읽으셨으면 대인배처럼 구독 한 번 누르십시다. 어려운 거 아니잖아요.
이미 구독자시라면 고맙습니다. 🫡
의견을 남겨주세요