본 커뮤니티의 모든 내용은 개인적인 의견이며 투자에 대한 조언이 아닌 전반적인 미국의 시장, VC, 스타트업, 기술 트렌드와 그에 대한 개인적인 의견들입니다.
주간실리콘밸리 유튜브 (매일 밤 10시 라이브 및 세션 녹음)
오픈채팅방: 그외 투자/경제 이야기 (비번: 2050)
다들 한 주 잘 보내셨나요? 이번주부터는 미국 스타트업씬의 최신 딜 소식도 함께 전해드리려고 합니다. 올해 초부터 시작하려고 했던건데 이제서야 시작하네요. 저는 어차피 항상 찾아보고 있는데 정리도 할겸 공유드리려고 합니다.
일간뉴스레터를 새로운 계정으로 만드는등의 방안을 포함해 구독자 여러분들의 이메일을 너무 괴롭히지 않으면서 편하게 읽으실수있는 방법을 찾아보겠습니다.
개인적으로는 진짜 재미있는 주제라고 생각하고 아직 정답이 없는, 상상력의 문제라고 생각합니다. 그래도 구독자 여러분들께서 제 생각을 들어주시고 본인들의 생각을 오픈채팅방을 통해서 저에게 공유해주시면 좋은 공부가 되겠다 싶어서 한참 부족하고 뜬구름잡는 이야기 같기도 하지만 정리해두려고 합니다.
1. 2007년에 멈춰버린 혁신: 컴퓨터와 인간의 소통방식
제 세션을 들으시는 분들은 이미 여러번 들으셨겠지만 저는 지금의 인간이 컴퓨터와 상호작용하는 방식이 너무 구닥다리라고 생각합니다.
우리는 현재 컴퓨터와 소통하기위해 키보드+마우스 혹은 터치스크린을 쓰고있고 대부분의 경우 눈도 함께해야합니다. 저는 이 방식이 우리들의 집중력 너무 많이 소비하고 생산성을 떨어트린다고 생각합니다.
솔직히 비전프로를 아직 테스트해보지 않았지만 눈으로 타자를 친다는게 거부감이 드는 이유도 비슷한 맥락입니다. 손과 눈이 서로 다른 일을 해야 생산성이 높아지지 않을까요?
또 현재의 운전 보조장치 ("자율주행")도 물론 운전시 피로감을 약간 줄여주는 것으로 많은 도움이 되지만 정말 의미있는 혁신은 도로를 주시하지않아도 되는 레벨에 도달할때가 아닐까 생각합니다 (차를 타고 운전을 하면서 안전하게 유튜브를 볼수있어야 진정한 혁신아닐까요? ㅋㅋㅋ너무 이기적인가요).
다시 주제로 돌아와서 마우스가 상용화된건 1983년 마이크로소프트에 의해서였고 터치패드가 상용화된건 2007년 애플이 아이폰을 발표하면서였다고 생각하는데 이 둘 덕분에 인간과 컴퓨터와의 상호작용이 급격히 나아진 건 사실이고 이 둘은 분명히 인터페이스의 혁신을 가져왔다고 생각합니다.
아시다시피 개인적으로 메타를 좋아하는 이유도 혹시나 메타가 새로운 폼펙터, 새로운 human-computer interaction을 가져올수도 있지않을까 하는 기대있어서 입니다. 저는 메타버스가 새로운 공간이나 세계가 아니라 새로운 컴퓨터와 인간의 소통방식일수도 있다고 생각했고 (물론 quest 3는 갈길이 멀어보임...) 그리고 메타의 smart glasses가 그 예고편을 보여주고 있다고 봅니다. 참고로 메타의 smart glasses를 낀 상태로 바로 메타의 인공지능에게 질문을 하고 실시간으로 답변을 들을수있습니다.
최종적으로는 뇌와 컴퓨터가 바로 소통하는 뉴럴링크가 어찌보면 뇌를 컴퓨터로 확장해주는 방식으로의 접근이 전문가가 아닌 제가 보기엔 이상적이라고 생각하고 개인적으로 응원하는 너무 신나는 아이디어입니다. 다만 생각보다 그 발전이 오래걸리수도 있다고 생각하는데 약간 설득되지 않는 부분들이 있어서 입니다. 예를 들면 최근 일론머스크가 발표한 "뇌로 마우스커서 움직이기 성공"은 1990년대부터 연구되어왔고 뇌속에 칩을 넣지않고도 성공한 것이라 언론에서 다루는 것만큼 얼마나 혁신적인지 공감이 좀 되지 않더라구요.
물론 뉴럴링크는 과거에 비해 고도화된 하드웨어의 수술적 설치를 통해 수술을 하지않고 얻을수있는 뇌파자료보다 훨씬 더 많은 자료를 얻을수 있기때문에 더 정교한 뇌파 분석이 가능하다는 점이 큰 장점이라고 봅니다. 결국 인공지능으로 뇌의 패턴을 파악해서 그 의도를 파악하는게 그 근본 기술이라고 한다면 말이죠.
다만 지금의 인공지능(=딥러닝)으로는 체스와 같이 경우의 수가 제한된 게임에 대한 해석능력은 뛰어나지만 자율주행과 같은 경우의 수가 거의 무한한 게임에 대한 해석능력이 떨어진다고 생각합니다 (일론의 말과는 달리 2017년이 지난 지금도 저는 아직 운전대를 잡고 도로를 주시하고 있습니다). 따라서 포인트는 뇌와 그 신호라는 게임의 경우의 수가 얼마나 되고 뉴럴링크의 하드웨어가 그 신호를 deterministic하게 이해할수 있을 정도로 충분한 정보를 수집할수 있는가가 중요하지 않을까 생각합니다. 어쨋든 저는 뉴럴링크의 도전을 앞으로도 응원하고 지켜볼 계획입니다.
2. 컴퓨터와 잘 소통해야 살아남는다.
다시 주제로 돌아가자면 그런데 왜 소통방식이 중요할까요? 터치스크린 이미 너무 편한데 왜 난리냐구요? 왜냐면 우리는 컴퓨터를 더 잘써야, 컴퓨터와 더 잘 소통해야 살아남는 시대에 살고 있기 때문입니다.
사실 이건 제가 경제학을 그만두고 컴퓨터와 데이터과학을 공부해야겠다고 결심한 이유이기도 한데 우리는 지금 컴퓨터가 인간을 뛰어넘은지 오래인 시대에 살고있습니다. 특히 요즘은 LLM덕분에 다들 온몸으로 체감하고 있으실거라고 믿구요. 따라서 도구의 동물인 인간은 당연히 지금 인간이 가진 최고의 도구인 컴퓨터를 어떻게 사용하는가에 따라 그 퍼포먼스가 달라질수있고 개발자들의 높은 연봉이 그 증거라고 생각합니다. 특수한 경우를 제외하고는 컴퓨터와 가장 잘 소통하는 사람들이 가장 높은 생산성을 보여주기때문에 가장 많은 돈을 벌고 있는거죠.
3. 프로그래밍이 그 소통 방법이지만 불완전하다
그럼 그 소통방법에 대해서 좀 더 생각해 보겠습니다. 프로그래밍을 스펙트럼으로 보았을때 왼쪽끝에 기계어가 있고 오른쪽 끝에 인간의 언어, 자연어 natural language가 있다고 가정해보겠습니다.
솔직히 CS101이라 가물가물하지만 최초의 프로그래밍은 말 그대로 인간이 기계어를 작성하였고 그다음 좀 더 쉬운 저급언어인 어셈블리어가 개발되었으며 그 이후 고급언어들이 개발되면서 서서히 인간의 언어를 기계어로 통역하는 시스템이 발전해왔다고 기억합니다.
요즘은 파이썬같이 직관적이고 인간의 언어와 가까운 프로그래밍 언어들이 나타면서 저포함 모두가 프로그래밍을 쉽게 배우고 있지만 하지만 아직 코딩을 할줄아는 사람보다 못하는 사람이 세상에는 더 많이 있고 이는 아직도 두 언어간의 통역이 쉽지않고 통역사들(=개발자들)이 많은 돈을 벌수있는 상황이라는걸 말해준다고 생각합니다.
4. 어쩌면 인공지능이 더 나은 방법을 제시할지도 모른다.
아침세션에서 말씀드렸듯이 Vinod Khosla의 글을 읽으면서 저는 어쩌면 이번 거대언어모델의 가장 큰 혁신은 이 라스트마일을 극복하고 (1) 인간의 언어를 컴퓨터의 언어로 더 쉽고 정교하게 번역해줄수 있게되고 그것이 제가 그토록 바라던 (2) 인터페이스의 혁신을 가져올지도 모른다는 생각이 들었습니다.
이미 LLM을 이용해 자연어를 SQL로 변환한다던지 코드로 변환하는 스타트업들은 많이 등장했고 그 정확성과 확장성은 좀 더 고민해봐야겠지만 앞으로 나아가는 모습은 보여주고 있다고 생각됩니다.
따라서 자연어를 기계언어로 더 정교하게 바꿔줄수 있게되면서 컴퓨터와 의사소통을 위한 필요한 상호작용이 단순해지면 눈 + 키보드+마우스 혹은 눈 + 터치패드를 쓸 필요없이 보이스만으로 컴퓨터와 커뮤니케이션이 컨트롤이 가능해질수도 있다는거죠. 사실 지금의 시리는 별로지만 구글홈은 어느정도 만족할만한 능력이었는데 이번 거대언어모델을 통해 한층 정교해질수 있다면 훨씬 더 편해질거라고 생각합니다.
다만 보이스만으로는 부족하지 않을까?라는 생각도 있습니다. 특히 공공장소에서는 privacy문제로 더욱 더 그럴것으로 생각되는데 따라서 손가락이나 신체의 한 부분을 통해 사용자의 의도를 이해하는 하드웨어는 어떨까라는 생각이 들었습니다.
그래서 생각난게 몇년전에 봤었던 Tap strap이라는 기계였는데 아래와 같이 손가락에 끼고 손가락의 조합으로 글을 쓰고 마우스를 쓰는 방식이었습니다. 신기하긴한데 사용법을 배워야한다는게 단점이었죠.
그리고 같은 회사가 최근 손목시계 형태의 디바이스를 발표한 것으로 보입니다. 저도 워낙 오랜만에 들어가봤는데 유튜브로 프로덕트를 보니 여전히 재미있지만 사용법을 배워야해서 터치스크린을 이기고 상용화되기가 쉽지않겠다는 생각이 들긴했습니다. 터치스크린은 훈련이 필요없는 사용자 경험을 제공하니까요.
어쨋든 이 디바이스들의 장점은 눈이 자유롭고 보이스와 다르게 privacy가 보장된다는 부분입니다. 만약 인공지능을 이용해 더 정교하게 손가락 근육의 움직임을 이해할수있게 된다면 이런 디바이스와 보이스를 함께 사용해서 모바일폰과 상호작용한다면 훨씬 편하지 않을까요? 자꾸 뉴럴링크 생각이 나기는한데 뇌까지 가기전에 좀 더 단순하고 확정적으로 의지를 보여줄수있는 신체부위를 사용하는게 뇌로 가기전 중간 단계가 될수도 있지 않을까요?
5. 만약 이런 디바이스들이 생긴다면, 터치스크린 폰이 필요할까?
여태까지는 인간과 컴퓨터의 상호작용, 인터페이스에 집중해서 이야기했는데 결국은 이런 인터페이스는 컴퓨터와 소통하기 위해 존재합니다. 그렇다면 개인 휴대용 컴퓨터가 있어야하는데 지금은 모바일폰이 그 역할을 하고 있죠. 메타 smart glasses도 제 아이폰을 통해 클라우드에 연결해서 메타의 챗봇에게 질문하고 그 대답을 저에게 전달해주거든요.
따라서 기본적으로는 현재 개인 휴대용 컴퓨터의 역할을 하고 있는 모바일폰의 주요 플레이어들인 애플과 삼성이 이런 하드웨어를 만드는게 자연스러워보이고 만약 성공한다면 지금의 우세를 이어갈수도 있을것으로 보입니다.
그런데 말입니다? 이 incumbent들은 터치패드를 기반으로 한 모바일폰을 만드는 회사인데 만약 보이스와 TapXR과 같은 디바이스가 대세가 되고 눈이 자유로워지면 터치스크린이 꼭 필요할까요? 다른 스타트업들처럼 기민하게 변화를 눈치채고 터치스크린을 포기할수있을까요? (또 이야기가 빠지는데 저는 저커버그가 회사 이름을 메타로 바꾼게 존경스러운게 바로 이런 부분입니다. 약간 성급하긴 했지만 작은 스타트업이 아닌 세계최대 IT회사의 CEO가 할수있는 선택이 아니라고 생각했거든요) 만약 google glasses처럼 meta가 heads up display와 같은 작은 스크린을 눈앞에 띄울수 있게된다면 많은 것이 달라지지 않을까요?
더군다나 앞으로 각각의 개인을 위한 인공지능 비서, agent가 개발될 것이라고 기대되고 있는데 사실 많은 양의 본인의 개인정보를 제공해야하는 인공지능 비서의 특성상 클라우드에 올리는건 좀 꺼려지는데다 미국과 같이 인터넷 인프라 안좋은 곳에서는 사용하기가 너무 불편합니다. 더군다나 M3와 같은 발전된 칩을 통해 이미 로컬에서 인공지능을 돌릴수 있는 컴퓨팅 파워가 준비되었는데 개인의 휴대용 컴퓨터가 지금의 폰의 모습이 아니라 오히려 터치스크린이 없고 그 자원을 연산이나 다른 부분에 사용할수있게되는 새로운 폼펙터로의 전환도 가능하지 않을까요?
그렇다면 모바일폰계의 공룡인 애플이나 삼성이 아닌 다른 새로운 회사가 "개인 휴대용 컴퓨터"의 폼펙터를 혁신하고 폰이 아닌 새로운 디바이스로 다음세대의 빅테크로 떠오를수 있지도 않을까요? 몇번이나 폰을 시도했지만 망해버린 마이크로소프트나 구글에게도 아직 한발 남았을수도 있지않을까요? 혹시나 OpenAI가 Jony Ive와 힘을 합쳐 이런 디바이스들을 만들어 넥스트 구글이 될수도 있지않을까요? 제가 너무 질문만 하나요? 저도 잘 몰라서 그렇습니다 ㅋㅋㅋ
그래서 어쩌라고?
많은 가능성을 보여주고 있는 이번 인공지능이 여태까지보다 훨씬 더 다양한 방식으로 인간의 의도를 파악할수 있다면 새로운 하드웨어 시대가 열릴지도 모르고 그렇다면 인터넷에서 클라우드에 이어 인공지능까지 지배하고 있는 지금의 빅테크들의 헤게모니도 바뀔수있는 여지가 있지않을까라는 기대를 하며 저의 상상력은 여기까지 하도록 하겠습니다.
이와 관련한 스타트업 아이디어가 있으신 분들은 언제든지 편하게 오픈채팅방에서 제 프로필로 연락주세요. 그리고 이 토픽에 대해서 더 가르쳐주실게 있으신분들! 특히 제 뉴럴링크에 대한 이해가 부족하다고 생각하시고 더 가르쳐주실수 있으신분들은 편하게 연락주세요! 늘 감사드립니다.
그리고 실버산업에 대해서 관심많으신 분들이 오픈채팅방을 만들어달라고 하셨는데 주실밸 실버타운 산업도 본격적으로 추진해볼겸 곧 만들어서 공지드리도록 하겠습니다. 오늘도 읽어주셔서 감사합니다.
댓글
의견을 남겨주세요