평일 매일 실리콘밸리 시간으로 아침 6시 (서울 밤 11시)에 세계 각국에 계신 패널분들과 1시간동안 최신 뉴스를 읽고 녹음과 기사모음을 뉴스레터로 보내드립니다.
실리콘밸리 스타트업 트렌드와 VC 동향에 실밸과 한국에 계신 VC + 스타트업 관계자 분들과 매주 서부시간 토요일 저녁 5시(서울 일요일 오전 10시) 에 정기세션을 갖고 있습니다. 정기적으로 창업자분들을 초대해 이야기를 들어보고 다함께 대화할수있는 세션을 가지려고 합니다.
오픈채팅방: 기사 공유, 정보 (비번:2045, 1500명 가득찼는데 가끔 자리가 납니다)
오늘 이 뉴스레터도 약간 현지 이야기를 보태서 팟캐스트에 올렸습니다! 팟캐스트는 위의 링크를 이용하시거나 구글 팟캐스트 / 애플 팟캐스트 앱에서 "주간 실리콘밸리"를 검색하시면 여태까지 있었던 주요 세션들을 다 들을실수 있습니다.
일론머스크, 인공지능 개발 중단에 찬성하다
일론머스크를 비롯한 몇몇 테크 리더들이 지난주 Future of Life Insititute이라는 비영리 기관에서 발표한 거대 인공지능 실험 중단 서한에 사인을 했다고 알려져서 논란이 일고 있습니다. 서한의 내용을 살펴보면 아래와 같습니다.
(1) 인공지능은 지구 생명의 역사를 극적으로 바꿀수있다 따라서 우리는 이를 조심스럽게 접근해야한다.
(2) 최근 인공지능 연구소들의 무한 경쟁이 시작되었지만 아직 인공지능을 효율적으로 컨트롤하고 예측하고 이해하기 위한 계획이나 제도가 부족하다.
(3) 따라서 모든 인공지능 연구소들을 지금 즉시 최소 6개월동안 GPT-4보다 뛰어난 인공지능의 개발을 중단하고 정부, 전문가, 개발자들이 모여서 규제와 안전성에 대해서 진지하게 고민해야만 한다.
인공지능 관련 규제는 더 필요하다.
제 생각에는 대부분 괜찮은 제안이라고 생각합니다; 인공지능 개발을 멈춰야한다는 것을 제외하고는 말이죠. 점점 뛰어난 인공지능이 나오고 있고 이를 어떤식으로 제어할지에 대해서는 아직 규제가 따라가지 못한다는 부분은 굉장히 공감하고 있습니다.
예를 들면 인공지능의 선두주자라고 말하고 다녔었던 테슬라의 FSD같은 경우는 실제 구글에서도 FSD수준의 기술이 있음에도 불구하고 완전 자율주행이 아닌 현재의 FSD같은 어중간한 고성능의 운전보조 장치를 운전자에게 제공할 경우 운전자들이 보조장치를 과도하게 신뢰하는 경향이 생겨서 오히려 더 위험할수도 있다는 평가도 있었다고 하죠.
가만 생각해보면 OpenAI의 ChatGPT때문에 죽은 사람보다 테슬라의 자율주행과 관련 사고로 사망한사람이 더 많은 상황인데 왜 테슬라 자율주행관련 규제는 아무말도 안하고 맥북프로사건 이야기하고 있는 ChatGPT만 걸고 넘어지는지 궁금하기도 합니다.
하지만 인공지능 개발을 멈출수는 없다.
제 생각엔 규제가 더 필요하다는건 이미 테슬라가 보여줬고 더욱이 앞으로 GPT관련한 사건 사고들은 더 많아질것이라고 생각합니다. 특히 내년 미국 대선을 앞두고 가짜 뉴스가 판칠것으로 예상되는데 이를 어떻게 막아낼지는 많이 고민해봐야된다고 생각합니다. 그럼에도 불구하고 저는 인공지능의 개발을 멈출수는 혹은 필요는 없다고 생각합니다.
1. 아직 갈길이 멀다.
얼마전만 하더라도 조선 왕조 실록에 기록된 세종대왕의 맥북프로 던짐 사건이나 현재 대한민국 대통령도 못맞추는 모습을 보여주던 인공지능인데 아직 특이점이 와서 인류를 위협하니 우리 모두 멈춰야한다라고 하기엔 너무 과도한 공포 유발 fear-mongering이라고 생각합니다. 이제야 겨우 인터넷과 연결되서 거짓말을 조금 덜하는 GPT-4이고 다른 회사들은 한참 멀었는데 너무 이르지 않나라는 생각도 듭니다.
그리고 챗GPT가 나온지 몇달만에 GPT-4가 나왔다고 이 속도를 믿을수없다고 하지만 사실 ChatGPT는 2020년에 나온 GPT-3에 약간의 수작업을 더한 GPT-3.5이고 2023년에 나올 GPT-4를 만들어가는 과정에서 미리 보여준 티저 teaser 같은거지 3.5에서 4까지 3개월만에 발전한게 아니라 사실상 3년만이라고 보는게 맞다는 말이죠.
결국 우리가 생각하는 것보다 변화는 그렇게 빠르게 일어나고 있지않고 아직 GPT-4를 활용하는 방법도 연구하는 중인데 걸음마도 제대로 못하는 Chatbot을 사탄의 AGI라고 생각하고 겁부터 먹기에는 좀 이르지 않나라는데 제 개인적인 생각입니다.
2. 멈추자고 하는 사람들이 가진 인센티브
일단 이 오픈레터에 사인한 사람들중에 가장 주목받는 사람들을 한번 살펴봤습니다. 오픈레터 아래쪽에 주최측에서 생각할때 거물들을 제일 아래 모아두었는데 인공지능의 대가 Bengio, 일론머스크, 애플 공동창업자 워즈니악, Stability AI의 창업자 정도가 눈에 들어오고 대학 교수님들과 정치인 Andrew Yang도 포함되어있네요.
이 리스트를 보고 든 생각은 만약 인공지능 개발이 멈춘다면 이익을 볼 사람들이 아닐까?라는 생각이 들었습니다. 특히 일론머스크같은 경우는 ChatGPT가 나오기전까지만 하더라도 모든 언론의 주목을 받으며 인공지능의 최첨단을 자부했었지만 ChatGPT가 나오면서 그 자리를 빼앗아갔죠; 언론의 주목, 인공지능의 최첨단 둘 다요. 심지어 본인이 OpenAI의 창업자중에 한명이었다보니 테크노관종킹인 그에게 이보다 더 배아플수는 없는 부분일 것 같습니다. OpenAI에서 나온 이유는 본인이 OpenAI를 꿀꺽하려다가 반발에 부딫혀서 테슬라와의 conflict of interest라는 핑계를 대고 나왔다는 소문이 있기는 합니다.
여기서 제가 좋아하는 일론머스크 이야기를 조금만 더 하자면 제가 좀 더 어이없는건 말로는 예전부터 인공지능이 무섭다고 하면서도 누구보다 먼저 인공지능이 들어간 로봇을 만들어서 인간 노동자를 대체하고자 하고 로보택시가 알아서 일을 하고 고속도로를 다니며 돈을 벌어올수 있게 하겠다던 일론머스크가 누구보다 먼저 나서서 이제 말좀 하는 귀여운 챗봇을 괴롭히는게 좀 아이러니 하다는 생각도 듭니다.
마지막으로 딱 하나만 추가하자면 일론머스크가 코로나때 그렇게 싸우고 조롱하던 빌게이츠(i.e. 테슬라 숏쟁이)와 그의 마이크로소프트가 본인이 창업했는데 쫓겨난 OpenAI와 함께 지금 이렇게 잘나가니까...일론머스크 입장에서는 정말 얼마나 배가 아플지 상상조차 못하겠네요 ㅎㅎㅎ(당시 싸움은 아래 링크에서...)
그리고 Bengio 같은 경우도 Element AI라는 인공지능 incubator를 창업했었는데 생각보다 잘 되지않아 이를 2020년에 매각하고 Pharma/Drug쪽에서 일하고 있다보니 약간 주류에서 벗어난것 같고 워즈니악도 비슷한 상황이라고 생각합니다. Andrew Yang이야 워낙 인공지능에 대해 민감하고 기본소득을 주장하던 부분이 있기때문에 충분히 이런 스탠스를 취할수 있다고 생각하는데 최근 잘나가던 Stability AI의 CEO가 서명을 한건 약간 의외이긴 하면서도 동시에 OpenAI가 치고나가면서 워낙 경쟁이 힘들어지니까 작은 스타트업 입장에서는 좀 전열은 다음을 이유가 있지않나 싶구요.
너무 부정적으로 보는거 아니냐라는 생각도 들긴하는데 일단 멈추고자 하는 사람들이 왜 멈추자고 할까? 를 생각해봤다고 봐주시면 좋을 것 같습니다. 재미있는건 OpenAI나 구글같이 이 경쟁에 선두에 있는 회사들에서는 동의하는 사람들 없는 것으로 보이고 만약 이런 곳에서 거물급들이 이 서한에 동의를 한다면 더 흥미진진해지지 않을까 합니다.
3. 오랜만에 미국에 온 기회를 날릴순 없다
사실 5G나 틱톡을 보면 최근 많은 신기술들이 중국에서 주도하는 경향이 있었다고 생각합니다. 하지만 이번 인공지능의 발전만큼은 미국이 훨씬 앞서나가고 있다고 느껴지는데 미국 입장에서는 이를 구지 멈출 이유가 없다고 생각합니다.
더 중요한건 미국이 멈춘다고 하더라도 과연 중국이나 러시아가 멈출것이냐라는 부분인데 당연히 멈추지 않을 것이라고 보는게 디폴트라고 봅니다. 물론 반대로 중국과 러시아가 멈추더라도 미국은 멈추지 않을 것이라고 보구요.
인공지능의 경쟁은 어쩌면 앞으로의 경제뿐만아니라 군사적 주도권을 결정할수도 있는 중요한 기술일수 있기때문에 지금과 같이 국가들간의 갈등이 많은 시대에는 서로 멈추지 못할거고 멈출수도 없을거라고 생각합니다.
또한 합의 자체가 불가능 할거고 합의를 한다고 하더라도 서로 믿지 못할게 뻔하다고 봅니다. 최소 6개월이라고 했으니 더 길게도 하면 좋겠다는 의견인거 같은데 만약 6개월을 한다고 하더라도 그 안에 어떤 규제라던지 합의를 이끌어내기는 불가능 할거라고 생각하기때문에 여러모로 현실성이 없습니다.
한번 상상해보자면 2차 세계 대전에서 핵폭탄을 개발하던 맨하탄 프로젝트를 미국이 아니라 독일이나 일본이 먼저 성공했다면 어땠을까요? 생각만해도 끔찍한 이 상황과 인공지능의 개발이 비슷한 맥락으로 느껴질수 있는 부분이 많다고 생각합니다.
멈출순 없지만 조심하고 토론해야한다
정리하자면 개인적으로 인공지능의 발전을 멈추는 건 현실적으로 불가능하고 할 이유도 없는 부분이라고 생각하지만 인공지능에 대한 규제와 방향성에 대한 토론은 계속되어야 한다고 생각합니다. 말씀드렸다시피 아마 내년 미국 대선이 지금 우리가 가진 인공지능의 문제점을 모두 다 꺼내서 볼수있는 좋은 기회가 아닐까 생각도 합니다 (그나마 엄청난 피해없이 이런식으로 일찍 막장을 보는게 나을지도...).
저는 사실 인공지능이 인간을 넘어서는 순간이 와서 인류가 위험해지는 것보다 지금의 인공지능이 인간이 서로를 속이는게 너무 쉽고 빠르게 대량으로 가능해진다는 점이 걱정되고 우리 주실밸분들은 앞으로 더욱 더 정보를 고르는데 신중했으면 좋겠습니다.
댓글
의견을 남겨주세요