인공지능

Nvidia CEO 젠슨 황이 말하는 AI의 미래와 에너지

증기기관에 증기가 필요하듯이 AI 앱은 토큰을 필요로 합니다.

2024.10.08 | 조회 68 |
0
|

주간 Tech Review

IT 업계의 정보와 인사이트를 공유하고 있습니다.

Nvidia CEO인 젠슨 황이 Bipartisan Policy Center과 진행하여 2024년 9월 27일 공개된 인터뷰 내용을 리뷰해봤습니다.

AI와 에너지에 관한 젠슨 황의 견해:

  • AI 학습에는 막대한 에너지가 필요하지만, AI로 인해 또 많은 분야에서 에너지 절감이 가능해짐.
  • AI를 통한 에너지 절감의 사례:
    • AI를 이용한 기후 예측은 기존의 슈퍼컴퓨터를 활용한 방식에 비해 3000배 더 적은 전력을 소모
    • 스마트 그리드 전력망에 AI가 적용되면, 재생에너지를 이용한 전기의 생산과 그렇게 생산된 전기의 송전을 최적화할 수 있음
  • AI 공장은(AI 학습을 위한 데이터센터) 정말 많은 에너지를 사용함. 하지만:
    • 에너지가 과잉생산되는 지역에서 잉여에너지를 활용하거나
    • 100% 가동하지 않고 학습시에만 가동해서 에너지를 아낄 수 있음
  • AI를 잘 활용하게 된다면, 전반적으로 에너지 사용량은 증가하게 될것, 하지만 이것은 기존에 가능하지 못했던 것들을 가능하게 해주기 때문이며 그 결과로 경제가 성장하고 삶의 질이 개선될 것

AI 개발에 대한 NVIDIA의 방향:

  • "가속 컴퓨팅"에 주목 - AI 연산시 에너지 소모를 최적화한 특수 프로세서를 개발중
  • 다양한 분야의 수많은 스타트업들과 AI를 적용하는 협력 생태계를 조성
  • 정책입안자와 대중을 상대로 AI의 잠재력과 적용범위에 대한 이해를 높이는 데 주력
  • 가까운 미래에 AI가 지식노동과 산업의 중요한 부분을 차지할 것이라고 예상

AI 규제에 관하여:

  • 미국의 기업들이 AI를 글로벌하게 제공했을 때 이것이 국가 안보에 위협이 될 수 있다는 의견이 있고, 둘 사이의 균형점을 찾는 것이 중요
  • 정부는 단순히 규제만을 강제하는 게 아니라 직접 AI를 사용하는 사용자가 되어야 함 (알아야 뭘 막고 뭘 풀어줘야 되는지 알것이기 때문에)
  • AI 데이터센터를 허가하고 에너지를 제공하는 것이 규제 관련 핵심 이슈
  • 미래에는 규제 사항을 만들고 검토하는 데에도 AI가 활용될 가능성이 높음

리뷰

흔히 Nvidia를 금광 앞에서 청바지와 곡괭이를 파는 회사와 같다는 이야기를 합니다. 정작 AI로 돈을 버는 기업은 아직 많지 않은데, AI시대에 GPU를 파는 회사는 큰 돈을 벌고 있죠. 그 덕분에 Nvidia는 애플과 마이크로소프트에 이어 시총 3위라는 엄청난 위치에 도달했습니다.

이번 인터뷰는 높아진 위상에 걸맞게 정부와의 관계에 대한 언급이 보이는 것이 눈에 띕니다. AI에 대한 정부관료들과 대중들의 이해도를 높여야겠다는 부분인데요. 규제를 받는 건 어쩔 수 없지만 규제를 가하는 정부관료들이 AI에 대해서 조금 이해도가 높았으면 좋겠다는 젠슨 황의 바램이 언뜻 보이는 것 같기도 합니다. 

또 한가지 눈에 띄는 것은 "가속컴퓨팅"에 대한 언급입니다. 이 부분은 사실 제가 많이 반성이 되는 부분인데요, 저는 그동안 인공지능은 곧 "학습"만 중요하다고 생각했었던 것 같습니다. 만들어진 모델을 호출하는 부분, 즉, "추론 (Inference)" 부분에는 크게 주목을 하지 않았죠.

그런데 요즘들어 정말 큰 경쟁력이 될 부분은 바로 "추론"이라는 생각이 많이 듭니다. 많은 언어 모델들의 성능이 어느정도 상향 평준화를 이루면서 사용자 경험이 중요한 차별화 포인트가 되었는데, 이때 추론성능이 좋은 서비스가 더 나은 사용자 경험을 제공할 수 있기 때문이죠.

그래서 최근에 주목하고 있는 회사 중의 하나가 바로 Groq (https://groq.com/)인데요. 여기서는 그래픽 카드가 아니라 자체 개발한 LPU (Language Processing Unit)으로 "추론"서비스를 전문적으로 제공합니다.

Meta의 Llama 3.1 8B 모델을 대상으로 Input Token을 다르게 주며 Output Token의 출력 속도를 비교한 표<br>
Meta의 Llama 3.1 8B 모델을 대상으로 Input Token을 다르게 주며 Output Token의 출력 속도를 비교한 표

그리고 위의 그림처럼 Groq은 상당히 좋은 벤치마크 수치를 보여줍니다. 아마 젠슨 황이 얘기한 가속 컴퓨팅도 이런 식으로 "추론"에 최적화된 프로세서를 말하는 것으로 짐작됩니다.

과거 산업혁명 시기에 우리는 기계를 움직이기 위해 물을 끓여 증기를 만들었고, 엔지니어들은 어떻게 증기를 더 싸게 더 많이 만들 수 있을지 연구했습니다. AI시대에 우리는 어플리케이션을 동작시키기 위해 토큰을 만들어야 합니다. 그것도 아주 빨리 아주 많이 만들어야 합니다.

Nvidia CEO 젠슨 황

클라우드 업계의 강자 AWS 역시 Inferentia 라는 추론 전용 칩을 이미 생산하고 있습니다. 이렇게 업계는 소프트웨어적으로는 모델의 성능을 향상시키는 한편, 하드웨어적으로는 더 빠른 추론 전용 칩을 만들기 위한 레이스를 펼치고 있네요.

 

다가올 뉴스레터가 궁금하신가요?

지금 구독해서 새로운 레터를 받아보세요

✉️

이번 뉴스레터 어떠셨나요?

주간 Tech Review 님에게 ☕️ 커피와 ✉️ 쪽지를 보내보세요!

댓글

의견을 남겨주세요

확인
의견이 있으신가요? 제일 먼저 댓글을 달아보세요 !
© 2024 주간 Tech Review

IT 업계의 정보와 인사이트를 공유하고 있습니다.

자주 묻는 질문 서비스 소개서 오류 및 기능 관련 제보

서비스 이용 문의admin@team.maily.so

메일리 사업자 정보

메일리 (대표자: 이한결) | 사업자번호: 717-47-00705 | 서울 서초구 강남대로53길 8, 8층 11-7호

이용약관 | 개인정보처리방침 | 정기결제 이용약관