Monday Newsletter

5월 셋째주 IT News

OpenAI의 ChatGPT-4o 업데이트, Google I/O 2024, OpenAI, Reddit 데이터로 AI 훈련 강화, 안드로이드 접근성 기능 확대, 대화형 AI가 UX와 CX 발전에 미치는 영향

2024.05.20 | 조회 527 |
0
|
inspireX의 프로필 이미지

inspireX

매주 월/수요일, 한주간 생각해볼 만한 IT/UX 이야기를 전달해드립니다.

🧐 Summary 

1️⃣ OpenAI는 빨라진 반응 속도로 실시간 대화 및 감정 표현이 가능한 수준의ChatGPT-4o 업데이트를 공개했습니다.

2️⃣ Google I/O 2024에서 Gemini, Project Astra 등 다양한 신제품이 공개되었습니다.

3️⃣ OpenAI가 Reddit의 콘텐츠를 AI 모델 훈련에 활용하기로 했습니다. 

4️⃣ 구글이 안드로이드 접근성 기능을 확대한다고 발표했습니다.

5️⃣ 대화형 AI가 UX와 CX의 발전에 미치는 영향, 그리고 여전히 남아있는 우려점들에 대해 알아봅니다. 


안녕하세요 구독자님. 지난 주에는 AI 관련 새로운 소식이 아주 가득했는데요, Inspire X가 전해드리는 소식들과 함께 한 주 시작해보시죠!


Open AI, ChatGPT-4o 업데이트 공개

Image : The Verge
Image : The Verge

Open AI가 Google I/O 하루 전 공개한 ChatGPT-4o 소식을 전해드립니다. 여기서 o는 omni를 뜻한다고 해요.

가장 큰 개선은 반응 속도인데요, 저희가 유료로 사용하던 4.0 버전보다 훨씬 빨라진 것을 일반적인 텍스트 처리에서도 바로 느낄 수 있었어요. 하지만 공개된 영상에서 보실 수 있듯이 가장 놀라웠던 것은 실시간 대화였어요. TTS(Text To Speech)가 아닌 STS(Speech To Speech)로 바뀌면서 인간의 응답 시간과 유사하거나 혹은 더 빠른 반응 속도를 보여주고 있습니다. 또한 감정을 이해하고 표현할 수 있습니다. 오디오에서 음성에 담긴 감정을 이해하고, 이에 적합한 말투와 음성으로 대답할 수 있다는 것이 아주 놀라웠어요

아래 영상을 보시면 영상을 빠르게 처리해서 이해하고 대답할 수 있는 것을 알 수 있구요,

풍부한 감정 표현으로 자장가를 불러주는 아래 영상도 한 번 보세요.

💬 곧 업데이트가 있을거라는 얘기는 계속 나왔었지만 생각하지 못했던 수준의 업데이트였어요. 지금까지 정보 처리용으로만 사용해왔었는데 이번 업데이트를 보니 좀 다른 방면으로 많이 활용해봐야겠다는 생각이 들었어요. 사실 보이스로 chatGPT를 잘 사용하진 않았었는데 이번에 공개된 수준이라면 영어 공부를 chatGPT로 하는데에 불편함이 전혀 없겠어요. 심지어 감정을 이해하면서 대답해주니 더 실감나는거죠. 정말 영화 Her이 현실이 되는 날이 머지 않았네요. 

https://openai.com/index/hello-gpt-4o/

https://www.theverge.com/2024/5/13/24155493/openai-gpt-4o-launching-free-for-all-chatgpt-users


Google I/O 2024 주요 발표 내용

Image : The Verge
Image : The Verge

ChatGPT의 깜짝 업데이트에 이어 구글 I/O 2024에서 발표된 주요 내용들을 요약해 드리겠습니다. 

Google Lens: 기존의 이미지 검색 기능에 더해, 이제 비디오를 통해 검색할 수 있는 기능을 추가했습니다. 사용자는 검색하고 싶은 물체를 비디오로 촬영하고 질문을 할 수 있으며, 구글의 AI가 웹에서 관련 답변을 찾아줍니다.

Google Photos: 올여름 출시 예정인 "Ask Photos" 기능을 통해, Gemini AI가 Google Photos 라이브러리에서 사용자의 질문에 답변할 수 있게 됩니다. 예를 들어, 사용자가 자신의 차량 번호판 번호를 물어보면, AI가 해당 번호를 찾아주고 관련 사진을 보여줍니다.

Gemini 1.5 Flash: 구글은 새로운 AI 모델인 Gemini 1.5 Flash를 도입했습니다. 이 모델은 고주파, 저지연 작업에 최적화되어 있으며, 기존의 Gemini 1.5 Pro와 유사한 성능을 가지면서도 더 빠른 응답을 제공합니다. 또한, 번역, 추론, 코딩 능력이 향상되었습니다. Gemini 1.5 Pro는 이제 더 많은 정보를 처리할 수 있도록 컨텍스트 윈도우가 1백만에서 2백만 토큰으로 두 배 증가했습니다.

Workspace 통합: Google은 최신 언어 모델인 Gemini 1.5 Pro를 Docs, Sheets, Slides, Drive 및 Gmail의 사이드바에 통합했습니다. 이 기능은 다음 달부터 유료 구독자에게 제공되며, 사용자가 드라이브의 모든 콘텐츠에서 정보를 검색하고, 이메일 작성, 일정 알림 등의 작업을 도와주는 전방위적인 도우미로 작동할 예정입니다.

Project Astra: 다중 모드 AI 어시스턴트로, 사용자가 기기의 카메라를 통해 본 것을 이해하고 기억하며, 다양한 작업을 수행할 수 있는 가상 비서입니다. 구글의 목표는 Project Astra를 통해 실제로 사용자와 대화하고 작업을 수행할 수 있는 AI 에이전트를 개발하는 것입니다. 

Veo: 구글의 새로운 생성형 AI 모델인 Veo는 텍스트, 이미지, 비디오 기반의 프롬프트를 사용하여 1080p 비디오를 생성할 수 있습니다. 이 기능은 유튜브 크리에이터 및 할리우드 영화 제작자들에게 제공될 예정입니다.

Gems: 사용자가 Gemini AI를 맞춤화할 수 있게 해주는 맞춤형 챗봇입니다. 사용자는 자신만의 챗봇을 만들어 특정 역할이나 응답 스타일을 지정할 수 있습니다. 예를 들어, 긍정적이고 격려하는 운동 코치 챗봇을 만들 수 있습니다.

Gemini Live: Gemini Live는 음성 대화를 더욱 자연스럽게 만드는 기능입니다. 사용자는 대화 도중 AI를 중단시키거나, 스마트폰 카메라를 통해 실시간으로 정보를 제공받을 수 있습니다. 또한, Google Calendar, Tasks, Keep 등과의 새로운 통합 기능도 추가되었습니다.

그 외에도 Circle to Search를 활용한 수학 문제 해결, Google Search의 AI 개요 기능, Gemini Nano AI를 활용한 스팸 전화 실시간 탐지 기능 등이 함께 발표되었습니다.

💬 전 날 ChatGPT에서 발표한 업데이트와 겹치는 부분도 있지만, 아무래도 구글은 Gemini와 기존 프로덕트들과의 통합을 통해 보다 적극적으로 AI를 활용할 것 같습니다. ChatGPT와 Apple의 협업, 그리고 본인들의 AI를 기존 OS와 통합하고 있는 구글. 과연 어떤 쪽이 더 빠르게 발전해 나갈지 사용자 입장에서는 아주 기대되네요.

https://io.google/2024/

https://www.theverge.com/24153841/google-io-2024-ai-gemini-android-chrome-photos


OpenAI, Reddit 데이터로 AI 훈련 강화

Image : TechCrunch
Image : TechCrunch

OpenAI가 Reddit과 데이터 사용 계약을 체결하여 Reddit의 콘텐츠를 AI 모델 훈련에 활용하기로 했습니다. 이를 통해 AI 도구와 모델을 개선하고, 새로운 AI 기반 기능을 개발할 예정입니다. Reddit은 Google을 포함한 여러 기업과의 데이터 라이선스 계약을 통해 상당한 수익을 올리고 있습니다. 그러나 Stack Overflow 사용자들이 데이터 수익화 문제로 반발했던 것처럼, Reddit도 사용자 반발 우려가 있습니다. 

💬 요즘 AI의 학습 속도가 너무 빨라서 세상의 모든 지식을 다 배웠다는 말이 있어요. 더 이상 배울 것이 없어서 문제라더군요. 그래서 AI에게는 레딧같은 커뮤니티 기반의 다양한 데이터가 더 필요한 상태인 것 같습니다. 사용자 반발 우려가 있지만, 이러한 계약은 진정한 사용자 생성 콘텐츠의 가치를 잘 보여주는 사례입니다.https://techcrunch.com/2024/05/16/openai-inks-deal-to-train-ai-on-reddit-data/


안드로이드 접근성 기능 확대

Image : Google
Image : Google

구글은 2024년 접근성 인식의 날을 맞아 안드로이드에서 손과 눈을 사용하지 않고도 인터페이스를 조작할 수 있는 기능을 확대한다고 발표했습니다. 

1. 프로젝트 게임페이스: 

사용자가 얼굴 움직임으로 게임화면의 커서를 이동하고 클릭 같은 동작을 수행할 수 있습니다. 한쪽 눈썹을 올리거나, 입을 움직이거나, 머리를 돌리는 등의 얼굴 움직임을 통해 다양한 기능을 활성화할 수 있습니다. 또한, 사용자 맞춤 설정도 가능합니다.

2. 이모지 및 사진 선택 기능:

사용자가 눈으로 이모지를 선택하여 문구나 동작을 나타낼 수 있습니다. 또한, 사용자 사진을 추가하여 자주 사용하는 연락처 사진을 포함한 커스텀 목록을 만들 수 있습니다.

3. 시각 장애인을 위한 도구:

사용자 정의 객체 또는 위치 인식을 추가하여 카메라로 본 물체를 구체적으로 식별할 수 있습니다. 예를 들어, 사진에서 빈 의자 찾기, 열쇠고리 인식 등 특정 물체를 쉽게 찾을 수 있게 합니다.

💬 UX디자인 업무를 하다보면, 접근성 디자인이나 DEI(다양성) 디자인 작업들이 필요한 일들이 많아요. 상황에 맞게 모든 부분의 접근성 이슈를 검토하고 지원하고 싶어도 여러 자원 제약때문에 어려움이 있어요. 구글에서 안드로이드 차원에서 이렇게 새롭게 접근성 기능을 제공하면 이동성이나 시각적 장애를 가진 사용자들에게 큰 도움이 될 것으로 기대됩니다.

https://techcrunch.com/2024/05/16/googles-expands-hands-free-and-eyes-free-interfaces-on-android/


고객 경험의 혁신: 대화형 AI의 역할

https://uxmag.com/articles/the-disruption-of-customer-experience-how-conversational-ai-is-upping-ux-and-cx-standards-banner

Image : UX magazine
Image : UX magazine

UX magazine에서 대화형 AI가 어떻게 UX와 CX를 향상시키는지에 대해 정리한 글이 있어서 소개해드립니다. 대화형 AI는 자연어로 기계와 상호작용할 수 있게 하여 특히 고객 지원과 판매 전환 분야에서 그 효과가 두드러집니다.

대화형 AI의 잠재력 : 대화형 AI는 아직 완전히 받아들여지지 않았지만, 그 대규모 배포의 전략적 기회를 예측할 수 있습니다. 대화형 AI를 통해 사람들이 기계와 자연어로 상호작용할 수 있게 하여 인간이 문제를 해결하는 방식 전체에 변화를 가져오며, 학습 곡선 없이 대중에게 기술을 접근 가능하게 합니다.

고객 지원에서의 활용 : 대화형 AI는 고객 지원의 초기 단계에서 큰 변화를 일으키고 있습니다. 고객 지원 센터는 비용이 많이 들고, 높은 직원 이직률로 인해 운영이 어렵습니다. 대화형 AI는 이러한 문제를 해결하며, 자동화 비율이 80%에 달할 수 있습니다. 이는 직원 감축이나 인력 증가 없이도 고객 서비스를 확장할 수 있게 합니다. 또한, 대화형 AI는 24/7 운영되며, 단순한 문제를 처리하여 인간 상담원이 더 복잡하고 흥미로운 문제를 처리할 수 있게 합니다.

판매 전환에서의 활용 : 대화형 AI는 판매 전환율을 크게 향상시킵니다. 예를 들어, B2B 비즈니스에서 계정 관리자가 연간 10~20개의 계정을 관리하는 반면, 대화형 AI는 무한히 확장할 수 있어 더 많은 고객과의 상호작용을 개인화하고, 데이터 기반 통찰력을 제공하여 매출을 증대시킵니다.

하지만 여전히 극복해야 할 문제들이 존재합니다.

레거시 시스템: 기존 시스템과의 통합이 어려운 경우가 많아 초기 사용 사례를 신중히 선택해야 합니다.

데이터 부족: 충분한 의도 훈련 데이터를 확보하고, 실시간 데이터를 통해 성능을 향상시켜야 합니다.

유지보수: 지속적인 업데이트와 최적화가 필요하며, 전담 팀을 구성하여 관리해야 합니다.

인재 부족: 경험 있는 대화형 AI 전문가가 부족하여 빠르게 실패하고 학습하거나 컨설팅 업체와의 파트너십을 통해 해결해야 합니다.

플랫폼 제한: 개방형 시스템을 선택하여 장기적인 도전에 대응할 수 있도록 해야 합니다.

💬 대화형 AI의 빠른 발전으로 특히 CS의 많은 부분을 AI가 대체하고 있죠. 저희가 올 초에 2024 트렌드에서 말씀드렸듯이 최근 몇년간 기업이 CS에 대한 투자를 줄여서 이에 대해 소비자들의 만족도가 많이 떨어진 상태에요. 지금까지는 대화형 AI의 퍼포먼스에 한계가 있었기에 CS 만족도를 크게 올리지는 못하고 있었는데, 오늘 뉴스레터에서 소개해드린 ChatGPT 4o와 같이 감정적인 부분이 많이 발전한 대화형 AI라면, 앞으로 CX 기준을 많이 올릴 수 있지 않을까 생각됩니다.


저희는 수요일 보다 심도깊은 이야기로 다시 찾아오겠습니다. 수요일에 뵈어요!

 

Inspire X에 의견 보내기

 

다가올 뉴스레터가 궁금하신가요?

지금 구독해서 새로운 레터를 받아보세요

✉️

이번 뉴스레터 어떠셨나요?

inspireX 님에게 ☕️ 커피와 ✉️ 쪽지를 보내보세요!

댓글

의견을 남겨주세요

확인
의견이 있으신가요? 제일 먼저 댓글을 달아보세요 !

다른 뉴스레터

© 2024 inspireX

매주 월/수요일, 한주간 생각해볼 만한 IT/UX 이야기를 전달해드립니다.

메일리 로고

자주 묻는 질문 서비스 소개서 오류 및 기능 관련 제보

서비스 이용 문의admin@team.maily.so

메일리 사업자 정보

메일리 (대표자: 이한결) | 사업자번호: 717-47-00705 | 서울 서초구 강남대로53길 8, 8층 11-7호

이용약관 | 개인정보처리방침 | 정기결제 이용약관 | 라이선스