나니가스키~? 나는 쪼꼬민트보다 BDA를 좋아해🍀

BDA 알쓸데잡 16탄: 데이터 시각화 툴 정복하기, 5월 2주차 채용공고 모음집, 원데이클래스 - 예측모델/신용평가모델 & 경영정보시각화 자격 과정(초급) 모집, RNN (Recurrent Neural Network)의 기본 개념

2025.05.09 | 조회 516 |
0
|
빅데이터분석학회 B.D.A의 프로필 이미지

빅데이터분석학회 B.D.A

Be Data-literate and Achieve your dream, BDA

어느덧 5월도 중순을 지나고 있습니다 :)
살랑이는 바람과 짙어진 초록 속에서 조금은 여유로운 마음으로 한 주를 시작하셨길 바랍니다 💕이번 주도 잘 달려오신 여러분께, 학회 소식과 함께 살짝 쉬어가는 시간을 전해드리겠습니다.

이번 주 뉴스레터, 가볍게 훑어보면서 놓친 정보도 챙기고 새로운 데이터 인사이트도 얻어가세요!


5월 2주차 BDA NEWS 🗞️

 

BDA 알쓸데잡 16탄: 데이터 시각화 툴 정복하기

분석 결과를 효과적으로 전달하는 비결, 바로 ‘데이터 시각화 툴’입니다 ‼

Tableau, Power BI, Looker처럼 실무에서 자주 쓰이는 툴들로 보고서, 대시보드, 포트폴리오까지 멋지게 보여주고 싶다면 🤔 지금부터 같이 배워봐요!

 

BDA 알쓸데잡 16탄: 데이터 시각화 툴 정복하기

 

5월 2주차 채용공고 모음집

데이터 분야 취업 준비 중이신가요? 
핵심만 쏙쏙 골라낸 알짜 채용공고만 모아왔어요🗂️

마음에 드는 직무나 기업이 있다면 망설이지 말고 바로 지원해보세요!

📌 크림(주) | 데이터 엔지니어 📌 (주)한글과컴퓨터 | 전략지원, 데이터 분석 📌 (주)미리디 | 데이터 사이언티스트 📌 넷마블 | 마케팅 데이터 분석 담당자 📌 넛지헬스케어(주) | 데이터그로스팀

5월 2주차 채용공고 모음집

 

원데이클래스 - 예측모델/신용평가모델 & 경영정보시각화 자격 과정(초급) 모집

BDA📊 5월 원데이 클래스가 돌아왔습니다!

예측모델·신용평가 강의와 시각화 자격 과정(초급)까지, 데이터 분석 실력 키우고 싶은 분들 지금 바로 신청하세요🤎

원데이클래스 - 예측모델/신용평가모델 & 경영정보시각화 자격 과정(초급) 모집

 

 

 


5월 2주차 DATA 트렌드 인사이트 🧐

RNN (Recurrent Neural Network)의 기본 개념

Attention Is All You Need를 읽기 위한 준비 - RNN에서 Transformer까지 (1/5)

 

RNN (Recurrent Neural Network)란?

RNN(Recurrent Neural Network)은 순차적인 데이터(Sequential Data)를 처리하기 위해 만들어진 신경망 구조입니다.

텍스트, 음성, 주가 데이터처럼 시간의 흐름에 따라 변화하는 데이터에서 패턴을 학습할 수 있습니다.

 

RNN의 구조 이해하기

RNN의 핵심은 Hidden State (은닉 상태)를 통해 이전의 정보를 기억하면서 새로운 정보를 받아들이는 구조에 있습니다.

일반적인 신경망(Feedforward Neural Network)은 입력을 받아 한 방향으로만 연산을 진행합니다.

반면, RNN은 이전 시점의 상태를 다음 시점으로 전달하면서, 시간적인 맥락을 반영할 수 있습니다.

 

구성 요소

1. Input Layer (입력층):

- 시계열 데이터의 각 시점을 입력합니다. (예: 단어, 음성 데이터, 주가 등)

2. Hidden Layer (은닉층):

- 이전 시점의 은닉 상태(h_{t-1})와 현재 입력(X_t)을 결합하여 현재 상태(h_t)를 생성합니다.

- 이때 이전 상태를 기억하므로, 시간에 따른 변화를 학습합니다.

3. Output Layer (출력층):

- 예측 결과를 생성합니다. (예: 다음 단어 예측, 가격 변화 예측 등)

 

RNN의 학습 방식: 순차적 학습 (Sequential Learning)

RNN의 특징은 이전 시점의 정보를 계속 순차적으로 누적하여 학습한다는 것입니다.

예를 들어, “I went to the bank to withdraw money“라는 문장에서,

bank가 “은행”이라는 의미를 정확히 이해하려면 “withdraw money”라는 뒷부분 정보가 필요합니다.

RNN은 이전 단어들과의 관계를 기억하고, 다음 단어를 예측할 때 참고합니다.

 

수식 표현

RNN의 연산 과정은 다음과 같이 표현됩니다.

h_t = \sigma(W_h h_{t-1} + W_x X_t + b)

- h_t: 현재 시점의 Hidden State

- h_{t-1}: 이전 시점의 Hidden State

- X_t: 현재 시점의 입력

- W_h, W_x: 학습되는 가중치

- b: 편향(bias)

- \sigma: 활성화 함수 (Activation Function, 예: tanh, ReLU)

이 과정을 통해 RNN은 문맥(Context)을 유지하면서 시퀀스 데이터를 처리할 수 있습니다.

---

RNN의 한계점 (Limitations)

RNN은 매우 강력한 구조이지만, 몇 가지 심각한 한계가 있습니다.

1️⃣ Gradient Vanishing Problem (기울기 소실 문제)

- 시퀀스가 길어질수록, 초반에 입력된 정보의 영향이 점점 줄어들어 학습이 어려워집니다.

- “The weather is sunny today…“와 같은 문장에서 “The”의 정보를 나중에 기억하기 어려워집니다.

2️⃣ Long-term Dependency 학습의 어려움

- RNN은 가까운 시점의 정보는 잘 반영하지만, 멀리 떨어진 시점의 정보는 반영하기 어렵습니다.

- 예를 들어, 긴 문장이나 긴 대화에서 처음에 언급된 내용을 마지막에 기억하지 못하는 경우가 많습니다.

---

활용 사례 (Applications)

RNN은 시간의 흐름을 반영하는 다양한 분야에서 강력한 성능을 보여줍니다.

- 챗봇 대화 모델 (Chatbots):

→ 사용자 질문에 자연스럽게 답변을 생성합니다.

- 음성 인식 (Speech Recognition):

→ 연속된 음성을 분석하여 텍스트로 변환합니다.

- 주가 예측 (Stock Price Prediction):

→ 과거 시계열 데이터를 바탕으로 미래의 주가를 예측합니다.

- 자연어 생성 (Natural Language Generation, NLG):

→ 대규모 텍스트 데이터를 학습해 새로운 문장을 생성합니다.

---

🍀다음 뉴스레터 예고:

“더 깊고 오래 기억하는 LSTM의 등장”

LSTM(Long Short-Term Memory)은 어떻게 RNN의 한계를 극복했을까요?

더 긴 기억력과 정보 유지력을 갖춘 LSTM의 구조와 작동 방식을 다음 뉴스레터에서 다룹니다!

 

[출처 및 참고]

- [Recurrent Neural Network Tutorial - DataCamp](https://www.datacamp.com/tutorial/tutorial-for-recurrent-neural-network)

- [Introduction to Recurrent Neural Networks - GeeksforGeeks](https://www.geeksforgeeks.org/introduction-to-recurrent-neural-network/)


작성: 6기 서베이팀 박찬규, 신미수, 양지호

 

다가올 뉴스레터가 궁금하신가요?

지금 구독해서 새로운 레터를 받아보세요

✉️

이번 뉴스레터 어떠셨나요?

빅데이터분석학회 B.D.A 님에게 ☕️ 커피와 ✉️ 쪽지를 보내보세요!

댓글

의견을 남겨주세요

확인
의견이 있으신가요? 제일 먼저 댓글을 달아보세요 !

다른 뉴스레터

© 2025 빅데이터분석학회 B.D.A

Be Data-literate and Achieve your dream, BDA

뉴스레터 문의official.bdaa@gmail.com

메일리 로고

도움말 자주 묻는 질문 오류 및 기능 관련 제보 뉴스레터 광고 문의

서비스 이용 문의admin@team.maily.so

메일리 사업자 정보

메일리 (대표자: 이한결) | 사업자번호: 717-47-00705 | 서울 서초구 강남대로53길 8, 8층 11-7호

이용약관 | 개인정보처리방침 | 정기결제 이용약관 | 라이선스