ML/ML Basic
[ML] CNN vs RNN vs GAN
제이널
2025. 6. 22. 12:09
CNN (Convolutional Neural Network) - 합성곱 신경망
- 주요 용도: 이미지 인식, 객체 탐지, 영상 처리
- 핵심 아이디어: 이미지의 공간적 특성을 보존하면서 특징 추출
- 구조 특징:
- 컨벌루션 계층: 입력 영상을 일련의 컨벌루션 필터에 통과시킵니다. 각 필터는 영상에서 특정 특징을 활성화합니다.
- ReLU(Rectified Linear Unit) 계층: 음수 값은 0에 매핑하고 양수 값은 그대로 두어서 더 빠르고 효과적인 훈련이 이루어지도록 합니다. 이때 활성화된 특징만 다음 계층으로 전달되므로 이를활성화라고도 합니다.
- 풀링 계층: 비선형 다운샘플링을 수행하여 신경망이 학습해야 하는 파라미터의 개수를 줄임으로써 출력을 단순화합니다.
- 이러한 연산이 수십 또는 수백 개의 계층에 대해 반복되며, 각 계층은 서로 다른 특징을 식별하도록 학습합니다.
- 장점:
- 파라미터 효율적 (필터 공유)
- 이미지에 강한 성능
- 단점:
- 예시:
RNN (Recurrent Neural Network) - 순환 신경망
- 주요 용도: 시계열 데이터, 자연어 처리 (NLP), 음성 인식
- 핵심 아이디어: 이전 상태를 기억하고 다음 상태에 전달 (순환 구조)
- 구조 특징:
- 순차적 데이터 처리
- 시간에 따라 상태(state)가 누적됨
- 장점:
- 단점:
- 긴 시퀀스에서 기울기 소실 문제 발생
- 학습이 느림 → 개선 모델: LSTM, GRU
- RNN의 단점을 보완한 Transformer 모델이 주로 사용됨
- 기존 RNN은 단어를 한 줄씩 순차 처리 → 느리고 장기 의존 어려움
- Transformer는 병렬 처리 + Self-Attention → 빠르고 문맥을 멀리까지 반영 가능
- 예시:
GAN (Generative Adversarial Network) - 적대적 생성 네트워크
- 주요 용도: 이미지 생성, 데이터 증강, 딥페이크, 스타일 전이
- 핵심 아이디어: 두 개의 네트워크(Generator vs Discriminator)가 서로 경쟁하며 성능 향상
- 구조 특징:
- Generator: 진짜 같은 가짜 데이터를 생성
- Discriminator: 진짜와 가짜를 구별
- D를 먼저 학습 -> G가 생성한 자료를 D가 진짜인지 가짜인지 헷갈릴 정도로 학습 -> D를 다시 학습 -> 반복...
- 즉, 실제 같은 데이터를 생성하기 위해 두 네트워크가 경쟁하는 생성적 적대 신경망
- 장점:
- 단점:
- 학습이 불안정함 (모델 균형 맞추기 어려움)
- Mode collapse 등의 문제
- 예시:
'ML/ML Basic' Related Articles