본문 바로가기

ML/ML Basic

[ML] CNN vs RNN vs GAN

CNN (Convolutional Neural Network) - 합성곱 신경망

  • 주요 용도: 이미지 인식, 객체 탐지, 영상 처리
  • 핵심 아이디어: 이미지의 공간적 특성을 보존하면서 특징 추출
  • 구조 특징:
    • 컨벌루션 계층: 입력 영상을 일련의 컨벌루션 필터에 통과시킵니다. 각 필터는 영상에서 특정 특징을 활성화합니다.
    • ReLU(Rectified Linear Unit) 계층: 음수 값은 0에 매핑하고 양수 값은 그대로 두어서 더 빠르고 효과적인 훈련이 이루어지도록 합니다. 이때 활성화된 특징만 다음 계층으로 전달되므로 이를활성화라고도 합니다.
    • 풀링 계층: 비선형 다운샘플링을 수행하여 신경망이 학습해야 하는 파라미터의 개수를 줄임으로써 출력을 단순화합니다.
    • 이러한 연산이 수십 또는 수백 개의 계층에 대해 반복되며, 각 계층은 서로 다른 특징을 식별하도록 학습합니다.
  • 장점:
    • 파라미터 효율적 (필터 공유)
    • 이미지에 강한 성능
  • 단점:
    • 시간 정보를 처리하기에는 부적합
  • 예시:
    • YOLO, VGGNet, ResNet

RNN (Recurrent Neural Network) - 순환 신경망

  • 주요 용도: 시계열 데이터, 자연어 처리 (NLP), 음성 인식
  • 핵심 아이디어: 이전 상태를 기억하고 다음 상태에 전달 (순환 구조)
  • 구조 특징:
    • 순차적 데이터 처리
    • 시간에 따라 상태(state)가 누적됨
  • 장점:
    • 시간적 순서에 민감한 데이터 처리 가능
  • 단점:
    • 긴 시퀀스에서 기울기 소실 문제 발생
    • 학습이 느림 → 개선 모델: LSTM, GRU
    • RNN의 단점을 보완한 Transformer 모델이 주로 사용됨
      • 기존 RNN은 단어를 한 줄씩 순차 처리 → 느리고 장기 의존 어려움
      • Transformer는 병렬 처리 + Self-Attention → 빠르고 문맥을 멀리까지 반영 가능
  • 예시:
    • 번역기, 챗봇, 주식 예측

GAN (Generative Adversarial Network) - 적대적 생성 네트워크

  • 주요 용도: 이미지 생성, 데이터 증강, 딥페이크, 스타일 전이
  • 핵심 아이디어: 두 개의 네트워크(Generator vs Discriminator)가 서로 경쟁하며 성능 향상
  • 구조 특징:
    • Generator: 진짜 같은 가짜 데이터를 생성
    • Discriminator: 진짜와 가짜를 구별
    • D를 먼저 학습 -> G가 생성한 자료를 D가 진짜인지 가짜인지 헷갈릴 정도로 학습 -> D를 다시 학습 -> 반복...
    • 즉, 실제 같은 데이터를 생성하기 위해 두 네트워크가 경쟁하는 생성적 적대 신경망
  • 장점:
    • 고품질의 데이터를 생성 가능
  • 단점:
    • 학습이 불안정함 (모델 균형 맞추기 어려움)
    • Mode collapse 등의 문제
  • 예시:
    • 딥페이크 등
     

'ML > ML Basic' 카테고리의 다른 글

[ML] 학습의 종류  (0) 2025.06.22
[ML] AI vs ML vs DL  (2) 2025.06.22