Super Resolution (초해상도)
데이터 출력
na 유무 파악 + 임배딩(one-hot)
모델을 고를 때는 크게 다음 다섯 가지 기준을 염두에 두시면 도움이 됩니다:
- 데이터 종류(Data Modality)
- 이미지: 컨볼루션 신경망(CNN, Convolutional Neural Network) 계열
- 간단한 손글씨 분류→ LeNet
- 일반 이미지 분류→ AlexNet → VGG → ResNet(Residual Network) → EfficientNet
- 객체 탐지·분할→ Faster R-CNN, YOLO, Mask R-CNN 등
- 시계열·텍스트: 순환 신경망(RNN, Recurrent NN) 혹은 요즘은 트랜스포머(Transformer)
- 짧은 문장 분류→ LSTM/GRU
- 번역·생성→ Transformer(BERT, GPT 등)
- 표 형태(Tabular): 다층 퍼셉트론(MLP, Multilayer Perceptron)
- 그래프(Graph): 그래프 신경망(GNN, Graph NN)
- 데이터셋 크기와 학습 비용
- 작은 데이터:
- 과적합 위험이 있으니 모델을 얕게(LeNet 수준) 쓰거나,
- 대규모로 사전학습된(pre-trained) 모델을 파인튜닝(fine-tuning)
- 큰 데이터:
- 깊은 네트워크(ResNet-50, EfficientNet)나 대형 트랜스포머(BERT, GPT)도 괜찮지만
- GPU 메모리와 학습 시간을 반드시 고려
- 문제 복잡도와 성능 목표
- 단순 분류: 간단한 CNN/MLP로도 충분
- 정밀한 분류·탐지: 더 깊고 복잡한 아키텍처(Residual, DenseNet, 트랜스포머 기반)
- 실시간·경량화 필요: MobileNet, TinyML, Distillation
- Baseline부터 단계적으로 확장
- 간단한 모델(LeNet, 작은 MLP)로 baseline 성능 확보
- ResNet-18, LSTM 수준으로 스케일 업
- 필요하면 BERT, GPT, EfficientNet 같은 대형 모델로 fine-tuning
- 각 단계에서 교차 검증(CV) 으로 비교
- 커뮤니티 리소스 활용
- Papers With Code나 Model Zoo에서 유사 문제에 잘 쓰이는 아키텍처 조사
- GitHub, 논문 부록에서 하이퍼파라미터 설정 샘플 참고
예시 워크플로우
- 문제 파악:
- “이미지 10개 클래스 분류, 데이터 5천장 → 작은 CNN”
- Baseline: LeNet 정도로 학습 → accuracy 70%
- 스케일 업: ResNet-18 fine-tune → accuracy 85%