1. LLM definition

스크린샷 2026-01-07 오후 2.11.51.png

스크린샷 2026-01-07 오후 2.13.15.png

스크린샷 2026-01-07 오후 2.14.58.png

2. Mixture of Experts

스크린샷 2026-01-07 오후 2.17.01.png

Motivation: 왜 MoE(Mixture of Experts)인가?

필요한 부분만 선택적으로 사용하자는 아이디어가 MoE의 출발점

스크린샷 2026-01-07 오후 2.18.39.png

MoE 개요 (Mixture of Experts)

MoE는 하나의 모델이 아니라:

여러 전문가(expert) 모델 + 이를 선택하는 게이트(gate) 구조


구성 요소