Consistency regularization
$$ \sum^{\mu B}_{b=1} ||p_m(y|\alpha(u_b))-p_m(y|\alpha(u_b))||^2_2 \tag{1} $$
Pseudo-labeling
unlabeled data에 artificial label을 얻기 위해 모델 사용
argmax로 hard labels을 만들고 유지
$$ \frac{1}{\mu B}\sum^{\mu B}_{b=1} \mathbf{1}(\text{max}(q_b) \geq \tau)\text{ H}(\hat{q}_b,q_b) $$
hard label을 만드는 것은 entropy minimization과 깊은 관련이 있음
two cross-entropy loss term
$$ l_s = \frac{1}{B}\sum^B_{b=1}\text{H}(p_b,p_m(y|\alpha(x_b)) \tag{3} $$
weakly-augmented unlabeled image에 대해 model의 predicted class distribution 계산 $q_b=p_m(y|\alpha(u_b))$
$\hat{q}_b=\text{argmax}(q_b)$를 pseudo-label로 사용하지만 strongly-augmented 데이터에 대한 model의 output에 대해 cross-entropy loss를 계산하는 것은 제외
$$ l_u = \frac{1}{\mu B}\sum^{\mu B}_{b=1}\mathbf{1}(\text{max}(q_b)\geq\tau)\text{ H}(\hat{q}_b,p_m(y|\mathcal{A}(u_b))) \tag{4} $$
FixMatch에 사용된 loss는 $l_s+\lambda_ul_u$를 최소화