<aside> ✔️ 간단 요약
ALS, Implicit Feedback, Confidence, Preference
</aside>
Collaborative Filtering for Implicit Feedback Datasets
Implicit Feedback 데이터에 적합하도록 MF 기반 모델을 설계하여 성능을 향상시킨 논문
행렬의 각 원소에 서로 다른 confidence 값을 부여하는 Instance re-weighting scheme가 활용된다.
기존 MF는 유저—아이템에 대한 Rating만 고려했다.
이 Implicit Feedback은 Rating을 두 가지로 구분하여 모델에 반영한다.
Preference
유저 u가 아이템 i를 선호하는지 여부를 binary로 표현
$$ f_{ui}(n)= \begin{cases} 1 & r_{ui} > 0 \\ 0 & r_{ui} = 0 \end{cases} $$
Confidence
유저 u가 아이템 i를 선호하는 정도를 나타내는 increasing function
$\alpha$는 positive feedback과 negative feedback간의 상대적인 중요도를 조정하는 하이퍼 파라미터
$$ \tt c_{ui} = 1 + \alpha \cdot r_{ui} $$
기존 목적 함수
$$ \tt \min {P, Q} \sum{\text {observed }r_{u,i}}\left(r_{u, i}-p_u^T q_i\right)^2+\lambda\left(\left\|p_u\right\|_2^2+\left\|q_i\right\|_2^2\right) $$
Implicit Feedback을 고려한 새로운 목적 함수
$$ \tt\min {P, Q} \sum{\text {observed } f_{u, i}} c_{u, i}\left(f_{u, i}-p_u^T q_i\right)^2+\lambda\left(\sum_u\left\|p_u\right\|_2^2+\sum_i\left\|q_i\right\|_2^2\right) $$
Rating이 높은 경우, Confidence가 높아져서 해당 데이터에 대해 예측이 정확해지도록 모델이 학습한다.
SGD나 ALS로 동일하게 풀 수 있다.
Solution
기본 해의 형태
$$ \begin{aligned}& p_u=\left(Q^T Q+\lambda I\right)^{-1} Q^T r_u \\& q_i=\left(P^T P+\lambda I\right)^{-1} P^T r_i\end{aligned} $$
Confidence / Preference를 고려한 해의 형태
$$ \begin{aligned}& p_u=\left(Q^TC^u Q+\lambda I\right)^{-1} Q^TC^u f_u \\& q_i=\left(P^TC^i P+\lambda I\right)^{-1} P^T C^if_i\end{aligned} $$