<aside> 💡 먼저 읽어보면 좋아요!
</aside>
Batch Inference vs Online Inference - ML in Production
실시간 처리의 목적을 가진 곳에서 사용할 수 없다. 즉, Batch Inference로 생성된 예측은 새로운 데이터에 대해 사용될 수 없다. (Cold Start Problem)
→ ex. 예를 들어 어떤 사용자가 Neflix와 같은 서비스에 새로 가입했다고 가정하자. 만약 추천이 매일 밤 배치에 생성된다면 해당 사용자는 제대로 개인 맞춤화된 추천을 받지 못할 것이다. 해당 부분을 개선하는 한 방법으로는 비슷한 유저의 데이터를 사용해 생성한 추천이 있다. → Netflix가 그렇게 추천한다는 말이 아님! 그냥 예시.
Batch Inference보다 구조적으로 더 복잡하고 지연시간(latency) 요구사항도 신경써야 하기에 비교적 더 어렵다.
→ 데이터 수신, 추론, 검증, 네트워크 송신 모두 합쳐 100ms 안에 처리해야함.