<aside> 🔥
cline에 ollama를 적용하여 local 모델로 무한정으로 AI Agent를 사용하는 방법에 대해 알아봅니다. (작성일 2025년 4월 8일)
</aside>
Cline 설치하기를 통해 Cline을 셋팅했고, Ollama 설치하기를 통해 ollama를 셋팅했습니다. 그러면 이제 ollama를 cline에 적용해서 AI Agent를 돌리는 방법에 대해 알아보겠습니다!
API Provider
를 변경합니다.ollama를 이용해서 local에서 무료로 Cline을 사용할 수 있는 방법을 알아보았습니다.
하지만, Local 모델로 사용하는 방법은 사용하지 않을거 같습니다. 그 이유는 아래와 같습니다.
성능 문제 📉
Tool(도구) 성능 이슈 🛠️
Hardware Requirements 💻
즉, 4b로는 Agentic AI를 돌리기에는 사이즈도 작고, 어찌저찌 모델을 돌리더라도 저의 M3 RAM 24GB 맥북으로는 턱없이 부족합니다.
만약, GPU가 달린 서버가 있다면 로컬 모델을 돌리는 선택지는 가능한 선택지라고 생각합니다. 대신 상업용 전기를 사용하는 서버만 그나마 가능할거 같고 가정용 전기를 사용하면 전기료가 꽤나 나갈거 같습니다..
⬅️ 이전 페이지
➡️ 다음 페이지
https://docs.cline.bot/running-models-locally/ollama
https://docs.cline.bot/running-models-locally/read-me-first
<aside>
</aside>