Intro

<aside> 🔥

cline에 ollama를 적용하여 local 모델로 무한정으로 AI Agent를 사용하는 방법에 대해 알아봅니다. (작성일 2025년 4월 8일)

</aside>

Cline 설치하기를 통해 Cline을 셋팅했고, Ollama 설치하기를 통해 ollama를 셋팅했습니다. 그러면 이제 ollama를 cline에 적용해서 AI Agent를 돌리는 방법에 대해 알아보겠습니다!

Body

1. VSCode를 키고 Cline을 킵니다.

2. ollama로 API Provider를 변경합니다.

3. 사용하고자 하는 모델을 선택합니다.

4. ollama에서 사용하고자 하는 모델을 run 합니다.

5. Cline에서 테스트

Conclusion

ollama를 이용해서 local에서 무료로 Cline을 사용할 수 있는 방법을 알아보았습니다.

하지만, Local 모델로 사용하는 방법은 사용하지 않을거 같습니다. 그 이유는 아래와 같습니다.

성능 문제 📉

Tool(도구) 성능 이슈 🛠️

Hardware Requirements 💻

스크린샷 2025-04-08 오후 7.41.05.png

즉, 4b로는 Agentic AI를 돌리기에는 사이즈도 작고, 어찌저찌 모델을 돌리더라도 저의 M3 RAM 24GB 맥북으로는 턱없이 부족합니다.

만약, GPU가 달린 서버가 있다면 로컬 모델을 돌리는 선택지는 가능한 선택지라고 생각합니다. 대신 상업용 전기를 사용하는 서버만 그나마 가능할거 같고 가정용 전기를 사용하면 전기료가 꽤나 나갈거 같습니다..


⬅️ 이전 페이지

Ollama 설치하기

➡️ 다음 페이지

openrouter로 모델 연결하기

Reference

https://docs.cline.bot/running-models-locally/ollama

https://docs.cline.bot/running-models-locally/read-me-first

<aside>

Topics

Cline 설치하기

Ollama 설치하기

Cline에 ollama 적용하기

openrouter로 모델 연결하기

Roo Code 설치하기

Roo Code 모델 설정값 이해하기

</aside>