<aside> 🎉
Claude Code fonctionne avec un modèle open source local !
Pipeline complète : Mac → Caddy HTTPS → LiteLLM (Anthropic→OpenAI) → Ollama → qwen2.5-coder:3b
Première réponse obtenue le 3 avril 2026.
</aside>
graph LR
A["Mac (Claude Code CLI)"] -->|HTTPS| B["Caddy (notreunivers.cloud)"]
B -->|/neo/litellm/*| C["LiteLLM :4000"]
C -->|OpenAI format| D["Ollama :11434"]
D --> E["qwen2.5-coder:3b"]
~/claude-local.sh#!/bin/bash
# Claude Code Local — Via qwen2.5-coder:3b sur VPS
export ANTHROPIC_BASE_URL='<https://notreunivers.cloud/neo/litellm>'
export ANTHROPIC_API_KEY='sk-local-qwen-proxy'
export DISABLE_AUTOUPDATER=1
export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1
unset ANTHROPIC_AUTH_TOKEN
# Mode interactif ou one-shot
if [ "$1" = "-p" ]; then
shift
claude -p "$*" --model claude-sonnet-4-6 --output-format text --max-turns 3
else
claude --model claude-sonnet-4-6 "$@"
fi
~/claude-local.sh -p "Explique ce code"~/claude-local.sh/root/litellm_config.yaml/tmp/litellm_v3.lognohup litellm --config /root/litellm_config.yaml --port 4000 --detailed_debug > /tmp/litellm_v3.log 2>&1 &/v1/messages) en OpenAI Chat Completions (/v1/chat/completions) pour Ollamahandle_path /neo/litellm/* → 127.0.0.1:4000/etc/caddy/Caddyfile