<aside> 🎯
Objectif principal : Faire d'Ollama un agent opérationnel complet — capable de raisonner, lire/écrire Google Sheets, interagir via Telegram, compresser la mémoire des agents — le tout 100% gratuit sur notre VPS.
Vision : Maximiser ce qu'on peut faire avec l'environnement actuel (2 vCPU, 8 Go RAM), tout en préparant le scaling futur (plus de RAM, GPU, modèles plus gros).
</aside>
<aside> 💰
Pourquoi Ollama est stratégique :
| Ressource | Total | Utilisé | Disponible |
|---|---|---|---|
| RAM | 8 Go | ~1,6 Go (20%) | ~6,4 Go ✅ |
| Disque | 100 Go NVMe | ~24 Go (24%) | ~76 Go ✅ |
| CPU | 2 vCPU | 2% | ~98% ✅ |
| IP | 148.230.116.171 | — | — |
<aside> 🟢
Marge RAM confortable : LFM2.5 (~1,5 Go) + n8n (~500 Mo) + OpenClaw (~500 Mo) = ~2,5 Go. Marge de ~3,9 Go ✅. Phi-4 Mini en hot-swap (~3 Go) laisse encore ~1,4 Go de marge.
</aside>
SQLite sur VPS + Notion = combo parfait, 100% gratuit, déjà en infrastructure.
| Niveau | Solution | Usage | Statut |
|---|---|---|---|
| Niveau 0 | n8n staticData + Notion | Pointeurs, flags, IDs + mémoire longue | ✅ Déjà en place |
| Niveau 1 | SQLite sur VPS Hostinger | Base légère, ACID, zéro coût, états persistants agents | 🔴 À construire |
| Niveau 2 | Postgres (Supabase free tier) | n8n node natif Postgres Chat Memory | ⚪ Optionnel |
<aside> ❌
Ce qui NE vaut pas le coup : vecteurs (Qdrant, Milvus) = overkill pour notre usage actuel.
</aside>
Sources : G-Memory arXiv + HiMem arXiv + survey 47 auteurs
| Couche | Nom | Capacité | Fréquence | Statut |
|---|---|---|---|---|
| P0 (Flash) | Working memory / Mémoire Vive | 1000 mots | Trigger 1h | ✅ En place |
| P1 (Focus) | Expérientielle court-terme | 2000-3000 mots | 6-12h | 🔴 À créer |
| P2 (Profonde) | Expérientielle long-terme | 5000 mots | Hebdo | 🔴 À créer |
| P3 (Fondation) | Factuelle permanente | Illimitée | Validation Ben | 🔴 À créer |
Taxonomie 3×3 (arXiv survey) :
3 approches production :