Il flusso piu semplice
- Installa Ollama e assicurati che il runtime locale sia attivo.
- Scarica almeno un modello adatto ai tool, per esempio:
ollama pull gpt-oss:20b
ollama pull llama3.3
ollama pull qwen2.5-coder:32bSecondo la documentazione ufficiale OpenClaw puo auto-scoprire i modelli Ollama quando abiliti il provider senza definire una configurazione esplicita.
Setup corretto per l'auto-discovery
La via piu pulita e impostare un valore qualsiasi per OLLAMA_API_KEY e poi lasciare che OpenClaw scopra i modelli dal runtime locale.
export OLLAMA_API_KEY="ollama-local"
ollama list
openclaw models listSe i modelli compaiono, OpenClaw sta vedendo il provider locale e puoi poi scegliere il modello da usare nel tuo workflow.
L'errore da evitare
Se Ollama gira su un host remoto o personalizzato, non usare l'endpoint compatibile OpenAI con /v1. La documentazione ufficiale segnala che cosi il tool calling puo rompersi e il modello puo restituire JSON dei tool come semplice testo.
La base giusta e questa:
baseUrl: "http://host:11434"Non questa:
baseUrl: "http://host:11434/v1"Se Ollama non viene rilevato
I controlli minimi da fare sono questi:
ollama serve
curl http://localhost:11434/api/tags
openclaw models list- Se
/api/tagsnon risponde, il problema e Ollama prima ancora di OpenClaw. - Se Ollama risponde ma OpenClaw non vede modelli, controlla di non avere una config esplicita vecchia per
models.providers.ollama. - Se vedi pochi modelli, spesso significa che il modello scelto non espone bene il supporto ai tool.