Ollama

Come configurare OpenClaw con Ollama senza rompere tool e modelli

Ollama e una delle strade migliori se vuoi usare modelli locali con OpenClaw. Il punto pero non e solo far vedere un modello in lista: il setup giusto deve mantenere tool calling, discovery pulita e una base stabile per il primo agente utile.

Il flusso piu semplice

  1. Installa Ollama e assicurati che il runtime locale sia attivo.
  2. Scarica almeno un modello adatto ai tool, per esempio:
ollama pull gpt-oss:20b
ollama pull llama3.3
ollama pull qwen2.5-coder:32b

Secondo la documentazione ufficiale OpenClaw puo auto-scoprire i modelli Ollama quando abiliti il provider senza definire una configurazione esplicita.

Setup corretto per l'auto-discovery

La via piu pulita e impostare un valore qualsiasi per OLLAMA_API_KEY e poi lasciare che OpenClaw scopra i modelli dal runtime locale.

export OLLAMA_API_KEY="ollama-local"
ollama list
openclaw models list

Se i modelli compaiono, OpenClaw sta vedendo il provider locale e puoi poi scegliere il modello da usare nel tuo workflow.

L'errore da evitare

Se Ollama gira su un host remoto o personalizzato, non usare l'endpoint compatibile OpenAI con /v1. La documentazione ufficiale segnala che cosi il tool calling puo rompersi e il modello puo restituire JSON dei tool come semplice testo.

La base giusta e questa:

baseUrl: "http://host:11434"

Non questa:

baseUrl: "http://host:11434/v1"

Se Ollama non viene rilevato

I controlli minimi da fare sono questi:

ollama serve
curl http://localhost:11434/api/tags
openclaw models list
  • Se /api/tags non risponde, il problema e Ollama prima ancora di OpenClaw.
  • Se Ollama risponde ma OpenClaw non vede modelli, controlla di non avere una config esplicita vecchia per models.providers.ollama.
  • Se vedi pochi modelli, spesso significa che il modello scelto non espone bene il supporto ai tool.