أبسط مسار
- ثبّت Ollama وتأكد أن الـ runtime المحلي يعمل.
- اسحب نموذجًا واحدًا على الأقل مناسبًا للأدوات، مثل:
ollama pull gpt-oss:20b
ollama pull llama3.3
ollama pull qwen2.5-coder:32bبحسب وثائق OpenClaw الرسمية يمكن للنظام اكتشاف نماذج Ollama تلقائيًا عندما تفعّل المزوّد من دون تعريف تكوين صريح كامل.
الإعداد الصحيح للاكتشاف التلقائي
الطريق الأنظف هو وضع أي قيمة في OLLAMA_API_KEY ثم ترك OpenClaw يكتشف النماذج من الـ runtime المحلي.
export OLLAMA_API_KEY="ollama-local"
ollama list
openclaw models listإذا ظهرت النماذج فمعناه أن OpenClaw يرى المزوّد المحلي ويمكنك بعدها اختيار ما يناسب workflow الخاص بك.
الخطأ الذي يجب تجنبه
إذا كان Ollama يعمل على host بعيد أو مخصص، لا تستخدم endpoint المتوافق مع OpenAI والمرفق بـ /v1. الوثائق الرسمية تنبه إلى أن استدعاء الأدوات قد ينكسر وأن JSON الخاص بالأدوات قد يعود كنص فقط بدل التنفيذ الحقيقي.
baseUrl: "http://host:11434"وليس:
baseUrl: "http://host:11434/v1"إذا لم يتم اكتشاف Ollama
ollama serve
curl http://localhost:11434/api/tags
openclaw models list- إذا لم يستجب
/api/tagsفالمشكلة في Ollama قبل OpenClaw. - إذا كان Ollama يرد لكن OpenClaw لا يرى النماذج، فتحقق من عدم وجود إعداد قديم وصريح داخل
models.providers.ollama. - إذا ظهرت نماذج قليلة فقط، فغالبًا النموذج المختار لا يدعم الأدوات بالشكل المناسب.