Ollama

كيفية إعداد OpenClaw مع Ollama من دون كسر الأدوات أو النماذج

Ollama من أفضل الخيارات إذا أردت تشغيل نماذج محلية مع OpenClaw. لكن الهدف الحقيقي ليس فقط أن يظهر النموذج في القائمة، بل أن يبقى استدعاء الأدوات سليمًا وأن يكتشف OpenClaw النماذج بشكل نظيف وأن يبدأ أول وكيل على قاعدة مستقرة.

أبسط مسار

  1. ثبّت Ollama وتأكد أن الـ runtime المحلي يعمل.
  2. اسحب نموذجًا واحدًا على الأقل مناسبًا للأدوات، مثل:
ollama pull gpt-oss:20b
ollama pull llama3.3
ollama pull qwen2.5-coder:32b

بحسب وثائق OpenClaw الرسمية يمكن للنظام اكتشاف نماذج Ollama تلقائيًا عندما تفعّل المزوّد من دون تعريف تكوين صريح كامل.

الإعداد الصحيح للاكتشاف التلقائي

الطريق الأنظف هو وضع أي قيمة في OLLAMA_API_KEY ثم ترك OpenClaw يكتشف النماذج من الـ runtime المحلي.

export OLLAMA_API_KEY="ollama-local"
ollama list
openclaw models list

إذا ظهرت النماذج فمعناه أن OpenClaw يرى المزوّد المحلي ويمكنك بعدها اختيار ما يناسب workflow الخاص بك.

الخطأ الذي يجب تجنبه

إذا كان Ollama يعمل على host بعيد أو مخصص، لا تستخدم endpoint المتوافق مع OpenAI والمرفق بـ /v1. الوثائق الرسمية تنبه إلى أن استدعاء الأدوات قد ينكسر وأن JSON الخاص بالأدوات قد يعود كنص فقط بدل التنفيذ الحقيقي.

baseUrl: "http://host:11434"

وليس:

baseUrl: "http://host:11434/v1"

إذا لم يتم اكتشاف Ollama

ollama serve
curl http://localhost:11434/api/tags
openclaw models list
  • إذا لم يستجب /api/tags فالمشكلة في Ollama قبل OpenClaw.
  • إذا كان Ollama يرد لكن OpenClaw لا يرى النماذج، فتحقق من عدم وجود إعداد قديم وصريح داخل models.providers.ollama.
  • إذا ظهرت نماذج قليلة فقط، فغالبًا النموذج المختار لا يدعم الأدوات بالشكل المناسب.