أصدر تطبيق Ollama الشهير لتشغيل نماذج الذكاء الاصطناعي محلياً تحديثاً جديداً يستفيد من إطار عمل MLX من آبل، مما يمنح أجهزة ماك بشرائح Apple Silicon دفعة أداء ملحوظة.
ما هو إطار عمل MLX من آبل وكيف يسرّع Ollama؟
إطار عمل MLX هو إطار تعلم آلي طوّرته آبل خصيصاً لشرائحها، ويتيح للتطبيقات الاستفادة القصوى من قدرات معالج M-series. تحديث Ollama الجديد يوظّف هذا الإطار لتحقيق:
- تسريع معالجة الأوامر (Prefill) بنسبة 1.6 مرة
- مضاعفة سرعة توليد الاستجابات (Decode) تقريباً
- أكبر تحسن يُلاحظ على شرائح M5 الجديدة بفضل وحدات GPU Neural Accelerators

كيف يُحسّن التحديث إدارة الذاكرة على ماك؟
وفقاً لما رصدناه في تيكبامين، يتضمن التحديث نظام إدارة ذكاء أذكى يقلل من استهلاك الذاكرة الموحدة. هذا يعني أن أدوات البرمجة بالذكاء الاصطناعي والمساعدات التفاعلية ستعمل بسلاسة أكبر خلال الجلسات الطويلة.
أبرز الأدوات المستفيدة
- Claude Code
- OpenCode
- OpenClaw
- Codex
هذه الأدوات ستصبح أكثر استجابة وفعالية على أجهزة ماك بفضل التحسينات الجديدة.
ما هي متطلبات تشغيل Ollama 0.19 على ماك؟
الإصدار التجريبي متاح كـ Ollama 0.19، لكنه يتطلب بعض الشروط الأساسية التي ينبغي الانتباه لها:
- جهاز ماك بذاكرة موحدة تزيد عن 32 جيجابايت
- دعم حالياً مقتصر على نموذج Qwen3.5 من علي بابا
- دعم نماذج ذكاء اصطناعي إضافية قادم قريباً
كما ذكر تيكبامين، يُعد هذا التحديث خطوة مهمة نحو جعل تشغيل نماذج الذكاء الاصطناعي محلياً أكثر عملية وسرعة على أجهزة ماك، خاصة مع تزايد الاعتماد على أدوات البرمجة المدعومة بالذكاء الاصطناعي.