مع تحول نماذج الذكاء الاصطناعي إلى سلعة على نحو متزايد، تتسابق الشركات الناشئة لبناء طبقة من البرمجيات التي تقع فوقها. إنه مشارك مثير للاهتمام في هذا الفضاء أوصورخادم LLM مفتوح المصدر وحصري لشركة Apple يسمح للمستخدمين بالتنقل بين نماذج الذكاء الاصطناعي المحلية المختلفة، إما محليًا أو في السحابة، مع الاستمرار في تخزين الملفات والأدوات على أجهزتهم الخاصة.
تطورت أوصوروس من فكرة رفيق AI على سطح المكتب الخاص بكدينوكي، شارك في تأسيسها أوسوروس تيرينس باي يوصف بأنه نوع من “Clippy الذي يعمل بالذكاء الاصطناعي”. سأله عملاء دينوكي عن سبب ضرورة شراء التطبيق إذا كان لا يزال يتعين عليهم دفع ثمن الرموز المميزة – وحدات الاستخدام التي تتقاضاها شركات الذكاء الاصطناعي لمعالجة المطالبات وتوليد الاستجابات.
وقد دفع هذا باي إلى التفكير بعمق أكبر في إطلاق الذكاء الاصطناعي محليًا.
قال باي، الذي كان مهندس برمجيات سابقًا في Tesla وNetflix، لـ TechCrunch: “هكذا بدأ Osaurus”. وأوضح أن الفكرة تتمثل في محاولة تشغيل مساعد الذكاء الاصطناعي محليا. “يمكنك فعل أي شيء تقريبًا محليًا على جهاز Mac الخاص بك، مثل تصفح الملفات، والوصول إلى المتصفح، والوصول إلى تكوين النظام. وأعتقد أن هذه ستكون طريقة رائعة لإعداد Osaur كذكاء اصطناعي شخصي للأفراد.”
بدأ Pae في بناء الأداة علنًا باسم مشروع مفتوح المصدرإضافة الميزات وإصلاح الأخطاء.
اليوم، أوصور يمكن الاتصال بمرونة بنماذج الذكاء الاصطناعي المستضافة محليًا أو موفري الخدمات السحابية مثل OpenAI وAnthropic. يمكن للمستخدمين اختيار نماذج الذكاء الاصطناعي التي يستخدمونها بحرية وتخزين الجوانب الأخرى لأداء الذكاء الاصطناعي على أجهزتهم الخاصة، مثل ذاكرة النموذج أو ملفات النماذج والأدوات.
نظرًا لأن نماذج الذكاء الاصطناعي المختلفة لها نقاط قوة مختلفة، فإن ميزة هذا النظام هي أنه يمكن للمستخدمين التبديل إلى نموذج الذكاء الاصطناعي الذي يناسب احتياجاتهم بشكل أفضل.
هذه البنية هي ما يمنح Osaurus ما يطلق عليه “الأداة المساعدة” – وهي طبقة تحكم تربط نماذج وأدوات وسير العمل المختلفة للذكاء الاصطناعي من خلال واجهة واحدة، تشبه أدوات مثل OpenClaw أو هيرميس. لكن الفرق هو أن هذه الأدوات غالبًا ما تكون مخصصة للمطورين الذين هم على دراية بالجهاز. في بعض الأحيان، كما هو الحال مع OpenClaw، يمكن أن تسبب مشكلات أمنية ونقاط ضعف مثيرة للقلق.
وفي الوقت نفسه، يقدم Osaurus واجهة سهلة الاستخدام يمكن للمستهلكين استخدامها ومعالجة المخاوف الأمنية عن طريق تشغيل كل شيء في صندوق حماية افتراضي معزول عن الأجهزة. وهذا يحد من الذكاء الاصطناعي إلى حد ما، مما يحافظ على أمان الكمبيوتر والبيانات الخاصة بك.
وبطبيعة الحال، لا تزال ممارسة تشغيل نماذج الذكاء الاصطناعي على جهاز الكمبيوتر في أيامها الأولى، نظرا لأنها كثيفة الاستخدام للموارد وتعتمد على الأجهزة. لتشغيل النماذج المحلية، سيحتاج نظامك إلى 64 جيجابايت على الأقل من ذاكرة الوصول العشوائي. لدعم الموديلات الأكبر حجمًا مثل DeepSeek v4، يوصي Pae بالأنظمة التي تبلغ سعتها حوالي 128 جيجابايت من ذاكرة الوصول العشوائي.
ومع ذلك، يعتقد باي أن احتياجات الذكاء الاصطناعي المحلية ستنخفض بمرور الوقت.
وقال: “أرى إمكانات في هذا لأن الذكاء لكل واط – وهو مؤشر للذكاء الاصطناعي المحلي – يتزايد بشكل كبير. إنه على منحنى الابتكار الخاص به. في العام الماضي، كان الذكاء الاصطناعي المحلي بالكاد يتمكن من إنهاء الجمل، لكنه اليوم يمكنه بالفعل تشغيل الأدوات، وكتابة التعليمات البرمجية، والوصول إلى المتصفح وطلب الأشياء على أمازون (…) إنه يتحسن باستمرار”.
اليوم، يمكن لـ Osaurus دعم MiniMax M2.5 وGemma 4 وQwen3.6 وGPT-OSS وLlama وDeepSeek V4 ونماذج أخرى. كما أنه يدعم طرازات أجهزة Apple الأساسية، ومجموعة نماذج LFM من Liquid AI، وفي السحابة يمكنه الاتصال بـ OpenAI، وAnthropic، وGemini، وxAI/Grok، وVenice AI، وOpenRouter، وOllama، وLM Studio.
باعتبارك خادم MCP (بروتوكول سياق النموذج) كاملاً، يمكنك توفير الوصول إلى أدواتك لأي عميل متوافق مع MCP. بالإضافة إلى ذلك، يأتي مزودًا بأكثر من 20 مكونًا إضافيًا أصليًا للبريد والتقويم وVision واستخدام macOS وXLSX وPPTX والمتصفح والموسيقى وGit ونظام الملفات والبحث والتنزيلات والمزيد.
تم تحديث Osaurus مؤخرًا ليشمل ميزات صوتية أيضًا.
ووفقا لبياناته، منذ إطلاق المشروع قبل عام تقريبا، تم تنزيله أكثر من 112 ألف مرة. موقع إلكتروني.
حاليًا، يشارك مؤسسو Osaurus (بما في ذلك المؤسس المشارك Sam Yoo) في مسرع الشركات الناشئة في نيويورك. إنهم يفكرون أيضًا في الخطوات التالية التي يمكن من خلالها تقديم Osaurus لشركات مثل تلك العاملة في الصناعات القانونية أو الرعاية الصحية، حيث يمكن أن يؤدي تشغيل LLM محليًا إلى معالجة مخاوف الخصوصية.
ويعتقد الفريق أنه مع زيادة قوة نماذج الذكاء الاصطناعي المحلية، فقد يؤدي ذلك إلى تقليل الطلب على مراكز بيانات الذكاء الاصطناعي.
قال باي: “إننا نشهد نموًا هائلاً في مجال الذكاء الاصطناعي حيث يتعين على (مقدمي الذكاء الاصطناعي السحابي) التوسع باستخدام مراكز البيانات والبنية التحتية، لكننا نشعر أن الناس لم يروا حقًا قيمة الذكاء الاصطناعي الداخلي بعد”. وأضاف: “بدلاً من الاعتماد على السحابة، يمكنهم بالفعل نشر Mac Studio محليًا، والذي يجب أن يستخدم طاقة أقل بكثير. لا تزال لديك إمكانيات السحابة، لكنك لن تعتمد على مركز بيانات لتتمكن من تشغيل هذا الذكاء الاصطناعي”.
عندما تقوم بالشراء من خلال الروابط الموجودة في مقالاتنا، قد نكسب عمولة صغيرة. وهذا لا يؤثر على استقلالنا التحريري.











