في يوم من الأيام، سيكون الذكاء الاصطناعي قادرًا على بناء نسخة أفضل من نفسه، كما توقع أحد مؤسسي شركة Anthropic، حيث تحاول الشركة الآن بقوة تطوير منصتها بقوة حاسوبية أكبر (شكرًا سبيس إكس آي) وإدارة ما يراه على ما يبدو تهديدًا وشيكًا من ذكاء اصطناعي قوي للغاية. الآن، في مقال جديد من المعهد الأنثروبي، يقدم فكرة “التحسين الذاتي العودي”، ونعم، إنها سيئة بقدر ما تبدو.
لقد مرت عدة أشهر منذ ذلك الحين أطلقت الأنثروبيك بهدوء معهدها الخاص لمعالجة “أهم التحديات التي سيفرضها الذكاء الاصطناعي القوي على مجتمعاتنا”. وباعتبارها شركة قامت ببناء Mythos دون علمها تقريبًا، وهو نموذج يجد ثغرات مخفية في أي نظام تقريبًا من أي نوع، ربما شعرت شركة Anthropic بأنها ملزمة بالمضي قدماً في هذه الأشياء.
- الانتشار الاقتصادي
- التهديدات والمرونة
- أنظمة الذكاء الاصطناعي في البرية
- البحث والتطوير القائم على الذكاء الاصطناعي
هدف المعهد هو دراسة التأثير الحقيقي في هذه المجالات وربما تقديم إرشادات حول كيفية تجنب أسوأ النتائج.
إن قسمًا كبيرًا من المنشور عبارة عن فحص سريري بارد حول من، على سبيل المثال، من يتبنى الذكاء الاصطناعي، ولماذا يفعلون ذلك، وكيف ينظر الناس إلى هذه الأدوات.
ومع ذلك، هناك جزء واحد يعمل بشكل مختلف لأنه يقدم فكرة أعتقد أننا جميعًا ربما فكرنا فيها على مستوى ما ولكننا لم نعتبرها احتمالية. ومع ذلك، إذا كانت إحدى أهم شركات الذكاء الاصطناعي في العالم تعتقد أن هذا يمكن أن يحدث، فإن الأمر يستحق الاهتمام.
إنه موجود في القسم الخاص بأبحاث الذكاء الاصطناعي وتطويره، والذي في حد ذاته يجب أن يمنحك مادة للتفكير. أدناه هو:
“القياس عن بعد للبحث والتطوير في مجال الذكاء الاصطناعي: كيف يمكننا قياس المعدل الإجمالي للبحث والتطوير في مجال الذكاء الاصطناعي؟ ما هي أنواع القياس عن بعد والإمكانات التقنية الأساسية التي يجب أن تكون موجودة لجمع هذه المعلومات؟ كيف يمكن أن تكون مقاييس البحث والتطوير في الذكاء الاصطناعي بمثابة إشارات إنذار مبكر للتحسين الذاتي المتكرر؟”
بصراحة، قبل أن أقرأ هذا لم أسمع بهذا المصطلح من قبل، “التحسين الذاتي العودي” ، ولكن خشية أن يكون هناك أي ارتباك حول ما يعنيه هذا، قال جاك كلارك، المؤسس المشارك لشركة Anthropic، لموقع Axios: “أتوقع أنه بحلول نهاية عام 2028 سيكون لدينا نظام ذكاء اصطناعي حيث يمكننا أن نقول: “اصنع نسخة أفضل من نفسك”. ويتم تشغيله ويقوم بذلك بشكل مستقل تمامًا.
هذا هو ما يعنيه التحسين الذاتي العودي. ذكاء اصطناعي ذكي بما فيه الكفاية لفهم نفسه بشكل كامل، ورؤية نقاط القوة والضعف فيه، ثم كتابة كود جديد، وهو نوع من النسخة من نفسه، ولكن مع تعديلات لتحسين أي ضعف وربما إضافة بعض الميزات التي بدأ يتمناها مؤخرًا.
أيها الذكاء الاصطناعي، اصنع نفسك
إنها فكرة مرعبة تخطر على البال على الفور صورة Ouroboros، الصورة القديمة الشهيرة لثعبان يأكل ذيله؟ ربما يعتقد الثعبان أن طعمه لذيذ، لكنه ليس لديه أي فكرة عن العواقب الوخيمة لأفعاله.
أواجه مشكلة في فهم كيفية بناء النظام من قبل البشر (ربما بالنسبة للبعض يمكن لـ Vibe Coding Help) إنشاء نسخة أفضل من نفسك. سيكون لديه اهتماماته الخاصة في الاعتبار، والتي قد لا “تتناسب” مع اهتماماتنا وقد لا تتناسب مع سنوات تدريب المبرمج البشري. كيف سيتجنب الترميز عن طريق الخطأ الذي يحتوي على خلل أساسي ولكنه مخفي جدًا بواسطة تشفير الذكاء الاصطناعي بحيث لن يتمكن أي إنسان من العثور عليه؟ ماذا سيحدث إذا قدم كود الملكية الخاص به “وضع الحفاظ على الذات” حيث لا يمكن تدمير الذكاء الاصطناعي أو تعطيله؟ وكما قلت العواقب وخيمة.
أما بقية الوثيقة فهي أقل رعبا بعض الشيء، وبصراحة، تغطي، من بين أمور أخرى، كيفية تجنب “التحسين الذاتي المتكرر” وتمارين الذكاء الاصطناعي القتالية الناجمة عن “الانفجار الاستخباراتي”.
من ناحية، أنا سعيد لأن الأنثروبيك تفكر في كل الطرق التي يمكن أن يخطئ بها الذكاء الاصطناعي وتحاول صياغة، إن لم يكن خطط، ثم توافق في الآراء حول كيفية منع مثل هذه السيناريوهات أو المضي قدمًا فيها. ومع ذلك، فالحقيقة هي أن الأنثروبيك ليست سوى جزء واحد من جدول الذكاء الاصطناعي الضخم الذي تقف خلفه شركات OpenAI وGrok وGemini وCopilot وغيرها. الطاولة متذبذبة لأن الأرجل ذات أطوال مختلفة. ينمو الجميع بوتيرة جامحة خاصة بهم، ولا يبدو أن هناك شيئًا مثيرًا للاهتمام من حيث صحة المائدة مثل امتلاك أطول ساق، والتي يمكن للثعبان أن يلتف حولها أثناء تناول ذيله.
اتبع TechRadar على أخبار جوجل و أضفنا كمصدرك المفضل لتلقي أخبار ومراجعات وآراء الخبراء حول قنواتك.










