تخيل قاعة محكمة حيث يحل الذكاء الاصطناعي محل المحلفين، ويحل وكيل الذكاء الاصطناعي المصمم بالكامل محل المحامي.
إعلان
إعلان
هذا هو بالضبط نوع السيناريو الذي تم النظر فيه في بطولة Maxup Legathon الدولية التي أقيمت في أستانا، عاصمة كازاخستان.
هنا، في جامعة ماكسوت ناريكباييف، اكتشف طلاب من 13 دولة تأثير التقنيات الجديدة مثل الذكاء الاصطناعي على الأنظمة القانونية والمبادئ القانونية والأخلاق وحقوق الإنسان وتبادل الخبرات من بلدانهم.
هل يمكن للذكاء الاصطناعي أن يحل محل القضاة؟
تتطلب القرارات القضائية تحليلاً واقعياً وتفكيراً أخلاقياً وتعاطفاً إنسانياً للوصول إلى حل عادل.
أولا وقبل كل شيء، الذكاء الاصطناعي ليس لديه عواطف. ولا يمكنه تقديم ظروف مخففة، أو إظهار التعاطف مع الموقف، أو الشعور بالتعاطف. أنظمة الذكاء الاصطناعي مبنية على التكرار. يتعلمون من البيانات، ويحددون الأنماط، ويتخذون القرارات بناءً على الخبرة.
إذا كانت نتيجة التجربة السابقة خاطئة، فسيقوم الذكاء الاصطناعي بحل الحالات المشابهة بنفس الطريقة الخاطئة.
وفي الوقت نفسه، تنتج روبوتات الذكاء الاصطناعي الحديثة نتيجة محددة تعتمد على التكرار المنهجي للبيانات. غالبًا ما يفشلون في شرح السلسلة المنطقية التي توصلوا من خلالها إلى خيار معين. لكن هذا التبرير مهم في المحاكم.
يعتقد سيرجي بن، نائب رئيس مجلس العلوم والابتكار والذكاء الاصطناعي في جامعة ماكسوت ناريكباييف (MNU) في أستانا، أنه لهذه الأسباب، ليس لدى الذكاء الاصطناعي حاليًا أي فرصة ليحل محل القضاة.
ووفقا له، يقدم نموذج اللغة إجابات تعتمد فقط على قاعدة المعرفة الخاصة به والمطابقة الإحصائية ذات الصلة، متجاوزًا المنطق الذي يقدمه القاضي البشري.
وقال بن: “هذه مشكلة كبيرة، لأن نماذج اللغة لا يمكنها إعادة إنتاج سلاسل الاستدلال القانوني، أو ما يسمى بالاستدلال القانوني”.
وقال إنه في الوقت الحاضر، ينبغي النظر إلى الذكاء الاصطناعي فقط كأداة لمرافقة عملية صنع القرار البشري.
وفي كازاخستان، تقوم هذه الأدوات بمراجعة الممارسات القضائية وتحليل التشريعات. يمكنه معالجة كميات كبيرة من المعلومات بسرعة أكبر. هناك أيضًا نظام قضائي يستخدم بالفعل الذكاء الاصطناعي كأداة داخلية للأغراض الرسمية لمساعدة القضاة على متابعة الممارسات القضائية باستمرار ومعرفة القرارات التي يتم اتخاذها بشأن أنواع مماثلة من النزاعات في كازاخستان.
لكنه لا يحل محل أو يزيح صحة القرار الذي يعتمد كليا على الإنسان.
وأوضح بن أن “القاضي وحده، كإنسان، يمكنه إضفاء الشرعية على قرار قضائي وإصداره”.
كيف يعمل الذكاء الاصطناعي في المسائل القانونية في البلدان الأخرى؟
وفي الصين، دخل الذكاء الاصطناعي بالفعل إلى المحكمة، حيث قال طالب في جامعة الصين للعلوم السياسية والقانون إن الذكاء الاصطناعي يستخدم في المهام الأساسية والبسيطة.
وقال طالب القانون الصيني هونغي تشين: “في بلدي، يتم استخدامه الآن لملء بعض الفراغات، وربما مساعدة هيئة المحلفين في العثور على بعض القضايا، (تحليل ما إذا كانت) القضية مشابهة للقضية السابقة، لكن الذكاء الاصطناعي لا يمكنه تحديد النتيجة فقط”.
أجرى طلاب جورجيا بحثًا مكثفًا لفهم كيفية عمل الذكاء الاصطناعي ضمن النظام القانوني. ومن خلال تحليل الممارسات الدولية، فإنها تسلط الضوء على الفجوة بين الجدوى الفنية والصلاحية القانونية.
وتتمثل المخاطر الرئيسية في افتقار الخوارزمية إلى الروح واستحالة الاختيار الأخلاقي.
وقالت كاتي خالياشفيلي، وهي طالبة في جامعة تبليسي: “في الوقت الحالي، لا يزال يتعين على القاضي البشري، باعتباره محكمًا، أن يدرس الأسس الموضوعية للقضية، وعندها فقط يصبح الحل القانوني ملزمًا. ولكن إذا وصلنا بالفعل إلى هذا المستوى من تطبيق الذكاء الاصطناعي، فأعتقد أن هناك إمكانية لإصدار الذكاء الاصطناعي أحكامًا في المستقبل”.
وقال طلاب من جامعة ماكجيل الكندية إنه ينبغي استكشاف وتنظيم دمج الذكاء الاصطناعي في المسائل القانونية.
وقالت الطالبة أليسا زو: “شخصياً، في الوقت الحالي، أعتقد أن الذكاء الاصطناعي لم يتطور بعد إلى المستوى الذي يمكنه أن يحل محل الحكم البشري بالكامل”.
معضلة المسؤولية
السبب الأساسي وراء عدم قدرة الذكاء الاصطناعي على استبدال البشر هو المسؤولية. إن قرار المحكمة هو عمل من أعمال السلطة، والقضاة مسؤولون عنه. إذا أخطأ القاضي، فقد يتم تقديم استئناف، أو قد يتم اتخاذ إجراء تأديبي، أو قد يتم حل المسألة بموجب القانون.
ولكن على من يقع اللوم في حالة الذكاء الاصطناعي؟ مطور الكود أم مزود الخدمة السحابية؟
يعتقد طلاب MNU أنه من المهم تحديد من سيتولى المسؤولية.
“إذا كان المحتوى الناتج عن الذكاء الاصطناعي يسبب الضرر، فهل هو مسؤول، وهل تصنيف “الذكاء الاصطناعي” ضروري؟ لا توجد فئات في القانون تميز بين المحتوى غير الضار، أو المحتوى الضار، أو المحتوى الذي قد يكون ضارًا. يجب أن يكون القانون قابلاً للتكيف وقابلاً للتطبيق على مستويات مختلفة من العلاقات القانونية،” يقول إسلام شاجتاييف، وهو طالب في جامعة MNU.
يتفق الفائزون في Legathon معهم، ويقترحون تقديم المسؤولية الكاملة للمصنعين ومطوري الأنظمة.
وقالت أليسا دوكتوروفيتش، الطالبة في جامعة الفارابي الوطنية الكازاخستانية: “نعتقد أن الفرد أو المستخدم لا يتمتع دائمًا بأي حماية. لذلك يجب على المطور أن يتحمل معظم المسؤولية”.
إن حقيقة مناقشة الذكاء الاصطناعي في كازاخستان الآن هي أمر رمزي، لأن عام 2026 هو عام الرقمنة والذكاء الاصطناعي هنا.
قدم قانون “الذكاء الاصطناعي” الذي صدر في البلاد في نوفمبر 2025 مبدأ المركزية البشرية، مما يعني أن الذكاء الاصطناعي ليس سوى أداة تحاكي الوظائف المعرفية البشرية، ولا يحل محل المسؤولية البشرية.
سيسمح لنا Legathon بإعادة التفكير وإعادة تقييم العلاقة بين الذكاء الاصطناعي والقانون. في عصر أصبح فيه القانون خوارزميًا بشكل متزايد، نحتاج إلى أن نتذكر العنصر البشري.












