تشتمل ملفات محكمة جرائم القتل الأسترالية على استشهادات مزيفة وأحكام غير موجودة صادرة عن الذكاء الاصطناعي

اعتذر محامٍ أسترالي كبير أمام القاضي عن مذكراته في قضية قتل تضمنت اقتباسات مزيفة تم إنشاؤها بواسطة الذكاء الاصطناعي وأحكامًا في قضايا غير موجودة.

يعد خطأ المحكمة العليا في ولاية فيكتوريا بمثابة سلسلة أخرى من الحوادث المؤسفة التي يسببها الذكاء الاصطناعي في أنظمة العدالة حول العالم.

وتحمل محامي الدفاع ريشي نثواني، الذي يحمل اللقب القانوني المرموق لمحامي الملك، “المسؤولية الكاملة” عن تقديم معلومات كاذبة في شهادته في قضية المراهق المتهم بالقتل، وفقًا لوثائق المحكمة التي اطلعت عليها وكالة أسوشيتد برس يوم الجمعة.

وقال نثواني للقاضي جيمس إليوت يوم الأربعاء لفريق الدفاع: “نشعر بحزن عميق وإحراج لما حدث”.

تسببت الأخطاء التي أنشأها الذكاء الاصطناعي في تأخير لمدة 24 ساعة في حل القضية التي كان إليوت يأمل في الانتهاء منها يوم الأربعاء. وحكم إليوت يوم الخميس بأن موكل ناثواني، الذي لا يمكن تحديد هويته لأنه قاصر، غير مذنب بارتكاب جريمة القتل غير العمد بسبب التخلف العقلي.

وقال إليوت للمحامين يوم الخميس: “في ظل خطر التواطؤ، فإن الطريقة التي تطورت بها هذه الأحداث غير مرضية”.

وأضاف إليوت: “إن سلطة المحاكم في الاعتماد على دقة التقارير التي يقدمها المحامي أمر أساسي لإدارة العدالة بشكل سليم”.

تتضمن التقديمات المزيفة اقتباسًا ملفقًا من خطاب ألقاه في المجلس التشريعي للولاية وقضية يُزعم أنها غير موجودة من المحكمة العليا.

تم اكتشاف الأخطاء من قبل شركاء إليوت، الذين لم يتمكنوا من العثور على القضايا المذكورة وطلبوا تقديم نسخ لمحامي الدفاع، هيئة الإذاعة الأسترالية. تقرير.

واعترف المحامون بأن الاقتباسات “غير موجودة” وأن الملف يحتوي على “اقتباسات وهمية”، حسبما تقول وثائق المحكمة.

وأوضح المحامون أنهم تأكدوا من صحة الاستشهادات الأولية وافترضوا خطأً أن الاستشهادات الأخرى ستكون صحيحة أيضًا.

وتم إرسال الطلبات أيضًا إلى المدعي العام دانييل بورسيدو، الذي لم يتحقق من دقتها.

وأشار القاضي إلى أن المحكمة العليا أصدرت العام الماضي مبادئ توجيهية حول كيفية استخدام المحامين للذكاء الاصطناعي.

وقال إليوت: “من غير المقبول استخدام الذكاء الاصطناعي ما لم يتم التحقق من نتائج هذا الاستخدام بشكل مستقل وشامل”.

ولا تحدد وثائق المحكمة نظام الذكاء الاصطناعي الذي يستخدمه المحامون.

وفي قضية مماثلة في الولايات المتحدة في عام 2023، فرض قاض فيدرالي غرامة قدرها 5000 دولار على محاميين ومكتب محاماة. ويعزى ChatGPT لتقديم بحث قانوني وهمي بشأن دعوى إصابة طيران.

قال القاضي بي كيفن كاستل إنهم تصرفوا بسوء نية. لكنه ينسب الفضل إلى اعتذاراتهم وإجراءاتهم العلاجية في عدم الحاجة إلى فرض عقوبات أكثر صرامة لضمان عدم قيامهم أو غيرهم بتحريض أدوات الذكاء الاصطناعي على تزييف التاريخ القانوني في حججهم.

وفي وقت لاحق من ذلك العام، تم الاستشهاد بمزيد من الأحكام القضائية الخيالية التي اخترعها الذكاء الاصطناعي في الأوراق القانونية قدمه محامي مايكل كوهينالمحامي الشخصي السابق للرئيس الأمريكي دونالد ترامب. وتحمل كوهين اللوم، قائلا إنه لم يدرك أن أداة جوجل التي كان يستخدمها للبحث القانوني كانت قادرة أيضًا على ما يسمى بهلوسة الذكاء الاصطناعي.

وحذرت قاضية المحكمة العليا البريطانية فيكتوريا شارب في يونيو/حزيران من أن تقديم مواد كاذبة كما لو كانت حقيقية يمكن اعتباره ازدراء للمحكمة أو “في أخطر الحالات” تحريف مسار العدالة، وهو ما قد تصل عقوبته القصوى إلى السجن مدى الحياة.

إن استخدام الذكاء الاصطناعي يشق طريقه إلى المحاكم الأمريكية بطرق أخرى. في أبريل/نيسان، مثل رجل يُدعى جيروم ديوالد أمام محكمة في نيويورك وقدم دعوى قضائية فيديو والتي تضمنت صورة رمزية تم إنشاؤها بواسطة الذكاء الاصطناعي لمناقشة قضيته.

وفي مايو/أيار، قُتل رجل في حادثة غضب على الطريق في ولاية أريزونا.تحدث” خلال جلسة النطق بالحكم على قاتله قامت عائلته لاحقًا بإنشاء مقطع فيديو له وهو يقرأ بيان تأثير الضحية باستخدام الذكاء الاصطناعي.

رابط المصدر

ترك الرد

من فضلك ادخل تعليقك
من فضلك ادخل اسمك هنا