الاعتقالات الكاذبة والإدانات الخاطئة: لماذا يخطئ الذكاء الاصطناعي في عمل الشرطة

في بالتيمور، في 20 أكتوبر 2025، كان طالب يبلغ من العمر 17 عامًا يُدعى تاكي ألين يجلس خارج مدرسته بعد تدريب كرة القدم عندما تعرفت كاميرا مراقبة معززة بالذكاء الاصطناعي على حقيبة دوريتوس الموجودة في جيبه. مثل السلاح. وبعد لحظات، وصلت سيارات الشرطة، وسحب الضباط أسلحتهم، وأُجبر ألين على الركوع على ركبتيه وتقييد يديه أثناء تفتيشه. كل ما وجدوه كان كيسًا من رقائق البطاطس مجعدًا. أدى الخطأ في التعرف على الذكاء الاصطناعي والقرارات البشرية التي تلت ذلك إلى تحويل ليلة عادية إلى مواجهة مؤلمة.

في 24 ديسمبر 2025، تم إطلاق سراح أنجيلا ليبس، وهي جدة من ولاية تينيسي، بعد أن أمضت خمسة أشهر في السجن بسبب برنامج التعرف على الوجه. ربطها بشكل غير صحيح بجرائم الاحتيال في ولاية داكوتا الشمالية، وهي ولاية لم تزرها من قبل. ألقت الشرطة القبض عليها تحت تهديد السلاح بينما كانت ترعى أحفادها الأربعة.

هذه أمثلة مؤسفة للكيفية التي يمكن أن يؤدي بها الذكاء الاصطناعي إلى سوء معاملة الأشخاص بسبب عيوب تقنية بالإضافة إلى إيمان الإنسان في غير محله بموضوعية التكنولوجيا المفترضة. تتضمن هذه الحالات أدوات مختلفة، لكن المشكلة الأساسية هي نفسها. تنتج أنظمة الذكاء الاصطناعي احتمالات ويعاملها الناس على أنها حقائق مؤكدة.

نحن باحثون من يدرس التقاطع التكنولوجيا والقانون والإدارة العامة. ومن خلال التحقيق في كيفية استخدام أقسام الشرطة للذكاء الاصطناعي وكيفية عمل التقنيات الرقمية في مجتمع ديمقراطي، رأينا مدى سرعة التحول من التنبؤ الاحتمالي إلى اليقين التشغيلي في الممارسة العملية.

يتم استخدام أدوات الشرطة بالذكاء الاصطناعي في العشرات من المدن الأمريكيةعلى الرغم من عدم وجود سجلات عامة تتبع المنطقة المحتلة بأكملها. تستوعب الأدوات بيانات الجريمة التاريخية وتسجل الأحياء فيها المخاطر المتوقعة بحيث يمكن توجيه الضباط إلى النقاط الساخنة الناتجة. الآلية بسيطة، لكن نتائجها ليست كذلك. بمجرد أن يشير النظام إلى تهديد محتمل، فإن السؤال لم يعد مدى دقة التنبؤ، ولكن ما يجب القيام به حيال ذلك. تصبح النتيجة الإحصائية قرارًا للتنفيذ، ويتم فقدان عدم اليقين الذي أنتجها على طول الطريق.

سؤال في الاحتمالات

عندما تستجيب نماذج الذكاء الاصطناعي التوليدية مثل ChatGPT أو Claude للطلبات البشرية، فإنها لا تبحث في قاعدة بيانات وتستخرج الحقائق. إنهم يتوقعون الإجابة الأكثر ترجيحًا بناءً على الأنماط الموجودة في البيانات التي تم تدريبهم عليها. وعندما سئل: من مخترع المصباح الكهربائي؟ النماذج لا تذهب إلى المصدر أو تتحقق من النتيجة. لقد قاموا بتوليد إجابة محتملة إحصائيًا، وهي “توماس إديسون”. قد تكون الإجابة صحيحة، ولكنها قد لا تعبر عن القصة كاملة ــ مثل اختراع جوزيف سوان الموازي في نفس الوقت الذي حدث فيه اختراع إديسون. وينشأ الخطر عندما يعتقد الناس أن النموذج يسترجع الحقيقة بدلا من توليد الاحتمالات.

هذا التمييز مهم. الإجابة الأكثر ترجيحًا ليست هي نفس الإجابة التي تم التحقق منها فعليًا، مع استكمال السياق.

قامت الشرطة بتقييد يدي المراهق تاكي ألين تحت تهديد السلاح بعد أن أشار نظام كاميرا يعمل بالذكاء الاصطناعي بشكل غير صحيح إلى أنه كان يحمل مسدسًا.

هذا الواقع يمكن أن يكون إشكاليا للغاية للشرطة والقانون. على سبيل المثال، عندما تستخدم وكالات إنفاذ القانون أنظمة الذكاء الاصطناعي المدربة على البيانات الجغرافية ولتقدير المكان الذي من المحتمل أن يحدث فيه النشاط الإجرامي، تقوم الخوارزميات بتحليل بيانات الجريمة التاريخية والأنماط الجغرافية. تقوم هذه الأنظمة بإنشاء درجات إحصائية للمخاطر أو خرائط حرارية للمواقع بناءً على الحوادث السابقة. لكن مثل هذه التنبؤات قد يكون لها تأثير ضئيل على المتورطين في جريمة جديدة في المنطقة، حتى لو قامت الخوارزمية بتوليد معلومات تبدو موثوقة.

جادل بعض الباحثين بأن أنظمة الشرطة التنبؤية لا تزيد من احتمالية استهداف الأقليات العرقية سيتم القبض عليه في كثير من الأحيان فيما يتعلق بممارسات الشرطة التقليدية. ومع ذلك، فإن القلق الأوسع لا يقتصر فقط على التفاوتات القابلة للقياس في نتائج الاعتقال. يتعلق الأمر بكيفية تحول التنبؤات الاحتمالية إلى قرارات تشغيلية موحدة في غياب عمليات التحقق الإضافية.

ويحذر باحثو الذكاء الاصطناعي من استخدام هذه النماذج وحدها في الجرائم أو الإجراءات القانونية أو اتخاذ القرارات. البحث على مختبر التكنولوجيا الرقمية للديمقراطية في جامعة فيرجينيا مع رؤساء الشرطة يُظهر أن بعض مجموعات إنفاذ القانون تتبع سياسات صارمة تحدد متى يتم استخدام التكنولوجيا جنبًا إلى جنب مع التقدير البشري أو بدلاً منه، في حين أن البعض الآخر ليس لديه مثل هذه السياسة.

ما لا يدركه معظم المستخدمين هو أن أنظمة الذكاء الاصطناعي نادرًا ما تنتج إجابات ثنائية: نعم أو لا، تحديد إيجابي أو سلبي. أنها تولد الاحتمالات. تقوم بعض الأنظمة بتعيين درجات لتقييم ثقة النظام في التنبؤ. في هذه الحالات، حدد المهندسون أ حد الثقةمستوى من اليقين يحدد متى يجب على النظام إطلاق تنبيه حول تهديد محتمل. يمكنك اعتبار هذا الحد بمثابة إعدادات على مقبض التحكم. على سبيل المثال، يشير مستوى الثقة بنسبة 95% إلى أن النموذج يعتبر تفسيره كذلك من المرجح جدا.

تكتشف العتبة المنخفضة المزيد من التهديدات المحتملة، ولكنها تزيد من الإنذارات الكاذبة. إن العتبة العالية تقلل من الأخطاء، ولكنها تخاطر بالتغاضي عن المخاطر الحقيقية. وفي كلتا الحالتين، غالبًا ما تكون هذه العتبات الخوارزمية غير مرئية للعامة ويتم وضعها بشكل سري من قبل البائعين أو الوكالات، على الرغم من أنها يتم تحديدها عندما يبدأ إجراء الشرطة.

تم سجن أنجيلا ليبس ظلما لأكثر من خمسة أشهر بناء على خطأ ارتكبه نظام التعرف على الوجه.

حيث لرسم الخط

في الطب، هذه الأنواع من الالتزامات واضحة. تتم معايرة أدوات التشخيص بناءً على الضرر النسبي للأخطاء المختلفة. في بيئات الأمراض المعدية، على سبيل المثال، غالبًا ما يتم تصميم الأنظمة التي تكتشف العدوى لقبول المزيد من النتائج الإيجابية الكاذبة لتجنب فقدان الأفراد المصابين بالعدوى. بعد ذلك، يقوم المتخصصون الطبيون بتحليل الحالات البشرية. و القرارات المبنية على الخوارزمية تخضع للمعايير المهنية والمراجعات الأخلاقية والرقابة التنظيمية.

في مجال الشرطة، يجب على نظام الذكاء الاصطناعي أن يوازن بين الإيجابيات الكاذبة، عندما يشير النظام إلى تهديد غير موجود، والسلبيات الكاذبة، عندما لا يتمكن من اكتشاف خطر حقيقي. التعويض يحمل عواقب وخيمة. يمكن أن يؤدي الحد الأدنى إلى توليد المزيد من التنبيهات والسماح للضباط بالتدخل بشكل أسرع، ولكنه يزيد أيضًا من خطر التعرف الخاطئ على الهوية، كما حدث مع أنجيلا ليبس، أو المواجهات المتقطعة مثل تلك التي شهدها تاكي ألين. قد تؤدي العتبة الأعلى إلى تقليل التدخلات غير المشروعة، ولكنها قد تسمح بعدم اكتشاف التهديدات المشروعة.

تجادل بعض وكالات إنفاذ القانون بأنه من الأفضل التصرف بناءً على إشارات غير كاملة بدلاً من التصرف بناءً على إشارات غير كاملة في عداد المفقودين مخاطر جسيمة. لكن خفض مستوى التنبيهات الخوارزمية بناءً على التقديرات الاحتمالية يؤدي بشكل فعال إلى زيادة عدد الأشخاص الخاضعين لاهتمام الشرطة. ومن المهم أن نفهم أن هذه الحدود ليست خصائص محايدة للتكنولوجيا؛ هي الاختيارات تم دمجها من قبل المبدعين في رمز القالب. تحدد القرارات المتعلقة بمكان رسم الخطوط متى يصبح الشك الخوارزمي إجراءً شرطيًا في العالم الحقيقي، ومع ذلك نادرًا ما يرى الجمهور أو يناقش كيفية رسم هذه الخطوط.

حدود التحسين

غالبًا ما يستخدم المطورون عدة طرق لتحديد مكان تعيين حدود الثقة. تقنيات مثل “تحليل منحنى التشغيل المميز للمستقبل“افحص كيف يؤدي تغيير حد التنبيه إلى تغيير التوازن بين تحديد الأحداث الحقيقية بشكل صحيح والإشارة الخاطئة إلى الأحداث غير الضارة. تحليل الاستدعاء الدقيق يفحص مقايضة مماثلة، ويسأل عن مدى دقة تنبيهات النظام بالنسبة لعدد الحوادث التي يكتشفها بنجاح.

يمكن أن تساعد هذه الأساليب في معايرة الأنظمة بشكل أكثر مسؤولية عن طريق اختبار عدد المرات التي تخطئ فيها الخوارزمية في تحديد الأشخاص أو المواقع. يمكن أن يؤدي الضبط الدقيق إلى تحسين أداء النظام. لكن هذه التقنيات غير قادرة على حل السؤال الأساسي حول مدى استعداد المجتمع لتحمل عدم اليقين الخوارزمي.

في القانون، تحدد معايير الإثبات القانونية مدى الإقناع الذي يجب أن تكون عليه الأدلة قبل أن يتمكن القاضي أو هيئة المحلفين من الحكم لصالح المدعي أو المدعى عليه. تستخدم المحاكم معايير الإثبات الرسمية اعتمادًا على ما هو على المحك، مثل السبب المحتمل, رجحان الأدلةو بما يتجاوز أي شك معقول. تعكس هذه المعايير حكمًا اجتماعيًا حول مقدار عدم اليقين المقبول قبل ممارسة السلطة القانونية. لا تقبل المحكمة الافتراضات أو التوقعات؛ يتبع عملية لوزن الأدلة. على عكس البشر، لا يقول نموذج الذكاء الاصطناعي غالبًا: “لست متأكدًا”. عادةً ما يثق النموذج بإجابته، حتى عندما تكون الإجابة غير صحيحة.

وتزداد المخاطر مع دخول الذكاء الاصطناعي إلى المحاكم، وجهات إنفاذ القانون، والفصول الدراسية، ومكاتب الأطباء، والقطاع العام. من المهم أن يفهم الناس أن الذكاء الاصطناعي لا يعرف الأشياء بالطريقة التي يفترضها الكثيرون. ولا يفرق بين “ربما” و”بالتأكيد”. ماذا يعتمد علينا. ونحن نعتقد أن خبراء التكنولوجيا يجب أن يصمموا أنظمة تعترف بعدم اليقين وتحتاج إلى تثقيف المستخدمين حول كيفية تفسير نتائج الذكاء الاصطناعي بشكل مسؤول.


ماريا لونجو باحث ما بعد الدكتوراه في القانون والإدارة العامة في جامعة فرجينيا.

ستيفن ل. جونسون هو أستاذ مشارك في التجارة في جامعة فرجينيا.

تم إعادة نشر هذه المقالة من المحادثة تحت رخصة المشاع الإبداعي. اقرأ المادة الأصلية.


رابط المصدر