منذ عدة سنوات، ظهر الذكاء الاصطناعي في عمليات الاحتيال كمسرّع. لقد أنشأ رسائل بريد إلكتروني للتصيد الاحتيالي، وقام بتحسين نصوص الهندسة الاجتماعية وساعد المهاجمين على التصرف بشكل أسرع. كان المشغل البشري لا يزال قريبًا من كل خطوة مهمة.
لكن هذه المسافة تتناقص بسرعة كبيرة. في سبتمبر 2025، تم استخدام Anthropic’s Claude Code في حملة تجسس إلكترونية، حيث أجرى الذكاء الاصطناعي 80-90% من العمليات التكتيكية على حوالي 30 هدفًا.
وبعد أشهر، وصف تقرير اختراق للحكومة المكسيكية إعداد Claude Code لكسر الحماية الذي قالت شركة Gambit Security إنه سرق أكثر من 150 جيجابايت من البيانات وكشف ما يقرب من 195 مليون هوية.
يستمر المقال أدناه
هذا هو القطيعة الحقيقية مع الماضي. الآن نحن لا ننظر إلى الذكاء الاصطناعي باعتباره وسيلة مساعدة لسير العمل الإجرامي، ولكن كأنظمة تواجه الأنظمة التي يمكنها أداء جزء كبير من سير العمل بمفردها.
لقد غيرت الجرائم الإلكترونية شكلها
عندما يمتلك الوكيل الأدوات والسياق والإذن، تبدو الجرائم الإلكترونية بمثابة عملية مستمرة. يمكنه التعرف على الأهداف، وكتابة الثغرات، وجمع بيانات الاعتماد، والتحرك جانبيًا، وتعبئة البيانات المسروقة بسرعة الجهاز.
وهذا مهم لأن هذه القدرات أصبحت الآن جزءًا من مشهد التهديد الحقيقي. ارتفعت الهجمات المعادية باستخدام الذكاء الاصطناعي بنسبة 89% على أساس سنوي، ومع ذلك فإن اعتماد الذكاء الاصطناعي المستقل آخذ في الازدياد مخاوف تتعلق بالسلامة.
نحن نشهد بداية الموجة التالية من الاحتيال: حيث يدخل العملاء إلى الأنظمة السائدة تمامًا كما يتعلم المهاجمون كيفية تحويلها إلى أسلحة.
الاحتيال يحب الحجم والتكرار وضعف الإشراف. توفر أنظمة الوكيل الثلاثة. لا يتعبون ولا ينسون الكتاب المدرسي. هناك الآلاف من القرارات الصغيرة التي تؤدي إلى خسائر فادحة.
يبدأ الإسناد بالفشل
يعتمد الإسناد التقليدي على أدلة معروفة. يقارن المحققون مسارات IP عائلات البرامج الضارة والمجالات والبنية التحتية وغيرها من مؤشرات الاختراق – على الرغم من أن هذا المجال يعرف منذ فترة طويلة أن الوكلاء والأعلام الزائفة والأدوات المشتركة يمكن أن تؤدي إلى تشويش الصورة.
يزيد الذكاء الاصطناعي الوكيل المشكلة سوءًا لأن منفذ التشغيل لم يعد مقترنًا بإحكام بيد بشرية واحدة. يمكن للنموذج إنشاء تعليمات برمجية جديدة أو ضبط تسلسل الإجراءات أو توزيع العمل بين الأدوات والجلسات. وفي قلب قضية المكسيك كان هناك مهاجم مجهول بمساعدة أدوات الذكاء الاصطناعي، وهذا النوع من الغموض يجب أن يثير قلق أي مدافع.
لذا فإن الأمر لا يعني أن الناس يختفون، ولكن هذه المسؤولية أصبحت غير واضحة في المطالبات، والنماذج، والأدوات، والسلطة المفوضة، والإجراءات التي يتم إنشاؤها بواسطة الآلة. وهذا يؤدي إلى تآكل الثقة القديمة في أن الإسناد سوف يلحق بالركب في نهاية المطاف. يشتمل أثر الطب الشرعي الآن على عامل غير بشري يقوم بتحركات متسلسلة في سلسلة الهجوم.
يجب أن تسافر الهوية مع الوكيل
يجب أن يكون لكل نشاط مهم للذكاء الاصطناعي هوية مشفرة يمكن التحقق منها. بمجرد أن يتمكن وكيل الذكاء الاصطناعي من العمل في النظام، لا ينبغي أن تكون هذه الإجراءات مجهولة المصدر. ويجب توقيع كل منها، وربطها بهوية يمكن التحقق منها، وتسجيلها في مسار تدقيق موثوق. وبدون ذلك، فإننا نطلب من الفرق الأمنية إدارة السلوك المستقل الذي لا يترك أي دليل موثوق على التأليف.
الفكرة ليست تافهة وهي هنا. في فبراير، أطلقت NIST مبادرة معايير وكيل الذكاء الاصطناعي. تدعو ورقة المفاهيم بوضوح إلى تحديد الوكلاء، وربط هويات المستخدمين بالإجراءات المفوضة، وتسجيل نشاط الوكيل، وتتبع أصول المطالبات والمدخلات.
الآن يخبرنا السوق عن سبب أهميته – 68% من المؤسسات لا يمكنها التمييز بوضوح بين نشاط وكلاء الذكاء الاصطناعي والنشاط البشري، على الرغم من أن 73% تتوقع أن يصبح الوكلاء ضروريين في غضون عام. وهذه ليست فجوة إدارية بسيطة، ولكنها مسؤولية مباشرة في أي بيئة يمكن أن يحدث فيها الاحتيال أو إساءة الاستخدام أو سرقة البيانات من خلال وكيل.
الجزء الأصعب ليس التشفير، ولكن الإدارة
نحن نعرف بالفعل كيفية التوقيع على القطع الأثرية الرقمية والتحقق منها. يمكن استخدام التوقيعات المرتبطة بالأصل والنزاهة والهوية على نطاق واسع. والخطوة المفقودة هي توسيع هذا النظام من نماذج البرامج والأدوات إلى الإجراءات التي يتخذها الوكلاء بعد النشر.
لن يكون الأمر سهلا. يجب أن تعمل المعايير في المعامل النموذجية، ومكدسات المؤسسة، أدوات مفتوحة المصدر، وبوابات API، وبروتوكولات الوكيل. تعتبر قضايا الخصوصية حقيقية أيضًا، حيث لا يمكن أن تصبح السيطرة بابًا خلفيًا للمراقبة واسعة النطاق.
ومع ذلك، فهذه مشكلات تتعلق بالتصميم، وليست عذرًا لعدم الكشف عن هويته. أعتقد أن ما هو مفقود هو طبقة من التحقق من الهوية تسمح للأشخاص والمؤسسات، وفي نهاية المطاف وكلاء الذكاء الاصطناعي بإثبات هويتهم، وما يمكنهم القيام به، وأي أوراق اعتماد يمكن الوثوق بها، دون الكشف عن البيانات الأولية الموجودة تحتها. إن النظام المبني جيدًا من هذا النوع يمنح الثقة شكلاً مشفرًا. يمكنه التنقل بين المنصات، والبقاء على قيد الحياة في التبديل بين الأنظمة، والصمود في وجه التدقيق.
ينتشر الاحتيال عندما تكون إدارة الهوية غير موثوقة ويفشل المصدر. إذا كان الوصول والأذونات والأنشطة عالية المخاطر مرتبطة ببيانات اعتماد يمكن التحقق منها، يصبح من الصعب جدًا على الروبوت أو الهوية الاصطناعية أو الوكيل المستقل اجتياز الأنظمة بناءً على مطالبات فارغة. العمل يحمل في طياته قصة. تقوم Trust Signal بذلك أيضًا.
لقد تجاوز الاحتيال بالذكاء الاصطناعي العتبة. عندما يتمكن الوكيل من التحقيق في عملية ما واتخاذ القرار بشأنها وتنفيذها وتوثيقها، يصبح عدم الكشف عن هويته نقطة ضعف هيكلية وليس وسيلة راحة.
نحن بحاجة إلى نموذج أمني يقوم بما هو أكثر من مجرد تسجيل ما حدث بعد وقوع الحدث. نحن بحاجة إلى شخص يمكنه إثبات من كان وراء هذا العمل، ومن أمر به، وما إذا كان من الممكن الوثوق بهذه الهوية على الإطلاق. وفي عالم اليوم الذي يتسم بالوكلاء المستقلين، لا تعد هذه ميزة أمنية من الجيد الحصول عليها، ولكنها إطار أساسي للسيطرة على الاحتيال.
قمنا بتقييم أفضل حماية ضد سرقة الهوية.
تم إنشاء المقالة كجزء من توقعات TechRadar بروتعرض قناتنا أفضل وألمع العقول في صناعة التكنولوجيا اليوم.
الآراء الواردة هنا هي آراء المؤلف وليست بالضرورة آراء TechRadarPro أو Future plc. إذا كنت مهتمًا بالتعاون، يمكنك العثور على مزيد من المعلومات هنا: https://www.techradar.com/pro/perspectives-how-to-submit











