الذكاء الاصطناعي لم يكن بطيئا في التطور. في الواقع، أشعر أحيانًا أن كل شيء قد حدث مرة واحدة.
وفي غضون سنوات قليلة فقط، أصبحت الأنظمة التي بدأت كتجارب داخلية مدمجة الآن في خدمة العملاء، واكتشاف الاحتيال، وتطوير البرمجيات، وحتى عمليات البنية التحتية لتكنولوجيا المعلومات.
ولكن هناك مشكلة.
الرئيس التنفيذي والمؤسس المشارك لشركة Fortanix.
على الرغم من تقدم قدرات الذكاء الاصطناعي، إلا أن الطريقة التي نؤمن بها بها لم تواكب ذلك.
لا تزال معظم المؤسسات تطبق نماذج الأمان التقليدية على أنواع مختلفة تمامًا من أعباء العمل، مما يترك فجوة حرجة في وقت التشغيل، وهو بالضبط الوقت الذي تقوم فيه أنظمة الذكاء الاصطناعي بعملها.
وهم التغطية
لسنوات، ركز أمان المؤسسة على حالتين أساسيتين من البيانات: الاحتفاظ والحركة. تشفير البيانات الثابتة والمتنقلة، مع التحكم في الهوية والوصول في كلتا الحالتين.
لا تزال هذه الشيكات مهمة. ومع ذلك، هناك حالة ثالثة أكثر تعقيدًا وأقل حماية: وهي البيانات قيد الاستخدام.
بمجرد إطلاق نموذج الذكاء الاصطناعي، تتم معالجة البيانات الحساسة بشكل نشط في الذاكرة. يتم تحميل أوزان النماذج، والتي غالبًا ما تكون الملكية الفكرية الأكثر قيمة للمؤسسة، في الذاكرة. يتم إنشاء التلميحات والاستجابات والبيانات السياقية وتحويلها في الوقت الفعلي.
في معظم البيئات، يصبح كل هذا مرئيًا للنظام الأساسي. الحقيقة غير المريحة هي أنه حتى البيئات الآمنة جيدًا يمكن أن تكشف عن مواردك الأكثر قيمة في لحظة الاستخدام.
حيث ينهار أمن الذكاء الاصطناعي بالفعل
عندما تقوم فرق الأمان بالتحقيق في تهديدات الذكاء الاصطناعي، نادرًا ما يعود السبب الجذري إلى الأمن المحيطي. عادة ما تنشأ المشاكل بشكل أعمق في دورة الحياة، في ثلاث مراحل رئيسية:
1. التدريب: عندما تتسرب البيانات بصمت إلى النماذج. تتضمن مسارات التدريب أنظمة التخزين وبيئات الحوسبة المشتركة وطبقات التنسيق وأدوات تصحيح الأخطاء. يمكن أن تكون فوضوية: فالبيانات تتحرك باستمرار، ويتم إنشاء العناصر الوسيطة وتخزينها مؤقتًا، وتتراكم السجلات بسرعة.
في هذه البيئة، يمكن أن تظهر المعلومات الحساسة في أماكن غير متوقعة. قد تحتفظ النماذج نفسها عن غير قصد بعناصر من البيانات الحساسة التي تم تدريبها عليها. وغالبًا ما يتم التعامل مع الأوزان النموذجية التي تتضمن هذا العلم بشكل فضفاض أكثر مما ينبغي.
كل هذا يخلق مخاطر خفية ولكنها خطيرة حيث قد لا يكون التعرض دائمًا نتيجة لهجوم مباشر. في بعض الأحيان يكون هذا بسبب ممارسات البرمجة العادية.
2. الاستدلال: طبقة من التعرض تم التغاضي عنها. بمجرد تنفيذ النموذج، يتحول التركيز إلى الاستدلال، وهي النقطة التي تصبح عندها المدخلات مخرجات.
على السطح يبدو بسيطا. ومع ذلك، من الناحية العملية، تتضمن مسارات عمل الاستدلال تدفقات متعددة من البيانات الحساسة، بما في ذلك مطالبات المستخدم واستعلاماته، والاستجابات التي تم إنشاؤها، وبيانات المؤسسة الداخلية التي يتم سحبها إلى النتائج الأساسية، والنموذج نفسه.
تتم معالجة جزء كبير من هذه البيانات عبر أدوات المراقبة وأنظمة التسجيل وخطوط تصحيح الأخطاء، غالبًا بنص عادي.
وحتى بدون حدوث انتهاك، يمكن الكشف عن المعلومات السرية من خلال العمليات الروتينية. قد تلتقط لوحات المعلومات الخاصة باستكشاف الأخطاء وإصلاحها بيانات أكثر مما هو مقصود، أو قد تستغرق السجلات وقتًا أطول من المتوقع. تخلق البنية التحتية المشتركة أيضًا خطرًا أكبر للتسرب.
أمان الاستدلال لا يتعلق فقط بحظر الوصول. يتعلق الأمر بالتحكم في ما يحدث أثناء التنفيذ، ومعظم المنظمات لا تفعل ذلك بعد.
3. وقت العمل: النقطة العمياء للأمن الحديث. المرحلة الأكثر أهمية ولكنها الأقل حماية هي مرحلة العمل. هذا هو المكان الذي يتم فيه تنفيذ النماذج فعليًا، ويتم فك تشفير البيانات المشفرة، ويتم تخزين أوزان النماذج في الذاكرة. وهذا هو المكان الذي تفشل فيه نماذج الأمان التقليدية.
حتى في البيئات التي تتمتع بضوابط قوية لإدارة الهوية وسياسات التشفير، يفترض وقت التشغيل مستوى معينًا من الثقة في النظام الأساسي. إذا تم اختراق النظام أو حتى مجرد تكوينه بشكل خاطئ، فسيكون الأمان المحيط به غير ذي صلة لأنه سيتم تحرير المفاتيح، وسيستمر تشغيل أعباء العمل، وستظل الأصول الحساسة مكشوفة.
ولهذا السبب يعد وقت التشغيل حاليًا الحلقة الأضعف ولماذا أصبح الحدود الأمنية الحقيقية لأنظمة الذكاء الاصطناعي.
لماذا أصبحت المشكلة أكثر خطورة في الحجم
مع توسع المنظمات في استخدامها أدوات الذكاء الاصطناعي لا تزيد من المخاطر فحسب. يتكاثرون. نادرًا ما يتم عزل أعباء عمل الذكاء الاصطناعي. ومن الأرجح أن يعملوا في بيئات موزعة، ومسرعات مشتركة، وبنية تحتية متعددة المستأجرين. وهي تتفاعل مع الأنظمة الداخلية والخدمات الخارجية وتعمل بشكل مستمر وليس بشكل متقطع.
يؤدي هذا إلى إنشاء تأثير مركب:
1. تدفق المزيد من البيانات عبر المزيد من الأنظمة.
2. المزيد من النماذج المنتشرة في المزيد من البيئات.
3. فرص أكبر للتعرض أثناء التنفيذ.
وفي الوقت نفسه، تزداد قيمة ما تتم معالجته بشكل كبير. تصبح نماذج الملكية أصولًا تجارية أساسية، ويتم استخدام بيانات المؤسسة الحساسة لتحسين الأداء واتخاذ القرارات.
وفي هذا السياق، تصبح نقطة ضعف واحدة في وقت التشغيل بمثابة خطر نظامي كبير.
الأولوية القصوى: إعادة التفكير في الثقة في أنظمة الذكاء الاصطناعي
المشكلة الرئيسية ليست في نقص الأدوات الأمنية. عندما يتعلق الأمر بالثقة في البنية التحتية التي يعمل عليها الذكاء الاصطناعي، هناك اختلاف في الافتراضات.
لقد افترض الأمان التقليدي دائمًا أنه بمجرد وجود عبء العمل في بيئة موثوقة، يمكن الوثوق به للعمل بشكل آمن. لكن الذكاء الاصطناعي يغير هذا لأن هذه الأنظمة ديناميكية. يقومون بمعالجة البيانات الحساسة بشكل مستمر، ويستخدمون مجموعات معقدة يصعب التحقق من صحتها بشكل كامل، وغالبًا ما يعملون في بيئات لا تسيطر عليها المؤسسات بشكل كامل.
وبعبارة أخرى، لم يعد عبور الحدود هو الجزء الصعب. البقاء آمنًا بعد عبوره.
لحل هذه المشكلة، يحتاج الأمان إلى الاقتراب من حجم العمل نفسه. بدلاً من التركيز فقط على حماية الوصول إلى الأنظمة، يجب على المؤسسات حماية ما يحدث بداخلها، خاصة أثناء التنفيذ. هذا يعنى:
1. ضمان حماية البيانات حتى أثناء المعالجة،
2. منع الوصول غير المصرح به إلى الأوزان النموذجية أثناء تشغيلها،
3. تحقق من تشغيل أحمال العمل في بيئات موثوقة قبل السماح لها بالتنفيذ.
هذا هو المكان الذي تُحدث فيه أساليب مثل الحوسبة السرية والعزل القائم على الأجهزة فرقًا. ومن خلال إنشاء بيئات تنفيذ محمية وربط الوصول إلى التحقق من التشفير، تعمل الصناعة على نقل الأمن من الثقة القائمة على الافتراضات إلى الثقة القائمة على الأدلة.
باختصار: لا تثق بالنظام. اجعلها تثبت أنها آمنة.
انتقل الأمن إلى نقطة الاستخدام
لسنوات، كانت المنظمات تستثمر في تأمين مواقعها حياة البيانات وكيف تتحرك. ومع ذلك، في حالة الذكاء الاصطناعي، فإن اللحظة الأكثر أهمية هي عندما يتم تشغيل النموذج وتتقارب عملية البيانات والمنطق وصنع القرار في الوقت الفعلي.
وهنا يكمن الخطر الحقيقي وحيث ينبغي التركيز على الأمن.
إن المؤسسات التي تدرك هذا التغيير مبكرًا ستتحرك لتوسيع نطاق الذكاء الاصطناعي بشكل آمن. وأولئك الذين يفشلون في القيام بذلك قد يجدون أن أنظمتهم الأكثر تقدما، والمبنية على نماذج ثقة قديمة، معرضة بشدة للهجوم.
في الذكاء الاصطناعي الحديث، لا يتم تحديد الأمن حسب المحيط. ويتم تعريفه بما يحدث داخله.
لقد قمنا بتقييم أفضل برامج أمان نقطة النهاية التي تحمي وتدير الأمان على الأجهزة المحمولة وأجهزة الكمبيوتر المكتبية.
تم إنشاء المقالة كجزء من توقعات TechRadar بروتعرض قناتنا أفضل وألمع العقول في صناعة التكنولوجيا اليوم.
الآراء الواردة هنا هي آراء المؤلف وليست بالضرورة آراء TechRadarPro أو Future plc. إذا كنت مهتمًا بالتعاون، يمكنك العثور على مزيد من المعلومات هنا: https://www.techradar.com/pro/perspectives-how-to-submit











