10 ضوابط أمنية رئيسية للذكاء الاصطناعي لعام 2026

لتمكين الاستخدام الآمن للذكاء الاصطناعي والوكلاء، تتضمن عناصر التحكم الأساسية الرؤية العميقة والمصادقة القوية ومنع فقدان البيانات المستندة إلى الذكاء الاصطناعي.

ضوابط أمان الذكاء الاصطناعي للتعلم

بالنسبة للمخضرم في صناعة التكنولوجيا معادي البيادي، ليس هناك شك في أن ظهور الذكاء الاصطناعي المعزز للإنتاجية والتقنيات الوكيلة هو أمر إيجابي تمامًا. قال البيادي، الذي تشمل سيرته الذاتية العمل كرئيس تنفيذي للتكنولوجيا في Shutterfly ورئيس قسم تكنولوجيا المعلومات في LifeLock: “أنا من أكبر المعجبين بالذكاء الاصطناعي”. “وجهة نظري هي، دعونا نستخدم كل القدرة لجعل كل إنسان ذكيًا قدر الإمكان. بالنسبة لي، هذه هي الطريقة الذكية الوحيدة للقيام بالأشياء.”

(ذات صلة: أكثر 10 أدوات أمان للذكاء الاصطناعي شيوعًا لعام 2025)

ولكن لتحقيق أقصى استفادة من الذكاء الاصطناعي، يجب أن يؤخذ الأمن والحوكمة على محمل الجد منذ البداية. قال البياضي، الذي يشغل الآن منصب الرئيس التنفيذي للذكاء الاصطناعي والابتكار في شركة إيفوتيك، رقم 92: “عليك أن تضع حواجز حماية”. crn مزود الحلول 500 لعام 2025. بالنسبة لشركة إيفوتيك، التي يقع مقرها في سولانا بيتش بولاية كاليفورنيا، والتي تتخصص في تقديم مجموعة من حلول وخدمات تكنولوجيا المعلومات مع التركيز على الأمن السيبراني، فإن فرصة العمل مع العملاء حول تنفيذ الضوابط الأمنية لتمكين استخدام الذكاء الاصطناعي هائلة، وفقًا للبياضي.

بالنسبة للمبتدئين، تظل الرؤية تحديًا كبيرًا في استخدام الذكاء الاصطناعي. وقال إن الأسئلة الرئيسية التي يجب على كل مؤسسة طرحها تشمل: “كيف تعرف أي أدوات الذكاء الاصطناعي يتم استخدامها وإساءة استخدامها؟ ما هي الوكلاء التي يتم تشغيلها؟ ما هي خوادم MCP التي يمكنها الاتصال بنظام داخلي؟”

تشتمل عناصر التحكم الرئيسية الأخرى في أمان الذكاء الاصطناعي على التحديد والمصادقة القويين، ومنع فقدان البيانات المدركة للذكاء الاصطناعي، والتعاون الأحمر المستمر للذكاء الاصطناعي. وقال البيادي، على وجه الخصوص، إن العديد من الضوابط ستستفيد بشكل كبير من استخدام GenAI ووكلاء الذكاء الاصطناعي.

ل crn للاحتفال بافتتاح أسبوع أمان الذكاء الاصطناعي 2026، قمنا بتجميع قائمة بأهم 10 ضوابط أمان للذكاء الاصطناعي لموفري الحلول لتمكين الاستخدام الآمن للأدوات التي تدعمها GenAI ووكلاء الذكاء الاصطناعي.

فيما يلي التفاصيل التي تحتاج إلى معرفتها حول الضوابط الأمنية العشرة الرئيسية للذكاء الاصطناعي لعام 2026.

رؤية عميقة

بالنسبة لمقدمي الحلول الذين يتطلعون إلى حماية عملائهم، فإن “رؤية المخزون مهمة جدًا” عندما يتعلق الأمر بالذكاء الاصطناعي، وفقًا لكيني بارسونز، رئيس فريق الأمن السحابي في شركة Trace 3، رقم 34، ومقرها إيرفين، كاليفورنيا. crn مزود الحلول 500 لعام 2025. وبالتالي، فإن ضوابط أمان الذكاء الاصطناعي الأساسية لمعظم المؤسسات في عام 2026 ستتمحور حول الحصول على رؤية كاملة لجميع استخدامات الذكاء الاصطناعي. يعد هذا أمرًا مهمًا لعدة أسباب، بما في ذلك مراقبة استخدام منصات ووكلاء الذكاء الاصطناعي SaaS المعتمدين، بالإضافة إلى اكتشاف استخدام الموظفين لأدوات “الذكاء الاصطناعي الظل” غير المعتمدة. تتضمن الرؤية العميقة القدرة على رؤية ما يحدث في الوقت الفعلي، وليس بعد وقوعه. ويجب أن تتضمن هذه الرؤية أدوات الذكاء الاصطناعي المستخدمة، ومن يستخدم الأدوات، وما هي البيانات التي يتم الوصول إليها. علاوة على ذلك، تحتاج المؤسسات إلى معرفة كيفية تفاعل أدوات الذكاء الاصطناعي مع الأنظمة الداخلية. في نهاية المطاف، تعد الرؤية أمرًا ضروريًا لتنفيذ جميع ضوابط أمان الذكاء الاصطناعي الأخرى، مما يخلق نقطة انطلاق للمؤسسات التي تتيح الاستخدام الآمن للذكاء الاصطناعي.

قال مقدمو الحلول إنه بالنسبة للعديد من المؤسسات، فإن توفير قائمة بأدوات الذكاء الاصطناعي المعتمدة – أو حتى نشر الأدوات مباشرة للموظفين – سيكون جزءًا أساسيًا من الإجابة لتمكين الاستخدام الآمن لـ GenAI والوكلاء. من المهم تجنب الذكاء الاصطناعي الظلي قدر الإمكان، وهذا يسير جنبًا إلى جنب مع زيادة وضوح الذكاء الاصطناعي – حيث سيكون القيام بذلك أسهل بكثير باستخدام الأدوات المعتمدة. تشمل الأولويات الرئيسية تقييم أدوات ومنصات الذكاء الاصطناعي لممارسات البيانات، يليها إنشاء وصيانة قائمة بأدوات ومنصات الذكاء الاصطناعي التي تم التحقق منها. إن توفير أدوات الذكاء الاصطناعي المعتمدة يشير في نهاية المطاف للموظفين إلى تشجيع استخدام الذكاء الاصطناعي – عندما يلبي احتياجات المؤسسة المتعلقة بالأمن والحوكمة.

هوية قوية والمصادقة

وفقًا لمقدمي الحلول، لتمكين الاستخدام المعزز للإنتاجية لـ GenAI والوكلاء، يجب أن تكون اعتبارات الهوية وإمكانية الوصول ذات أهمية قصوى. “عليك أن تفكر من وجهة نظر الهوية، كيف يمكن (للوكلاء) الوصول إلى الأشياء في أوقات مختلفة لفترات زمنية مختلفة؟” وقال ديمون ماكدوغالد، الذي يقود خدمات الأمن العالمية في شركة Accenture، إنه حصل على المرتبة الأولى في قائمة CRN’s Solution Provider 500 لعام 2025. “الأمر مختلف عما نفعله عادةً للبشر اليوم.” تتضمن عناصر التحكم الرئيسية مصادقة قوية لكل جهاز أو وكيل يعمل بالذكاء الاصطناعي يصل إلى الأنظمة والبيانات – بما في ذلك التفويض المستمر والتحقق حتى بعد المصادقة الأولية، بالإضافة إلى عناصر التحكم في الوصول ذات الامتيازات المنخفضة مثل الوصول الدوري. سيكون استخدام التحليلات السلوكية، المدعومة حقًا بالذكاء الاصطناعي، مهمًا أيضًا لتمكين اكتشاف أنشطة الاكتشاف والوصول غير العادية. بشكل عام، من المهم للمؤسسات أن تتعامل مع وكلاء الذكاء الاصطناعي على نحو مماثل للهويات البشرية، مع إجراء عملية الجرد والحوكمة تمامًا كما هو الحال بالنسبة للعاملين من البشر.

الحوكمة وإنفاذ السياسات

في حين أن هذا قد يبدو حاجة واضحة، وفقًا لمقدمي الحلول، فإن إنشاء حوكمة قوية وإنفاذ السياسات لاستخدام الذكاء الاصطناعي يمكن أن يصبح أمرًا معقدًا بسرعة. يتطلب تحديد قواعد المشاركة لاستخدام الذكاء الاصطناعي من المؤسسات أن تأخذ في الاعتبار مجموعة متنوعة من المتغيرات. قد تحتاج الحوكمة وتنفيذ السياسات إلى تغطية من يمكنه استخدام أدوات الذكاء الاصطناعي – ومن يمكنه استخدام الأدوات – بالإضافة إلى البيانات التي يمكن الوصول إليها وكيفية استخدام المخرجات. بالإضافة إلى ذلك، تعتبر السياسات والحوكمة المتعلقة بالمواقف التي تتطلب إشرافًا بشريًا جانبًا مهمًا لتحقيق النجاح، كما يقول مقدمو الحلول. لقد أضاف إدخال وكلاء الذكاء الاصطناعي المزيد من التحديات: سيكون من المهم إضافة طبقة إضافية من الإنفاذ على رأس الوكلاء لضمان عدم انحرافهم عن التوقعات. وفقًا لبن بريسكوت، رئيس حلول الذكاء الاصطناعي في Trace3، في المركز 34 crn موفر الحلول 500 لعام 2025، هنا تأتي الرؤية كمتطلب أساسي. “الآن أنت[بحاجة إلى معرفة]ما هو الحل الوكيل الذي يخطط وينفذ بالفعل؟ وكيف نفهم ما هو المخرج الصحيح الذي يتم إنشاؤه فعليًا ضمن سير العمل الوكيل هذا؟” قال بريسكوت.

AI-Aware منع فقدان البيانات

بالنسبة لشركة Covenant Technology Solutions التي يقع مقرها في جلادستون بولاية أوريغون، أصبح إعطاء الأولوية لمراجعة ممارسات بيانات العميل حجر الزاوية في كيفية عمل MSP مع العملاء حول الذكاء الاصطناعي، وفقًا للرئيس التنفيذي تيموثي تشوكيت. وقال تشوكيت: “كانت إحدى المناقشات الشائعة مع العملاء مؤخرًا هي: “يمكننا مساعدتك في هذا، ولكننا بحاجة إلى إلقاء نظرة على بياناتك”. “”نحن بحاجة إلى التأكد من أنك مستعد وراغب في القيام بهذه الأشياء، حتى نتمكن من التأكد بثقة من أنك على استعداد للذهاب.”” سيتضمن الجزء الرئيسي من هذه الاستعدادات تنفيذ تصنيف البيانات ومنع فقدان البيانات (DLP) “المدرك للذكاء الاصطناعي” – بمعنى آخر. في، والتي يمكن تطبيقها على الإشارات والتحميلات والمخرجات في الوقت الفعلي، بالإضافة إلى تفاعلات البيانات من وكيل إلى وكيل. وفي الوقت نفسه، وعلى عكس الأساليب التقليدية، تستخدم تقنية منع فقدان البيانات (DLP) المدركة للذكاء الاصطناعي التحليلات السياقية لفهم نية المستخدمين والوكلاء – ويمكنها بعد ذلك الاستجابة عن طريق حظر البيانات الحساسة أو تعديلها قبل كشفها، اعتمادًا على سياسات المؤسسة.

استمرار فريق الذكاء الاصطناعي الأحمر

عادةً ما يتضمن اختبار الفريق الأحمر – الذي يقيم البرمجيات بحثًا عن نقاط الضعف والثغرات – اختبارات دورية غير متكررة. ولكن وفقًا لمقدمي الحلول، فإن الطبيعة الديناميكية والمتطورة باستمرار لنماذج GenAI والنماذج الوكيلة تضيف تعقيدًا هائلاً إلى عملية الاختبار. وبالتالي، فإن الاختبار المستمر للذكاء الاصطناعي ليس ممكنًا بالنسبة لمعظم المؤسسات من منظور مالي أو تشغيلي دون الأتمتة، كما قال البيادي من إيفوتيك. وقال البياضي إن محاولة الاستعانة بشركة كبرى لإجراء تمرين الفريق الأحمر للذكاء الاصطناعي بشكل مستمر قد تصل إلى ملايين الدولارات. وأضاف أن الأدوات الجديدة التي تستخدم الذكاء الاصطناعي “ستقوم بذلك بأكبر قدر ممكن من الفعالية والثبات”. يمكن لهذه الأدوات الجديدة المدعومة بالذكاء الاصطناعي التحقق من نقاط الضعف مثل الحقن المتسارع، والكشف عن البيانات، وإجراءات الوكيل غير المصرح بها – ويمكنها الاستمرار في إجراء الاختبارات حتى مع تحديث النماذج واكتساب الوكلاء قدرات جديدة.

أمن سلسلة التوريد

أحد عناصر التحكم ذات الصلة باختبار AI Red Team المستمر هو أمان سلسلة التوريد للذكاء الاصطناعي، والذي يركز على تقييم وإدارة المخاطر التي يقدمها موفرو نماذج الذكاء الاصطناعي، والبرامج مفتوحة المصدر، ومصادر بيانات الطرف الثالث. على سبيل المثال، يمكن أن تشكل نقاط الضعف في نماذج الجهات الخارجية أو بيانات التدريب المسمومة خطرًا كبيرًا للتسوية، حتى لو اتخذت المنظمة جميع الخطوات الصحيحة لتأمين نماذجها الداخلية. ونتيجة لذلك، قال مقدمو الحلول إن المؤسسات يجب أن تفكر في توسيع ضوابط أمان الذكاء الاصطناعي خارج بيئاتها الخاصة – مثل إجراء تقييمات مخاطر البائعين وتتبع مصدر نماذج الذكاء الاصطناعي. تعد المراقبة المستمرة لمكونات الطرف الثالث بحثًا عن التغييرات أو التهديدات الناشئة خطوة مهمة أخرى لمعظم المؤسسات. الهدف النهائي هو التعامل مع نماذج الذكاء الاصطناعي وأطر العمل بنفس المستوى الصارم من الأمان الذي سيتم تطبيقه على أنظمة البرامج التقليدية.

مراقبة مخاطر الذكاء الاصطناعي

وفقًا لخبراء الأمن، كما هو الحال مع العديد من أنظمة الذكاء الاصطناعي الجديدة، فإن الحقيقة هي أنه مع استخدام النموذج، من المحتمل حدوث تغييرات في الأداء والسلوك. قد يتحسن هذا أو يسوء بمرور الوقت، اعتمادًا على كيفية تعريف نظام الذكاء الاصطناعي الخاص بك، وفقًا لدانيال كيندزيور، قائد ممارسات أمن البيانات العالمية والذكاء الاصطناعي في Accenture، رقم 1 في قائمة CRN’s Solution Provider 500 لعام 2025. بالطبع، ستكون مراقبة مخاطر الذكاء الاصطناعي أكثر أهمية لتحديد الحالات التي يتدهور فيها الأداء بمرور الوقت. والأهم من ذلك، أنه “ليس من الواضح دائمًا في أي اتجاه تتجه،” كما قال كيندزيور. ووفقا للخبراء، فإن المخاطر الرئيسية التي يمكن أن تنشأ يمكن أن تشمل الهلوسة، أو انحراف النماذج، أو التحيز، أو انتهاكات السياسات. إن نشر المراقبة المستمرة لأنظمة الذكاء الاصطناعي يمكن أن يكتشف مثل هذه المشكلات في مرحلة مبكرة – مما يمكّن الفرق في نهاية المطاف من التدخل قبل تصاعد المخاطر.

التحقق المستمر

تمامًا كما تقوم مراقبة مخاطر الذكاء الاصطناعي بتقييم كيفية تصرف نماذج الذكاء الاصطناعي بمرور الوقت، يعد التحقق المستمر أمرًا مهمًا لضوابط أمان الذكاء الاصطناعي لأسباب مماثلة. مع تغير نماذج الذكاء الاصطناعي ووكلاءه ومصادر البيانات، فإن ضوابط أمان الذكاء الاصطناعي الموجودة في المؤسسة قد لا تكون فعالة كما كانت من قبل. يركز التحقق المستمر على الاختبار المتسق للتحقق من أن ضوابط أمان الذكاء الاصطناعي – مثل إنفاذ الهوية وحماية البيانات والحوكمة – لا تزال تعمل بشكل صحيح وعلى النحو المنشود في الأصل. وقد أصبحت مثل هذه العمليات قابلة على نحو متزايد للأتمتة، والتي يمكنها أن تكتشف بسرعة انحراف السياسات، والتكوينات الخاطئة، وغير ذلك من القضايا.

التدريب على أمن الذكاء الاصطناعي

أخيرًا، ولكن بالتأكيد ليس آخرًا، يجب على المنظمات أن تأخذ في الاعتبار العنصر البشري في مخاطر الذكاء الاصطناعي. إذا لم تتأكد المؤسسات من حصول فرقها على تدريب حول الاستخدام الآمن والمخاطر العامة وسياسات الشركة المتعلقة بأدوات الذكاء الاصطناعي، فقد تصبح ضوابط أمان الذكاء الاصطناعي المتقدمة عديمة الفائدة بسرعة. قال سيزار أفيلا، المؤسس والرئيس التنفيذي لشركة AVLA في فورت لودرديل بولاية فلوريدا، إن برنامج MSP الخاص به يساعد في تدريب الموظفين في المؤسسات العميلة حتى يتمكنوا من إدراك كيفية استخدامهم لأدوات الذكاء الاصطناعي. وقال أفيلا إن التحدي يكمن في أن الكثير من الناس ما زالوا غير صادقين عندما يتعلق الأمر باستخدام الذكاء الاصطناعي والوكلاء. وفي نهاية المطاف، “عليك تدريبهم ومنحهم سياسة الذكاء الاصطناعي”.

رابط المصدر

ترك الرد

من فضلك ادخل تعليقك
من فضلك ادخل اسمك هنا