عندما انضممت إلى Smartsheet، كانت إحدى أولوياتي الأولى هي فهم أين يعمل الذكاء الاصطناعي فعليًا في جميع أنحاء الشركة.
ما اكتشفته لم يكن استراتيجية متعمدة بقدر ما كان انعكاسًا صادقًا لسرعة التغيير: أدوات الذكاء الاصطناعي المدمجة في سير العمل، بعضها معتمد من قبل البائعين، والبعض الآخر لا، يتبناها أشخاص أذكياء لحل المشكلات الحقيقية بشكل أسرع من قدرة السياسة على مواكبتها.
كبير موظفي المعلومات والأمن، Smartsheet.
عندما عدت إلى بعض هؤلاء البائعين لفهم ما كنا نتعامل معه بالفعل – ما هي البيانات التي تمكن النموذج من الوصول إليها وما هي الإجراءات التي اتخذها – كانت الإجابات ضئيلة. ببساطة، لم تكن البنية التحتية للتدقيق موجودة.
هذا المزيج من الأدوات الموجودة بالفعل في بيئتنا، مع عدم وجود سجل يمكن تتبعه لما فعلته، زاد من حدة تفكيري. لم يكن الخطر يكمن في الأدوات نفسها؛ كان الخفاء.
النموذج الأكثر فائدة الذي اعتمدته للإجابة على هذا السؤال: التعامل مع كل عميل من عملاء الذكاء الاصطناعي باعتباره نوعًا جديدًا من “العاملين”. يجب أن يكون لكل فرد دور محدد ونطاق السلطة وسلسلة المسؤولية.
لن تسمح للموظف الجديد باتخاذ قرارات مهمة دون إشراف في الأسابيع الأولى من عمله. ينطبق نفس المنطق على نظام الذكاء الاصطناعي الذي يعمل في سير عمل المؤسسة، وقابلية التتبع تجعل هذه المراقبة حقيقية.
من مرآة الرؤية الخلفية إلى الوقت الحقيقي
لقد مر وقت كان فيه “التدقيق” يعني المراجعة الدورية لما حدث. لقد تغير هذا مع التحول الرقمي. نظرًا لأن الأنشطة القائمة على التكنولوجيا أصبحت أكثر شيوعًا، فقد أصبحت أيضًا منصات التسجيل والمراقبة.
أصبح التدقيق مستمرًا وتدفقت البيانات في الوقت الفعلي، مما يوفر طبقة من الأمان تشير إلى الحالات الشاذة عند حدوثها. في الوقت الحاضر، لم يعد التدقيق بمثابة تشريح للجثة، بل هو نظام تشغيلي يتم تنفيذه في الوقت الفعلي.
ومع تطور الذكاء الاصطناعي للوكيل، فإن هذا يعني تسجيل مصادر البيانات التي استفسر عنها الوكيل، وما هي الإجراءات التي اتخذها الوكيل من تلقاء نفسه وما هي الإجراءات التي صعدتها إلى الموافقة، ومن شارك في سلسلة الموافقة هذه في الوقت الفعلي بدلاً من إعادة بنائها بعد وقوعها.
وإليك سبب أهميتها على مستوى مجلس الإدارة: عندما تؤدي عملية مدعومة بالذكاء الاصطناعي إلى نتيجة سيئة – مثل وضع علامة على خطر بشكل غير صحيح، أو تشغيل تخصيص الموارد دون موافقة المدير، أو نشر تحديث الحالة قبل توقيع أي شخص على العقد – فإن السؤال الأول الذي ستسمعه من الإدارة أو المحامي أو الجهة التنظيمية هو: “من وافق على هذا، وكيف ومتى ولماذا؟”
إذا لم تتمكن من الإجابة على هذه الأسئلة، فأنت تواجه أزمة إدارية ناتجة عن فشل العملية.
التدقيق كأساس وليس مربع اختيار
لحل هذه المشكلة، يجب على قادة الأمن تضمين التدقيق في استراتيجية الذكاء الاصطناعي الخاصة بهم منذ البداية. ليس كممارسة للامتثال، ولكن كطبقة أساسية تمكن من إدارة الذكاء الاصطناعي الوكيل.
عند تقييم أي ميزة للذكاء الاصطناعي، سواء تم إنشاؤها داخليًا أو من أحد البائعين، أبحث عن سلسلة يمكن تتبعها: ما هي البيانات التي تم إدخالها في التوصية، وما إذا كانت الموافقة البشرية مطلوبة قبل اتخاذ الإجراء، ومن قام بمراجعتها، إن وجد. إذا لم يتمكن البائع من إظهار هذه السلسلة لي، فهذا يعني أن الميزة ليست جاهزة للمؤسسة، بغض النظر عن مدى روعة النتائج.
هذه ليست نتيجة امتثال؛ إنها نتيجة الإنتاجية. لم يعد التدقيق مجرد مربع اختيار، بل أصبح آلية تسمح للفرق بتوسيع نطاق الذكاء الاصطناعي بثقة مع الحفاظ على المساءلة البشرية.
موظفو الذكاء الاصطناعي الجدد لديك
بالعودة إلى نموذج الذكاء الاصطناعي كعامل: تغير الأطر الأسئلة التي تطرحها. بدلاً من “كيف نمنع الذكاء الاصطناعي من التسبب في الضرر؟” ويصبح السؤال: “ما الذي نحتاج إلى معرفته لكي نثق في حكم الذكاء الاصطناعي بنفس الطريقة التي نثق بها في عضو فريق قادر؟”
تتلخص الإجابة في أغلب الأحيان في نفس الأشياء: الملكية الواضحة، وحقوق محددة في اتخاذ القرار، وسجل الإجراءات المتخذة، وآلية للتدخل البشري. هذه ليست مفاهيم أمنية جديدة. لقد تم تطبيقها ببساطة على نوع جديد من “الموظفين”.
كقادة أمنيين، لا يمكننا حل كل مخاطر الذكاء الاصطناعي بين عشية وضحاها، ولكن يمكننا إنشاء أساس يتجاوز المبادئ عالية المستوى ويصل إلى الواقع التشغيلي:
1. قم بتعيين مكان تشغيل الذكاء الاصطناعي فعليًا، بما في ذلك عمليات التكامل المكشوفة من خلال رموز OAuth المميزة ومفاتيح API في أنظمتك، لأنه لا يمكنك إدارة ما لا يمكنك رؤيته.
2. حدد بوضوح القرارات التي تتطلب توقيعًا بشريًا وتلك التي لا تتطلب ذلك، والتزم بإعادة فحص هذه الحدود كل ستة أشهر مع تطور التكنولوجيا وتأثيرها على المنظمة. ما يبدو منخفض المخاطر اليوم قد يبدو مختلفًا تمامًا عندما يطلقه الوكيل على نطاق واسع.
3. قم بمحاسبة مورديك من خلال الاستثمار في المنظمات ذات التفكير المماثل الملتزمة بضمان إمكانية التدقيق والتتبع الكاملين للذكاء الاصطناعي، ثم دمج عناصر التحكم هذه في منصات المراقبة الحالية بمجرد وضعها في مكانها الصحيح.
عندما يكون الذكاء الاصطناعي قابلاً للتتبع، وله ملكية واضحة وقابلاً للتدقيق، فإن الحوكمة لم تعد تمثل عنق الزجاجة وتصبح ميزة تنافسية. ستتحرك المؤسسات التي تدرك ذلك بشكل أسرع لأن موظفيها لديهم الثقة في التصرف بناءً على نتائج وأدوات الذكاء الاصطناعي لتصحيح المسار عند الضرورة. وكما يقول المثل القديم، “ثق، ولكن تحقق”.
لقد بدأ مشهد المعايير في اللحاق بالركب. إن إطار إدارة مخاطر الذكاء الاصطناعي الخاص بـ NIST، ومتطلبات قانون الذكاء الاصطناعي للاتحاد الأوروبي لأنظمة الذكاء الاصطناعي عالية المخاطر، وبروتوكولات هوية الوكيل الجديدة، كلها تتحرك في نفس الاتجاه: أصبحت قابلية التدقيق توقعًا أساسيًا، وليس تمييزًا. إن قادة السلامة الذين يهتمون الآن لن يظلوا ملتزمين فحسب، بل سيقودون الطريق أيضًا.
وهو ما يعيدنا إلى السؤال الذي يجب أن تطرحه إذا لم تكن بالفعل: هل يمكنك تتبع هذا؟
قمنا بتقييم أفضل أدوات إدارة أصول البرمجيات (SAM).
تم إنشاء المقالة كجزء من توقعات TechRadar بروتعرض قناتنا أفضل وألمع العقول في صناعة التكنولوجيا اليوم.
الآراء الواردة هنا هي آراء المؤلف وليست بالضرورة آراء TechRadarPro أو Future plc. إذا كنت مهتمًا بالتعاون، يمكنك العثور على مزيد من المعلومات هنا: https://www.techradar.com/pro/perspectives-how-to-submit











