5 أشياء يجب معرفتها حول أمان الكود السحابي الخاص بـ Anthropic

قالت منصة الذكاء الاصطناعي يوم الجمعة إنها تضيف إمكانات فحص الثغرات الأمنية إلى أداة التعليمات البرمجية السحابية المستندة إلى الويب للتنافس مع بائعي أمان التطبيقات.

أعلنت شركة Anthropic يوم الجمعة أنها تريد التنافس مع بائعي أمن التطبيقات من خلال إضافة إمكانات فحص الثغرات الأمنية إلى أداة التعليمات البرمجية السحابية المستندة إلى الويب.

هذه الخطوة هي أحدث خطوة من قبل Anthropic لإضافة وظائف مدعومة بـ LLM والتي من شأنها منافسة صانعي البرمجيات الراسخين وهي جزء من اتجاه أوسع هز ثقة المستثمرين في صناعة البرمجيات ككل.

(ذات صلة: الرئيس التنفيذي لشركة Palo Alto Networks: الذكاء الاصطناعي لن يحل محل الأدوات الأمنية “في أي وقت قريب”)

انخفضت أسعار أسهم العديد من بائعي الأوراق المالية الرئيسيين يوم الجمعة بعد الإعلان الإنساني، خاصة خلال اليوم الذي شهد ارتفاع مؤشرات سوق الأسهم الأوسع.

فيما يلي خمسة أشياء يجب معرفتها حول أمان الكود السحابي الخاص بـ Anthropic.

دفعة AppSec من Anthropic

يعد Cloud Code Security أول منتج أمني مخصص لشركة Anthropic وهو يقتصر حاليًا على مجال أمان التطبيقات.

في مدونة بريدكشفت Anthropic أن Cloud Code Security سيوفر فحصًا لقاعدة التعليمات البرمجية بحثًا عن نقاط الضعف. وقالت الشركة في المنشور إن الأداة ستقوم بعد ذلك “بتقديم اقتراحات لتصحيحات البرامج المستهدفة للمراجعة البشرية، مما يسمح للفرق بالعثور على المشكلات الأمنية وإصلاحها التي غالبًا ما تغفلها الطرق التقليدية”.

يعد Cloud Code Security جزءًا من عرض Cloud Code الخاص بـ Anthropic على الويب ويتم تقديمه الآن في معاينة بحثية محدودة.

المنطق البشري

زعمت أنثروبيك أن أداتها ستمكن من إجراء تحسينات أمنية هائلة مقارنة بطرق الاختبار الآلية الحالية مثل التحليل الثابت. وقالت الشركة إن مثل هذه الأساليب تعتمد عادةً على القواعد ولا يمكنها سوى مقارنة التعليمات البرمجية بنقاط الضعف المعروفة.

ومن ناحية أخرى، قال موقع Anthropic إن Cloud Code Security “يقرأ ويفكر في التعليمات البرمجية الخاصة بك تمامًا كما يفعل باحث الأمن البشري”.

وقالت الشركة إن هذا يعني أن الأداة يمكنها فهم “كيفية تفاعل المكونات، وتتبع كيفية تحرك البيانات عبر التطبيق الخاص بك، والقبض على نقاط الضعف المعقدة التي تفتقدها الأدوات القائمة على القواعد”.

اصطياد المزيد من نقاط الضعف

وقالت أنثروبيك إن النتيجة هي أن أمان التعليمات البرمجية السحابية سيكون قادرًا على الكشف عن “نقاط ضعف أكثر تعقيدًا، مثل العيوب في منطق الأعمال أو ضوابط الوصول المعطلة” مقارنة بطرق التحليل الثابتة.

بالإضافة إلى ذلك، قالت الشركة إن كل بحث تجريه الأداة سيخضع “لعملية تحقق متعددة المراحل” قبل إرسالها إلى أحد المحللين.

وفقًا لـ Anthropic، يتم أيضًا إعطاء النتائج تصنيفًا لخطورة المساعدة في تحديد الأولويات.

يساعد الذكاء الاصطناعي أيضًا المهاجمين

ومع قدرات فحص قاعدة التعليمات البرمجية التي تقدمها Anthropic والتي تعمل على تسريع التحول نحو تسهيل اكتشاف الثغرات الأمنية باستخدام الذكاء الاصطناعي، فمن الواضح أن هذا الاتجاه سيفيد بلا شك المهاجمين وكذلك المدافعين.

اعترفت Anthropic بذلك في منشورها يوم الجمعة، وكتبت أن “نفس الإمكانات التي تساعد المدافعين في العثور على نقاط الضعف وإصلاحها يمكن أن تساعد المهاجمين على استغلالها”.

وفي حين أن أنثروبيك ستتضمن بلا شك حواجز حماية تهدف إلى منع إساءة استخدام أدواتها الخاصة، فإن طبيعة الاستخدام المزدوج لمسح الذكاء الاصطناعي تشير إلى أن الهجمات لن تتزايد إلا مع استمرار تقدم التكنولوجيا.

وقالت الشركة في نهاية المطاف، إن الجهات الفاعلة في مجال التهديد “ستستخدم الذكاء الاصطناعي للعثور على نقاط الضعف القابلة للاستغلال بشكل أسرع من أي وقت مضى”.

وقالت الشركة: “لكن المدافعين الذين يتحركون بشكل أسرع يمكنهم العثور على نفس نقاط الضعف وإصلاحها وتقليل مخاطر الهجوم”. “يعد Cloud Code Security خطوة نحو تحقيق هدفنا المتمثل في توفير قاعدة تعليمات برمجية أكثر أمانًا وخطوط أساس أمنية أعلى عبر الصناعة.”

انخفاض أسعار الأسهم

على الرغم من الحظر المفروض على جهود Anthropic المبكرة في مجال أمان التطبيقات، أعرب المستثمرون عن قلقهم بشأن صناعة الأمن الأوسع يوم الجمعة بعد إعلان Anthropic.

في وقت كتابة هذا التقرير، انخفضت أسهم CrowdStrike بنسبة 6.5 بالمائة عند 394.50 دولارًا للسهم، بينما انخفض سعر سهم Cloudflare بنسبة 6.2 بالمائة ليصل إلى 180.71 دولارًا للسهم. وانخفض سهم Zscaler بنسبة 3.1 بالمائة إلى 163.76 دولارًا للسهم وانخفض سهم Palo Alto Networks بنسبة 0.6 بالمائة إلى 150.14 دولارًا للسهم.

في وقت سابق من هذا الأسبوع، قال نيكيش أرورا، الرئيس التنفيذي لشركة بالو ألتو نتوركس، إن مخاوف المستثمرين من أن الذكاء الاصطناعي يشكل خطرًا أكبر من الفرصة لبائعي الأمن السيبراني لا أساس لها من الصحة، مضيفًا أنه من غير المرجح أن يتنافس الذكاء الاصطناعي مع قدرات المنتجات الأمنية في المستقبل القريب.

خلال المكالمة ربع السنوية التي أجرتها شركة Palo Alto Networks يوم الثلاثاء، أخبر أرورا المحللين أنه على الرغم من أن وكلاء GenAI وAI أثبتوا بالفعل أنهم مفيدون للمنتجات والفرق الأمنية على نطاق واسع، إلا أن هناك حدودًا واضحة لما يمكن أن تفعله LLM.

وقال: “ما زلت في حيرة من أمري بشأن سبب اعتبار السوق للذكاء الاصطناعي تهديدًا لصناعة الأمن السيبراني”، مضيفًا أنه “لا يمكنه التحدث عن جميع البرامج”.

قال أرورا إن LLMs ليست دقيقة بما يكفي لتحل محل القطاعات الرئيسية مثل العمليات الأمنية بشكل كامل، والعديد من أدوات الأمان – بما في ذلك Palo Alto Networks ومنصتها الشاملة – تتخذ خطوة كبيرة إلى الأمام من خلال الوصول إلى بيانات العملاء في العالم الحقيقي لتدريب نماذج الذكاء الاصطناعي الخاصة بهم.

رابط المصدر

ترك الرد

من فضلك ادخل تعليقك
من فضلك ادخل اسمك هنا