لماذا يؤدي الاعتماد على المستشارين الماليين لروبوتات الدردشة التي لم يتم التحقق منها إلى أخطاء مكلفة

اعتبارًا من أوائل عام 2026، يبدو أن أمان أدوات الذكاء الاصطناعي للأغراض العامة والعامة مثل ChatGPT وGemini وما إلى ذلك يتجه في اتجاهين مختلفين. تؤثر التكنولوجيا بشكل متزايد على القرارات اليومية، لكن الشركات التي تصنعها ترسل إشارات متضاربة حول مدى دقة السيطرة عليها.

في يناير/كانون الثاني، عززت شركة OpenAI الحواجز الصحية في ChatGPT، مما حد من كيفية استجابة روبوت الدردشة للاستفسارات الطبية وتوجيه المستخدمين نحو المشورة المهنية، في دليل واضح على أن الذكاء الاصطناعي للأغراض العامة يمكن أن يضلل الناس في المواقف عالية المخاطر. وفي الوقت نفسه، سحبت شركة Anthropic مؤخرًا جزءًا من التزامها الطوعي بأمن الذكاء الاصطناعي.

ستيفن إدجينتون

مدير المنتجات والتكنولوجيا في Dext.

رابط المصدر