- يقول أربعة من كل خمسة مديرين تنفيذيين إنهم أقل ميلاً إلى تقدير الموظفين البشريين بعد استخدام الذكاء الاصطناعي
- لا يزال الذكاء الاصطناعي يتطلب الإشراف البشري، ويجد الكثير من الناس صعوبة في الوثوق به بشكل كامل
- لا يزال العائد المنخفض أو حتى السلبي على الاستثمار (ROI) يصيب الكثير من الناس
جديد امتحان كشفت دراسة نشرتها Globalization Partners أن أكثر من أربعة من كل خمسة (82%) من المديرين التنفيذيين للشركة يقولون إنه بعد استخدام أدوات الذكاء الاصطناعي، فإنهم أقل عرضة لتقييم الأشخاص كموظفين، ومعاملتهم كأصول ثانوية لأنظمة أكثر كفاءة.
ويختلف هذا الشعور عن الوضع الحالي، حيث اتفق 60% من كبار المسؤولين التنفيذيين الذين شملهم الاستطلاع والبالغ عددهم 2850 شخصًا على أن البشر ما زالوا يديرون العمليات وأن الذكاء الاصطناعي يعمل فقط كعامل تمكين للإنتاجية.
قد يعني الاختلاف أنه في حين يظل البشر جزءًا لا يتجزأ من اليوم، فقد يركز المديرون بشكل أقل على القوى العاملة البشرية في المستقبل، حيث يقوم الذكاء الاصطناعي بمزيد من العمل بشكل مستقل.
يؤثر الذكاء الاصطناعي على مدى تقدير كبار المديرين لموظفيهم
من المرجح أن يضع هذا التحول البشر في دور مديري الذكاء الاصطناعي بدلاً من العاملين الإداريين، حيث يقضي اثنان من كل ثلاثة (69٪) الآن وقتًا أطول من أي وقت مضى في مراقبة ومراجعة العمل الناتج عن الذكاء الاصطناعي. لا يزال هناك شعور بعدم الثقة، حيث أن 23% فقط من المشاركين لديهم ثقة كاملة في دقة الذكاء الاصطناعي و61% لديهم مخاوف بشأن الدقة القانونية عند استخدام الذكاء الاصطناعي في المستندات الحساسة.
ومع ذلك، في حين يرى بعض المديرين التنفيذيين أن الذكاء الاصطناعي هو بديل بشري، لا يزال كثيرون غير راضين عن عوائده. يقول ثلاثة أرباعهم (73%) أن عائد استثمارهم أقل من المتوقع، بينما أبلغ 16% عن عائد استثمار سلبي. ونتيجة لذلك، يقول حوالي سبعة من كل 10 مسؤولين تنفيذيين إنهم على استعداد لخفض ميزانيات الذكاء الاصطناعي هذا العام إذا لم يتم تحقيق الأهداف.
وبشكل منفصل، قال نائب رئيس جارتنر بادريج بيرن وأوضح“الذكاء الاصطناعي موجود في كل مكان، لكن معظم المؤسسات لا تزال تكتشف كيفية مراقبة هذه الأنظمة والوثوق بها.”
من خلال توفير نظرة ثاقبة حول الأخطاء التي قد ترتكبها الشركات، اقترحت شركة الأبحاث أن أولئك الذين يبنون عملاء الذكاء الاصطناعي دون أساس متين من البيانات الدلالية والسياقية من المرجح أن يروا هلوسة ونتائج غير موثوقة وتحيزات.
يشير كلا التقريرين معًا إلى أنه على الرغم من أن المديرين التنفيذيين ينظرون بشكل متزايد إلى الذكاء الاصطناعي باعتباره أمرًا لا مفر منه، إلا أن الكثير منهم ما زالوا غير قادرين على الثقة به.
وبالنظر إلى المستقبل، تدعو جارتنر إلى تنفيذ سياسات مراقبة النماذج لضمان مقاييس عالية الجودة إلى حد ما والتركيز بشكل أكبر على البنية التحتية لدعم القياس عن بعد النموذجي على نطاق واسع.
اتبع TechRadar على أخبار جوجل و أضفنا كمصدرك المفضل لتلقي أخبار ومراجعات وآراء الخبراء حول قنواتك.










