اعتبارًا من أوائل عام 2026، يبدو أن أمان أدوات الذكاء الاصطناعي للأغراض العامة والعامة مثل ChatGPT وGemini وما إلى ذلك يتجه في اتجاهين مختلفين. تؤثر التكنولوجيا بشكل متزايد على القرارات اليومية، لكن الشركات التي تصنعها ترسل إشارات متضاربة حول مدى دقة السيطرة عليها.
في يناير/كانون الثاني، عززت شركة OpenAI الحواجز الصحية في ChatGPT، مما حد من كيفية استجابة روبوت الدردشة للاستفسارات الطبية وتوجيه المستخدمين نحو المشورة المهنية، في دليل واضح على أن الذكاء الاصطناعي للأغراض العامة يمكن أن يضلل الناس في المواقف عالية المخاطر. وفي الوقت نفسه، سحبت شركة Anthropic مؤخرًا جزءًا من التزامها الطوعي بأمن الذكاء الاصطناعي.
مدير المنتجات والتكنولوجيا في Dext.
تكشف هذه التحركات المتناقضة عن سؤال أكبر: أين يجب أن تكون حواجز الحماية للذكاء الاصطناعي العام بالضبط؟ لقد برزت الرعاية الصحية كخط أحمر واضح، ولكن بفضل الذكاء الاصطناعي، هناك مجال بالغ الأهمية ينمو مع قدر أقل من الإشراف: التمويل.
وسرعان ما أصبحت عادة استشارة أدوات الذكاء الاصطناعي العامة للحصول على التوجيه المالي أمرا منتظما، حتى مع ارتفاع التكاليف الحقيقية المترتبة على اتباع الاقتراحات الخاطئة.
التكلفة المخفية: الذكاء الاصطناعي باعتباره “صديق الحانة” الجديد
وهذا التغيير يحدث بالفعل على نطاق واسع. تشير الأبحاث التي أجراها بنك لويدز إلى أن 28 مليون شخص يستخدمون أدوات الذكاء الاصطناعي العامة للمساعدة في إدارة شؤونهم المالية أو الحصول على إرشادات بشأن القرارات المالية. بالنسبة للكثيرين، أصبحت أدوات مثل ChatGPT هي النسخة الرقمية لصديق في الحانة سيخبرك دائمًا أين يجب أن تذهب أموالك.
تبدو هذه المقارنة غير ضارة حتى تبدأ الشركات في اتباع هذه النصيحة. في السياق الشات بوتس، هو “صديق” حاصل على درجة الدكتوراه في مجالات متعددة، مما يعني أنه يستطيع تقديم العديد من الإجابات بسلاسة وثقة – حتى لو كانت المعلومات والسياق الأساسي غير مؤكدين.
ولأن أنظمة مثل ChatGPT مصممة لتكون مفيدة ومجزية للمستخدمين، فإنها قد تفضل في بعض الأحيان تقديم إجابة واضحة ومتسقة بدلاً من تسليط الضوء على عدم اليقين، الأمر الذي يمكن أن يعزز الانطباع بأن النتيجة أكثر موثوقية مما هي عليه في الواقع.
في حين أن المخاطر المرتبطة بأدوات الذكاء الاصطناعي ذات الأغراض العامة نادرًا ما تنجم عن السلوك الضار للتكنولوجيا، فإن الواقع هو أن هذه الأنظمة لم تكن مصممة أبدًا لتقديم مشورة مالية منظمة. ويقومون بإنشاء إجابات بناءً على الأنماط الموجودة في بيانات التدريب، بدلاً من تقييم ما إذا كان القرار مناسبًا للشركة.
وهذا يجعل صاحب العمل يثق في تفسيرات الشات بوت بسرعة كبيرة جدًا، مما يدفعه إلى اتخاذ القرارات مسبقًا ويتجاهل تمامًا حقيقة أن النظام ليس لديه مساءلة حقيقية أو صورة واضحة عن عيوبه.
في نهاية المطاف، من السهل بناء الثقة بالنفس، لكن الحكم الجيد أصعب بكثير.
الدليل: الضرر قد حدث بالفعل
ولكن الضرر أصبح محسوساً الآن في مختلف أنحاء العالم ــ وخاصة بين المحاسبين الذين يضطرون إلى معالجة ما حدث. أظهرت الأبحاث الحديثة أن نصف المحاسبين والمحاسبين في المملكة المتحدة يقولون إن الشركات تكبدت خسائر مالية بسبب اتباع نصائح غير صحيحة صادرة عن الذكاء الاصطناعي.
بدأ سيناريو مألوف في الظهور في جميع أنحاء الصناعة. يواجه المهنيون الماليون بشكل متزايد العملاء الذين يصلون بخطة مالية أصبحت بمثابة رسالة مطالبة لروبوتات الدردشة. ما يبدو مقنعًا على الشاشة نادرًا ما ينجح في التحليل المهني.
تظهر الشقوق عادة أثناء عمليات التفتيش الروتينية. لقد أسيء فهم قانون الضرائب. النفقات في فئة خاطئة. يعتمد القرار المالي على مبادئ توجيهية قديمة. لا يبدو أي من هذه الأخطاء كارثيًا في حد ذاته، لكنها يمكن أن تخلق بسرعة كرة ثلج تؤثر بشكل كبير على النتيجة النهائية للشركة في شكل عقوبات ضريبية وخسارة رأس المال.
نادرًا ما يتم احتواء الأخطاء المالية، ويمكن لقرار واحد سيئ أن يتصاعد بسرعة إلى مشاكل في التدفق النقدي، أو التعرض للامتثال، أو تحديات استراتيجية أوسع.
عندما تحدث مثل هذه السيناريوهات مع العملاء بناءً على نصيحة سيئة من المستشارين الماليين، هناك دائمًا احتمال تعرضهم للمساءلة. على سبيل المثال، رفع إيدي جوردان، رئيس الفورمولا 1، دعوى قضائية مشهورة ضد بنك HSBC في عام 2024 مقابل 5 ملايين جنيه إسترليني لأنه نصحه بشكل غير لائق بالاستثمار في صندوق “منخفض المخاطر”.
ومع ذلك، فإن الحقيقة القاسية للتعامل مع تداعيات النصائح غير الصحيحة التي تقدمها برامج الدردشة الآلية هي أنه لا يوجد أحد آخر لمواجهة عواقب إدارة الإيرادات والجمارك البريطانية غيرك.
والأسوأ من ذلك أن العديد من الشركات تفترض أن أنظمة الذكاء الاصطناعي العامة تتمتع بخبرة أكبر من المتخصصين الذين يعملون أمامها. في الواقع، لا تسمح النماذج ذات الأغراض العامة بالشفافية فيما يتعلق بالتاريخ المالي للشركة، أو التزاماتها، أو الضغوط التجارية. وبدون هذا السياق، حتى النصائح الأكثر ثقة يمكن أن تقود الشركة إلى الخروج عن المسار الصحيح.
لماذا اللوائح وحدها لن تحل المشكلة؟
يدخل الذكاء الاصطناعي في عملية صنع القرار المالي بشكل أسرع من الضمانات المصممة لإدارته. في حين أن الاستشارة المالية كانت تعمل منذ فترة طويلة ضمن إطار مهني منظم، فإن أدوات الذكاء الاصطناعي ذات الأغراض العامة تدخل الآن نفس المجال دون حدود مماثلة.
وتقوم الشركات بالفعل بدمج هذه الأدوات في القرارات المالية اليومية، وغالباً من دون حواجز حماية أو فهم واضح للمخاطر التي تنطوي عليها. ونتيجة لذلك، فإن التناقض بين سرعة استخدام التكنولوجيا والتطور البطيء للمراقبة آخذ في الاتساع.
ومجرد انتظار التشريع كفيل بكشف هذه الثغرة.
لدى شركات التكنولوجيا الفرصة للتحرك بشكل أسرع. من شأن الضمانات الواضحة على مستوى المنتج فيما يتعلق بالمشورة المالية أن توفر طبقة فورية من الحماية. تقوم Chatbots بالفعل بإعادة توجيه المستخدمين عندما تصبح الأسئلة الطبية محددة للغاية. ويمكن تطبيق المبدأ نفسه عندما تتحول المحادثات إلى استراتيجيات الاستثمار أو القرارات الضريبية أو الشؤون المالية للشركات.
الذكاء الاصطناعي للأغراض العامة متخصص في شرح المفاهيم والتلخيص المعلومات وتسريع الإدارة الروتينية، ولكن المشورة المالية هي فئة مختلفة تماما. فهو يتطلب حكمًا احترافيًا ووعيًا تنظيميًا وفهمًا عميقًا للسياق الذي يوجد عادةً في أدوات الذكاء الاصطناعي المتخصصة المصممة خصيصًا لهذه الأغراض، بدلاً من أنظمة الذكاء الاصطناعي العامة. إن رسم خط واضح بين هذه الفئات من شأنه أن يزيل الكثير من الالتباس الحالي.
تحتاج الشركات التي تجرب الذكاء الاصطناعي أيضًا إلى فهم أفضل للجوانب التي تكون فيها التكنولوجيا مفيدة والأماكن التي لا تكون فيها كذلك. يمكن لروبوتات الدردشة أن تدعم التدفق المالي وتسريع المهام الروتينية، لكنها لا تستطيع أن تحل محل المعرفة المهنية. وتكمن قيمتهم الحقيقية في معاملتهم كمساعدين وليس كمستشارين.
سد فجوة المساءلة
إن التعامل مع برنامج الدردشة الآلي العام مثل المدير المالي هو خطر نادرًا ما يؤتي ثماره. هذه النماذج تقدم مقنعة الكفاءة دون ذرة من المسؤولية المهنية. يأتي الأمان الحقيقي من اختيار الأدوات المتخصصة التي تحترم الحدود بين الدعم الإداري والمشورة المنظمة.
وبالمثل، يظل المحاسبون بمثابة مرشح مهم، مما يضمن أن الرؤى الناتجة تتطابق فعليًا مع سياق العالم الحقيقي. مع أخذ ذلك في الاعتبار، يجب أن يكون هدف العملاء هو الحصول على أفضل ما في العالمين – محاسب يفهم الفروق الدقيقة في أعمالهم ولكنه يستخدم الذكاء الاصطناعي بشكل فعال لتحقيق النتائج بسرعة ودقة أكبر.
سيكون هذا أمرًا بالغ الأهمية للبقاء على قيد الحياة في عام تواجه فيه الشركات مستويات غير مسبوقة من عدم اليقين والتي تتطلب إطارًا لوضع الحكم البشري في قلب كل عملية صنع قرار رئيسية، بدلاً من الاعتماد فقط على برامج أسرع. بالنسبة للشركات، هذا يعني معرفة أين تنتهي القواعد بالضبط وتبدأ المسؤولية.
لقد قمنا بتقييم أفضل برامج الميزانية.
تم إنشاء المقالة كجزء من توقعات TechRadar بروتعرض قناتنا أفضل وألمع العقول في صناعة التكنولوجيا اليوم.
الآراء الواردة هنا هي آراء المؤلف وليست بالضرورة آراء TechRadarPro أو Future plc. إذا كنت مهتمًا بالتعاون، يمكنك العثور على مزيد من المعلومات هنا: https://www.techradar.com/pro/perspectives-how-to-submit











