لا يبدو أن الذكاء الاصطناعي ــ وهو التطور التكنولوجي الأكثر إثارة للضجة الذي برز على الساحة منذ جيل واحد ــ لا يحظى بشعبية كبيرة بين عامة الناس في الولايات المتحدة. تدرك أغلبية واضحة أن الذكاء الاصطناعي هو عمل تجاري كبير، ولكن مسح مركز بيو للأبحاث وجدت قلقًا أكثر من الحماس، خاصة في تأثيره على الإبداع والعلاقات. استطلاعات كوينيبياك العثور على آراء توتر حتى مع زيادة الاستخدام.
ويرتبط بفقدان الوظائف، والغش، والنصائح المشكوك فيها، والاستهلاك المفرط للطاقة، ومجموعة متنوعة من السيناريوهات المروعة التي يمكن أن تشمل القضاء على البشرية. في مارس، 57% من المشاركين في أ استطلاع ان بي سي وقال إن المخاطر المرتبطة بالتكنولوجيا ببساطة لا تفوق الفوائد المحتملة.
هناك العديد من الأسباب لذلك، ولكن أحدها بالتأكيد هو الرسالة القادمة من بعض أكبر العلامات التجارية في مجال الذكاء الاصطناعي، وخاصة قادتها. في الشهر الماضي، على سبيل المثال، أعلنت شركة Anthropic العملاقة للذكاء الاصطناعي أنها ستحد من الوصول إلى أداة Mythos الجديدة للأمن السيبراني لأنها كانت قوية للغاية بحيث لا يمكن إصدارها على نطاق أوسع، مما قد يجعلها في أيدي المجرمين أو غيرهم من الجهات الفاعلة السيئة. وقال سام ألتمان، الرئيس التنفيذي لشركة OpenAI المنافسة، إن الأمر كان “تسويقًا قائمًا على الخوف”. ولكن بعد فترة وجيزة، أصدرت OpenAI أداة الأمان الجديدة الخاصة بها – و تقييد الوصول إليها.
هذا مجرد مثال حديث لعنصر غريب في الفئة بأكملها: تبدو شركات الذكاء الاصطناعي عازمة على تذكير العملاء، مع كل إطلاق منتج، كيف يمكن للتكنولوجيا أن تدمر حياتنا. بالطبع، إنها جزء من دورة الضجيج. وإلى حد ما، تقوم العلامات التجارية الكبرى في مجال الذكاء الاصطناعي باستعراض مسؤولياتها.
ولكن ربما تشير استجابة الجمهور المريرة على نحو متزايد للذكاء الاصطناعي إلى أن إصرار هؤلاء الرؤساء التنفيذيين على إخبارنا بمدى خطورة منتجاتهم لا يشكل استراتيجية علامة تجارية رابحة. (ربما لا يكون تعرض منزل ألتمان لهجوم حرفي بزجاجة مولوتوف علامة جيدة).
وهذا التشاؤم الصاخب ليس منعزلا ولا جديدا. عندما أطلقت OpenAI GPT-4 في مارس 2023 نشرت تقرير فني يتضمن، إلى جانب وصف قفزة تاريخية في القدرات، قسمًا مخصصًا لإمكانية إساءة استخدامها لصنع قنابل أو خلط مواد كيميائية خطيرة. وبعد فترة وجيزة، وقع المئات من الباحثين والمديرين التنفيذيين في مجال الذكاء الاصطناعي، بما في ذلك شخصيات من Anthropic وGoogle DeepMind وOpenAI نفسها. رسالة مفتوحة محذراً من أن الذكاء الاصطناعي يشكل مخاطر انقراض مماثلة للحرب النووية.
ادعى العديد من المديرين التنفيذيين في مجال الذكاء الاصطناعي أنهم يريدون إشرافًا حكوميًا. كيف ستنتهي معركة إيلون ماسك القانونية الحالية مع OpenAI؟ يذكرناتأسست الشركة كمؤسسة غير ربحية على وجه التحديد لأن التكنولوجيا كانت تعتبر محفوفة بالمخاطر للغاية بحيث لا يمكن تشكيلها فقط لدافع الربح المتمثل في التحرك بسرعة وكسر الأشياء.
ومن الواضح أن هذه الشركات لا ينبغي لها أن تقمع الأخطار والمخاطر المحتملة لمنتجاتها، ولكن في مرحلة ما يتعين علينا أن نسأل أنفسنا ما إذا كان المسوقون لهذه الشركات يسمحون للخوف والدمار بتحديد علاماتهم التجارية.
على الرغم من وجود الكثير من الإعلانات المتعلقة بالذكاء الاصطناعي في بطولة Super Bowl لهذا العام، إلا أن معظمها كان واسعًا جدًا حول إمكانات الذكاء الاصطناعي (“يمكنك فقط بناء الأشياء“) لم ينتشر هذا الأمر حقًا. وفي الوقت نفسه، وعلى المستوى اليومي، لا تبدو المزايا المحددة للمستهلك التي نسمع عنها تحويلية – مثل نصوص الاجتماعات الموجزة، وروبوتات الدردشة المحسنة، والأدوات التي تسهل تصوير نفسك كبطل خارق، وما إلى ذلك.
في الوقت الذي كانت فيه شركتا OpenAI وAnthropic تحذراننا من مخاطر أدوات الأمن السيبراني الخاصة بهما، تلقيت رسالة بريد إلكتروني ترويجية من ChatGPT تقترح استخدامات تتضمن جعل أداة الدردشة “تكتب نصًا لطيفًا تطلب فيه إعادة جدولة” اجتماع. قليلا تقريبا بجنون كبيرة.
من المؤكد أن هناك قصة أكبر وأفضل، ولكن لا تزال قابلة للرواية. عادةً ما يكون وادي السيليكون جيدًا في الموازنة بين نسخة مبالغ فيها من أهميته الوجودية وبين تقديم رؤية مقنعة للمستقبل. لكن مع الذكاء الاصطناعي يبدو أن هذا التوازن معطل.
تخيل لو أصر ستيف جوبز، عند إطلاق هاتف آيفون، على احتمال أن يساعد في يوم من الأيام في تدمير مدى الاهتمام أو تقويض الديمقراطية. إن العلامات التجارية التي غيرت السلوك العام تاريخياً ــ أبل، وجوجل، وحتى نيتفليكس ــ كانت تقودها بإعجاب وليس باهتمام. لقد باعوا رؤية ذات نتائج عاطفية إيجابية، وليس روبوتات محادثة أفضل مقابل فرص لا نهاية لها. الرهبة البيئية
ومن المفترض أن شركات الذكاء الاصطناعي لديها المادة الخام لهذه القصة بالضبط. أدوات الذكاء الاصطناعي تساعد الكشف المبكر عن السرطان. باحثو جوجل ديب مايند فاز بجائزة نوبل لعام 2024 في الكيمياء للعمل باستخدام الذكاء الاصطناعي للتنبؤ بهياكل البروتين. تستخدم الشركات الناشئة الذكاء الاصطناعي لتسريع الجداول الزمنية لاكتشاف الأدوية. هذه قصص جيدة.
ومرة أخرى، لا يعني أي من هذا أنه ينبغي التقليل من مخاطر وعيوب الذكاء الاصطناعي أو عدم ملاحظتها. يمكن أن تحتوي الصناعة المعقدة والتحويلية على أكثر من حقيقة واحدة. ولكن في الوقت الحالي تبدو هذه النسبة غير متوازنة، ويبدو أن الشركات التي تتمتع بوضع أفضل لتصحيحها تحاول تحذير بعضها البعض.
ووجد استطلاع بيو أن 56% من “خبراء الذكاء الاصطناعي” يعتقدون أن التكنولوجيا سيكون لها تأثير عالمي إيجابي طويل المدى، مقارنة بـ 35% بين عامة الناس. سيكون من الحكمة أن تركز العلامات التجارية الكبرى في مجال الذكاء الاصطناعي بشكل أقل على الخوف وأكثر على مساعدة بقيتنا على رؤية ما يفعله “الخبراء”.











