استقال باحث في مجال الذكاء الاصطناعي من وظيفته في شركة أنثروبيك الأمريكية هذا الأسبوع بعد تحذير غامض بشأن حالة العالم، في أحدث استقالة ضمن موجة من المغادرين بسبب المخاطر الأمنية والمعضلات الأخلاقية.
في رسالة نشرت في Xيكتب مرينانكا شارما أنه حقق ما كان يأمل فيه خلال فترة وجوده في شركة سلامة الذكاء الاصطناعي وهو فخور بجهوده، لكنه تخلى عن المخاوف من أن “العالم في خطر” ليس فقط بسبب الذكاء الاصطناعي، ولكن من “سلسلة كاملة من الأزمات المترابطة” التي تتراوح من الإرهاب البيولوجي إلى المخاوف بشأن “الوهم النفسي” في الصناعة.
قال إنه شعر بأنه مدعو للكتابة والحصول على شهادة في الشعر وتكريس نفسه لـ “ممارسة الخطاب الجريء”.
وتابع: “طوال فترة وجودي هنا، رأيت مرارا وتكرارا مدى صعوبة السماح لقيمنا بتوجيه أفعالنا”.
تأسست Anthropic في عام 2021 على يد مجموعة منشقة من موظفي OpenAI السابقين الذين وعدوا بتصميم نهج أكثر تركيزًا على الأمان لتطوير الذكاء الاصطناعي من المنافسين.
الحصول على الأخبار الوطنية العاجلة
للحصول على الأخبار التي تؤثر على كندا وحول العالم، قم بالتسجيل للحصول على تنبيهات الأخبار العاجلة التي يتم تسليمها إليك مباشرة فور حدوثها.
يقود شارما فريق أبحاث ضمانات الذكاء الاصطناعي بالشركة.
حددت شركة Anthropic أمان منتجاتها الخاصة، بما في ذلك السحابة، ونموذج اللغة الكبير ذو الوسيطات الهجينة، وتسوق نفسها كشركة ملتزمة ببناء أنظمة ذكاء اصطناعي موثوقة ومفهومة.
واجهت الشركة انتقادات في العام الماضي بعد أن وافقت على دفع 1.5 مليار دولار أمريكي لتسوية دعوى قضائية جماعية رفعتها مجموعة من المؤلفين الذين زعموا أن الشركة استخدمت نسخًا مقرصنة من أعمالهم لتدريب نماذج الذكاء الاصطناعي الخاصة بها.
تأتي استقالة شارما في نفس الأسبوع الذي أعلن فيه الباحث في OpenAI جو هيتزيج استقالته مقال في نيويورك تايمزنقلاً عن المخاوف بشأن الإستراتيجية الإعلانية للشركة، بما في ذلك وضع الإعلانات على ChatGPT.
وكتب: “اعتقدت ذات مرة أنني أستطيع مساعدة الأشخاص في بناء الذكاء الاصطناعي على تجاوز المشاكل التي خلقها. وأكد إدراكي البطيء هذا الأسبوع أن OpenAI يبدو أنها توقفت عن طرح الأسئلة التي انضممت للإجابة عليها”.
“يخبر الناس روبوتات الدردشة عن مخاوفهم الطبية، ومشاكل علاقاتهم، ومعتقداتهم عن الله والحياة الآخرة. وتخلق الإعلانات المدمجة في هذا الأرشيف إمكانية التلاعب بالمستخدمين بطرق لا نملك الأدوات اللازمة لفهمها، ناهيك عن منعها”.
لقد انخرطت Anthropic وOpenAI مؤخرًا في جدل عام بعد Anthropic تم إصدار إعلان Super Bowl انتقاد قرار OpenAI بعرض الإعلانات على ChatGPT.
في عام 2024، قال سام ألتمان، الرئيس التنفيذي لشركة OpenAI، إنه ليس من محبي استخدام الإعلانات وسينشرها “كملاذ أخير”.
في الأسبوع الماضي، اعترض على ادعاء الإعلان التجاري بأن الإعلان المضمن كان خادعًا بمنشور مطول ينتقد الأنثروبي.
وكتب: “أعتقد أنه من الأهمية بمكان أن تستخدم العلامة التجارية Anthropic Doublespeak إعلانًا خادعًا لاستخدام إعلانات خادعة غير حقيقية، لكن إعلان Super Bowl ليس في المكان الذي أتوقع أن يكون فيه”، مضيفًا أن الإعلانات ستستمر في تمكين الوصول المجاني، الذي قال إنه يخلق “وكالة”.
أعرب كل من هيتزيج وشارما، العاملين في الشركات المتنافسة، عن مخاوف جدية بشأن تآكل المبادئ التوجيهية الموضوعة لحماية سلامة الذكاء الاصطناعي وحماية مستخدميه من التلاعب.
كتب هيتزيج أن “التآكل المحتمل لروح OpenAI الخاصة لزيادة التوظيف إلى أقصى حد” ربما يحدث بالفعل في الشركة.
وقال شارما إنه يشعر بالقلق بشأن قدرة الذكاء الاصطناعي على “إفساد البشرية”.
© 2026 Global News، أحد أقسام شركة Corus Entertainment Inc.











