الرئيس التنفيذي لشركة ميتا مارك زوكربيرج يغادر المحكمة الفيدرالية في وسط مدينة لوس أنجلوس بعد الدفاع عن الشركة في محاكمة تاريخية لإدمان وسائل التواصل الاجتماعي في 19 فبراير 2026 في لوس أنجلوس بالولايات المتحدة.
صور جون بوتمان الأناضول جيتي
قبل عقد من الزمن، ميتا – التي كانت تعرف آنذاك باسم فيسبوك – وظفت باحثين في العلوم الاجتماعية لتحليل كيفية تأثير خدمات الشبكة الاجتماعية على المستخدمين. وكانت هذه وسيلة للشركة وأقرانها لإظهار أنهم جادون في فهم الفوائد والمخاطر المحتملة لابتكاراتهم.
ولكن كما أظهرت خسائر محكمة ماتر هذا الأسبوع، فإن عمل الباحثين قد يصبح عائقًا. وقال بريان بولاند، وهو مسؤول تنفيذي سابق في فيسبوك والذي أدلى بشهادته في كلتا المحاكمتين – واحدة في نيو مكسيكو والأخرى في لوس أنجلوس – إن النتائج الدامغة التي توصلت إليها الأبحاث والوثائق الداخلية لشركة ميتا تتناقض على ما يبدو مع الطريقة التي صورت بها الشركة نفسها علنًا. في محاكمتين، قررت هيئة المحلفين أن شركة Meta لم تقم بمراقبة موقعها بشكل كافٍ، مما يعرض الأطفال للأذى.
بدأت شركة مارك زوكربيرج في تضييق الخناق على فرقها البحثية قبل بضع سنوات بعد أن أصبح الباحث في فيسبوك فرانسيس هوجن من المخبرين البارزين. وفي وقت لاحق، استثمرت مجموعة جديدة من شركات التكنولوجيا مثل OpenAI وAnthropic بكثافة في الباحثين وكلفتهم بدراسة تأثير الذكاء الاصطناعي الحديث على المستخدمين ونشر نتائجهم.
وبما أن الذكاء الاصطناعي يحظى الآن باهتمام متزايد بسبب آثاره الضارة على بعض المستخدمين، فيجب على هذه المنظمات أن تتساءل عما إذا كان من مصلحتها الاستمرار في تمويل الأبحاث أو قمعها.
وقال بولاند في مقابلة: “كان هناك وقت تم فيه تشكيل فرق داخليًا يمكنها البدء في النظر إلى الأشياء، ولفترة قصيرة، كان لديك بعض الباحثين المتميزين تمامًا الذين كانوا ينظرون إلى ما يحدث في هذه المنتجات بحرية أكبر قليلاً مما أفهمه اليوم”.
ركزت هزيمتا Meta هذا الأسبوع على مجالات مختلفة، لكن كان لهما موضوع مشترك: لم تشارك الشركة مع عامة الناس ما تعرفه عن تلف منتجها.
كان على أعضاء لجنة التحكيم تقييم الملايين من وثائق الشركة، بما في ذلك رسائل البريد الإلكتروني التنفيذية والعروض التقديمية والأبحاث الداخلية التي أجراها موظفو شركة Mater. تتضمن الوثائق استطلاعات داخلية تظهر أن نسبة من المستخدمين المراهقين تلقوا تحرشات جنسية غير مرغوب فيها على إنستغرام. كان هناك أيضًا بحث، أوقفته ميتا في النهاية، أظهر أن الأشخاص الذين توقفوا عن استخدام فيسبوك أصبحوا أقل اكتئابًا وقلقًا.
لم يعتمد محامو المدعين في القضية على الأبحاث الداخلية لبناء حججهم فحسب، بل ساعدت هذه الدراسات في تعزيز موقفهم بشأن جرائم مات المزعومة. جادل فريق الدفاع في ميتا بأن بعض الدراسات كانت قديمة، وتم إخراجها من سياقها ومضللة، وتقدم وجهة نظر خاطئة حول كيفية عمل الشركة وكيف تنظر إلى الأمن.
“وجهان للقصة”
وقال بولاند: “لقد استمعت هيئة المحلفين إلى جانبي القصة وعرضًا عادلاً للغاية للحقائق وكان عليها اتخاذ قرار بناءً على ما رأوه”. “وعادت هيئة المحلفين، في قضيتين مختلفتين للغاية، بأحكام واضحة.”
وقالت شركة ميتا ويوتيوب التابعة لشركة جوجل، والتي كانت أيضًا مدعى عليها في محاكمة لوس أنجلوس، إنهما ستستأنفان الحكم.
وقالت ليزا ستروهمان، عالمة النفس والمحامية التي عملت كمستشارة خبيرة من الداخل في قضية نيو مكسيكو، إن ميتا والقادة في صناعة التكنولوجيا ربما اعتقدوا أن بإمكانهم استخدام الأبحاث الداخلية لصالحهم، وكسب تأييد الجمهور.
وقال سترومان: “أعتقد أن ما فشلوا في إدراكه هو أن الباحثين هم آباء وأفراد من الأسرة”. “وأعتقد أن ما فشلوا في إدراكه هو أن هؤلاء الأشخاص لن يتم شراؤهم”.
وبغض النظر عن ذلك، توقع المسؤولون التنفيذيون في مجال العلاقات العامة حدوث نتائج عكسية عندما بدأ البحث في الانتشار إلى الجمهور. الحدث الأكثر ضررًا لـ Meta حدث في عام 2021، عندما تحول Haugen، مدير منتج سابق في Facebook، إلى مُبلغ عن المخالفات، وقد قام الكثيرون بتسريب وثائق تشير إلى أن الشركة كانت على علم بالضرر المحتمل الذي قد يلحق بمنتجاتها.
فرانسيس هاوجين، الموظفة السابقة في فيسبوك، تتحدث خلال جلسة استماع للجنة الفرعية للطاقة والتجارة المعنية بالاتصالات والتكنولوجيا في الكابيتول هيل في 1 ديسمبر 2021 في واشنطن العاصمة.
بريندان سميالوفسكي أ ف ب | صور جيتي
وقالت كيت بلوكير، مديرة الأبحاث والبرامج في منظمة الأطفال والشاشات غير الربحية: معهد الوسائط الرقمية وتنمية الطفل، إن “ما كشف عنه هوجن كان بمثابة نقطة تحول مهمة على مستوى العالم – ليس فقط للشركات ولكن للباحثين وصانعي السياسات والجمهور بشكل عام.”
أدت التسريبات إلى تغييرات كبيرة في صناعة المعلومات والتكنولوجيا، والتي بدأت في التخلص من الأبحاث التي يمكن اعتبارها غير مواتية للشركات. ذكرت CNBC سابقًا أنه تم قطع العديد من الفرق التي تدرس الأضرار المزعومة والمشكلات ذات الصلة.
بدأت بعض الشركات أيضًا في إزالة أدوات وميزات معينة من خدماتها استخدمها باحثون خارجيون لدراسة منصاتهم.
وقال بلوكر: “قد تنظر الشركات إلى الأبحاث الجارية باعتبارها مسؤولية الآن، ولكن يجب دعم أبحاث الطرف الثالث المستقلة”.
وقال ساشا هاوورث، المدير التنفيذي لمشروع مراقبة التكنولوجيا، إن الكثير من الأبحاث الداخلية المستخدمة في محاكمة هذا الأسبوع لم تتضمن اكتشافات جديدة، والعديد من الوثائق تم الكشف عنها سابقًا من قبل مبلغين آخرين عن المخالفات. يقول هوارث إن ما أضافته التجارب هو “الكثير من رسائل البريد الإلكتروني، والكثير من الصوت، والكثير من لقطات الشاشة، وعروض التسويق الداخلية، والمذكرات” التي توفر السياق اللازم.
مع توجه صناعة التكنولوجيا الآن بقوة نحو الذكاء الاصطناعي، فإن شركات مثل Meta وOpenAI وGoogle تعطي الأولوية للمنتجات على البحث والأمن. إنه اتجاه يثير قلق بلوكر، الذي قال: “كما هو الحال مع وسائل التواصل الاجتماعي من قبلها، هناك رؤية عامة محدودة لما تدرسه شركات الذكاء الاصطناعي حول منتجاتها”.
وقال بلوكر: “يبدو أن شركات الذكاء الاصطناعي تدرس في الغالب النماذج نفسها – سلوك النموذج، وقابلية تفسير النموذج، ومواءمته – ولكن هناك فجوة كبيرة في الأبحاث حول تأثير برامج الدردشة الآلية والمساعدين الرقميين على نمو الطفل”. “لدى شركات الذكاء الاصطناعي فرصة لعدم تكرار أخطاء الماضي – نحن بحاجة ماسة إلى إنشاء تدابير الشفافية والوصول التي تسمح لهذه الشركات بمشاركة ما تعرفه عن منصاتها مع الجمهور ودعم المزيد من التقييم المستقل.”
يرى: الضغط التنظيمي الذي يجب اتباعه بعد صدور حكم تاريخي على وسائل التواصل الاجتماعي











