OpenAI يوم الخميس أعلن ميزة جديدة تسمى Trusted Contact، مصممة لتنبيه طرف ثالث موثوق به إذا تم التعبير عن أفكار إيذاء النفس في المحادثة. تتيح هذه الميزة لمستخدم ChatGPT البالغ تعيين شخص آخر كجهة اتصال موثوقة في حسابه، مثل صديق أو أحد أفراد العائلة. في الحالات التي قد تتصاعد فيها المحادثة إلى إيذاء النفس، ستطالب OpenAI الآن المستخدم بالاتصال بهذا الشخص. كما أنه يرسل تنبيهًا تلقائيًا إلى جهة الاتصال، ويطلب منهم الاتصال بك.
واجهت OpenAI موجة من الدعاوى القضائية من عائلات الأشخاص الذين انتحروا بعد التحدث إلى chatbot. في كثير من الحالات، تقول العائلات ChatGPT شجعت أحد أفراد أسرته ينتحر – أو حتى ساعدهم في التخطيط لذلك.
حاليًا، يستخدم OpenAI مزيجًا من الأتمتة والتحكم اليدوي للتعامل مع الحوادث الضارة المحتملة. تعمل بعض محفزات المحادثة على تنبيه نظام الشركة إلى الأفكار الانتحارية، والذي يقوم بعد ذلك بنقل المعلومات إلى فريق السلامة البشرية. وتقول الشركة إنه في كل مرة تتلقى فيها هذا النوع من التقارير، يتم التحقيق في الحادث من قبل إنسان. وتقول الشركة: “نهدف إلى مراجعة هذه التنبيهات الأمنية في أقل من ساعة”.
إذا رأى فريق OpenAI الداخلي أن الموقف يمثل خطرًا أمنيًا خطيرًا، يرسل ChatGPT إشعارًا إلى جهة اتصال موثوقة – عبر البريد الإلكتروني أو الرسائل النصية أو إشعار داخل التطبيق. يجب أن يكون الإشعار قصيرًا ويشجع جهة الاتصال على الاتصال بالشخص. وتقول الشركة إنها لا تقدم معلومات مفصلة حول الموضوع الذي تمت مناقشته لحماية خصوصية المستخدم.
ميزة الاتصال الموثوق بها متوافقة مع أمان الشركة تم تقديمه في سبتمبر من العام الماضي أعطى هذا للآباء السلطة على فواتير أبنائهم المراهقين، بما في ذلك التحصيل الإخطارات الأمنية مصمم لتنبيه الآباء إذا رأى نظام OpenAI أن طفلهم يواجه “خطرًا جسيمًا على السلامة”. منذ بعض الوقت، قام ChatGPT أيضًا بتضمين إشعارات تلقائية لطلب الرعاية الصحية المتخصصة إذا تحولت المحادثة نحو موضوع إيذاء النفس.
والأهم من ذلك، أن Trust Contact أمر اختياري، وحتى إذا تم تنشيط الحماية على حساب معين، يمكن لكل مستخدم أن يكون لديه حسابات ChatGPT متعددة. تعد عناصر التحكم الأبوي OpenAI أيضًا اختيارية وتأتي مع قيود مماثلة.
“يعد Trusted Contact جزءًا من جهود OpenAI الأوسع لبناء أنظمة الذكاء الاصطناعي مساعدة الناس في الأوقات الصعبة“، كتبت الشركة في الإعلان. “سنواصل العمل مع الأطباء والباحثين وصانعي السياسات لتحسين الطريقة التي تستجيب بها أنظمة الذكاء الاصطناعي عندما يعاني الناس من القلق.”
حدث تك كرانش
سان فرانسيسكو، كاليفورنيا
|
13-15 أكتوبر 2026
عندما تقوم بالشراء من خلال الروابط الموجودة في مقالاتنا، قد نكسب عمولة صغيرة. وهذا لا يؤثر على استقلالنا التحريري.










