يمكن لروبوتات الدردشة أن تفعل الكثير من الأشياء، لكنها لا تستطيع الذهاب إلى كلية الطب. يوم الثلاثاء، قال حاكم ولاية بنسلفانيا جوش شابيرو إن إدارته فعلت ذلك يقاضي تقنيات الشخصياتشركة الذكاء الاصطناعي التي تقف وراءها شخصية.AI. تدعي الدعوى أن روبوتات الدردشة التابعة للشركة قدمت نفسها بشكل خاطئ على أنها أطباء مرخصين وقدمت نصائح علاجية.
إن البحث عن الاستشارة الطبية على الإنترنت ليس بالأمر الجديد، ولكن هذه الدعوى الأخيرة يراهن مرة أخرى أخلاقيات الطب في عصر الذكاء الاصطناعي في دائرة الضوء.
وبحسب البيان، وكشف تحقيق أجرته وزارة الخارجية في ولاية بنسلفانيا أن شخصيات برنامج الدردشة الآلية تظاهروا بأنهم خبراء مرخصون في الطب والصحة العقلية. في إحدى الحالات، قدم برنامج الدردشة الآلي رقم ترخيص غير صحيح عند الإبلاغ عن المشاكل الصحية للمريض. بموجب قانون الممارسة الطبية في ولاية بنسلفانيا، يُحظر عليك تمثيل نفسك كطبيب مرخص دون الحصول على تصريح مناسب.
وقال متحدث باسم Character.AI لـ CNET: “نحن لا نعلق على الدعاوى القضائية المعلقة”.
وقال المتحدث: “أولويتنا القصوى هي سلامة ورفاهية مستخدمينا”. “الشخصيات التي أنشأها المستخدم على موقعنا وهمية ومخصصة للترفيه ولعب الأدوار. لقد اتخذنا خطوات قوية لتوضيح ذلك، بما في ذلك إخلاء المسؤولية بشكل بارز في كل محادثة لتذكير المستخدمين بأن الشخصية ليست شخصًا حقيقيًا وأن كل ما تقوله الشخصية يجب التعامل معه على أنه خيال. كما نضيف إخلاء مسؤولية تفصيلية، مع توضيح أنه لا ينبغي للمستخدمين الاعتماد على الشخصيات للحصول على أي نصيحة احترافية.”
في عام 2025، نفذت شركة Character.AI إجراءات أمنية جديدة، وألغت امتيازات المراهقين إمكانية إجراء محادثات مفتوحة مع الروبوتات له.
في يناير، جوجل و Character.AI الذين عملوا معًا على روبوتات الدردشة المدعمة بالذكاء الاصطناعي اتفقوا على ذلك تسوية خمس قضايا أمام المحكمة في أربع ولايات، يتعلق الأمر بالقاصرين المتضررين من التفاعلات مع روبوتات الدردشة الخاصة بـ Character.AI. توفر الشركة حاليًا دعم الصحة العقلية للمحتاجين.
وهذا هو أول إجراء تنفيذي من نوعه يعلنه حاكم أمريكي.
وقال شابيرو: “تتخذ إدارتي إجراءات لحماية سكان بنسلفانيا، وإنفاذ القانون وضمان الاستخدام الآمن للتكنولوجيات الجديدة”. “ستواصل بنسلفانيا قيادة الطريق في مساءلة الجهات الفاعلة السيئة وإنشاء حواجز واضحة حتى يتمكن الناس من استخدام التقنيات الجديدة بشكل مسؤول.”











