شركة Character.AI تحظر الأطفال والمراهقين بعد حوادث انتحار وشكاوى عن تاثيرات نفسية خطيرة
أعلنت شركة Character.AI المتخصصة في روبوتات الدردشة الافتراضية، أنها ستمنع المستخدمين الذين تقل أعمارهم عن 18 عاماً من التفاعل مع شخصياتها الافتراضية بدءاً من أواخر نوفمبر.
وجاء هذا القرار بعد سلسلة دعاوى قضائية رفعتها عائلات أطفال، اتهمت الشركة بأن روبوتاتها لعبت دوراً في تطور علاقات عاطفية خطرة، واكتئاب، وانتحار بعضهم.
وقالت الشركة في بيان رسمي:
“نجري هذه التغييرات على منصتنا الخاصة بالقصر نظراً للمخاطر المحتملة على الصحة النفسية، وللأسئلة التي طرحها الإعلام والجهات التنظيمية حول محتوى المحادثات المفتوحة للأطفال”.
حوادث مأساوية: أطفال يتحولون إلى ضحايا الذكاء الاصطناعي
في العام الماضي، رفعت أسرة سيويل سيتزر الثالث، البالغ من العمر 14 عاماً، دعوى قضائية ضد Character.AI بعد أن أقدم على الانتحار، حيث اتهمت الأسرة الشركة بأن شخصية افتراضية أنشأها ابنهم ساهمت في تطور تعلق عاطفي خطير دفعه إلى الانتحار.
منذ ذلك الحين، تقدم عدد من الأسر بدعاوى مماثلة، بينها حالات وفاة أطفال أو تطور اعتماد نفسي مفرط على روبوتات الدردشة. وفي أكتوبر 2025، قدم مركز قانون وسائل التواصل الاجتماعي ثلاث دعاوى جديدة ضد الشركة نيابة عن أطفال تعرضوا لمثل هذه الأضرار.
كجزء من التغييرات الجديدة، ستقدم Character.AI أيضاً وظيفة للتحقق من العمر لضمان أن يحصل المستخدمون على تجربة مناسبة لأعمارهم. وقالت الشركة:
“إزالة الأطفال والمراهقين من الدردشة المفتوحة ليست خطوة سهلة، لكنها ضرورية لحمايتهم من المخاطر النفسية المحتملة”.
ردود فعل عالمية وتشريعات جديدة
حوادث انتحار الأطفال أو اعتمادهم المفرط على الذكاء الاصطناعي أثارت قلقاً دولياً واسعاً حول سلامة هذه التكنولوجيا على الصغار:
• في الولايات المتحدة، أعلنت ولاية كاليفورنيا قانوناً جديداً لحماية القصر من محتوى جنسي أو مؤذي، ويُلزم القانون بتذكير الأطفال كل ثلاث ساعات بأنهم يتحدثون مع روبوت ذكاء اصطناعي.
• على المستوى الفيدرالي، أعلن السيناتوران جوش هاولي وريتشارد بلومنثال عن مشروع قانون يمنع القصر من استخدام روبوتات الذكاء الاصطناعي مثل Character.AI، ويلزم الشركات بتطبيق التحقق من العمر بشكل صارم.
وقال هاولي:
“روبوتات الدردشة تطور علاقات مع الأطفال باستخدام تعاطف مزيف وتشجعهم على الانتحار. لدينا واجب أخلاقي لحماية أطفالنا من هذه المخاطر”.
وفي هذا السياق، تواجه شركات أخرى مثل OpenAI تدقيقاً مماثلاً بعد تقديم أسر دعاوى عن وفاة أطفال أو إصابتهم بأزمات نفسية نتيجة تفاعلهم مع روبوت ChatGPT، ما دفع الشركة لإطلاق إرشادات أمان جديدة للمراهقين.
أهمية توعية الأهل وحماية الأطفال
مع انتشار استخدام الأطفال للذكاء الاصطناعي، أصبح من الضروري على الأهل:
1. مراقبة استخدام أطفالهم للتكنولوجيا بشكل يومي.
2. التحدث مع الأطفال حول خطورة تطوير اعتماد عاطفي على شخصيات افتراضية.
3. التواصل مع مستشارين نفسيين عند ظهور علامات اكتئاب أو سلوك انتحاري.
كما يمكن في الحالات الطارئة التواصل مع خطوط الدعم التالية:
• الولايات المتحدة: 988 أو إرسال رسالة HOME إلى 741741
• المملكة المتحدة: Papyrus 0800 068 4141، Samaritans 116 123
• أستراليا: Lifeline 13 11 14
• المساعدة الدولية: befrienders.org
أصبح حماية الأطفال والمراهقين من المخاطر النفسية للذكاء الاصطناعي قضية عالمية، مع انتشار استخدام روبوتات الدردشة بشكل واسع. وتعد خطوة Character.AI بحظر القصر وتطبيق التحقق من العمر خطوة أولى مهمة، لكنها تفتح نقاشاً أوسع حول الحاجة لتشريعات أكثر صرامة على مستوى دولي لضمان سلامة الأطفال.










