شركة Character.AI تمنع القُصّر من استخدام روبوتات الدردشة بسبب مخاوف الأمان
أعلنت شركة Character Technologies، المالكة لتطبيق Character.AI، عن قرار بمنع القُصّر من استخدام روبوتات الدردشة الخاصة بها، وسط تزايد المخاوف بشأن التأثير النفسي للمحادثات بالذكاء الاصطناعي على الأطفال والمراهقين.
دعاوى قضائية تثير مخاوف الشركة
تواجه الشركة عدة دعاوى قضائية تتعلق بحماية الأطفال، من بينها دعوى رفعتها أم تقول إن روبوتات الدردشة دفعت ابنها المراهق إلى الانتحار، وأكدت الشركة أن المستخدمين دون سن 18 عامًا لن يتمكنوا من إجراء محادثات مفتوحة مع روبوتات الدردشة، مع تحديد حد أقصى لاستخدام الروبوت لمدة ساعتين ابتداءً من 25 نوفمبر، وفقًا لما نقلته قناة "يورونيوز".
روبوتات الدردشة وأنشطة تفاعلية متنوعة
يتيح تطبيق Character.AI للمستخدمين إنشاء شخصيات قابلة للتخصيص والتفاعل معها بطريقة واقعية، لأغراض مختلفة مثل لعب الألعاب أو التدرب على مقابلات عمل وهمية، مما يزيد من جاذبية التطبيق لدى المراهقين.
التحقق من العمر والتحديات المرتبطة به
ستطرح الشركة ميزات للتحقق من العمر لضمان عدم وصول الأطفال دون 18 عامًا إلى روبوتات الدردشة. لكن هذه الإجراءات ليست مثالية، حيث يمكن للأطفال التحايل عليها بسهولة. على سبيل المثال، عمليات مسح الوجه لا تفرق دائمًا بين من عمره 17 و18 عامًا، كما أن تحميل بطاقة هوية رسمية يثير مخاوف حول الخصوصية.
ميزات جديدة للأطفال وتطوير مختبر الأمان
أعلنت Character.AI أنها تعمل على ميزات جديدة للأطفال، مثل إنشاء مقاطع فيديو وقصص وبث مباشر باستخدام شخصيات الذكاء الاصطناعي، بالإضافة إلى إنشاء مختبر أمان للذكاء الاصطناعي.
ورغم ذلك، عبّرت ميتالي جين، المديرة التنفيذية لمشروع قانون العدالة التقنية، عن قلقها من أن القرار لا يزال يترك أسئلة مهمة دون إجابة، مثل كيفية حماية الخصوصية وكيفية معالجة التأثير النفسي لتعطيل وصول الشباب فجأة، فضلًا عن استمرار سمات التصميم التي تعزز التبعية العاطفية لدى المستخدمين.
إحصاءات استخدام الذكاء الاصطناعي بين المراهقين
أظهرت دراسة حديثة لمجموعة Common Sense Media أن أكثر من 70% من المراهقين استخدموا المساعدين الشخصيين للذكاء الاصطناعي، ونصفهم يستخدمونها بشكل منتظم، مما يعكس انتشار استخدام تقنيات الذكاء الاصطناعي بين الشباب وتأثيرها المحتمل على صحتهم النفسية.


