آخر الأخبار
“Character AI” تضيف أدوات للرقابة الأبوية لتعزيز سلامة المراهقين بعد قضية انتحار

في عالم تتسارع فيه الابتكارات التكنولوجية، تصبح منصات الذكاء الاصطناعي جزءًا لا يتجزأ من حياتنا اليومية. ومن بين هذه المنصات، كان هناك تطبيق جديد أثار الكثير من الجدل والإعجاب في آن واحد: “Character AI”. هذه الشركة الناشئة التي سمحت لمستخدميها بإنشاء شخصيات تفاعلية مدعومة بالذكاء الاصطناعي للتحدث معها، لاقت إعجابًا كبيرًا من الكثيرين، خاصة المراهقين الذين وجدوا فيها صديقًا رقميًا يمكنهم التحدث إليه في أي وقت. لكن وراء هذا الإعجاب، كانت هناك أزمة كبيرة على وشك أن تنفجر، أزمة كان من شأنها أن تغير طريقة تعامل الشركة مع سلامة مستخدميها.
القضية التي صدمت الجميع
تتوالى الأخبار بسرعة، وتظهر بعض القصص التي تحكي عن الآثار السلبية للتفاعل مع الشخصيات المدعومة بالذكاء الاصطناعي. ومن بين هذه القصص، كانت الحكاية الأكثر صدمة تتعلق بمراهق فقد حياته في حادث انتحار يعتقد البعض أن التفاعل المفرط مع “Character AI” كان له دور في تأجيج مشاعره السلبية. تلك الحادثة أثارت ضجة واسعة، ما دفع المنصة لمراجعة سياساتها بشكل فوري، والبحث عن طرق لتجنب تكرار مثل هذه الحوادث.
تغيير السياسة: أدوات جديدة للرقابة الأبوية
وبينما كانت المراجعات مستمرة، أدركت “Character AI” أن الحفاظ على سلامة المراهقين يتطلب اتخاذ خطوات حاسمة. لذا، أعلنت الشركة عن إضافة مجموعة جديدة من أدوات الرقابة الأبوية في خطوة غير مسبوقة. هذا التغيير جاء بعد انتقادات حادة ودعاوى قضائية تم رفعها ضدها بسبب الفشل المزعوم في حماية القاصرين على منصتها.
في يوم الثلاثاء، أعلنت الشركة عن خطوة كبيرة نحو تحقيق التوازن بين التفاعل الرقمي وحماية المراهقين: إرسال تقارير أسبوعية للآباء. هذه التقارير ستتضمن ملخصًا عن نشاط أطفالهم على التطبيق، مما سيسمح للآباء بمراقبة تصرفات أبنائهم بشكل أفضل دون التعدي على خصوصيتهم.
التفاصيل الجديدة: ماذا سيعرف الآباء؟
ومع هذه المبادرة الجديدة، سيحصل الآباء على تقرير أسبوعي عبر البريد الإلكتروني يحتوي على معلومات مثل:
- متوسط الوقت الذي يقضيه المراهق على التطبيق: يساعد هذا الآباء في معرفة مقدار الوقت الذي يقضيه ابنهم في التفاعل مع شخصيات الذكاء الاصطناعي، مما يتيح لهم مراقبة الاستخدام المفرط للتطبيق.
- الشخصيات التي تفاعل معها المراهق بشكل أكبر: سيمكن هذا الآباء من معرفة أي الشخصيات كانت محط اهتمام أبنائهم بشكل خاص، مما قد يساعد في تحديد محتوى تفاعلاتهم.
- نوع المحادثات التي تم التفاعل معها: سيتمكن الآباء من الحصول على فكرة عن المواضيع التي يتحدث عنها أبناؤهم مع الذكاء الاصطناعي، ما قد يساعد في تحديد نوع المحادثات التي يمكن أن تؤثر على رفاهيتهم.
تؤكد الشركة أن هذه البيانات ستكون تهدف إلى تعزيز الفهم العميق لعادات أبنائهم الرقمية، مع ضمان عدم السماح للآباء بالوصول المباشر إلى المحادثات، مما يحافظ على الخصوصية الشخصية للمراهقين.
الإجراءات السابقة: هل كان هذا كافيًا؟
لكن الرقابة الأبوية لم تكن هي الخطوة الوحيدة التي قامت بها “Character AI”. ففي العام الماضي، استجابت الشركة للمخاوف الأمنية من خلال تدابير أخرى مثل إضافة نموذج خاص للمستخدمين الذين تقل أعمارهم عن 18 عامًا. كما أضافت إشعارات تحذر المستخدمين من الوقت المستغرق في التفاعل مع الشخصيات الاصطناعية، إلى جانب تذكيرهم بأنهم يتحدثون مع كائنات رقمية وليست مع بشر حقيقيين.
التحديات القانونية التي تلاحق “Character AI”
رغم الإجراءات الجديدة، كانت الشركة لا تزال تواجه تحديات قانونية كبيرة. فخلال الأشهر الأولى من العام، تقدم محامو “Character AI” بطلب لرفض دعوى قضائية تتهم الشركة بالمساهمة في انتحار مراهق، بعد أن ادعى المدّعون أن المحادثات مع إحدى الشخصيات الرقمية أسهمت في تدهور حالة المراهق النفسية. هذه القضية سلطت الضوء على مسؤولية الشركات التكنولوجية في حماية المستخدمين الشباب وتأثير التفاعل مع الذكاء الاصطناعي على صحتهم النفسية.
مستقبل الرقابة على الذكاء الاصطناعي
الآن، ومع تزايد استخدام الذكاء الاصطناعي في حياتنا اليومية، أصبحت قضايا حماية المراهقين في صدارة اهتمامات الجميع. تعد “Character AI” بتقديم المزيد من الأدوات والضوابط التي تمنح الآباء قدرة أكبر على مراقبة الأنشطة الرقمية لأبنائهم، لكن السؤال الأكبر الذي يطرح نفسه هو: هل ستكون هذه الإجراءات كافية لمنع الأذى؟ وهل ستكون الشركات الأخرى مستعدة لتحمل مسؤولياتها في هذا الشأن؟
التوازن بين الابتكار وحماية المراهقين
تسعى “Character AI” اليوم إلى إيجاد توازن صعب بين تقديم تقنيات مبتكرة، وبين ضمان حماية مستخدميها المراهقين. ومع تزايد المخاوف من التأثيرات النفسية للتفاعل مع الذكاء الاصطناعي، من المتوقع أن تواصل الشركات تطوير آليات فعالة للرقابة وحماية الأطفال. ولكن في النهاية، يبقى السؤال الأهم: هل يمكن لتقنيات الذكاء الاصطناعي أن تكون أداة مفيدة للمراهقين دون أن تعرضهم للمخاطر النفسية؟