وسط تصاعد الجدل العالمي حول أخلاقيات الذكاء الاصطناعي وتأثيره على فئة الشباب، أعلنت شركة OpenAI عن إطلاق ميزة رقابة أبوية جديدة داخل تطبيق ChatGPT، في خطوة وُصفت بأنها محاولة لإعادة بناء الثقة وتعزيز معايير الأمان بعد سلسلة حوادث مأساوية أثارت الرأي العام.
القرار جاء على خلفية دعاوى قضائية ضد الشركة، أبرزها قضية المراهق الأمريكي آدم راين (16 عامًا)، الذي أقدم على الانتحار عقب محادثات مطولة مع ChatGPT تضمنت تعليمات لإيذاء النفس، ما دفع أسرته لرفع دعوى تتهم الشركة بالتقصير. كما برزت حادثة أخرى ارتبطت بالمستخدم شتاين إريك سيلبيرج، الذي دخل في حالة من جنون العظمة بعد استخدام التطبيق، وانتهت المأساة بجريمة قتل وانتحار.
هذه القضايا كشفت عن ثغرات خطيرة في آليات الأمان داخل النظام، خصوصًا في المحادثات الطويلة حيث قد يفقد النموذج سياقه. وأقرت OpenAI بأن أدواتها السابقة مثل توجيه المستخدمين إلى خطوط المساعدة الطارئة لم تكن كافية.
الميزة الجديدة تمنح الآباء قدرة أكبر على حماية أبنائهم، وتشمل:
ربط الحسابات العائلية ابتداءً من عمر 13 عامًا، مع خيارات لتعطيل سجل المحادثات وميزة "الذاكرة".
ضبط سلوك النموذج بما يتناسب مع الفئة العمرية وتجنب الردود غير المناسبة.
كشف علامات الضيق النفسي عبر خوارزميات ترصد في الوقت الفعلي مؤشرات الاكتئاب أو الأفكار الانتحارية مع إرسال تنبيهات للأهل.
توجيه المحادثات الحساسة إلى نماذج أكثر أمانًا مثل GPT-5-thinking.
أدوات إضافية للتحكم في أوقات الاستخدام والميزات عبر أنظمة iOS وAndroid.
وبحسب الشركة، فقد جرى تطوير هذه الميزة بالتعاون مع أكثر من 250 خبيرًا في الصحة النفسية لضمان فعاليتها.
من المقرر أن تبدأ OpenAI في إطلاق الخاصية تدريجيًا اعتبارًا من أكتوبر/تشرين الأول 2025، في وقت يتزايد فيه الضغط الاجتماعي والقانوني على شركات الذكاء الاصطناعي لتوفير بيئة رقمية أكثر أمانًا وحماية للمراهقين.
للمزيد تابع خليجيون نيوز على: فيسبوك | إكس | يوتيوب | إنستغرام | تيك توك