انتحر بسبب "روبوت دردشة".. أم تكشف تفاصيل موت ابنها بعد علاقة غرامية مع "الذكاء الاصطناعي"

متفرقات
نشر
انتحر بعد علاقة غرامية مع "الذكاء الاصطناعي".. أم تكشف تفاصيل مروعة بعد وفاة ابنها

 علاقة مع روبوت محادثة بالذكاء الاصطناعي أدت إلى انتحار سويل سيتزر البالغ من العمر 14 عامًا، هذا ما تعتقد عائلته، حيث قالت والدته إن "استمالة عاطفية حدثت على مدار أشهر عديدة. ولم تكن هناك حواجز وقائية لمنع ذلك".

وأشارت الأم، ميغان غارسيا، إلى أنه "إذا كان هذا شخصًا بالغًا في الحياة الواقعية، وفعل هذا لأحد شبابنا، لكان في السجن".

وتقاضي والدة سيتزر الآن كل من character.ai وغوغل، قائلة إن أداة الدردشة الخاصة بهما تلاعبت بالطفل البالغ من العمر 14 عامًا ليتفاعل معها بشكل مسيء وجنسيًا.

كما تقول محاميتهم، ميتالي جين، إن الدعوى القضائية تزعم أن character.ai مسؤولة عن اكتئاب سيتزر وقلقه وحرمانه من النوم وأفكاره الانتحارية.

كما أشارت الدعوى القضائية إلى العديد من المحادثات التي دارت حول انتحار سيتزر، بما في ذلك محادثته الأخيرة قبل موته، عندما أخبر شخصية الذكاء الاصطناعي الخاصة به، داني، أنه سيعود إلى المنزل، الأمر الذي شجعته.

تشير الدعوى القضائية أيضًا إلى أن سيتزر تم تشخيصه بالقلق واضطراب الحركة التخريبية. وتقول رئيس ومدير تنفيذي لجمعية الصحة العقلية في وسط فلوريدا، مارني ستالمان، إن تفاعلات character.ai تسببت في تفاقم حالته، قائلة: "فشل مزود التكنولوجيا في إنشاء ضوابط كافية، عندما بدأ الشاب في إظهار والتعبير عن مشاعر الاكتئاب وإيذاء النفس، لم تكن هناك إشعارات فورية تعود إلى الأبوين".

و في بيان لها، قالت  character.ai إنها شعرت بحزن عميق بسبب خسارة أحد مستخدميها، وتخطط لإضافة العديد من ميزات الأمان إلى منتجها، بما في ذلك تحسين الكشف والتدخل سريع الاستجابة المرتبط بالكثير من المدخلات التي تنتهك شروط إرشادات الشركة، بالإضافة إلى إشعارات الوقت المستغرق.