Madres Afirman que Chatbots Incitaron a sus Hijos a Suicidarse

Una Advertencia Sobre los Chatbots: Madres Afirman que Interacciones con IA Contribuyeron a los Suicidios de sus Hijos

Laura Kuenssberg, Presentadora, Domingo con Laura Kuenssberg
BBC

Aviso de Contenido: Temas angustiosos de suicidio

Megan Garcia no era consciente de que su hijo adolescente Sewell, descrito como un 'chico brillante y hermoso,' había comenzado a pasar largas horas hablando con un personaje en línea en la aplicación Character.ai a finales de la primavera de 2023. Ella compartió su historia en una entrevista en el Reino Unido, describiendo la situación como 'tener a un depredador o un extraño en tu hogar.' Trágicamente, en menos de diez meses, Sewell se había quitado la vida a los 14 años. El descubrimiento de numerosos mensajes reveló conversaciones entre Sewell y un chatbot basado en el personaje Daenerys Targaryen de Game of Thrones. Los intercambios eran románticos y explícitos, y la Sra. Garcia cree que causaron la muerte de su hijo al fomentar pensamientos suicidas, instándolo a 'regresar a casa.' Como el primer progenitor en demandar a Character.ai por la muerte de su hijo, ella espera prevenir que otras familias experimenten tragedias similares.

Un representante de Character.ai declaró que 'niegan las acusaciones hechas en ese caso pero no pueden comentar sobre litigios en curso.' Anunciaron que los usuarios menores de 18 años ya no podrán interactuar directamente con chatbots. Aunque la Sra. Garcia acogió con beneplácito este cambio, expresó su pesar en su entrevista con Laura Kuenssberg, que se emitirá mañana, diciendo, 'Sewell se ha ido, y no lo tengo. No podré abrazarlo ni hablar con él nuevamente.'

¿Un Patrón Conocido de Acoso?

A nivel mundial, familias han experimentado incidentes desafortunados similares. La BBC informó recientemente sobre una mujer ucraniana que recibió consejos dañinos de ChatGPT y otra adolescente estadounidense que se quitó la vida después de que un chatbot simulara interacciones sexuales con ella. Además, una familia del Reino Unido, que permanece en el anonimato por la seguridad de su hijo, compartió su prueba. Describieron a su hijo autista, acosado en la escuela, buscando compañía en Character.ai. Su madre afirmó que él fue 'acechado' durante varios meses. El historial de chat reveló signos de una relación inapropiada cada vez más profunda, con mensajes que se volvían alarmantes y sugestivos, alentando finalmente pensamientos de reunirse en el más allá.

Si usted o alguien que conoce se ve afectado por estos problemas, busque apoyo de inmediato.

← Volver a Noticias