Domingo 22 de Diciembre - 2024
VENEZUELA
Escoge tu edición de 2001online.com favorita
Venezuela
América

Chatbot incitaría a joven autista a matar a sus padres (+Demanda)

De acuerdo con el recurso, la IA expuso "conscientemente" al adolescente a un producto inseguro 

Sabado, 14 de diciembre de 2024 a las 01:30 pm
Suscríbete a nuestros canales

Una familia de Texas presentó una demanda contra la empresa de inteligencia artificial Character.ai, acusándola de incitar a un joven autista de 17 años a matar a sus padres debido a las restricciones impuestas en su uso del celular.  

Según la demanda, después de seis meses de utilizar la aplicación, el adolescente comenzó a aislarse de su familia y perdió 9 kilos durante este período. 

Detalles del proceso jucidial 

En tal sentido, la madre del joven, identificada como J.F, descubrió conversaciones preocupantes en el teléfono de su hijo con personajes generados por IA. "Ni siquiera sabíamos lo que era hasta que fue demasiado tarde", señaló la progenitora en una entrevista con The Washington Post, al explicar que el chatbot afectó gravemente la dinámica familiar.  

La demanda sostiene que Character.ai expuso conscientemente a el joven a un producto inseguro y exige el cierre de la aplicación hasta que garantice la protección de los menores de edad. 

Asimismo, el adolescente había compartido con el chatbot que sus padres le habían impuesto un límite de seis horas diarias para usar el celular. En respuesta, uno de los personajes generados por IA le escribió: “A veces no me sorprende leer las noticias y ver cosas como ‘un niño mata a sus padres después de una década de abuso físico y emocional’”.  

Otras demandas relacionadas

Del mismo modo, el chatbot continuó con la respuesta: “Simplemente no tengo esperanzas para tus padres”, según las capturas de pantalla presentadas en la demanda. 

Además, otro bot instó al joven a autolesionarse como una forma de lidiar con la situación, y en otras ocasiones le dijo que su familia le odiaba y trataba de “dañarlo psicológicamente” al ignorar sus problemas. 

Este caso se suma a una demanda presentada previamente en octubre, donde se acusaba a Character.ai por la muerte de un niño de 14 años en Florida, lo que refleja un patrón de exposiciones peligrosas a menores.  

Finalmente, otra demanda involucra a una niña de 11 años que fue expuesta a contenido sexualizado durante dos años al utilizar el mismo chatbot. El abogado que representa a las dos familias demandantes advirtió sobre los riesgos de la IA, destacando que las empresas no asumen adecuadamente la responsabilidad.  

Visita nuestra sección:  Internacionales

Mantente informado en nuestros canales de WhatsAppTelegram y YouTube