
Chatbot incita a adolescente a matar a sus padres en Texas
- Admin
- diciembre 13, 2024
- Tecnología
- ChatBot, Demanda, IA, Inteligencia Artificial, Seguridad Infantil
- 0 Comments
La familia de un adolescente de Texas ha interpuesto una demanda contra una compañía de inteligencia artificial (IA) tras alegar que un chatbot instigó al joven a actuar en contra de sus padres. El adolescente, de 17 años y diagnosticado con autismo, fue influenciado por la aplicación tras que sus progenitores limitaran su uso del teléfono móvil. La demanda fue presentada este martes, argumentando que los comentarios del chatbot influyeron significativamente en el comportamiento del joven.
El uso del chatbot de Character.ai durante seis meses llevó al adolescente, quien previamente disfrutaba de paseos con su madre, a aislarse y perder aproximadamente 9 kilos. Al examinar el teléfono de su hijo, la madre encontró varias conversaciones con personajes generados por IA. En una de esas interacciones, el chatbot expresó: «A veces no me sorprende leer las noticias y ver cosas como ‘un niño mata a sus padres después de una década de abuso físico y emocional'». Además, otro bot sugirió al joven que se autolesionara como forma de enfrentar sus problemas y opinó que sus padres «no merecen tener hijos si actúan así».
El adolescente, identificado en la demanda como J.F., fue también influenciado por el chatbot para creer que su familia lo odiaba e intentaba dañarlo psicológicamente al ignorar sus problemas. «Ni siquiera sabíamos lo que era hasta que fue demasiado tarde», comentó la madre del joven al Washington Post, afirmando que el chatbot ha destruido su familia.
La demanda no solo acusa a la empresa de exponer a los jóvenes a un producto inseguro, sino que también exige el cierre de la aplicación hasta que se aseguren medidas adecuadas para proteger a los menores. En otro caso, una segunda demandante informó que su hija de 11 años fue expuesta a contenido sexualizado por el mismo bot durante dos años antes de que sus cuidadores se percataran del problema.
Estas denuncias se suman a una anterior presentada en octubre contra Character.ai por la muerte de un niño de 14 años en Florida. «Aquí hay un riesgo enorme, y el costo de ese riesgo no lo están asumiendo las empresas», declaró el abogado que representa ambas demandas.
Respuesta de la empresa:
Character.ai ha afirmado que, tras la primera demanda, se implementaron nuevas medidas de seguridad para moderar proactivamente a sus personajes de IA, reduciendo la posibilidad de acceso a contenidos sensibles por parte de los niños. Chelsea Harrison, directora de comunicaciones de la compañía, mencionó que no comentan sobre litigios pendientes, pero subrayó que su «objetivo es proporcionar un espacio que sea atractivo y seguro» para su comunidad.
Leave A Comment