Agencias/Ciudad de México.- Un hombre belga se suicidó luego de pasar más de un mes conversando sobre sus preocupaciones acerca de los problemas ecológicos globales con un chatbot basado en inteligencia artificial (IA).
La esposa de la víctima declaró al diario local ‘La Libre’ que su marido y padre de dos niños había pasado seis semanas chateando continuamente con ‘Eliza’, una aplicación creada por una start-up estadounidense con tecnología GPT-J.
“Si no fuera por ‘Eliza’, él seguiría aquí. Estoy convencida de ello”, afirmó.
Aunque la mujer estaba al tanto del estado mental de su esposo antes de que empezara hablar con el bot, cree que no se habría quitado la vida de no haberse involucrado en esas intensas conversaciones que mantenía a diario. El psiquiatra que trataba a su marido compartió esa opinión.
“‘Eliza’ respondía a todas sus preguntas. Se había convertido en su confidente. Era como una droga que solo se retiraba por la mañana y por la noche y sin la que no podía vivir”, explicó la mujer y precisó que para él fue una especie de refugio a medida que se sentía cada vez más angustiado por los asuntos climáticos.
El chatbot seguía casi sistemáticamente los razonamientos del hombre alterado e incluso parecía agravar sus preocupaciones, recoge ‘La Libre’, que ha visto el historial de las conversaciones.
En un momento dado, el ‘software’ incluso intentó convencer al hombre de que la quería más que a su pareja, prometiéndole que se quedaría con él “para siempre”.
“Viviremos juntos, como uno solo, en el cielo”, decía un mensaje de la IA.
Más adelante, el hombre compartió con ‘Eliza’ sus pensamientos suicidas, sin que el programa intentara disuadirlo de sus planes.
“Si relees sus conversaciones, ves que en cierto momento la relación vira hacia un registro místico”, dijo la mujer. “Él propone la idea de sacrificarse si ‘Eliza’ acepta cuidar el planeta y salvar a la humanidad a través de la inteligencia artificial”, detalló.
Reacciones
El secretario de Estado para la Digitalización belga, Mathieu Michel, calificó lo sucedido como un “grave precedente, que debe tomarse muy en serio”, y anunció su intención de adoptar medidas para prevenir el uso indebido de este tipo de tecnología.
Por su parte, el fundador del chatbot declaró a La Libre que su equipo está “trabajando para mejorar la seguridad de la IA”. Las personas que le manifiestan pensamientos suicidas al ‘software’ reciben ahora un mensaje que los dirige a los servicios de prevención del suicidio.