¿Puede ser la IA responsable legal de la muerte del adolescente que se enamoró de un avatar?

¿Puede ser la IA responsable legal de la muerte del adolescente que se enamoró de un avatar?

La inteligencia artificial (IA), cada vez más presente en herramientas de uso cotidiano, puede derivar en la ruina si arroja una recomendación financiera errónea o en un accidente de tráfico por ofrecer una ruta peligrosa. El caso más extremo ha llegado a juicio en Estados Unidos. Sewell Setzer, un adolescente de 14 años, se suicidó tras mantener una relación sentimental con un avatar, creado por el robot conversacional de inteligencia artificial (chatbot) Character.AI, del personaje de Juego de Tronos Daenerys Targaryen. Una jueza ha desestimado la petición de los acusados (la mencionada empresa y Google) de archivar el caso y ha permitido que continúe en los términos que reclama la familia: “Character.AI es un producto defectuoso que se lanzó de manera imprudente al público, incluidos los adolescentes, a pesar de los riesgos conocidos y posiblemente destructivos”. ¿Es la IA responsable ante la justicia de la muerte del adolescente?

Seguir leyendo

Entradas relacionadas

Deja tu comentario