Una extensión de tu navegador parece estar bloqueando la carga del reproductor de video. Para poder ver este contenido, debes desactivarla en este sitio.
Viene del show
Tiempo de lectura 1 min
Demandantes acusan a OpenAI, creadora de ChatGPT, de ofrecer un producto “defectuoso” que supuestamente habría dado consejos al presunto autor de un tiroteo en Florida sobre cómo causar el mayor daño posible. También cuestionan que la empresa no alertara a las autoridades canadienses pese a identificar como riesgoso al responsable de otro ataque. El caso reabre el debate sobre los límites de la inteligencia artificial y la responsabilidad de plataformas a las que a menudo se atribuyen capacidades humanas. ¿Puede un sistema como ChatGPT tener algún grado de responsabilidad en hechos violentos?










