¿Puede ChatGPT tener responsabilidad en un tiroteo?

service
Compartir

Comparte este artículo

o copie el enlace

Una extensión de tu navegador parece estar bloqueando la carga del reproductor de video. Para poder ver este contenido, debes desactivarla en este sitio.

Open AI, la empresa responsable de ChatGPT, ha sido demandada en varias ocasiones. El año pasado, los padres de un adolescente que se quitó la vida aseguraron que el chatbot validó sus pensamientos autolesivos. Ahora enfrenta otras dos demandas por lo que los acusantes califican como fallos para impedir dos tiroteos.
Open AI, la empresa responsable de ChatGPT, ha sido demandada en varias ocasiones. El año pasado, los padres de un adolescente que se quitó la vida aseguraron que el chatbot validó sus pensamientos autolesivos. Ahora enfrenta otras dos demandas por lo que los acusantes califican como fallos para impedir dos tiroteos. © France24

Viene del show

Ciencia y Tecnología

Tiempo de lectura 1 min

Demandantes acusan a OpenAI, creadora de ChatGPT, de ofrecer un producto “defectuoso” que supuestamente habría dado consejos al presunto autor de un tiroteo en Florida sobre cómo causar el mayor daño posible. También cuestionan que la empresa no alertara a las autoridades canadienses pese a identificar como riesgoso al responsable de otro ataque. El caso reabre el debate sobre los límites de la inteligencia artificial y la responsabilidad de plataformas a las que a menudo se atribuyen capacidades humanas. ¿Puede un sistema como ChatGPT tener algún grado de responsabilidad en hechos violentos?

¿Puede ChatGPT tener responsabilidad en un tiroteo?
wpChatIcon
    wpChatIcon