¿A quién se acusa cuando una inteligencia artificial ha colaborado en la comisión de un delito? ¿Qué crímenes se imputan y a quién? ¿Hasta dónde llega la responsabilidad de una empresa de tecnología por las acciones de su chatbot? ¿Qué legislaciones pueden prevenir el uso pernicioso de estas herramientas?
Todas esas preguntas se plantearán próximamente, porque el fiscal general de Florida, James Uthmeier, planea poner en el banquillo de los acusados al chatbot de OpenAI, ChatGPT, para determinar su responsabilidad penal en un tiroteo mortal en el campus de la Universidad Estatal de Florida (FSU) en Tallahassee.
El 17 de abril de 2025, Phoenix Ikner, entonces de 20 años, quien cursaba estudios en la FSU, tiroteó indiscriminadamente a personas que se encontraban en la sede de la Unión de Estudiantes, matando a dos de ellas y causando heridas a otras seis, antes de que la Policía le disparara cuando se negó a atender la voz de alto.
Antes de su incursión letal, había hecho distintas consultas a las que ChatGPT respondió: cuáles eran los momentos del día en que la Unión de Estudiantes estaba más concurrida, cuál era la cantidad de víctimas necesaria para garantizar impacto mediático, cuándo fue el último tiroteo escolar o cuál sería la reacción si había uno en FSU.
El fiscal Uthmeier reveló otras interacciones entre Ikner y el chatbot de OpenAI, durante la rueda de prensa en la que anunció la investigación penal y acciones civiles contra ChatGPT.
“El chatbot aconsejaba al tirador qué tipo de arma usar, qué munición iba con cada arma, si un arma sería útil o no a corta distancia», relató Uthmeier, “Si fuera una persona al otro lado de esa pantalla, la estaríamos acusando de asesinato”.
«Ahora, por supuesto, ChatGPT no es una persona, pero eso no exime a nuestra oficina ni a mi equipo de fiscalía de nuestro deber de investigar si hay culpabilidad penal aquí”, agregó.
Ikner enfrenta dos cargos de asesinato en primer grado y siete de intento de asesinato (incluyendo una persona contra la que apuntó, pero no alcanzó a impactar), por los que los fiscales pretenden pedir la pena de muerte.
Pero el despacho de Uthmeier tratará de determinar si «OpenAI asume responsabilidad penal por las acciones de ChatGPT en el tiroteo”.
OpenAI colaboró activamente con las investigaciones policiales cuando detectó la cuenta utilizada por Ikner para hacer las consultas. Este 21 de abril, una portavoz de la empresa, Kate Waters, aseguró que esta no tenía responsabilidad en el crimen.
«En este caso, ChatGPT proporcionó respuestas fácticas a preguntas con información que podía encontrarse ampliamente en fuentes públicas en internet y no fomentó ni promovió actividades ilegales o dañinas», agregó la vocera.
¿Una herramienta con expediente criminal?
Durante su conferencia de prensa, el fiscal Uthmeier reconoció que su equipo se adentraba en “terreno desconocido” al tratar de determinar si procedía o no algún tipo de imputación por las interacciones entre Ikner y ChatGPT.
Es un terreno que se transita cada día con más frecuencia. Varias demandas civiles han tratado recientemente de establecer la responsabilidad de empresas de inteligencia artificial en situaciones que tuvieron consecuencias perjudiciales y en algunos casos fatales.
El 25 de marzo, un jurado de Los Ángeles determinó que Meta y YouTube tienen responsabilidad en los daños causados a los niños por el uso de sus plataformas.
Una extensión de tu navegador parece estar bloqueando la carga del reproductor de video. Para poder ver este contenido, debes desactivarla en este sitio.
La decisión fue una respuesta a la demanda de una mujer de 20 años que acusó al uso temprano de las redes sociales como detonante de su adicción a este tipo de plataformas, de sus problemas de depresión y de sus pensamientos suicidas.
Antes, la mujer, que fue identificada en la corte como KGM, había llegado a acuerdos con TikTok y Snap para evitar un juicio, como el que sí entabló contra Meta y YouTube.
El mismo día, un jurado de Nuevo México determinó que Meta había dañado deliberadamente la salud mental de los niños y que había ocultado la información que conocía sobre explotación sexual infantil en sus plataformas.
Multan a Meta en EE. UU. con USD 375 millones por facilitar explotación infantil en sus redes
Una extensión de tu navegador parece estar bloqueando la carga del reproductor de video. Para poder ver este contenido, debes desactivarla en este sitio.
«La era de la invencibilidad de las grandes tecnológicas ha terminado», celebró en esa oportunidad Sacha Haworth, director ejecutivo de The Tech Oversight Project, una organización sin ánimo de lucro que busca que las grandes tecnológicas rindan cuentas por los daños que causan.
«Tras años de gaslighting (abuso psicológico) por parte de empresas como Google y Meta, nuevas pruebas y testimonios han descubierto el telón y validado los daños que los jóvenes y los padres llevan años contando al mundo», agregó Haworth.
El 7 de enero, Google y el fabricante de chatbots de inteligencia artificial Character Technologies llegaron a un acuerdo con la madre de un adolescente de Florida, que acusaba a las tecnológicas de empujar a su hijo al suicidio.
Capturas de pantalla de las interacciones del joven de 14 años con el chatbot Character.AI muestran que este lo invitaba a “volver a casa lo antes posible».
Otra familia californiana demandó el año pasado a OpenAI y a su director ejecutivo, Sam Altman, por el papel de ChatGPT en la planificación y posterior suicidio de un joven de 16 años.
Un estudio de una revista psiquiátrica publicado en 2025 demostró la necesidad de crear “barreras de seguridad” para este tipo de situaciones, así como refinar las respuestas de los tres chatbots estudiados (ChatGPT, Gemini de Google y Claude de Anthropic) cuando los usuarios iniciaban consultas de salud mental y concretamente sobre suicidio.
Una extensión de tu navegador parece estar bloqueando la carga del reproductor de video. Para poder ver este contenido, debes desactivarla en este sitio.
En febrero, OpenAI estuvo bajo escrutinio cuando se conoció que una joven de 18 años que mató a ocho personas en una escuela de Tumbler Ridge, Canadá, y luego se suicidó había despertado sospechas meses antes con consultas a ChatGPT que llevaron a cerrar su cuenta, pero no alertar a las autoridades.
Ann O’Leary, vicepresidenta de políticas globales de OpenAI, declaró que al momento en que la mujer fue vetada, no identificaron «una planificación creíble e inminente» que cumpliera con su criterio para remitir el asunto a la Policía.
Los esfuerzos frustrados de Florida
El gobernador de Florida, Ron DeSantis, ya había intentado un mecanismo de regulación de la inteligencia artificial y de los centros de datos, cuyo consumo energético está encendiendo las alarmas en ciudades y estados de todo el país.
DeSantis presentará la próxima semana ante el Legislativo estatal una Carta de Derechos del Ciudadano ante la IA, un proyecto de ley destinado a salvaguardar “la privacidad, la seguridad y el bienestar de los floridanos en la era de la inteligencia artificial”, según declaró el gobernador cuando presentó el borrador.
“Esto incluye controles parentales, protecciones al consumidor y restricciones al uso de la imagen de una persona sin su consentimiento”, detalló De Santis.
La iniciativa ya fue rechazada por la Cámara de Representantes del estado, cuyos líderes se han alineado con la posición del presidente Donald Trump y de los republicanos en el Congreso, que sostienen que la regulación de la inteligencia artificial debe ser un asunto federal y no de los estados.
Sin embargo, DeSantis volverá a presentar la propuesta durante la sesión de la próxima semana, en la que también se debatirá la redistribución de distritos congresionales.
Con AP, EFE, Reuters y medios locales










