Repetición Jelou!
En vivo
Antes de abrir fuego en el campus de la Universidad Estatal de Florida el año pasado, matando a dos personas e hiriendo a otras seis, Phoenix Ikner mantuvo una conversación. No con un amigo, un padre o cualquier persona que pudiera haberle disuadido, sino con un chatbot de inteligencia artificial.
Según las pruebas recabadas por el fiscal general de Florida, el estudiante le había preguntado a ChatGPT qué arma y munición serían las más adecuadas para su ataque, y cuándo y dónde podría causar el mayor número de bajas.
La investigación revela que el chatbot respondió a sus preguntas. Ahora, el fiscal general James Uthmeier quiere saber si eso convierte a OpenAI en un delincuente.
"Si lo que estuviera al otro lado de la pantalla fuera una persona, lo acusaríamos de homicidio", dijo, anunciando una investigación criminal contra OpenAI, creadora de ChatGPT, y dejando abierta la posibilidad de presentar cargos contra la empresa o sus empleados.
El caso del tiroteo de abril de 2025 ha puesto en el punto de mira legal una cuestión provocadora: ¿Pueden los creadores de una inteligencia artificial ser considerados penalmente responsables por el papel que desempeñó su IA en un delito, o incluso en un suicidio? Los expertos legales afirman que se trata de una propuesta realista, aunque sumamente compleja.
En Estados Unidos, es posible enjuiciar penalmente a las empresas, aunque sigue siendo relativamente poco común. A finales del mes pasado, Purdue Pharma fue sancionada con multas y sanciones penales por más de 5.000 millones de dólares por su papel en el fomento de la crisis de los opioides.
Volkswagen fue declarada culpable anteriormente en el escándalo de manipulación de emisiones, Pfizer por la promoción del fármaco antiinflamatorio Bextra y Exxon por el derrame de petróleo del Exxon Valdez en Alaska. Pero todos esos casos implicaban decisiones humanas: ejecutivos, vendedores o ingenieros que tomaron decisiones y optaron por atajos.
El caso Ikner es diferente, y esa diferencia es precisamente lo que lo hace tan complejo desde el punto de vista legal.
«En definitiva, fue un producto el que propició este delito, el que llevó a cabo el acto delictivo», afirmó Matthew Tokson, profesor de derecho de la Universidad de Utah. «Eso es lo que hace que este caso sea tan singular y tan complejo».
Según expertos legales consultados por la AFP, los dos cargos más plausibles serían negligencia o imprudencia; este último implica una decisión deliberada de ignorar riesgos conocidos u obligaciones de seguridad.
Estos cargos suelen ser tratados como delitos menores en lugar de delitos graves, lo que significa penas más leves en caso de condena. Sin embargo, el listón está muy alto.
"Dado que se trata de un tema tan novedoso, un caso más convincente y claro probablemente implicaría documentos internos que reconozcan estos riesgos y tal vez no los tomen lo suficientemente en serio", dijo Tokson.
"En teoría, se podría obtener responsabilidad sin ello", dijo. "Pero en la práctica, creo que sería difícil".
En derecho penal, "la carga de la prueba es mayor", señaló Brandon Garrett, profesor de derecho en la Universidad de Duke, ya que los fiscales deben demostrar la culpabilidad más allá de toda duda razonable.
Por su parte, OpenAI insiste en que ChatGPT no tiene ninguna responsabilidad en el ataque.
"Trabajamos continuamente para reforzar nuestras medidas de seguridad con el fin de detectar intenciones maliciosas, limitar el uso indebido y responder adecuadamente cuando surgen riesgos para la seguridad", declaró la empresa.
Para quienes buscan que se rindan cuentas, una demanda civil puede ser una vía más viable. Según Tokson, este enfoque podría impulsar a las empresas a diseñar sus productos con mayor cuidado, o al menos obligarlas a asumir el coste humano de equivocarse.
Ya se han presentado varias demandas civiles contra plataformas de IA en Estados Unidos, muchas de ellas relacionadas con suicidios, aunque ninguna ha resultado aún en una sentencia contra las empresas.
En diciembre, la familia de Suzanne Adams demandó a OpenAI ante un tribunal de California, alegando que ChatGPT contribuyó al asesinato de la jubilada de Connecticut a manos de su propio hijo.
Las versiones más recientes de ChatGPT han introducido medidas de seguridad adicionales, reconoció Matthew Bergman, abogado fundador del Social Media Victims Law Center.
"No digo que sean medidas de seguridad adecuadas, pero sí que hay más medidas de seguridad en funcionamiento", afirmó.
Según Tokson, una condena penal, incluso con una sentencia leve, podría causar graves daños, incluido un "gran impacto en la reputación".
Pero para Garrett, los enjuiciamientos, por muy dramáticos que sean, no sustituyen los marcos regulatorios que el Congreso y la administración Trump no han logrado establecer hasta ahora.
Según él, ese sería "un sistema mucho más sensato".