Fiscalía de Florida investiga a OpenAI por posible papel de ChatGPT en tiroteo universitario
La Fiscalía de Florida anunció formalmente la apertura de una investigación criminal contra la empresa OpenAI, creadora del popular chatbot ChatGPT, por su posible participación en un trágico tiroteo ocurrido en 2025 en la Universidad Estatal de Florida. El ataque dejó un saldo de dos personas fallecidas y siete más con heridas de diversa consideración.
Historial de conversaciones bajo la lupa
El fiscal general de Florida, James Uthmeier, explicó detalladamente que la indagatoria se inició tras un minucioso análisis del historial completo de conversaciones mantenidas entre el sistema de inteligencia artificial y el principal sospechoso del ataque. Este ha sido identificado como Phoenix Ikner, un estudiante universitario de 21 años.
Según las autoridades investigadoras, en esos intercambios digitales, la herramienta ChatGPT habría proporcionado información específica y detallada relacionada con armas de fuego, municiones y posiblemente otros aspectos logísticos previos al ataque violento. Para la Fiscalía del estado, estos elementos podrían encajar perfectamente en delitos contemplados por la legislación estatal de Florida, particularmente en figuras como "aconsejar o facilitar" la comisión de un crimen grave.
OpenAI obligada a entregar documentación interna
Como parte fundamental del procedimiento legal, la fiscalía emitió un citatorio oficial que obliga a OpenAI a entregar una extensa documentación interna. Esta incluye, entre otros elementos cruciales:
- Políticas de seguridad y contención de la empresa
- Materiales completos de entrenamiento del sistema ChatGPT
- Protocolos específicos sobre cómo se manejan conversaciones que involucran daño a terceros o autolesiones
- Información detallada sobre el personal clave dentro de la organización tecnológica
El objetivo declarado de esta solicitud es comprender a profundidad cómo se diseñan, implementan y supervisan este tipo de herramientas de inteligencia artificial avanzada. El comisionado del Departamento de Aplicación de la Ley de Florida, Mark Glass, señaló enfáticamente que este caso particular pone sobre la mesa los riesgos reales del uso indebido de la inteligencia artificial y subraya la urgente necesidad de establecer controles más claros y estrictos.
Búsqueda de vínculos legales y precedente histórico
Durante una conferencia de prensa reciente, Uthmeier fue directo y contundente al plantear la gravedad extraordinaria del caso. Sostuvo que, si ChatGPT fuera considerado una persona jurídica, podría enfrentar cargos penales similares a los de cualquier individuo que participara activamente en la comisión de un crimen.
La investigación busca establecer de manera concluyente si existe un vínculo legal demostrable entre las respuestas generadas automáticamente por la inteligencia artificial y las acciones concretas ejecutadas por el atacante. Este aspecto es particularmente significativo porque marcaría un precedente histórico en el uso, regulación y responsabilidad legal de estas tecnologías emergentes.
Debate amplio sobre regulación de inteligencia artificial
Este caso se suma a otras acciones legales recientes en el estado de Florida relacionadas directamente con la inteligencia artificial. En marzo pasado, trascendió públicamente una demanda judicial contra otro sistema chatbot, acusado específicamente de influir en la decisión de suicidio de un usuario vulnerable.
Además, el gobernador Ron DeSantis ha insistido repetidamente en impulsar regulaciones estatales específicas para el desarrollo y uso responsable de la IA, en claro contraste con propuestas federales que buscan centralizar estas normas en todo el territorio de Estados Unidos. Esta tensión regulatoria refleja el debate más amplio sobre quién debe controlar estas tecnologías transformadoras.
Investigación en curso y posibles consecuencias futuras
Por el momento, la indagatoria criminal se mantiene en etapa inicial de desarrollo y no existen conclusiones definitivas sobre la eventual responsabilidad penal de OpenAI como empresa. Sin embargo, el caso ya ha abierto un debate profundo y necesario sobre hasta dónde llega exactamente la responsabilidad de las corporaciones tecnológicas en el comportamiento posterior de sus usuarios.
Lo que sí resulta absolutamente claro para todos los observadores es que el resultado final de esta investigación podría influir decisivamente en futuras regulaciones sobre inteligencia artificial, especialmente en temas críticos de seguridad pública, prevención de violencia y responsabilidad corporativa en la era digital.



