El estado de Florida ha abierto una investigación penal contra OpenAI después de que se detectaran interacciones entre el responsable del tiroteo en la Universidad Estatal de Florida y ChatGPT. Las autoridades buscan determinar si esas conversaciones fueron simples consultas de información disponible públicamente o si pudieron influir de forma activa en la planificación del ataque.
Los primeros análisis de registros de servidores apuntan a que el autor preguntó a ChatGPT sobre armas, munición y horarios de mayor afluencia en el campus. OpenAI sostiene que el sistema no promovió ni incentivó la violencia, limitándose a proporcionar información accesible en internet. Sin embargo, la investigación también evalúa un punto clave: si los sistemas de detección de riesgos de la compañía funcionaron correctamente, dado que sus políticas prohíben el uso de la herramienta para fines violentos o para obtener conocimiento aplicable a ataques.
El caso abre un debate más amplio sobre el papel de la responsabilidad en la inteligencia artificial. Si los gobiernos comienzan a interpretar este tipo de incidentes como una evaluación directa de los proveedores, es probable que las plataformas de IA respondan con controles más estrictos, mayor supervisión de conversaciones sensibles y una colaboración más activa con las autoridades. Este escenario ya se refleja en discusiones previas sobre memoria en ChatGPT, privacidad de conversaciones y pruebas de verificación de edad, donde la seguridad empieza a imponerse sobre otros principios como la anonimidad del usuario.
La situación no se limita a OpenAI. Según NPR, también han surgido escrutinios similares en torno a Google y su sistema Gemini, lo que sugiere un aumento generalizado de la presión regulatoria sobre toda la industria de la inteligencia artificial. A largo plazo, este contexto podría derivar en más auditorías externas, mayores obligaciones de reporte y modelos de IA más restrictivos.
En conjunto, el caso refleja un cambio de etapa para el sector: la idea de que la responsabilidad recae únicamente en el usuario pierde fuerza, mientras crece la expectativa de que los desarrolladores asuman un papel más activo en la prevención de usos peligrosos.
Fuente: NPR, NBC News, Oficina del Fiscal General de Florida




