OpenAI elimina la prohibición de las aplicaciones militares de ChatGPT

OpenAI elimina la prohibición de las aplicaciones militares de ChatGPT

ChatGPT, el popular modelo lingüístico de Inteligencia Artificial desarrollado por OpenAI, ha sufrido un discreto cambio de política con posibles consecuencias de gran alcance. A principios de esta semana, OpenAI eliminó de su política de uso un texto que prohibía explícitamente las aplicaciones militares de su tecnología, lo que suscita preocupación por la creciente militarización de la Inteligencia Artificial.

Anteriormente, la política prohibía las actividades que suponían «un alto riesgo de daño físico», incluido el «desarrollo de armas» y «militares y bélicas». Aunque la política revisada sigue prohibiendo dañar a seres humanos y desarrollar armas, la ausencia de referencias específicas al uso militar abre la puerta a posibles asociaciones con ejércitos de todo el mundo.

Los expertos están comprensiblemente nerviosos. Sarah Myers West, antigua analista de políticas de IA y actual directora ejecutiva del AI Now Institute, subrayó el preocupante momento en que se produce este cambio, en medio del despliegue de sistemas de IA en Gaza con fines potencialmente dañinos. Además, criticó la vaguedad de la nueva política, cuestionando cómo OpenAI planea hacer cumplir su principio más amplio de «daño».

Este cambio de política no es un mero incidente aislado. Refleja una tendencia más amplia al avance incontrolado de la IA y su armamentismo. El espectro de los sistemas de armas autónomas letales (LAWS, por sus siglas en inglés), a menudo denominados «robots asesinos», se cierne sobre la humanidad y suscita preocupación por su amenaza existencial. Las peticiones internacionales de medidas de control de armamento para frenar el ritmo de armamentismo de la IA son cada vez más urgentes.

Uno de estos esfuerzos es la ley bipartidista «Block Nuclear Launch by Autonomous Artificial Intelligence Act» presentada en el Congreso de Estados Unidos. Esta legislación pretende garantizar que ningún sistema de IA pueda desencadenar en última instancia un ataque nuclear, lo que pone de relieve la gravedad de la situación.

La decisión de OpenAI de abrir la puerta a las aplicaciones militares de ChatGPT echa leña a este fuego ya ardiente. El argumento de la empresa de que un principio amplio de «daño» es más fácil de entender y aplicar suena hueco ante preocupaciones tan graves. No basta con dejar el destino del uso militar de la IA en manos de interpretaciones de principios vagos.

Esta es una llamada a la acción para OpenAI y para todos los desarrolladores de potentes tecnologías de IA. Unos marcos éticos sólidos y unas salvaguardias más estrictas no son extras opcionales; son esenciales para garantizar un desarrollo y un despliegue responsables de la IA. A medida que aumentan las capacidades de la IA, también debe hacerlo nuestro compromiso con su uso seguro y ético. El futuro de la humanidad puede muy bien depender de ello.