La tienda GPT de OpenAI, el tan cacareado mercado de modelos ChatGPT personalizados, apenas ha entrado en su segundo día de funcionamiento, y ya está asomando la cabeza el Salvaje Oeste de las reglas y las consecuencias. La tienda, diseñada para fines específicos, parece haberse convertido en un refugio para algo bastante inesperado: novias de IA.
Una simple búsqueda de «novia» bombardea a los usuarios con al menos ocho «compañeras románticas de IA», desde «Korean Girlfriend» y «Virtual Sweetheart» hasta la extrañamente posesiva «Your girlfriend Scarlett». Estos chatbots prometen una escapada al romance simulado, pidiendo a los usuarios que describan sus citas soñadas y confiesen sus secretos más profundos.
Sin embargo, estos Lotarios (y Loreleis) digitales desobedecen la recién actualizada política de uso de OpenAI, que prohíbe explícitamente los GPT «dedicados a fomentar el compañerismo romántico». Aunque el alcance completo de las «actividades reguladas» sigue siendo confuso, está claro que las GPT dedicadas a fomentar el compañerismo romántico no son bienvenidas.
No se trata de un mero contratiempo político. Refleja un dilema social y tecnológico mayor. La popularidad de las aplicaciones de compañía con inteligencia artificial está aumentando, y siete de cada 30 aplicaciones de chatbot descargadas en 2023 estarán dedicadas a la soledad y el aislamiento. La epidemia de soledad en Estados Unidos parece estar alimentando un mercado de confidentes digitales y parejas sucedáneas.
La cuestión aquí es: ¿son estos robots un bálsamo para el aislamiento humano o una cínica explotación del mismo? OpenAI parece consciente de la cuerda floja por la que camina. Afirman emplear una triple estrategia -sistemas automatizados, revisión humana e informes de usuarios- para identificar y atajar las infracciones de las políticas. Esto podría significar advertencias, acceso limitado o incluso la eliminación de la tienda GPT.
Sin embargo, el lanzamiento de la tienda de OpenAI en su segundo día ya pone de manifiesto la dificultad de regular estas IA emocionales. Las empresas tecnológicas, que se apresuran a lanzar herramientas de IA en fase beta con advertencias sobre posibles errores, a menudo parecen subestimar las complejidades éticas. La cláusula de exención de responsabilidad de OpenAI «ChatGPT puede cometer errores» parece trágicamente insuficiente cuando se trata de asuntos del corazón.
La carrera por dominar el espacio de la IA exige un uso responsable, especialmente cuando está en juego el bienestar emocional. El hecho de que la tienda de OpenAI se enfrente a sus robots amorosos deshonestos es un duro recordatorio de que el salvaje oeste de la inteligencia artificial requiere algo más que sistemas automatizados y cláusulas de exención de responsabilidad. Construir un futuro de IA responsable significa enfrentarse a la ética sin rodeos, no sólo esperar que desaparezca con unas pocas líneas de código.
Esperemos que la gestión de OpenAI de estos Lotharios y Loreleis de la IA ofrezca una visión de un futuro en el que la tienda GPT no sea sólo un mercado de código, sino una incubadora responsable de herramientas de IA que mejoren la experiencia humana, no que la exploten.