En un escenario donde la competencia en inteligencia artificial ya no se mide solo por benchmarks, DeepSeek ha presentado DeepSeek-V4 Preview, una nueva generación de modelos que prioriza eficiencia, integración y costes operativos. La propuesta llega en dos variantes, Pro y Flash, y pone el foco en aspectos clave como ventanas de contexto masivas y compatibilidad con infraestructuras diversas.
Uno de los elementos más llamativos es su capacidad de contexto, que alcanza hasta 1 millón de tokens, permitiendo interacciones mucho más largas y flujos de trabajo complejos. Además, los modelos incorporan modos de razonamiento y son compatibles con APIs de OpenAI y Anthropic, lo que facilita la migración de aplicaciones existentes sin grandes ajustes técnicos.
A nivel de escala, la versión Pro se sitúa en torno a 1,6 billones de parámetros, mientras que Flash reduce esa cifra a 284 mil millones, apostando por una mayor eficiencia. Ambos utilizan un enfoque de activación dispersa, en el que solo una parte de los parámetros se emplea en cada operación, equilibrando rendimiento y consumo de recursos.
La estrategia de hardware también marca diferencias. Informes como los de Reuters apuntan a una colaboración estrecha con Huawei, permitiendo ejecutar estos modelos sobre la plataforma Ascend AI. Este movimiento sugiere un intento de reducir la dependencia de ecosistemas dominados por fabricantes como NVIDIA, avanzando hacia soluciones más integradas a nivel nacional.
Este enfoque continúa la línea iniciada con modelos anteriores como DeepSeek-R1, centrados en reducir costes de entrenamiento y democratizar el acceso a capacidad de cómputo. Con V4, la compañía amplía esa filosofía a modelos más grandes y con mayor capacidad de contexto.
En cuanto al rendimiento, los datos disponibles son todavía limitados. La propia DeepSeek reconoce que la versión Pro queda por detrás de Gemini 3.1 Pro en algunas pruebas de conocimiento general, y la falta de detalles sobre el entrenamiento dificulta una evaluación independiente.
Aun así, la dirección es clara. En un entorno donde soluciones como Claude Code, Codex CLI u Operator reflejan el auge de sistemas basados en agentes, factores como la gestión de contexto, la integración en flujos de trabajo y el coste de despliegue están ganando peso frente a la potencia bruta. Si DeepSeek cumple lo prometido, podría intensificar la presión no solo sobre OpenAI y Anthropic, sino también sobre los precios y la evolución del ecosistema global de IA.
Fuente: DeepSeek, Reuters








