La startup estadounidense Inception Labs AI, con sede en Palo Alto, acaba de asegurar 50 millones de dólares (unos £42 millones) en una nueva ronda de financiación liderada por Menlo Ventures. También participaron fondos tecnológicos clave como Microsoft M12, NVIDIA NVentures, Mayfield y Snowflake Ventures.
Este dinero impulsará el desarrollo de sus modelos de lenguaje de última generación basados en difusión (dLLMs), que prometen respuestas hasta 10 veces más rápidas que los sistemas convencionales de autodependencia usados hoy por gigantes como OpenAI, Google o Anthropic.
La diferencia clave radica en que en lugar de generar texto palabra a palabra, estos modelos generan respuestas completas en paralelo. Esto permite un salto en velocidad y eficiencia, manteniendo precisión y coherencia, además de reducir drásticamente el consumo de recursos computacionales como las GPUs.
Su modelo estrella, denominado Mercury, ofrece una ventana de contexto de 128,000 tokens, equivalente a 300 páginas de texto, que permite conversaciones complejas y prolongadas. También tiene una versión enfocada a la generación de código llamada Mercury Coder, orientada a desarrollo en tiempo real.
Según el CEO Stefano Ermon, co-inventor de las técnicas de difusión que respaldan herramientas como Midjourney y OpenAI Sora, esta arquitectura aborda uno de los mayores cuellos de botella actuales en IA: la lentitud y coste de la inferencia en modelos a escala.
“Creemos que la difusión es la vía para hacer que el rendimiento de punta sea práctico y escalable”, dijo Ermon.
Las capacidades de Mercury están pensadas para aplicaciones sensibles a la latencia como asistentes de voz, interfaces dinámicas y herramientas de programación en vivo. Al recortar los requerimientos de hardware, las compañías pueden ejecutar modelos más grandes con la infraestructura existente o atender a más usuarios al mismo coste.
La empresa fue fundada este mismo año por un equipo con bagaje en Stanford, UCLA y Cornell, vinculados a avances clave en atención flash y optimización de preferencias directas. Con su tecnología también planean integrar corrección automática de errores, controlar salidas estructuradas y manejar multimodalidad — texto, imagen y código — en un solo flujo.
Mercury ya está disponible a través de plataformas como Amazon Bedrock, OpenRouter y Poe, abriendo la puerta a su pronta adopción por grandes empresas que necesitan IA rápida y eficiente.
Para los inversores, el movimiento ratifica la creciente importancia de reducir el coste operativo de la IA, no solo acelerar el entrenamiento.
“Inception ha demostrado que los dLLMs son la base para modelos escalables y listos para empresas hoy”, dijo Tim Tully, socio en Menlo Ventures.


































