La oleada de inversiones de US$ 53.000 millones de Nvidia en startups de IA
Una jugada sin precedentes que multiplica alianzas, reparte riesgos y refuerza el dominio de sus chips en un mercado todavía incierto. Mientras algunos celebran la visión estratégica, otros advierten parecidos con el desplome de Lucent en la burbuja puntocom.

Nvidia invirtió aproximadamente US$ 53.000 millones en 170 operaciones que abarcan todo el ecosistema de inteligencia artificial, según datos de PitchBook. Solo en 2025, la compañía participó en casi 67 rondas de financiación de capital riesgo, frente a las 54 de 2024 y las apenas 12 de 2022. Su división de capital riesgo, NVentures, cerró 30 operaciones en 2025.

Los destinatarios parecen un directorio que cubre cada capa de la pila de IA. En el desarrollo de modelos aparecen OpenAI, Anthropic, Mistral, xAI, Cohere y Thinking Machines Lab. Entre los proveedores de infraestructura figuran CoreWeave, Nscale y Nebius. En conducción autónoma, Wayve. En robótica, Figure AI. También se incluyen empresas que desarrollan herramientas de diseño de chips, como Synopsys, donde Nvidia compró una participación de US$ 2.000 millones en diciembre. Incluso hay compañías de computación cuántica (Quantinuum) y de fusión nuclear en la lista.

Los inversores bajistas interpretan este movimiento como una posible estafa. Los vendedores en corto Jim Chanos y Michael Burry compararon las inversiones de Nvidia con la estrategia de financiación que terminó por hundir a Lucent durante la crisis de las puntocom. En aquel entonces, el fabricante de equipos de telecomunicaciones prestó dinero a sus clientes para que compraran sus propios equipos. Cuando la burbuja estalló, esos clientes dejaron de pagar y los ingresos de Lucent desaparecieron.

Nvidia respondió con un memorando de siete páginas dirigido a los analistas de Wall Street en noviembre. En ese documento, la empresa sostuvo que sus clientes pagan en 53 días, no en años, y que sus inversiones y flujos de ingresos no están ligados entre sí. @@FIGURE@@

El escenario bajista merece más atención que una simple ola de desdén, aunque también deja de lado una diferencia estructural clave. Lucent financiaba a clientes que no contaban con otra fuente de demanda. En cambio, los principales clientes de Nvidia —los hiperescaladores como Microsoft, Google, Meta y Amazon— están destinando cientos de miles de millones de dólares de su propio capital al desarrollo de infraestructura para inteligencia artificial, sin depender de las inversiones de Nvidia. Solo Microsoft gastó más de US$ 50.000 millones en centros de datos durante 2025. Las inversiones en startups representan una porción menor de los ingresos totales de Nvidia, no su base.

Qué significa realmente "Dejar que mil flores florezcan"

El lema "Dejar que mil flores florezcan" remite a una metáfora que, en el caso de Jensen Huang, tiene una traducción concreta: apostar a todos los frentes posibles. En un terreno aún indefinido como el de la inteligencia artificial, su estrategia tiene una lógica clara.

Hoy, nadie puede afirmar con certeza cuál será la forma final de la IA. No se sabe si lo dominante serán los chatbots, los autos autónomos, los robots humanoides, las herramientas para el descubrimiento de medicamentos o alguna aplicación todavía inexistente. Tampoco está claro si la arquitectura ganadora será un modelo gigantesco como el de OpenAI, uno ágil y de código abierto como los de Mistral, o un agente especializado desarrollado por alguna startup que ni siquiera nació.

En ese contexto, el peor error estratégico sería elegir a un ganador demasiado temprano. El segundo, permitir que un competidor se transforme en el proveedor de infraestructura por defecto mientras los demás esperan que el mercado madure. Frente a ese dilema, Huang optó por financiar a todo el ecosistema y asegurarse de que, gane quien gane, dependa del hardware de Nvidia. @@FIGURE@@

No se trata de filantropía. El acuerdo con Synopsys, por ejemplo, no fue solo un cheque: es una colaboración a varios años que busca trasladar los flujos de trabajo para diseño de chips —altamente demandantes en cómputo— desde las CPU hacia las GPU de Nvidia. Las herramientas de Synopsys son clave en el diseño de casi todos los chips avanzados que se fabrican. Al integrar la plataforma de computación CUDA en ese proceso, Nvidia se vuelve mucho más difícil de reemplazar en la capa más profunda de la tecnología. Huang lo resumió como "un gran acuerdo" en CNBC. Y tenía razón.

La misma lógica vale para las empresas que desarrollan modelos de inteligencia artificial. Nvidia puso hasta US$ 100.000 millones en OpenAI, hasta US$ 10.000 millones en Anthropic y participó en la ronda Serie C de Mistral, que alcanzó los US$ 1.990 millones. Cada una de estas compañías trabaja con arquitecturas distintas, apunta a mercados diferentes y tiene posturas opuestas sobre la IA abierta y cerrada.

A Nvidia no le hace falta anticipar cuál de ellas se impondrá. Lo único que necesita es que todas dependan de sus GPU.

Lo que esto significa para tu dinero

Si tenés un fondo indexado que replica el S&P 500, es casi seguro que Nvidia figura entre tus principales inversiones. Con una capitalización bursátil cercana a los US$ 4 billones, su peso en el índice es enorme. La pregunta que cualquier inversor se hace es si esta estrategia de sembrar un ecosistema genera una ventaja competitiva duradera o si, por el contrario, está inflando la demanda de forma artificial, con el riesgo de que más adelante se desinfle.

La respuesta honesta es que ambas posibilidades siguen en juego. El analista de Bernstein, Stacy Rasgon, le dijo a Yahoo Finance que tal vez no haya un mejor uso del efectivo de Nvidia en este momento. Sin embargo, también advirtió que los flujos de inversión circulares generan dudas. Por su parte, Jim Chanos alertó que, si la demanda de IA en 2027 o 2028 no alcanza las proyecciones actuales, "podríamos ver cómo se empiezan a cancelar pedidos, y ese es un gran riesgo del que no mucha gente habla".

La comparación con las automotrices tradicionales ayuda a entender el punto. GM, Ford y Stellantis apostaron miles de millones de dólares a una sola carta: que los consumidores adoptarían de forma masiva los autos eléctricos. Cuando esa expectativa se desinfló, las tres compañías perdieron en conjunto más de US$ 53.000 millones. La estrategia de Huang apunta justamente a no cometer ese tipo de error. En lugar de apostar todo a un único desenlace, reparte fichas en decenas de empresas que cubren todo el abanico de la IA. Más que convicción por un producto o mercado, construye un menú de opciones.

El riesgo no es que la estrategia sea un engaño. El verdadero riesgo es que la demanda de inteligencia artificial resulte más baja de lo esperado. En ese caso, incluso una cartera diversificada de inversiones en IA terminaría perdiendo. Pero en ese escenario, el golpe no sería exclusivo para Nvidia: afectaría a todo el sector tecnológico. @@FIGURE@@

La fase a seguir de cerca

Jensen Huang lo dijo sin rodeos durante una cumbre de Cisco: su estrategia “genera un caos”. Y ese es, precisamente, el objetivo. Contó que Nvidia tiene más de 1.000 proyectos internos de inteligencia artificial en marcha y sostuvo que, si ni siquiera pueden anticipar cuáles de sus propios desarrollos van a funcionar, mucho menos podrían prever el éxito de una startup externa.

La etapa clave será la siguiente: cuando llegue el momento de podar el jardín. A medida que las aplicaciones de IA se consoliden y los ganadores empiecen a perfilarse con más claridad en los próximos 12 a 24 meses, es probable que Nvidia deje atrás esta fase de apuestas múltiples y avance hacia una integración más profunda con las plataformas que hayan demostrado su valor. Esa fase será muy distinta a la actual. Va a parecer un cerrojo.

Por ahora, la compañía apuesta en todas las direcciones porque puede permitírselo. Con un balance superior al PBI de la mayoría de los países y el negocio de chips con el margen más alto registrado, Nvidia está en una posición única: no necesita adivinar el futuro. Solo debe asegurarse de que, cuando llegue, funcione con su hardware.

Este artículo fue publicado originalmente por Forbes.com