Forbes Ecuador
El CEO de Amazon, Andy Jassy.
Innovacion
El CEO de Amazon, Andy Jassy.
Crédito: Amazon News (sitio oficial de compañía)

Amazon invirtió US$ 33.000 millones en Anthropic para asegurarse el recurso más escaso del negocio tecnológico

Jon Markman

Share

Más que una inyección de capital, el acuerdo fija prioridad sobre capacidad aún no construida, en plena carrera global por abastecer el salto de la inteligencia artificial.

24 Abril de 2026 09.59

El 20 de abril, Amazon anunció que invertiría hasta US$ 25.000 millones adicionales en Anthropic y que así llevaría su compromiso total a US$ 33.000 millones. A cambio, Anthropic acordó destinar más de US$ 100.000 millones a infraestructura de AWS durante la próxima década y aseguró hasta 5 gigavatios de capacidad de procesamiento, que incluye las CPU Graviton de Amazon y los chips de IA Trainium2 a Trainium4.

Cinco gigavatios equivalen, aproximadamente, al consumo eléctrico de una ciudad mediana. Además, esa cifra supera la capacidad de procesamiento que cualquier empresa de IA contrató alguna vez en un solo acuerdo. Y ahí aparece el dato clave: la mayor parte de esa infraestructura todavía no existe.

TSMC todavía no fabricó los chips. Las centrales eléctricas que alimentarán esos centros de datos aún están en construcción. Los sistemas de refrigeración, la infraestructura de red y los edificios son, en buena medida, parte de la infraestructura que Amazon se comprometió a construir en los próximos años.

Amazon no pagó US$ 33.000 millones por una participación en Anthropic. Pagó US$ 33.000 millones para garantizar que, cuando la infraestructura informática entre en operación, Anthropic funcione sobre esa base.

Es un acuerdo con una estructura distinta de cualquier otro que la industria tecnológica vio a esta escala. Y eso pasa por el dato más importante de la IA en este momento: la capacidad de procesamiento está limitada por la oferta, y la oferta no avanza al ritmo de la demanda.

La restricción que nadie tuvo en cuenta

Durante buena parte de la última década, la economía de la nube funcionó de una manera bastante simple: las empresas tenían cargas de trabajo y alquilaban capacidad de procesamiento a un proveedor de servicios en la nube de gran escala. 

Ese proveedor contaba con margen suficiente porque la demanda avanzaba de forma gradual y la oferta podía acompañarla. La capacidad de procesamiento era abundante; era un recurso común.

SE PUEDE USAR/Amazon (Foto: dronepicr, CC BY 2.0 <https://creativecommons.org/licenses/by/2.0>, via Wikimedia Commons)
El 20 de abril, Amazon anunció que invertiría hasta US$ 25.000 millones adicionales en Anthropic y que así llevaría su compromiso total a US$ 33.000 millones.  (Foto: dronepicr, CC BY 2.0 <https://creativecommons.org/licenses/by/2.0>, via Wikimedia Commons)

La IA rompió ese modelo.

La curva de demanda de computación para IA no crece de manera incremental: sube de forma casi vertical. Los ingresos anualizados de Anthropic llegaron a US$ 30.000 millones en abril de 2026, frente a los US$ 9.000 millones de fines de 2025. Eso implicó un salto de tres veces en apenas cuatro meses. Hoy, más de 1.000 clientes empresariales destinan más de US$ 1 millón al año a Claude, contra los 500 de febrero. Ocho de las empresas del Fortune 10 ya son clientes. Y Anthropic ni siquiera es la compañía más grande del sector de la IA. Si se suman OpenAI, Google, xAI y el resto, la demanda agregada de computación para entrenamiento e inferencia crece a un ritmo que el mundo físico no puede acompañar.

La oferta enfrenta cuatro limitaciones, y cada una demanda años para resolverse:

  • Fabricación de chips: la capacidad de empaquetado avanzado de TSMC está comprometida hasta 2027. Todos los chips de IA, ya sea que los diseñen Nvidia, Amazon, Google o Microsoft, compiten por las mismas obleas.
  • Generación de energía: un centro de datos de 1 gigavatio necesita una potencia similar a la de un reactor nuclear. Las compañías eléctricas miden sus tiempos de respuesta en años, no en trimestres.
  • Construcción de centros de datos: incluso con chips y suministro eléctrico, levantar edificios físicos de gran escala exige, como mínimo, entre 18 y 24 meses.
  • Diseño de silicio personalizado: Trainium de Amazon, TPU de Google y Maia de Microsoft requieren ciclos de diseño de varios años antes de llegar a la producción en masa.

Cuando la demanda se duplica cada pocos meses y la oferta necesita entre tres y cinco años para alcanzarla, la economía cambia por completo. La capacidad de procesamiento deja de ser un bien común y pasa a ser un recurso escaso. En ese escenario, esos recursos quedan en manos de quienes tienen el capital y la credibilidad necesarios para comprometerse desde el arranque.

Ese es el marco para entender los US$ 33.000 millones de Amazon. Amazon no financia a Anthropic. Lo que hace es comprometer por adelantado la capacidad que planea construir para un cliente cuya demanda sabe que puede absorberla. La plata cambia de manos ahora porque esa capacidad no va a existir más adelante si nadie acepta pagarla antes de que se construya.

Jeff Bezos (SE PUEDE USAR) Crédito: Wikimedia Commons
Amazon no pagó US$ 33.000 millones por una participación en Anthropic. Pagó US$ 33.000 millones para garantizar que, cuando la infraestructura informática entre en operación, Anthropic funcione sobre esa base.Crédito: Wikimedia Commons

Multiplexación de tres ecosistemas

La segunda parte de la historia, y también donde la mayoría de los comentarios falla, pasa por lo que Anthropic hace en toda la industria.

Anthropic la presenta como su apuesta central y describe a Claude como "el único modelo de IA de vanguardia disponible para los clientes en las tres plataformas en la nube más grandes del mundo: AWS ( Bedrock ), Google Cloud ( Vertex AI ) y Microsoft Azure ( Foundry )", señaló. Esto no responde a una lógica de cobertura, sino de distribución. Hoy, Anthropic sostiene vínculos de infraestructura comprometida con los tres principales proveedores de servicios en la nube de gran escala.

Sería fácil leer esto como una maniobra de Anthropic para enfrentar a las grandes tecnológicas entre sí. Pero esa lectura falla: esas compañías no funcionan como rivales directos, sino como ecosistemas separados, y cada una tiene una base de clientes a la que Anthropic no puede llegar por ninguna otra vía.

Jensen Huang, Nvidia (SE PUEDE USAR) Crédito: Wikimedia Commons
Microsoft / Nvidia: cerca de US$ 15.000 millones invertidos en enero de 2026. Crédito: Wikimedia Commons

Una empresa Fortune 500 que gestiona su infraestructura en AWS no se va a pasar a Azure solo para usar Claude. Sus revisiones de seguridad, sus auditorías de cumplimiento, sus exigencias de residencia de datos, su capa de identidad y sus canales de implementación ya están montados sobre AWS. Lo mismo pasa con una empresa que trabaja con Microsoft.

 Y también con un cliente de Google Cloud. El proveedor de nube no es un servicio que se cambia de un día para el otro: es la plataforma sobre la que una compañía construye todo lo demás.

Por eso, cuando Anthropic firma un acuerdo con AWS, no alquila capacidad de procesamiento. Compra distribución entre las miles de empresas que forman parte del ecosistema de AWS y que no pueden salir de ahí.

Al cerrar acuerdos con Google, suma distribución dentro de la base empresarial de Google Cloud. Al hacerlo con Microsoft, accede a la base de clientes de Microsoft 365, que se mide en cientos de millones de licencias.

Cada proveedor de servicios en la nube a gran escala tiene una hoja de ruta en materia de capacidad informática, una base de clientes y una red de contratos estratégicos que Anthropic no puede desarrollar por su cuenta. Por eso se integra con los tres. No para cubrirse, sino porque cada uno le abre una porción distinta del mercado empresarial, y la curva de ingresos de Anthropic solo puede sostenerse si sus modelos están disponibles allí donde sus clientes ya operan.

SE PUEDE USAR / Darío Amodei / Anthropic.
Hoy, Anthropic sostiene vínculos de infraestructura comprometida con los tres principales proveedores de servicios en la nube de gran escala. (Foto: TechCrunch, CC BY 2.0 <https://creativecommons.org/licenses/by/2.0>, via Wikimedia Commons).

Por qué esta no es la estructura del acuerdo de OpenAI

La comparación más obvia es con OpenAI, y vale la pena precisar en qué punto falla.

OpenAI tiene un esquema parecido: recibió hace poco alrededor de US$ 110.000 millones en financiamiento, incluidos US$ 50.000 millones de Amazon, US$ 30.000 millones de Nvidia y otros US$ 30.000 millones de SoftBank, además de un acuerdo de infraestructura en la nube por US$ 300.000 millones con Oracle. A primera vista, parece una estructura similar a la de Anthropic: los inversores transfieren la plata, la empresa de IA lo destina a infraestructura y los proveedores de infraestructura registran ese gasto como ingresos.

Sin embargo, las estructuras de OpenAI y Anthropic se separan en un punto clave. Oracle tiene que construir buena parte de la capacidad que OpenAI necesita y, además, no cuenta con el ecosistema de clientes de un proveedor de servicios en la nube de gran escala. Si la curva de ingresos empresariales de OpenAI se desvía a la baja, Oracle quedará atada a capacidad de centros de datos que no podrá vender con facilidad a otros clientes. Oracle apuesta de manera específica por OpenAI, no por el mercado de computación para IA en general.

Amazon, Google y Microsoft están en una posición distinta. Sus centros de datos atienden decenas de miles de cargas de trabajo empresariales en cientos de sectores. Si la demanda de IA de Anthropic se frena, esa misma capacidad de procesamiento puede reasignarse a otros clientes.

Larry Ellison, Oracle (SE PUEDE USARA) Crédito: Wikimedia Commons.
 Oracle tiene que construir buena parte de la capacidad que OpenAI necesita. Crédito: Wikimedia Commons.

La capacidad es intercambiable porque el ecosistema también lo es. Los grandes proveedores de servicios en la nube no apuestan por Anthropic, sino por la demanda de computación para IA en general, y usan a Anthropic como cliente de referencia para justificar esa inversión.

Es una estructura mucho más duradera. Eso también explica por qué Anthropic logra que tres proveedores de servicios en la nube de gran escala financien su crecimiento al mismo tiempo: cada uno se asegura una carga de trabajo de IA emblemática, que le sirve para justificar la expansión de capacidad que también le reclaman otros clientes.

Lo que realmente te revela el trato

Hay tres aspectos que vale la pena destacar y que la interpretación estándar, a la que muchos describen como "financiamiento circular", deja por completo de lado:

  • El ciclo de inversión en IA todavía no alcanzó su techo. Amazon no invierte US$ 33.000 millones en capacidad que crea que va a quedar ociosa. Google y Microsoft tampoco. Las tres empresas con mayor visibilidad sobre la demanda global de computación para IA todavía aceleran sus inversiones. Si desarrollan esta infraestructura con semejante intensidad, es porque ven una curva de demanda que los mercados públicos todavía no reflejan por completo en los precios.
  • El silicio personalizado se convirtió en un verdadero contrapeso para Nvidia. Anthropic ya usa más de un millón de chips Trainium2 y asumió un compromiso con las próximas tres generaciones. Es la primera vez que el dominio de Nvidia en el entrenamiento de IA de vanguardia con GPU encuentra una alternativa documentada a escala real. La guerra de los chips abrió un nuevo frente.
  • La limitación hoy es física, no financiera. En este momento, el capital no representa el cuello de botella de la IA: la capacidad sí. Se trata de un problema distinto y favorece a las empresas que pueden asumir, de manera creíble, el compromiso de construir infraestructura con una proyección de cinco años. Los grandes proveedores de servicios en la nube están en condiciones de hacerlo. La mayoría del resto de los jugadores, no.
SE PUEDE USAR/Sundar Pichai (Foto: Nguyen Hung Vu from Hanoi, Vietnam, CC BY 2.0 <https://creativecommons.org/licenses/by/2.0>, via Wikimedia Commons)
Anthropic al cerrar acuerdos con Google, suma distribución dentro de la base empresarial de Google Cloud. (Foto: Nguyen Hung Vu from Hanoi, Vietnam, CC BY 2.0 <https://creativecommons.org/licenses/by/2.0>, via Wikimedia Commons).

La mirada que sostiene la mayoría de los analistas, según la cual la IA constituye una burbuja financiera en la que la plata circula en círculo, resulta equivocada. La plata no gira sobre sí misma. La capacidad se reserva con años de anticipación porque la oferta no alcanza para cubrir la demanda, y en el sector todos lo saben.

Amazon pagó US$ 33 mil millones por algo que todavía no existe. Eso no refleja una burbuja especulativa; más bien, deja al descubierto las limitaciones del producto por el que está pagando y el tiempo que demandará desarrollarlo.

Mirá los informes de capacidad. Mirá las cifras de gigavatios. Mirá la velocidad con la que los proveedores de servicios en la nube a gran escala ponen en marcha nuevos centros de datos. Ahí se define hoy la industria de la IA. No en las pruebas de rendimiento de los chips, ni en las clasificaciones de modelos, y mucho menos en las presentaciones trimestrales de resultados. En los hechos, la disputa pasa por los lugares donde se levantan los edificios y por la cola de TSMC, donde todos esperan su turno.

*Este artículo fue publicado originalmente por Forbes.com

10