En una conferencia telefónica sobre resultados el mes pasado, el director ejecutivo de Google, Sundar Pichai, afirmó que la compañía invertiría hasta US$ 185.000 millones en inversiones de capital relacionadas con la IA este año, una cifra desorbitada que duplica con creces los US$ 90.000 millones que invirtió en 2025. Pero esto podría ser solo el comienzo. En los próximos años, el gasto del gigante tecnológico en centros de datos representará una «inversión significativa», según declaró a Forbes Amin Vahdat, el recién nombrado director de tecnología de infraestructura de IA de Google, en su primera entrevista en el puesto.
“En números simples, si hay una cotización a 10 años, y estamos en US$ 175.000 a US$ 185.000 millones este año, uno podría imaginar, suponiendo que no va a bajar, que esto podría extenderse a una cifra grande durante 10 años”, dice.
Hicimos los cálculos. Con un gasto de US$ 185.000 millones al año, en ocho años, Google gastaría US$ 1,5 billones, un poco más de lo que OpenAI se ha comprometido a invertir durante el mismo período. Si ampliamos ese gasto a 10 años, como señaló Vahdat, Google gastaría US$ 1,9 billones.
Vahdat deja claro que no se trata de una promesa de que Google vaya a invertir tanto en los próximos 10 años. Pero su perspectiva a lo largo de una década sugiere el alcance de la apuesta de Google. "La cuestión es que en Google estamos invirtiendo al máximo nivel", afirma.
Hay una gran diferencia entre las ambiciones de Google en cuanto a centros de datos y las de OpenAI: Google es una máquina de hacer dinero. En el cuarto trimestre, Alphabet, la empresa matriz de Google, obtuvo US$ 113.000 millones en ingresos; durante todo el año, las ventas superaron los US$ 400.000 millones por primera vez en los más de 25 años de historia de la compañía. En comparación, OpenAI invierte a niveles similares y solo generó unos US$ 13.000 millones en ingresos el año pasado, una fracción minúscula de los ingresos de Google y menos de la mitad de sus reservas de efectivo.
La demanda aparentemente insaciable de computación ha sido el motor económico central de la era de la IA. Ha disparado la capitalización de mercado de Nvidia a la exorbitante cifra de US$ 4,5 billones. El Proyecto Stargate, una iniciativa de OpenAI, SoftBank y Oracle para construir infraestructura de IA por valor de US$ 500.000 millones en EE. UU., ha sido una iniciativa tecnológica destacada para dar inicio al segundo mandato del presidente Trump, aunque, según informes, el progreso se ha estancado. En total, las grandes tecnológicas podrían invertir unos US$ 500.000 millones en centros de datos y chips de IA solo este año, según un informe de Goldman Sachs.
“Es justo decir que la demanda de TPU en la nube no tiene precedentes”.
Amin Vahdat, Google
El desarrollo de la infraestructura es tan vasto que es importante considerarlo a largo plazo, afirma Vahdat. Construir un solo centro de datos puede llevar varios años. La energía debe adquirirse con mucha antelación. Parte de ese gasto se destinará inmediatamente a chips y equipos de procesamiento de datos en los centros de datos existentes, añade, mientras que otra parte financiará nuevos emplazamientos. La semana pasada, por ejemplo, Google firmó acuerdos con AES y Xcel, dos proveedores de servicios públicos, para suministrar energía a sus centros de datos en todo el país.
Vahdat, veterano de 15 años en Google, se incorporó a la empresa tras una trayectoria académica como investigador y profesor, que incluyó estancias en Duke, la Universidad de Washington y la Universidad de California en San Diego (y realizó prácticas en Xerox Parc, el legendario laboratorio de investigación de Silicon Valley). Se incorporó a Google en 2010 para trabajar en redes informáticas y ascendió hasta asumir la dirección de las TPU (Unidades de Procesamiento Tensorial), los chips de IA personalizados del gigante tecnológico. En diciembre, fue ascendido para supervisar la estrategia de infraestructura de IA, que incluye el desarrollo y la optimización de chips, la construcción de centros de datos y las inversiones en energía, y reporta directamente al director ejecutivo, Sundar Pichai.
Anteriormente, las TPU de Google solo se usaban internamente para la infraestructura de Google: para impulsar aplicaciones de consumo como Gmail y YouTube, y eventualmente entrenar autos autónomos y desarrollar y ejecutar modelos de IA como Gemini. Ahora, son una de las opciones predilectas de la industria: quizás no tan populares como las Blackwells de gama alta de Nvidia, pero aún útiles para el preentrenamiento y la operación de modelos de IA a escala.
Google comenzó a vender acceso a ellas a través de un servicio en la nube en 2018, permitiendo que otras empresas alquilaran potencia de procesamiento. Pero más recientemente, Google ha firmado acuerdos de alto perfil, como un gran contrato con Anthropic, y, según se informa, ha estado en conversaciones con Meta para usar sus chips. En diciembre, Morgan Stanley estimó que las TPU podrían generar US$ 13.000 millones para Google para 2027. «Es justo decir que la demanda de TPU en la nube no ha tenido precedentes», afirma Vahdat, especialmente en los últimos años.
Un aspecto fundamental del desarrollo de los centros de datos es obtener la energía necesaria para alimentarlos, un objetivo frecuente para los críticos. En agosto, Vahdat, Jeff Dean, científico jefe de Google, y otros diez investigadores y ejecutivos de la compañía publicaron conjuntamente un artículo para contextualizar el consumo de energía de la IA. El artículo afirma que la señal promedio del modelo de IA Gemini de Google utiliza la misma cantidad de energía que se necesita para alimentar nueve segundos de televisión y consume aproximadamente cinco gotas de agua, lo que, según ellos, es "sustancialmente inferior a muchas estimaciones públicas". (Un informe indica que los grandes centros de datos pueden consumir hasta 19 millones de litros al día, el equivalente al consumo de agua de una ciudad de hasta 50.000 habitantes).
Debido a las críticas, otros gigantes de la IA se han comprometido a pagar más por la electricidad: el mes pasado, su rival en IA, Anthropic, creador del prestigioso chatbot Claude, se comprometió a estimar y cubrir los costos de las subidas de precios de la energía que puedan derivar de su consumo. "Me alegró mucho ver ese anuncio de Anthropic", afirma Vahdat. Añadió: "Pronto daremos más detalles sobre nuestra postura al respecto".
El mayor desafío que enfrenta Google, argumenta Vahdat, no es simplemente escalar, sino rediseñar la construcción de su propia infraestructura. Durante los próximos cinco años, prevé que los centros de datos dejarán de lado la construcción a medida y adoptarán diseños más modulares y repetibles: planos estandarizados capaces de replicarse globalmente a una velocidad sin precedentes. Este tipo de apuesta podría consolidar la posición de Google como competidor principal en la carrera de la IA en los próximos años. (I)
Nota publicada en Forbes US