Suscribite
    ¡Hola!
    Cuenta
Forbes Argentina
NO VOLVER A USAR
Negocios

SoftBank busca el mayor préstamo de su historia para financiar el futuro de OpenAI

Renana Ashkenazi

Share

El grupo japonés redobla su apuesta por la inteligencia artificial con una jugada audaz de Masayoshi Son: salir del fabricante de chips más valioso y cargar deuda para respaldar al creador de ChatGPT, mientras intenta capturar valor en distintos niveles de la cadena tecnológica.

6 Marzo de 2026 11.00

SoftBank busca un préstamo de US$ 40 000 millones, el mayor crédito en dólares de su historia, para financiar su inversión en OpenAI. La calificadora S&P Global Ratings ya reaccionó: bajó la perspectiva crediticia de SoftBank Group y citó preocupaciones por la liquidez. En otras palabras, Masayoshi Son usa al máximo el balance de la compañía para sostener esta apuesta.

Para entender por qué, conviene retroceder una semana. El 27 de febrero, OpenAI anunció de forma oficial una ronda de financiación por US$ 110 000 millones, una de las mayores inversiones privadas en la historia de la tecnología. En esa operación, SoftBank Group, Nvidia y Amazon comprometieron US$ 30 000 millones, US$ 30 000 millones y US$ 50 000 millones, respectivamente, con una valoración previa de US$ 730 000 millones. Para la mayoría de los observadores, el dato central fue la magnitud del capital que llegó al sector de la inteligencia artificial. Para Son, en cambio, la operación marcó el punto más alto de una tesis que había desarrollado durante meses y que mucha gente todavía interpreta mal.

Durante los últimos dos años, la mirada dominante fue clara: los verdaderos ganadores de la IA son las empresas de infraestructura, las que venden picos y palas. Cuando DeepSeek mostró en enero de 2025 que era posible construir modelos de frontera por una fracción del costo previsto, esa idea pareció confirmarse. La capa de infraestructura gana. La capa de modelos se vuelve un commodity. Sin embargo, Son acaba de desprenderse de toda su participación en el fabricante de palas más rentable de la historia y ahora busca prestados US$ 40 000 millones para redoblar su apuesta por la capa de modelos. Se trata de la jugada más contraria dentro de la IA actual, o de una señal de que está viendo un mapa de la cadena de valor distinto del que ve el resto.

Son no apuesta contra Nvidia. Apuesta a que la verdadera ventaja de la IA está tanto por encima como por debajo de esa capa. Y el punto es que ni siquiera es la primera vez que lo hace.

CEO de SoftBank, Masayoshi Son
Masayoshi Son, CEO de SoftBank.

SoftBank vendió una participación en Nvidia por US$ 3.600 millones en 2019. Si hubiera conservado esas acciones, hoy valdrían más de US$ 150.000 millones. Ese cálculo fallido se transformó en una de las advertencias más citadas dentro del capital de riesgo. En octubre pasado, Son volvió a vender toda su participación en Nvidia, por US$ 5.800 millones, para financiar la inversión en OpenAI. Conocía ese antecedente. Aun así, vendió otra vez. Y ahora toma una deuda de US$ 40.000 millones para empujar la apuesta.

Entonces, ¿qué ve realmente Son?

Acá aparece el giro de la historia. A pesar de vender todas las acciones de Nvidia, SoftBank todavía controla Arm Holdings, y ese dato cambia por completo la lectura de esta decisión.

Arm Holdings no fabrica chips. Diseña las arquitecturas de CPU que sirven de base para casi todas las compañías de semiconductores del mundo, que luego licencian esos diseños y construyen sobre ellos. Entre esas empresas figura Nvidia, cuyos chips Grace Blackwell funcionan sobre núcleos de Arm. Podés pensarlo así: Arm actúa como el arquitecto y Nvidia es una de las constructoras que levanta edificios con esos planos. Si Nvidia representa la capa de GPU que impulsa el entrenamiento y la inferencia de la inteligencia artificial, Arm se ubica un nivel más abajo, con la arquitectura de instrucciones sobre la que se basan muchos chips modernos.

Y acá la historia suma otro elemento. OpenAI, Google, Amazon y Meta Platforms desarrollan ASIC, es decir, circuitos integrados de aplicación específica. Esos chips se diseñan para ejecutar cargas de trabajo de IA con menor costo y mayor eficiencia que las GPU de uso general. Los chips personalizados esquivan los márgenes de Nvidia. Sin embargo, siguen apoyados en la arquitectura de Arm. En otras palabras, gran parte del dinero que entra al intento de competir con Nvidia termina, de un modo u otro, en Arm.

Sam Altman
OpenAI, Google, Amazon y Meta Platforms desarrollan ASIC, es decir, circuitos integrados de aplicación específica. Esos chips se diseñan para ejecutar cargas de trabajo de IA con menor costo y mayor eficiencia que las GPU de uso general. 

Son no abandona el hardware. Vacía la parte central de la pila, la capa más visible y con mayor competencia, y se posiciona al mismo tiempo abajo y arriba. Arm Holdings queda en la base de todo. OpenAI aparece en la parte superior. La franja del medio queda atrás de forma deliberada.

Nvidia no apuesta por el software

Justo cuando SoftBank Group salía de Nvidia, la firma de chips comprometió US$ 30 000 millones en la última ronda de OpenAI. A primera vista, el movimiento sugiere que Nvidia apuesta por la capa de aplicación. Pero conviene mirar la letra chica. Se espera que OpenAI compre capacidad de GPU por un monto que probablemente supere esa inversión con amplitud.

El director ejecutivo de Nvidia, Jensen Huang, lo dijo sin rodeos esta semana: los US$ 30 000 millones “podrían ser la última vez” que Nvidia invierta en OpenAI antes de su salida a bolsa. No se trata de una postura filosófica sobre dónde se concentra el valor en la IA. Es una maniobra financiera elegante: asegurar capital antes de la IPO de su cliente más importante, antes de que el mercado bursátil fije el precio.

Nvidia no cruza la mesa. La amplía y se asegura un lugar en la futura salida a bolsa.

La verdadera visión

La interpretación más tentadora señala que el péndulo empezó a moverse: que el capital rota de la infraestructura hacia las aplicaciones, algo parecido a lo que ocurrió a comienzos de los 2000, cuando el foco pasó de empresas como Cisco Systems y la fibra óptica a compañías como Google y las plataformas. Esa lectura resulta demasiado simple.

El próximo ciclo de la inteligencia artificial podría premiar a las empresas que controlen las interfaces entre capas, más que a las que dominen solo una parte de la pila tecnológica.

DeepSeek dejó esa idea a la vista como nunca antes. Al reducir de forma drástica el costo de entrenar un modelo de frontera y al recortar más de la mitad el costo de la inferencia mediante ajustes de arquitectura, mostró que el software por sí solo puede redibujar la demanda de hardware en un solo ciclo de producto. Cuando eso ocurre, la frontera entre “ventaja de hardware” y “ventaja de modelo” deja de ser una frontera clara. La demanda de hardware pasa a depender del software.

Nvidia-jensen-huang
El director ejecutivo de Nvidia, Jensen Huang, lo dijo sin rodeos esta semana: los US$ 30 000 millones “podrían ser la última vez” que Nvidia invierta en OpenAI antes de su salida a bolsa.

El marco de picos y palas siempre fue una simplificación: ordenada y útil, pero una simplificación al fin. Lo que aparece ahora no es un cambio brusco. Más bien, surge una constatación: en este ciclo, las capas están demasiado entrelazadas como para apostar por cada una por separado.

Para los desarrolladores, las posiciones más defendibles en IA no pasarán por las empresas de modelos puras ni por las compañías de chips puras. Estarán en aquellas que se vuelvan estructuralmente indispensables en todos los niveles. Para los inversores, la pregunta binaria —infraestructura o aplicaciones— empieza a quedar vieja.

La historia de la tecnología está llena de empresas que ganaron la primera batalla, la de la infraestructura, pero perdieron la guerra, la de la distribución. Cisco construyó internet, pero Google lo dominó. Son apuesta a que encontró dos posiciones imposibles de esquivar al mismo tiempo: la arquitectura que sostiene a los chips y la inteligencia que se monta sobre ellos.

Puede que haya llegado temprano. Casi seguro, no está equivocado.

*Este artículo fue publicado originalmente en Forbes.com

10