Forbes Argentina
Entre los cofundadores de Anthropic se encuentran los hermanos Dario Amodei (izq
Innovacion

Amazon da un golpe en la mesa de la IA e invierte US$ 4.000 millones en Anthropic, fundada por exempleados de OpenAI

Pablo Wahnon

Share

El gigante tecnológico se hace presente en la carrera por la IA Generativa al ingresar en Anthropic para crear un nuevo tipo de modelo que sea más seguro y confiable para responder a las necesidades corporativas.

27 Septiembre de 2023 11.10

Los Tensores con los que soñara Albert Einstein para desarrollar su teoría de la relatividad general hoy bailan al ritmo del mejor chip. Esas estructuras matemáticas son ahora uno de los componentes claves en los algoritmos que requieren de procesadores especializados para las inteligencias artificiales generativas. 

El diseño de chips especializados ahora tiene en Amazon nuevas propuestas que quieren potenciar a partir de incorporar Claude 2, el gran modelo de lenguaje de Antrhopic, dentro de la impresionante infraestructura que están creando en AWS.   

Si bien OpenAI picó en punta con ChatGPT, al juego se sumaron otros fabricantes referentes de la industria como Google y Meta. El primero porque además de ser pionero en estas tecnologías vio amenazado el core central de su negocio. Si la gente ya no googlea y todo se hace por chatbots de IA, ¿Cómo van a seguir vendiendo avisos de AdSense y así mantener su negocio publicitario que es el gran sostén económico de la compañía?. Las alarmas sonaron más fuertes que nunca, su acción se derrumbó. 

Pero Google no se quedó quieto y lanzó Bard su chatbot de IA generativa que además la última semana tomó la delantera al poder manejar las apps de Google como Gmail o Youtube. Ese es precisamente el paso que quiere dar la próxima versión Chat GPT 5, lograr que se convierta en una interfaz que directamente maneja las apps por el usuario sea para realizar una compra o un posteo en redes sociales con una foto retocada de acuerdo a determinado criterio. La IA se ocupará del trabajo pesado con cada App. Además Google ya dio a conocer en algunas empresas seleccionadas Gemini, un LLM que promete tener más parámetros que el producto estrella de OpenAI.

Meta por otra parte lanzó su Llama 2 una versión Open Source de su LLM ya entrenado que es la parte más costosa del proceso. Compartir un LLM ya entrenado es sencillo y barato, en cambio entrenarlo es un proceso muy costoso donde se requiere de mucho tiempo en grandes centros de cómputo. Meta retomó los orígenes de OpenAI que tienen que ver con compartir el código y la comunidad está enloquecida por sacarle el mayor proyecto. 

Ahora se sumó al juego Amazon: el gigante que logró capturar el negocio de infraestructura de nube con AWS justo delante de las propias narices de empresas supuestamente mucho más especializadas como Microsoft, IBM y Oracle. En una maniobra estratégica Amazon se comprometió a invertir hasta 4 mil millones de dólares en Anthropic, un formidable rival de OpenAI. 

Esta colaboración de alto riesgo tiene como objetivo desarrollar modelos de IA altamente controlables, seguros y líderes en la industria. Amazon Web Services (AWS), el gigante de la computación en la nube, será fundamental para la arquitectura digital de Anthropic, utilizando soluciones de silicio personalizadas creadas internamente por AWS, con sus chips Trainium e Inferentia para entrenar e implementar estos modelos de IA. 

La inyección de capital de 4 mil millones de dólares posiciona a Amazon como un accionista minoritario en Anthropic, mientras que AWS se convierte en el eje de las iniciativas de misión crítica de Anthropic, incluida la investigación de seguridad y el desarrollo de futuros modelos de base. Este movimiento es paralelo a la inversión estratégica anterior de Microsoft en OpenAI, en la que Microsoft no solo invirtió miles de millones sino que también obtuvo una licencia exclusiva para incorporar el modelo de IA generativa de OpenAI en su ecosistema tecnológico. En particular, Anthropic fue fundada por ex empleados de OpenAI, lo que indica un panorama cambiante de la dinámica de poder en la industria de la IA.

Las claves de Antrhopic

La colaboración extiende sus ramificaciones a Amazon Bedrock, una plataforma que incorpora Claude 2, el modelo de lenguaje de vanguardia de Anthropic. Lanzado en agosto, Claude 2 marcó un hito en la evolución de los grandes modelos de lenguaje al ofrecer una asombrosa ventana de contexto de 100.000 tokens, equivalente a aproximadamente 200 páginas de texto. Sus capacidades versátiles de ingesta de datos abarcan texto, correos electrónicos, transcripciones de chat e incluso bases de código completas, lo que mejora su aplicabilidad en varias aplicaciones de inteligencia artificial a nivel empresarial.

Un componente clave de este acuerdo es que en el futuro, Anthropic canalizará la mayoría de sus cargas de trabajo a través de AWS, aprovechando los aceleradores de hardware especializados de Amazon, Trainium e Inferentia, para construir y entrenar futuros modelos básicos. Anthropic también corresponderá ofreciendo a los usuarios de la nube de AWS acceso a generaciones futuras de sus modelos básicos a través de Amazon Bedrock. Si bien la inversión de 4.000 millones de dólares acaparará los titulares, aquí es donde la cuestión se pone de manifiesto.

Se espera que AWS se apoye en Anthropic en los próximos meses y aproveche la tecnología para impulsar una serie de soluciones impulsadas por IA para sus ofertas principales. Todo el enfoque en IA se centra principalmente en Nividia cuando se trata de las GPU de la compañía. pero AWS está trazando su camino en gran medida con silicio desarrollado internamente, en marcado contraste con la trayectoria de Microsoft. Con Google y AWS centrándose en sus chips, será interesante observar cómo se desarrolla esta estrategia y qué hará Microsoft al respecto.

En un período en el que las capacidades de aprendizaje automático se han vuelto cruciales para la ventaja competitiva, la inversión de AWS en sus aceleradores de silicio personalizados es notablemente estratégica. Los chips Inferentia y Trainium prometen un rendimiento bruto y rentabilidad. Se integran en los tipos de instancias EC2 Inf1 y Trn1 de Amazon, que cuentan con aumentos de rendimiento y ahorros de costos de magnitud significativa, satisfaciendo así las diversas necesidades de las empresas, desde nuevas empresas hasta gigantes de la industria.

Esta colaboración entre el poder financiero y la infraestuctura de Amazon y la tecnología innovadora de Anthropic tiene el potencial de establecer nuevos puntos de referencia para la seguridad y el rendimiento de la IA en diversos sectores. A medida que Microsoft y Google continúan avanzando con sus soluciones internas de inteligencia artificial, AWS se ve obligado a tomar nuevas medidas para mantener su ventaja competitiva. AWS espera que esta colaboración aproveche su silicio personalizado y vincule a Anthropic con su tecnología subyacente. Sin más detalles sobre la estructura de asignación de capital, es posible especular qué parte de la inversión principal de 4.000 millones de dólares se traduce realmente en créditos en la nube en lugar de dinero contante y sonante.

El énfasis mutuo en la seguridad de la IA y el escalamiento responsable es de gran importancia, un enfoque respaldado por la participación activa de ambas entidades en organizaciones globales de seguridad de la IA. AWS se vio firmemente arrastrado al debate sobre la ética de la IA ahora con este movimiento, y será interesante observar cómo se desarrolla. Un gigante acaba de mover las fichas. Y el mapa de la IA Generativa sumo a uno de los jugadores globales más relevantes.

* Con Información de Forbes US

loading next article
10