A OpenAI vai também recorrer às infraestruturas da Amazon Web Services (AWS) para operar os seus serviços de inteligência artificial. A empresa por detrás do ChatGPT anunciou um acordo com a Amazon avaliado em 38 mil milhões de dólares.
À medida que as suas soluções ganham escala e adopção, a necessidade de potência de computação da OpenAI continua a aumentar. Para responder a essa procura, a organização formalizou esta semana uma parceria estratégica plurianual com a Amazon, passando a poder usar a capacidade do principal fornecedor mundial de cloud - a AWS - para suportar o crescimento dos seus produtos e serviços.
No centro do contrato está o acesso a uma capacidade de computação muito significativa: a OpenAI refere que poderá utilizar centenas de milhares de GPU Nvidia, com a possibilidade de expansão para dezenas de milhões de CPU para colocar em produção os seus agentes de inteligência artificial. Segundo a empresa, a utilização da infraestrutura da Amazon começa “de imediato” e a totalidade da capacidade prevista no acordo deverá estar implementada até ao final de 2026.
Sam Altman, cofundador e CEO da OpenAI, sublinhou a importância desta base técnica: “Para desenvolver IA de ponta, é preciso dispor de uma potência de computação massiva e fiável.” E acrescentou: “A nossa parceria com a AWS reforça o ecossistema informático alargado que irá alimentar esta nova era e levar a IA avançada a todos.”
OpenAI e AWS: mais capacidade para escalar o ChatGPT e agentes de inteligência artificial
Este tipo de compromisso com a Amazon Web Services sinaliza uma fase em que a OpenAI procura garantir redundância e elasticidade operacional, sobretudo numa altura em que modelos e agentes exigem capacidade consistente para treino, afinação e execução em larga escala. Para o mercado, um contrato desta dimensão tende também a pressionar a concorrência entre fornecedores de cloud e a acelerar investimentos em hardware especializado, nomeadamente em GPU Nvidia.
Há ainda um lado prático frequentemente associado a acordos desta natureza: a capacidade de distribuir cargas de trabalho por diferentes regiões e centros de dados, ajustando disponibilidade e latência consoante a procura. Isso pode traduzir-se em maior estabilidade na entrega de serviços de inteligência artificial e numa resposta mais previsível em momentos de pico de utilização.
OpenAI fica cada vez menos dependente da Microsoft
O entendimento com a Amazon surge num contexto em que a OpenAI divulgou recentemente uma nova estrutura, pensada para facilitar a captação de mais financiamento no futuro e que poderá até abrir a porta a uma eventual entrada em bolsa mais tarde. Em paralelo, a empresa tem vindo a reduzir a sua dependência da Microsoft, até porque a alteração estrutural implicou a renegociação do seu acordo estratégico com a tecnológica.
O novo enquadramento com a Microsoft dá mais margem de manobra à OpenAI. A empresa já tinha explicado: “A OpenAI pode agora desenvolver alguns produtos em colaboração com terceiros. Os produtos de API desenvolvidos com terceiros serão exclusivos do Azure. Os produtos não API podem ser disponibilizados por qualquer fornecedor de serviços cloud.” Além disso, o acordo actualizado estabelece que a Microsoft deixa de ter direito de preferência para ser o fornecedor de computação da OpenAI.
Ainda assim, a OpenAI mantém um compromisso relevante com a Microsoft: a organização comprometeu-se a comprar 250 mil milhões de dólares em serviços Azure, concorrente directo da Amazon Web Services. Esta combinação de compromissos - AWS para expansão de capacidade e Azure como pilar contratual de grande escala - reforça a ideia de uma estratégia multi-fornecedor orientada para garantir computação suficiente, reduzir riscos de dependência e sustentar a próxima etapa de crescimento do ChatGPT e de outros produtos de inteligência artificial.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário