A Amazon dominou a primeira era da nuvem. O boom da IA deu início à Nuvem 2.0 e, desta vez, a empresa não tem uma vantagem inicial.

Amazon dominou a era da nuvem, mas não tem vantagem na era da Nuvem 2.0.

  • A era da Nuvem 1.0 foi dominada pela Amazon Web Services.
  • O boom da IA generativa trouxe a era da Nuvem 2.0.
  • A Amazon não tem vantagem desta vez e precisa de ajuda para alcançar a Nvidia.

Quando você está construindo uma casa, pode fazê-lo de várias maneiras.

Você pode construir todas as ferramentas de que precisa e depois ir para a floresta cortar madeira e transformá-la em sua estrutura final.

Ou você pode ir para a Home Depot e comprar madeira que já foi cortada, juntamente com todos os pregos, martelos e outros equipamentos de que precisa.

Ou você pode contratar um empreiteiro para fazer a maior parte do trabalho.

Ao longo dos últimos 15 anos, a Amazon Web Services se tornou a empreiteira para quem quer construir algo online. Um site, um aplicativo, um serviço de software empresarial. Hoje em dia, poucos desenvolvedores se aventuram na floresta digital para cortar seus próprios semicondutores e construir seus próprios servidores e centros de dados. A AWS faz tudo por você e fornece a maioria das ferramentas de que você precisa.

Isso é o que transformou a AWS de uma ideia marginal em 2006 em um negócio de US$ 80 bilhões, com margens de lucro suculentas e uma base de clientes enorme e fiel. Essa é a essência de uma plataforma tecnológica.

O surgimento da IA generativa criou o que alguns tecnólogos estão chamando de Nuvem 2.0. Há uma nova pilha de hardware, software, ferramentas e serviços que impulsionarão as aplicações de IA nos próximos anos. Qual empresa será a empreiteira escolhida neste novo mundo? Quando você está construindo sua casa de IA, a quem você recorrerá para obter toda aquela madeira digital e as ferramentas certas que funcionam bem juntas para fazer o trabalho?

No momento, a AWS não parece ser a líder aqui, enquanto a Nvidia tem uma grande vantagem.

Jensen Huang, CEO da Nvidia
Rick Wilking/Reuters

A Nvidia projeta e vende GPUs que são o chip escolhido por quase todos que estão criando grandes modelos de linguagem e outros modelos de IA. Esses componentes eram usados por pesquisadores de IA há mais de uma década, quando Andrew Ng e outros descobriram que as GPUs podem lidar com muitos cálculos em paralelo. Em contraste, a AWS lançou sua GPU Trainium para treinamento de modelos de IA em dezembro de 2020, quase uma década depois.

Durante essa década, a Nvidia também construiu uma plataforma em torno de suas GPUs que ajudou os desenvolvedores de IA em seus trabalhos. A empresa criou compiladores, drivers, um sistema operacional, ferramentas, bibliotecas de código, notas e vídeos de treinamento, e muito mais. O núcleo dessa plataforma é uma linguagem de programação chamada CUDA.

Há agora mais de 4 milhões de desenvolvedores registrados na Nvidia que usam CUDA e todas as suas ferramentas relacionadas. Isso representa um aumento em relação aos 2 milhões de agosto de 2020 e 1 milhão dois anos antes. O equivalente mais próximo que a AWS tem agora é chamado de Neuron. Isso foi lançado em 2019, de acordo com sua página no Github. CUDA foi lançado em 2007.

Bibliotecas, modelos e frameworks

Michael Douglas, ex-executivo da Nvidia, falou recentemente com analistas da Bernstein sobre tudo isso, explicando que o software e as ferramentas da fabricante de chips estão muito à frente da concorrência:

  • Há 250 bibliotecas de software disponíveis para desenvolvedores que se baseiam no CUDA. Uma biblioteca é um código pré-construído que executa uma função, como lidar com vídeo ou áudio ou fazer algo em gráficos.

  • Há também 400 modelos pré-construídos que a Nvidia oferece aos desenvolvedores para tarefas de IA, como reconhecimento de imagem e síntese de voz.

  • Essas bibliotecas e modelos são combinados com frameworks de software populares, como PyTorch, TensorFlow, Windows e VMware.

  • Tudo isso é empilhado em cima de 65 plataformas. Uma plataforma fornece a maioria dos outros softwares de que os desenvolvedores precisam para operacionalizar algo em um ambiente em um centro de dados ou na borda, com IA.

“O que isso significa é que é como se você quisesse construir uma casa, a diferença entre ir para a floresta e ter que cortar suas próprias árvores e fazer suas próprias ferramentas ou ir para a Home Depot, onde você compra a madeira e as ferramentas e faz tudo funcionar junto”, disse Douglas.

Nuvem 2.0

Outro ponto chave aqui: A maioria dos desenvolvedores de IA já sabe como usar CUDA e GPUs da Nvidia. Todos os truques e atalhos estão incorporados na comunidade.

Argumentavelmente, a Nvidia já criou uma plataforma de nuvem de IA – assim como a AWS fez para a era da Nuvem 1.0. Conforme avançamos para a Nuvem 2.0, será difícil para a AWS, ou qualquer outra pessoa, superar isso.

“A Nvidia tem apostado em IA há muito tempo. Eles têm um nível de maturidade de software que nenhum outro provedor pode igualar”, disse Luis Ceze, CEO e cofundador da startup de IA OctoML. “Com a Amazon, ainda há muito a amadurecer. As pessoas devem ter confiança de que o silício é bom e o software do sistema está presente.”

A oferta da Amazon simplesmente ainda não está completa, acrescentou. “Veja a experiência dos desenvolvedores ao tentar treinar modelos de IA na AWS em comparação com a Nvidia. Essas são realidades completamente diferentes no momento”, explicou Ceze.

O ciclo de feedback Amazon-Anthropic

No entanto, não descarte a AWS ainda. É só o começo, como Andy Jassy e Adam Selipsky continuam dizendo. James Hamilton é um gênio da infraestrutura de nuvem da AWS que pode competir com a Nvidia, mesmo que a fabricante de chips tenha uma grande vantagem inicial.

“A Nvidia tem uma vantagem no mercado devido às vantagens em software”, disse Oren Etzioni, diretor técnico do AI2 Incubator e parceiro do Madrona Venture Group. “Há um argumento de que essa janela está começando a se fechar.”

A corrida da Nuvem 2.0 realmente começou no final de setembro, quando a Amazon anunciou um investimento de até US$ 4 bilhões em uma startup de IA chamada Anthropic. Essa empresa relativamente pequena baseada em San Francisco está repleta de pesquisadores que ajudaram a criar a tecnologia GPT no centro do boom atual da IA generativa. A Anthropic possui um dos modelos de IA grandes mais capazes disponíveis, chamado Claude.

Dario Amodei, CEO e cofundador da Anthropic
Anthropic

A Anthropic agora usará os chips Trainium e Inferentia internos da AWS para construir, treinar e implantar seus futuros modelos de IA, e as duas empresas colaborarão no desenvolvimento das futuras tecnologias Trainium e Inferentia.

Uma parte chave aqui é o ciclo de feedback entre Anthropic e AWS. Esses pioneiros em IA da Anthropic estão agora comprometidos em usar as GPUs da AWS, juntamente com todo o software e ferramentas relacionadas. Se a AWS estiver com alguma deficiência nessa área, a Anthropic pode ajudar a identificar as maiores lacunas e sugerir formas de preenchê-las.

Para competir com a Nvidia, a AWS realmente precisava de um grande desenvolvedor como esse. Tudo o que foi necessário foi de US$ 1 bilhão a US$ 4 bilhões.

“A Amazon precisa de um grande jogador de IA usando seu próprio silício”, disse Ceze. “A capacidade da Amazon de mostrar a Anthropic executando suas cargas de trabalho em chips da Amazon é uma vitória. Eles querem que outras pessoas construam modelos de IA com confiança de que o silício é bom e o software é maduro.”

Avoiding the Nvidia tax

Fabricar seus próprios chips de IA é uma vantagem realmente importante para vencer a corrida da Nuvem 2.0. Se a AWS tiver que continuar comprando GPUs da Nvidia, terá que pagar uma margem para a Nvidia. (Alguns especialistas em IA chamam isso de imposto da Nvidia). Isso tornará os serviços de nuvem Trainium e Inferentia da AWS mais caros de operar.

Se, em vez disso, a AWS puder fabricar seus próprios chips de IA, ela poderá manter essa margem de lucro da Nvidia para si mesma. Isso significa que ela pode oferecer serviços de nuvem de treinamento e inferência de IA mais econômicos.

Em um evento recente da AWS em Seattle, Selipsky, CEO da AWS, enfatizou essa mensagem: os serviços de nuvem de IA da AWS serão competitivos com base no “desempenho de preço”. Isso significa que deverá ser mais eficiente construir modelos de IA na AWS, de acordo com o CEO.

Adam Selipsky, CEO of AWS
Noah Berger/Getty Images for Amazon Web Services

Na era da Nuvem 1.0, a AWS conseguiu isso em parte por meio da aquisição da Annapurna Labs em 2015. Essa startup ajudou a Amazon a projetar seus próprios CPUs Gravitron para seus data centers na nuvem. De repente, a AWS não precisava mais comprar tantos chips Xeon caros da Intel. Isso foi um elemento importante que tornou a AWS um provedor de nuvem competitivo e bem-sucedido.

Quão fácil é mudar da Nvidia?

Aqui está o problema: você pode ter ótimos chips de IA e ótimos preços, mas alguém mudará para usar GPUs da Nvidia e a plataforma CUDA? Se não o fizerem, a AWS pode não vencer a Nuvem 2.0 da mesma forma que venceu a Nuvem 1.0.

Isso nos remete à analogia da construção de uma casa. No momento, a Nvidia provavelmente oferece a melhor combinação de madeira e ferramentas para concluir o trabalho. Se você já está usando isso, pode mudar facilmente?

Perguntei a Sharon Zhou, cofundadora da Lamini AI. Sua startup passou meses construindo um centro de dados do zero para ajudar os clientes a treinar modelos de IA. Quando foi revelado em setembro, a surpresa foi que a Lamini usou GPUs da AMD em vez de chips da Nvidia.

Como foi a mudança? Zhou disse que a Lamini nem tentou porque seria muito difícil.

“Nós nunca mudamos. Começamos a empresa com a AMD. É por isso que funciona”, disse ela. “Mudar seria mais difícil do que começar do zero. Se você quiser mudar, teria que aplicar uma grande reformulação em todo o seu código-base.”

Ela também voltou a um dos mesmos pontos que Douglas, o ex-executivo da Nvidia, mencionou: as bibliotecas de IA e outras estruturas e ferramentas em torno do CUDA são mais desenvolvidas.

“As bibliotecas estão fortemente integradas com a Nvidia hoje”, disse Zhou. “Você precisa reimplementar habilidades fundamentais para trabalhar com modelos de linguagem grandes. Além dos fundamentos, você precisa fazer o mesmo para outras bibliotecas comuns também.”

As restrições da Nvidia

Etzioni disse que a Nvidia ainda tem 2 principais restrições com desenvolvedores de IA.

A primeira é que o PyTorch, uma estrutura popular de IA, é otimizado para CUDA e, portanto, GPUs da Nvidia. A OctoML, a startup que Ceze administra, está trabalhando em diversas correções técnicas complicadas que espera que facilitem para os desenvolvedores de IA usar qualquer GPU com diferentes estruturas e plataformas no futuro, incluindo as ofertas da AWS.

Em segundo lugar, uma vez que você pode se conectar eficientemente a outra pilha de software de IA, essa plataforma alternativa deve ser pelo menos tão boa quanto o CUDA. “E as alternativas ainda não estão lá”, disse Etzioni.

No momento, a AMD pode ser a mais próxima da Nvidia, de acordo com Etzioni. Essa fabricante de chips possui o ROCm, uma plataforma de software que oferece aos desenvolvedores de IA acesso a linguagens, bibliotecas e ferramentas populares.

Ele não mencionou a AWS ou o Trainium, no entanto.