Lisa Su, da AMD, está pronta para estragar a festa dos chips de trilhões de dólares da Nvidia.

Lisa Su, AMD CEO, ready to spoil Nvidia's trillion-dollar chip party.

A demanda pelos processadores amigáveis à inteligência artificial da Nvidia é tão forte que, em maio, os investidores atribuíram à empresa uma valorização de mercado acima de US$ 1 trilhão, aproximadamente equivalente ao PIB da Arábia Saudita no ano passado. Os chips certamente têm o potencial de se tornarem tão vitais quanto o petróleo em uma economia impulsionada pela IA, mas no rápido mundo dos negócios de tecnologia, nem mesmo um líder de mercado pode se acomodar e confiar em reservas comprovadas para prolongar sua supremacia.

Para Jensen Huang, CEO da Nvidia, vestindo sua jaqueta de couro, a ameaça mais séria vem de uma fabricante de chips da mesma cidade, armada com uma combinação única de habilidades em processamento gráfico e uma identidade corporativa forjada ao longo dos anos enfrentando gigantes. Liderada por Lisa Su, a AMD tem como objetivo conquistar uma parte considerável do mercado de chips de IA e, à medida que a revolução da IA se desenrola, até mesmo desbancar a Nvidia como líder do setor.

“Acredito que esta seja uma oportunidade para nós escrevermos o próximo capítulo da história de crescimento da AMD”, disse Su à ANBLE em uma entrevista em meados de setembro. “São poucas as empresas no mundo que têm acesso à propriedade intelectual que temos e ao conjunto de clientes que temos, e a oportunidade, francamente, de moldar como a IA é adotada em todo o mundo. Sinto que temos essa oportunidade”.

Su tem bons motivos para exaltar as chances da AMD em um mercado de chips de IA que, segundo ela, valerá US$ 150 bilhões até 2027. Sua empresa pode ser mais conhecida como a eterna segunda opção da Intel no mercado de microprocessadores de PCs e servidores, mas graças à sua aquisição em 2006 da ATI, uma fabricante de chips canadense focada em aceleradores de videogame, agora é a segunda maior player em GPUs – o tipo de chip que é muito adequado para treinar modelos de IA como o GPT-4 da OpenAI e o Bard do Google.

Com a Nvidia, que segundo algumas estimativas tem mais de 90% do mercado de treinamento de IA, lutando para atender à demanda por seu chip de IA mais poderoso – o H100 – Su está preparando um ataque direto com o lançamento do rival MI300 da AMD neste trimestre.

“Certamente haverá cenários em 2024 em que imaginamos que as GPUs da Nvidia estarão esgotadas e os clientes terão acesso apenas à AMD, e a AMD poderá conquistar alguns negócios dessa forma, apenas com base na disponibilidade”, diz Brian Colello, diretor do setor de tecnologia da Morningstar.

“A questão de trilhões de dólares para a avaliação da Nvidia se resume a duas coisas: quão grande é esse mercado e quão dominante eles serão nesse mercado?” Colello diz. É uma coisa se a Nvidia conseguir comandar 95% do mercado de IA, relegando a AMD para um distante segundo lugar. Mas se for uma divisão de 70/30, ele diz: “isso seria muito bom para a AMD”.

Quanto a como essa divisão se desenrolará, tudo se resume a batalhas por desempenho, flexibilidade e, neste momento de incerteza na cadeia de suprimentos, disponibilidade, áreas em que Su é especialmente experiente em lidar.

Parentes distantes, concorrentes próximos

Enquanto Huang, às vezes arrogante e que dirige uma Ferrari, está tocando a empresa que fundou, Su – deliberada, franca e com a reputação de ser uma pessoa de relacionamento fácil – está entrando em seu décimo ano no comando de uma empresa ainda mais antiga que ela é amplamente creditada por ter resgatado.

Imigrante de Taiwan aos 3 anos de idade – ela e Huang são naturais da cidade de T’ai-nan e, de fato, parentes distantes – Su se tornou uma engenheira elétrica altamente respeitada na IBM, onde chefiou a divisão de produtos emergentes. Depois de passar um tempo como diretora de tecnologia da Freescale Semiconductor, Su ingressou na AMD como vice-presidente sênior em 2012, antes de se tornar presidente e CEO dois anos depois.

Embora a estratégia inicial de Su para salvar a AMD envolvesse diversificar suas linhas de produtos além do mercado de PCs para áreas como jogos e computação de alto desempenho, a rivalidade da empresa com a Intel ainda exigia muita atenção. Isso pode ter sido inevitável, mas os analistas dizem que isso dá à Nvidia uma vantagem hoje.

A Nvidia investiu pesadamente na última década para facilitar para os desenvolvedores aproveitarem o poder de processamento paralelo de suas GPUs ao construir suas aplicações que consomem dados – por meio de uma interface chamada CUDA – mas a rivalidade da AMD com a Intel em CPUs significava que “não investiu tão profundamente em software baseado em IA para seus GPUs de data center”, disse o analista da Gartner Alan Priestley.

“A IA é uma oportunidade para nós escrevermos o próximo capítulo da história de crescimento da AMD.”

Lisa Su, CEO da AMD

“As muralhas do castelo da Nvidia são o seu ecossistema de software”, disse Priestley. Em comparação com o CUDA, a pilha de programação ROCm da AMD tem a reputação de ser mais problemática e de maior complexidade.

Gregory Diamos, co-fundador da startup de IA Lamini e ex-arquiteto CUDA na Nvidia, diz que acredita que a AMD está se aproximando. “A AMD tem colocado centenas de engenheiros em sua iniciativa de IA de propósito geral”, diz ele.

Mas até mesmo Su reconhece que há trabalho a ser feito. “Serei a primeira a dizer que nosso hardware é excelente e nosso software está continuamente melhorando com o tempo”, diz ela. “Para algumas das aplicações de IA que foram escritas no passado, migrá-las para a AMD requer algum trabalho.” No entanto, ela argumenta que o ROCm é “muito bem otimizado” para cargas de trabalho de IA mais recentes.

A próxima fase da IA

A grande oportunidade da AMD pode vir com a evolução natural da IA.

As empresas de IA adoram as GPUs por sua capacidade de executar várias tarefas simultaneamente. A potência de computação necessária para renderizar imagens gráficas ricas e em movimento rápido em jogos de vídeo pode ser facilmente utilizada para treinar grandes modelos de linguagem como o GPT-4 da OpenAI em grandes quantidades de dados brutos em um período relativamente curto de tempo.

Mas muitos analistas acreditam que a maior parte do mercado de IA não está no treinamento de LLMs, mas sim na implementação deles: configurar sistemas para responder bilhões de consultas que são esperadas à medida que a IA se torna parte do cotidiano. Isso é conhecido como “inferência” (porque envolve o modelo de IA usando seu treinamento para inferir coisas sobre os novos dados apresentados), e se as GPUs continuam sendo os chips preferidos para inferência é uma questão em aberto.

Como os chamados hyperscalers como Meta e Google já estão demonstrando com seus esforços para desenvolver chips de IA internos como os TPUs, os grandes players acabarão querendo silício especializado para fornecer eficientemente serviços de IA. Muitos também veem um grande papel para as CPUs no mercado de inferência, uma mudança que jogaria a favor das tradicionais forças da AMD.

O próximo chip para data centers da série MI300 combina uma CPU com uma GPU. “Na verdade, achamos que seremos líderes da indústria em soluções de inferência, por causa das escolhas que fizemos em nossa arquitetura”, diz Su.

Colello, da Morningstar, concorda que o mercado está evoluindo e não exclui os próprios esforços da Intel, rival da AMD, para desafiar a Nvidia com seus novos processadores de IA, Gaudi2 (para treinamento) e Greco (para inferência). “Naturalmente, há muito incentivo para todas essas empresas não dependerem exclusivamente da Nvidia, e quererem mais concorrência, escrever o software, transferir os modelos e tomar todas as medidas necessárias para garantir um ecossistema saudável que inclua Nvidia, AMD, talvez Intel e também seus próprios chips internos que estão desenvolvendo”, disse ele.

A Nvidia, por sua vez, diz que está “intensamente focada” na inferência. O desempenho de inferência da GPU da empresa aumentou oito vezes no último ano, e a Nvidia está “investindo em nosso roadmap para inferência”, disse um porta-voz à ANBLE.

A empresa também reconhece que não será a única opção para sempre e que é natural que os clientes queiram ter opções de vários fornecedores. “Um ecossistema competitivo é positivo para o espaço de IA, pois acelera o estado da arte de forma mais rápida e eficiente, e certamente incentivamos e damos boas-vindas à concorrência”, disse um porta-voz da Nvidia.

Su não está apenas mirando nos data centers que oferecem capacidades de IA através da nuvem – a IA também precisará ser executada diretamente nos dispositivos pessoais das pessoas e em outros aparelhos conectados à internet. “O sucesso”, ela disse à ANBLE, “é realmente capturar uma proporção significativa do uso de computação em IA”.

Claro, a Nvidia também está mirando em todos esses segmentos e agora está até tentando entrar no mercado de CPUs de alto desempenho com um novo “superchip” chamado Grace, que está sendo combinado com a GPU H100. “A Nvidia ainda quer dominar o mercado de inferência, e é possível que eles consigam”, disse Colello. “Para qualquer investidor otimista em relação à Nvidia, eles provavelmente estão assumindo uma varredura completa de todos os tipos de processo de IA que passam por um chip e/ou rede da Nvidia”.

Mas mesmo que a Nvidia permaneça no topo, Colello vê a forte segunda posição da AMD como “muito invejável e [que proporciona] um ótimo negócio”. E Su está determinada em aproveitar ao máximo a explosão da IA.

“Ficou abundantemente claro, certamente com a adoção da IA generativa no último ano, que este [setor] tem espaço para crescer em um ritmo incrivelmente rápido”, disse ela. “Estamos prevendo uma taxa de crescimento anual composta de 50% para os próximos cinco anos ou mais, e existem poucos mercados que conseguem isso em tamanho quando se está falando de dezenas de bilhões de dólares”.

Este artigo aparece na edição de outubro/novembro de 2023 da ANBLE com o título “AMD está pronta para acabar com a festa da Nvidia”.