Lançamento do Gemini 3 e suas Implicações
O lançamento do Gemini 3 pelo Google está fazendo com que o mundo dos investimentos reavalie o cenário da inteligência artificial. Esse novo modelo de raciocínio não apenas superou as últimas inovações da OpenAI, a empresa privada que lidera os gastos massivos em IA, mas também foi totalmente treinado em chips personalizados do Google, conhecidos como unidades de processamento tensorial (TPUs), co-desenhadas com a Broadcom.
Meta e os TPUs do Google
Em uma publicação recente do The Information, foi relatado que a Meta Platforms está considerando a utilização dos TPUs do Google para seus centros de dados em 2027. Essa informação reacende o debate sobre a possibilidade de que o silício personalizado possa impactar o setor de unidades de processamento gráfico da Nvidia. As ações da Nvidia caíram para mínimas de quase três meses na última terça-feira. Em resposta, a Nvidia divulgou um comunicado no X, afirmando: "Estamos muito satisfeitos com o sucesso do Google— eles fizeram grandes avanços em IA e continuamos a fornecer para o Google." No entanto, a empresa complementou: "A Nvidia está uma geração à frente da indústria — é a única plataforma que suporta todos os modelos de IA e o faz em qualquer lugar onde a computação ocorra."
Oportunidade de Compra
Jim Cramer, que vê a recente queda nas ações da Nvidia como uma oportunidade de compra, declarou que a Meta ou outras empresas de tecnologia em busca de chips de IA não reduzirão os preços das GPUs da Nvidia, que são consideradas o padrão ouro em chips versáteis para executar cargas de trabalho de IA. "A demanda por Nvidia é insaciável," disse Jim, referindo-se aos resultados sólidos da última semana e às previsões otimistas. Os verdadeiros ganhadores seriam a Meta e a Broadcom, que também fazem parte de sua lista de ações. Cramer mencionou que o uso de TPUs mais baratos dá à Meta a chance de demonstrar que não irá gastar de forma desenfreada, o que afetou negativamente o valor das ações após o aumento de suas diretrizes de gastos. Para a Broadcom, segundo ele, isso é um feito para o CEO Hock Tan, que também faz parte da diretoria da Meta.
Desafios para a OpenAI
A chegada do Gemini 3 e sua dependência dos TPUs também levantam questões sobre o que isso significa para a OpenAI e seu trajeto de crescimento, além de seus compromissos financeiros. Grande parte do que está ocorrendo atualmente na IA tem a OpenAI como elemento central. Embora ainda não seja uma empresa pública e publique relatórios financeiros trimestrais, é razoável supor que a OpenAI não gera atualmente receita suficiente para justificar sua avaliação de 500 bilhões de dólares, nem seus planos de gastos anunciados. O que justifica as intenções de gasto da OpenAI seria a adoção contínua de seus usuários e, mais importante, a sustentabilidade dessa adoção.
A Situação das Ações do Google
Antes mesmo do lançamento do Gemini 3, as ações da Alphabet, controladora do Google, já apresentavam uma valorização significativa. Na última segunda-feira, as ações dispararam 6%, ampliando os ganhos de quase 70% no ano. Na terça-feira seguinte, as ações subiram novamente, aproximando-se de um valor de mercado de 4 trilhões de dólares. Embora alguns analistas considerem que a vitória do Google/Broadcom esteja ocorrendo à custa da Nvidia/OpenAI e que o futuro pertença ao silício personalizado, a avaliação não é tão simples.
A Competição em Modelos de IA
Primeiramente, ainda é muito cedo para afirmar que a concorrência entre modelos de raciocínio em IA se desenrolará da mesma forma que as guerras de busca, com um único vencedor dominará o campo. As projeções de que haverá apenas um modelo para governá-los todos, como o Google Search tem feito nos últimos 20 anos, não parecem plausíveis, nem para o hardware, nem para o software ou modelos de linguagem que operam nele. É possível que diferentes modelos sejam mais adequados para diferentes tarefas, como o Gemini para codificação e pesquisa, IA da Meta para tarefas sociais ou criativas, e Anthropic e Microsoft atuando no setor corporativo.
A Relevância da Nvidia
Embora o Gemini não dependa das GPUs da Nvidia, isso não significa que o hardware da Nvidia se torne repentinamente irrelevante. Sem dúvida, semicondutores personalizados não são novidade. Embora possam trazer vantagens financeiras, isso implica custos de desenvolvimento, atualização e fabricação dos chips. É importante lembrar que, embora o Gemini possa não depender do hardware da Nvidia, os serviços em nuvem do Google sim. Os TPUs são um tipo de circuito integrado específico para aplicações (ASIC), o que significa que são adequados para tarefas ou aplicações específicas.
Considerações sobre a Adoção de TPUs
Embora isso seja benéfico para projetos internos, que visam o avanço de grandes modelos de linguagem que sustentam muitos dos serviços do Google, como Search, YouTube ou Waymo, os TPUs não são tão atraentes quando a intenção é alugar capacidade computacional para clientes. Na verdade, as GPUs da Nvidia atualmente dominam esse espaço, pois operam com a plataforma de software CUDA, com a qual os pesquisadores de IA já trabalharam por anos.
O Papel dos TPUs no Desenvolvimento de Software
Um cliente que decidisse desenvolver estritamente em TPUs poderia perceber uma economia de custos, mas tal escolha exigiria abdicar do CUDA para desenvolver em um conjunto de software específico do Google, que não se transfere para outras GPUs ou mesmo para outros chips personalizados que possam ser oferecidos por outras empresas. Para as maiores empresas de modelos de linguagem, pode fazer sentido desenvolver uma versão em TPU ao lado de uma versão em GPU, caso o volume de negócios justifique isso.
A Questão da Parceria entre Meta e Broadcom
Estamos acompanhando o relatório do The Information a respeito da Meta, mas somos céticos. Já sabemos que a Meta está trabalhando com a Broadcom em seus próprios chips personalizados, portanto, a ideia de adquirir o silício personalizado do Google, em vez de utilizar aqueles que estão otimizados em colaboração com a Broadcom, parece estranha. Além disso, a Alphabet é concorrente direta da Meta no campo da publicidade digital, tornando arriscado para a Meta começar a mudar para a Alphabet como fornecedora principal.
O Futuro da Infraestrutura de IA
Entretanto, a corrida para construir uma infraestrutura de IA acelerada resultou na formação de várias relações de interessado-nem-tão-interessado-assim, então não devemos descartar essa notícia. Contudo, o desenvolvimento de versões de software baseadas em TPU, juntamente com as versões baseadas em GPU, não será a norma para a maioria das empresas. Mesmo que um objetivo declarado de uma empresa seja se diversificar além do ecossistema da Nvidia, restrigir-se a um conjunto de software e hardware ainda mais específico, como o ambiente TPU do Google, não é o caminho mais inteligente. Além das reestruturações que exigirá anos de desenvolvimento, se traduzir a pressão sobre os custos requer a abdicação da flexibilidade que as GPUs da Nvidia proporcionam.
Desafios para a Adoção de TPUs
Além disso, os TPUs do Google não estão disponíveis na AWS ou Azure, nem podem ser adquiridos diretamente caso uma empresa opte por construir sua própria infraestrutura. Embora o relatório do The Information sugira que o Google possa considerar essa possibilidade, não está claro quando ou em que extensão venderá chips a terceiros para uso em seus próprios centros de dados. O que o Gemini 3 indica é que existem outros caminhos para desenvolver um LLM líder que pode ser executado de forma mais econômica do que aqueles baseados em hardware da Nvidia. Contudo, isso demanda anos de trabalho e bilhões de dólares de investimento, tanto no hardware quanto no software necessários para tal.
Considerações Finais sobre a Adoção e o Mercado
O que uma empresa como o Google desenvolve para uso interno, com o intuito de reduzir custos, pode não ser tão atrativo para clientes que preferem não estar presos a um ecossistema fechado e especializado. Essa estratégia funciona apenas para empresas que realizam um volume tão grande de operações internamente que a economia financeira vale a perda de flexibilidade que as GPUs da Nvidia oferecem. Muito poucas empresas no mundo possuem essa escala – e, felizmente para a Nvidia, a maioria dessas empresas ganha mais dinheiro alugando capacidade computacional baseada em GPUs.
No final, a crença de que o silício personalizado faz muito sentido para os grandes players permanece, o que é uma das razões pelas quais estamos investindo na Broadcom. Contudo, somos cientes de que as GPUs da Nvidia têm um alcance muito maior, em virtude de sua flexibilidade em operar diversos tipos de cargas de trabalho e seu longo histórico, resultando em ampla adoção, portabilidade entre nuvens e infraestrutura local, além da maior biblioteca de software existente.
Ademais, ao considerar os gastos com IA soberana, compradores estatais estarão muito mais interessados em um ecossistema mais flexível e aberto, como o proporcionado pela Nvidia, que permite que os compradores escrevam seu próprio código com mais controle, em vez de um ecossistema fechado e especializado que os coloca à mercê de uma empresa norte-americana.
Por fim, o surgimento de agentes de IA pode alterar algumas dessas dinâmicas, facilitando a transição de uma infraestrutura para outra, caso agentes de IA possam ser desenvolvidos para converter programas baseados em CUDA para algo que possa operar em um TPU. Por ora, no entanto, acreditamos que a introdução do Gemini 3 não seja suficientemente impactante para desviar a demanda mencionada pela Nvidia ou colocar em espera o vasto número de acordos que a empresa firmou nos últimos meses.
Fonte: www.cnbc.com