Nvidia e o Retorno dos CPUs
Por Stephen Nellis
San Francisco, 25 de fevereiro (Reuters) – A Nvidia (NVDA), que acumulou uma grande fortuna com a venda de unidades de processamento gráfico (GPUs) utilizadas para impulsionar servidores de inteligência artificial, tem visto seu CEO, Jensen Huang, demonstrando crescente apreciação pelo mais tradicional processador central (CPU).
O Papel Tradicional do CPU
Historicamente, o CPU, ou unidade central de processamento, foi considerado por muitas décadas o principal cérebro de um computador, sendo um produto comumente associado à Intel e, ocasionalmente, à Advanced Micro Devices (AMD).
Huang costuma afirmar que, no passado, 90% do processamento computacional ocorria em CPUs, enquanto apenas 10% era realizado por chips como os da Nvidia. No entanto, essa proporção mudou drasticamente nos últimos anos.
Atualmente, o CPU está voltando a assumir um papel de destaque, sendo cada vez mais visto como uma alternativa equivalente, senão superior, à medida que as empresas de inteligência artificial mudam seu foco do treinamento de modelos para a implementação prática desses modelos – uma transição com a qual a Nvidia planeja se envolver de maneira significativa.
“Amamos CPUs assim como GPUs,” afirmou Huang em uma conferência com analistas na quarta-feira após a divulgação dos resultados do quarto trimestre da empresa.
Ele garantiu aos analistas que a Nvidia não apenas está pronta para o retorno do CPU ao centro das atenções, mas que suas próprias ofertas de CPUs para centros de dados, lançadas pela primeira vez em 2023, superariam as de seus concorrentes.
A Explosão das CPUs em Data Centers
No mês passado, durante a Consumer Electronics Show (CES) em Las Vegas, Huang também afirmou que o número de CPUs de alto desempenho da Nvidia, utilizadas em centros de dados, cresceria significativamente e que não ficaria surpreso “se a Nvidia se tornasse um dos maiores fabricantes de CPUs do mundo.”
A Comparação entre CPU e GPU
CPUs e GPUs têm desempenhado funções distintas na computação por décadas. As CPUs são chips generalistas projetados para lidar com qualquer tarefa matemática que um programador possa propor, conseguindo responder de maneira razoavelmente ágil, dada a diversidade de trabalhos.
Em contrapartida, as GPUs são especializadas em realizar um conjunto mais simples de tarefas matemáticas, mas executam esses cálculos simples de forma paralela, milhares de vezes simultaneamente.
Nos jogos, isso significa calcular o valor de milhares de pixels na tela várias vezes por segundo, e, no trabalho com inteligência artificial, envolve multiplicar e somar grandes matrizes de números que os desenvolvedores usam para representar dados do mundo real, como palavras e imagens.
As empresas de IA estão implementando, cada vez mais, “agentes” que conseguem realizar tarefas de forma independente, como escrever códigos, analisar documentos e elaborar relatórios de pesquisa. Ben Bajarin, analista da Creative Strategies, destacou que esse tipo de computação “está acontecendo com mais frequência, e às vezes, principalmente, na CPU.”
O servidor de IA atual mais avançado da Nvidia, denominado NVL72, contém 36 CPUs e 72 GPUs. Bajarin acredita que essa proporção poderá mudar para uma relação de 1 a 1 para trabalhos “agentes”, ou até mesmo que a GPU possa ser completamente dispensada.
Nvidia em Busca de Reconhecimento
Reforçando suas ambições em relação aos CPUs, a Nvidia anunciou recentemente um acordo com a Meta Platforms, que verá a empresa proprietária do Facebook utilizar grandes volumes de seus chips de CPU Grace e Vera de forma isolada. Essa é uma nova abordagem em comparação com os servidores de IA atuais da Nvidia, onde cada CPU é acompanhada por várias GPUs.
Vale ressaltar que isso não significa que a Meta tenha mudado de fornecedor de CPUs, mas sim que está buscando mais opções de fornecimento. Dias depois, a AMD também anunciou um grande acordo com a Meta, que incluiu seus CPUs, os quais a Meta já adquiriu ao longo dos anos.
Durante a conferência com analistas, Huang argumentou que a Nvidia adotou uma abordagem fundamentalmente diferente em relação aos CPUs.
Ele explicou por que a Nvidia minimizou a estratégia de dividir chips em partes menores, como Intel e AMD costumam fazer, ressaltando que a CPU da Nvidia é capaz de executar muitas tarefas simples de maneira sequencial, com bom acesso a uma grande quantidade de memória computacional.
“Ela é projetada para ter capacidades de processamento de dados extremamente altas,” declarou Huang na conferência. “E a razão para isso é que a maioria dos problemas computacionais que nos interessam são dirigidos por dados – sendo a inteligência artificial um deles.”
Dave Altavilla, analista principal da HotTech Vision e Analysis, comentou que a Nvidia está buscando demonstrar que o tipo de CPU que antes era fornecido principalmente pela Intel “não é mais a base presumida da infraestrutura computacional moderna. Em vez disso, torna-se apenas uma opção arquitetônica entre várias.”
Huang mencionou que a Nvidia teria mais informações sobre seus CPUs a serem reveladas na conferência anual de desenvolvedores da empresa, que ocorrerá no próximo mês em Silicon Valley.
Fonte: finance.yahoo.com