Google Inova em Processamento de Chips para Inteligência Artificial
Separação de Tarefas de Processamento
Após anos produzindo chips que são capazes tanto de treinar modelos de inteligência artificial quanto de realizar trabalhos de inferência, o Google anunciou que está separando essas funções em processadores distintos. Essa é a mais recente iniciativa da empresa para competir com a Nvidia no setor de hardware para inteligência artificial.
A mudança, anunciada na última quarta-feira, diz respeito à oitava geração de sua unidade de processamento de tensor, conhecida como TPU. Ambos os chips estarão disponíveis ainda este ano.
Comentários da Alta Administração
"Com o surgimento de agentes de IA, determinamos que a comunidade se beneficiaria de chips individualmente especializados para as necessidades de treinamento e de serviço", afirmou Amin Vahdat, vice-presidente sênior do Google e chief technologist em IA e infraestrutura, em um post no blog da empresa.
Avanços da Nvidia em Tecnologia de Chips
Em março, a Nvidia destacou novos silícios que permitirão que os modelos respondam rapidamente às perguntas dos usuários, graças à tecnologia adquirida em sua transação de 20 bilhões de dólares com a startup de chips Groq. O Google é um grande cliente da Nvidia, mas oferece suas TPUs como uma alternativa para empresas que utilizam seus serviços na nuvem.
Concorrência no Desenvolvimento de Semicondutores
A maioria das principais empresas de tecnologia no mundo está investindo no desenvolvimento de semicondutores personalizados para inteligência artificial, visando maximizar a eficiência e construir soluções para casos de uso especializados. A Apple, por exemplo, tem incluído componentes de motor neural em seus chips para iPhone há vários anos. A Microsoft anunciou um chip de inteligência artificial de segunda geração em janeiro. Na semana passada, a Meta informou que está colaborando com a Broadcom para desenvolver várias versões de processadores de IA.
A História da Google em Processamento de IA
O Google foi um dos pioneiros nesta tendência, tendo iniciado o uso de processadores que projetou para executar modelos de inteligência artificial em 2015 e começando a alugá-los a clientes da nuvem em 2018. Em 2018, a Amazon Web Services anunciou seu chip Inferentia para lidar com solicitações de IA e apresentou o processador Trainium para treinamento de modelos de inteligência artificial em 2020.
Estimativas do Mercado de TPUs
Analistas da DA Davidson estimaram em setembro que o negócio de TPUs do Google, combinado com o grupo de IA do Google DeepMind, teria um valor aproximado de 900 bilhões de dólares.
Comparação de Desempenho com Nvidia
Nenhuma das empresas de tecnologia está conseguindo substituir a Nvidia, e o Google não está comparando o desempenho de seus novos chips com os da líder no setor de chips de inteligência artificial. Contudo, o Google informou que seu chip de treinamento oferece 2,8 vezes mais desempenho do que a sétima geração do TPU Ironwood, anunciado em novembro, ao mesmo custo, enquanto a performance do processador de inferência é 80% superior.
Tecnologias e Características dos Novos Chips
A Nvidia afirmou que seu próximo hardware Groq 3 LPU utilizará grandes quantidades de memória estática de acesso aleatório (SRAM), que é usada pela Cerebras, um fabricante de chips de IA que recentemente protocolou sua oferta pública inicial. O novo chip de inferência do Google, denominado TPU 8i, também depende da SRAM, contando com 384 megabytes de SRAM, o que é três vezes maior que a quantidade presente no Ironwood.
A arquitetura foi projetada "para oferecer a elevada capacidade de processamento e baixa latência necessárias para operar simultaneamente milhões de agentes de maneira econômica", conforme escreveu Sundar Pichai, CEO do Google e sua controladora Alphabet.
Adoção dos Chips de IA do Google
A adoção dos chips de IA do Google está aumentando. A Citadel Securities desenvolveu um software de pesquisa quantitativa que utiliza as TPUs do Google, e todos os 17 laboratórios nacionais do Departamento de Energia dos Estados Unidos utilizam software de IA co-cientista desenvolvido com esses chips. A Anthropic comprometeu-se a utilizar múltiplos gigawatts das TPUs do Google.
Fonte: www.cnbc.com