### Introdução
Todos os dispositivos de computação necessitam de um componente denominado memória, ou RAM, que é utilizado para o armazenamento de dados a curto prazo. No entanto, neste ano, a oferta desses componentes essenciais não será suficiente para atender à demanda global.
### Crescimento da Demanda
A escassez de memória se deve ao crescente interesse de empresas como Nvidia, Advanced Micro Devices e Google, que precisam de uma quantidade significativa de RAM para seus chips de inteligência artificial. Essas empresas estão na linha de frente da demanda por esses componentes.
Três principais fornecedores de memória — Micron, SK Hynix e Samsung Electronics — dominam quase todo o mercado de RAM, beneficiando-se do aumento na demanda.
De acordo com Sumit Sadana, chefe de negócios da Micron, a empresa observou um aumento muito significativo e acentuado na demanda por memória, que superou sua capacidade de fornecimento e, segundo sua estimativa, também ultrapassa a capacidade de fornecimento de toda a indústria de memória.
### Resultados Financeiros
As ações da Micron subiram 247% no último ano, e a empresa reportou que seu lucro líquido quase triplicou no trimestre mais recente. Neste mesmo intervalo, a Samsung anunciou que espera que seu lucro operacional no quarto trimestre de dezembro também triplique. Por sua vez, a SK Hynix está considerando uma listagem nos Estados Unidos devido à valorização de suas ações na Coreia do Sul e, em outubro, a empresa afirmou que garantiu demanda para toda a sua capacidade de produção de RAM de 2026.
### Aumento nos Preços da Memória
Os preços da memória estão em ascensão. A TrendForce, uma pesquisa baseada em Taipei que monitora de perto o mercado de memória, anunciou que espera um aumento de preços médio para a memória DRAM entre 50% e 55% neste trimestre, em comparação ao quarto trimestre de 2025. Tom Hsu, analista da TrendForce, afirmou que essa elevação nos preços é “sem precedentes”.
### Dependência da HBM
Fabricantes de chips como a Nvidia cercam a parte do chip que realiza os cálculos — a unidade de processamento gráfico, ou GPU — com vários blocos de um componente especializado e rápido conhecido como memória de alta largura de banda, ou HBM. A HBM é frequentemente visível quando os fabricantes de chips apresentam seus novos produtos. A Micron fornece memória tanto para a Nvidia quanto para a AMD, os dois principais fabricantes de GPU.
O GPU Rubin da Nvidia, que recentemente entrou em produção, possui até 288 gigabytes de memória HBM4 de próxima geração por chip. A HBM é instalada em oito blocos visíveis acima e abaixo do processador, e esse GPU será vendido como parte de um único rack de servidor denominado NVL72, que combina 72 dessas GPUs em um único sistema. Em contraste, smartphones normalmente incluem entre 8 ou 12 GB de memória DDR de menor potência.
### Diferenças entre HBM e RAM Comum
Entretanto, a memória HBM necessária para chips de IA é muito mais exigente do que a RAM utilizada em laptops e smartphones. A HBM é projetada para especificações de alta largura de banda exigidas pelos chips de IA, e sua produção envolve um processo complexo onde a Micron empilha de 12 a 16 camadas de memória em um único chip, formando um “cubo”.
Quando a Micron produz um bit de memória HBM, ela deve renunciar à produção de três bits de memória convencional para outros dispositivos. Sadana apontou que, à medida que se aumenta a oferta de HBM, isso resulta em uma menor quantidade de memória disponível para o mercado que não utiliza HBM, dado essa base de três para um.
Hsu, o analista da TrendForce, comentou que os fabricantes de memória estão priorizando aplicações de servidores e HBM em detrimento de outros clientes, pois existe um maior potencial de crescimento na demanda nesse setor, além do fato de que prestadores de serviços em nuvem são menos sensíveis a preços.
Em dezembro, a Micron anunciou que descontinuaria parte de seus negócios voltados para fornecer memória para montadoras de PCs voltados ao consumidor, a fim de preservar suprimentos para chips de IA e servidores.
### Aumento Rápido nos Preços
No setor tecnológico, especialistas estão surpresos com a rapidez e a quantidade com que os preços da RAM para consumidores aumentaram. Dean Beeler, co-fundador e diretor técnico da Juice Labs, comentou que, há alguns meses, ele equipou seu computador com 256 GB de RAM, a quantidade máxima que as placas-mães atuais suportam, e gastou cerca de R$300 na época. “Quem diria que isso se tornaria aproximadamente R$3.000 de RAM apenas alguns meses depois?”, postou no Facebook.
### Desafios de Memória na IA
Pesquisadores em IA começaram a perceber que a memória poderia se tornar um gargalo logo antes do lançamento do ChatGPT da OpenAI, no final de 2022. Sha Rabii, co-fundador da Majestic Labs e ex-profissional da Google e Meta, destacou que sistemas de IA anteriores eram projetados para modelos como redes neurais convolucionais, que exigem menos memória do que grandes modelos de linguagem, os LLMs, que estão em alta atualmente.
Embora os chips de IA estejam se tornando mais rápidos, a memória não acompanhou esse ritmo, resultando em GPUs poderosas aguardando os dados necessários para executar LLMs.
### A Questão do “Memória Wall”
Rabii mencionou que o desempenho é limitado pela quantidade e velocidade da memória disponível, e acrescentou que simplesmente adicionar mais GPUs não traz benefícios. A indústria de IA se refere a isso como o “memória wall”.
Sadana da Micron complementou que “o processador passa mais tempo apenas aguardando dados”. Ter mais e mais memória rápida permite que sistemas de IA executem modelos maiores, atendam mais clientes simultaneamente e adicionem “janelas de contexto”, que possibilitam que chatbots e outros LLMs recordem conversas anteriores com os usuários, aprimorando a experiência com um toque de personalização.
A Majestic Labs está projetando um sistema de IA para inferência com 128 terabytes de memória, cerca de 100 vezes mais memória do que alguns sistemas de IA atuais, e planeja evitar HBM em prol de opções de menor custo. Rabii acrescentou que a RAM adicional e o suporte da arquitetura em seu design permitirão que seus computadores atendam significativamente mais usuários ao mesmo tempo do que outros servidores de IA, enquanto consomem menos energia.
### Situação Atual e Perspectivas
Wall Street questiona empresas no setor de eletrônicos de consumo, como Apple e Dell Technologies, sobre como estão lidando com a escassez de memória e suas possíveis repercussões em preços ou margens reduzidas. No presente momento, a memória representa cerca de 20% dos custos de hardware de um laptop, aumento em relação aos 10% a 18% nos primeiros seis meses de 2025.
Em outubro, o diretor financeiro da Apple, Kevan Parekh, informou aos analistas que sua empresa estava percebendo uma “ligeira tendência positiva” nos preços da memória, mas minimizou a relevância disso. Já em novembro, a Dell previu que seu custo básico aumentaria em decorrência da escassez de memória. O COO, Jefferey Clarke, declarou que a empresa planeja ajustar sua mistura de configurações para mitigar os impactos de preço, mas é provável que a escassez repercuta em preços de varejo para os dispositivos.
Até mesmo a Nvidia, que se tornou o maior cliente do mercado de HBM, enfrenta questionamentos sobre suas crescentes necessidades de memória, especialmente em relação a seus produtos voltados para o consumidor.
Durante uma coletiva de imprensa na CES, o CEO da Nvidia, Jensen Huang, foi indagado sobre sua preocupação de que os clientes de jogos possam ficar ressentidos com a tecnologia de IA devido ao aumento nos preços de consoles e placas gráficas, impulsionados pela escassez de memória. Huang respondeu que, devido à alta demanda, todos os fornecedores de HBM estão se preparando, o que é algo positivo.
Atualmente, a Micron só consegue atender a dois terços das necessidades de médio prazo de memória de alguns clientes. No momento, a empresa está construindo duas grandes fábricas em Boise, Idaho, que devem começar a produzir memória em 2027 e 2028, e também planeja iniciar a construção de uma fábrica na cidade de Clay, Nova York, que deverá entrar em operação em 2030.
Entretanto, no presente, “estamos esgotados para 2026”, concluiu Sadana.
Fonte: www.cnbc.com