Aparição da Samsung no Mercado de IA: Chips HBM4 para GPUs da AMD
Recentemente, o setor tecnológico recebeu uma notícia de grande impacto: a AMD, fabricante de componentes para computadores e de tecnologias de semiconductores, e a Samsung, gigante sul-coreana de eletrônicos, assinaram um memorando de entendimento (MoU). Este acordo prevê a utilização de chips de memória de alta largura de banda, conhecidos como HBM4, de sexta geração, nas GPUs voltadas para Inteligência Artificial (IA) da AMD. Essa parceria é um bom indicativo do futuro promissor das GPUs dedicadas à IA, ainda mais quando se considera a crescente demanda por capacidade computacional nessa área.
A Visita e o Memorando de Entendimento
O acordo foi formalizado durante a visita da CEO da AMD, Lisa Su, à fábrica de semicondutores da Samsung em Pyeongtaek, Coreia do Sul. Este é um momento significativo, pois representa a primeira viagem de negócios de Lisa Su ao país desde que assumiu o cargo de CEO da AMD. Dada a importância estratégica dessa visita, não é surpresa que o entendimento tenha sido celebrado de forma otimista por ambas as partes.
Samsung como Fornecedora Preferencial
Além de assinar o MoU, a Samsung foi designada como fornecedora preferencial dos chips HBM4 para a nova GPU Instinct MI455X da AMD, um modelo que foi anunciado no início do ano e está previsto para ser lançado no segundo semestre de 2026. A Instinct MI455X promete competir diretamente com a nova plataforma de IA da NVIDIA, a Vera Rubin, que também contará com chips HBM4 da Samsung.
O Que é HBM4?
Os chips HBM4 representam um avanço significativo em relação às versões anteriores, oferecendo velocidades de transferência de dados de até 13 Gbps por pino e largura de banda total de até 3,3 TB/s. Esses chips são fabricados utilizando um processo DRAM de 10 nm de classe 1c, em conjunto com uma die base de apenas 4 nm. Essa inovação não apenas melhora o desempenho, mas também permite um maior potencial de eficiência energética, algo extremamente importante em aplicações voltadas para IA.
Impacto no Desempenho das GPUs da AMD
A AMD Instinct MI455X foi projetada para atender cargas de trabalho específicas de IA, desde treinamento até inferência de modelos complexos. Esse modelo é esperado para oferecer até 40 PFLOPS de desempenho em operações de precisão FP4 e 20 PFLOPS em FP8, tornando-o quase duas vezes mais potente do que seu antecessor, a MI350. Essa evolução é um reflexo direto dos novos chips HBM4, que permitem um processamento mais eficiente das grandes quantidades de dados normalmente requeridas por sistemas de IA avançados.
Concorrência no Mercado
Com a Instinct MI455X, a AMD busca conquistar um mercado cada vez mais competitivo, onde a NVIDIA tem se destacado com suas soluções otimizadas para Inteligência Artificial. A competição entre essas duas gigantes promete trazer inovações constantes e melhorias significativas na oferta de soluções para desenvolvedores e empresas que investem em IA.
Expansão da Parceria e Futuras Colaborações
Cabe mencionar que, além dos chips HBM4, a AMD e a Samsung também planejam expandir sua parceria. Um dos focos dessa colaboração será o uso de memória DDR5 de alto desempenho em produtos como a plataforma de rack de data center Helios AI da AMD e as CPUs de servidor EPYC de sexta geração. Isso sinaliza não apenas um compromisso com a inovação, mas também a intenção das empresas de liderar o mercado em termos de performance e tecnologia.
Histórico de Colaboração
As duas empresas têm um longo histórico de colaboração, que já dura quase 20 anos. A Samsung, por exemplo, já forneceu VRAM para várias GPUs da AMD no passado, enquanto a AMD contribuíu para o desenvolvimento de GPUs com base na arquitetura RDNA para os chips Exynos da Samsung, utilizados em dispositivos móveis. Essa relação mútua tem se provado benéfica para ambas as partes e, com o recente acordo, promete alcançar novos patamares.
Curiosidades sobre a Tecnologia HBM4
Para entender melhor a importância do HBM4, vale destacar algumas curiosidades:
- Habilidade de Empilhar Camadas: A tecnologia HBM permite a empilhamento de múltiplas camadas de chips de memória, proporcionando ampla largura de banda e reduzindo a latência.
- Eficiência Energética: Devido ao seu design, os módulos HBM consomem menos energia em comparação com outras estruturas de memória, tornando-se ideais para aplicações que necessitam de alto desempenho.
- Formato Compacto: Os módulos HBM são significativamente menores que os chips de memória tradicionais, o que permite criações de soluções mais compactas e eficazes para o design de GPUs.
Conclusão
A colaboração entre a AMD e a Samsung representa um passo importante para o futuro da tecnologia de Inteligência Artificial, especialmente no que se refere ao desempenho das GPUs. Com o uso de chips HBM4, as novas soluções da AMD prometem não apenas competir, mas superar desafios atuais e abrir novos caminhos para aplicações inovadoras em IA. O mercado está em constante evolução, e essa parceria pode ser um forte indicativo das tendências que estão por vir. À medida que as necessidades por capacidade computacional aumentam, a capacidade de se adaptar e inovar será fundamental para manter a relevância neste setor dinâmico.


