Aceleradora de IA MI350P da AMD: O que você precisa saber
A AMD colocou no mercado a Instinct MI350P, uma aceleradora de inteligência artificial (IA) em formato de placa PCIe baseada na arquitetura CDNA 4. Este novo componente apresenta inovações significativas, utilizando uma técnica de chiplets que combina processos de 3 nm e 6 nm, tudo com o intuito de maximizar a eficiência. Com um desempenho impressionante, a MI350P promete desafiar a liderança da NVIDIA no setor de IA!
O que aconteceu
O lançamento da MI350P é um marco importante para a AMD, visto que a empresa busca expandir sua presença no mercado de aceleradoras de IA, que tem experimentado um crescimento acelerado devido ao aumento da demanda por soluções de inteligência artificial. Com 128 Compute Units (CUs), 8.192 Stream Processors e 144 GB de memória HBM3E, a placa está pronta para enfrentar oponentes diretos como a NVIDIA H200, prometendo um aumento de até 40% no desempenho.

Detalhes sobre a MI350P
A MI350P representa a metade exata das especificações das variantes topo de linha como a MI350X e MI355X. Seus modelos OAM (Open Compute Project Accelerator Module) apresentam 256 Compute Units e 16.384 Stream Processors, enquanto a MI350P, na versão PCIe, possui 128 CUs e 8.192 núcleos. Essa configuração a torna ideal para um ambiente de servidores que já utiliza formato de placa padrão.
Especificações Técnicas
As especificações técnicas da MI350P são robustas. Aqui está uma tabela que compara com outras versões:
| Especificação | Instinct MI350P | Instinct MI350X | Instinct MI355X |
|---|---|---|---|
| Fator de forma | Placa adicional PCIe | Módulo OAM | Módulo OAM |
| Arquitetura | CDNA 4 | CDNA 4 | CDNA 4 |
| Stream processors | 8.192 | 16.384 | 16.384 |
| Compute Units | 128 | 256 | 256 |
| Memória HBM | 144 GB HBM3E | 288 GB HBM3E | 288 GB HBM3E |
| TBP | 600 W max | 1.000 W | 1.400 W |
Memória e interface de dados
O subsistema de memória conta com 144 GB HBM3E distribuídos em uma interface de 4.096 bits, resultando em uma largura de banda de pico de 4 TB/s. O cache de último nível soma 128 MB com correção de erro full-chip ECC ativada.
Ficha técnica detalhada
| Especificação | Dado oficial |
|---|---|
| Litografia (IODs) | TSMC 3 nm / 6 nm FinFET |
| Cache AMD Infinity | 128 MB |
| Interconexão PCIe | 1 PCIe Gen 5 x16 |
O desempenho computacional no dia a dia
Os Matrix Cores da MI350P são otimizados para suportar formatos de precisão reduzida como MXFP6 e MXFP4, que aceleram grandes modelos de linguagem (LLMs). O desempenho pode alcançar até 4,6 PFLOPS em operações de precisão reduzida. Isso significa que aplicações de IA, como o ChatGPT, serão processadas de forma mais rápida e eficiente.
Comparação com a concorrência e cenário de mercado
A disputa entre a MI350P e a NVIDIA H200 NVL se intensifica à medida que os benchmarks mostram que a placa da AMD proporciona até 20% mais desempenho em FP64 e 40% em FP8. Apesar disso, a AMD precisa superar o desafio de atrair desenvolvedores para seu ecossistema ROCm, em vez do bem estabelecido CUDA da NVIDIA.
Conclusão e o que vem a seguir?
O lançamento da Instinct MI350P representa uma mudança significativa na forma como as aceleradoras de IA são percebidas no mercado. A AMD não apenas trouxe um hardware superior, mas também um potencial significativo para revolucionar as aplicações de IA. Resta saber se a marca conseguirá conquistar a confiança de desenvolvedores e empresas em um momento em que a necessidade de soluções rápidas e eficientes nunca foi tão alta. O que você acha do projeto da AMD? Está pronto para essa nova era de aceleração com IA?



