AMD introduceert nieuwe AI-netwerkoplossingen met de Pollara 400 AI NIC en Salina DPU

AMD onthulde tijdens het evenement Advancing AI 2025 zijn nieuwe netwerktechnologieën, ontworpen voor datacenters die AI-workloads uitvoeren. Deze omvatten de Pollara 400 AI NIC en de Salina 400 DPU.
De Pollara 400 AI NIC is ontworpen om de inter-GPU-communicatie in gedistribueerde clusters te versnellen. Hij maakt gebruik van de RCCL-collectieve communicatiebibliotheek en UEC-congestiecontroletechnologie.
Uit interne tests is gebleken dat Pollara tot 25% betere prestaties levert dan vergelijkbare oplossingen en de infrastructuurkosten met 16% verlaagt ten opzichte van InfiniBand-netwerken.
Bovendien maakt de programmeerbare architectuur het mogelijk om netwerkbewerkingen uit te voeren als onderdeel van AI-workloads, zonder dat hiervoor een bedrijfseigen verbindingsinfrastructuur nodig is.
De Salina 400 DPU levert een bandbreedte tot 400 Gbps, waardoor netwerk-, beveiligings- en opslagfuncties tot 40 keer sneller kunnen worden uitgevoerd dan CPU-gebaseerde oplossingen. Hij is tevens voorzien van foutherstel- en redundantiemechanismen die de systeembeschikbaarheid met tot wel 10% verbeteren.
Deze oplossingen zijn al operationeel in Oracle Cloud Infrastructure en Microsoft Azure-datacenters, wat hun bruikbaarheid in productieomgevingen valideert.
eltiempo