AMD stellt mit der Pollara 400 AI NIC und der Salina DPU neue KI-Netzwerklösungen vor

AMD stellte auf der Veranstaltung Advancing AI 2025 seine neuen Netzwerktechnologien für Rechenzentren mit KI-Workloads vor. Dazu gehören die Pollara 400 AI NIC und die Salina 400 DPU.
Die Pollara 400 AI NIC wurde entwickelt, um die Kommunikation zwischen GPUs in verteilten Clustern zu beschleunigen. Sie umfasst die RCCL-Bibliothek für kollektive Kommunikation und die UEC-Technologie zur Überlastungssteuerung.
Laut internen Tests bietet Pollara bis zu 25 % mehr Leistung als vergleichbare Lösungen und reduziert die Infrastrukturkosten im Vergleich zu InfiniBand-Netzwerken um 16 %.
Darüber hinaus ermöglicht die programmierbare Architektur die Ausführung von Netzwerkoperationen als Teil von KI-Workloads, ohne auf eine proprietäre Verbindungsinfrastruktur angewiesen zu sein.
Die Salina 400 DPU bietet eine Bandbreite von bis zu 400 Gbit/s und ermöglicht so eine bis zu 40-fache Beschleunigung von Netzwerk-, Sicherheits- und Speicherfunktionen im Vergleich zu CPU-basierten Lösungen. Sie verfügt außerdem über Fehlerbehebungs- und Redundanzmechanismen, die die Systemverfügbarkeit um bis zu 10 % verbessern.
Diese Lösungen sind bereits in den Rechenzentren von Oracle Cloud Infrastructure und Microsoft Azure einsatzbereit, was ihren Einsatz in Produktionsumgebungen bestätigt.
eltiempo