Nvidia anuncia nueva tecnología para mantenerla en el centro del desarrollo de IA

Nvidia El CEO Jensen Huang hizo una serie de anuncios y reveló nuevos productos el lunes que apuntan a mantener a la compañía en el centro del desarrollo de la inteligencia artificial y la computación.
Uno de los anuncios más destacados fue su nuevo programa "NVLink Fusion", que permitirá a los clientes y socios utilizar unidades centrales de procesamiento y unidades de procesamiento gráfico que no sean de Nvidia junto con los productos de Nvidia y su NVLink.
Hasta ahora, NVLink estaba restringido a los chips fabricados por Nvidia. NVLink es una tecnología desarrollada por Nvidia para conectar e intercambiar datos entre sus GPU y CPU.
"La fusión de enlaces NV permite construir una infraestructura de IA semipersonalizada, no solo chips semipersonalizados", afirmó Huang en Computex 2025 en Taiwán, la conferencia de electrónica más grande de Asia.
Según Huang, NVLink Fusion permite que las infraestructuras de IA combinen procesadores Nvidia con diferentes CPU y circuitos integrados específicos de la aplicación (ASIC). «En cualquier caso, se obtiene la ventaja de utilizar la infraestructura y el ecosistema de NVLink».
Nvidia anunció el lunes que los socios de fabricación de chips de IA para NVLink Fusion ya incluyen a MediaTek y Marvell , Alchip Laboratorios Astera Sinopsis y Cadencia Con NVLink Fusion, los clientes de Nvidia como Fujitsu y Qualcomm Technologies También podrán conectar sus propias CPU de terceros con las GPU de Nvidia en los centros de datos de IA, agregó.
Ray Wang, un analista de semiconductores y tecnología con sede en Washington, dijo a CNBC que NVLink representa los planes de Nvidia de capturar una parte de los centros de datos basados en ASIC, que tradicionalmente han sido considerados como competidores de Nvidia.
Si bien Nvidia mantiene una posición dominante en el mercado de GPUs para el entrenamiento general de IA, muchos competidores ven potencial de expansión en chips diseñados para aplicaciones más específicas. Entre los principales competidores de Nvidia en computación de IA, que también son algunos de sus principales clientes, se incluyen proveedores de servicios en la nube como Google, Microsoft y Amazon, quienes desarrollan sus propios procesadores personalizados.
NVLink Fusion "consolida a NVIDIA como el centro de las fábricas de IA de próxima generación, incluso cuando esos sistemas no están construidos completamente con chips NVIDIA", dijo Wang, señalando que abre oportunidades para que Nvidia atienda a clientes que no están construyendo sistemas completamente basados en Nvidia, pero que buscan integrar algunas de sus GPU.
"Si se adopta ampliamente, NVLink Fusion podría ampliar la presencia de NVIDIA en la industria al fomentar una colaboración más profunda con los desarrolladores de CPU personalizados y los diseñadores de ASIC en la construcción de la infraestructura de IA del futuro", afirmó Wang.
Sin embargo, NVLink Fusion corre el riesgo de reducir la demanda de CPU de Nvidia al permitir que los clientes de Nvidia utilicen alternativas, según Rolf Bulk, analista de investigación de acciones de New Street Research.
Sin embargo, "a nivel de sistema, la flexibilidad adicional mejora la competitividad de las soluciones basadas en GPU de Nvidia frente a las arquitecturas alternativas emergentes, lo que ayuda a Nvidia a mantener su posición en el centro de la computación de IA", afirmó.
Los competidores de Nvidia, Broadcom, AMD e Intel, están hasta ahora ausentes del ecosistema NVLink Fusion.
Huang inició su discurso inaugural con una actualización sobre la próxima generación de sistemas Grace Blackwell de Nvidia para cargas de trabajo de IA. El "GB300" de la compañía, que se lanzará en el tercer trimestre de este año, ofrecerá un mayor rendimiento general del sistema, afirmó.
El lunes, Nvidia también anunció el nuevo NVIDIA DGX Cloud Lepton, una plataforma de IA con un mercado computacional que, según Nvidia, conectará a los desarrolladores de IA del mundo con decenas de miles de GPU de una red global de proveedores de la nube.
"DGX Cloud Lepton ayuda a abordar el desafío crítico de asegurar recursos de GPU confiables y de alto rendimiento al unificar el acceso a los servicios de IA en la nube y la capacidad de la GPU en todo el ecosistema computacional de NVIDIA", afirmó la compañía en un comunicado de prensa.
En su discurso, Huang también anunció planes para una nueva oficina en Taiwán, donde también se construirá un proyecto de supercomputadora de inteligencia artificial con Foxconn de Taiwán, oficialmente conocido como Hon Hai Technology Group, el mayor fabricante de productos electrónicos del mundo.
"Estamos encantados de asociarnos con Foxconn y Taiwán para ayudar a construir la infraestructura de IA de Taiwán y apoyar a TSMC y otras empresas líderes para avanzar en la innovación en la era de la IA y la robótica", afirmó Huang.
CNBC