Selecione o idioma

Portuguese

Down Icon

Selecione o país

America

Down Icon

Nvidia anuncia nova tecnologia para mantê-la no centro do desenvolvimento de IA

Nvidia anuncia nova tecnologia para mantê-la no centro do desenvolvimento de IA

Nvidia O CEO Jensen Huang fez uma série de anúncios e revelou novos produtos na segunda-feira que visam manter a empresa no centro do desenvolvimento de inteligência artificial e computação.

Um dos anúncios mais notáveis ​​foi o novo programa "NVLink Fusion", que permitirá que clientes e parceiros usem unidades de processamento central e unidades de processamento gráfico que não sejam da Nvidia junto com os produtos da Nvidia e seu NVLink.

Até agora, o NVLink estava fechado para chips fabricados pela Nvidia. NVLink é uma tecnologia desenvolvida pela Nvidia para conectar e trocar dados entre suas GPUs e CPUs.

"A fusão de links NV permite construir uma infraestrutura de IA semipersonalizada, não apenas chips semipersonalizados", disse Huang na Computex 2025 em Taiwan, a maior conferência de eletrônicos da Ásia.

Segundo Huang, o NVLink Fusion permite que infraestruturas de IA combinem processadores Nvidia com diferentes CPUs e circuitos integrados específicos para aplicações (ASICs). "De qualquer forma, você tem o benefício de usar a infraestrutura e o ecossistema de link NV."

A Nvidia anunciou na segunda-feira que os parceiros de fabricação de chips de IA para NVLink Fusion já incluem MediaTek e Marvell , Alchip , Laboratórios Astera , Sinopse e cadência . Com o NVLink Fusion, clientes da Nvidia como a Fujitsu e Qualcomm Technologies também poderão conectar suas próprias CPUs de terceiros com GPUs da Nvidia em data centers de IA, acrescentou.

Ray Wang, analista de tecnologia e semicondutores de Washington, disse à CNBC que o NVLink representa os planos da Nvidia de capturar uma fatia dos data centers baseados em ASICs, que tradicionalmente são vistos como concorrentes da Nvidia.

Embora a Nvidia detenha uma posição dominante em GPUs usadas para treinamento geral de IA, muitos concorrentes veem espaço para expansão em chips projetados para aplicações mais específicas. Alguns dos maiores concorrentes da Nvidia em computação de IA — que também são alguns de seus maiores clientes — incluem provedores de nuvem como Google, Microsoft e Amazon, todos os quais estão desenvolvendo seus próprios processadores personalizados.

O NVLink Fusion "consolida a NVIDIA como o centro das fábricas de IA de última geração, mesmo quando esses sistemas não são construídos inteiramente com chips NVIDIA", disse Wang, observando que isso abre oportunidades para a Nvidia atender clientes que não estão construindo sistemas totalmente baseados em Nvidia, mas estão procurando integrar algumas de suas GPUs.

"Se amplamente adotado, o NVLink Fusion poderá ampliar a presença da NVIDIA no setor, promovendo uma colaboração mais profunda com desenvolvedores de CPUs personalizadas e designers de ASIC na construção da infraestrutura de IA do futuro", disse Wang.

No entanto, o NVLink Fusion corre o risco de reduzir a demanda pela CPU da Nvidia ao permitir que os clientes da Nvidia usem alternativas, de acordo com Rolf Bulk, analista de pesquisa de ações da New Street Research.

No entanto, "no nível do sistema, a flexibilidade adicional melhora a competitividade das soluções baseadas em GPU da Nvidia em relação às arquiteturas emergentes alternativas, ajudando a Nvidia a manter sua posição no centro da computação de IA", disse ele.

Os concorrentes da Nvidia, Broadcom, AMD e Intel estão até agora ausentes do ecossistema NVLink Fusion.

Outras atualizações

Huang abriu seu discurso com uma atualização sobre a próxima geração de sistemas Grace Blackwell da Nvidia para cargas de trabalho de IA. O "GB300" da empresa, com lançamento previsto para o terceiro trimestre deste ano, oferecerá maior desempenho geral do sistema, afirmou.

Na segunda-feira, a Nvidia também anunciou o novo NVIDIA DGX Cloud Lepton, uma plataforma de IA com um mercado de computação que, segundo a Nvidia, conectará os desenvolvedores de IA do mundo com dezenas de milhares de GPUs de uma rede global de provedores de nuvem.

"O DGX Cloud Lepton ajuda a enfrentar o desafio crítico de garantir recursos de GPU confiáveis ​​e de alto desempenho unificando o acesso aos serviços de IA em nuvem e à capacidade de GPU em todo o ecossistema de computação da NVIDIA", disse a empresa em um comunicado à imprensa.

Em seu discurso, Huang também anunciou planos para um novo escritório em Taiwan, onde também construirá um projeto de supercomputador de IA com a Foxconn de Taiwan, oficialmente conhecida como Hon Hai Technology Group, o maior fabricante de eletrônicos do mundo.

"Estamos muito satisfeitos com a parceria com a Foxconn e Taiwan para ajudar a construir a infraestrutura de IA de Taiwan e dar suporte à TSMC e outras empresas líderes para promover a inovação na era da IA ​​e da robótica", disse Huang.

CNBC

CNBC

Notícias semelhantes

Todas as notícias
Animated ArrowAnimated ArrowAnimated Arrow