Jornalismo de tecnologia, independente e com credibilidade

Plataforma NVIDIA Blackwell chega para impulsionar uma nova era da computação

Impulsionando a nova era da computação, a NVIDIA anuncia que a plataforma NVIDIA Blackwell chegou — permitindo que organizações de todos os lugares criem e executem IA generativa em tempo real em grandes modelos de linguagem (LLMs) de trilhões de parâmetros com até 25x menos custo e consumo de energia do que sua antecessor.
A arquitetura de GPU da Blackwell apresenta seis tecnologias transformadoras para computação acelerada, que ajudarão a desbloquear avanços em processamento de dados, simulação de engenharia, automação de design eletrônico, design de medicamentos auxiliado por computador, computação quântica e IA generativa – todas oportunidades emergentes da indústria para a NVIDIA.
“Durante três décadas buscamos a computação acelerada, com o objetivo de possibilitar avanços transformadores como deep learning e IA”, diz Jensen Huang, fundador e CEO da NVIDIA. “A IA generativa é a tecnologia que define o nosso tempo. A Blackwell é o motor que impulsiona esta nova revolução industrial. Trabalhando com as empresas mais dinâmicas do mundo, concretizaremos a promessa da IA para todos os setores.
Entre as muitas organizações que deverão adotar o Blackwell estão Amazon Web Services, Dell Technologies, Google, Meta, Microsoft, OpenAI, Oracle, Tesla e xAI.
Sundar Pichai, CEO da Alphabet e do Google: “Escalar serviços como Search e Gmail para bilhões de usuários nos ensinou muito sobre o gerenciamento da infraestrutura de computação. À medida que entramos na mudança da plataforma de IA, continuamos a investir profundamente em infraestrutura para os nossos próprios produtos e serviços e para os nossos clientes Cloud. Temos a sorte de ter uma parceria de longa data com a NVIDIA e esperamos levar os recursos inovadores da GPU Blackwell aos nossos clientes e equipes de nuvem do Google, incluindo o Google DeepMind, para acelerar descobertas futuras.”
Andy Jassy, presidente e CEO da Amazon: “Nossa profunda colaboração com a NVIDIA remonta há mais de 13 anos, quando lançamos a primeira instância de GPU em nuvem do mundo na AWS. Hoje oferecemos a mais ampla gama de soluções de GPU disponíveis em qualquer lugar na nuvem, suportando as cargas de trabalho aceleradas tecnologicamente mais avançadas do mundo. É por isso que a nova GPU NVIDIA Blackwell funcionará tão bem na AWS e a razão pela qual a NVIDIA escolheu a AWS para co-desenvolver o Projeto Ceiba, combinando os Superchips Grace Blackwell de próxima geração da NVIDIA com a virtualização avançada do AWS Nitro System e a rede ultrarrápida do Elastic Fabric Adapter, para pesquisa e desenvolvimento de IA da própria NVIDIA. Por meio desse esforço conjunto entre os engenheiros da AWS e da NVIDIA, continuamos a inovar juntos para tornar a AWS o melhor lugar para qualquer pessoa executar GPUs NVIDIA na nuvem.”
Michael Dell, fundador e CEO da Dell Technologies: “A IA generativa é fundamental para a criação de sistemas mais inteligentes, confiáveis e eficientes. A Dell Technologies e a NVIDIA estão trabalhando juntas para moldar o futuro da tecnologia. Com o lançamento da Blackwell, continuaremos a fornecer a próxima geração de produtos e serviços acelerados aos nossos clientes, fornecendo-lhes as ferramentas de que necessitam para impulsionar a inovação em todos os setores.”
Demis Hassabis, cofundador e CEO do Google DeepMind: “O potencial transformador da IA é incrível e nos ajudará a resolver alguns dos problemas científicos mais importantes do mundo. As capacidades tecnológicas inovadoras da Blackwell fornecerão a computação crítica necessária para ajudar as mentes mais brilhantes do mundo a traçar novas descobertas científicas.”
Mark Zuckerberg, fundador e CEO da Meta: “A IA já alimenta tudo, desde nossos grandes modelos de linguagem (LLMs) até nossas recomendações de conteúdo, anúncios e sistemas de segurança, e isso só se tornará mais importante no futuro. Estamos ansiosos para usar o recurso da NVIDIA Blackwell para ajudar a treinar nossos modelos Llama de código aberto e construir a próxima geração de Meta AI e produtos de consumo.”
Satya Nadella, presidente executivo e CEO da Microsoft: “Estamos empenhados em oferecer aos nossos clientes a infraestrutura mais avançada para alimentar as suas cargas de trabalho de IA. Ao trazer o processador GB200 Grace Blackwell para nossos datacenters em todo o mundo, estamos construindo nossa longa história de otimização de GPUs NVIDIA para nossa nuvem, à medida que tornamos a promessa da IA real para organizações em todos os lugares.”
Sam Altman, CEO da OpenAI: “A Blackwell oferece enormes saltos de desempenho e acelerará nossa capacidade de fornecer modelos de ponta. Estamos entusiasmados em continuar trabalhando com a NVIDIA para aprimorar a computação de IA.”
Larry Ellison, presidente e CTO da Oracle: “A estreita colaboração da Oracle com a NVIDIA permitirá avanços qualitativos e quantitativos em IA, machine learning e análise de dados. Para que os clientes descubram insights mais acionáveis, é necessário um mecanismo ainda mais poderoso como o Blackwell, que é desenvolvido especificamente para computação acelerada e IA generativa.”
Elon Musk, CEO da Tesla e xAI: “Atualmente não há nada melhor do que hardware NVIDIA para IA.”
Nomeada em homenagem a David Harold Blackwell — um matemático especializado em teoria dos jogos e estatística e o primeiro estudioso negro admitido na Academia Nacional de Ciências — a nova arquitetura sucede à arquitetura NVIDIA Hopper™, lançada há dois anos.
Inovações da Blackwell para impulsionar a computação acelerada e a IA generativa
As seis tecnologias revolucionárias da Blackwell, que juntas permitem treinamento em IA e inferência LLM em tempo real para modelos que escalam até 10 trilhões de parâmetros, incluem:
• O chip mais poderoso do mundo – Equipadas com 208 bilhões de transistores, as GPUs de arquitetura Blackwell são fabricadas usando um processo TSMC 4NP personalizado, com dois chips GPU conectados por uma ligação chip-to-chip de 10 TB/segundo, limitada por dois retículos, formando uma única GPU unificada.
• Motor Transformer de segunda geração – Alimentado pelo novo suporte de escala de microtensores e pelos avançados algoritmos de gerenciamento de faixa dinâmica da NVIDIA integrados às estruturas NVIDIA TensorRT™-LLM e NeMo Megatron, a Blackwell suportará o dobro dos tamanhos de computação e modelo com a nova IA de ponto flutuante de 4 bits capacidades de inferência.
• NVLink de quinta geração — Para acelerar o desempenho de modelos de IA com vários trilhões de parâmetros e uma mistura de especialistas, a mais recente iteração do NVIDIA NVLink® oferece uma taxa de transferência bidirecional inovadora de 1,8 TB/s por GPU, garantindo comunicação contínua de alta velocidade entre até 576 GPUs para os LLMs mais complexos.
• Mecanismo RAS — As GPUs com tecnologia Blackwell incluem um mecanismo dedicado para confiabilidade, disponibilidade e facilidade de manutenção. Além disso, a arquitetura Blackwell adiciona recursos no nível do chip para utilizar manutenção preventiva baseada em IA para executar diagnósticos e prever problemas de confiabilidade. Isso maximiza o tempo de atividade do sistema e melhora a resiliência para que implantações de IA em grande escala funcionem ininterruptamente por semanas ou até meses seguidos e reduzam os custos operacionais.
• IA segura — Recursos avançados de computação confidencial protegem modelos de IA e dados de clientes sem comprometer o desempenho, com suporte para novos protocolos de criptografia de interface nativa, que são essenciais para setores sensíveis à privacidade, como saúde e serviços financeiros.
• Mecanismo de descompactação — Um mecanismo de descompactação dedicado suporta os formatos mais recentes, acelerando consultas de banco de dados para oferecer o mais alto desempenho em análise de dados e ciência de dados. Nos próximos anos, o processamento de dados, no qual as empresas gastam dezenas de milhares de milhões de dólares anualmente, será cada vez mais acelerado por GPU.
“A NVIDIA vem se atualizando progressivamente e o lançamento desta nova arquitetura demonstra claramente como a empresa está continuamente fortalecendo sua posição para enfrentar os desafios do futuro. Não estamos apenas acompanhando, mas liderando o ritmo das demandas do mercado, garantindo assim sua relevância e influência no cenário da tecnologia”, reforça Marcio Aguiar, diretor da divisão Enterprise da NVIDIA para América Latina.
Um enorme superchip
O Superchip NVIDIA GB200 Grace Blackwell conecta duas GPUs NVIDIA B200 Tensor Core à CPU NVIDIA Grace por meio de uma interconexão chip a chip NVLink de consumo ultrabaixo de 900 GB/s.
Para obter o mais alto desempenho de IA, os sistemas com GB200 podem ser conectados às plataformas NVIDIA Quantum-X800 InfiniBand e Spectrum™-X800 Ethernet, também anunciadas, que oferecem rede avançada em velocidades de até 800 Gb/s.
O GB200 é um componente chave do NVIDIA GB200 NVL72, um sistema de vários nós, refrigerado a líquido e em escala de rack para as cargas de trabalho com uso mais intensivo de computação. Ele combina 36 Superchips Grace Blackwell, que incluem 72 GPUs Blackwell e 36 CPUs Grace interconectadas por NVLink de quinta geração. Além disso, o GB200 NVL72 inclui unidades de processamento de dados NVIDIA BlueField®-3 para permitir aceleração de rede em nuvem, armazenamento combinável, segurança de confiança zero e elasticidade de computação de GPU em nuvens de IA em hiperescala. O GB200 NVL72 oferece um aumento de desempenho de até 30x em comparação com o mesmo número de GPUs NVIDIA H100 Tensor Core para cargas de trabalho de inferência LLM e reduz o custo e o consumo de energia em até 25x.
A plataforma atua como uma única GPU com 1,4 exaflops de desempenho de IA e 30 TB de memória rápida, e é um alicerce para o mais novo DGX SuperPOD.
A NVIDIA oferece a HGX B200, uma placa para servidor que conecta oito GPUs B200 por meio de NVLink para suportar plataformas de IA generativa baseadas em x86. A HGX B200 suporta velocidades de rede de até 400 Gb/s por meio das plataformas de rede NVIDIA Quantum-2 InfiniBand e Spectrum-X Ethernet.
Rede Global de Parceiros Blackwell
Os produtos baseados na Blackwell estarão disponíveis nos parceiros a partir do final deste ano.
AWS, Google Cloud, Microsoft Azure e Oracle Cloud Infrastructure estarão entre os primeiros provedores de serviços em nuvem a oferecer instâncias com tecnologia Blackwell, assim como a NVIDIA.
Empresas do programa Cloud Partner Applied Digital, CoreWeave, Crusoe, IBM Cloud e Lambda. As nuvens Sovereign AI também fornecerão serviços e infraestrutura em nuvem baseados na Blackwell, incluindo Indosat Ooredoo Hutchinson, Nebius, Nexgen Cloud, Oracle EU Sovereign Cloud, Oracle US, UK e Australian Government Clouds, Scaleway, Singtel, Taiga Cloud do Northern Data Group, Shakti Cloud da Yotta Data Services e YTL Power International.
O GB200 também estará disponível no NVIDIA DGX™ Cloud, uma plataforma de IA projetada em conjunto com os principais provedores de serviços em nuvem que oferece aos desenvolvedores corporativos acesso dedicado à infraestrutura e ao software necessários para construir e implantar modelos avançados de IA generativa. AWS, Google Cloud e Oracle Cloud Infrastructure planejam hospedar novas instâncias baseadas em NVIDIA Grace Blackwell ainda este ano.
Espera-se que Cisco, Dell, Hewlett Packard Enterprise, Lenovo e Supermicro forneçam uma ampla gama de servidores baseados em produtos Blackwell, assim como Aivres, ASRock Rack, ASUS, Eviden, Foxconn, GIGABYTE, Inventec, Pegatron, QCT, Wistron, Wiwynn e Sistemas ZT.
Além disso, uma rede crescente de fabricantes de software, incluindo Ansys, Cadence e Synopsys — líderes globais em simulação de engenharia — usará processadores baseados em Blackwell para acelerar seu software para projetar e simular sistemas e peças elétricas, mecânicas e de fabricação. Seus clientes podem usar IA generativa e computação acelerada para lançar produtos no mercado com mais rapidez, menor custo e maior eficiência energética.

Comentários estão fechados.

Esse site usa cookie para melhor sua experiência Aceitar