A Visão da NVIDIA para o Futuro da IA e Humanos Digitais: Impulsionando a Próxima Revolução Industrial
A Visão da Nvidia para o Futuro da IA e Humanos Digitais: Alimentando a Próxima Revolução Industrial Este post de blog abrange o discurso de abertura do CEO da Nvidia, Jensen Huang, em um evento recente em Taiwan, onde ele compartilhou a ambiciosa visão da Nvidia para o futuro da IA, humanos digitais e a próxima onda de robótica e fábricas impulsionadas pela IA. O post destaca os avanços da Nvidia em áreas como modelos de linguagem em larga escala, IA generativa, gêmeos digitais e IA física, bem como suas mais recentes inovações em hardware, como a arquitetura de GPU Blackwell e a plataforma Omniverse. Ele fornece uma visão geral abrangente da estratégia da Nvidia para impulsionar a próxima revolução industrial alimentada pela IA.
24 de fevereiro de 2025

O CEO da Nvidia, Jensen Huang, revela a visão da empresa para o futuro da inteligência artificial, incluindo humanos digitais, robôs, Terra 2.0 e fábricas de IA. Este post de blog explorará essas tecnologias revolucionárias e seu potencial para transformar indústrias.
O Maior Fosso Possível: As Bibliotecas de Aceleração da NVIDIA
Apresentando a Terra 2.0: O Gêmeo Digital do Planeta da NVIDIA
O Big Bang da IA: IA Generativa e a Nova Revolução Industrial
NIMS: Microserviços de Inferência de IA da NVIDIA
O Surgimento dos Humanos Digitais
A Evolução da Arquitetura e Infraestrutura de IA
Blackwell: A Arquitetura de GPU de Próxima Geração da NVIDIA
IA Física: Robôs Alimentados pelo Omniverse da NVIDIA
Conclusão
O Maior Fosso Possível: As Bibliotecas de Aceleração da NVIDIA
O Maior Fosso Possível: As Bibliotecas de Aceleração da NVIDIA
A NVIDIA construiu um incrível fosso em torno de seu negócio por meio de seu extenso ecossistema de bibliotecas e estruturas de aceleração. Alguns pontos-chave:
-
A NVIDIA criou mais de 350 bibliotecas de aceleração específicas para cada domínio que permitem que os desenvolvedores aproveitem a computação acelerada. Estes incluem bibliotecas para aprendizado profundo (cuDNN), simulação física (PhysX), litografia computacional (Litho), sequenciamento genético (cuPASA) e muito mais.
-
Essas bibliotecas são fundamentais para tornar a computação acelerada acessível aos desenvolvedores. Sem elas, a complexidade de portar algoritmos para serem executados em GPUs seria imensa.
-
A separação entre a estrutura CUDA de baixo nível e as bibliotecas específicas de alto nível é o que possibilitou a adoção generalizada da computação acelerada. É semelhante à importância do OpenGL para gráficos por computador ou do SQL para processamento de dados.
-
O extenso ecossistema de bibliotecas da NVIDIA criou um enorme fosso em torno de seu negócio. Os desenvolvedores estão profundamente investidos nessas bibliotecas, tornando extremamente difícil para os concorrentes entrarem no mercado.
-
A capacidade de expandir continuamente esse ecossistema de bibliotecas e mantê-lo otimizado para o hardware mais recente é uma vantagem competitiva fundamental para a NVIDIA. Isso permite que eles fiquem à frente da curva e mantenham sua dominância na computação acelerada.
Em resumo, o extenso ecossistema de bibliotecas de aceleração da NVIDIA é um enorme ativo estratégico que construiu um fosso incrivelmente forte em torno de seu negócio. Esse fosso será muito difícil para os concorrentes superarem no futuro próximo.
Apresentando a Terra 2.0: O Gêmeo Digital do Planeta da NVIDIA
Apresentando a Terra 2.0: O Gêmeo Digital do Planeta da NVIDIA
A ideia de criar um gêmeo digital da Terra, que a NVIDIA chama de "Terra 2", é um dos projetos mais ambiciosos que o mundo já empreendeu. O objetivo é simular a Terra para prever melhor o futuro do nosso planeta, evitar desastres e entender o impacto das mudanças climáticas para que possamos nos adaptar melhor.
A NVIDIA fez avanços significativos nesta área. Eles desenvolveram capacidades de simulação avançadas que podem modelar com precisão os padrões climáticos, o clima e outros fenômenos físicos. O gêmeo digital da Terra é alimentado por modelos de IA que aprendem com grandes quantidades de dados, permitindo que ele gere simulações altamente realistas.
Durante o keynote, a NVIDIA demonstrou como esse gêmeo digital pode ser usado para prever o caminho e o impacto de uma tempestade que se aproxima em Taiwan. Ao executar várias simulações, o sistema foi capaz de fornecer insights sobre as incertezas em torno da trajetória da tempestade e seus possíveis efeitos na região.
Essa tecnologia representa um grande avanço em nossa capacidade de entender e responder aos desafios que enfrentamos em nosso planeta. Ao criar um modelo digital abrangente da Terra, a NVIDIA está permitindo que cientistas, formuladores de políticas e outros explorem o futuro de maneiras que antes eram impossíveis. À medida que as capacidades desse sistema continuarem a crescer, ele tem o potencial de transformar a forma como abordamos questões globais como mudanças climáticas, desastres naturais e gestão de recursos.
O Big Bang da IA: IA Generativa e a Nova Revolução Industrial
O Big Bang da IA: IA Generativa e a Nova Revolução Industrial
Até o ChatGPT revelar isso ao mundo, a IA era toda sobre percepção, compreensão da linguagem natural, visão computacional e reconhecimento de fala. Era sobre detecção e compreensão.
No entanto, o ChatGPT apresentou ao mundo a IA generativa - IA que pode produzir tokens, sejam eles palavras, imagens, gráficos, tabelas ou até mesmo músicas e vídeos. Isso representa uma mudança fundamental, pois agora a IA não apenas pode perceber e entender, mas também gerar novos conteúdos.
Isso marca o início de uma nova era - a era da IA generativa. A IA evoluiu de um supercomputador para um "Centro de Dados" que produz uma nova commodity: tokens. Assim como o gerador de CA de Nikola Tesla produzia elétrons, o gerador de IA da Nvidia produz tokens, que têm grandes oportunidades de mercado em praticamente todas as indústrias.
Isso representa uma nova Revolução Industrial. A IA não é mais apenas um instrumento para armazenamento de informações ou processamento de dados, mas uma fábrica para gerar inteligência para todas as indústrias. Essa mudança da computação baseada em recuperação para a computação baseada em geração terá um impacto profundo, pois os dados gerados requerem menos energia para serem buscados e são mais relevantes no contexto.
Para habilitar essa nova era, a Nvidia criou os Nvidia Inference Microservices (Nims) - modelos de IA pré-treinados empacotados como microserviços fáceis de implantar e totalmente otimizados. Isso permite que as empresas integrem rapidamente as capacidades de IA generativa em seus aplicativos e serviços.
NIMS: Microserviços de Inferência de IA da NVIDIA
NIMS: Microserviços de Inferência de IA da NVIDIA
A NVIDIA criou um conjunto de microserviços de inferência de IA, chamados NIMS, para facilitar a integração de capacidades avançadas de IA nos aplicativos dos desenvolvedores. Esses NIMS são modelos de IA pré-treinados que podem ser facilmente implantados e usados, sem a complexidade de construir a infraestrutura de IA subjacente.
Os principais aspectos dos NIMS incluem:
-
Modelos Pré-Treinados: A NVIDIA desenvolveu uma variedade de modelos de IA pré-treinados cobrindo diferentes domínios como linguagem, visão, robótica e mais. Os desenvolvedores podem simplesmente integrar esses modelos em seus aplicativos sem ter que treiná-los do zero.
-
Otimizado para Desempenho: Os NIMS são altamente otimizados para serem executados de forma eficiente no hardware de GPU da NVIDIA, aproveitando tecnologias como Tensor Cores e CUDA. Isso garante um desempenho de inferência de baixa latência e alta taxa de transferência.
-
Implantação em Contêineres: Os NIMS são empacotados como contêineres, facilitando sua implantação em ambientes de nuvem, on-premises ou de borda. Os desenvolvedores podem simplesmente baixar a imagem do contêiner e executar o modelo de IA como um serviço.
-
Pilha Integrada: Os NIMS incluem a pilha de software completa necessária para executar os modelos de IA, incluindo o runtime da NVIDIA, mecanismos de inferência e outras dependências. Isso simplifica a implantação e reduz o ônus para os desenvolvedores.
-
Escalável e Confiável: Os NIMS são projetados para serem escaláveis, com suporte para inferência distribuída em várias GPUs. Eles também incluem recursos para alta disponibilidade e tolerância a falhas para garantir uma operação confiável.
Ao fornecer esses microserviços de inferência de IA, a NVIDIA visa democratizar as capacidades avançadas de IA e facilitar a incorporação de IA de ponta nos aplicativos dos desenvolvedores. Isso ajuda a acelerar a adoção de IA em várias indústrias e casos de uso.
O Surgimento dos Humanos Digitais
O Surgimento dos Humanos Digitais
Os humanos digitais revolucionarão a indústria, desde o atendimento ao cliente até a publicidade e os jogos. As possibilidades para os humanos digitais são infinitas. Usando tecnologias avançadas de IA e gráficos por computador, os humanos digitais podem ver, entender e interagir conosco de maneiras semelhantes aos humanos.
Os fundamentos dos humanos digitais são modelos de IA construídos sobre reconhecimento e síntese de fala multilíngue, e grandes modelos de linguagem que entendem e geram conversas. Esses modelos de IA se conectam a outras IA generativas para animar dinamicamente uma malha 3D realista de um rosto, e modelos de IA que reproduzem aparências realistas, permitindo o rastreamento de caminhos em tempo real para simular a maneira como a luz penetra na pele, se espalha e sai em vários pontos, dando à pele sua aparência suave e translúcida.
O Nvidia Ace é um conjunto de tecnologias de humanos digitais empacotadas como microserviços fáceis de implantar e totalmente otimizados. Os desenvolvedores podem integrar os Nims do Ace em suas estruturas, mecanismos e experiências de humanos digitais existentes. Estes incluem os Nims Neotron SLM e LLM para entender a intenção e orquestrar outros modelos, os Nims de fala Reva para fala interativa e tradução, e os Nims de áudio para rosto e gestos para animação facial e corporal. Os Nims do Ace são executados na Nvidia GDN, uma rede global de infraestrutura acelerada pela Nvidia que entrega processamento de humanos digitais de baixa latência em mais de 100 regiões.
Os humanos digitais têm o potencial de serem ótimos agentes interativos, tornando as interações muito mais envolventes e empáticas. À medida que a tecnologia continuar a avançar, os humanos digitais verão uma adoção generalizada em toda a indústria, revolucionando o atendimento ao cliente, a publicidade, os jogos e muito mais.
A Evolução da Arquitetura e Infraestrutura de IA
A Evolução da Arquitetura e Infraestrutura de IA
Jensen Huang discute os rápidos avanços na arquitetura e infraestrutura de IA, destacando marcos importantes e direções futuras:
Escalando Centros de Dados e Transformers
- A escalabilidade dos centros de dados da Nvidia permitiu o treinamento de grandes modelos Transformer em conjuntos de dados massivos por meio de aprendizado não supervisionado.
- Isso permitiu que os modelos de IA aprendessem padrões e relacionamentos a partir de dados sem a necessidade de extensa rotulagem humana.
IA Baseada em Física
- A próxima geração de IA precisa estar enraizada no mundo físico e entender as leis da física.
- Isso pode ser alcançado por meio do aprendizado a partir de vídeos, simulação de dados sintéticos e sistemas de IA aprendendo a interagir uns com os outros.
Arquitetura GPU Blackwell
- Blackwell é a nova arquitetura de GPU da Nvidia, projetada para a era da IA generativa.
- Principais recursos incluem:
- Maior chip já feito, com dois chips conectados a 10 TB/s
- Motor Transformer de segunda geração para adaptação dinâmica de precisão
- IA segura para proteger modelos contra roubo ou adulteração
- NVLink de quinta geração para interconexão de GPU de alta largura de banda
- Motor de confiabilidade e disponibilidade para melhorar o tempo de atividade
- Motor de descompressão para processamento de dados mais rápido
Sistemas Modulares DGX e MGX
- Os chips Blackwell são integrados aos sistemas modulares DGX e MGX da Nvidia.
- Os sistemas DGX fornecem configurações refrigeradas a ar, enquanto o MGX oferece opções de refrigeração a líquido.
- Esses sistemas podem ser dimensionados para conectar centenas de milhares de GPUs usando as tecnologias avançadas de rede da Nvidia.
Inovações Ethernet para Fábricas de IA
- A Nvidia desenvolveu melhorias no Ethernet para torná-lo adequado para os padrões de comunicação intermitentes e de baixa latência necessários no treinamento de IA.
- Tecnologias como RDMA, controle de congestionamento, roteamento adaptativo e isolamento de ruído permitem que o Ethernet tenha desempenho equivalente a redes especializadas de InfiniBand.
Roteiro: Blackwell Ultra e Plataformas Reuben
- A Nvidia planeja continuar seu ritmo anual de empurrar os limites da tecnologia com as plataformas Blackwell Ultra e Reuben.
- Essas gerações futuras manterão a compatibilidade arquitetônica para aproveitar o ecossistema de software em crescimento.
A mensagem-chave é a busca incansável da Nvidia por avançar na arquitetura e infraestrutura de IA para habilitar a próxima onda de IA generativa e aplicações de IA física.
Blackwell: A Arquitetura de GPU de Próxima Geração da NVIDIA
Blackwell: A Arquitetura de GPU de Próxima Geração da NVIDIA
O Blackwell é a nova arquitetura de GPU da NVIDIA, projetada para alimentar a próxima geração de IA e computação de alto desempenho. Aqui estão os principais destaques:
Principais Recursos do Blackwell:
-
Escala Massiva: Os chips Blackwell são os maiores chips já fabricados, com dois dos maiores dies conectados usando um link de 10 TB/s. Isso permite um poder computacional sem precedentes.
-
Confiabilidade e Disponibilidade: O Blackwell inclui um motor de Confiabilidade e Disponibilidade (RAS) que pode testar cada transistor e elemento de memória, melhorando o tempo de atividade e a estabilidade para implantações em larga escala.
-
Adaptação Dinâmica de Precisão: O motor Transformer de segunda geração do Blackwell pode adaptar dinamicamente a precisão dos cálculos com base na faixa e precisão necessárias, melhorando a eficiência.
-
IA Segura: O Blackwell inclui recursos de segurança baseados em hardware para proteger os modelos de IA contra roubo ou adulteração.
-
Motor de Compressão: O Blackwell possui um motor de compressão de dados dedicado que pode buscar dados do armazenamento 20 vezes mais rápido do que antes, melhorando o throughput de dados.
Melhorias de Desempenho
- O Blackwell oferece um aumento massivo no desempenho de IA, com até 45 vezes de melhoria em relação à geração anterior.
- A energia necessária para treinar um modelo de 2 trilhões de parâmetros e 8 trilhões de tokens foi reduzida em 350 vezes em comparação com a geração anterior.
- O desempenho de geração de tokens foi melhorado em 45.000 vezes, reduzindo a energia por token de 177.000 Joules para apenas 0,4 Joules.
Arquiteturas Escaláveis
- Os chips Blackwell são combinados em poderosos sistemas DGX, com até 72 GPUs conectadas usando o avançado interconector MV-Link da NVIDIA.
- A NVIDIA também está desenvolvendo novos switches Ethernet de alta velocidade, chamados Spectrum, para permitir o dimensionamento perfeito para dezenas de milhares de GPUs e além.
Em geral, o Blackwell representa um grande avanço na arquitetura de GPU, permitindo desempenho, eficiência e escalabilidade sem precedentes para a próxima geração de aplicações de IA e computação de alto desempenho.
IA Física: Robôs Alimentados pelo Omniverse da NVIDIA
IA Física: Robôs Alimentados pelo Omniverse da NVIDIA
A era da robótica chegou. Pesquisadores e empresas em todo o mundo estão desenvolvendo robôs aliment
Perguntas frequentes
Perguntas frequentes