Assista a esta demonstração da Nvidia e imagine realmente falando com personagens de jogos de IA

O dono de uma loja de ramen cyberpunk renderizado digitalmente com narração de IA respondendo à entrada humana.
Imagem: Nvidia

Na Computex 2023 em Taipei, o CEO da Nvidia, Jensen Huang, deu ao mundo um vislumbre de como seria quando os jogos e a IA colidissem – com uma recriação gráfica de tirar o fôlego de uma loja de ramen cyberpunk onde você pode realmente conversar com o proprietário.

Sério, em vez de clicar nas opções de diálogo, ele imagina que você pode segurar um botão, apenas diga algo com sua própria voz, e obter uma resposta de um personagem de videogame. A Nvidia está chamando isso de “uma espiada no futuro dos jogos”.

Infelizmente, o diálogo real deixa muito a desejar – talvez tente GPT-4 ou Sudowrite da próxima vez, Nvidia?

Aqui está toda a conversa que transcrevi apressadamente:

Jogador: Ei Jin, como vai você?

Jin: Infelizmente não tão bom.

Por quê?

Estou preocupado com o crime por aqui. Está ficando ruim ultimamente. Minha loja de ramen foi pega no fogo cruzado.

Posso ajudar?

Se você quiser fazer algo sobre isso, ouvi rumores de que o poderoso senhor do crime Kumon Aoki está causando todo tipo de caos na cidade. Ele pode ser a raiz dessa violência.

Vou falar com ele, onde posso encontrá-lo?

Ouvi dizer que ele frequenta os clubes de luta clandestinos do lado leste da cidade. Tente lá.

Ok, eu vou.

Tenha cuidado, Kai.

Assistindo a um único vídeo de uma única conversa, é difícil ver como isso é melhor do que escolher uma árvore de diálogo NPC – mas a parte impressionante é que a IA generativa está reagindo a fala natural. Esperançosamente, a Nvidia lançará a demonstração para que possamos experimentá-la e obter resultados radicalmente diferentes.


Captura de tela de Sean Hollister / The Verge

A demonstração foi criada pela Nvidia e pela parceira Convai para ajudar a promover as ferramentas usadas para criá-la – especificamente um conjunto de middleware chamado Nvidia ACE (Avatar Cloud Engine) para jogos que pode ser executado localmente e na nuvem.

Todo o pacote ACE inclui as ferramentas NeMo da empresa para implantação de modelos de linguagem grandes (LLMs), Riva fala para texto e texto para fala e outros bits. Também é incrivelmente bom olhando demo, é claro, construído no Unreal Engine 5 com muito traçado de raios … a ponto de a parte do chatbot parecer sem brilho para mim em comparação. Neste ponto, simplesmente vimos diálogos muito mais atraentes de chatbots, mesmo que às vezes sejam banais e derivados.


Captura de tela de Sean Hollister / The Verge
Clique para uma captura de tela maior.

Em um pré-briefing da Computex, o vice-presidente da plataforma GeForce da Nvidia, Jason Paul, me disse que sim, a tecnologia pode escalar para mais de um personagem por vez e teoricamente poderia até deixar os NPCs conversarem entre si – mas admitiu que na verdade não tinha visto que testado.

Não está claro se algum desenvolvedor adotará todo o kit de ferramentas ACE da maneira que a demonstração tenta, mas STALKER 2 Coração de Chernobyl e Forte Solis usará a parte que a Nvidia chama de “Omniverse Audio2Face”, que tenta combinar a animação facial de um personagem 3D com a fala do dublador.

Correção, 23:25 ET: Foi Jason Paul da Nvidia, não Rev Lebaredian, quem respondeu à minha pergunta. Lamento o erro.

Deixe uma resposta