Na Computex 2023 em Taipei, o CEO da Nvidia, Jensen Huang, deu ao mundo um vislumbre de como seria quando os jogos e a IA colidissem – com uma recriação gráfica de tirar o fôlego de uma loja de ramen cyberpunk onde você pode realmente conversar com o proprietário.
Sério, em vez de clicar nas opções de diálogo, ele imagina que você pode segurar um botão, apenas diga algo com sua própria voz, e obter uma resposta de um personagem de videogame. A Nvidia está chamando isso de “uma espiada no futuro dos jogos”.
Infelizmente, o diálogo real deixa muito a desejar – talvez tente GPT-4 ou Sudowrite da próxima vez, Nvidia?
Aqui está toda a conversa que transcrevi apressadamente:
Jogador: Ei Jin, como vai você?
Jin: Infelizmente não tão bom.
Por quê?
Estou preocupado com o crime por aqui. Está ficando ruim ultimamente. Minha loja de ramen foi pega no fogo cruzado.
Posso ajudar?
Se você quiser fazer algo sobre isso, ouvi rumores de que o poderoso senhor do crime Kumon Aoki está causando todo tipo de caos na cidade. Ele pode ser a raiz dessa violência.
Vou falar com ele, onde posso encontrá-lo?
Ouvi dizer que ele frequenta os clubes de luta clandestinos do lado leste da cidade. Tente lá.
Ok, eu vou.
Tenha cuidado, Kai.
Assistindo a um único vídeo de uma única conversa, é difícil ver como isso é melhor do que escolher uma árvore de diálogo NPC – mas a parte impressionante é que a IA generativa está reagindo a fala natural. Esperançosamente, a Nvidia lançará a demonstração para que possamos experimentá-la e obter resultados radicalmente diferentes.
A demonstração foi criada pela Nvidia e pela parceira Convai para ajudar a promover as ferramentas usadas para criá-la – especificamente um conjunto de middleware chamado Nvidia ACE (Avatar Cloud Engine) para jogos que pode ser executado localmente e na nuvem.
Todo o pacote ACE inclui as ferramentas NeMo da empresa para implantação de modelos de linguagem grandes (LLMs), Riva fala para texto e texto para fala e outros bits. Também é incrivelmente bom olhando demo, é claro, construído no Unreal Engine 5 com muito traçado de raios … a ponto de a parte do chatbot parecer sem brilho para mim em comparação. Neste ponto, simplesmente vimos diálogos muito mais atraentes de chatbots, mesmo que às vezes sejam banais e derivados.
Em um pré-briefing da Computex, o vice-presidente da plataforma GeForce da Nvidia, Jason Paul, me disse que sim, a tecnologia pode escalar para mais de um personagem por vez e teoricamente poderia até deixar os NPCs conversarem entre si – mas admitiu que na verdade não tinha visto que testado.
Não está claro se algum desenvolvedor adotará todo o kit de ferramentas ACE da maneira que a demonstração tenta, mas STALKER 2 Coração de Chernobyl e Forte Solis usará a parte que a Nvidia chama de “Omniverse Audio2Face”, que tenta combinar a animação facial de um personagem 3D com a fala do dublador.
Correção, 23:25 ET: Foi Jason Paul da Nvidia, não Rev Lebaredian, quem respondeu à minha pergunta. Lamento o erro.