Android XR Unityjpg 1021x580 1

Meta Revoluciona Realismo em Avatares com Recurso ‘Audio To Expression’

A Meta continua a expandir as possibilidades para experiências imersivas em realidade virtual com a introdução do Audio To Expression, uma funcionalidade inovadora disponível na atualização Quest v71. Este novo recurso utiliza inteligência artificial para criar movimentos faciais plausíveis a partir de áudio captado pelo microfone, dispensando hardware de rastreamento facial.


O Que é o Audio To Expression?

O Audio To Expression é um modelo de IA que gera movimentos musculares faciais estimados — como movimentação de lábios, bochechas, pálpebras e sobrancelhas — a partir de um simples input de áudio. É a evolução do antigo Oculus Lipsync SDK, que desde 2015 simulava apenas o movimento dos lábios.

Os principais diferenciais incluem:

  • Movimentos mais detalhados: Além dos lábios, agora inclui expressões completas com bochechas e sobrancelhas.
  • Eficiência de processamento: Surpreendentemente, utiliza menos CPU do que o Oculus Lipsync.

Compatibilidade com Dispositivos Quest

O Audio To Expression está disponível para os seguintes dispositivos:

  • Quest 2
  • Quest 3 e Quest 3S
  • Quest Pro (embora este já conte com sensores dedicados para rastreamento facial, oferecendo expressões mais precisas).

Impacto no Realismo de Avatares

Em um clipe divulgado pela Meta, é possível observar a diferença marcante entre o Audio To Expression e o antigo Oculus Lipsync SDK, destacando um avanço significativo no realismo das expressões faciais geradas.

Este recurso beneficia tanto jogadores quanto desenvolvedores:

  • Jogadores: Avatares de usuários em jogos sociais e multijogadores tornam-se mais realistas, mesmo sem dispositivos com rastreamento facial avançado.
  • Desenvolvedores: Estúdios menores podem usar o Audio To Expression para criar NPCs com expressões convincentes, economizando em tecnologias de captura facial.

Limitações e Uso Atual

Apesar do potencial, o recurso ainda não foi implementado nos Meta Avatars. Atualmente, os avatares da Meta utilizam o Oculus Lipsync SDK em combinação com movimentos oculares simulados (baseados na relevância visual dos objetos em cena) e piscadas ocasionais.


O Que Isso Significa para o Futuro da VR?

O Audio To Expression democratiza o acesso a expressões faciais realistas, permitindo que até mesmo dispositivos mais acessíveis entreguem maior imersão em experiências sociais e interativas.

Desenvolvedores interessados podem acessar a documentação oficial do recurso na plataforma da Meta, explorando como ele pode transformar a maneira como interagimos com avatares e NPCs no universo virtual.


Com o Audio To Expression, a Meta dá mais um passo para aproximar a realidade virtual da realidade cotidiana, provando que a inovação não depende exclusivamente de hardware de ponta, mas também de soluções inteligentes baseadas em software.

Casa Mais | Inovação Digital e Imersiva

(11) 2979.9707

contato@agenciacasamais.com.br

https://www.agenciacasamais.com.br/

 
📸 Instagram: https://www.instagram.com/agencia_casamais/
🐥 Twitter: https://twitter.com/agenciacasamais
💡 TikTok: https://www.tiktok.com/@agenciacasamais
💻 Facebook: https://www.facebook.com/agenciacasamais
💎 LinkedIn: https://www.linkedin.com/company/agenciacasamais

 

Deixe um comentário