Meio Bit » Arquivo » Áudio e vídeo » Epic Games demonstra o futuro da Unreal Engine com seus atores digitais

Epic Games demonstra o futuro da Unreal Engine com seus atores digitais

O futuro é agora: Epic Games aposta em atores digitais renderizados em tempo real através da Unreal Engine, tanto para games quanto para filmes com extrema fidelidade e riqueza de detalhes.

6 anos atrás

Em 2001 a Squaresoft tentou a sorte no cinema com Final Fantasy: The Spirits Within, um filme 100% em CGi que diferente de outras produções do tipo, vendeu a ideia de personagens pela primeira vez fotorrealistas ao ponto de tatear a possibilidade de estabelecê-los como "atores virtuais", que apareceriam em mais de uma produção. Além do filme ser chato e confuso, a tecnologia não era lá essas coisas.

Ainda estávamos aprendendo, tateando no escuro e refinando técnicas, com isso os olhos eram muito falsos e a movimentação era dura e estranha, mais para CGi de videogame (os cabelos então se moviam quase como se tivessem vida própria) e por isso o filme foi direto para o Vale da Estranheza. Hoje ele vale a conferida pela curiosidade além de ver como a Square tentou empurrar a dra. Aki Ross (dublada pela atriz Ming-Na Wen, aka Mulan, Chun-li e agente Melinda "Cavalaria chuta bundas" May) de todo jeito, até ensaio para a Maxim ela fez.

Hoje a história é outra. Conseguimos criar CGis assustadoramente realistas, trazendo inclusive atores de volta dos mortos para filmes e comerciais e fazendo composições com luz, sombra e texturas capazes de assombrar qualquer um que viu a aurora dessas tecnologias, mas o que a Epic Games demonstrou na GDC 2018 estava em outro patamar.

A desenvolvedora, proprietária da Unreal Engine que é de longe um dos motores gráficos mais utilizados em games e vídeos da atualidade demonstrou três peças na conferência sobre o que o futuro reserva para a criação de conteúdo em CGi, não apenas para games mas num nível de deixar produtores de cinema salivando.

Um deles, focado em ray tracing em tempo real já foi detalhado aqui, mas a grande atração foi a Siren:


Siren Real-Time Performance | Project Spotlight | Unreal Engine

A japinha digital acima foi criada por um esforço conjunto da Epic, Tencent, 3Lateral, Cubic Motion e Vicon e não é um vídeo, e sim uma renderização em tempo real; uma atriz fornece os movimentos que são capturados e as texturas, com a aparência de uma outra mulher são aplicadas simultaneamente. O resultado pode ser visto acima, em que a movimentação é bastante natural e os efeitos de luz, sombra e detalhes são bem altos.

Lembrando, a técnica não é um CGi pronto e sim uma aplicação do conceito "ao vivo". O resultado final é muito bom, anos-luz à frente de muita coisa renderizada em tempo real que vemos por aí.


Next-Gen Digital Human Performance by Andy Serkis | Project Spotlight | Unreal Engine

A segunda prova de conceito contou com a ajuda do ator Andy Serkis, referência quando o assunto é interpretação de personagens digitais: de Gollum a Caesar, passando por King Kong e Snoke. Desta vez ele próprio se tornou um ator digital, tendo sua face escaneada e digitalizada graças à parceria entre a Epic e a 3Lateral.

Serkis foi gravado recitando um monólogo da peça Macbeth, de William Shakespeare e sua performance foi convertida tanto em uma versão digital dele mesmo, quanto foi aplicada em uma criatura alienígena. A ideia aqui é demonstrar a qualidade da reprodução da performance em diferentes modelos digitais, capturando os mínimos detalhes dos atores e suas expressões faciais e transcrevê-las para games e filmes das mais variadas formas. Os profissionais podem inclusive modificar a performance mudando as expressões em tempo real.

Embora impressionantes, os demos da Epic Games e parceiros ainda precisam de maiores refinamentos para lidar com micro-expressões, além de melhor aplicar efeitos de luz e sombra de forma realista. Não que tudo seja um lixo, não é, compara-los com The Spirits Within por exemplo é como por uma AK-47 do lado de um GAU-8/A Avenger, mas tais obras ainda mantêm a ponta do pezinho no Vale da Estranheza.

Só que as coisas vão melhorar, e rápido. Em 2001 colocar as mãos em softwares como o Massive, que a WETA Digital para criar os exércitos da trilogia O Senhor dos Aneis custaria uma fortuna, hoje qualquer um pode utilizar, é gratuito. O mesmo pode ser dito das tecnologias por trás da única CGi que me enganou direitinho, a recriação do rosto jovem da atriz Sean Young em Blade Runner 2049:


IAMAG — Making of Rachel in Blade Runner 2049

Na minha opinião o Oscar de Efeitos Visuais para Gerd Nefzer, Paul Lambert, Richard R. Hoover e John Nelson foi mais do que merecido; este último inclusive é macaco velho, já havia ganhado por Gladiador quando recriou digitalmente o rosto do ator Oliver Reed, que morreu antes de completar suas cenas como Proximo.

E isso foi em 2000, um ano antes de A Sociedade do Anel e The Spirits Within. E pouca gente percebeu.

Fonte: Polygon.

relacionados


Comentários