Meio Bit » Ciência » Star Trek: A história do Projeto Gênesis

Star Trek: A história do Projeto Gênesis

O Efeito Gênesis foi um momento único na história dos efeitos especiais. Vamos ver como foi criado esse visual incrível de Star Trek

1 ano e meio atrás

Gênesis teve sua gênese (dsclp) no comecinho da Década de 1980, com uma descrição sucinta em um script. Para surpresa geral, evoluiu para se tornar um momento pivotal na história dos efeitos especiais em cinema.

O Efeito Gênesis (Crédito: Paramount Pictures)

40 (COARENTA*) anos atrás, dinossauros ainda vagavam pela Terra, os continentes estavam longe de sua forma atual, conceitos modernos como fogo, eletricidade e igualdade de gênero ainda não haviam sido sonhados. Era o ano de 1982 e chegava ao cinema Jornada nas Estrelas II – A Ira de Khan1.

Fora o visual incrível das miniaturas da Industrial Light and Magic, algo chamou especialmente a atenção do público: O Projeto Gênesis, um dispositivo que - usando tecnologia banida pela Federação - era capaz de terraformar um planeta morto em um mundo inteiro repleto de vida.

O ponto que os cientistas envolvidos não perceberam era que Gênesis poderia dar vida a planetas mortos, mas se usado em um planeta já com vida, destruiria tudo em prol da nova versão.

Foi a primeira sequência completa em um filme usando computação gráfica, que nem tinha esse nome ainda, mas a rigor, nem era para existir. Nas primeiras versões do roteiro, a demonstração do Projeto Gênesis seria uma pedra que se transformaria em uma flor. Nem o diretor, Nicholas Meyer nem os outros roteiristas tinham noção de que algo como o vídeo final era possível.

Sendo justo, nem a Divisão de Computação da Lucasfilm sabia se era possível, e no começo, não era. Eles tiveram que inventar, adaptar e escrever todos os softwares usados.

Hoje em dia é fácil fazer um planeta em computação gráfica. Um PC mediano, 138 horas de tutoriais no Blender, e pronto. Em 1982 era bem diferente, e cada parte do vídeo teve que ser feita com técnicas isoladas, algumas inéditas.

Uma delas foi a sequência das montanhas e mares surgindo da superfície e crescendo. Modelar cada um dos objetos frame a frame seria impossível, a saída? Achar alguma fórmula matemática capaz de representar estruturas complexas a partir de poucas variáveis.

Essa fórmula incrivelmente existia. Em 1977 o matemático franco-americano Benoît Mandelbrot popularizou o conceito em seu livro Fractals: Form, chance, and dimension2. Mandelbrot demonstrou que infinita complexidade pode ser obtida através de uma fórmula simples como:

Zn+1 = Zn2 + C

O chamado Conjunto de Mandelbrot, com sua infinita complexidade, é derivado dessa simples equação.

Outras fórmulas geram imagens diferentes, e a técnica pode ser aplicada para produzir superfícies infinitamente irregulares e caóticas como linhas costeiras e montanhas.

Em 1980 um pesquisador chamado Loren Carpenter preparou um paper3 sobre geometria fractal para apresentar na conferência SIGGRAPH. Era uma palestra bem árida, cheia de equações, números complexos, matrizes, etc. No final, para surpresa de todo mundo, ele apresentou um filminho chamado Vol Libre, usando a técnica de geometria fractal para criar uma cordilheira.

Vol Libre from Loren Carpenter on Vimeo.

O filme foi aplaudido de pé por uma plateia de profissionais de computação gráfica embasbacados com aquela nova tecnologia. Lembre-se, isso foi em 1980. Um ano antes do lançamento do IBM PC original.

Loren Carpenter foi imediatamente sequestrado pelo departamento de computação da Lucasfilm.

A animação foi renderizada em um VAX-11/780, um minicomputador de 1977 que era um avião. Com processador de 32 bits e 8 MB de memória, era mais poderoso que muitos mainframes, mas isso tinha um custo. US$160 mil pros modelos mais caros, equivalentes a US$727 mil em valores de 2022.

VAX-11/780 (Crédito: Dr. Bernd Gross / Wikimedia Commons)

O VAX tinha capacidade de renderizar imagens em um display de altíssima resolução, que era então fotografado por uma câmera especial. Loren Carpenter levou meses produzindo seu filme, cada frame levava entre 20 e 40 minutos para ser renderizado.

Na Lucasfilm, as mentes geniais deliravam em suas ambições. Loren decidiu que o VAX da Lucasfilm não era adequado para projetar o movimento de câmera, então ele foi atrás da Evans & Sutherland Picture System4, uma empresa que desenvolveu um sistema de visualização 3D em tempo real usando imagens em Wireframe, rodando em um DEC PDP-11/05 com 4 KB de RAM. A resolução era respeitável mesmo para os padrões de hoje: 4096 x 4096.

Com esse sistema, Loren criou dezenas de variações da movimentação de câmera para o Efeito Gênesis. Ele também foi responsável pelo fundo da animação, e qualquer pessoa normal criaria um fundo com estrelas aleatórias e partiria para o abraço, mas ninguém na Lucasfilm é normal.

Em 1978 o sistema da Evans and Sutherland foi usado para pré-visualização de cenas do primeiro longa de Star Trek, as animações em wireframe eram usadas como referência pelo pessoal das maquetes. (Crédito: Reprodução Twitter)

Eles conseguiram um catálogo de estrelas brilhantes da Universidade de Yale, listando 9600 estrelas com magnitude 6,6 ou menor. Loren plotou as coordenadas das estrelas, e usou outros dados do catálogo pra gerar a cor de cada uma. Em seguida, eles pesquisaram a melhor posição para que as constelações ainda fossem reconhecíveis.

A escolhida foi Epsilon Indi, uma estrela na Constelação do Índio, a 12 anos-luz da Terra. Ela é parte de um sistema binário com uma anã marrom, e possui um planeta, Epsilon Indi Ab5.

Como bônus, a Terra é visível na animação, fazendo parte da Constelação da Ursa Maior.

Parte do efeito Gênesis era uma parede de fogo se movendo a 160 mil km/h engolfando o planeta. Essa parede precisou de um sistema de 500 mil partículas, algo nunca antes feito, lembrando que não existia “programa 3D”, tudo tinha que ser escrito do zero, com funções isoladas.

Efeitos como motion blur, atmosfera, variações geográficas e climáticas como vegetação até determinada altitude e neve acima de determinado ponto, cada parte disso foi um programa específico.

Após muitos testes, chegou a hora de renderizar a versão final nos dois VAXes da Lucasfilm. Cada frame tinha resolução de 500 x 500. Em média, a velocidade de renderização era de uma hora por frame, mas alguns levavam cinco minutos, outros cinco horas, tudo depende da complexidade da imagem.

Foram usados truques na cena para disfarçar a baixa resolução: O vídeo é apresentado como visto de um monitor, e há toda uma moldura em volta. Esse truque era muito usado por jogos de PC, nos primórdios.

Finalizado o vídeo, desastre: um dos picos das montanhas fractais interceptava a câmera. Não havia tempo para refazer a trajetória e renderizar tudo de novo. Eles trapacearam e renderizaram o frame específico, apagando a parte da montanha que ficava no caminho da câmera.

Hoje programas como o Terragen são capazes de gerar imagens magníficas de paisagens terrestres e espaciais, o Unreal Engine 5 consegue fazer isso em tempo real, e as possibilidades para os artistas de computação gráfica são infinitas, mas tudo começou com uma seqüência de 60 segundos de pura magia e luz.

* Eu sei.

Fontes:

  1. Star Trek II: The Wrath of Khan - IMDB
  2. Fractals: Form, Chance, and Dimension - Mandelbrot, B.B. - 9780716704737 – 1977
  3. Computer rendering of fractal curves and surfaces – Carpenter, Loren – 1980
  4. Evans & Sutherland Picture System - brochura oficial
  5. Epision Indi Ab – Encyclopaedia de Planetas Extrassolares

Leia mais sobre: , , .

relacionados


Comentários