Meio Bit » Arquivo » Robótica e IA » IA do Google está aprendendo a traduzir textos sem interferência externa

IA do Google está aprendendo a traduzir textos sem interferência externa

Redes neurais aplicadas no tradutor do Google são capazes de transitar entre uma língua e outra sem “pontes”; embora pareça uma “língua interna”, está mais para conhecimento relacional.

7 anos atrás

c-3po

O Google divulgou nesta semana mais uma prova de que redes neurais, quando devidamente programadas e alimentadas podem se desenvolver de maneiras um tanto inesperadas: o sistema do Google Translator, a ferramenta de Mountain View que muito blog por aí utiliza até hoje para transcrever textos de fontes no exterior para o português desenvolveu um método próprio para realizar suas tarefas, de uma maneira mais prática do que empregar o inglês como uma “ponte”.

E embora muitos blogs estejam se referindo ao método como a criação de uma “língua interna” incompreensível para o ser humano, não é bem isso o que acontece. Na verdade é algo mais próximo ao pensamento humano e como lidamos com diversas línguas em nossa mente.

O Google descobriu o que seu tradutor anda fazendo ao verificar se ele era capaz o que chamamos de tradução em “zero-shot” (sem qualquer treinamento prévio) em casos não-previstos de uso, já que o uso de redes neurais foi introduzido na ferramenta em setembro. Segundo o Google o motor, chamado de Google Neural Machine Translation reconhece 103 línguas e é capaz de traduzir mais de 140 bilhões de palavras por dia, com precisão quase humana.

E mais importante: ele aprende com elas. Ao traduzir “apple” como “maçã” entre inglês e português, e como “manzana” para o espanhol ele vai aprender o significado de tal palavra em diversas língua e dessa forma, ligaria a mesma sem a necessidade de uma língua fazendo o meio-de-campo.

Funciona assim: se o Google Translator é capaz de traduzir textos do inglês para o japonês e vice-versa e igualmente do inglês para o coreano, em teoria o algoritmo deveria ter a capacidade de pegar um texto em japonês e traduzi-lo diretamente para o coreano e do coreano para o japonês, sem a língua anglo-saxã como uma ponte entre as duas.

zero-shot

E sim, o Google constatou que a rede neural é capaz disso: a ferramenta pode pegar uma frase em uma língua e traduzir para outra mesmo que não tenha sido treinada para isso, porque ela já aprendeu utilizando o inglês como base e agora o dispensa. Os pesquisadores observaram o processo da rede (de forma limitada, já que o próprio funcionamento do modelo é complexo e não é tão amigável mesmo para os desenvolvedores) e perceberam um comportamento curioso:

transcape

Em a temos uma representação de como a rede neural do Translator se apresenta. Uma frase traduzida do inglês para o coreano e outra do japonês para o inglês, se tiverem o mesmo significado serão atribuídas com a mesma cor. Já em b, o Google separou uma frase específica para analise. Em c, ela foi divida nas línguas de origem de cada um dos termos. O que a rede neural está fazendo é atribuir como fonte à uma mesma frase três idiomas diferentes, o que em tese indica que ele possui um sistema de representação mais profundo para cada um dos termos.

Daí o conceito de que o algoritmo desenvolveu uma “língua interna”, o que não é inteiramente verdade. Quando nós aprendemos vários idiomas nós não criamos uma língua única na mente e utilizamos todas ao mesmo tempo, porque atribuímos conceitos e experiências a cada uma das palavras que utilizamos. O que o sistema está fazendo é ir além de apenas memorizar traduções:

Ele está aprendendo o significado das palavras. Ele sabe o que é uma maçã e por conta disso, irá identifica-la em qualquer idioma que lhe for ensinado e fará as traduções de acordo. O sistema absorve, aprende, memoriza e aplica. Como nós fazemos. Ele está (ainda que de forma bem rudimentar) aprendendo a pensar sem ser ensinado para isso. E sim, é assustador.

Aos interessados, o artigo pode ser apreciado aqui (cuidado, PDF).

Fonte: Google Research Blog.

relacionados


Comentários