Carlos Cardoso 9 anos atrás
No cinema robôs assassinos escaneiam o ambiente identificando tudo, achando pistas e perseguindo humanos. Mesmo um Obsoleto T-800 é capaz de escanear um sujeito e determinar o tamanho das roupas dele. Na vida real processamento de imagem exige não só muito processamento, mas algoritmos cascudos.
Detecção de movimentos é tranquilo, qualquer software de webcam faz isso, o que complica é quando o computador precisa entender o que é que está se movendo. Diferenciar entre um cachorro, um humano e um humano de quatro fingindo ser um cachorro para enganar a versão 1.0 do sensor.
Normalmente algoritmos de detecção precisam ser adestrados. Você tem que dizer o quê ele deve procurar, e se for um software de identificação, aonde. Quer dizer, precisavam, agora robôs podem aprender sozinhos a identificar objetos, graças a uma pesquisa de Dah-Jye Lee, da Universidade Brigham Young.
Desde 2004 Diretor do Laboratório de Visão Robótica da Universidade, Dr Lee e sua equipe criaram um algoritmo genético, através do qual imagens são alimentadas no sistema, e quanto mais imagens, mais preciso ele fica. Lee explica que é como ensinar a diferença entre cães e gatos para uma criança. Você mostra uma série de imagens de um e de outro, e deixa a criança aprender sozinha.
Alimentado com datasets dos arquivos da Universidade, o algoritmo conseguiu identificar rostos, motos, aviões e carros com 100% de eficiência. Os melhores sistemas atuais mal chegam a 98%, e isso depois de treinamento com humanos.
Testaram com imagens do Departamento de Biologia, e conseguiram identificar espécies diferentes de peixes com 99,4% de eficiência. Isso vai muito além das minhas habilidades, não consigo identificar nem a diferença entre uma Cocoroca e um Papacu-rasteiro.
Fonte: BYU.