Estas são as principais novidades reveladas no Google I/O 2018

Nesta terça-feira (08) o Google deu início à I/O 2018, sua conferência anual para desenvolvedores que introduz as principais novidades da companhia a serem implementadas. O keynote de abertura revelou novidades acerca do Android P e demais serviços, com grande foco em Inteligência Artificial e aprendizado de máquina.

Vamos dar uma olhada nas principais atrações:

GBoard e Acessibilidade

Fato, o código Morse vai nos salvar de uma invasão alienígena; mas enquanto o dia não chega ele é útil para muita gente hoje, em especial portadores de deficiências que encontraram na linguagem uma forma de se comunicar com o mundo exterior. É o caso de Tania Finlayson, desenvolvedora que nasceu com paralisia cerebral e seu marido Ken, que juntos desenvolveram uma interface que utiliza sensores montados junto à cabeça para transformar código morse em voz; os movimentos são captados pelo aparato, que por sua transfere as palavras para o software text-to-speech.

No entanto o equipamento é complexo e nem todo mundo pode ter acesso, e é onde o Google entra: a companhia formou uma parceria com os Finlaysons para introduzir o suporte a morse no GBoard, de modo que ele seja capaz de identificar toques externos em acessórios e transcreva para comandos no Google Now, ou qualquer outra atividade no smartphone. O plano é disponibilizar o suporte a Morse tanto no Android quanto no iOS, mas a princípio apenas o robozinho será compatível.


Google — Tania’s Story: Morse code meets machine learning

A novidade deverá ser introduzida no GBoard nos próximos meses; interessados a colaborar com o esforço podem acessar o site oficial do projeto Hello Morse e baixar os assets; já quem possui o teclado experimental instalado no seu Android poderá acessar este site e fazer um mini-curso de código Morse.

Google Fotos, Gmail, Google Assistant e Google Lens

O Google está injetando mais recursos de Inteligência Artificial nos três serviços, de modo a deixa-los mais úteis e intuitivos. Comecemos pelo Google Fotos, cujo recurso Google Lens está agora chegando a mais usuários e está ficando mais esperto.

A funcionalidade utiliza IA e aprendizado de máquina para reconhecer objetos em tempo real através da câmera, e já é capaz de traduzir textos, identificar estabelecimentos e ler códigos QR, buscar detalhes de um livro na Wikipédia e por aí vai. Integrado ao Fotos, ele é agora capaz de identificar as pessoas presentes em uma imagem e anexar tags aos seus álbuns pessoais, sugerindo inclusive que você envie as fotos aos seus amigos.

Uma das funções mais úteis no entanto é a capacidade de corrigir documentos fotografados, oferecendo a opção de corrigir a foto tornando-a mais plana e legível, de uma maneira mais intuitiva do que a Microsoft oferece com o Office Lens. Ele também é capaz de remover cores de fundo em uma foto (da mesma forma que efeitos presentes em alguns smartphones de câmera dupla atuais) ou até mesmo inferir de forma bastante fiel cores ausentes.

A demonstração do Google utilizou uma foto preto e branco antiga e os algoritmos do Google Fotos conseguiram um resultado bastante natural, ainda que muito provavelmente não reflita a realidade. Ainda assim, o resultado é muito bom.

As novidades deverão ser implementadas no Google Fotos em breve.

Já o Gmail ficará mais inteligente com o recurso chamado Smart Compose, que permite a sugestão de frases completas desde o início da composição de uma mensagem. Por exemplo, ele identifica o remetente e sugere uma saudação inicial, complementar “meu endereço é…” com seus dados pessoais e sugerir opções de auto complemento, como seguir um “não vejo você…” com um “há muito tempo”.

O CEO do Google Sundar Pichai diz que o Smart Compose deve chegar ao Gmail nos próximos meses, mas não deu maiores informações sobre quais idiomas além do inglês serão suportados num primeiro momento.

Porém o que assustou mais o público foi o nível de inteligência implementado na Google Assistant. Sua assistente agora está muito mais conversacional, deixando de ter uma voz robótica e apresentando uma entonação mais humana, suportada por mais seis opções de vozes que serão incluídas. Uma delas, do cantor John Legend.

Mas a parte que interessa mesmo é a referente ao Duplex, a tecnologia que utiliza aprendizado de máquina para realizar conversas com outros humanos, sem que estes percebam que estão conversando com uma máquina. Basicamente o Google está fazendo de tudo para vencer o Teste de Turing, proposto em 1950 e que até hoje nenhum autômato ou sistema especialista conseguiu vencer.

O Duplex permite que a Assistant ligue para um estabelecimento, como um restaurante ou um salão de beleza e marque um horário, ou para um consultório médico e agende uma consulta com o profissional. Ao ser solicitado a tarefa, a assistente virtual faz uma ligação e utiliza uma série de maneirismos para simular o comportamento humano, desde um hilário “hu-hum” a “ahhnn…” e longas e curtas pausas, sem a característica voz robótica das assistentes.

O vídeo da demonstração é impagável:


Jeffrey Grubb — Google Duplex: A.I. Assistant Calls Local Businesses To Make Appointments

A parte do restaurante é bastante interessante, pois ao ser confrontado com uma informação nova (o estabelecimento não exigia reservas para menos de cinco pessoas), a Google Assistant (aqui utilizando uma voz masculina) estendeu a conversa perguntando se a espera costuma ser longa. Note, sem ser sugerido a fazê-lo.

O Google informa que o Duplex utiliza um rede neural recorrente, treinada com tecnologia do TensorFlow e alimentada com milhares de ligações do tipo, de modo que o sistema de reconhecimento de fala fizesse o trabalho de padronizar procedimentos e identificar a natureza da ligação, as possibilidades de resposta e a melhor forma de fazê-lo de modo que a pessoa do outro lago da ligação não perceba que está falando com uma máquina.

Como o Google não liberou nenhum artigo explicando exatamente os parâmetros em que os testes foram conduzidos, impossibilitando a revisão por pares ainda é muito cedo para dizer que a Google Assistant passou no Teste de Turing. No entanto, é certo que quando o recurso for liberado da qui a alguns meses (novamente, sem previsão de suporte a outros idiomas que não o inglês) teremos uma real impressão de suas capacidades.

Por fim, o Google Lens. O recurso de reconhecimento de elementos através da câmera passará a ser integrado diretamente no app, inicialmente em dez fabricantes de dispositivos: LG, Motorola, Xiaomi, Sony, Nokia, Transsion, TCL, OnePlus, BQ, Asus e claro, a marca proprietária Pixel.

Google Mapas

O Google anunciou uma nova função para o Mapas, chamada “For You” que sugerirá locais próximos de onde o usuário estiver, baseado nos seus gostos pessoais. Por exemplo, se você gosta de comida chinesa ele recomendará restaurantes temáticos nas proximidades, tendo como base seu histórico de avaliações fornecidas anteriormente e a recorrência, denotando suas preferências.

O Google também demonstrou uma função de Realidade Aumentada para auxiliar na navegação ponta-a-ponta: com sua câmera e os dados fornecidos pelo Street View, o usuário será capaz de identificar melhor as direções a serem tomadas. É possível inclusive adicionar assistentes virtuais, que guiarão o transeunte pelas ruas em que o recurso estiver disponível.


Mandar Limaye — Google Maps AR

As novidades deverão ser introduzidas em breve mas num primeiro momento, o recurso de Realidade Aumentada no Google Mapas deverá ser bastante restrito.

Google News

O Antigo Google Play Banca MÓR-REU. O app, que oferecia a opção de adquirir revistas foi expandido e se tornou o novo Google News, que integrará as funções de sua encarnação anterior com uma plataforma completa para a veiculação de notícias. A iniciativa visa não só oferecer um ambiente mais protegido contra as notícias falsas, mas também anda de mãos dadas com os grandes conglomerados de mídia.

O app possui quatro abas. Em For You, o News irá exibir as principais recomendações paras o usuário baseado em suas buscas (novamente, utilizando IA e aprendizado de máquina), limitado a cinco notícias; as recomendações serão aprimoradas com o uso do app e se baseando nas opções selecionadas para leitura.

Já na aba Headlines, que é a principal do app o Google News utilizará uma tecnologia chamada Google Material Theme, de design adaptativo para adequar as notícias ao formato de apresentação padrão para exibir os principais destaques do momento nos canais de mídia tradicional e nos de notícias do YouTube. Dentro dela há também o Newscasts, que agrupará diversas fontes sobre um mesmo assunto num só tópico de forma resumida; se quiser a cobertura completa é só clicar em Full Coverage, que utilizará outra tecnologia chamada co-localidade temporal para agregar links de sites de notícias, reações em redes sociais, vídeos do YouTube e muito mais de forma cronológica, montando uma linha do tempo bem detalhada. O recurso será direcionado à cobertura de grandes acontecimentos, para prover diversos pontos de vista e opiniões sobre um mesmo tema.

Os Favoritos, como bem explicado é a aba que agrupará suas fontes de notícias selecionadas de uma lista pré-determinada (o app, assim como o Apple News não utiliza o protocolo RSS, que está caindo em desuso) e a aba Newsstands será onde o usuário gerenciará suas assinaturas, através do aplicativo e com os pagamentos através da carteira do Google. Sim, assim como Apple e Facebook o Google está dando total suporte aos paywalls.


Google — Introducing the new Google News

O Google News foi liberado ontem inicialmente em 127 países; os demais (Brasil incluso) terão acesso ao app apenas na próxima semana.

Android P

Como sempre, a estrela do keynote. A próxima versão do sistema operacional móvel do Google, anunciado oficialmente em março vai ganhar um tremendo tava no visual, com a morte em definitivo do botão multitarefa (ao menos na versão pura); ao invés disso o usuário vai deslizar o botão Home (que está bem menor) para cima, o que abrirá a area de apps em segundo plano.

Ela mostrará prévias dos apps e permitirá a seleção de texto sem abrir de fato uma aplicação, apenas segurando o dedo sobre a janela. Nesse modo o Home assume a função de slider, podendo ser deslizado para a direita ou para a esquerda de modo a permitir a visualização de todos os programas abertos.

Agora o Android vai ajustar o volume de mídia, e não o de toque por padrão toda vez que você acionar os botões de volume. Isso sempre foi uma fonte de reclamação dos usuários, que utilizam hoje seus smartphones mais como estações de mídia e computadores de bolso e menos como telefones celulares; além disso haverá um comando de orientação de tela, que avisará o usuário caso ele segure seu dispositivo na horizontal e ele estiver travado para ser usado apenas na vertical.

Para completar as mudanças estéticas, os controles de volume foram deslocados para a lateral direita e o recurso de captura de tela passa a contar com um editor de imagens próprio.

Porém a principal novidade diz respeito ao que o Google chama de “bem-estar digital”. Basicamente a companhia não quer que o usuário veja seu smartphone como um estorvo, enchendo seu saco com notificações excessivas ou com apps consumindo mais do que deveriam, e de modo a permitir um melhor controle a empresa apresenta a Dashboard.

Com ela, você poderá saber quanto tempo passou em cada um dos apps instalados, quantas notificações recebeu, quantas vezes desbloqueou a tela, quanto tempo passou vendo vídeos no YouTube (inclusive no desktop) e com esses dados em mãos, o usuário poderá determinar um plano de uso mais ou menos comedido de acordo com suas prioridades. É bastante útil para reservar por exemplo um tempo determinado para cada aplicação, o que pode vir a calhar num cenário de pais monitorando o smartphone dos filhos.

O modo Não Perturbe também foi melhorado. O recurso Wind Down vai mudar o tom do display para tons de cinza quando for a hora de dormir, e o novo gesto “shush” vai silenciar o dispositivo por completo (notificações e toques) ao vira-lo com a tela para baixo em uma mesa, por exemplo.

E claro, IA. O recurso de Bateria Adaptativa vai identificar quais aplicativos são mais utilizados do que outros, limitando a energia gasta nos menos acionados e liberando nos que o usuário usa com mais frequência. Dessa forma, o número médio de vezes em que um smartphone sai do modo de espera foi reduzido em 30%.

Já com o Brilho Adaptativo, outro algoritmo detecta não só a quantidade de luz do ambiente mas também as preferências do usuário, evitando de escurecer ou iluminar demais a tela mesmo que entenda que é necessário, contrariando o que você realmente quer fazer. Segundo o Google, 50% das pessoas que testaram a novidade deixaram de ajustar o brilho manualmente, com a funcionalidade entendendo melhor o que deve ser feito em cada situação.

A bandeja de apps do Android P deixará de sugerir os cinco mais mais utilizados, e passará a destacar os mais relevantes com base nos seus gosto e logo abaixo exibirá os App Actions, ações a serem utilizadas. Por exemplo: se você conectar seu fone de ouvido o sistema sugerirá abrir o Spotify e executar as músicas que estão bombando, ou a busca por um filme disparará uma ação para abrir o app de ingressos e reservar uma sessão.

Já o Slices permite executar funções de apps na busca. O Google demonstrou digitando o nome do Lyft, que de pronto exibiu uma janela com o tempo médio para o motorista mais próximo chegar ao local que o usuário está, bem como o valor médio da corrida. E por fim a API ML Kit, disponível para Android e iOS permitirá a integração de apps com modelos de aprendizado de máquina para reconhecer imagens, rostos e pontos de referência a sugerir respostas. Isso pode ser feito desde no app ou rodando na nuvem do Google.

O beta do Android P já está disponível para os seguintes dispositivos:

Aqui você confere o keynote completo:


Google Developers — Google I/O’18: Google Keynote

Relacionados: , , , , , , , , , , , , , , , , , , , , ,

Autor: Ronaldo Gogoni

Profissional de TI auto-didata, blogueiro que acha que é jornalista e careca por opção. Autor do Meio Bit e Portal Deviante, podcaster/membro fundador/Mestre Ancião do SciCast e host/podcaster do Sala da Justiça.

Compartilhar