Google DeepMind será utilizado para diagnosticar doenças oculares

google-deepmind

O Google DeepMind, laboratório britânico de pesquisa especializado em inteligência artificial começa finalmente a voltar sua atenção para outras coisas que não sejam jogos, sejam de videogame ou milenares. A subsidiária do Google que recentemente fez história com o AlphaGo, um algoritmo capaz de cenver um dos maiores jogadores do mundo fechou uma parceria com o Serviço Nacional de Saúde do Reino Unido (National Health Service, ou NHS) para desenvolver novos algoritmos capazes de diagnosticar doenças oculares em seus estágios iniciais, o que pode evitar que muita gente acabe perdendo a visão.

O objetivo do NHS é combater os casos de cegueira que evoluem a partir de doenças que podem ser tratadas se diagnosticadas a tempo, bem como identificar outros problemas como catarata e glaucoma. A ideia é treinar os algoritmos do DeepMind de modo que ele seja capaz de identificar quaisquer problemas nos olhos do paciente com um simples escaneamento de retina. Para isso o departamento irá fornecer ao Google DeepMind cerca de um milhão de scans oculares anônimos, assim uma rede neural através de aprendizado de máquina terá um extenso banco de dados à sua disposição.

oct-image

Tomografia de Coerência Óptica (OCT) de retina de um dos membros da equipe do DeepMind

O projeto surgiu após um oftalmologista ler sobre a pesquisa do DeepMind com os jogos do Atari 2600; este contatou o Google levantando a possibilidade de que se os algoritmos desenvolvidos pela eram tão bons a ponto de aprender a jogar videogame, poderiam também ser treinados para identificar doenças nos olhos analizando registros de exames passados.

Esta não é nem sequer a primeira parceria entre o Google e o NHS, quando o DeepMind Health foi introduzido em fevereiro ambos anunciaram como primeiro projeto uma pesquisa com foco em doenças dos rins, neste caso voltado para monitoramento de pacientes através de apps móveis.

No entanto, a nova pesquisa se foca em prevenção e não tratamento. Quanto mais cedo doenças oculares são diagnosticadas, mais eficiente é o tratamento e menores são as chances do paciente acabar cego ou com a visão severamente reduzida.


DeepMind Health – Moorfields Eye Hospital London Collaboration

Há quem acredite que a IA vai nos exterminar a longo prazo, mas é bem possível que num primeiro momento ela nos ajude a viver mais e melhor. E nós agradecemos.

Fonte: Google.

Relacionados: , , , , , , , , , , , , ,

Autor: Ronaldo Gogoni

Um cara normal até segunda ordem. Além do MeioBit dou meus pitacos eventuais como podcaster do #Scicast, no Portal Deviante.

Compartilhar
  • James Ocelot

    Agora ela sabera qual de nós tem os olhos ruins!

    • Ralk2

      e isso sera muito bom pra gente e para o google também. Se funcionar, o google vai ganhar um bom dinheiro também. Pois poderá fazer a propaganda dos hospitais e clinicas q podem te dar o tratamento adequado.

    • Diego Tietz

      Lembram do Minority Report?

  • Arnoud Arnoud Rodrigues

    Skynet vai descobrir mais um ponto fraco antes de atacar. Até lá será ótimo para muitos pacientes.

  • Bogdan

    Muito interessante, espero que disponibilizem o quanto antes maiores informações e que possa ser aplicado logo na prevenção de várias patologias oculares 😛

  • Super Suporte

    A Skynet vai começar a dominação “por dentro”… aguardem

  • Luis Eduardo Boiko Ferreira

    Confesso que tenho um certo preconceito com Deep Learning, pois é inviável em várias aplicações práticas devido ao alto custo computacional, mas quem sou eu pra questionar o Google em suas escolhas. Além do mais é o que esta na moda hoje em dia, no que diz respeito a machine learning, apesar de não ser a melhor solução em diversos cenários.

    • Ralk2

      talvez seja inviavel agora, mas não sera num futuro próximo. É só questão de tempo até q tudo isso esteja integrado com o smartphone. Vc escaneia com a camera dele, envia para o google e em alguns minutos te devolve a resposta. Sem precisar ir ao médico.

      • Luis Eduardo Boiko Ferreira

        Veja bem, não falei que a inteligência artificial é inviável, afinal eu trabalho com isto e sei bem sua aplicação. Apenas disse que não gosto do método de deep learning, que basicamente é um ensemble de redes neurais. Algo muito “pesado” se comparado a outras estratégias, como redes bayesianas, arvores de decisão e até mesmo algumas estratégias batch, como k-vizinhos e afins. Sem contar que redes neurais são “caixas pretas”, ou seja: o resultado obtido geralmente é muito bom, mas você não tem ideia do porque daquilo. Em algumas áreas, como diagnóstico médico é preciso que o médico entenda o motivo de determinado paciente ser classificado em certo grupo. Nesta perspectiva é muito melhor ele saber quais regras foram aplicadas para tal ao invés de saber simplesmente a resposta.

        • Someuser10

          E que tal saber a resposta (por deep learning) e, junto, trabalhar com outros algoritmos, de modo a ir descobrindo porque a resposta funciona? Não é viável?

        • -_-

          Bom, meu mestrado foi em Extração de Regras Simbólicas a partir de Redes Neurais. Posso garantir que é possível ver dentro da caixa preta. E a questão do custo computacional pode ser resolvida com hardware projetado especificamente para isso.

          • Luis Eduardo Boiko Ferreira

            Se o teu mestrado foi em extração de regras a partir de redes neurais você devia saber que se “perdem” coisas neste processo e que o que existe não passa de uma gambiarra que leva ainda mais tempo do que a rede para ser processado. Não existe um método comprovado que extraia 100% do conhecimento gerado pela rede. Recentemente realizei uma pesquisa de estado da arte nesta área, sei do que estou falando.
            Outra coisa, você acha viável ter que rodar em um hardware especifico quando existem diversas alternativas menos custosas?

          • -_-

            Sim para as duas questões.

            No caso mais simples (do hardware dedicado), depois de treinada, os parâmetros da rede podem ser fixos em um hardware dedicado, bem mais simples e barato. Obviamente só vale a pena fazer isso para problemas específicos, em que as qualidades das redes neurais seriam necessárias, como tolerância a entradas ou imprecisas.

            Quanto à extração de regras, o resultado será tão preciso quanto a linguagem para a qual você extrair. Por exemplo, se você extrair gerando uma árvore de decisão, obviamente a precisão será limitada à árvore de decisão. Mas isso já aconteceria se você usasse a árvore de decisão desde o início.

            Além disso, em momento algum eu disse que redes neurais servem para todos os problemas. Mas o motivo para não usar não é custo ou porque é uma caixa preta. Simplesmente tem problemas que não tem características que tornam favorável o uso dessa ferramenta.

          • Luis Eduardo Boiko Ferreira

            Querido, a quantos anos você fez mestrado? Atualmente o padrão é trabalhar com data streams (fluxos contínuos de dados), aonde o modelo é gerado novamente a cada janela temporal definida ou quando detecta alguma mudança de conceito (drifting). Logo, é inviável fazer isto que você esta propondo, de treinar em um hardware e portar para o outro, ou você faria isso para cada modelo gerado? Custo extra é um fator impeditivo, meu anjo.
            Segundo ponto, se a precisão da extração do conjunto de regras se limita a “linguagem” para qual sera portado, looooooogo pode não ter a mesma precisão da rede, pois estaria limitado por outros fatores.
            Terceiro ponto, existem sim motivos para não utilizar uma rede neural pensando em custo computacional e na falta de explicação nos resultados obtidos. Primeiro porque como esta explicado acima, atualmente tratamos de streams de dados e estes fatores não podem ser desconsiderados, pois inviabilizam muitas aplicações! (como explicado lá em cima antes da sua primeira replica), além disto, áreas como a saúde PRECISAM das regras que levaram a determinadas decisões ALÉM de saber da ordem em que elas ocorrem, pois existe a relação de ação/reação.
            Quarto ponto, cara… estamos falando de DeepLearning, ou seja, um ensemble de redes neurais. Ou seja, este custo todo que eu falei é multiplicado pelo numero de redes que serão utilizadas, tornando todo o processo impeditivo demais.
            As pessoas acham que redes neurais e algoritmos genéticos, por terem nomes bonitos, são coisas de outro mundo. Se você estudou sabe que em alguns casos até um KNN é mais preciso do que um positron.

          • -_-

            Bom, agradeço pelo “querido” e “meu anjo” 🙂

            Você está se limitando novamente a problemas que você estudou. Existem casos em que é necessário atualizar continuamente um sistema. Assim como existem casos em que não é. Nesse segundo grupo, o treinamento é feito até se alcançar um resultado satisfatório. Caso isso aconteça, pode-se “gravar em pedra” o comportamento do sistema. E esse “gravar em pedra” pode ser inclusive extrair e usar regras mais simples, se for aceitável perder alguma tolerância da rede original.

            Veja que estou falando de Redes Neurais, não de deep learning. Por favor reveja seu comentário:

            “Sem contar que redes neurais são “caixas pretas”, ou seja: o resultado obtido geralmente é muito bom, mas você não tem ideia do porque daquilo. ”

            Você estava falando de Redes Neurais, e foi sobre isso que eu respondi.

          • Luis Eduardo Boiko Ferreira

            De nada! 😉
            Bom, existem aplicações sim em que os dados “não mudam” com o tempo, como você disse. Mas você há de convir que esta não é a regra! Hoje em dia, pelo menos por aqui, bases estáticas são utilizadas apenas para introduzir o conteúdo de data mining no mestrado ou para graduação. De mercados a hospitais, todos querem um sistema que seja adaptativo, pois apesar do custo inicial ser maior, a manutenção é muito mais barata, pois o sistema é capaz de retreinar o modelo automaticamente.
            Realmente, eu estava falando de redes neurais. E como eu disse também, se tratando de deep learning, multiplique o problema pelo numero de redes utilizadas.
            Abraço!

          • -_-

            Sim, é exatamente esse o ponto.

            Eu trabalhei com sistemas assim, que são a exceção à regra. São redes neurais treinadas para problemas super específicos, como reconhecer um rosto genérico. A rede só diferencia entre uma imagem de rosto e uma imagem “não rosto”. Após o treinamento, os pesos foram gravados em um firmware. Isso funciona porque geralmente o rosto humano não muda muito. O sistema vai rejeitar um rosto muito diferente ou se a pessoa usar óculos escuros, franja, etc. Mas para as necessidades do projeto isso não era um problema. É possível fazer a mesma coisa sem usar redes neurais mas, a partir do momento que temos uma ampla base de dados disponíveis para treinamento e um problema tão fechado, não há muito motivo para não usar.

          • Theuer

            SELECT ALL > COPY > SAVE TO PDF > ADD TO POCKET!
            Pronto malditos, não conseguirão consumir o restante deste meu dia com “searches” e “read-read-read”! hehehe
            …não este dia ao menos. 🙂

        • Ralk2

          Vc disse q era iniviavel computacionalmente, talvez vc tenha se expressado errado ou sei lá, mas foi o q vc disse: “pois é inviável em várias aplicações práticas devido ao alto custo computacional”

          Acredito q a função do software seja alertar o usuário, “olha encontramos alguma coisa no seu exame, procure um médico para diagnósticos mais conclusivos”.
          A função do software é só prevenção e recomendação, falo por mim mesmo, eu nunca fui a um oftalmologista, se existisse o software e ele me alertasse eu iria imediatamente.

          • Luis Eduardo Boiko Ferreira

            Inviável em várias aplicações práticas devido ao custo computacional refere-se ao fato de que muitas vezes precisamos gerar um modelo preditivo a cada intervalo temporal definido, e se usarmos deep learning a geração do modelo demora mais do que o intervalo proposto, entende? Isto obviamente em um contexto aonde os dados não são estáticos, mas sim em um stream.

  • Lucas Ambrosio

    Com certeza esse Google DeepMind estava fazendo um piloto na igreja do Sam, lá na Austrália.
    Para não entendedores, serão os 11 melhores minutos de seu dia (removam os espaços):
    www . youtube . com / watch?v=B494y6DMmAk

  • Claudio Roberto Cussuol

    Corrige lá:
    “… capaz de cenver um dos …”

  • Pingback: Google DeepMind fará pesquisa sobre prevenção de doenças oculares | Roraima+()

  • “…capaz de cenver…”
    Você quis dizer: capaz de vencer, Google sobre o texto falando sobre o Google.

  • Saul Goodman

    Corrige aí: “Cenver” = Vencer

  • Pingback: Os novos pactos dos algoritmos do Facebook e do Google()

Aproveite nossos cupons de desconto:

Cupom de desconto Asus, Cupom de desconto Frio Peças, Cupom de desconto Mundo da Carabina, Cupom de desconto JBL, Cupom de desconto Costa Cruzeiros, Cupom de desconto Loja do Mecânico, Cupom de desconto Staples