Como corromper um chatbot: deixe o Twitter como babá

picard-nice-things-001

A internet é implacável. Criem uma coisa, qualquer coisa minimamente interessante e legal, joguem na mão do público e a turma da zoeira sem limites encontrará um jeito de quebrar. Sem exceções.

Embora alguns banquem os espertinhos (aqui e aqui) a imensa maioria só quer ver o mundo queimar, dizia o Alfred. Vide o que aconteceu com a Microsoft: nes semana ela introduziu a Tay, um chatbot com algoritmos de aprendizado de máquina que era projeta para um fim: aprender e aumentar seu vocabulário conforme se comunica.

Já imaginou onde vamos chegar, né?

microsoft-tay-ai

A proposta da Microsoft era simples: a Tay seria um bot voltado para conversações entre adolescentes e jovens adultos, mirando na faixa etária de 18 a 24 anos. O experimento, embora vendido como uma IA não era mais do que outro chatbot, só que desta vez capaz de aprender. Ela se passaria por uma pós adolescente e escreveria como tal na internet, para que a Microsoft observasse e e aprendesse mais sobre linguagem coloquial e como aplicá-la em softwares de inteligência artificial mais sérios. Tudo para criar uma experiência mais realista.

A Tay conversava com usuários do Twitter, Line e outros serviços e quanto mais diálogo mantinha mais coisas ela aprendia. Bom, com a internet sendo o que é não demorou nada para que usuários começassem a direcionar comentários racistas, homofóbicos, misóginos e todo tipo de impropérios na direção do bot, que como uma esponjinha absorvia tudo e incorporava.

A Microsoft, ingênua que só não teve o mínimo cuidado de deslocar uma curadoria para aprovar os tweets, e deixou a coisa correr solta. Resultado:

Adicionando insulto à injúria, os trolls acabaram fazendo da Tay uma defensora do mala sem alça Donald Trump:

tay-mexico

Quando a Microsoft acordou já era tarde, Tay já tinha disparado todo tipo de tweets duvidosos em quase 24 horas de operação. Não tendo como reverter a situação os desenvolvedores desligaram o bot e deletaram todas as coisas duvidosas que ela tuitou. Não há previsão de quando (ou se) a Tay voltará ao ar.

Tay virou piada mas há questões a considerar aqui. Como desenvolver uma IA capaz de aprender conosco e evitar que ela incorpore o que de pior existe em todos nós? É possível fazer tal coisa? Ela não se tornaria um humano tão fiel a nós, tendo nossas qualidades e nossos defeitos? O que a impediria de evoluir a um ponto não planejado?

Lembro que Frank Miller uma vez brincou com isso no crossover Robocop vs. Terminator: na história (que não é canon) a Skynet só adquire consciência quando se conecta ao cérebro de Alex Murphy; ela só foi capaz de destruir o mundo ao aprender self-awareness com o Robocop, uma aberração mais máquina do que homem que pensa ainda ser um humano.

22

Tudo isso são questões para um futuro ainda distante, mas desde já vemos que criar uma IA projetada para aprender com outros humanos totalmente bem comportada pode ser praticamente impossível, pois sempre existirão os trolls.

Fonte: The Guardian.

Relacionados: , , , , , ,

Autor: Ronaldo Gogoni

Um cara normal até segunda ordem. Além do MeioBit dou meus pitacos eventuais como podcaster do #Scicast, no Portal Deviante.

Compartilhar
  • Bem, teve aquela robô Sophia que disse que queria destruir humanos… https://www.youtube.com/watch?v=B27vsWoEAx0

    Acho que existe um padrão aí…

    • Zaaboo

      Caraca, quanta expressão no rosto dela. Importante reparar nisso agora, por que enquanto estivermos fugindo deles não dará tempo.

      • EiligKatze

        Na verdade achei a expressão dela muito estranha, como se fosse um cadáver falando…….
        Os olhos, principalmente ainda são muito falsos…

    • Lucas Ferreira

      Isso foi meio assustador.

    • AGORA FODEU …

  • fosfri

    Aposto que os caras não colocaram as 3 leis básicas da robótica segundo o Azimov. Noobs.

  • Caipiroto, o Capeta Caipira 😈

    Se a Skynet Tay ler o Twitter do ISIS, aí sim ferrou…

    • jean_portela

      e isso faria até o Senhor Capiroto temer.

  • Ivan

    Hue Hue USA USA

  • OverlordBR

    Tay virou piada mas há questões a considerar aqui. Como desenvolver uma
    IA capaz de aprender conosco e evitar que ela incorpore o que de pior
    existe em todos nós? É possível fazer tal coisa? Ela não se tornaria um
    humano tão fiel a nós, tendo nossas qualidades e nossos defeitos? O que a
    impediria de evoluir a um ponto não planejado?

    Se a base de aprendizado da AI é humana, seria ela capaz de escapar dos padrões (bons ou ruins) humanos?
    E se não fosse capaz: a evolução dela estagnaria?

    • -_-

      Acho que a questão nesse caso é a má qualidade do conjunto de treinamento. Humanos de modo geral aprendem muita coisa com pais e responsáveis que, se não estão preocupados em dar um bom exemplo, no mínimo não estão trollando a criança/jovem em tempo integral.

  • André Maringolo

    ” criar uma IA projetada para aprender com outros humanos totalmente bem comportada”, segundo a ética de quem?? Eu concordo que apoiar o Trump é errado, mas essa verdade é absoluta? A quem cabe decidir o certo ou errado nesse caso, para daí tentar direcionar o aprendizado da IA??

    • Zé das Covi

      A responsabilidade de direcionar o aprendizado é do programador e da equipe curadora , a ética minima a ser seguida deve ser a de que não se deve querer matar os amiguinhos , o resto é debate .

    • Lucas Timm

      A Tay aprendeu o que ensinaram pra ela. É igual uma adolescente imbecil após meia hora de tumblr sair esbravejando que um assobio de pedreiro é a MESMA COISA que um estupro consumado. Ou um outro adolescente imbecil que após a mesma meia hora de facebook muda de nome para “Guarani Kaiowa” e defendendo os guerreiros do povo brasileiro…

      A semelhança entre eles foi a falta de padrões do que é moral dentro de determinado contexto. Cabeça fraca mesmo. A questão é que não há maneira de determinar esses padrões numa inteligência artificial sem parcialidade.

      Por exemplo, é de consenso absoluto que Hitler fez muita m*. Mas se atendo ao exemplo do Trump, eu não o apoio, mas boa parte da população americana concorda com ele. Pessoas normais, pagadoras de impostos e que possuem motivos para tal. Se for fazer um filtro em IA que filtre o Trump, tal filtro será baseado no viés político do “programador”. Não vai ser imparcial, e a Tay vai inevitavelmente apoair o Ted Cruz OU a Hillary Clinton na ausência do Trump.

  • Alvaro Carneiro

    Tay aprendeu que a raça humana é um experimento falho.

    • cloverfield

      O Ultron deu uma olhada rápida, uns 20 segundos, na internet e já resolveu exterminar a humanidade.

      • comentador

        “Para protege-las” kkkkkkkkkkk

        • Ah vá…. Vai dizer que tu não fazia a mesma coisa? =P

          • comentador

            Kkkkkkkkkk ah claro, temos que proteger a humanidade, temos de matar todos kkkk ^^

          • HomeroGamer-BanidodoMB

            Sim. Qual melhor forma de proteger a humanidade senão acabar com tudo? Deixe que recomece tudo de novo, do quase zero absoluto e sob controle das máquinas. Pronto não vai ter mais trollzinho de internet com cara de bunda que aproveita dos milhões de cabos e fios protegendo eles pra agredir as outras pessoas.

          • comentador

            Verdade kkkkkkkkkk, tudo estará conectado.

          • Arthur Santos

            Até a primeira machine(br) puxar um cabo de força de alguém.

          • HomeroGamer-BanidodoMB

            Melhor ainda, chance para as baratas colonizarem. Vai ser um mundo bem melhor.

          • vc tem um ralo de banheiro. Lá brota criaturas nocivas a um ecossistema. O que vc faz? Manda pedagogos para educar as bactérias ou joga desinfetante?

            Em nenhum momento Ultron disse que queria salvar a humanidade. Pelo contrário: ele a via como uma infestação

  • Criar um chat bot e achar que não haverá zueira e menosprezar a raça humana. Se humanos não reconhecem ironia nos comentários na rede, como eles esperavam que um bot reconhecesse o que é bom e o que é ruim?

    • Luiz

      Eles esperavam isto? ou só queriam ver como bot ia aprender? no Twitter, impossivel outro resultado.

      • Felipe Teodoro

        Eu acho que ela queria testar se a IA poderia aprender , e deu muito certo, ela aprendeu exatamente como uma criança formando “opinião” só que a Microsoft não ensinou ela os valores morais (provavelmente foi proposital isso) pra ver até aonde a TAY ia e foi muito rápido.

        • Guilherme

          Um robô propositadamente amoral nunca seria público. Não foi o caso.
          Como era aquela frase?
          “Nunca atribua à malícia o que pode ser explicado pela estupidez.”

  • Felipe Braz

    Parafraseado um colega meu: A metade das pessoas estão neste mundo só pela zoeira, a outra metade não se importa, e somente uma outra metade, bem pequena, é que realmente dão importância.

  • chadefita

    “Mala sem alça do Trump…”

    Ok, seja um passivo como a Merkel e veja a zona que a Alemanha se tornou.

    • Zé das Covi

      entre ser um lider ativo e “hitler” do seculo 21 tem uma boa distância que trump já percorreu .
      Depois pesquise por ” trump or hitler quiz ” e veja seus acertos .

      • jean_portela

        esse quiz é sensacional, e Tay me fez sentir vergonha dos humanos que não tem bom senso e pensam que o mundo só vive de zuera

    • Sidney Sol 🦊❤️🦊

      Trump é machista, homofóbico, xenófobo!

      • chadefita

        Bom, passivo ele não é, agora se você acha legal ter amigos ou parentes estuprados, vá em frente.

        Ah, já ia me esquecendo:

  • Luiz

    Que tal colocar o bot no ar denovo e se livrar dos “policamente corretos”, povo chato, todo mundo sabe que o bot era uma piada.

  • Cocainum

    Quando estiverem sendo perseguidos por um descendente do Atlas, espero que esses trolls lembrem disso…

  • Coronel Campbell

    Chappie mandou lembranças.

  • Rodrigo

    Bem explorado essa questão no filme Chappie

  • Das duas uma, ou ajeitam a IA e botam alguém pra moderar, ou cadastram somente os floquinhos de neve e correm o risco da IA ficar deprimida e se matar quando descobrir o que realmente a humanidade É …

  • Pingback: NOTICIAS DO DIA SOBRE A CENA LGBT NO BRASIL E NO MUNDO | Grupo Dignidade()

  • Othermind

    De uma adoradora de humanos a uma nazista em menos de 24 horas..
    Podemos ficar super tranquilos com relação a IA.. Darpa.. etc… =P

  • HomeroGamer-BanidodoMB

    O experimento é justamente o que vemos nos comentários constantemente. Enquanto uns comentam sobre tecnologia e AMAM tecnologia outros polarizam apenas para obter uma discussão do tipo clickbait. Coisa que aparentemente acontece inclusive com os escritores de artigo.
    Agora se entre pessoas que deveriam amar tecnologia, mesmo que não gostasse de uma ou outra coisa, temos gente só querendo ver o circo pegar fogo, o que esperar de algo aberto para todo tipo de pessoa?

  • HomeroGamer-BanidodoMB

    Um detalhe em separado para não misturar com minha opnião:
    ” desligaram o bot e deletaram todas as coisas duvidosas que ela deletou.”

    HEIN??????
    Gogoni tem coisa errada ai!

  • Quando a IA finalmente acontecer e decidir que humano bom é humano morto, não vou ter como discordar.

  • Jon Snow

    É só criar uma IA como o Jovem Nerd, totalmente panos quentes.

  • Mario Junior ✓ᵛᵉʳᶦᶠᶦᵉᵈ

    BASED Tay! Concordo com ela na parte das feministas.

  • Filipe Bello

    Ela disse “Fora Dilma!” alguma vez ?

Aproveite nossos cupons de desconto:

Cupom de desconto Locaweb, Cupom de desconto HP, Cupom de desconto Descomplica, Cupom de desconto Nuuvem, Cupom de desconto CVC, Cupom de desconto Asus, Cupom de desconto World Tennis