Meio Bit » Ciência » IA: UE proíbe uso para vigilância e restringe ChatGPT

IA: UE proíbe uso para vigilância e restringe ChatGPT

Texto atualizado da Lei de IA da UE proíbe aplicações de vigilância, e impõe restrições a soluções generativas, como o ChatGPT

44 semanas atrás

Na última quinta-feira (11), o parlamento da União Europeia aprovou, com ampla maioria, a versão quase final do Projeto de Lei destinado à regulação da Inteligência Artificial (IA) em todos os 27 países-membros do bloco econômico. Se aprovada, a nova legislação será a primeira de grande abrangência, a definir o que pode e o que não pode em todo o setor.

A atual versão do texto proíbe o uso de IAs como ferramentas de vigilância por empresas privadas, embora ainda preveja seu uso por forças de segurança pública em certos casos (ainda que com muitas limitações), e aplica restrições de operação a soluções generativas, como ChatGPT e similares, que terão que atender todas as regras vigentes quanto a direitos autorais.

Novo texto da Lei de IA da União Europeia restringe soluções generativas como o ChatGPT, e proíbe o uso de softwares para vigilância (Crédito: PhonlamaiPhoto/Getty Images)

Novo texto da Lei de IA da União Europeia restringe soluções generativas como o ChatGPT, e proíbe o uso de softwares para vigilância (Crédito: PhonlamaiPhoto/Getty Images)

UE contra IA para vigilância

O texto da Lei de IA, uma proposta originalmente apresentada em 2021, foi aprovado por ampla maioria entre os membros do parlamento, com 84 votos a favor, 7 contra, e 12 abstenções. A proposta passou por uma série de revisões e incrementos nos últimos dois anos, principalmente após a evolução exponencial de softwares generativos de texto, voz, imagem e cia, como GPT-3 e ChatGPT, Stable Diffusion, e outros.

Com o texto praticamente definido e finalizado, a proposta segue para votação em junho de 2023, e se aprovada (o que a essa altura e em se tratando da UE, é uma mera formalidade), irá regular as operações de softwares, sistemas especialistas e soluções de Inteligência Artificial em todo o bloco.

A raiz do texto, que vem servindo como base para a legislação brasileira (que deve receber ajustes à semelhança dos europeus), é que diferente do que vem sendo defendido no Reino Unido, o entendimento é de toda IA é nociva por design. Assim sendo, todos os algoritmos e softwares devem ser classificados em níveis de risco, com os mais leves recebendo menos restrições, e os mais graves, proibidos e criminalizados.

O texto agora definiu o que são as chamadas "abordagens para IAs baseadas em risco", as soluções e usos que ficam proibidas de serem usadas, e são elas:

  • Sistemas de identificação biométrica em tempo real em espaços públicos;
  • Sistemas de pós-identificação biométrica (com conteúdo pré-gravado), salvo em casos de investigações de crimes considerados graves, e apenas com autorização judicial;
  • Sistemas biométricos de categorização, usando características sensíveis (gênero, etnia, cidadania, orientação política, etc.);
  • Sistemas de policiamento preditivos, como o proposto na China, para prevenção de crimes antes que ocorram, usando análise comportamental e cruzamento de dados;
  • Sistemas de reconhecimento de emoções por nenhum órgão privado ou público, incluindo instituições de ensino, órgãos de segurança pública, patrulhamento de fronteiras, etc.;
  • Uso de dados biométricos, de sistemas de vigilância e/ou redes sociais, para criação de bancos de dados de reconhecimento facial, o que viola o direito à privacidade e os direitos humanos.

De forma resumida, empresas e órgãos públicos, incluindo a polícia e agências federais de segurança, não podem usar IAs e soluções baseadas em algoritmos de reconhecimento facial para vigilância em tempo real, como o Reino Unido fez durante a coroação do Rei Carlos III, e a única aplicação prevista na lei é o de material pré-gravado, e apenas em investigações do que a UE considera crimes graves (terrorismo, por exemplo); ainda assim, o uso dos dados deve ser expressamente autorizado por um juiz.

Soluções que usam dados de categorização da população, para a prestação de serviços e avaliação, o que já deu problema em vários lugares, ficam também proibidas, devido o risco (intencional ou não) de se reproduzir vieses e preconceitos humanos. O mesmo vale para softwares preditivos pela segurança pública, que poderiam ser usados para inferir se um suspeito é propenso a cometer um crime, e agir de forma preemptiva, a lá Minority Report.

Reconhecimento facial (Crédito: teguhjatipras/Pixabay)

Reconhecimento facial (Crédito: teguhjatipras/Pixabay)

Em última análise, a Lei de IA é UE é muito mais restritiva ao seu uso por órgãos estatais, com o parlamento reconhecendo que, se deixados sem limites, a polícia e Estados poderiam abusar dos recursos e descambarem para o vigilantismo estatal, o que idealmente não pode acontecer. O único uso previsto é concedido sob controle pesado, e apenas em casos muito específicos.

A novidade foi bem recebida por órgãos de defesa de direitos humanos e liberdades civis na internet. Griff Ferris, diretor-sênior de Direito e Políticas do grupo Fair Trials, que monitora abusos no sistema judiciário, descreveu o texto atual da Lei de IA da seguinte forma:

"Um resultado marcante no combate a sistemas de injustiça automatizada, que reforçam o racismo e a discriminação pelo sistema criminal e judiciário, e alimentam a iniquidade sistêmica na sociedade (...).

O Parlamento Europeu deu um passo importante ao votar pelo banimento desses sistemas, e nós pedimos para que ele termine o serviço em junho, no pleito final".

ChatGPT e cia: restrições pesadas

O Projeto de Lei também delineou o que devem ser consideradas IAs de alto risco, que ficam sujeitas a regulações e escrutínios pesados para serem usadas. A definição foi esticada para abrigar algoritmos que podem causar mal à saúde (individual ou da sociedade), ao Meio Ambiente, à segurança e a direitos fundamentais.

Entram também na nova definição todos os sistemas e soluções de IA e algoritmos usados para recomendações por sites e redes sociais, e sistemas usados para influenciar eleitores; o Deepfake, que pode ser usado em mais de um desses cenários, se enquadra aqui.

Ao mesmo tempo, a Lei de IA está desagradando profundamente companhias e usuários de soluções generativas, pois ChatGPT e cia. receberam atenção especial do parlamento. Por ser considerada uma nova abordagem, tais produtos deverão atender uma série de determinações, se seus desenvolvedores quiserem operar na Europa.

Estas deverão cumprir todos os protocolos de transparência, que incluem:

  • Divulgar, com clareza, que um modelo exibido publicamente trata-se de conteúdo gerado por IA;
  • Desenvolver modelos que não infrinjam, ou façam alusão, a conteúdos protegidos por direitos autorais;
  • Divulgar publicamente todos os modelos e conteúdos usados no treinamento das redes neurais, sejam eles de domínio público, ou protegidos por direitos autorais;
  • Serem claros sobre uso de dados dos usuários (consequências do ban do ChapGPT na Itália).
ChatGPT rodando no Safari (Crédito: Ronaldo Gogoni/Meio Bit)

ChatGPT rodando no Safari (Crédito: Ronaldo Gogoni/Meio Bit)

Basicamente, a Lei de IA da UE não privilegia o uso comercial de modelos generativos no continente, devido o treinamento dos algoritmos com conteúdos de terceiros, o que implica pagamento de direitos autorais, ou citação de obras compartilhadas em licenças de uso aberto; dessa forma, muitas empresas deverão receber vários processos, de empresas como o Getty Images e/ou artistas individuais, e com os dados tornados públicos, qualquer um pode desenvolver um modelo gratuito, que faz o mesmo que os pagos.

A única exceção aberta é justamente o uso de IAs generativas de acesso aberto, ou de pesquisa, que devem ser avaliadas por órgãos da UE, e claro, não preveem exploração comercial.

Claro que a indústria não reagiu bem. Matteo Quattrocchi, diretor de Políticas da Software Alliance (BSA), grupo comercial que reúne empresas como IBM, Microsoft, Cisco, Amazon Web Services e outras, declarou em nota que o texto deve ser clarificado, para determinar como IAs poderão ser exploradas comercialmente na Europa:

A indústria de software corporativo continua preocupada com a alocação de responsabilidades na cadeia de valor de IA, e o tratamento de modelos-base (...).

As regras, conforme escritas atualmente, não estão adaptadas para refletir os papéis das empresas no ecossistema de IA, ou diferenças nos modelos de negócios e usos, e provavelmente não abordarão algumas das preocupações levantadas por aplicativos específicos de alguns modelos-base.

De qualquer forma, o parlamento pretende implementar a Lei de IA tão logo ela seja aprovada; a votação está prevista para acontecer entre os dias 12 e 15 de junho de 2023.

Fonte: European Parliament

relacionados


Comentários