Ronaldo Gogoni 16/05/2023 às 11:25
Na última quinta-feira (11), o parlamento da União Europeia aprovou, com ampla maioria, a versão quase final do Projeto de Lei destinado à regulação da Inteligência Artificial (IA) em todos os 27 países-membros do bloco econômico. Se aprovada, a nova legislação será a primeira de grande abrangência, a definir o que pode e o que não pode em todo o setor.
A atual versão do texto proíbe o uso de IAs como ferramentas de vigilância por empresas privadas, embora ainda preveja seu uso por forças de segurança pública em certos casos (ainda que com muitas limitações), e aplica restrições de operação a soluções generativas, como ChatGPT e similares, que terão que atender todas as regras vigentes quanto a direitos autorais.
Novo texto da Lei de IA da União Europeia restringe soluções generativas como o ChatGPT, e proíbe o uso de softwares para vigilância (Crédito: PhonlamaiPhoto/Getty Images)
O texto da Lei de IA, uma proposta originalmente apresentada em 2021, foi aprovado por ampla maioria entre os membros do parlamento, com 84 votos a favor, 7 contra, e 12 abstenções. A proposta passou por uma série de revisões e incrementos nos últimos dois anos, principalmente após a evolução exponencial de softwares generativos de texto, voz, imagem e cia, como GPT-3 e ChatGPT, Stable Diffusion, e outros.
Com o texto praticamente definido e finalizado, a proposta segue para votação em junho de 2023, e se aprovada (o que a essa altura e em se tratando da UE, é uma mera formalidade), irá regular as operações de softwares, sistemas especialistas e soluções de Inteligência Artificial em todo o bloco.
A raiz do texto, que vem servindo como base para a legislação brasileira (que deve receber ajustes à semelhança dos europeus), é que diferente do que vem sendo defendido no Reino Unido, o entendimento é de toda IA é nociva por design. Assim sendo, todos os algoritmos e softwares devem ser classificados em níveis de risco, com os mais leves recebendo menos restrições, e os mais graves, proibidos e criminalizados.
O texto agora definiu o que são as chamadas "abordagens para IAs baseadas em risco", as soluções e usos que ficam proibidas de serem usadas, e são elas:
De forma resumida, empresas e órgãos públicos, incluindo a polícia e agências federais de segurança, não podem usar IAs e soluções baseadas em algoritmos de reconhecimento facial para vigilância em tempo real, como o Reino Unido fez durante a coroação do Rei Carlos III, e a única aplicação prevista na lei é o de material pré-gravado, e apenas em investigações do que a UE considera crimes graves (terrorismo, por exemplo); ainda assim, o uso dos dados deve ser expressamente autorizado por um juiz.
Soluções que usam dados de categorização da população, para a prestação de serviços e avaliação, o que já deu problema em vários lugares, ficam também proibidas, devido o risco (intencional ou não) de se reproduzir vieses e preconceitos humanos. O mesmo vale para softwares preditivos pela segurança pública, que poderiam ser usados para inferir se um suspeito é propenso a cometer um crime, e agir de forma preemptiva, a lá Minority Report.
Em última análise, a Lei de IA é UE é muito mais restritiva ao seu uso por órgãos estatais, com o parlamento reconhecendo que, se deixados sem limites, a polícia e Estados poderiam abusar dos recursos e descambarem para o vigilantismo estatal, o que idealmente não pode acontecer. O único uso previsto é concedido sob controle pesado, e apenas em casos muito específicos.
A novidade foi bem recebida por órgãos de defesa de direitos humanos e liberdades civis na internet. Griff Ferris, diretor-sênior de Direito e Políticas do grupo Fair Trials, que monitora abusos no sistema judiciário, descreveu o texto atual da Lei de IA da seguinte forma:
"Um resultado marcante no combate a sistemas de injustiça automatizada, que reforçam o racismo e a discriminação pelo sistema criminal e judiciário, e alimentam a iniquidade sistêmica na sociedade (...).
O Parlamento Europeu deu um passo importante ao votar pelo banimento desses sistemas, e nós pedimos para que ele termine o serviço em junho, no pleito final".
O Projeto de Lei também delineou o que devem ser consideradas IAs de alto risco, que ficam sujeitas a regulações e escrutínios pesados para serem usadas. A definição foi esticada para abrigar algoritmos que podem causar mal à saúde (individual ou da sociedade), ao Meio Ambiente, à segurança e a direitos fundamentais.
Entram também na nova definição todos os sistemas e soluções de IA e algoritmos usados para recomendações por sites e redes sociais, e sistemas usados para influenciar eleitores; o Deepfake, que pode ser usado em mais de um desses cenários, se enquadra aqui.
Ao mesmo tempo, a Lei de IA está desagradando profundamente companhias e usuários de soluções generativas, pois ChatGPT e cia. receberam atenção especial do parlamento. Por ser considerada uma nova abordagem, tais produtos deverão atender uma série de determinações, se seus desenvolvedores quiserem operar na Europa.
Estas deverão cumprir todos os protocolos de transparência, que incluem:
Basicamente, a Lei de IA da UE não privilegia o uso comercial de modelos generativos no continente, devido o treinamento dos algoritmos com conteúdos de terceiros, o que implica pagamento de direitos autorais, ou citação de obras compartilhadas em licenças de uso aberto; dessa forma, muitas empresas deverão receber vários processos, de empresas como o Getty Images e/ou artistas individuais, e com os dados tornados públicos, qualquer um pode desenvolver um modelo gratuito, que faz o mesmo que os pagos.
A única exceção aberta é justamente o uso de IAs generativas de acesso aberto, ou de pesquisa, que devem ser avaliadas por órgãos da UE, e claro, não preveem exploração comercial.
Claro que a indústria não reagiu bem. Matteo Quattrocchi, diretor de Políticas da Software Alliance (BSA), grupo comercial que reúne empresas como IBM, Microsoft, Cisco, Amazon Web Services e outras, declarou em nota que o texto deve ser clarificado, para determinar como IAs poderão ser exploradas comercialmente na Europa:
A indústria de software corporativo continua preocupada com a alocação de responsabilidades na cadeia de valor de IA, e o tratamento de modelos-base (...).
As regras, conforme escritas atualmente, não estão adaptadas para refletir os papéis das empresas no ecossistema de IA, ou diferenças nos modelos de negócios e usos, e provavelmente não abordarão algumas das preocupações levantadas por aplicativos específicos de alguns modelos-base.
De qualquer forma, o parlamento pretende implementar a Lei de IA tão logo ela seja aprovada; a votação está prevista para acontecer entre os dias 12 e 15 de junho de 2023.
Fonte: European Parliament