Meio Bit » Ciência » Joe Biden aperta o cerco contra IAs generativas

Joe Biden aperta o cerco contra IAs generativas

Ordem executiva de Joe Biden estabelece regras para uso de IAs generativas nos Estados Unidos, uma prévia da inevitável regulação

19 semanas atrás

O presidente dos Estados Unidos, Joe Biden, assinou nesta segunda-feira (30) uma ordem executiva (OE), estabelecendo o primeiro conjunto de regras e ações para o uso e desenvolvimento de IAs generativas, que deverão ser seguidas por companhias e desenvolvedores em todo o país.

Embora uma ordem executiva não seja permanente, ela serve como uma amostra de uma futura, e inevitável, regulação de IAs no território norte-americano, com potencial para se estender a todo o globo, similar à aprovada na União Europeia, que deve entrar em vigor em 2026.

Ordem executiva serve como amostra da regulação de IAs nos EUA (Crédito: Shutterstock/Ronaldo Gogoni/Meio Bit)

Ordem executiva serve como amostra da regulação de IAs nos EUA (Crédito: Shutterstock/Ronaldo Gogoni/Meio Bit)

Uma ordem executiva é basicamente um decreto, que entra em vigor imediatamente, e como tal, pode ser derrubada pelo Congresso. Ela não é permanente, e nos EUA, é válida durante o mandato do atual presidente, no caso, até janeiro de 2025.

A OE das IAs tem 8 objetivos principais: estabelecer novos padrões de segurança de dados, proteger a privacidade dos cidadãos americanos, promover a equidade e os direitos civis, desenvolver o uso benéfico da IA na educação, saúde e consumo, defender os direitos dos trabalhadores, promover a inovação e a competição, garantir o uso governamental responsável, e promover a liderança dos EUA no mercado global (essa nunca fica de fora).

A cláusula sobre os padrões de segurança é a com as regras mais extensas e detalhadas, pois é ela que ditará o que pode, o que não pode, e o que DEVE ser feito por desenvolvedores, empresas, e gigantes tech. Algumas das diretrizes são bem duras, digamos que Biden não pegou leve.

Entre os principais pontos, destacam-se:

  • Compartilhar modelos de segurança e dados críticos com o governo: diretiva voltada às grandes players do setor (Google/Alphabet, Meta, OpenAI, Microsoft, etc.), que ficam obrigadas a comunicar o governo sobre qualquer modelo de IA que estejam desenvolvendo que, com base na Lei de Produção para Defesa de 1950, seja classificado como "uma ameaça à segurança, economia, e/ou saúde pública" do país, e a compartilhar os resultados dos testes de segurança de alto nível, sem exceções;
  • Desenvolver padrões, ferramentas, e testes para garantir que os modelos são seguros: o Instituto Nacional de Padrões e Tecnologia (NIST) fica incumbido de estabelecer padrões altíssimos de segurança crítica para os modelos, que todas as companhias serão obrigadas a atingir antes do lançamento da versão pública. Ao mesmo tempo, os Departamentos de Segurança Interna (DHS) e de Energia aplicarão esses padrões para o uso de IAs em ambientes críticos, como infraestrutura, e avaliar seus riscos ligados a ataques químicos, biológicos, radiológicos, de cibersegurança, e até nuclear;
  • Proteger os americanos de fraudes usando IA: phishing, DeepFake, clonagem e voz e similares ficaram mais simples graças à IA, e claro, os golpes estão aumentando. Aqui, a OE atribui ao Departamento de Comércio a responsabilidade de identificar, junto às empresas, todos os conteúdos de IA disponíveis na internet, o que já sabemos ser uma tarefa bem difícil. A ideia é estabelecer um padrão global, e exatamente por isso este ponto também não está aberto a discussão; os devs que se virem para implementar, e já.

A cláusula estabelece a criação de uma força-tarefa para o desenvolvimento de IAs especificamente voltadas à identificação de falhas em setores críticos, e de um memorando para o desenvolvimento de futuras regras necessárias, conforme os algoritmos evoluem, e o estabelecimento de padrões para o uso de modelos na manipulação de materiais biológicos potencialmente perigosos, como patógenos para a criação de vacinas.

Sobre a proteção à privacidade, a OE determina que técnicas que coletem e usem dados sejam anonimizados como medida prioritária, em comum acordo e desenvolvimento entre empresas e o governo, além de avaliar como as gigantes coletam as informações e de quem; diferente da UE, não há (por enquanto) a obrigação de revelar em público todas as fontes usadas, o que inevitavelmente se converte em processos. Todos esses pontos deverão ser incluídos em uma futura Lei de IA, que Biden conclamou o Congresso a aprovar;

IAs também não poderão ser usadas para reproduzir preconceitos humanos, e aumentar a desigualdade social (aqui, Biden concorda com o papa Francisco), e o uso responsável ligado ao comércio, saúde e educação deve ser também priorizado, por exemplo, no desenvolvimento de novos tratamentos e remédios baratos e seguros, e de ferramentas de auxílio a professores em salas de aula.

Joe Biden já deixou bem claro: a regulação virá, doa a quem doer (Crédito: Anna Moneymaker/GI)

Joe Biden já deixou bem claro: a regulação virá, doa a quem doer (Crédito: Anna Moneymaker/GI)

Segundo um porta-voz da Casa Branca, as regras miram em novos modelos, mas os já disponíveis continuam submetidos às regras anti-discriminação; ao mesmo tempo, a FTC (Comissão Federal de Comércio) deverá endossar leis já vigentes para lidar com infrações.

OE de Biden é previa de regulação

Na visão de Joe Biden, o governo dos EUA respondeu com lentidão à evolução exponencial da IAs generativas no último ano, e a resposta até agora tem ficado aquém do esperado, tanto para coibir abusos, quanto para garantir que o país seja o líder da tecnologia, apoiando e investindo nos modelos que andarem na linha.

Essa abordagem é similar à adotada no Reino Unido, e completamente oposta à visão da UE, quer considera IAs, algoritmos e modelos generativos nocivos por padrão; as regras estabelecidas pela Lei de IA, que ainda não é consenso no Parlamento, prejudicarão de forma intencional todas as empresas e indivíduos que as desenvolvem, por não prover benefícios, apenas restrições, e nem as iniciativas locais escaparam; para os legisladores europeus, o consumidor final deve ser protegido a todo custo.

Outro ponto de desacordo diz respeito ao vigilantismo estatal: o Reino Unido é a favor, e a UE é completamente contra, já Biden não abordou o assunto em sua OE, preferindo deixá-lo em aberto.

Biden já havia estabelecido regras para IAs generativas através da Carta de Direitos para IA publicada em outubro de 2022, a atual OE é uma ampliação das normas ali que eram apenas sugeridas, mas de qualquer forma, tanto o Congresso quanto a Casa Branca acreditam que a regulação é inevitável, não é saudável (para o governo) deixar as gigantes tech fazerem o que lhes der na telha.

Ao cobrar de Democratas e Republicanos um entendimento a fim de redigirem o texto de uma lei para regular IAs no país, de modo a proteger o povo americano (especialmente crianças, diz a ordem executiva), Biden deixa claro que a regulação virá e, no que depender dele, ainda em seu mandato, e junto à legislação da UE, ela servirá como norte para todos os desenvolvedores e empresas que trabalham com soluções generativas, em todo o mundo.

Atualmente, Meta, Google, OpenAI, Adobe, IBM, Nvidia, Salesforce e outras têm acordos assinados com a Casa Branca, com base nas diretivas da Carta de Direitos; nos próximos dias, estas e mais companhia deverão se manifestar sobre a ordem executiva de Joe Biden, se concordam ou não, mas por enquanto, todo mundo terá que dançar conforme a música.

Fonte: The White House

Leia mais sobre: , , , .

relacionados


Comentários