Após extensas negociações que duraram 37 horas, a União Europeia alcançou um acordo histórico para a regulamentação da inteligência artificial (IA), um marco no cenário tecnológico global. O Comissário Europeu Thierry Breton, responsável por uma série de leis no continente, incluindo as que regem as mídias sociais e motores de busca, anunciou o acordo, ressaltando seu caráter histórico. Este pacto coloca a União Europeia à frente dos Estados Unidos, e também do Brasil, na corrida para regular a IA e proteger o público de riscos associados à tecnologia.
A tarefa de estabelecer regras para controlar o uso dos programas desse tipo é complexa. A IA incorporou-se à ciência, ao sistema financeiro, à segurança, à saúde, à educação, à propaganda e ao entretenimento, na maioria das vezes sem que o usuário perceba. A regulamentação, em qualquer país que a proponha, deve estabelecer um equilíbrio entre reduzir os riscos de mau uso, evitar a discriminação de grupos minoritários da população e garantir privacidade e transparência aos usuários.
O acordo político entre o Parlamento Europeu e os estados membros da UE sobre novas leis para regular a IA foi resultado de um embate árduo, a tentiva foi de criar separação entre os algoritmos de propósito geral, os que apenas gestam dados e sugerem caminhos, os que conseguem ter tomada autonoma de decisão impulsionada por IA.
A Espanha, por meio da Secretária de Estado para IA, Carme Artigas, desempenhou um papel de desempate nas negociações, com apoio da França e Alemanha, apesar das preocupações das empresas de tecnologia desses países sobre regulamentações mais leves para fomentar a inovação.
Um aspecto importante do acordo é a proibição do uso de vigilância em tempo real e tecnologias biométricas, incluindo o reconhecimento emocional, com exceções específicas. Estas tecnologias só poderão ser utilizadas pela polícia em situações excepcionais, como ameaças terroristas, busca de vítimas ou na investigação de crimes graves.
O acordo é baseado em um sistema de classificação de riscos, onde a regulamentação mais rigorosa se aplica às máquinas que apresentam maior risco à saúde, segurança e direitos humanos. Esta nova definição impacta diretamente modelos como o GPT-4, da OpenAI, que seriam incluídos na categoria de maior risco.
O acordo também impõe obrigações significativas aos serviços de IA, incluindo regras básicas sobre a divulgação de dados utilizados no treinamento das máquinas. O Parlamento Europeu, juntamente com a Comissão, buscou assegurar que o desenvolvimento da IA na Europa ocorra de forma centrada no ser humano, respeitando os direitos fundamentais e os valores humanos.
O Brasil foi um dos pioneiros em propor a regulamentação da inteligência artificial. A Câmara dos Deputados começou a discutir uma lei de ainda em fevereiro de 2020, antes mesmo do ChatGPT jogar luz sobre o poder da tecnologia, e antes, até mesmo, da União Europeia iniciar seu debate interno. Contudo, o país não conseguiu aprovar a legislação até agora.
As discussões evoluíram com a intervenção de uma comissão de juristas, que reformulou o projeto original de 2020. No momento, o Senado delibera sobre uma nova proposta, relatada pelo senador Eduardo Gomes (PL-TO).
No entanto, o dinamismo da inovação em inteligência artificial impõe claros desafios aos legisladores brasileiros. A aceleração tecnológica evidencia a necessidade de atualizações constantes na legislação e cabe até um processo imaginativo do que poderá acontecer em poucos anos. Os legisladores precisam considerar que a IA inaugurou um campo de evolução exponencial diferente do que se experimentava com a Lei de Moore, conceito que estabelece que o poder de processamento dos computadores dobra a cada 18 meses.
A proposta em tramitação busca uma abordagem normativa, estabelecendo diretrizes para diversas aplicações da IA, desde score para crédito até reconhecimento facial na segurança pública, este último com previsão de proibição
Em uma perspectiva global, Taiwan, iniciando suas discussões em 2019, ainda não consolidou um arcabouço regulatório. A ilha, sede da TSMC, líder mundial na produção de chips e semicondutores e fornecedora da Nvidia, optou por leis de incentivo ao desenvolvimento tecnológico, isentando empresas de IA de certas regulamentações e impostos.
A China destaca-se como o único país com um marco regulatório sobre IA, implementado por seu órgão regulador de internet, e não via legislativa. Suas regras, baseadas em estudos da Administração do Ciberespaço da China, focam na moralidade, ética, transparência e responsabilidade das plataformas de IA.
Países como Chile, Colômbia, Costa Rica, Israel, México, Panamá, Filipinas e Tailândia também estão desenvolvendo suas próprias regulamentações.
Nos Estados Unidos, a discussão sobre uma legislação federal de IA ainda não é uma realidade, sendo a responsabilidade delegada aos estados. Em julho, o presidente Joe Biden reuniu líderes do setor de IA para debater segurança e confiabilidade tecnológica.
Globalmente, 21 países já implementaram leis específicas para IA, com destaque para o Chile no combate a fraudes com IA, a Suécia em carros autônomos e a Espanha contra vieses discriminatórios. Adicionalmente, 13 países possuem jurisprudências relacionadas à IA, abordando desde direitos autorais até privacidade. O Brasil, apesar de pioneiro na discussão, ainda não figura entre essas nações.
Fonte: Exame