Esta é uma semana decisiva para o futuro da regulação da Inteligência Artificial no Brasil. Senadores e ministérios negociam a nova versão do Projeto de Lei 2.338 de 2023, que regula o tema. As discussões tentam chegar a um novo acordo depois que a Comissão Temporária sobre Inteligência Artificial (CTIA) do Senado tentou votar o relatório do senador Eduardo Gomes (PL-TO) mas não teve sucesso devido ao lobby de empresas de tecnologia, da Confederação Nacional da Indústria (CNI) e da resistência de forças de direita e extrema direita.
O último texto apresentado por Gomes lista sistemas de IA de risco excessivo e alto e cria obrigações correspondentes de acordo com cada nível. Entre as obrigações estão avaliações de impacto algorítmico, medidas de governança como prevenção de vieses discriminatórios e viabilizar a explicabilidade dos sistemas. A proposta elenca direitos dos usuários destes sistemas e estabelece formas de responsabilização de danos causados por sistemas de IA, além de boas práticas de governança.
Empresas de tecnologia vêm pressionando senadores e o governo para reduzir obrigações tentando usar o nada novo discurso de que regras sobre tecnologias digitais impedem a inovação e as atividades econômicas que fazem uso dessas tecnologias. A CNI somou-se às críticas e incluiu outras, buscando também retirar as proteções aos riscos a trabalhadores incluídas no texto. Plataformas digitais e segmentos do bolsonarismo elegeram como alvo os dispositivos que criam obrigações para redes sociais sobre os conteúdos disponibilizados e recomendados por sistemas automatizados.
De outro lado, entidades da sociedade civil de diferentes segmentos, pesquisadores e entidades de trabalhadores de diferentes segmentos vêm apontando a necessidade de uma regulação que garanta direitos e o desenvolvimento de uma IA responsável, evitando efeitos negativos sobre a sociedade e protegendo os segmentos que podem ser afetados negativamente pela introdução e uso dos sistemas de IA.
Nas negociações em curso com o relator, senadores e até mesmo integrantes do governo buscam criar exceções e flexibilizações na lei para enfraquecê-la e tirar sua efetividade. Uma das jogadas é ampliar o rol de exceções, para que as obrigações e os mecanismos da lei só valham para um conjunto limitado de sistemas de IA de alto risco. Assim, a lei pode ter mecanismos avançados, obrigações necessárias aos agentes da cadeia (como empresas que atuam não só no desenvolvimento, mas na adoção desses sistemas) e contar com direitos e proteções à sociedade. Porém, se tais regras forem válidas somente para alguns, a lei correrá grande risco de ter pouca efetividade e não atacar os problemas nos abusos do uso dessa tecnologia.
Um segundo movimento é o de impedir que novos sistemas de IA possam ser designados como de alto risco. O último texto do relator Eduardo Gomes previa que o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA) teria a prerrogativa de “regulamentar a classificação da lista dos sistemas de IA de alto risco, bem como identificar novas hipóteses levando em consideração à probabilidade e à gravidade dos impactos adversos sobre pessoa ou grupos afetados”. O relatório elencava um conjunto de critérios, como a implementação em larga escala, a produção de efeitos jurídicos relevantes e impactar negativamente o acesso a serviços públicos, o alto potencial de danos materiais ou morais e efeitos negativos sobre segmentos vulneráveis, entre outros.
Com esse dispositivo, o PL adotou prática considerada fundamental em regulação de tecnologias: possibilitar que os marcos legais não fiquem desatualizados pelo dinamismo do desenvolvimento deste setor. Um dos itens que ganha força na negociação é manter a lista de sistemas de alto risco como taxativa e não exemplificativa. Assim, a lei, se aprovada, só produziria efeitos sobre estes, e não seria “à prova de futuro”. Com isso, os setores contrários à lei buscam fazer com que esta já nasça desatualizada e que novos sistemas fiquem fora da norma, na prática.
Uma “novidade” nas negociações atuais é a mudança de posição do governo federal. Mesmo que de forma discreta, o governo vinha atuando nos bastidores para apoiar o projeto, em uma curiosa aliança com um senador do PL, com papel proeminente no governo Bolsonaro, que demostrava abertura a uma regulação moderna e equilibrada entre estímulos ao desenvolvimento e proteção da sociedade. Nos últimos dias, entretanto, o governo passou a reforçar a posição pela desidratação do texto nas jogadas listadas acima.
A mudança de posição veio acompanhada da entrada nas negociações de ministérios da área econômica e da Indústria e Comércio, possivelmente pautados pelos setores empresariais que têm atuado para bloquear ou enfraquecer o PL. Enquanto o governo tensionava para um modelo mais protetivo e responsável, as regras caminhavam para colocar o Brasil como referência na regulação do tema.
A posição difere do protagonismo do Brasil em impulsionar a agenda da governança de IA durante sua presidência do G20. Em seu discurso na 2ª reunião de Líderes do G20, no último dia 18, o presidente Luiz Inácio Lula da Silva afirmou que é chave a “construção de uma governança que maximize as oportunidades e mitigue os riscos da Inteligência Artificial”. Estranhamente, o governo adota outra postura à agenda do presidente Lula. E ajuda a desmontar uma proposta que poderia colocar o Brasil como referência global no tema.
Nesta quinta-feira, 28 de novembro, durante a reunião da CTIA no Senado, foi feita a leitura do novo texto resultante das negociações dos dias anteriores. Como antecipado, as flexibilizações foram ampliadas consideravelmente.
Foram incluídos novos casos passíveis de serem contemplados por regimes simplificados de obrigação, tais como: “incentivo à inovação e à pesquisa científica e tecnológica no ambiente produtivo, com vistas à capacitação tecnológica, ao alcance da autonomia tecnológica e ao desenvolvimento do sistema produtivo nacional e regional do país” e “projetos de interesse público, bem como aqueles que atendam às prioridades das políticas industrial, de ciência, tecnologia e inovação, e à solução dos problemas brasileiros”.
A nova redação apresenta lacunas que permitem que obrigações e mecanismos-chave da lei deixem de ser aplicados a muitos tipos de sistemas de IA, confirmando o movimento observado nas negociações.
A segunda movimentação, de impedir que novos sistemas, não listados originalmente na lei (descritos no Artigo 14), sejam classificados como de alto risco não se concretizou. Dessa forma, foi mantido um mecanismo fundamental para evitar que a Lei se torne desatualizada logo após sua aprovação.
Entretanto, outros retrocessos foram identificados. No artigo que trata dos mecanismos de proteção aos trabalhadores (Artigo 58), a maioria das regras foi retirada, incluindo medidas para mitigar os riscos de demissões em massa e assegurar a revisão humana de decisões automatizadas que afetam os trabalhadores.
*Jonas Valente é pesquisador do Instituto de Internet de Oxford e integrante do Diracom - Direito à Comunicação e Democracia
**Helena Martins é professora da Universidade Federal do Ceará (UFC) e integrante do Diracom - Direito à Comunicação e Democracia
***Este é um artigo de opinião e não necessariamente representa a linha editorial do Brasil do Fato.
Fonte: BdF Bahia
Edição: Alfredo Portugal