Sexta, 22 de Novembro de 2024 17:41
1147064020
Senado Federal Senado Federal

Relator apresenta relatório atualizado sobre regulamentação da IA

A Comissão Temporária sobre Inteligência Artificial no Brasil (CTIA) recebeu, nesta quinta-feira (4), o relatório atualizado do projeto que regulam...

04/07/2024 16h12
Por: Jornal Alternativa Fonte: Agência Senado
Eduardo Gomes alterou relatório após receber 30 emendas, das quais metade foi aceita integral ou parcialmente - Foto: Saulo Cruz/Agência Senado
Eduardo Gomes alterou relatório após receber 30 emendas, das quais metade foi aceita integral ou parcialmente - Foto: Saulo Cruz/Agência Senado

A Comissão Temporária sobre Inteligência Artificial no Brasil (CTIA) recebeu, nesta quinta-feira (4), o relatório atualizado do projeto que regulamenta a IA no Brasil com princípios, direitos e regras para uso e fiscalização da tecnologia. O presidente da comissão, senador Carlos Viana (Podemos-MG), concedeu vista e informou que o texto deve ser votado nas próximas semanas.

A complementação de voto do Projeto de Lei (PL) 2.338/2024 foi entregue pelo relator, senador Eduardo Gomes (PL-TO). A nova análise foi necessária porque a proposta, de autoria do senador Rodrigo Pacheco (PSD-MG) — presidente do Senado —, recebeu 30 emendas depois da apresentação do relatório em 18 de junho, das quais 15 foram acatadas integral ou parcialmente.

Segundo o relator, muitos segmentos da sociedade que são impactados positiva ou negativamente pela IA ainda desejam novas alterações. Mas ele defendeu que a regulação deve ter caráter genérico. Para Eduardo, uma futura regulamentação será melhor que as normas atualmente aplicáveis. Ele citou a preservação de direitos autorais de obras que são utilizadas por IA para gerar outras obras, por exemplo.

— Enquanto a gente discute direito autoral, o direito presente é nenhum. O ambiente atual pra mim é a pior regulação que existe: poucos mandando em todos, sem dar obrigação para ninguém [...] Essa é a primeira etapa do processo. Se as modificações não forem suficientes, vamos continuar negociando, mas precisamos negociar avançando — disse.

Os senadores Eduardo e Viana reforçaram que o colegiado realizou três audiências públicas nos dias 1º, 2 e 3 de julho para debater o assunto, com a participação de especialistas. Além disso, o relator lembrou que também ocorreram audiências públicas na comissão temporária de juristas criada no Senado para apresentar a Pacheco uma sugestão de projeto.

Grupos de Risco

Em sua complementação de voto, Eduardo afirmou que excluiu trechos “muito prescritivos que poderiam gerar engessamento” da lei e que fez correções para dar mais clareza ao texto. O relatório é um projeto alternativo (substitutivo) a dez propostas sobre o tema que tramitam em conjunto.

O projeto cria regras diferentes para faixas regulatórias definidas de acordo com o risco à sociedade. O sistema de IA, assim, pode ser considerado de “risco excessivo”, que possui regulação mais rigorosa; de “alto risco”; ou não estar em nenhuma das duas categorias. Para determinar o risco, um sistema de IA deverá passar por uma avaliação preliminar feita pelos próprios desenvolvedores, fornecedores ou operadores.

Segundo o senador Astronauta Marcos Pontes (PL-SP), o modelo escolhido permitirá conciliar o desenvolvimento tecnológico e a proteção de direitos. Mas ele defendeu uma análise racional do que são considerados riscos. Para ele, há uma tendência de regular erroneamente outros itens correlatos à IA no projeto.

— Não pode também fazer legislação baseada no medo. Para a gente evitar itens estranhos dentro da legislação, não pode colocar tudo dentro da IA. Existe Código Penal, outras regulações de proteção de dados…

Risco Excessivo

O projeto impede a implementação e o uso de sistemas com determinadas características ou finalidades categorizadas como de “risco excessivo”. É o caso, por exemplo, de armas autônomas, que podem atacar alvos sem intervenção humana.

Em audiência pública realizada nessa terça-feira (2), a pesquisadora da organização Coalizão Direitos na Rede (CDR) Paula Guedes defendeu a proibição dos chamados de sistemas de identificação biométrica para uso em segurança pública ou Justiça. Esses instrumentos usam câmeras para identificar pessoas em tempo real em espaços públicos. Para ela, o uso de IA nesses casos são potencialmente discriminatórios.

— Além de reforçar as discriminações com a população negra e periférica, essa tecnologia já se mostrou pouco eficiente — disse Guedes.

Diversas situações previstas como “risco excessivo” e “alto risco” foram revistas por Gomes em seu complemento de voto.

Alto risco

Os sistemas de alto risco estarão sujeitos a regras mais brandas que os de risco excessivo, mas mais rígidas que os sistemas de IA comuns. Haverá medidas de controle, registros das operações realizadas e testes de confiabilidade. Responsáveis por esses sistema devem, por exemplo, fazer uma avaliação de impacto algorítmico, com medidas preventivas, mitigadoras e de reversão dos efeitos negativos do sistema de IA.

Para o representante da Federação Brasileira de Bancos (FBB) Ivo Mósca, que participou de debate na CTIA nessa quarta-feira (3), as situações previstas no projeto são equilibradas por serem adaptáveis às futuras alterações tecnológicas e por delegarem as regras mais específicas aos órgãos reguladores de cada setor da economia.

— Entendemos que o projeto encontrou um ponto de equilíbrio ao reduzir a lista taxativa e focar na regulamentação infralegal com maior liberdade para inclusões e exclusões conforme a tecnologia avança — disse.

Autoridade competente

Caso o projeto vire lei, um conjunto de órgãos deve trabalhar em conjunto com o intuito de organizar, regular e fiscalizar o mercado da inteligência artificial. Eles integrarão o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA).

A Autoridade Nacional de Proteção de Dados (ANPD), criada pela Lei 13.853, de 2019 , será responsável expedir normas sobre o tema, como para certificação e para a comunicação de graves incidentes.

Autorregulação

De forma complementar aos órgãos estatais, o projeto também prevê incentivos à autorregulação na forma de associação voluntária das empresas e por meio de selos e certificados de boas práticas.

A representante do Google, Ana Cecília Oliveira, afirmou no debate de quarta-feira que a empresa apoia o modelo. Regras excessivas, segundo ela, podem prejudicar o desenvolvimento de mecanismos de bloqueio de e-mails maliciosos e de mapas digitais que são fornecidos pela empresa e que usam IA.

— A IA é demasiado importante para não ser regulamentada, mas também demasiado importante para não ser bem regulamentada. Por isso defendemos esse diálogo permanente.

Emendas

Mais de dez alterações no relatório foram feitas pelo relator. O senador afirmou que o texto passa a permitir mineração de dados para combater ilícitos civis e criminais e aumenta a proteção de segredos comerciais e industriais.

Além disso, Eduardo diminuiu o prazo de dez para cinco anos para que desenvolvedores e fornecedores de IA sejam obrigados a guardar documentação técnica à disposição da ANPD. O relator atendeu à crítica que o professor da Universidade Federal de Minas Gerais (UFMG) Wagner Meira Júnior fez em audiência pública na terça-feira (2), antes da complementação do voto.

— Os sistemas têm versões diárias, às vezes, mais do que diárias. Então há certos conceitos que vão ser de difícil implementação e acompanhamento — disse Wagner.

Direitos e objetivos

O substitutivo apresentado por Eduardo possui 12 capítulos que englobam temas diretivos, como princípios a serem observados (transparência e crescimento inclusivo, entre outros) e proteções ao trabalho, ao meio ambiente e aos direitos autorais.

O projeto ainda assegura uma série de direitos para as pessoas que forem afetadas pelos sistemas de inteligência artificial, como:

  • direito à informação prévia quanto às suas interações com sistemas de IA;
  • direito a privacidade e proteção de dados pessoais;
  • direito à determinação e participação da pessoa humana em decisões de IA, conforme o contexto;
  • direito à não discriminação e à correção de vieses discriminatórios diretos, indiretos, ilegais ou abusivos;
  • uso de linguagem simples e clara quando destinados a criança e adolescentes, idosos ou pessoas com deficiência.
Nenhum comentário
500 caracteres restantes.
Comentar
Mostrar mais comentários
* O conteúdo de cada comentário é de responsabilidade de quem realizá-lo. Nos reservamos ao direito de reprovar ou eliminar comentários em desacordo com o propósito do site ou que contenham palavras ofensivas.