WhatsApp
x
  • Olá, o que deseja buscar?

Artigos atualize-se e recomende!

Voltar

O MODELO BRASILEIRO DOS ÓRGÃOS DE FISCALIZAÇÃO DA INTELIGÊNCIA ARTIFICIAL – Aspectos do Substitutivo do Sen. Eduardo Gomes ao PL 2338/23


Na última quarta-feira (dia 24.04), o Senador Eduardo Gomes (PL-TO) fez a apresentação do texto substitutivo ao PL 2333/23 e outros nove projetos que tramitam em apenso. O Senador é o relator dos projetos de lei que regulamentam a utilização e desenvolvimento de sistemas de Inteligência Artificial (IA), perante a Comissão Temporária Interna sobre Inteligência Artificial no Brasil. Essa comissão foi criada no Senado em agosto do ano passado especificamente para apreciar esses projetos, dada a elevada importância social que a inteligência artificial representa para a sociedade atual. O PL 2333/23 é o resultado do trabalho de uma comissão de juristas instituída pelo Presidente do Senado, Senador Rodrigo Pacheco (PSD-MG), o qual adotou o texto da comissão e iniciou o processo legislativo como projeto de sua autoria[1].

               Um dos pontos marcantes do substitutivo refere-se à estruturação dos órgãos que terão a tarefa de fiscalização do desenvolvimento e comercialização, no nosso país, de sistemas de IA. O Substitutivo propõe a adoção de um modelo híbrido, em que órgãos setoriais terão atribuição para regulamentar o uso da IA dentro de suas áreas de atuação, sem excluir a participação de um órgão regulador central, formulador das políticas sobre inteligência artificial e com a função de coordenar o trabalho das demais agências e órgãos reguladores.   

               De nada adiantaria legislar sobre sistemas de inteligência artificial, criando obrigações para os desenvolvedores e fornecedores de sistemas de IA, sem estabelecer agências e órgãos encarregados de implementar a lei e fiscalizar sua aplicação. O arranjo regulatório não poderia deixar de prever instrumentos de fiscalização para garantir a efetividade concreta de seus princípios e objetivos. Por isso, o PL 2333/23 estabeleceu uma estrutura de órgãos de governança e fiscalização, com definição de autoridades regulatórias, entidades que poderão atuar com poder de polícia administrativa e de regulamentação infralegal. São os órgãos públicos dotados de competência regulatória, fiscalizatória e sancionatória, com poderes para aplicar sanções em caso de desenvolvimento ou utilização de sistemas de inteligência artificial em desconformidade com a legislação.

                Houve uma acesa discussão entre os membros da comissão de juristas sobre o modelo da organização dos órgãos de regulação e fiscalização. As opções seriam a criação de um novo órgão regulador dedicado ao tema da inteligência artificial, ou seja, a criação de uma autoridade central, uma agência reguladora única para a IA, ou um modelo descentralizado, com diversos órgãos dotados de competência regulatória e fiscalizatória.    

Os que defendiam a criação de uma agência única para regular a IA apontavam não ser possível tratar o tema de modo descentralizado, em razão da necessidade de se estabelecer uma política uniformizada sobre inteligência artificial no país. A maior parte dos integrantes da comissão de juristas, no entanto, apostou num modelo de regulação setorial, com o aproveitamento das capacidades estatais já existentes. Argumentou-se que cada setor da economia já possui regulação e regras específicas e que elas serão estendidas também aos sistemas de IA utilizados em cada setor. Mas mesmo entre os defensores da regulação setorial, foi reconhecida a necessidade de uma forma de coordenação geral entre os setores, para evitar superposições ou conflitos regulatórios. Concebeu-se a existência de “um órgão regulador central que trabalhe como coordenador desses tantos atores setoriais regulatórios”.

Assim surgiu o modelo híbrido de regulação da inteligência artificial no Brasil. A governança e fiscalização dos sistemas de inteligência artificial não vai ser desempenhada por um regulador único, pois as agências reguladoras setoriais, bem como outros órgãos públicos que tenham prerrogativas fiscalizatórias, poderão atuar desempenhando o papel de agente fiscalizador. Haverá uma autoridade central para evitar que as agências setoriais regulem de maneira totalmente discrepante fenômenos semelhantes, criando exigências e obrigações sem coerência com a política nacional para a IA ou mesmo proporcionando conflitos de regulações setoriais. Dessa forma, preserva-se o contexto e especificidades de cada área da economia regulada e aproveita-se a experiência e estrutura das agências reguladoras já existentes, além de evitar o descompasso normativo e superposição fiscalizatória entre os diversos órgãos estatais, já que atuarão sob a coordenação geral da “autoridade competente”.  

Nessa linha de concepção, o art. 33 do PL 2333/23 nomeia de “autoridade competente” o “órgão central de aplicação desta Lei e do estabelecimento de normas e diretrizes para sua implementação”. Mas o art. 34 ressalva que “a autoridade competente e os órgãos e entidades públicas responsáveis pela regulação de setores específicos da atividade econômica e governamental coordenarão suas atividades, nas correspondentes esferas de atuação, com vistas a assegurar o cumprimento desta Lei”.

O Substitutivo do Senador Eduardo Gomes avança nesse campo da estruturação do modelo regulatório brasileiro para a IA, ao criar o SIA – Sistema Nacional de Regulação e Governança de Inteligência Artificial (art. 40), que tem como objetivos: a) valorizar e reforçar as competências regulatórias, sancionatórias e normativas das agências e órgãos reguladores setoriais em harmonia com as regras gerais da autoridade competente; b) harmonizar e colaborar com agências e órgãos reguladores de outros temas transversais como defesa da concorrência, defesa do consumidor e do meio-ambiente; e c) colaboração descentralizada entre agências e órgãos reguladores federais, estaduais, distritais e municipais.

 Além da autoridade competente (a autoridade central reguladora), que funcionará como órgão de coordenação (art. 40, § 1º. , inc. I, e art. 41), o SIA será integrado pelos órgãos e entidades estatais de regulação setorial (agências reguladoras), órgãos e entidades estatais reguladores de inteligência artificial, o Conselho Administrativo de Defesa Econômica(CADE), entidades de autorregulação[2] e entidades acreditadas de autocertificação[3](art. 40, § 2º).

Pela composição do SIA, observa-se que será integrado não apenas por órgãos estatais, mas também por entidades privadas (a exemplo das entidades de autorregulação e entidades certificadoras). A Autoridade Competente será um órgão da administração pública federal, dotado de autonomia técnica, decisória e financeira, que coordenará o SIA (art. 5º., X) e será designada pelo Poder Executivo (art. 32). Também se percebe que o ecossistema regulatório aperfeiçoado e expandido pelo texto do Substitutivo admite a criação de novas agências reguladoras, talhadas para a fiscalização dos sistemas de IA. Ao prever a existência de “órgãos e entidades estatais reguladores de inteligência artificial” (no art. 40, § 1º., II, b), ao lado dos “órgãos e entidades estatais de regulação setorial” (no art. 40, § 1º., II, b), o novo texto abre o caminho para a criação de novos órgãos públicos. Nesse ponto, o Substitutivo se distancia da redação original do PL 2333/23, pois o modelo concebido pela comissão de juristas buscava aproveitar o potencial das agências reguladoras existentes (como, p. ex., a Anatel, o Banco Central, o CADE, a Anvisa e a ANS), sem criação de novos órgãos para a tarefa de fiscalização dos sistemas de IA.

A previsão de órgãos especializados na regulação da inteligência artificial, funcionando sob a coordenação de uma autoridade central (a Autoridade Competente) aperfeiçoa o ecossistema regulatório, pois entidades sem aptidão para enfrentar os problemas específicos decorrentes das tecnologias que utilizam IA, certamente não teriam papel regulatório eficiente. As tecnologias de inteligência artificial mudam muito rapidamente e é difícil dar conta das transformações que ocorrem nessa área. Agências e órgãos não especializados certamente teriam dificuldade para reduzir riscos provocados pelo mau uso da tecnologia, classificar riscos, evitar a discriminação de grupos minoritários da população, garantir a transparência do funcionamento dos sistemas e proteger a privacidade dos usuários. Trata-se de atribuições não compatíveis com órgãos que não sejam especialmente criados para a tarefa regulatória dos sistemas de IA. Esperar que as agências já existentes, que regulam setores diversos da economia, pudessem assumir sozinhas a tarefa regulatória em área tão especializada e inovadora não parecia ser realmente a melhor escolha. Portanto, o Substitutivo do Senador Eduardo Gomes aprimora o sistema regulatório para a IA, ao prever “órgãos e entidades estatais reguladores de inteligência artificial”, funcionando sob a coordenação da Autoridade Competente.

Os artigos 41 e 42 do texto do Substitutivo estabelecem as atribuições da Autoridade Competente, órgão de cúpula e de coordenação central do SIA, que tem competência para, dentre outras medidas, expedir normas vinculantes de caráter geral, expedir diretrizes sobre desenvolvimento, implementação e uso de sistemas de IA, zelar pela proteção de direitos afetados pela utilização de sistemas de IA, estimular a adoção de boas práticas no desenvolvimento de sistemas de IA, solicitar informações às empresas que utilizem sistemas de IA, receber petições e reclamações em face de agentes de inteligência artificial[4] e realizar auditorias em sistemas de IA.

O art. 45 estabelece a competência da Autoridade Competente para aplicar sanções aos agentes de inteligência artificial, por infração à legislação, que podem ser advertência, multa (limitada a 50 milhões ou 2% do faturamento da empresa ou conglomerado empresarial no Brasil no último exercício, excluídos os tributos), publicização da infração, proibição de participar em regime de sandbox regulatório[5] por até 5 anos, suspensão da operação ou fornecimento do sistema de IA e proibição de tratamento de determinadas bases de dados. As sanções só podem ser aplicadas após procedimento administrativo que possibilite a ampla defesa e observados certos parâmetros e critérios (art. 45, § 1º.).

Antes ou durante o procedimento administrativo instaurado para aplicação de sanção, a Autoridade Competente pode adotar medidas preventivas, incluída multa cominatória, quando houver a possibilidade de o agente de inteligência artificial causar dano irreparável ou de difícil reparação ou tornar ineficaz o resultado final do processo (art. 45, § 2º.,incs. I e II).

A imposição de sanção pela Autoridade Competente não exclui a possibilidade de aplicação de outras sanções administrativas, civis ou penais previstas no CDC (Lei 8.078/90), na LGPD (Lei 13.709/18) e em outras legislações específicas (art. 45, § 3º.).

Como se disse, o texto do Substitutivo do Senador Eduardo Gomes reforça a estrutura de órgãos públicos para supervisão e fiscalização do desenvolvimento e comercialização de sistemas de IA. O modelo híbrido de regulação proposto, que prevê a existência de um órgão estatal central, com papel de coordenação de órgãos setoriais inferiores e com poderes para expedição de normas de caráter geral, parece ser mais bem elaborado do que os modelos norte-americano e europeu.

Nos EUA, foi adotado um modelo de regulação setorial, deixando para as agências de cada área da economia regulada a tarefa de supervisionar os sistemas de IA. A Ordem Executiva n. 13.859, de 11 de fevereiro de 2019, expedida pelo Presidente Joe Biden, define esse tipo de abordagem regulatória. O Regulamento aprovado recentemente pela União Europeia para a inteligência artificial, que recebeu o nome de Artificial Intelligence Act, por sua vez adotou uma abordagem regulatória de agência única, sem divisão das competências regulatórias por um conjunto de instituições. O modelo brasileiro é uma simbiose desses dois modelos estrangeiros.

O texto do Substitutivo não é definitivo, e ainda vai receber emendas (até o dia 09 de maio) antes de ser submetido à deliberação na comissão temporária, que tem até o dia 23 de maio para encerrar seus trabalhos[6]. Após análise pela comissão temporária, o texto será discutido no plenário e, se aprovado, ainda vai ser submetido à nova tramitação, desta vez perante a Câmara dos Deputados (já que modifica alguns projetos originados na Câmara). Existe uma expectativa de que o projeto vire lei ainda em 2024, mas como teremos eleições pode ficar difícil a aprovação pelo Congresso Nacional do marco regulatório da IA este ano.   

Agora é esperar a entrada em vigor da legislação brasileira para saber se o modelo híbrido vai funcionar adequadamente. A concepção do modelo regulatório brasileiro, como se disse, parecer ser mais aperfeiçoada do que seus congêneres alienígenas. O importante é que, uma vez aprovada a legislação, o modelo sirva para a concretização do princípio fundamental que a inspirou: resguardar os direitos fundamentais sem prejudicar o desenvolvimento tecnológico.

 

                   Recife, 26.04.24.



[1]A Comissão de Juristas foi instalada em 30.03.22, com a incumbência de elaborar anteprojeto de lei sobre regulação da IA. O Senador Rodrigo Pacheco recebeu o relatório final da Comissão de Juristas em 06.12.22. Ver notícia publicada no site do Senado no seguinte link: https://www12.senado.leg.br/noticias/materias/2022/12/06/pacheco-recebe-relatorio-da-comissao-de-juristas-sobre-inteligencia-artificial

[2]Os desenvolvedores e fornecedores de sistemas de IA podem associar-se voluntariamente sob a forma de pessoa jurídica sem fins lucrativos para promover a autorregulação com o objetivo de incentivar e assegurar melhores práticas de governança (art. 37).

[3]As entidades certificadoras são associações de desenvolvedores e fornecedores de sistemas de IA ou de usuários técnicos e especialistas em governança acreditadas pela Autoridade Competente para a certificação e concessão de selos com o objetivo de incentivar e assegurar melhores práticas de governança (art. 36).  

 

[4]O art. 5º., IX, define agentes de inteligência artificial como “desenvolvedores, fornecedores, aplicadores e outros agentes, que atuem na cadeia de valor e na governança de sistemas de inteligência artificial, nos termos definidos por regulamento”.

[5]O art. 5º.,XIX, defineambiente regulatório experimental (sandbox) como o “processo estabelecido pela autoridade competente e demais autoridades regulatórias com vistas a facilitar o ciclo de vida seguro, ágil e inovador de sistemas de IA”. 

Categorias