Audiências públicas sobre regulação da Inteligência Artificial no Brasil: o que aconteceu até agora

Publicado em maio 5, 2022

No final de abril, teve início um ciclo de audiências públicas no âmbito da Comissão de Juristas que discute o futuro Marco Regulatório da Inteligência Artificial. Após a aprovação acelerada […]

No final de abril, teve início um ciclo de audiências públicas no âmbito da Comissão de Juristas que discute o futuro Marco Regulatório da Inteligência Artificial. Após a aprovação acelerada do PL 21/20 na Câmara dos Deputados, o tema chegou ao Senado com visões polarizadas e críticas da sociedade civil. A Comissão de Juristas, que tem a tarefa de produzir um substitutivo ao texto, convocou a sociedade a contribuir com as discussões por meio de 12 painéis, distribuídos ao longo de duas semanas. 

O Jota, em parceria com o Data Privacy Brasil e o CEDIS, traz uma cobertura exclusiva de tudo que foi debatido até agora. 

Painel 1: o que é inteligência artificial e quais são os aspectos relevantes para sua regulação?

Para nortear o painel, os participantes foram convidados a refletir sobre a necessidade, ou não, de fixação de um conceito de inteligência artificial e, em caso positivo, qual seria o mais adequado e qual o papel do legislador em um cenário incerto e, ao mesmo tempo, marcado pela exigência social de mitigação de riscos.

Dando início aos debates, Fabro Steibel, do ITS Rio, enfatizou que uma regulação de IA no Brasil não deve considerar apenas os riscos, mas também o incentivo à inovação. Para isso, defendeu que as regras devem ser escalonadas de acordo com o grau de risco de diferentes aplicações, considerando as particularidades brasileiras.  Sobre o conceito de inteligência artificial, o painelista criticou a primeira versão do PL 21/2020, que definia a tecnologia como um gênero único, e opinou que a proposta da União Europeia, que, além de definir IA, inclui uma lista com espécies associadas em seu anexo, seria um bom exemplo a ser seguido. 

Seguindo para uma abordagem mais técnica, da ciência da computação, Virgílio Almeida, da Universidade Federal de Minas Gerais — UFMG, também defendeu uma visão contextual da IA e opinou que não seja adotado um conceito limitado, pois isso criaria o risco de deixar de fora da regulação certos sistemas relevantes. Em meio a questionamentos sobre como devem ser implementadas as regras sobre IA e quem seria responsável pela sua supervisão, Almeida mencionou que existe uma tendência de que a regulação de IA inclua medidas de gerenciamento de  riscos, monitoramento e explicabilidade,  mas ressaltou que as discussões não devem ser apressadas, e sim com efetiva participação da sociedade civil, a exemplo do que ocorreu no processo de aprovação do Marco Civil da Internet.

Apresentando um ponto de vista do setor privado, Loren Spíndola, representante da Associação Brasileira das Empresas Brasileiras de Software – Abes, mencionou as iniciativas privadas para a garantia de uma IA benéfica para a sociedade, mas ressaltou que é necessária a união entre auto regulação e atuação estatal. Especificamente sobre os diferentes projetos de lei apensados no Senado, elogiou alguns pontos do PL 21/20, a exemplo da lista de princípios, o afastamento da mera automação como definição de IA, o foco na proteção de direitos fundamentais e a governança setorial. Defendeu um texto de lei principiológico, baseado em riscos de acordo com contextos específicos e com diretrizes claras de onde o Brasil quer chegar e como.

Voltando para o campo técnico, Ig Bittencourt, da Universidade Federal de Alagoas – UFAL, comentou sobre complexidade e implicações de uma regulação de IA, uma vez que a tecnologia já produz impactos em diferentes áreas da vida social. Para ele, é essencial que haja maiores discussões sobre a percepção do usuário final sobre a tecnologia, como ela é usada e quais suas implicações. Nesse contexto, sugeriu um olhar duplo sobre o tema, que englobe, de um lado, o comportamento da IA e sua evolução e do outro suas implicações e impactos na sociedade. Dessa análise dupla surgem, por exemplo, as demandas por transparência, que, além de um princípio jurídico, também tem desdobramentos técnicos quanto ao desenvolvimento, evolução, mecanismos e funções da tecnologia.

Ainda sobre os aspectos mais técnicos da discussão, Tanara Lauschner, da Universidade Federal do Amazonas – UFAM, afirmou que, apesar de uma tarefa desafiadora, a regulação da IA é necessária para alcançar melhores níveis de bem-estar humano, auxiliar decisões humanas, limitar vieses, respeitar a privacidade e os dados pessoais, promover a pesquisa e a inovação, etc. Para ela, a melhoria dos modelos e a possibilidade de que sejam explicáveis, justos, confiáveis, transparentes, controláveis e responsáveis depende de processos constantes de avaliação, além de pesquisa e formação para a conscientização de desenvolvedores/pesquisadores, mas também usuários.

Em um segundo momento de debate, as perguntas para os painelistas giraram em torno de como deve ser a fiscalização e regulamentação de uma lei geral (por meio de um modelo centralizado ou descentralizado/setorial) e quais os pontos críticos que deveriam ser incluídos ou excluídos em um futuro substitutivo. 

Virgílio Almeida, corroborado por Loren Spíndola, foi favorável a uma regulação setorial com funções distribuídas pelas agências reguladoras existentes, já que a IA é uma tecnologia transversal e que, no atual contexto brasileiro, a criação de um novo órgão estatal não seria trivial. Novamente sobre o conceito de IA, sugeriu, ao invés de buscar uma conceituação específica, que os seus impactos sejam mais bem definidos, o que foi também defendido por Ig Bittencourt em sua fala a favor de uma análise não direcionada à tecnologia em si, mas aos impactos e à capacidade de explicação dos resultados.

Nesse contexto, Fabro Steibel reforçou que os sistemas de IA devem ser regulados de acordo com seu tipo, escala e riscos, de forma a não se impedir o avanço da inovação ao mesmo tempo em que se  garante a proteção de direitos. No mesmo sentido, Loren Spíndola criticou a  inclusão de supervisão humana para todos os sistemas de IA, esclarecendo que os sistemas não são únicos e que merecem uma regulação variável de acordo com o risco específico do caso.

Com o fim da segunda rodada de respostas, foi encerrado o primeiro painel da audiência pública sobre o marco regulatório de IA. Ainda com muitas questões em aberto, o primeiro painel reforçou a complexidade do tema e abriu as portas para a continuidade de discussões interdisciplinares nos dias seguintes.

Painel 2 – para além de o que e por que, como regular?

Logo na sequência do painel de abertura, essa sessão tinha como propósito avançar na compreensão da abordagem e modelos de regulação de IA. As perguntas guia do painel foram as seguintes: (i) como regular IA, considerando também a complexidade dos arranjos regulatórios já existentes no país, por exemplo a LGPD? (ii) é possível, ou desejável, um modelo com aplicação setorial ou um modelo de regulação centralizado? (iv) A melhor abordagem seria um modelo baseado em riscos ou em direitos?  

O primeiro painelista, Luca Belli, da FGV/RJ, focou sua apresentação na experiência chinesa sobre o tema, com destaque para a existência de um órgão centralizado de coordenação combinado com experiências de prototipação legal, em que o modelo de regulação é testado no nível municipal. Também destacou o alto volume de investimentos para o desenvolvimento de tecnologias, lembrando que a regulação pode não só limitar comportamentos indesejáveis, mas também estimular os que sejam considerados benéficos. A tônica de sua fala foi uma perspectiva não ocidental sobre o tema com experiências que considera bem sucedidas para evitar uma regulação ineficaz. 

José Renato Laranjeira, representante do Lapin, destacou que o texto em discussão, o PL 21/20, não propõe apenas uma regulação insuficiente, mas tem potencial de provocar desregulação por ser excessivamente principiológico e por restringir o escopo de direitos já consagrados, como a não discriminação e a transparência. Nesse sentido, propôs uma mescla de abordagem de risco com a previsão de direitos, princípios e obrigações relacionadas à transparência, explicabilidade e responsabilidade para cada agente no ciclo da inteligência artificial. Sobre governança, opinou sobre a importância de um órgão centralizado, multissetorial e multidisciplinar, com envolvimento da comunidade técnica.

Para Tainá Junquilho, da Universidade de Brasília (UNB), uma regulação da IA no Brasil precisa conter elementos que incentivem empresas a desenvolver inteligência artificial ‘’para o bem social’’ e tornar o Sul Global competitivo nesse campo, dialogando com a posição de Luca Belli a respeito de experimentação regulatória e investimentos robustos. Para a pesquisadora, a regulação no Brasil não pode ser uma mera ‘’carta de princípios’’, mas deve prever regras claras de responsabilização diante das preocupações mais agudas mapeadas na literatura, que são a opacidade algorítmica, a privacidade e os vieses discriminatórios.

Ana Paula Bialer, do Bialer e Falsetti Advogados, buscou trazer alguns pontos contrastantes, mas complementares, a partir de sua visão do setor privado. Por exemplo, ela defendeu um protagonismo do setor na auto-regulação a partir de boas práticas e códigos, combinada com elementos como certificações e selos, em uma lógica de regulação responsiva. Também apontou como preferível a setorialização, dada a complexidade do tema mas também as especificidades de diferentes setores, e sugeriu que, em certos casos, pode ser necessária a flexibilização de pontos da LGPD a fim de se evitar obstáculos à inovação. Por fim, destacou que muitas aplicações de IA não têm impactos sobre humanos e que a regulação deve ser geral o suficiente para dar conta de todas as possibilidades. 

Por fim, Ivar Hartmann, do Insper, retomou a pergunta inicial do painel, questionando uma contraposição de modelos (baseado em risco e baseado em direitos), na medida em que os direitos envolvidos já são consagrados no Brasil, e também que os riscos no caso da IA são inerentes. Também destacou que o timing para a regulação é urgente, pois já há muitas violações documentadas e também pelos dados sobre investimento e volume de decisões automatizadas. Diante desse cenário, concordou com outros palestrantes sobre a necessidade de ir além dos princípios e criar obrigações escalonadas, com especificidades para setores críticos, além de uma agência centralizada com investimento para especialização temática, sem prejuízo de consultorias específicas para determinados temas.

Durante o debate, algumas perguntas ainda em aberto foram colocadas pelos membros da Comissão. Em resumo, elas se centraram em como seria um modelo de governança para coordenar diferentes órgãos se for escolhido uma regulação descentralizada e dúvidas em torno da explicabilidade e responsabilidade civil. 

Nesse momento final, um ponto comum foi o entendimento de que, independente do nível de centralização ou descentralização, deve haver um reforço do multissetorialismo e da multidisciplinaridade, com envolvimento técnico e também das ciências sociais. Além disso, uma regulação efetiva pressupõe a tradução dos comandos da lei de forma que possam ser de fato entendidos e internalizados pelos principais atores envolvidos, dos cidadãos às empresas. 

Painel 3 – o conteúdo da regulação: fundamentos e princípios 

O terceiro painel do dia continuou a trajetória das discussões anteriores e iniciou as contribuições sobre qual seria o conteúdo desejado de uma regulação de IA.

Dora Kaufman, da PUC/SP, abriu o debate pontuando quatro premissas para a regulação: i) a transferência de processos decisórios para máquinas desafia as bases tradicionais do direito; ii) um marco regulatório eficiente deve ser flexível, para acompanhar a evolução da tecnologia e evitar obsolescência normativa; iii) modelos com maiores riscos potenciais são também mais complexos, o que dificulta a identificação da origem do dano e responsáveis; iv) a completa eliminação de impactos negativos não é possível, portanto, uma estratégia de regulação mais adequada deve focar na mitigação de riscos, com o apoio de normas existentes. Como recomendações para a Comissão, Kaufman apontou a separação de papéis de desenvolvedor e fornecedor, usuário intermediário e final, e também sugeriu que a lei foque nas aplicações de alto risco. Finalmente, comentou sobre responsabilidade civil, colaboração multissetorial, usuários particularmente vulneráveis e segredo comercial.

O debate continuou com Gabrielle Bezerra Sales Sarlet, da PUC/RS, que defendeu ser preciso entender quais problemas a IA busca endereçar e as medidas adequadas para que o uso da tecnologia tenha mais resultados positivos do que negativos, inclusive para resolver problemas até então considerados insolúveis ou de difícil resolução. Nesse sentido, a professora sustentou que a Constituição deve ser o norte da regulação, já que ela protege o cidadão, mas também estimula o desenvolvimento econômico e a inovação. Além disso, opinou que uma abordagem setorial é preferível para que o marco regulatório seja efetivo e, sobre o seu conteúdo, sugeriu a inclusão de um modelo de avaliação de impacto algorítmico com medidas concretas de mitigação de riscos ao longo de três eixos: explicabilidade, interpretabilidade e contestabilidade.

A perspectiva seguinte veio do setor público, pela juíza federal do Rio de Janeiro, Carolina Tauk. Falando especificamente do PL 21/20, Tauk destacou 4 pontos principais, começando com uma crítica à Comissão por não incluir profissionais técnicos, nem servidores públicos de outras áreas que já têm lidado com aplicações de IA na prática. O segundo ponto foi a defesa da abordagem setorial, dada a complexidade do tema. Sobre o conteúdo do texto, considerou necessário aprimorar o princípio da transparência e questões de explicabilidade, destacando que a operacionalização da transparência e explicação de sistemas de IA é um desafio prático e não apenas jurídico. Por último, Tauk comentou sobre a lógica de intervenção baseada em diferentes graus de riscos, elogiando-a na teoria. Ressaltou, porém, que, para um desenho de gerenciamento de riscos conforme a complexidade de diferentes sistemas – e consequentemente diversas formas de responsabilidade – seria preciso mais tempo de avaliação e uma composição mais diversificada da Comissão. Diante disso, avaliou que uma abordagem principiológica e baseada na auto regulação regulada seria a melhor saída para evitar o engessamento no desenvolvimento de IA no Brasil.

A exposição seguinte ficou a cargo de Edson Prestes, da UFRGS, que criticou vieses excessivamente comerciais e pouco críticos aos potenciais efeitos da IA sobre a vida humana. Portanto, sua primeira sugestão foi de que discussões sobre inteligência artificial devem ser amplas e contar com comitês multidisciplinares e multissetoriais. Por motivos semelhantes, o professor também opinou que há certas aplicações que devem ser banidas, a partir de uma análise de risco: por exemplo, sistemas que diretamente manipulem pessoas, com altos riscos para a democracia, educação e infância; ou sistemas de decisão com implicações ‘’de vida ou morte’’, como os que atribuem vagas em UTI. Concordando com outros participantes, Prestes também opinou que o PL deve explicitar as cadeias de produção de sistemas de IA para a atribuição de responsabilidades. 

Por último, Paulo Rená, do IRIS-BH, iniciou sua fala com uma recomendação para a Comissão de Juristas: orientar o uso consciente e ético de IA em prol de um futuro melhor para pessoas e planeta, respeitando direitos humanos e garantias constitucionais para um desenvolvimento inclusivo e sustentável. Assim, no lugar de buscar ‘’soluções’’, julgou oportuno e mais estratégico fixar fundamentos e princípios consistentes para a disciplina legal da IA, antecipando controvérsias jurídicas e viabilizando decisões econômicas, tecnológicas e jurídicas coerentes com o Estado Democrático de Direito. Sobre o texto em discussão, destacou cinco pontos: baixa abertura para participação no debate na Câmara; baixo grau de normatividade; o fato de haver princípios ou fundamentos fracos ou apenas implícitos; previsão de um regime de responsabilidade inconsistente e potencialmente nocivo; e ausência de métodos de fiscalização e de análise de impacto. Para endereçá-los, Rená recomendou o adensamento da descrição de fundamentos e princípios, além da previsão de direitos e deveres concretos, bem como mecanismos de fiscalização e sanção. 

Ao final do painel, algumas questões em aberto, para aprofundamento, foram os mecanismos reparatórios de dano, proteção de populações mais vulneráveis, impactos ambientais do uso da tecnologia e mecanismos cooperativos para instrumentalizar a cooperação entre países – do nível regional ao global. 

As audiências públicas continuam essa semana, nos dias 12 e 13 de maio, período em que temas como vieses e discriminação, direitos e deveres, accountability, governança e fiscalização serão debatidos.

Compartilhar: