LGPD em movimento: Regulação de inteligência artificial no Brasil e Sul Global
No primeiro episódio de 2022, no dia 05 de abril, a série “LGPD em Movimento”, trouxe ao debate reflexões sobre iniciativas de regulação de Inteligência Artificial, com foco em diferentes […]
No primeiro episódio de 2022, no dia 05 de abril, a série “LGPD em Movimento”, trouxe ao debate reflexões sobre iniciativas de regulação de Inteligência Artificial, com foco em diferentes contextos do Sul Global.
Dando continuidade à série iniciada em 2020, em um formato multissetorial e contando com profissionais de diferentes áreas, a discussão foi mediada por Mariana Rielli (DPBR) e teve como participantes Boye Adegoke (Gerente de programas sênior na Paradigm Initiative), Bianca Kremer (Professora e pesquisadora em direito e tecnologia/PUC-Rio), Michel de Souza (Diretor de Políticas Públicas na Derechos Digitales), Clara Langevin (Gerente de projetos, Inteligência Artificial e Machine Learning no C4IR Brasil), Rafael Fassio (Procurador do Estado de São Paulo, Fellow Inteligência Artificial no Fórum Econômico Mundial) e Karla Capela (Fundadora e CEO da KOY – Inteligência Jurídica).
Esse breve ensaio reflete, de forma resumida, as discussões realizadas durante o webinário.
Como é atualmente o panorama geral de Regulação da Inteligência Artificial no continente africano, especialmente no contexto do Quênia, África do Sul e Nigéria? Quais as principais iniciativas desenvolvidas nessas regiões?
O webinário foi introduzido a partir de uma fala de abertura de Boye Adegoke, da Paradigm Initiative, que trouxe um pouco do panorama africano sobre regulação de Inteligência Artificial (IA), discutindo os principais desafios regionais que vêm sendo enfrentados em diferentes países.
Boye iniciou com a premissa de que a Resolução 473 da African Commission on Human and Peoples’ Rights (ACHPR) assegura que o uso e desenvolvimento de IA deve ser compatível e harmônico com os Direitos Humanos e tratados internacionais, além de fazer referência a direitos como dignidade da pessoa humana e à privacidade.
Introduzindo o panorama sobre os países estudados pela Paradigm, especificamente a África do Sul, Boye destacou o relatório executivo apresentado pelo Presidential Commission on the Fourth Industrial Revolution (PC4IR), o qual trouxe recomendações em 2020 sobre regulação de IA e ética, bem como o National Development Plan: Vision for 2030, plano dedicado ao desenvolvimento de TIC’s, que deu bastante foco a diretrizes sobre IA no país.
Quanto à regulação, ele destacou que a África do Sul faz parte do G20, o que fez com que o país adotasse os princípios do G20 para desenvolvimento de IA, incluindo proteção à privacidade e dados pessoais. A estratégia nacional de IA do país, ressaltou Boye, reconhece o potencial de desenvolvimento econômico, bem como sugere o desenvolvimento de políticas específicas para Machine Learning.
Em relação à Nigéria, Boye inicialmente apontou que não há uma estratégia nacional de IA específica no país, bem como não existem evidências de atividades voltadas para abertura de consulta pública sobre o tema. No entanto, ressaltou o painelista, em novembro de 2020, o governo lançou o primeiro centro nacional de IA e robótica.
Em termos regulatórios, a Nigéria tem expresso no artigo 37 da sua Constituição o direito à privacidade, além de ter desenvolvido o National Data Protection Regulation (NDPR), que é o regulamento de proteção de dados do país. Boye apontou também que já existem iniciativas governamentais para a utilização de reconhecimento facial como parte da identificação digital nacional, além da existência do NASS-AI project, projeto que tem como objetivo classificar propostas do parlamento nigeriano para torná-las mais acessíveis. Ressalte-se, contudo, que o relatório da Privacy International destacou que o governo nigeriano conduz atividades de vigilância sem supervisão judicial ou framework robusto sobre proteção de dados pessoais, ponto central da discussão trazida pelo painelista.
Por fim, ao tratar do Quênia, Boye salientou que o país também não possui uma estratégia nacional voltada para inteligência artificial ou uma regulação específica sobre o tema. Em fevereiro de 2018, porém, o governo buscou insumos por meio de uma consulta pública para elaborar recomendações gerais sobre blockchain e IA. De maneira semelhante, em julho do ano seguinte, foi publicado o relatório “Emerging Digital Technologies for Kenya EXPLORATION & ANALYSIS”, o qual realizou análises sobre o uso de IA em eleições, no setor financeiro e em iniciativas anticorrupção.
Com base em todos os pontos apresentados sobre os três países, Boye concluiu a sua fala destacando que os Estados Africanos estão se organizando para conduzir um estudo sobre IA, voltado para investigar formas de garantir alinhamento de políticas de IA a padrões de direitos humanos, bem como alocar recursos destinados à pesquisa e desenvolvimento dessas tecnologias. Por fim, finalizou com a reflexão de que os países do Sul Global são parte de uma mesma região e compartilham semelhanças em suas realidades mas, acima disso, possuem particularidades e devem ser analisados para além de um todo homogêneo pela sociedade civil e reguladores. Da mesma forma, Boye destacou a importância da participação do público geral e conscientização sobre a pauta de inteligência artificial.
Após a fala introdutória sobre o panorama da regulação em países do continente africano, o evento se dedicou a dois momentos de perguntas e respostas direcionadas aos demais painelistas.
Qual é o papel do direito, os seus limites e possibilidades, frente ao advento, crescimento e os riscos trazidos pelos diferentes sistemas de inteligência artificial?
Bianca Kremer apontou a existência dos riscos sistêmicos e como eles podem gerar discriminação, especialmente com relação a grupos historicamente marginalizados, além de ressaltar que uma regulação equilibrada deve levá-los em consideração para a obtenção de um resultado que não reforce esses prejuízos e possibilite a ampliação dos benefícios de tais tecnologias.
Para a painelista, o direito pode ser mobilizado como uma ferramenta poderosa para o impulsionamento econômico de IA, desde que seja conciliado com a proteção de direitos humanos, levando em conta as complexidades que herdamos do nosso processo de construção do Brasil. Um ponto de preocupação é que, segundo Bianca, devido à trajetória colonial do país, isso se traduz em uma série de categorias de opressão e um uso da tecnologia com muitos aspectos absorvidos do Norte Global.
Sobre riscos sistêmicos, a painelista trouxe à discussão também a questão do racismo estrutural, salientando como o direito sempre foi usado como uma ferramenta de justificação desse estado de coisas e como instrumento de proteção à propriedade. Dessa maneira, apesar de não sustentar aversão à tecnologia em si, Bianca apontou que a lógica dominante tende a se perpetuar, o que gera a necessidade de utilização do direito como ferramenta de modulação e contenção.
Qual é o contexto regional sobre regulação de IA e outros instrumentos de governança de diferentes países da América Latina? É possível falar sobre um ‘’saldo’’ desses processos até o momento?
Tratando sobre contexto regional de regulação na América Latina (AL), o pesquisador Michel de Souza apontou algumas questões estruturais, a partir da experiência da sociedade civil, que vêm sendo discutidas e incorporadas. Por exemplo, alguns países da região já possuem o direito à privacidade e proteção de dados incorporados nas suas respectivas Constituições e outros já possuem regulação voltada para dados pessoais, como o Chile, em diferentes níveis e experiências.
Também já existem países que possuem uma estratégia nacional de IA delineada, ressaltou Michel, como o México, Uruguai, Brasil, Chile e Colômbia. Em sua maioria, tais estratégias se baseiam em princípios éticos e têm baixa normatividade, além de serem transversais, mantendo uma relação interdisciplinar com outras áreas como economia, educação e segurança pública. Além disso, o painelista apontou que boa parte das estratégias já contaram com participação social em seus processos de elaboração, via consultas públicas. Apesar disso, destacou que, em alguns momentos, tal participação se tornou infrutífera por diferentes fatores, inclusive questões de (falta de) conectividade que ficaram ainda mais evidentes durante a pandemia.
Outro ponto relevante trazido pelo painelista é que o arcabouço regulatório na América Latina muitas vezes se parece com as experiências relatadas por Boye Adegoke em relação ao continente africano: “há situações assimétricas: alguns países mais atentos, mas também temos aqui populismo regulatório no sentido de trazer temas de mais entusiasmo da população para tentar regulamentar”.
Por fim, dialogando sua fala com os pontos abordados por Bianca, Michel asseverou a importância de considerar elementos de uma normativa mais ampla, atenta aos riscos sistêmicos e temas estruturais mencionados.
Como uma regulação equilibrada de IA pode auxiliar o acesso à justiça, encarando essas tecnologias também como uma ferramenta para fortalecer direitos?
Buscando endereçar alguns pontos de debate e apresentar uma perspectiva dentro do setor privado, Karla Capela iniciou sua fala destacando que em todo o mundo ainda existem bases de dados pouco estruturadas e que parte dos problemas que são colocados “na conta” da tecnologia de IA têm sua origem e problemática em tais dados preexistentes, inclusive quando se fala de vieses e preconceitos. A painelista comentou, então, que os referidos vieses são reflexos da sociedade que temos hoje e que, apesar de não serem um bom reflexo, podem servir de parâmetro para definirmos um caminho para o futuro.
A painelista indicou que sua empresa, a Koy Inteligência Jurídica, faz a mineração de dados judiciais, públicos, o que, segundo Karla, é um fator que facilita o acesso à justiça. No entanto, ela prosseguiu ressaltando que a tendência atual regulatória vai no sentido contrário, ao passo que a “justiça vem afunilando e dificultando esse acesso, por mais que tenhamos LAI e garantias na Constituição”.
Outro ponto de destaque trazido pela painelista foi sobre a maneira com a qual lidamos com as tecnologias de IA não só no Brasil, mas em todo o mundo, com a utilização de muitos termos técnicos e discussões em nichos entre especialistas, o que dificulta que as informações cheguem a pessoas comuns, que, como titulares de dados, precisam compreender o que está sendo dito. Karla opinou, portanto, que antes de discutir a regulação em si, deve ser discutido como a informação deve chegar às pessoas: o destaque de sua fala foi para a acessibilidade das informações sobre IA.
De igual maneira, a painelista ratificou que a tecnologia IA pode e deve ser usada como uma ferramenta de acesso à justiça – porém, na sua visão, o excesso de regulação tem se mostrado um desafio. Se as leis resolvessem os problemas de fato, destacou ela, não seríamos uma sociedade tão vertical e com tantos problemas perpetuados.
Finalizado a sua fala, Karla pontuou que as tecnologias normalmente são criadas para o bem, para diminuir as distâncias e que, apesar de existir o mau uso, esse não é o objetivo principal. Assim, para ela, ao invés do “excesso de regulação”, deve-se buscar a disseminação de informação, para que todos entendam o que estão disponibilizando e como a tecnologia pode melhorar a vida da população.
O Guia de Contratações Públicas de Inteligência Artificial, produzido pelo Centro para a Quarta Revolução Industrial (C4IR), aponta que ao mesmo tempo em que diferentes aplicações de IA têm um potencial enorme para o Poder Público, as particularidades da Administração geram desafios a serem trabalhados, dentre eles a contratação. Dessa forma, qual seria a melhor maneira que uma regulação de IA no Brasil deve abordar o setor público? Qual a importância da multisetorialidade para esse processo?
Neste momento do debate, Rafael Fassio iniciou a discussão destacando o o Guia de Contratações Públicas de IA, produzido pela C4IR, do qual é co-autor, e observou que, de fato, o direito não consegue resolver todos os problemas, bem como há muitas leis que não são efetivamente aplicadas.
Sobre a pergunta, Fassio destacou que o modelo mais adotado para contratações no Brasil hoje – licitações e pregões – não é compatível com o fator de inovação e agilidade do avanço da IA. A Administração Pública, segundo Rafael, é particularmente traumatizada em termos de contratações, e com temas como a proteção de dados pessoais, a complexidade aumenta ainda mais. Dessa maneira, quando se fala de contratação, deve-se pensar como as normas e instrumentos jurídicos podem influenciar na construção de melhores sistemas, especialmente de forma a colocar o ser humano no centro do seu desenvolvimento.
Para Rafael, é justamente uma abordagem do ser humano no centro aliada ao combate às assimetrias de informações em geral, que o Guia busca trazer. Para chegar a isso, destaca que o guia contou com um processo colaborativo multissetorial na sua elaboração, o que permitiu uma análise mais ampla e múltipla, com uma visão inclusive para além do Sul Global. Ele pontuou, por fim, que os achados do guia são apenas mais um passo importante; contudo, lembrou que um documento não resolve o problema: é necessário que a informação chegue aos gestores, que devem entender seus papéis e perceber os benefícios da aproximação entre diferentes setores em busca de melhores soluções
Citando a questão multissetorial já mencionada por Rafael, Clara Langevin, que também foi co-autora do Guia, apontou que a própria constituição do C4IR Brasil já abarca diferentes setores, ao passo que é uma parceria público-privada composta por seis empresas e pelo governo de São Paulo. Nesse mesmo sentido, ela relembrou a trajetória do Marco Civil da Internet, um excelente exemplo de construção multissetorial com resultados positivos para o ambiente online.
Ainda sobre o cenário multissetorial, e retomando a fala de Bianca, Clara frisou a urgência de se realizar um mapeamento de riscos éticos específicos para o contexto da sociedade brasileira. Nesse sentido, também pontuou que o Brasil importa muitos modelos de IA, vindos de realidades socioeconômicas fundamentalmente diversas da do país, o que pode interferir diretamente com relação ao endereçamento dos riscos sistêmicos, viéses e qualidade de políticas públicas sobre o tema.
Finalizando suas ponderações, Clara destacou que o Brasil está relativamente alinhado com as dinâmicas externas sobre discussões de princípios éticos, desde a OCDE até o Tratado de Montreal e o G20. A questão, agora, é estudar a melhor maneira de “assentar” a pauta no Brasil para construir uma regulação de acordo com nossa realidade.
Como a sociedade civil vem se posicionando sobre modelos regulatórios mais interventivos, como a vedação da utilização de algumas tecnologias para segurança pública?
Para responder às provocações, Bianca pontuou já de início que a sociedade civil não tem sido tecno-determinista, o que significa considerar que não é porque a tecnologia foi desenvolvida que ela necessariamente precisa ser aplicada. É o caso, por exemplo, do uso de reconhecimento facial para fins de segurança pública.
O ponto central da discussão, para Bianca, é que seja desenvolvida uma regulação que proteja os direitos humanos, com uma abordagem racializada para possibilitar a politização do debate. Para a painelista, esse posicionamento não se trata de uma opinião ou lente de análise, mas sim de um projeto político.
Com relação à condição geopolítica do Brasil no desenvolvimento de tecnologias, a painelista fez a ressalva de que estamos em posição de subserviência não apenas no desenvolvimento, como também no consumo de tecnologias de IA. Então, tudo o que se está construindo em termos de regulação deve levar em consideração essa conjuntura específica. Por exemplo, sinalizou ela, o Brasil é o 3º país que mais encarcera no mundo (perdendo apenas para EUA e China) e que há um genocídio da população negra e indígena no Brasil, contexto em que essas tecnologias vão se inserir.
Por conta disso, a painelista sinalizou que, se o Brasil está alinhado sobre valores éticos de IA em relação ao restante do mundo, não estamos alinhados com a emancipação de direitos digitais das populações mais vulneráveis. Ela trouxe a seguinte provocação: como é possível ter uma emancipação real e construção verdadeiramente efetiva de uma equidade nos espaços digitais?
A adoção de dinâmicas de ‘’due diligence” em direitos humanos e outros tipos de avaliação prévia de impacto à adoção de diferentes tecnologias se relaciona com uma abordagem pautada na ética?
Para responder essa pergunta, Michel começou apontando que, quando falamos de IA, precisamos desmistificar preceitos, mas também ter clareza quanto ao que está acontecendo no dia a dia. Há casos que demonstram uma grande problemática, como os que Bianca mencionou, além das dificuldades de acesso à informações, falta de participação e escrutínio dessas ferramentas, além da nebulosidade oriunda das diferentes experiências de parceria público-privada.
Diante de tal panorama, organismos internacionais como a Unesco olham para o tema da IA sob uma perspectiva de direitos humanos, tendo como uma das recomendações a “devida diligência” durante todo o ciclo de vida de IA, desde seu desenvolvimento. Existe, portanto, destacou ele, a dificuldade da ampla gama de utilização de IA em vários âmbitos e para diferentes funcionalidades, o que levanta o questionamento de como é possível operacionalizar a análise de todos os casos a partir de diferentes perspectivas.
Nesse sentido, ele propôs algumas reflexões necessárias como: Quais são as dificuldades dos tomadores de políticas públicas? Como podemos pensar o uso de tecnologias para o bem comum? Como vai se dar a participação social? Como avaliar o impacto? Para o painelista, essas são questões ferramentais, de “caixa de ferramentas” não apenas do gestor público, mas de todos os setores.
Atualmente, segundo Michel, há uma dificuldade de ter um debate amplo, que traga atenção aos riscos e seja transparente em relação ao que está sendo feito, inclusive sobre recursos humanos e orçamento público. Por conta disso, ele pontua que é muito importante o estabelecimento de um diálogo e uma linguagem comum sobre o que é regulação, bem como sobre os riscos e limites para o uso da tecnologia.
A questão da transparência e prestação de contas em relação a algoritmos, especialmente modelos mais complexos, é um ponto central nas discussões sobre IA. Retornando ao Guia de Contratações Públicas, como determinar critérios mais precisos do que deve estar na regulação?
Clara iniciou sua fala destacando que a abordagem do já mencionado Guia parte da premissa de que há uma assimetria de informação entre setor público e privado. Assim, o documento destaca a importância de existir uma comunicação sobre quais são os riscos do uso de um modelo de IA dentro de um contexto específico, para uma conversa baseada em fatos e dados com o fornecedor, assim como uma explicação transparente para a sociedade sobre os riscos do uso da tecnologia.
Clara lembrou que o Guia também aborda várias outras questões, como trazer comunidades para fazer parte de um planejamento de IA, transferência de conhecimento depois de assinar contrato, como auditar o sistema durante seu ciclo de vida e outras recomendações práticas no uso de tecnologias de inteligência artificial.
Continuando os pontos de destaque do documento, a painelista também trouxe mais precisão a alguns termos, atenta a uma confusão conceitual comum quando se fala de IA. Nesse sentido, esclareceu que “explicabilidade” significa o ato de explicar cada nódulo de um modelo de IA; “interpretabilidade” significa entender as entradas e saídas do modelo sem entrar em detalhes do modelo do que é e como é o processo técnico de IA; e, por sua vez, a “contestabilidade”, que é o ponto que mais se discute na sociedade civil e na academia, comumente referido como explicabilidade, significa compreender de modo amplo o impacto de cada etapa do modelo, especialmente o impacto na sociedade.
Nesse sentido, a painelista prosseguiu analisando como seria possível encaixar todos os mencionados pontos em uma regulação nacional. Como exemplo, ela citou que alguns países/regiões, como a Califórnia e União Europeia, tentam encaixar projetos/sistemas de IA em níveis diferentes de riscos, cada um com um nível de transparência e processo de prestação de contas, chegando até o ponto onde o uso é proibido, como, por exemplo, na utilização de IA para policiamento preditivo. Ao final, Clara ressaltou que o ponto principal é justamente compreender como todos esses pontos, especialmente a dinâmica de explicabilidade, podem ser encaixados na realidade brasileira.
Após as exposições dos painelistas, o debate abriu a perguntas da audiência, que manteve-se interativa no chat e apresentou contribuições ao longo de todo o webinário. A discussão pode ser conferida em maiores detalhes no vídeo completo, disponibilizado no canal Data Privacy Brasil no Youtube.
Thaís Aguiar e Júlia Mendonça