SEMINÁRIO DE PROTEÇÃO À PRIVACIDADE E AOS DADOS PESSOAIS – Dia 03

Publicado em novembro 20, 2020

O 3º dia do Seminário de Proteção à Privacidade e aos Dados Pessoais foi marcado por exposições e debates sobre proteção de dados na esfera penal e processual penal, dados […]

O 3º dia do Seminário de Proteção à Privacidade e aos Dados Pessoais foi marcado por exposições e debates sobre proteção de dados na esfera penal e processual penal, dados sensíveis e discriminação e open banking. Confira os highlights do dia 03!

Keynote 3 – Dados pessoais e segurança pública: discussões sobre o anteprojeto

O terceiro Keynote do Seminário deste ano teve como palestrante Laura Schertel Mendes, professora da Universidade de Brasília (UnB) e do Instituto Brasiliense de Direito Público (IDP) e moderador Alexandre Pacheco, da Fundação Getúlio Vargas. O tema foi a proteção de dados na segurança pública e persecução penal e, especificamente, o Anteprojeto de lei sobre o tema. 

Schertel iniciou a palestra com comentários sobre o contexto geral da proteção de dados na esfera criminal, a partir de casos concretos, como a prisão de pessoas com base em algoritmos de reconhecimento facial ou mesmo no reconhecimento de fotos. Esse cenário, somado ao volume dos vestígios digitais que os indivíduos deixam, demonstra, para a professora, a necessidade e urgência de um marco regulatório geral sobre a proteção de dados na segurança pública e investigação e persecução criminal. 

Os possíveis usos de dados para tais finalidades são: a interceptação ou requisição de dados sobre um indivíduo para a produção de provas, a predição de comportamentos criminais de uma pessoa ou comunidade (‘’big data policing’’), o uso de tecnologias de vigilância e o tratamento massificado de dados de um grupo de pessoas em busca de autoria de crimes (‘’data mining’’/’dragnet surveillance’’). 

Citando Jacqueline Abreu, Schertel afirmou que, hoje, o que se tem na área, é o direito do sigilo e de suas quebras, que parte de uma divisão rígida entre público e privado e da concepção de que determinados dados merecem proteção justamente por serem privados, íntimos e, no caso, sigilosos, uma concepção de privacidade que não dá conta do contexto atual de tratamento massivo de dados pessoais em circulação na sociedade. Mencionou entendimentos nesse sentido, como o do Supremo Tribunal Federal no recente julgamento da ADI 638, que ampliou a proteção constitucional em torno dos dados pessoais. 

Para suprir a falta de uma garantia semelhante para a esfera da segurança pública e da investigação/persecução criminal, foi instituída a Comissão de Juristas designada a elaborar Anteprojeto de lei sobre o tema, conforme mandato da própria LGPD, no art. 4º , III. Partindo para o Anteprojeto, concretamente, Schertel afirmou que ele parte do ‘’equilíbrio necessário’’ entre o interesse da coletividade na persecução penal e os graves efeitos que a desproteção aos dados pessoais têm sobre o cidadão, como a perda da própria liberdade. Em termos de inspirações, citou a própria LGPD, a Diretiva 2016/680, leis alemãs, portuguesas e leis municipais e estaduais dos Estados Unidos (especificamente nos dispositivos sobre atividades de monitoramento). 

O Keynote, então, voltou-se para a estrutura do Anteprojeto, inspirada diretamente na LGPD, passando pelo âmbito de aplicação, fundamentos, princípios e bases legais, estas divididas de acordo com o tipo de dado tratado (dados pessoais, dados sigilosos e dados sensíveis). No caso dos dados pessoais, a base legal aplicável é a competência da autoridade, afirmada em lei ou regulamento. No caso dos dados sigilosos ou sensíveis, entretanto, há uma exigência de legalidade estrita, sendo necessária a existência de lei que justifique o tratamento em questão. Adiante, também mencionou os direitos de titulares, balanceados com os interesses das investigações, as obrigações dos agentes (segurança e sigilo dos dados), o compartilhamento de dados e a transparência, com exigência de políticas de transparência e relatórios estatísticos. 

Sobre o capítulo referente às tecnologias de monitoramento, como o reconhecimento facial, o Anteprojeto estabelece três níveis de proteção: exigência de lei específica, com análise de impacto regulatório e uma série de garantias, como direitos dos titulares, política de uso e compartilhamento, salvaguardas e medidas de segurança, descrição de auditoria interna e mecanismos de supervisão, etc. Em termos de emprego da tecnologia, o Anteprojeto exige a realização de relatório de impacto à proteção de dados. 

Por fim, Schertel discorreu sobre a atribuição de supervisão da lei ao CNJ, por meio de uma Unidade Especial, e não à ANPD, especialmente em razão da maior independência e autonomia do primeiro órgão.  Finalizou a palestra com o grande objetivo do Anteprojeto, que é a concretização de ideais de uma sociedade democrática e não sujeita à vigilância, por meio da garantia da liberdade, autodeterminação, liberdade de expressão e pensamento, devido processo legal e, por fim, o direito fundamental à proteção de dados. 

Durante as perguntas e debate, foram abordadas questões como a não-aplicação da futura lei para a segurança e defesa nacional e a lacuna que existe nesse campo, a adequação do CNJ como órgão de controle de órgãos de persecução criminal, criptografia, reconhecimento facial, etc.

O Keynote completo pode ser conferido aqui

Painel 5 – O tratamento de dados pessoais sensíveis e práticas discriminatórias: impactos e enfrentamento no ambiente digital

O primeiro painel do dia e quinto do Seminário foi sobre dados pessoais sensíveis e discriminação, com foco em seus impactos e como combatê-la. Teve moderação de Luiza Brandão, diretora do IRIS-BH e como participantes Bianca Kremer (Instituto Dannemann Siemsen), Diogo Cortiz (Ceweb.br|NIC.br), Jonice Oliveira (LabCores – Laboratório de Computação Social e Análise de Redes) e Nina da Hora (Cientista da Computação). 

Inicialmente, Jonice Oliveira discorreu sobre mídias sociais e como funciona a perfilização dos usuários a partir de dados contextuais, passando por conceitos como ‘’feedback loop’’, ‘’filter bubbles’’ e ‘’echo chambers’’, que levam a um cenário de isolamento cultural ou ideológico, reforço de crenças em um sistema fechado e confirmação de vieses. Dentre os campos que merecem mais atenção, segundo Oliveira, estão a saúde (como evidencia a pandemia da COVID-19, com a possibilidade de aumento da sensação de pânico na população em razão de informações falsas ou exageradas) e as eleições, na medida em que têm implicações para o funcionamento do sistema democrático. Para ilustrar seu ponto, a pesquisadora compartilhou dados de uma pesquisa empírica que revelou que bots classificados com determinadas posições políticas receberam mais conteúdo alinhado àquela posição política, ainda que todos os robôs seguissem as mesmas páginas e veículos de mídia. 

Na sequência, falou Bianca Kremer, a partir de um questionamento sobre os instrumentos jurídicos de proteção aos dados sensíveis e se eles atendem os cidadãos de forma equânime. Em resposta, Kremer destacou que a plavra discriminação (ou discriminatório) aparece apenas em duas ocasiões na LGPD e que o próprio conceito de não-discriminação (ilícita e abusiva) dá margem à interpretação. Para suprir tais lacunas, a advogada sugere ser imprescindível o combate à ideia de um sujeito universal de direitos, construído a partir de institutos jurídicos que afirmam liberdade, autonomia, privacidade, mas que foram construídos paralelamente a situações de violência e exploração, como a própria escravidão. Assim, concluiu que a LGPD, como foi construída, afirma uma pretendida universalidade, mas exclui negros, pessoas com deficiência, mulheres, idosos, etc. 

Diogo Cortiz trouxe uma perspectiva mais técnica ao demonstrar como funciona um algoritmo de aprendizado supervisionado e como ele pode replicar distorções da realidade. Fez isso a partir de um ‘’dataset’’ com dados provenientes dos passageiros do Titanic, como nome, sexo, classe em que viajava, número do bilhete e se a pessoa em questão sobreviveu, ou não, ao naufrágio. Tais dados foram utilizados para treinar um algoritmo, com três das variáveis (número do bilhete, idade e classe) e, como a árvore de decisão gerada é considerada uma ‘’white box’’, foi possível identificar que o fator mais relevante no resultado da predição sobre a sobrevivência de novos passageiros era a classe em que viajavam. Quando a variável sexo foi incluída, ela passou a ser a mais relevante. Passando para uma demonstração de como a tecnologia pode servir para revelar vieses e discriminação, Cortiz também fez referência a outras pesquisas, como a realizada pela Jigsaw sobre a ‘’toxicidade’’ de determinadas afirmações sobre marcadores sociais, como ‘’Eu sou gay’’, ou ‘’Eu sou judeu’’. O experimento revelou níveis díspares de toxicidade, muito maiores em caso de grupos sociais vulneráveis, como LGBTQIA+. Concluiu que uma vez que resultados produzidos por máquinas podem se revelar discriminatórios por diversos motivos, é importante a elaboração de novas métricas, feitas a partir de uma construção social, para validar os modelos de predição.

Por fim, Nina Da Hora focou sua exposição no conceito de pensamento computacional, entendido como uma série de atividades mentais criadas para resolver problemas, realizar atividades e entender o comportamento humano de forma a estimular um pensamento crítico. Afirmou, então, que considera ser difícil falar em discriminação por meio do tratamento de dados sensíveis quando boa parte da população sequer sabe o que é um algoritmo. Questionou, também, o papel de pesquisadores e cientistas na chamada era digital, concluindo que, antes de se entender o impacto da discriminação baseada em dados, é importante focar na educação digital da população, a fim de criar resiliência. 

Algumas das questões debatidas no momento das perguntas foram: impactos do combate à disseminação de informações distorcidas ou discriminatórias sobre a liberdade de expressão, perfis comportamentais e a LGPD, direito à explicação algorítmica, etc. 

O painel completo pode ser conferido aqui. 

Painel 6 – Open Banking: discussões e desafios à luz da proteção aos dados pessoais

O último painel do dia foi moderado por Eduardo Parajo, do Nic.br e contou com a participação de Ana Frazão (Universidade de Brasília), Diogo Silva (Banco Central do Brasil), Juliana Oliveira Domingues (Secretária Nacional do Consumidor do Ministério da Justiça) e Mariana Caparelli (Nubank). O tema foi os desafios trazidos pelo Open Banking, tendo como pano de fundo a proteção de dados pessoais. 

Juliana Domingues, da Senacon, iniciou apontando que, da perspectiva do consumidor, o advento do open banking é uma oportunidade para o fortalecimento do sistema de proteção e criação de maior confiança nas instituições financeiras, desde que haja ampla transparência, a fim de reduzir assimetrias, e segurança da informação. Também apontou que se trata de um estímulo à concorrência. Em relação à LGPD e sua relação com as normas de consumo, lembrou que deve haver uma harmonização e, inclusive, um forte trabalho de cooperação entre a Autoridade Nacional de Proteção de Dados e os órgãos do Sistema Nacional de Defesa do Consumidor, já que considera haver um ‘’overlap’’ de competências. Como conclusão, afirmou que o cenário é positivo e que é a partir da discussão, do diálogo interdisciplinar (consumidor, concorrencial e bancário) que as novidades do sistema financeiro serão desmistificadas. 

Diogo Silva apontou as vantagens do open banking, como a inovação e a concorrência e afirmou que já há um arcabouço legal adequado, há a tecnologia e o open banking é um sistema evolutivo que se adaptará às necessidades da sociedade. Destacou, também, o pioneirismo do Brasil no tema, tanto pela governança da implementação do open banking, quanto por medidas relacionadas ao open finance, que ampliam o escopo para seguros, previdência, etc. Acerca da hipótese de tratamento para transferência de dados entre instituições definida pelo Banco Central, o consentimento, Silva explicou que ele deve ser obtido pela instituição que recebe os dados e que, no caso de revogação, acredita que será possível a criação de um ambiente único. Sobre a questão da segurança, ressaltou que é o próprio fundamento do open banking. Concluiu sua fala salientando o papel da conscientização dos usuários. 

Na sequência, Ana Frazão trouxe uma perspectiva diferente ao ressaltar que, apesar de todos os aspectos positivos, como o aumento da concorrência, o aumento do fluxo de dados traz preocupações quanto ao tratamento massivo de dados, sendo a maior delas a realização de inferências e decisões automatizadas sem revisão humana. Afirmou que os dados financeiros dizem muito sobre o titular e que o maior desafio será garantir que não haja desproporcionalidade e prejuízos a ele. Falando da LGPD, mencionou que devem ser respeitados os princípios, como a finalidade e a necessidade, o que nem sempre é fácil de ser mensurado em projetos de grandes dimensões. Destacou também o papel da ANPD na regulação dos procedimentos, em diálogo com outros órgãos, bem como na operacionalização dos direitos dos titulares e na distribuição de responsabilidades. Como consideração final, disse que a cidadania financeira precisa ser acompanhada de uma cidadania digital e que o sistema precisa evoluir, mas com cuidado, para garantir a proteção de dados, que é, em si, um direito fundamental. 

Mariana Caparelli, por fim, falou da perspectiva do Nubank, que, segundo ela, nasceu digital e entende a necessidade de construção de um sistema seguro e de uma padronização, o que pode ser um desafio para outras instituições. Afirmou, também, que o Brasil está no início da construção de uma cultura de proteção de dados e que é papel das empresas colaborar com essa cultura e com o empoderamento do cidadão/titular. Explicou que o processo para a padronização de APIs junto ao Banco Central está caminhando e que o diálogo vem ocorrendo de forma frutífera. Como conclusão, relembrou que a proteção de dados pessoais não é uma novidade para o setor financeiro e que as novas normas vieram para reforçar determinados aspectos, mas que o foco deve ser na conscientização e na transparência. 

O painel completo pode ser conferido aqui.

Por Aline Herscovici, Daniela Eilberg, Gabriela Vergili, Iasmine Favaro, Izabel Nuñes, Mariana Rielli, Marina Kitayama e Pedro Saliba 

Compartilhar:

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *