MENU

Todas as regiões

FECHAR

Congresso mantém veto a direito a uma explicação humana na LGPD

Por:
Publicado em 03/10/2019, às 16:10 Atualizado em 03/10/2019 às 16:18

O Congresso Nacional manteve veto do presidente Jair Bolsonaro a dispositivo da LGPD que previa o direito a uma explicação humana para pessoas submetidas a decisões automatizadas.

Para entender o equívoco e o perigo da posição adotada, é preciso visitar, ainda que brevemente, (i) o conceito de decisão automatizada; (ii) a opacidade algorítmica; (iii) o conceito e a importância do direito a uma explicação humana.

Ocorre a decisão automatizada quando um sistema baseado em um algoritmo toma decisão sobre si, por meios tecnológicos e sem envolvimento humano direto. Para tanto, podem ser utilizados dados de perfis ou não. “A definição de perfis é efetuada quando os seus aspectos pessoais são avaliados para fazer previsões sobre si, mesmo que não seja tomada qualquer decisão”[1]. Exemplo do uso de perfis é o da empresa ou organização que avalia e categoriza características pessoais, tais como idade, o sexo, religião, altura etc.

Embora muitas vezes sequer nos damos conta, estamos sendo submetidos diariamente a inúmeras decisões automatizadas. Quando você digita um endereço no aplicativo do seu celular e ele te responde com o melhor caminho, ele tomou automaticamente uma decisão. O algoritmo trabalhou para lhe oferecer o trajeto mais interessante. Esse tipo de decisão não é preocupante, aliás, ajuda bastante.

O que preocupa são as decisões automatizadas com potencial de ofensa a direitos fundamentais. Muitos algoritmos já estão sendo criados carregando elementos que caracterizam racismo, homofobia, sexismo etc. Ainda que o programador (pessoa que criou o algoritmo) não tenha tido a intenção de que ele se comportasse de tal maneira, fato é que possivelmente algum traço sexista, por exemplo, foi transmitido a esse algoritmo e por isso ele se comporta assim.

O tema é complexo e o espaço não permite o aprofundamento necessário. Fizemos isso num livro que se encontra no prelo e logo será lançado. Fato é, contudo, que se nenhuma atitude for tomada reincidiremos em erros históricos. Não se pode permitir que a pretexto de inovar, progredir e lucrar sejam ressuscitados fantasmas que há muito se busca sepultar.

Para se ter uma ideia, um algoritmo pode decidir quem vai para a prisão: em ao menos dez estados americanos, juízes estão tomando decisões sobre quem irá para a prisão com base num sistema chamado COMPAS[2]. O programa faz diversas perguntas que avaliam a probabilidade de o sujeito voltar a cometer um crime. A avaliação se baseia num sistema de pontos, de um a dez. São respondidas perguntas, como se alguém na família foi preso, se a pessoa vive numa área com alto índice de criminalidade, se tem amigos que fazem parte de gangues, assim como o seu histórico profissional e escolar. Por último, são feitas perguntas sobre pensamentos criminosos, como, por exemplo, se a pessoa concorda ou não com a seguinte afirmação: “é aceitável que alguém que passa fome roube”[3].

O problema é que alguns algoritmos estão classificando pessoas negras como mais perigosas do que pessoas brancas levando em consideração apenas a cor da pele. Nos EUA isso ficou claro num caso envolvendo duas pessoas. De um lado, Vernon Prater, de 41 anos, que foi pego roubando uma loja de ferramentas, o que causou um prejuízo de U$ 86,35 à vítima. Trata-se de um meliante que já havia sido condenado por assalto à mão armada mais de uma vez, além de ostentar outras inúmeras contravenções penais na sua ficha criminal.

De outro lado, Brisha Borden, de 18 anos, que atrasada para levar sua irmã à escola pegou uma scooter que pertencia a um menino de 6 anos. Flagrada, caiu da pequena moto e foi presa por assalto. O que eles têm em comum? Ambos foram classificados por um programa de computador que previa a probabilidade de cometerem novos crimes no futuro. Borden, que é negra, foi classificada como de alto risco e Prater, que é branco, como de baixo risco. Abaixo a imagem deles, que deixa claro que o algoritmo foi preconceituoso ao realizar a classificação[4]:

A ficha criminal de ambos:

 

Não tem justificativa a classificação feita pelo algoritmo senão pelo fato de que ele tratou o branco criminoso contumaz como menos perigoso do que a negra praticante de pequenos delitos. Como isso se deu? Não é possível saber. Porém, também não é possível concordar com uma situação como essa. Essa é chamada opacidade algorítmica.

O direito a uma explicação humana nasce justamente da necessidade de se garantir que um humano explique com base em quais informações determinada decisão automatizada foi tomada.

Ao vetar o dispositivo que previa o direito à uma explicação humana, o Congresso retira do cidadão o direito de conhecer os reais motivos pelos quais um algoritmo decidiu de uma forma ou de outra, o que lhe daria a chance de se defender de eventuais injustiças. Com a atual redação da LGPD, as decisões automatizadas poderão ser revistas por outro sistema igualmente automatizado.

Em outros países discute-se há anos a importância de garantir referido direito. No Brasil, a legislação sobre dados (que sequer entrou em vigor) já nasce ultrapassada e omissa.

Prepare-se: vem aí o 1° Congresso LGPD!

Se interessou pelo conteúdo? Com a entrada em vigor da Lei Geral de Proteção de Dados haverá inúmeros impactos em diversos ramos de atuação e você não pode ficar de fora. Por isso, para você aprofundar ainda mais no assunto está chegando o 1° Congresso LGPD! Uma realização da Assespro, em parceria com a Faculdade CERS. 

Garanta sua participação nos dias 23 e 24 de outubro, a partir das 18h e entenda tudo sobre a transparência no uso dos dados das pessoas físicas em todos os meios. Aproveite e adquira também um certificado com 20h de participação! Faça já sua inscrição gratuita no site do evento!

Referências

[1] Comissão Europeia. Posso ser sujeito a decisões individuais automatizadas, incluindo a definição de perfis? Disponível em: https://ec.europa.eu/info/law/law-topic/data-protection/reform/rights-citizens/my-rights/can-i-be-subject-automated-individual-decision-making-including-profiling_pt. Acesso em 15 out. 2018.

[2] Sigla em inglês para Correctional Offender Management Profiling for Alternative Sanctions.

[3] MAYBIN, Simon. Sistema de algoritmo que determina pena de condenados cria polêmica nos EUA. Disponível em: https://www.bbc.com/portuguese/brasil-37677421.

[4] ANGWIN, Julia. LARSON, Jeff. MATTU, Surya. KIRCHNER, Lauren. Machine Bias. Disponível em: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing. Acesso em 01 maio 2019

Siga o CERS no Google News e acompanhe nossos destaques

Tags relacionadas: