Busca sem resultado
Estudos Sobre Privacidade e Proteção de Dados

Estudos Sobre Privacidade e Proteção de Dados

Capítulo 5. Algoritmos e Decisões Automatizadas: Buscando a Conformidade com a Lgpd

Entre no Jusbrasil para imprimir o conteúdo do Jusbrasil

Acesse: https://www.jusbrasil.com.br/cadastro

Luis Fernando Prado 1

1. O perigo invisível dos algoritmos que se baseiam em dados pessoais

Vivemos o momento das experiências customizadas na era digital. Ao mesmo tempo, usuários buscam, cada vez mais, produtos e serviços que sejam privacy friendly, sendo um dos principais desafios das empresas modernas o de conciliar experiências customizadas com proteção de dados pessoais. Essa situação é muito bem retratada pelo 13º estudo anual “Global Consumer Pulse” (2018), realizado pela empresa Accenture 2 , o qual destaca que, enquanto 65% dos consumidores se dizem frustrados quando as empresas deixam de prover experiências relevantes e personalizadas, 45% se preocupam com a proteção de seus dados pessoais ao assinar serviços inteligentes, desenvolvidos para entender e antecipar escolhas e necessidades.

Parece certo, portanto, que a customização de experiências, especialmente no ambiente digital, é um caminho sem volta, que realmente está no centro das atenções dos usuários dos produtos e dos serviços. Tecnicamente, esse tipo de customização depende de um intenso e marcante tratamento de dados pessoais baseado em algoritmos 3 que tratam registros sobre comportamentos e preferências. Dessa forma, especialmente ao se analisar atividades passadas, é possível prever se determinado usuário vai se interessar ou não por um filme, uma playlist ou um produto específico, com nível de precisão que é cada vez mais surpreendente.

Esse contexto da busca incessante pela máxima customização apresenta prós e contras que há algum tempo são analisados pela comunidade acadêmica. Se, por um lado, todos nós nos vemos atraídos por uma sensação de ganho de tempo e eficiência ao sermos bombardeados por conteúdos que nos dizem respeito, por outro, o fato de termos algoritmos frequentemente sugestionando as nossas escolhas pode gerar inquietações e preocupações que, em muitos casos, são legítimas.

Quando percebemos a homepage de um website personalizada com base no conteúdo anteriormente acessado ou nos deparamos com anúncios personalizados, estamos diante de evidências claras de situações em que regras técnicas estão, de alguma forma, sendo executadas a partir do tratamento de nossas informações pessoais para nos prover uma experiência customizada, sendo que tais constatações já não causam maior espanto. No entanto, há contextos mais preocupantes, nos quais se pode questionar, para além de questões jurídicas, também aspectos éticos da utilização de dados aliados à tecnologia para a predição (e direcionamento) de comportamentos.

Não há muito tempo, o mundo se escandalizou com o caso Cambridge Analytica, por meio do qual, em apertada síntese, tornou-se pública contestada estratégia de uso de dados pessoais para predição e influência de comportamento eleitoral. O escândalo em referência, de gigantesca repercussão internacional, elevou as discussões sobre proteção de dados para outro patamar, no qual o tema assume papel central inclusive para o estudo do futuro das democracias.

Mais recentemente, o documentário “O Dilema das Redes” trouxe depoimentos de atores relevantes do ecossistema das redes sociais, que expuseram parte das práticas ocorridas e, com isso, escancararam à sociedade aquelas preocupações com uso ético dos algoritmos que já há muito tempo era objeto de estudo acadêmico mundo afora.

Fato é que da experiência customizada em plataformas digitais de consumo (como aquelas de streaming ou e-commerce) ao que aconteceu no caso Cambridge Analytica, há um oceano de decisões automatizadas baseadas em dados pessoais que afetam o nosso dia a dia, como o que vemos nos resultados de busca, o tipo de notícia que nos chega, o conteúdo de nossos contatos em redes sociais, o valor de crédito que recebemos das instituições financeiras e até mesmo o tipo de vaga de emprego que visualizamos. Na camada das aplicações de internet 4 , trocamos nosso CPF por identificadores eletrônicos (ID), que ficam atrelados a um perfil que contém hábitos e preferências bastante apurados.

As preocupações decorrentes dessa customização que move a web são traduzidas na ideia de que os usuários de internet estão cada vez mais inseridos em um filtro bolha, conceito introduzido por Eli Pariser 5 . Segundo os defensores dessa teoria, o fato de que as escolhas dos usuários de internet são influenciadas pelos algoritmos é altamente nocivo, pois tende a limitar liberdades e possibilidades de descoberta. Além disso, passamos a conviver no âmbito digital com um retrato míope do mundo, que nem de longe reflete as diferenças e a diversidade de ideias, pensamentos e expressões, o que seria um contrassenso com a própria ideia da inclusão digital e da manutenção de uma internet livre e aberta.

Há ainda quem diga, de forma mais radical, que vivemos a “ditadura dos algoritmos”, ou seja, nossas escolhas sobre o que vimos, expressamos ou adquirimos não são mais baseadas nas nossas vontades, mas sim naquilo que os códigos querem que façamos. Para Stefano Rodotà 6 , isso significa que o agente tomador de decisão acaba sendo substituído por procedimentos automatizados, de incontroláveis poderes.

Para além das problemáticas até aqui apontadas, outro ponto de atenção que tangencia o tema deste artigo está nos vieses que podem contaminar os algoritmos. Decisões automatizadas em geral são tomadas a partir de uma análise de perfil baseada em dados pessoais que é combinada com dados históricos e estatísticos.

A grande tensão nesse ponto repousa no fato de que nós, seres humanos, temos a sensação de que somos capazes de ler estatísticas e tomar decisões baseadas em dados com a cautela de não reproduzir generalizações que podem ser consideradas discriminatórias. Em outras palavras, seres humanos são capazes de aplicar certo grau de raciocínio lógico de forma a separar o dado estatístico do dado do indivíduo, sabendo que, por exemplo, não é pelo fato de determinada pessoa residir em bairro com alto índice de criminalidade que ela é criminosa. No entanto, parte da sociedade e dos doutrinadores que se debruçam sobre o tema teme pelo fato de que, em alguns casos, é possível que as máquinas guiadas por algoritmos de inteligência artificial não sejam capazes de aplicar o mesmo racional de discernimento que humanos são capazes de fazer e, com isso, acabarem assumindo vieses discriminatórios inaceitáveis (fenômeno conhecido como discriminação algorítmica).

Concorde-se ou não com a visão crítica (ou até apocalíptica) em relação à intensificação do uso de algoritmos, fato é que os riscos apontados se tornam ainda mais preocupantes quando não há suficiente transparência às pessoas físicas (titulares de dados). Para Cathy O’Neil 7 , ex-professora da Barnard College (Universidade de Columbia, EUA) que trabalhou como analista de dados em Wall Street, há algoritmos extremamente danosos à sociedade, os quais, por serem “opacos, desregulados e irrefutáveis”, acabam sendo potencializadores de discriminações perigosas. Já Frank Pasquale alerta para o perigo de estarmos vivendo numa “black box society”, ou, em português, sociedade da caixa preta, na qual nossas liberdades acabam sendo ameaçadas pela ausência de transparência nos algoritmos 8 .

Por outro lado, o temor em relação ao avanço do uso de algoritmos, por mais que seja justificável em alguns pontos, não pode servir como argumento de freio à inovação. Não é de hoje que a comunidade internacional de desenvolvedores de tecnologias vem investindo inúmeras pesquisas em técnicas de …

Experimente Doutrina para uma pesquisa mais avançada

Tenha acesso ilimitado a Doutrina com o plano Pesquisa Jurídica Avançada e mais:

  • Busca por termos específicos em uma biblioteca com mais de 1200 livros.
  • Conteúdo acadêmico de autores renomados em várias especialidades do Direito.
  • Cópia ilimitada de Jurisprudência, Modelos, Peças e trechos de Doutrina nas normas ABNT.
Ilustração de computador e livro
Comparar planos
jusbrasil.com.br
17 de Junho de 2024
Disponível em: https://www.jusbrasil.com.br/doutrina/secao/capitulo-5-algoritmos-e-decisoes-automatizadas-buscando-a-conformidade-com-a-lgpd-estudos-sobre-privacidade-e-protecao-de-dados/1353726869