O grupo, composto por três ingleses e um português, através de seus advogados, ingressaram com uma ação judicial em Amsterdã, local onde a Uber mantém seus servidores com informações de todos os usuários, alegando que quando a empresa permite que decisões desse tipo sejam tomadas de forma automática, se utilizam somente algoritmos não muito claros, fato que fere gravemente artigos da GDPR (Regulamento Geral de Proteção de Dados), que nada mais é que a LGPD europeia.
Na realidade, vale o relevante destaque de que a LGPD é que deve ser chamada de “GDPR brasileira”, já que nossa lei é posterior e deriva da lei europeia em quase tudo.
Feito o devido apontamento, a GDPR em seu artigo 22 nos traz que “o titular dos dados tem o direito de não ficar sujeito a nenhuma decisão tomada exclusivamente com base no tratamento automatizado [...]”.
Ou seja, não é necessário muito esforço para entender que estamos diante de uma orientação expressa no sentido de que decisões automatizadas, leia-se, sem qualquer intervenção humana, estão proibidas, especialmente se as mesmas levarem à consequências negativas.
No caso, não há dúvidas que as decisões tomadas de forma automática pelo aplicativo Uber resultaram em consequências gravíssimas, qual seja, a perda da manutenção do trabalho por parte dos quatro motoristas.
Não bastasse, vale mencionar ainda que referida exclusão automática, além de proibida expressamente pelo regulamento europeu, impossibilita que os excluídos possam contestar a decisão, na medida que sequer sabem os motivos ocasionadores.
Segundo declarou um dos advogados responsáveis pelo processo, Anton Ekker, “sabemos com certeza que a Uber está utilizando algoritmos para decisões sobre fraude e desativação de motoristas. Isso está acontecendo em todo lugar”.
E complementa, “se for uma tomada de decisão automatizada, a GDPR diz que eles devem ter base legal para usar essa tecnologia e devem dar aos motoristas a possibilidade de contestar uma decisão automatizada, o que eles claramente não fizeram”.
E no Brasil, se isso ocorrer (e olhe lá se já não ocorre), quais seriam as consequências? A LGPD menciona algo? Permite? Proíbe? É igual na Europa?
Sim a LGPD menciona. Sim a LGPD proíbe! Mas não é igual na Europa.
Vamos lá!
Certa vez eu mencionei que a LGPD é o famoso “copia, mas não faz igual” da GDPR, e esse é um dos casos clássicos. Explico!
Em seu artigo 20, a LGPD traz em sua redação que “o titular dos dados tem direito a solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses [...]”.
Em palavras mais simples, se a UBER decidir por desligar algum de seus motoristas, com base unicamente em decisões automatizadas de seu aplicativo ou de sua plataforma, sem qualquer possibilidade de revisão e/ou questionamento, isso fere a LGPD.
Antes de encerrar, no intuito de colocar uma pimenta no assunto, pergunto: E quem fará essa revisão? Um humano ou uma máquina?
Veja que a GDPR tem uma resposta clara: um humano. Já a LGPD não traz clareza quanto ao tema, visto que, nesta, fala-se somente em revisão da decisão automatizada, sem apontar quem ou o que será o revisor.
E você, como você acha que essas decisões serão tomadas aqui no Brasil?
Conforme amplamente veiculado na Europa, quatro motoristas estão processando a UBER sob a alegação de que foram desligados da plataforma de maneira automática, ou seja, por consequência de “decisões automatizadas”, os mesmos perderam a possiblidade de continuar realizando corridas através do aplicativo.