De acordo com postagem no site da DPE-RJ:
O racismo algorítmico é resultado da reprodução de práticas racistas da sociedade por meio da tecnologia, o que amplifica desigualdades. De acordo com o Panóptico, instituição que monitora o reconhecimento facial no Brasil, o país utiliza tecnologias de reconhecimento facial na área de segurança pública oficialmente desde 2018. Até 2021, a tecnologia já era adotada por vinte estados brasileiros. No entanto, a eficácia do reconhecimento facial é alvo de debates, sobretudo pela quantidade de falsos positivos para criminosos diante de rostos negros, o que acende o debate sobre o racismo algorítmico. (disponível em https://defensoria.rj.def.br/noticia/detalhes/29955-Erro-em-reconhecimento-facial-constrange-psicologa-em-conferencia)
O tema foi cobrado na prova prática da DPE-BA:
Lorena da Silveira é usuária de um aplicativo de relacionamentos organizado pela empresa “Tincontrei”, sediada na capital soteropolitana. Todavia, está insatisfeita com os perfis de usuários apresentados pelo aplicativo como compatíveis com o seu.
Ela é negra e reside em um bairro pobre na região metropolitana de Salvador-BA, e apresentava dúvidas quanto a quais dados pessoais e sensíveis o aplicativo tem acesso para sugerir os perfis correspondentes, além de perceber que usuárias brancas e que moram em outras regiões da cidade não passaram pelo mesmo problema.
Diante dessa situação, a Defensoria Pública fez um levantamento no qual observou que o aplicativo obteve acesso a informações de caráter pessoal, dentre elas, diversos dados sensíveis não fornecidos pela usuária, tais como religião e ideologia política.
De posse de tais documentos, Lorena, por meio do órgão de atuação da Defensoria Pública da Bahia, ajuizou ação pelo procedimento comum, na qual pleiteia obrigação de fazer (apresentação dos dados pessoais constantes dos bancos de dados, apresentação dos códigos-fonte do aplicativo e exclusão de dados sensíveis coletados sem autorização da autora), cumulada com pedido indenizatório pelos danos sofridos, inclusive em razão de discriminação racial.
A petição inicial foi recebida pelo juiz do primeiro Ofício Cível da Comarca de Salvador, que determinou a citação da ré e deixou de designar audiência de conciliação, por se tratar de direito indisponível.
A empresa, após citada, apresentou contestação, onde alegou que o perfilamento é feito por um algoritmo desenvolvido por machine learning (aprendizado de máquinas), de modo que não tem qualquer interferência da empresa.
Alegou que não seria obrigada a fornecer as informações requeridas, pois estariam albergadas pelo sigilo empresarial.
Alegou, ainda, inexistir qualquer discriminação racial ou violação ao sigilo de dados, impugnando todos os pedidos feitos pela parte autora.
Após a contestação, o juiz indeferiu os meios de provas postulados pela autora e julgou antecipadamente o mérito, por entender que não haveria necessidade de produção de provas, e julgou improcedentes os pedidos.
Argumentou o magistrado que a empresa privada não pode ser obrigada a fornecer tais informações solicitadas e que não haveria como responsabilizar a empresa por um ato de um robô (algoritmo desenvolvido por machine learning).
A Defensoria Pública opôs embargos de declaração em face da decisão, porém foram rejeitados.
A intimação foi disponibilizada à Defensoria no Portal Eletrônico em 1º de setembro de 2021 e efetivamente recebida pelo/a defensor/a em 08 de setembro de 2021.
Diante dessa situação, na condição de defensor/a público/a, elabore o recurso cabível para a impugnação da decisão, destacando o cabimento e a tempestividade do recurso, bem como as prerrogativas aplicáveis.
Espelho:
(retirada partes processuais aqui – colocada apenas a menção ao racismo algorítimo)
C – Mérito: dever de prestar informações (aplicabilidade do Código de Defesa do Consumidor à hipótese); disposições da LGPD; identificação da situação racismo estrutural e viés algorítmico. Fundamentos constitucionais (art. 3o, incisos I e IV; art. 5o, caput, da Constituição). Proteção no âmbito internacional global: Convenção Internacional sobre a Eliminação de todas as Formas de Discriminação Racial. No plano interno, violação aos dispositivos da Lei Geral de Proteção de Dados. Identificação de dados sensíveis (art. 5o, II, da LGPD) e da proteção ao tratamento de tais dados sem o consentimento expresso (art. 11, inciso I, da LGPD); direito de acesso aos dados e exclusão dos dados (art. 18, II, IV, da LGPD). Racismo cibernético – responsabilização dos controladores por reparar o dano. Art. 927, parágrafo único do Código Civil de 2002; art. 14, do Código de Defesa do Consumidor e art. 42, da LGDP.
Cobrado na objetiva MPE-PA-2023-CESPE(adaptada):
- O uso de algoritmos, de inteligência artificial, de reconhecimento facial e de outras tecnologias é uma reivindicação das instituições sociais negras, porque esses recursos eliminam a possibilidade de erro de reconhecimento de procedimento fotográfico e diminuem os riscos de aprofundamento do racismo, da discriminação racial, da xenofobia e, consequentemente, das violações de direitos humanos.