Revista da EMERJ - V.25 - n.1 - Janeiro/Abril - 2023
R. EMERJ, Rio de Janeiro, v. 25, n. 1, p. 105-129, Jan.-Abr. 2023 114 moral aptitude will not be improved or corrected by incorpo- rating those methods into algorithms. Systems that promise to “assess criminality” or assess a job applicant’s candidacy for the position will only reify existing inequality by provi- ding a supposedly scientific justification for discrimination. 88 Studies have found that (...) these systems introduce an addi- tional form of racial bias by misinterpreting the facial expres- sions of Black people, 90 generally providing them with more negative scores on average than people of other ethnicities. 2 Cada vez mais a análise preditiva e a inteligência artificial são utilizadas na persecução penal, e essas técnicas têm impactos profundos na vida das pessoas envolvidas, como se verifica na aplicação de benefícios no cumprimento da pena pelo juízo da execução penal. Na direção dos trabalhos que defendem a apli- cação dessas técnicas (Siegel, 2018; Corbett-Davies; Goel; Gon- zález-Bailón, 2017), muito se divulga sobre a potencialidade de a análise automatizada de dados tornar a tomada de decisão no processo penal mais objetiva, consistente, rigorosa, neutra e sem a colocação de valoração pessoal na decisão. No entanto, conforme refere Shapiro (2019), ao se investi- gar criticamente esses sistemas, verifica-se que essas são reivin- dicações de justiça que não se sustentam. A análise preditiva que se utiliza de dados já enviesados torna essa análise limitada e tendenciosa, fazendo com que o poder público volte a atenção da atuação policial para as comunidades que já são mais policiadas, enquanto causas subjacentes do crime – como a falta de investi- mento naquelas pessoas e a pobreza – são ignoradas. Os Estados Unidos é um país que utiliza muito a inteligên- cia artificial no sistema judiciário local – são mais de sessenta ferramentas de avaliação de risco utilizadas atualmente. Essas 2 “As tentativas de inferir atributos pessoais ou emoções a partir da expressão facial de alguém também convidam a invasões de privacidade e discriminação. 87 A longa e feia história de tentativas pseudocientíficas de conectar a aparência física à aptidão mental e moral não será melhorada ou corrigida pela incorporação daqueles métodos em algoritmos. Sistemas que prometem ‘avaliar a criminalidade’ ou avaliar a candidatura de alguém a uma vaga de trabalho só irão reafirmar a desigualdade existente ao fornecer uma justificativa supostamente científica para a discriminação. 88 Estudos descobriram que (...) esses sistemas introduzem uma forma de preconceito racial ao interpretar mal as expressões faciais de pessoas negras, 90 geralmente fornecendo-lhes pontuações mais negativas, em média, do que as pessoas de outras etnias.” (tradução nossa)
Made with FlippingBook
RkJQdWJsaXNoZXIy NTgyODMz