Revista da EMERJ - V.25 - n.1 - Janeiro/Abril - 2023

 R. EMERJ, Rio de Janeiro, v. 25, n. 1, p. 105-129, Jan.-Abr. 2023  117 pelo qual não consegue adaptar a forma de construir as diferentes decisões (Andrés, 2019) a partir das mudanças de um cenário para o outro quando há circunstâncias nos autos tão importantes quan- to a objetividade da definição do enquadramento dos fatos. Por isso, tende a produzir decisões fossilizadas (Fenoll, 2018). O Parlamento Europeu já se manifestou pela necessidade de que a inteligência artificial e as demais técnicas computacio- nais de extração, de análise e de manipulação de dados tenham de respeitar plenamente os direitos fundamentais consagrados na Carta dos Direitos Fundamentais da União Europeia, assim como a Legislação da União Europeia sobre a privacidade e proteção de dados, especialmente a Diretiva da União Europeia nº 2016/680. O Parlamento Europeu também já destacou a necessidade de que os algoritmos sejam desenvolvidos aplicando-se na codi- ficação e em todo o ciclo de vida dos mesmos vários princípios básicos. Dentre os quais destacam-se a aplicabilidade algorítmi- ca e a transparência, a rastreabilidade, a implementação obriga- tória de constantes avaliações de impacto do algoritmo sobre os direitos fundamentais antes da aplicação ou da implantação de qualquer sistema que se utilize de inteligência artificial e o de- sempenho de auditorias obrigatórias nesses sistemas. Conforme expressa Escobedo, Meza e Trejo (2020), as rela- ções intrínsecas que estão presentes nos dados refletem estruturas por vezes não explícitas numa sociedade, como a discriminação. Por conseguinte, uma ferramenta que aprenda sobre tais dados tenderá a apresentar resultados igualmente discriminatórios. A União Europeia tem reafirmado para a sociedade que o ponto de partida e a premissa ética para se desenvolver e se utilizar a inteli- gência artificial é a dignidade humana e os direitos fundamentais. No trabalho de Gutierrez (2021), o autor destaca que uma das situações que torna difícil o combate da discriminação algo- rítmica é o fato de que as pessoas costumam perceber aquilo que é automatizado – como as decisões produzidas por algoritmos – como mais justas do que as que são produzidas pelos seres hu- manos. Isso também deriva do fato de que as empresas tentam

RkJQdWJsaXNoZXIy NTgyODMz