Pular para conteúdo
EMERJ

Escola da Magistratura do Estado do Rio de Janeiro

ícone da bandeira que traduz para o idioma Espanhol ícone da bandeira que traduz para o idioma Francês ícone da bandeira que traduz para o idioma Inglês ícone da bandeira que traduz para o idioma Português
Facebook da EMERJ Instagram da EMERJ Youtube da EMERJ Flickr da EMERJ TikTok da EMERJ Spotify da EMERJ logo Threads  LinkedIn da EMERJ
Imagem da Fachada da EMERJ

Magistrados

Magistrados

Eventos

Eventos

Cursos Abertos

Cursos Abertos

Publicações

Publicações

Portal do Aluno

Portal do Aluno

Concursos EMERJ

Concursos EMERJ

EMERJ Virtual

EMERJ Virtual

Núcleos de Pesquisa

Núcleos de Pesquisa

Fale Conosco

Fale Conosco

ES | FR | EN | BR
 
Fale Conosco
Facebook da EMERJ Instagram da EMERJ YouTube da EMERJ Flickr da EMERJ TikTok da EMERJ Spotify da EMERJ logo Threads  LinkedIn da EMERJ

EMERJ realiza webinar Inteligência Artificial e os Vieses de Gênero e Raça

Ícone que representa audiodescrição

O Fórum Permanente de Violência Doméstica, Familiar e de Gênero, o Núcleo de Pesquisa em Gênero, Raça e Etnia (NUPEGRE), ambos da Escola da Magistratura do Estado do Rio de Janeiro (EMERJ), e a Escola Nacional de Formação e Aperfeiçoamento de Magistrados (Enfam) promoveram, nesta quarta-feira (14), o webinar Inteligência Artificial e os Vieses de Gênero e Raça.

O encontro teve transmissão via plataforma Zoom, com tradução simultânea para a Língua Brasileira de Sinais (Libras).

Abertura

O diretor-geral da EMERJ, desembargador Cláudio Luís Braga dell’Orto, destacou: “Eu presido a Comissão de Gestão de Inteligência Artificial do Tribunal de Justiça do Estado do Rio de Janeiro (TJRJ), e temos desenvolvido um trabalho significativo com toda a equipe, que está criando, inclusive, uma ferramenta chamada ASSIS, um assistente de inteligência artificial a ser utilizado pelos juízes. É com essa preocupação, alinhada à Resolução nº 615 do Conselho Nacional de Justiça (CNJ) — que é recente, mas oferece diretrizes importantes — que nos orientamos, especialmente quanto às questões éticas e à auditoria dos sistemas de inteligência artificial. Esse parece ser um problema muito sério e é necessário que os sistemas sejam auditados com certa frequência, para que possamos examinar como está sendo realizado o treinamento dessas ferramentas. As máquinas aprendem com o que lhes ensinamos, e os comandos, os prompts e todos os dados inseridos e utilizados pela ferramenta podem conter vieses, refletindo as intenções, conscientes ou não, de quem faz esse treinamento. Portanto, essa auditoria, prevista na Resolução nº 615, é essencial. A supervisão humana permanente é fundamental para que essas ferramentas permaneçam como o que são: mais um instrumento a serviço da inteligência e do desenvolvimento humano, capaz de atender ao compromisso constitucional de promover a dignidade de todas as pessoas. Assim, evitar o viés de raça e de gênero é fundamental no treinamento das ferramentas de inteligência artificial, e nós temos essa preocupação, assim como o Comitê Gestor de Inteligência Artificial do TJRJ, que também está muito atento a essa questão.”

A presidente do fórum e coordenadora do NUPEGRE, desembargadora Adriana Ramos de Mello, professora do Mestrado Profissional da Enfam, pontuou: “Nós tivemos, recentemente, uma alteração legislativa. Claro que o aumento de pena não é o ideal, nós nunca desejamos penas mais severas, pois esse não é o objetivo, mas é importante destacar que, no dia 24 de abril, foi aprovada a Lei nº 15.123, que prevê um aumento de pena para o crime de violência psicológica, um crime que afeta profundamente as mulheres, especialmente com o uso da inteligência artificial. Muitas vezes vemos meninas sendo atingidas por esse tipo de violência: imagens manipuladas e divulgadas por meio de inteligência artificial. Nós queremos utilizá-la para o bem, para melhorar nossa atuação e nossa prática profissional. No entanto, infelizmente, algumas pessoas a usam para prejudicar, para discriminar mulheres, a população negra e a população LGBTQIAPN+. Ontem foi 13 de maio e mais do que comemorar a abolição da escravatura — pois não é disso que se trata —, é preciso reconhecer que os resquícios coloniais da escravidão ainda persistem. Isso não foi rompido. E, infelizmente, vemos a inteligência artificial sendo usada para praticar atos discriminatórios e, eu diria, criminosos, especialmente contra as mulheres. Por isso, essa legislação veio em boa hora.”

Expositores

A juíza federal no Rio de Janeiro, presidente do Comitê Gestor de Proteção de Dados do Tribunal Regional Federal da 2ª Região (TRF2) e representante do TRF2 para a LGPD no Conselho da Justiça Federal (CJF), Caroline Somesom Tauk, ressaltou: “O que significa o termo ‘discriminação algorítmica’ ou ‘viés algorítmico’? São os erros nas decisões geradas por algoritmos, quando o resultado produzido por uma máquina carrega algum tipo de preconceito, erro ou viés. Isso é a discriminação algorítmica: um resultado enviesado e discriminatório. De forma bem simples, o resultado gerado pela máquina reflete valores humanos implícitos, seja nos dados utilizados para o treinamento da máquina, seja na própria programação. Por exemplo, se o conjunto de dados usado para treinar a máquina contém padrões marcados por desigualdade racial ou por vieses de gênero, esses padrões tendem a ser reproduzidos pela máquina, gerando um resultado discriminatório ou indevido. Isso é o que chamamos de discriminação algorítmica. Portanto, o problema nos dados é uma das hipóteses mais comuns. Uma outra possibilidade, menos frequente, é quando o viés está na programação em si. A construção do algoritmo pode ter sido enviesada, de forma consciente ou inconsciente, pelo programador. No entanto, os estudos em geral apontam que a maioria dos problemas ocorre nos dados.”

A juíza do Tribunal de Justiça do Paraná (TJPR) e pesquisadora em Inteligência Artificial Camila Henning Salmoria relatou: “Os sociólogos têm discutido o uso do termo ‘discriminação algorítmica’. Afinal, será mesmo o algoritmo que discrimina? Como afirmou a juíza federal Caroline Somesom Tauk, o algoritmo não discrimina sozinho, sempre há um fator humano envolvido, e esse fator, sobretudo, é a reprodução de padrões históricos. O problema é que os dados são históricos: coletamos esses dados no passado e os tratamos hoje, mas eles continuam reproduzindo padrões de desigualdade. Na verdade, os dados funcionam como um espelho da desigualdade, refletindo uma exclusão sistemática que acaba impactando os resultados dos algoritmos. Questões de gênero e raça são especialmente relevantes, mas há também outras, como o etarismo e a discriminação de populações minoritárias. Mesmo quando retiramos variáveis como gênero ou raça, a inteligência artificial ainda consegue discriminar, pois é capaz de detectar padrões. Ela faz cálculos matemáticos, e, embora a matemática em si seja neutra, os dados não são; eles incorporam nossos valores e preconceitos. A partir disso, a saída do algoritmo acaba sendo enviesada.”

A advogada e conselheira estadual da Ordem dos Advogados do Brasil - Seção do Paraná (OAB/PR) Danisléia da Rosa concluiu: “O conhecimento é poder, e o poder, ao longo da história, tem sido branco, assim como o Direito, que foi criado por homens brancos e para homens brancos. Nós evoluímos bastante e, hoje, além de nós, mulheres, sermos maioria na população brasileira, também somos maioria na advocacia. Precisamos trazer esse olhar de gênero e raça para a advocacia, para o Judiciário e para as nossas discussões sobre inteligência artificial. Como a nossa sociedade tem problemas estruturais, a tecnologia que a reflete não é neutra: ela carrega as marcas de quem a criou e as cicatrizes de quem a sofre. E essas cicatrizes têm sido suportadas, principalmente, pelas mulheres, pelas mulheres negras e pela população negra. O nosso papel é ter um olhar ético para as questões sociais e jurídicas e refletir sobre o que podemos melhorar como pessoas e como sociedade. Gostaria de encerrar com uma frase de Ruha Benjamin: ‘As tecnologias podem ser usadas tanto para perpetuar desigualdades quanto para desmantelá-las’.”

Assista

Para assistir na íntegra, acesse: https://www.youtube.com/watch?v=bMmRVmQvLjg

 

Fotos: Maicon Souza

14 de maio de 2025

Departamento de Comunicação Institucional (DECOM)