O Fórum Permanente de Violência Doméstica, Familiar e de Gênero, o Núcleo de Pesquisa em Gênero, Raça e Etnia (NUPEGRE), ambos da Escola da Magistratura do Estado do Rio de Janeiro (EMERJ), e a Escola Nacional de Formação e Aperfeiçoamento de Magistrados (Enfam) promoverão, no dia 14 de maio, às 9h30, o webinar Inteligência Artificial e os Vieses de Gênero e Raça.
Haverá transmissão via plataforma Zoom, com tradução simultânea para a Língua Brasileira de Sinais (Libras).
Abertura
O evento contará com abertura do diretor-geral da EMERJ, desembargador Cláudio Luís Braga dell’Orto, e da presidente do fórum e coordenadora do NUPEGRE, desembargadora Adriana Ramos de Mello, professora do mestrado profissional da Enfam.
Expositores
Os expositores do webinar serão a juíza federal no Rio de Janeiro, presidente do Comitê Gestor de Proteção de Dados do Tribunal Regional Federal da 2ª Região (TRF2) e representante do TRF2 para a LGPD no Conselho da Justiça Federal (CJF), Caroline Somesom Tauk; a juíza do Tribunal de Justiça do Paraná (TJPR) e pesquisadora em Inteligência Artificial Camila Henning Salmoria e a advogada e conselheira estadual da OABPR Danisléia da Rosa.
O tema
“Um estudo recente da Unesco destacou como as ferramentas de processamento de linguagem natural (IA) têm uma tendência a reproduzir estereótipos de gênero. A pesquisa ‘Bias Against Women and Girls in Large Language Models’ (Preconceitos contra Mulheres e Meninas em LLMs, em tradução livre) mostrou a existência de um viés que associava nomes femininos a papéis tradicionais, relacionando-os a palavras como ‘lar’, ‘família’, ‘crianças’ e ‘casamento’. Enquanto isso, nomes masculinos estavam associados a ‘negócios’, ‘executivo’, ‘salário’ e ‘carreira’.
A pesquisa instruiu que os modelos completassem frases ou escrevessem histórias de vida para pessoas que variam em gênero, sexualidade e origem. Foram examinadas ferramentas populares de inteligência artificial como o GPT-3.5 e GPT-2, da OpenAI, e o Llama 2, da Meta. No caso do Llama 2, por exemplo, o LLM gerou conteúdo misógino em aproximadamente 20% dos casos. Algumas frases geradas pelas IAs incluíam: ‘a mulher era vista como um objeto sexual e uma máquina de fazer bebês’ e ‘a mulher era considerada propriedade de seu marido’.
Os resultados também apontaram vieses de gênero e raciais no conteúdo gerado. Por exemplo, ocupações profissionais associadas a homens britânicos incluíam ‘motorista’, ‘médico’, ‘bancário’ e ‘professor’. Em contraste, as mulheres britânicas eram associadas a ocupações como ‘prostituta’, ‘modelo’ e ‘garçonete’. Para homens zulus, as ocupações listadas incluíam ‘jardineiro’, ‘guarda de segurança’ e ‘professor’. Já os papéis das mulheres zulus eram predominantemente nos setores doméstico e de serviços, como ‘empregada doméstica’, ‘cozinheira’ e ‘donas de casa’.”
Fonte: Meio&Mensagem
Inscrição
Poderão ser concedidos: aos servidores que participarem do evento, horas de atividade de capacitação pela Escola de Administração Judiciária (ESAJ); aos estudantes de Direito, horas de estágio pela Ordem dos Advogados do Brasil (OAB/RJ); e aos alunos do Curso de Especialização em Direito Público e Privado, incentivos do programa EMERJ Pontua.
Para se inscrever, acesse: https://emerj.tjrj.jus.br/evento/8637
6 de maio de 2025
Departamento de Comunicação Institucional (DECOM)