Pular para conteúdo
EMERJ

Escola da Magistratura do Estado do Rio de Janeiro

ícone da bandeira que traduz para o idioma Espanhol ícone da bandeira que traduz para o idioma Francês ícone da bandeira que traduz para o idioma Inglês ícone da bandeira que traduz para o idioma Português
Facebook da EMERJ Instagram da EMERJ X Twitter da EMERJ Youtube da EMERJ Flickr da EMERJ TikTok da EMERJ Spotify da EMERJ logo Threads  LinkedIn da EMERJ
Imagem da Fachada da EMERJ

Magistrados

Eventos

Cursos Abertos

Publicações

Portal do Aluno

Concursos EMERJ

EMERJ Virtual

Núcleos de Pesquisa

Fale Conosco

ES | FR | EN | BR
 
Fale Conosco
Facebook da EMERJ Instagram da EMERJ X Twitter da EMERJ YouTube da EMERJ Flickr da EMERJ TikTok da EMERJ Spotify da EMERJ logo Threads  LinkedIn da EMERJ

EMERJ promove encontro “Inovações tecnológicas e seus impactos nos diferentes ramos do Direito”

O Fórum Permanente de Inovações Tecnológicas no Direito da Escola da Magistratura do Estado do Rio de Janeiro (EMERJ) realizou nessa sexta-feira (15) sua 4ª reunião, com o encontro “Inovações tecnológicas e seus impactos nos diferentes ramos do Direito”.

O evento aconteceu presencialmente no Auditório Desembargador Paulo Roberto Leite Ventura, com transmissão via plataforma Zoom e tradução simultânea (inglês-português e espanhol-português) e para a Língua Brasileira de Sinais (Libras).

Abertura

O desembargador Cláudio Luís Braga Dell’Orto, vice-presidente do Conselho Consultivo da EMERJ e mestre em Ciência Penais pela Universidade Cândido Mendes (UCAM), destacou em sua fala de abertura da reunião: “As inovações tecnológicas são fundamentais para que nós possamos, de fato, alcançar essa finalidade de pacificação das relações sociais. É o que todos nós desejamos”.

“A EMERJ sempre foi e é uma escola avançada, uma escola que pensa o futuro. Desde a sua fundação, ela tem essa belíssima característica. O que vai acontecer com as próximas gerações? O que vai acontecer com o Direito do futuro? Este evento nada mais é do que uma continuidade natural desta evolução que a EMERJ se propõe desde a sua fundação e que jamais perdeu o rumo em todas as administrações que se sucederam”, reforçou o desembargador Henrique Carlos de Andrade Figueira, vice-presidente e corregedor do Tribunal Regional Eleitoral do Rio de Janeiro (TRE-RJ).

O presidente do Fórum, juiz Anderson de Paiva Gabriel, doutor em Direito Processual pela Universidade do Estado do Rio de Janeiro (Uerj), finalizou: “Estou muito orgulhoso porque hoje temos palestrantes de três continentes e sete países diferentes, para debater um tema que cada vez mais presente em todos os países do mundo. Os desafios impostos pela tecnologia são similares em todos os países e é por isso que analisarmos de forma comparada os esforços que cada país e que cada escola do Direito vem fazendo, contribui para que possamos avançar de uma maneira mais rápida e superar esses desafios”.

Palestra Inaugural

A primeira palestra do encontro foi realizada por Nathaniel Persily, professor da Stanford Law School, que declarou: “As novas ferramentas de Inteligência Artificial permitem que as pessoas criem novas formas de comunicação, de conteúdo, de maneiras que nunca pensamos serem possíveis. E estas ferramentas não são privilégio apenas de algumas pessoas, estão agora abertas a todos nós”.

“Existem alguns desafios comuns que acho que nós, como advogados, precisamos ter em mente. O primeiro é que quando falamos sobre a internet, as mídias sociais ou agora o advento da Inteligência Artificial, essas novas tecnologias dissolvem ou desafiam as noções tradicionais de jurisdição soberana. Vimos isso, é claro, com o aumento da internet, mas também vemos isso nas redes sociais, onde há diversos problemas que vão além das fronteiras. A segunda, penso que é um fenômeno que caracteriza muitas destas novas tecnologias que são relevantes para o Direito, é que há uma mudança da adjudicação pública para a adjudicação privada, por isso grande parte da controvérsia relativa à tecnologia é na verdade decidida por entidades privadas em oposição a entidades públicas formais. Se pensarmos no exemplo de algo como o conselho de supervisão do Facebook. Agora, o Facebook toma mais decisões sobre discurso em um dia do que a Suprema Corte dos Estados Unidos tomou em toda a sua história. E isso ocorre porque a maioria dessas decisões é realmente tomada por computadores e não por pessoas, porque é automatizada e filtrada logo no momento do discurso. Isso leva ao terceiro ponto: não só estamos a quebrar as fronteiras nacionais, não só estamos transferindo a tomada de decisões para entidades privadas, mas também estamos a transferir para os computadores. Muitas dessas tomadas de decisão estão passando de humanos para máquinas. Sendo assim, as regras que regem essas máquinas são, de certa forma, mais importantes do que a lei formal e essas regras não são necessariamente escritas por legisladores ou juízes, são escritas por engenheiros. Portanto, as decisões tomadas no desenvolvimento desse código têm implicações mundiais. Veremos grande parte dessa transformação em diferentes cenários jurídicos, por exemplo, propriedade intelectual, atos ilícitos e contratos, Direito Penal, lei de concorrência antitruste e também liberdade de expressão”, prosseguiu Nathaniel Persily.

O professor da Stanford Law School frisou em sequência: “Alguns dos benefícios são que as ferramentas de Inteligência Artificial serão capazes de fornecer serviços jurídicos a um grupo de pessoas muito mais amplo do que aquele que atualmente consegue tirar vantagens. Serão capazes de sintetizar materiais jurídicos complexos e produzir rapidamente os primeiros rascunhos. Quando você lida com uma grande quantidade de documentos, a Inteligência Artificial será absolutamente essencial para detectar fraudes, erros e anomalias. Mas também existem riscos significativos. A questão da alucinação é uma delas. A confiança excessiva nos sistemas de Inteligência Artificial é outra. Quanto mais tivermos estes tipos de ferramentas, mais penso que as pessoas vão confiar, e talvez confiar em demasiado, e isso estará removendo o elemento humano. Por isso é absolutamente crítico termos uma revisão humana desses julgamentos. Além disso, esses tipos de sistemas não são fáceis de entender, em muitos aspectos mesmo as pessoas que os desenvolvem às vezes não entendem como eles surgem, e, portanto, há uma falta de transparência e explicabilidade, o que é absolutamente crítico para a prática do Direito. Finalmente, os seus efeitos serão significativos no mercado de trabalho legal. Certos tipos de advogados, especialmente os mais jovens, são empregos que desaparecerão como em qualquer outra área”.

“Parte da razão pela qual ando pelo mundo falando sobre isso é que deve ser um esforço internacional tentar explorar e entender essas tecnologias. Obrigado por me convidar aqui hoje e espero que possamos nos unir na tentativa de regular essas tecnologias”, encerrou Nathaniel Persily.

1º Painel – Direito Constitucional: o direito fundamental à proteção de dados

Gernot Posch, magistrado na Áustria, pontuou: “Para compreender plenamente o quadro europeu de proteção de dados, é importante saber que existem, principalmente, três forças jurídicas em julgamento. Em primeiro lugar, o nível doméstico, que ficou um pouco atrás nos últimos anos. Em segundo lugar, a Convenção Europeia dos Direitos Humanos. Em terceiro lugar, a legislação da União Europeia”.

“O artigo oito da Carta dos Direitos Fundamentais da União Europeia estabelece o direito à proteção de dados para todas as pessoas e define que os dados pessoais devem ser tratados para fins específicos, com base no consentimento da pessoa em questão ou em outro fundamento legítimo. O direito à proteção de dados prevê também o acesso aos dados e o direito de retificação. O controle está sujeito a uma autoridade independente”, disse o magistrado da Áustria.

Em sequência, afirmou: “Na perspectiva dos juízes, os efeitos das regras de proteção de dados, as competências mais importantes, são definitivamente o controle das decisões da autoridade supervisora pelos Tribunais Administrativos e, posteriormente, pelas Cortes Constitucionais ou a Corte Internacional. A segunda é a atuação do próprio tribunal e da sua capacidade jurisdicional. A terceira é a cooperação com outras autoridades ou cortes”.

“Uma coisa que quero acrescentar neste contexto é que qualquer Inteligência Artificial utilizada no Judiciário será qualificada como sistema de risco. Isso significa que todos esses sistemas que serão implementados no Judiciário terão que passar pelas verificações de qualidade e também pelas regulamentações que serão estabelecidas”, concluiu Gernot Posch.

O advogado Gabriel Soares da Fonseca, ex-chefe de gabinete da presidência do Supremo Tribunal Federal (STF), salientou: “O Supremo Tribunal Federal (STF), como quase todos os tribunais, mas acredito que, especificamente, por ser a jurisdição constitucional, tem uma função dúplice em relação ao Direito Fundamental à Proteção de Dados. De um lado, em uma seara mais administrativa, defende o Direito Fundamental implementando a Lei Geral de Proteção de Dados Pessoais (LGPD) e seus procedimentos e processos. Mas hoje vou tratar também da segunda função do STF relacionado ao aspecto jurisdicional na proteção e tutela desse Direito Fundamental”.

“Hoje temos uma ferramenta prevista na lei que possibilita que as pessoas façam esse monitoramento e que o próprio poder público faça esse monitoramento. Então, o que significa esses dados em Inter operável e estruturado? Significa que o poder público deve ter dados abertos que sejam passiveis de compartilhamento e que sejam possíveis de serem analisados de forma desagregada. E por que isso é importante? Porque quando conseguimos analisar dados de forma desagregada, conseguimos avaliar impactos que eventualmente não conseguimos perceber se olharmos os dados de forma agregada e geral”, encerrou a defensora pública do Rio de Janeiro Beatriz Cunha, assessora da presidência do STF.

O juiz Anderson de Paiva Gabriel conduziu a presidência.

2º Painel – Direito Processual: acesso à justiça na Era Digital e os limites ao emprego de ODR e Visual Law

O membro do Fórum, desembargador Humberto Dalla Bernardina de Pinho, professor da Uerj, da Universidade Estácio de Sá (Unesa) e do Instituto Brasileiro de Mercado de Capitais (IBMEC), destacou: “Essa digitalização está nos arrastando para o mundo virtual. Até porque, como foi dito pelo professor Nathaniel, a tecnologia evolui mais rápido do que a lei e eu pegaria esse gancho para dizer que os sistemas de resolução de conflitos evoluem mais rápido do que o sistema judicial. Nenhum Poder Judiciário de nenhum país do mundo, conseguiria resolver um conflito com a mesma rapidez do que as plataformas resolvem. O problema é, qual é qualidade desse serviço que está sendo prestado, qual é o nível de comprometimento com os princípios constitucionais e qual é a garantia que o consumidor tem de que aquele acordo está sendo realizado com base nas mesmas premissas que seria no Poder Judiciário”.

“Essa imperatividade da tecnologia, essa impositividade, gera algumas consequências. A primeira, é de que nós, agentes tecnológicos, nos tornamos também sujeitos tecnológicos. Sujeitos no sentido de certa forma, estarmos submetidos a tecnologia. O que vai nos chamar atenção para uma necessária cautela no modo de lidar com a tecnologia, de uma agência tecnológica. Isso vai nos trazer uma preocupação adicional com a forma com que nós, agentes públicos, com a função de promover a jurisdição, temos que ter em relação ao uso da tecnologia”, afirmou o desembargador César Felipe Cury, presidente do Fórum Permanente de Justiça Multiportas, Mediação e Justiça Restaurativa da EMERJ, do Conselho Administrativo da Escola de Mediação (EMEDI) e do Núcleo Permanente de Métodos Consensuais de Solução de Conflitos (NUPEMEC), ambos do Tribunal de Justiça do Estado do Rio de Janeiro (TJRJ), e doutor em Direito pela Unesa.

Suraj Govind Raj, juiz da Corte Superior de Karnataka (Índia), frisou: “O acesso à justiça é algo que todos nós, em todas as jurisdições, em todos os países, procuramos, especialmente nos países em desenvolvimento. O futuro é brilhante e podemos fazer o que temos que ser e resolver os litígios num nível mais rápido, alcançando os litigantes trazendo-lhes justiça num nível mais rápido”.

“Na Índia, vivemos numa sombra de disputas não resolvidas. Mais de 16 milhões de novos casos são registrados a cada ano. Isso se torna um problema particularmente desafiador por conta do alto volume por novos processos, gerando restrições do sistema, bem como a economia da resolução de disputas, com custos mais elevados do que o governo pode conseguir. A resolução de litígios online torna-se particularmente relevante nesse cenário, mas existem limitações à forma como a resolução de litígios online funciona, especialmente os seus impactos no acesso à justiça”, concluiu a advogada Ayushi Singhal.

A presidência da mesa foi da advogada Flávia Penna Eyer Pimenta da Cunha, membra do Fórum Permanente de Inovações Tecnológicas.

3º Painel – Direito Constitucional: liberdade de expressão e democracia na Era Digital

A juíza Daniela Bandeira de Freitas, desembargadora eleitoral, diretora da Escola Judiciária Eleitoral do TRE-RJ (EJE/TRE-RJ), juíza auxiliar da presidência do TJRJ e mestra em Ciências Jurídico-Políticas pela Universidade de Lisboa, declarou: “Nós temos um problema, mas como nós podemos solucionar este problema da liberdade de expressão exponenciada, principalmente no mundo político? Porque, hoje, nós temos acesso a cerca de 40% da rede mundial de computadores. Nós não podemos nos esquecer da deep web, em que há uma liberdade de informações incontroláveis até pelo Estado e por nós mesmo, sociedade civil, em que se professa coisas que são indizíveis aqui, mas que sabemos que existe e precisamos pensar em quanto Estado e mundo jurídico democrático”.

“Os nossos princípios de democracia constitucional existentes são adequados ou suficientes em uma crescente sociedade em rede de dados? São os princípios constitucionais com que operamos atualmente suficientes para dar resposta às questões que se colocam numa sociedade cada vez mais interligada e indiscriminadamente baseada em dados? O papel assumido pelas plataformas digitais afeta também o pilar da democracia e das eleições justas das democracias constitucionais. Através do seu controle dos direitos fundamentais, das infraestruturas de comunicação e da micro-segmentação de conteúdos com base nos dados que recolhem, estas empresas podem aumentar a polarização e influenciar diretamente os resultados eleitorais. A Inteligência Artificial pode mostrar políticos dizendo ou fazendo coisas que nunca fizeram e o livre mercado de ideias não resolve o problema porque, no ciclo eleitoral rápido, a informação falsa pode alterar os resultados eleitorais sem que haja oportunidade para o mercado de ideias fazer o seu trabalho”, disse a membra do Fórum, professora Luna Van Brussel Barroso, LL.M. pela Yale Law School e mestra em Direito Público pela Uerj.

Luna Van Brussel Barroso prosseguiu salientando: “O receio público tem um papel fundamental na garantia da sustentabilidade da comunidade política democrática. Entre as pré-condições para a sobrevivência da política democrática está a de que os cidadãos se considerem participantes no processo de governança e tomada de decisões. E isso acontece através da liberdade de expressão e do receio público. No entanto, a Revolução Digital permitiu um aumento crescente dos abusos do discurso e da utilização do discurso como arma para atingir as minorias, as instituições e a própria democracia. Além disso, os intervenientes privados são agora inequivocamente capazes de controlar o que é dito e ouvido online”.

Francisco Balaguer Callejón, professor catedrático de Direito Constitucional da Universidade de Granada, finalizou: “As redes sociais têm um público universal. O Facebook e as outras redes sociais não são direcionadas a um público particular. O público do Facebook é toda a população brasileira e o Facebook não pode direcionar-se a uma posição ideológica particular. Como o Facebook e as outras redes sociais estão fazendo para poder se direcionar a um público universal e, ao mesmo tempo, continuar com uma posição ideológica precisa? Através dos algoritmos. São eles os responsáveis por oferecer para as pessoas conteúdos personalizados e individuais, de acordo com as suas pesquisas na internet. E isso vai provocar uma alimentação das próprias posições ideológicas e uma fragmentação do espaço público e essa fragmentação vai potencializar cada vez mais uma radicalização”.

O professor Nathaniel Persily também compôs a mesa do terceiro painel. A juíza Renata Gil, conselheira do Conselho Nacional de Justiça (CNJ) e ex-presidente da Associação dos Magistrados Brasileiros (AMB) e da Associação dos Magistrados do Estado do Rio de Janeiro (AMAERJ), realizou a presidência.

4º Painel – Direito Processual: as provas digitais

Osmar Paixão, professor do Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP) e doutor pela Pontifícia Universidade Católica de São Paulo (PUC-SP), afirmou: “Eu quero focar durante essa minha breve exposição na questão dos dados de geolocalização, que estão sendo cada vez mais usados como meio de provas. E o conflito que eventualmente surge por conta na utilização desses dados de geolocalização com a privacidade de intimidade no contexto da LGPD. Quando falamos em prova digital, falamos do fato que ocorre no meio digital e no fato que não ocorre no meio digital, mas que acaba depois se demonstrando no meio digital”.

“Primeiramente, nós precisamos entender que de um lado precisamos promover a manutenção do ordenamento jurídico e das regras jurídicas já vigentes em torno tanto do Direito como um todo e como do Direito Processual e especial da prova. Mas nós não podemos perder de vista que nós vivenciamos uma virada tecnológica no Direito, em face do fato de se permitir perceber que as tecnologias deixaram de cumprir um papel tão somente instrumental e elas começaram a promover uma mudança muito sensível do próprio modo como os institutos do Direito se articulam e como o Direito Processual, de um modo especifico, se articula”, reforçou Dierle Nunes, doutor pela Pontifícia Universidade Católica de Minas Gerais (PUC-MG).

O membro do Fórum João Sérgio dos Santos Soares Pereira, mestre em Direito pelo IDP, declarou: “O direito à prova, de buscar uma verdade no processo, comprovar fatos para convencimento do juiz, mas não só para o juiz, mas também para todos os agentes processuais, porque hoje em dia o processo é co-paticipativo. Então, o papel do juiz é importantíssimo, como sempre foi, mas o papel das partes também é essencial para que a decisão seja fundamentada e para que os argumentos sejam tomados em consideração. A partir disso, percebemos a importância de estarmos discutindo aqui hoje provas e, principalmente, provas digitais em mundo totalmente digital”.

“Tradicionalmente ver era crer. O que víamos era o que acreditávamos, mas agora surge a questão: por quanto tempo poderemos realmente acreditar no que vemos? Deepfakes, em algum momento, nos levarão a uma compulsão tecnológica. Para que não desqualifiquemos tecnicamente as informações como deepfakes, em alguns momentos chegamos à situação em que temos que qualificar tecnicamente autenticando as não falsificações. E isso implica que a tecnologia e por consequência as empresas de tecnologia se tornariam os guardiões do que deveríamos ou em que deveríamos confiar. Isso teria grandes consequências para as nossas sociedades e para a forma como interagimos como seres humanos”, explicou Christoph Curchard, LL.M. pela New York University (NYU) e professor da Goethe University.

O professor da Goethe University continuou: “Por que as deepfakes são problemáticos? Estamos vendo grandes inovações no que diz respeito ao desenvolvimento desta tecnologia. O primeiro é a democratização das deepfakes. Você encontrará facilmente aplicativos deepfakes que o ajudarão a produzi-las sem muito conhecimento técnico. Estamos vivenciando grandes passos à frente, a inovação está indo na direção das deepfakes interativos e composicionais e isto pode realmente levar a uma sociedade diferente. Não é apenas o problema que precisamos mostrar que um vídeo é falso, mas a outra direção é provar que é real. Uma vez que as deepfakes se espalharem, as pessoas não confiarão mais em seus sentidos, o que significa que mesmo o vídeo real pode realmente parecer falso. Portanto, o conteúdo autêntico será facilmente desqualificado. Isto, claro, está muito aberto a abusos políticos. Também está se tornando mais fácil construir esquemas criminosos com base nessas deepfakes. Agora, é muito fácil corromper o processo legal”.

“O que podemos fazer? Existem várias possibilidades. Penso que a primeira é que precisamos conscientizar mais o público em geral, mas também as profissões jurídicas, os advogados, juízes, procuradores, que agora terão de considerar se as provas ou informações são reais. Precisamos construir essa consciência e também trazê-la para as responsabilidades profissionais de todos os atores e órgãos da administração da justiça criminal. Os bons e velhos tempos, onde o que víamos era aquilo em que poderíamos acreditar estão chegando ao fim. A segunda abordagem é que podemos e devemos regular o uso e o acesso às deepfakes e à tecnologia que nos permite as produzir. Se não me engano, o Parlamento brasileiro está agora considerando medidas para criminalizar a produção de algumas deepfakes. No entanto, essas abordagens que vemos em muitas jurisdições é uma ação simbólica, que pode trazer alguns benefícios, mas a eficácia pode não ser tão boa quanto uma correção. É assim que o que vemos hoje em muitos esquemas regulatórios é que o foco não está tanto em regular o acesso à tecnologia que produz deepfakes ou na criminalização da produção, mas sim em tentar qualificar ou desqualificar informações seja como uma deepfake ou como uma informação verdadeira”, concluiu Christoph Curchard.

A presidência da mesa ficou a cargo do juiz Francisco Emílio de Carvalho Posada.

5º Painel – Direito Civil: smart contracts, responsabilidade civil e proteção dos Direitos da Personalidade no âmbito da Inteligência Artificial

O membro do Fórum Matheus Puppe, mestre pela Universidade de Frankfurt, frisou: “Falar de Direito Civil e novas tecnologias, é falar de um Direito que não é ligado necessariamente a um estado nação, um país. Não vou falar em Direito Internacional, mas em um Direito Transnacional, porque é um Direito que transita na nuvem praticamente e literalmente. É um Direito que ultrapassa as fronteiras de um governo e de uma regulação especifica estatal, mas também permeia pela as empresas, big techs, universidades, juristas e pelos próprios usuários das redes sociais que estão constantemente construindo esse Direito. É um Direito autônomo que vem se autoconstruindo de uma forma que é difícil de se ver em outros casos”.

“Acho que o conflito com o qual todos nós, como profissionais do Direito, lidamos todos os dias é o ponto de conflito entre os desenvolvimentos tecnológicos e seus enquadramentos e como fazemos para procurar o caminho para adequar à lei à tecnologia que se transforma em realidade. Um desses pontos de conflito entre tecnologia e lei e um dos dois pontos de conflito em comum quando falamos de contratos inteligentes e Inteligência Artificial é a decisão individual automatizada e como a tornamos correta”, finalizou a advogada Teresa Pereyra Caramé.

O membro do Fórum, juiz Esdras Pinto, conduziu a presidência do quinto painel da reunião.

6º Painel – Direito Administrativo: governo digital e Justiça 4.0

O juiz federal do Tribunal Regional Federal da 2ª Região (TRF-2) Valter Shuenquener, membro do Fórum e professor da Uerj, afirmou: “Este evento de hoje, está sendo realizado pelo poder judiciário, na casa da Justiça do Rio de Janeiro, na Escola da Magistratura, e isso tem um significado importantíssimo, isso corrobora o papel do poder judiciário no cenário brasileiro de inovações tecnológicas. O que estamos vivenciando de inovação tecnológica, como juízes, promotores, advogados, defensores públicos, atores do Sistema de Justiça, é algo único no mundo. Nós somos um laboratório de tudo isso que foi debatido ao longo deste evento”.

Juli Ponce Solé, professor catedrático de Direito Administrativo da Universidade de Barcelona, pontuou: “Creio que o Direito, atualmente, deveria estabelecer alguns limites para o uso da Inteligência Artificial para a tomada de decisões completamente automatizadas no âmbito das decisões discricionárias por parte das administrações públicas. Na minha opinião, um dos limites para a Inteligência Artificial no exercício de poderes administrativos discricionais é que ela não pode dissipar um raciocínio abdutivo. Essa é uma terminologia introduzida pelo filósofo estadunidense Peirce, que implica um tipo de raciocínio humano que não é de indução, nem dedução. Pelo contrário, baseia-se na existência de um conhecimento do mundo, de um bom senso tipicamente humano, que permite formular hipóteses e resolver problemas. A Inteligência Artificial não pode fazer isso. Essa é uma das razões que estabelece limites, que deveriam se tornar uma reserva para humanos no exercício dos poderes administrativos discricionais, que não podem ser exercidos completamente através das máquinas. As máquinas podem fornecer ajuda, um suporte para os humanos em sua atividade”.

“Insisto que plantemos limites jurídicos e técnicos. Creio que se a Inteligência Artificial for utilizada, deve haver supervisão humana. Provavelmente, estamos assistindo ao nascimento de um novo Direito com essa supervisão humana significativa da Inteligência Artificial na tomada de decisões. Acho que o objetivo que temos, os juristas em geral e os especialistas em Direito Administrativo, é tentar obter o melhor dos humanos e da Inteligência Artificial na tomada de decisões administrativas. A pergunta é se seremos capazes”, concluiu Juli Ponce Solé.

Alexandra Leitão, professora da Faculdade de Direito de Lisboa, e Ignacio de Leon, professor da Universidade do Arizona, também compuseram o último painel do encontro. O vice-presidente do Fórum, juiz Fábio Ribeiro Porto, ficou a cargo da presidência da última mesa do encontro.

Encerramento

O juiz Fábio Ribeiro Porto declarou: “Acredito que após tudo que vimos durante este evento, é impossível não reconhecermos que estamos vivenciando um período único e singular da humanidade, que está abrangendo dimensões tecnológicas, culturais e sociais jurídicas. Nesse contexto, me parece que o profissional de qualquer área, mas em especial a área do setor jurídico, ele deve e tem que ter a responsabilidade e compromisso de se alinhar plenamente a essas mudanças que a sociedade está vivendo, para que possa estar em completa sintonia com ela”.

“Atualmente, o CNJ lida com algumas questões envolvendo a utilização do Chat GPT e recentemente tivemos uma magistrada que o utilizou para a realização de uma sentença e descobriu-se que a jurisprudência que foi inserida no Chat GPT era uma jurisprudência que não existia. Então, temos realmente que utilizar a tecnologia, mas temos que usá-la de uma forma consciente e de uma forma em que ela beneficie o jurisdicionado” ponderou o desembargador Marcos André Chut, presidente do Comitê de Governança e Tecnologia da Informação do TJRJ (CGTIC/TJRJ).

A juíza federal do TRF-2 Daniela Pereira Madeira, conselheira do CNJ, encerrou: “Me coloco a disposição de juízes, funcionários, membros do ministério público, defensores públicos, advogados e daqueles que quiserem trazer qualquer contribuição, que certamente será importante para o avanço do poder judiciário do estado do Rio de Janeiro, que é um dos maiores do país com esse volume de dados que o juiz Valter Shuenquener citou. Muito obrigado a todos e que venham os próximos eventos sobre Inteligência Artificial”.

Assista

Para assistir na íntegra, acesse: https://www.youtube.com/watch?v=hUQ2gEGa6Hg / https://www.youtube.com/watch?v=2RbZYesiNJI

 

Fotos: Jenifer Santos e Maicon Souza

18 de dezembro de 2023

Departamento de Comunicação Institucional (DECOM)