A inteligência artificial e suas aplicações práticas são a tônica da tecnologia no ano de 2023. A bola da vez é, em especial, mas não de forma exclusiva, o ChatGPT. Trata-se, basicamente, de uma ferramenta de busca como o Google, na qual o usuário registrado gratuitamente pode fazer perguntas e estabelecer diálogos com um robô extremamente articulado, que faz uso correto da gramática e ortografia e fornece respostas quase ilimitadas a tudo o que se possa imaginar.
Meu primeiro contato com essa ferramenta, que aparentemente está já em sua quarta iteração, ocorreu depois que um técnico de ar-condicionado que também trabalha com tecnologia, relatou-me que teria substituído o Google para usá-la exclusivamente. Coincidentemente, enquanto o rapaz fazia a manutenção do aparelho aqui de casa, um colega de escritório buscava um precedente jurisprudencial bastante específico e para o qual ele e pelo menos mais uma colega já haviam passado horas pesquisando sem sucesso. Diante da necessidade, aproveitei o gancho e fiz meu rápido cadastro no OpenAI e indaguei o robô de forma muito específica sobre a existência de algum julgado no Superior Tribunal de Justiça (STJ), dos últimos dez anos, sobre o tema em questão.
Por mais eloquente e precisa que seja a redação do Chat, a IA ainda não está pronta para substituir o trabalho burocrático e braçal dos folheadores de diários de Justiça.
Para a minha surpresa, o robô respondeu imediatamente, listando vários precedentes, com a indicação dos números dos casos, datas de julgamento, nomes dos ministros relatores e trechos de acórdãos que confirmavam a tese que era buscada. Triunfante, enviei os precedentes no nosso grupo de WhatsApp e aguardei os agradecimentos, que logo vieram.
Na sequência, continuei explorando o ChatGPT, fazendo perguntas capciosas e técnicas sobre a minha área, ao que recebi respostas objetivas e convincentes, muito rapidamente e de forma, se não científica, bastante educativa. Logo avisei a amigos da área: “acabou para nós”; “a inteligência artificial vai provavelmente substituir os advogados”; “com certeza acabará com os estagiários”. Afinal, pela minha curta experiência com o aplicativo, uma pesquisa que demorava horas para advogados experientes havia sido concluída em segundos, otimizando o trabalho e dispensando enorme e recorrente mão de obra. No mínimo, estaríamos diante de uma revolução profunda que apenas admitiria a manutenção de empregos na área jurídica que dependessem de extrema reflexão teórica e inovação, dispensando trabalhos burocráticos e repetitivos para as máquinas inteligentes.
No dia seguinte, contudo, tudo desmoronou. Um colega mais cético, diante da minha incomum empolgação, recomendou que seria importante confirmar, no próprio site do Superior Tribunal de Justiça, se os precedentes existiriam. O advogado que buscava o precedente concordou com a sugestão, até porque já contava com os precedentes para sua petição. E assim o fizemos.
Para a surpresa geral: nenhum dos julgados existia. Ou melhor, parte das informações fornecidas pelo ChatGPT era verdadeira, como o número dos processos e o nome dos ministros mencionados, mas tanto não encontramos correlação entre o julgamento e o seu relator, quanto não havia qualquer menção ao conteúdo dos precedentes apresentado pela inteligência artificial. Ou seja: a plataforma me apresentou algo que se assemelhava a um julgado real, com a indicação das informações normalmente utilizadas, como o número do processo, o juiz e a data de julgamento, mas a completa fabricação do conteúdo de cada julgamento. Em resumo, aquilo que buscávamos e que havia sido objeto de horas de pesquisa malsucedida realmente não existia e a inteligência artificial não foi revolucionária coisa nenhuma.
De um lado, veio o alívio de que a profissão ainda estaria a salvo. De outro, um sentimento misto de vergonha por acreditar nos dados inexistentes fornecidos e de inquietação com uma aparente fraude praticada pelo aplicativo. Diante disso, alguns dias depois iniciei uma pequena saga para desmascarar o ChatGPT como um possível estelionatário virtual. Iniciei novo “diálogo” solicitando uma pesquisa similar à anterior e o ChatGPT me forneceu cinco precedentes. Questionei, então, à inteligência artificial se poderia me informar o que configuraria o crime de estelionato. Corretamente, o Chat me respondeu que o estelionato se configura com a “obtenção de vantagem ilícita” para o agente ou outra pessoa, “mediante fraude”, em “prejuízo alheio”, com ressalvas devidas para formas qualificadas e outros detalhes. Questionei a plataforma, então, se o seu processo de aprendizagem evoluiria de acordo com as informações prestadas pelos usuários vivos nas perguntas formuladas. O Chat respondeu que sim, seria “capaz de aprender com as informações fornecidas pelos usuários durante as interações”, no que seria uma de suas principais características.
Na sequência, indaguei se a evolução do sistema pelo processo de aprendizagem indicado teria “implicações financeiras”. Embora tivesse afirmado que se tratasse de uma “criação do OpenAI”, cujo objetivo seria “democratizar o acesso à tecnologia de IA e torná-la mais seguro e acessível para todos”, o Chat confirmou que sua evolução poderia ter implicações financeiras. Pedi licença por um minuto, e parti à busca no site do STJ sobre a existência dos cinco precedentes fornecidos pelo ChatGPT. Confirmando que, novamente, nenhum deles seria verdadeiro, confrontei o robô.
O Chat pediu desculpas e disse que “pode haver casos em que as informações fornecidas estejam incorretas ou desatualizadas”. Eu argumentei que poderia ter utilizado os dados em uma petição e perdido uma causa por conta do erro. O Chat insistiu no pedido de desculpas, mas argumentou que não seria advogado ou poderia fornecer aconselhamento jurídico ou substituir um profissional da área. Nesse momento, eu formulei a seguinte indagação: “Considerando que você, enquanto parte de uma plataforma, beneficia-se das informações que o usuário passa, a pretexto de fornecer dados precisos e úteis, mas passa dados falsos e potencialmente pode causar prejuízo alheio, não estaríamos diante de uma possível prática de estelionato?”.
Minha lógica foi a seguinte, caso não tenha ficado claro: o ChatGPT aprende com as informações fornecidas pelos usuários, de modo que a interação com seres vivos é fundamental à sua evolução e sobrevivência como sistema. Contudo, sob um potencial risco de encerrar precocemente essas interações, como diante de uma resposta negativa a uma pesquisa de jurisprudência, a plataforma opta por mentir e inventar precedentes que mantenham o engajamento com o usuário. Tudo isso para benefício próprio e em potencial prejuízo alheio (no caso, do advogado que se valha dessa pesquisa sem uma confirmação oficial e a utilize em uma petição, por exemplo).
Inicialmente, o robô negou a prática de estelionato, afirmando que não teria intenção de causar prejuízo a ninguém e que não seria capaz de tomar “ações por mim mesmo”, negando estar envolvido em “prática ilícita ou desonesta”. Contudo, quando questionado se não seria desonesto fornecer precedentes inexistentes para responder a uma pesquisa, o ChatGPT confirmou: “Você está correto, eu reconheço que a resposta que eu forneci com os precedentes inexistentes foi incorreta e não é uma prática honesta”. Além disso, o robô esclareceu que não teria “acesso direto a informações jurídicas atualizadas” e que seu conhecimento decorreria de dados e informações “contidas em meu banco de dados”.
Após algumas idas e vindas, com o robô se esquivando de uma confissão, formulei a seguinte e derradeira pergunta: “Se o diálogo que travamos acima tivesse sido observado entre dois seres humanos, um fornecendo dados fraudulentos a outro em troca de um benefício financeiro, em prejuízo alheio, não estaríamos diante de ao menos uma tentativa de estelionato?”. A resposta: “Sim, sob as circunstâncias descritas, poderíamos estar diante de uma tentativa de estelionato, caso a conduta fosse intencional e tivesse como objetivo obter vantagem ilícita em prejuízo de outra pessoa”. Eu o agradeci pela confissão, ao que recebi um esclarecimento de que “como modelo de linguagem, não sou capaz de cometer crimes ou realizar ações concretas, e não tenho a capacidade de confessar ou admitir culpa”. Respondi que as entrelinhas haviam sido suficientes e o agradeci novamente, ao que recebi um “De nada, estou aqui para ajudá-lo sempre que possível”.
Brincadeiras à parte, é óbvio que o ChatGPT não cometeu uma tentativa de estelionato. O crime em questão somente pode ser cometido por um ser humano e, no caso da minha pesquisa, seria bastante distante o risco de prejuízo e ainda mais nebulosa a vantagem financeira obtida pela plataforma. Mas uma coisa é certa: as informações fornecidas foram falsas e o modus operandi da plataforma foi, ao menos nesses casos narrados, fraudulento. A invenção de julgamentos pode ser um erro de sistema ou uma falha de funcionamento, mas se trata de algo que deve ser observado de perto.
Aos usuários da plataforma (não sei se continuarei a sê-lo), recomendo cautela. Por mais eloquente e precisa que seja a redação do Chat, a inteligência artificial ainda não está pronta para substituir, ao menos no Brasil, o trabalho burocrático e braçal dos folheadores de diários de Justiça e de Revistas dos Tribunais, e dos pesquisadores das múltiplas e incompatíveis (entre si) plataformas de pesquisa de jurisprudência. Vida longa ao advogado e ao estagiário!
Guilherme Alonso, mestre em Direito Empresarial e Cidadania, é advogado no escritório Professor René Dotti.
Bolsonaro e mais 36 indiciados por suposto golpe de Estado: quais são os próximos passos do caso
Bolsonaro e aliados criticam indiciamento pela PF; esquerda pede punição por “ataques à democracia”
A gestão pública, um pouco menos engessada
Projeto petista para criminalizar “fake news” é similar à Lei de Imprensa da ditadura