Press "Enter" to skip to content
Início » Aprendeação Igonorante » Advogado de Nova York perde caso por confiar demais no ChatGPT

Advogado de Nova York perde caso por confiar demais no ChatGPT

Compartilhe

Sabe aquela ideia que algum maluco apresentou para você na internet do “acredite cegamente nas respostas do ChatGPT, pois ele vai te ajudar a ganhar dinheiro com facilidade”? Então… não é bem assim que a banda toca…

O ChatGPT pode sim facilitar a nossa vida e automatizar algumas tarefas que levaríamos horas para fazer, principalmente na parte de produção de textos. Mas não dá para confiar cegamente na ferramenta da Open AI, pois ela ainda está em fase de desenvolvimento e, em consequência disso, em constante aprendizado.

O caso que vou relatar neste artigo é apenas mais um exemplo sobre os perigos que muitos profissionais estão assumindo ao utilizar o GPT-4 de forma indiscriminada e sem qualquer tipo de intervenção humana na qualidade das respostas produzidas.

 

Nunca confie cegamente em uma inteligência artificial

O advogado Steven A. Schwartz, do escritório Levidow, Levidow & Oberman, perdeu um caso em que representava o demandante Roberto Mata contra a companhia aérea Avianca. Tudo bem, isso pode acontecer, pois não dá para vencer todas na vida. O que realmente chama a atenção é a forma que ele perdeu esse caso.

O problema não foi apenas a empresa pedir ao juiz federal de Manhattan que desconsiderasse o caso, mas que os advogados de Mata se opuseram e, para argumentar sobre os motivos pelos quais a ação deveria prosseguir, Schwartz elaborou um relatório de 10 páginas citando meia dúzia de precedentes judiciais.

Aquele relatório detalhado de decisões judiciais entregue pelo advogado tinha muito mais de ficção científica do que de relatório legal contrastado. Quando os advogados da Avianca procuraram as referências que Schwartz enumerou no relatório, eles não conseguiram localizá-las. Nem mesmo o juiz conseguiu identificar as fontes.

Por que isso aconteceu? O advogado mentiu para vencer o caso?

Não exatamente.

O conteúdo era impreciso ou mesmo inventado. Mais do que sua falta de veracidade, o surpreendente do relatório é o seu autor.

O responsável por tal desdobramento de ficção judicial não foi Schwartz – pelo menos não diretamente -, mas a ferramenta que ele usou para seu relatório: o ChatGPT.

Como o próprio advogado acabou reconhecendo em um momento posterior, ele recorreu ao motor da OpenAI para agilizar sua pesquisa jurídica, uma decisão que, visto o ocorrido, não se mostrou muito acertada.

O magistrado do caso, P. Kevin Castel, reconhece estar diante de “uma circunstância sem precedentes”, com um relatório jurídico salpicado de referências errôneas: “Seis dos casos apresentados parecem ser decisões judiciais falsas, com citações falsas e referências falsas”. O New York Times detalha que uma audiência já foi marcada para 8 de junho em que serão discutidas possíveis sanções.

Schwartz, um veterano com três décadas de experiência na advocacia em Nova York, já apresentou uma declaração juramentada em que garante que sua intenção não era enganar o tribunal ou a companhia aérea. Ele explicou que era a primeira vez que usava o ChatGPT e pecou pelo excesso de confiança: “Não estava ciente da possibilidade de que seu conteúdo pudesse ser falso”. Além disso, já garantiu que nunca mais confiará na IA da OpenAI “sem uma verificação total”.


Compartilhe
@oEduardoMoreira