Quando a IA vira armadilha: O Uso Indevido de Inteligência Artificial e a Litigância de Má-Fé
- Guilherme Locatelli
- 27 de mar.
- 2 min de leitura
Já teci comentários sobre o tema e é notório que a ascensão da Inteligência Artificial no meio jurídico tem proporcionado avanços significativos, desde a otimização da pesquisa jurisprudencial até a automação de tarefas repetitivas. Mas até onde podemos confiar cegamente nessas ferramentas?
Um recente acórdão do Tribunal de Justiça de Santa Catarina (TJ/SC - 5058587-47.2024.8.24.0000) acende um sinal de alerta: a tecnologia não pode substituir o rigor técnico, a veracidade e a ética que são pilares da advocacia e seu uso irresponsável da IA pode comprometer a credibilidade profissional e trazer sérias consequências processuais.
O caso não apenas envolveu uma disputa possessória, mas também revelou um comportamento preocupante por parte de um dos advogados envolvidos, que foi condenado por litigância de má-fé ao utilizar precedentes inexistentes em suas alegações, frutos de uma utilização indevida de ferramentas de IA, como o ChatGPT.
Como bem pontuado pelo relator do caso, desembargador Marcos Fey Probst, o uso dessas tecnologias exige cautela e responsabilidade. A reprodução de informações incorretas ou inexistentes pode não apenas comprometer a credibilidade do profissional, mas também gerar consequências graves, como condenações por má-fé e sanções disciplinares.
Além da reprimenda processual, o magistrado determinou a comunicação do fato à OAB/SC para eventual apuração disciplinar.
Esse tipo de equívoco, seja por desconhecimento ou má-fé, compromete a credibilidade das partes envolvidas e pode levar a graves consequências processuais.
O caso catarinense não é isolado. Com a popularização de ferramentas generativas de IA, muitos advogados têm recorrido a elas para agilizar a elaboração de peças, consultas jurisprudenciais e até mesmo fundamentações. O problema surge quando a conveniência se transforma em dependência, e o profissional deixa de verificar se os dados gerados correspondem à realidade.
No julgado em análise, o agravante citou quatro acórdãos do TJSC e trechos doutrinários que, após checagem, nunca existiram. A alegação de que a ferramenta de IA teria "inventado" os argumentos não afastou a responsabilidade, pois o dever de lealdade processual (art. 77 do CPC) é intransferível – seja qual for o meio utilizado.
Este episódio deve servir como alerta para toda a comunidade jurídica. O compromisso com a verdade e a precisão das informações deve ser inegociável. Assim como um advogado jamais citaria um artigo de lei inexistente, o mesmo rigor deve ser aplicado na utilização de decisões judiciais extraídas por meio de IA. A supervisão e a curadoria humana não são apenas desejáveis, mas essenciais.
Na minha visão, a decisão do TJ/SC não é um retrocesso, mas um chamado à maturidade digital.
A inteligência artificial veio para otimizar nosso trabalho, não para substituir o que nos define como juristas: capacidade analítica, honestidade intelectual e compromisso com a Justiça.
É crucial que os profissionais do direito usem essas ferramentas com sabedoria, garantindo que a tecnologia sirva para aprimorar, e não comprometer, a integridade do sistema jurídico.
E você, já se viu nessa situação? Como está equilibrando inovação e responsabilidade?
コメント