IA na Advocacia: Limites Éticos Que Todo Advogado Deve Conhecer
- Luiz Flôres

- há 1 dia
- 7 min de leitura
Um guia sério sobre sigilo, dados sensíveis, alucinações e responsabilidade profissional para o advogado que quer usar inteligência artificial sem colocar a carteira — e o cliente — em risco.

A inteligência artificial chegou à advocacia. Não como promessa futura, mas como ferramenta que já está na rotina de milhares de advogados — muitos dos quais nem percebem os riscos do que estão fazendo.
Copiar o resumo de um caso e colar no ChatGPT para gerar uma petição inicial. Enviar trechos de depoimentos para uma IA sumarizar. Pedir que um modelo de linguagem encontre jurisprudência favorável. Tudo isso já acontece, todos os dias, em escritórios de todos os tamanhos.
A questão não é se o advogado vai usar IA. A questão é se vai usar direito.
Este artigo aborda o que todo profissional precisa entender antes de integrar ferramentas de inteligência artificial à sua prática: onde estão os limites éticos, o que diz a regulamentação, quais são os riscos reais e como mitigá-los.
O tom aqui é deliberadamente sério. Porque as consequências de errar também são.
O sigilo profissional na era dos prompts
O Estatuto da Advocacia (Lei 8.906/94) é inequívoco: o sigilo profissional é direito e dever do advogado.
O artigo 7º, inciso II, garante a inviolabilidade do escritório e dos instrumentos de trabalho.
O Código de Ética e Disciplina da OAB reforça, no artigo 26, que o advogado deve guardar sigilo sobre fatos de que tome conhecimento no exercício da profissão.
Agora, considere o seguinte cenário: você abre uma ferramenta de IA generativa em nuvem, cola o relato detalhado do seu cliente — nome, CPF, circunstâncias do crime, estratégia defensiva — e pede para a IA redigir um rascunho de habeas corpus.
O que aconteceu do ponto de vista ético?
Você acabou de transmitir informações protegidas por sigilo profissional a um terceiro. E esse terceiro é uma empresa de tecnologia cujos termos de uso, na maioria dos casos, permitem que os dados inseridos sejam utilizados para treinamento de modelos futuros.
Isso não é teoria. É a configuração padrão de diversas plataformas de IA generativa.
Algumas oferecem modos de uso corporativo com políticas de não retenção de dados, mas a versão gratuita — que é a que a maioria usa — não oferece essas garantias.
O advogado que insere dados sensíveis do cliente em uma ferramenta de IA sem as devidas precauções está potencialmente violando o dever de sigilo. E a responsabilidade é integralmente dele.
O que fazer na prática

O caminho ético não é abandonar a IA. É estabelecer protocolos claros.
Antes de inserir qualquer informação em uma ferramenta de inteligência artificial, o advogado deve se perguntar três coisas:
Primeiro: esta ferramenta retém os dados que eu inserir?
É preciso ler os termos de uso e entender a política de privacidade da plataforma. Ferramentas com planos empresariais ou APIs com cláusulas de não retenção são preferíveis.
Segundo: posso anonimizar as informações antes de enviá-las? Trocar nomes por iniciais, omitir números de processo, remover CPFs e dados que permitam identificação direta.
Uma IA não precisa saber que o cliente se chama João da Silva para ajudar você a estruturar uma tese de legítima defesa.
Terceiro: o cliente sabe que estou utilizando esta ferramenta? Transparência é um pilar ético.
Embora ainda não exista obrigação regulamentar expressa de informar o cliente sobre o uso de IA, a boa-fé contratual e o dever de lealdade recomendam fortemente que isso seja comunicado.
Recomendo que essa comunicação deva ser inserida no seu contrato de honorários, algo como:
CLÁUSULA [X] – TRATAMENTO DE DADOS POR INTELIGÊNCIA ARTIFICIAL (IA)
O CONTRATANTE declara estar ciente e concordar que o CONTRATADO, no desempenho de suas atividades, poderá utilizar ferramentas de Inteligência Artificial para análise, processamento de documentos e auxílio na estratégia jurídica. Para tanto, os dados pessoais e informações do processo poderão ser tratados por essas plataformas, observando-se os seguintes critérios:
Finalidade: O uso de IA restringe-se ao aumento da eficiência técnica, automação de tarefas repetitivas e análise de dados para o objeto deste contrato.
Segurança: O CONTRATADO priorizará o uso de ferramentas que garantam o sigilo das informações e, sempre que possível, a anonimização dos dados sensíveis.
Responsabilidade: O uso de tais tecnologias não afasta o dever de revisão humana e o compromisso ético e profissional do CONTRATADO com o sigilo e o melhor interesse do cliente.
Alucinação: o risco que parece improvável até acontecer com você
Modelos de linguagem não pesquisam bancos de dados jurídicos reais. Eles geram texto com base em padrões estatísticos aprendidos durante o treinamento.
Isso significa que, quando você pede jurisprudência a uma IA, ela pode (e frequentemente faz) inventar decisões que não existem. Números de acórdãos fictícios, ementas verossímeis de julgados inexistentes, citações de ministros que nunca proferiram aquele voto.
O fenômeno é conhecido como alucinação. E não é um bug raro. É uma característica estrutural dos modelos generativos. A IA não distingue entre lembrar e inventar, ela faz as duas coisas pelo mesmo mecanismo.
O caso mais notório internacionalmente foi o do advogado americano que, em 2023, apresentou em juízo seis precedentes jurisprudenciais inteiramente fabricados pelo ChatGPT.

O tribunal identificou a fraude, e o profissional foi sancionado. Esse caso se tornou referência mundial sobre os riscos do uso irresponsável de IA na advocacia.
No Brasil, já existem relatos semelhantes. Petições com citações de julgados que, quando verificados nos sistemas dos tribunais, simplesmente não existem. Ementas que parecem reais, mas foram fabricadas por modelos generativos.
O risco é concreto e presente.
Como mitigar alucinações
A regra é simples e inegociável: nunca cite uma jurisprudência fornecida por IA sem verificar a fonte original.
A IA pode sugerir uma linha argumentativa, indicar possíveis teses e até apontar direções de pesquisa. Mas a verificação final é humana. Sempre!
Algumas práticas que reduzem significativamente o risco:
Usar a IA para gerar estruturas argumentativas, não para pesquisar jurisprudência;
Quando a IA citar uma decisão, buscar o número exato no site do tribunal antes de incluir na peça;
Preferir ferramentas de IA especializadas em pesquisa jurídica que estejam conectadas a bases de dados reais;
Manter o hábito de pesquisa direta nos repositórios oficiais como complemento obrigatório.
O advogado que delega a pesquisa integralmente à IA sem checagem não está sendo produtivo. Está sendo negligente.

O que diz a OAB sobre o uso da IA na advocacia
A Ordem dos Advogados do Brasil tem acompanhado o avanço da inteligência artificial com atenção crescente. O posicionamento institucional até o momento se orienta por alguns eixos fundamentais.
O RECOMENDAÇÃO Nº 01/2024 do Conselho Federal da OAB trouxe as primeiras diretrizes formais sobre o uso de IA na advocacia.
O documento estabelece que a utilização de ferramentas de inteligência artificial é permitida, desde que o advogado mantenha a supervisão integral sobre o produto gerado.
Em outras palavras: a IA pode ser instrumento, nunca substituto do raciocínio jurídico.
A posição da Ordem pode ser resumida em quatro princípios:
O primeiro é o da responsabilidade intransferível: quem assina a petição responde por ela, não importa se quem redigiu o rascunho foi um estagiário, um colega ou um algoritmo.
O segundo é o da supervisão obrigatória: o uso de IA exige revisão humana qualificada antes de qualquer submissão a órgãos judiciais ou administrativos.
O terceiro é o da preservação do sigilo: as obrigações de confidencialidade do advogado se estendem integralmente ao ambiente digital, incluindo plataformas de IA.
E o quarto é o da ciência ao cliente: que deverá ser comunicado de forma escrita sobre o uso da IA generativa no serviço que contratou, bem como os limites e riscos pelo uso (isso por meio de documento específico ou pelo p´roprio contrato de honorários), podendo não anuir com o uso da IA.
É provável que a regulamentação se torne mais específica nos próximos anos. Mas os princípios fundamentais já estão postos e são suficientes para orientar a conduta profissional agora.
Responsabilidade do advogado: a IA não responde por você
Este talvez seja o ponto mais importante de todo o artigo. E precisa ser dito com clareza absoluta: a inteligência artificial não tem inscrição na OAB. Não pode ser punida. Não responde a processo disciplinar. Não pode ser condenada por litigância de má-fé.
Quem responde é você!
Se uma petição assinada por você contém jurisprudência falsa gerada por IA, a responsabilidade é sua. Se dados sigilosos do cliente vazaram porque você os inseriu em uma plataforma sem proteção adequada, a responsabilidade é sua. Se o argumento central da defesa é juridicamente inconsistente porque você confiou na estruturação de uma IA sem revisão crítica, a responsabilidade é sua.
Isso não é alarmismo. É o enquadramento jurídico vigente, reforçado pela OAB e compatível com o que dispõem o Estatuto da Advocacia e o Código de Ética.
O advogado pode e deve usar a IA como ferramenta de produtividade. Mas precisa tratá-la como trata um estagiário de primeiro semestre: com supervisão constante, verificação de cada informação e responsabilidade integral sobre o produto final.
O que está dentro e o que está fora dos limites
Para facilitar a aplicação prática, vale organizar com clareza o que é uso ético e o que cruza a linha.
Dentro dos limites éticos:
usar IA para gerar rascunhos, resumos e minutas de peças que serão revisados e reescritos pelo advogado;
utilizar ferramentas de IA para organizar informações processuais já públicas;
pedir auxílio para estruturar argumentos, desde que a tese final seja construída pelo profissional;
automatizar tarefas operacionais como formatação, preenchimento de dados cadastrais e geração de minutas padronizadas;
anonimizar dados antes de submetê-los a qualquer plataforma externa.
Fora dos limites éticos:
inserir dados sigilosos do cliente em plataformas de IA sem garantias de não retenção;
citar jurisprudência gerada por IA sem verificação na fonte original;
assinar peças integralmente redigidas por IA sem revisão substantiva;
utilizar IA para fabricar ou distorcer provas ou argumentos;
delegar à IA decisões que exigem juízo ético ou estratégico do advogado (fator humano).
A linha divisória é mais simples do que parece: se a IA está acelerando o trabalho que você faria de qualquer maneira, com a mesma diligência, está dentro. Se ela está substituindo o seu julgamento profissional, está fora.

O advogado do futuro já chegou, mas precisa de consciência
A IA não vai substituir o advogado.
O raciocínio estratégico, a leitura de contexto, a sensibilidade para o caso concreto, a capacidade de argumentar diante de um magistrado, tudo isso permanece insubstituivelmente humano. É o chamado fator humano.
Mas a IA vai separar os advogados em dois grupos: os que aprenderam a usá-la com responsabilidade e ganharam horas de trabalho estratégico por semana, e os que ficaram para trás, seja por medo, seja por uso imprudente.
O caminho ético e o caminho produtivo não são opostos. São o mesmo. O advogado que usa IA com protocolo, supervisão e consciência dos limites trabalha melhor, entrega mais e protege tanto a si mesmo quanto ao cliente.
A escolha é simples. O momento de fazê-la é agora.
Este artigo foi útil? Compartilhe com um colega que tem dúvidas sobre IA na advocacia. Quanto mais profissionais entenderem os limites éticos, melhor para toda a classe — e para os clientes que dependem de nós.
ASSISTA UMA AULA COMPLETA SOBRE O USO DA IA NA ADVOCACIA:

Atuação em Tijucas, Itapema e toda Santa Catarina.
Especialista em Direito Penal e Processo Penal, com atuação desde 2007 na defesa criminal.




Comentários