Ética e IA na Advocacia: Limites e Responsabilidade Profissional
OAB Provimento 205/2024, sigilo profissional com IA, LGPD e casos reais de advogados punidos por uso irresponsável de IA na advocacia.
Em fevereiro de 2023, o advogado americano Steven Schwartz submeteu ao tribunal federal de Nova York um brief com seis precedentes judiciais inteiramente fabricados pelo ChatGPT. Os casos citados — com números, nomes de partes e resumos detalhados — simplesmente não existiam. O juiz aplicou multa de US$ 5.000, e o caso tornou-se o símbolo global do risco de usar IA generativa sem supervisão na advocacia.
No Brasil, o cenário regulatório ainda está em construção, mas o Provimento OAB 205/2024 e o Estatuto da OAB (Lei 8.906/94) já estabelecem marcos claros. Este artigo explica onde estão os limites, quais são as obrigações do advogado e como usar IA de forma ética e juridicamente responsável.
O Provimento OAB 205/2024 e o Uso de IA
O Provimento 205/2024 do Conselho Federal da OAB é o principal marco regulatório brasileiro sobre tecnologia na advocacia. Ele não proíbe o uso de IA — ao contrário, reconhece que ferramentas tecnológicas são aliadas legítimas do trabalho jurídico. Mas estabelece responsabilidades inafastáveis.
Responsabilidade Pessoal e Intransferível
O art. 34 do EOAB (Estatuto da Ordem dos Advogados do Brasil — Lei 8.906/94) estabelece que o advogado responde pessoalmente pelos atos praticados no exercício profissional. Isso significa que a IA não é parte — o advogado é. Toda peça assinada por advogado é de sua responsabilidade integral, independentemente de qual ferramenta foi usada para gerá-la.
O Provimento 205/2024 reforça: o advogado deve supervisionar, revisar e validar todo o conteúdo gerado por IA antes de submetê-lo a qualquer destinatário — tribunal, cliente, órgão administrativo ou contraparte. A delegação à IA não elimina nem reduz a responsabilidade profissional.
Responsabilidade Não Se Delega à IA
Se uma petição gerada por IA contém argumento jurídico equivocado, citação de lei revogada ou precedente inexistente, o advogado que assinou responde pelas consequências — disciplinarmente perante a OAB (art. 34, XVII EOAB: negligência no exercício da profissão) e civilmente perante o cliente prejudicado. Dizer "foi o ChatGPT que gerou" não é defesa válida.
Transparência com o Cliente
Uma questão emergente na ética da IA jurídica é: o advogado deve informar ao cliente que usa IA na prestação dos serviços? O Provimento 205/2024 não impõe obrigação explícita de disclosure em todos os casos, mas o princípio de transparência do EOAB (art. 2º, parágrafo único, V) e as regras da LGPD sobre tratamento de dados criam um dever implícito de informação quando:
- Os dados do cliente são submetidos a plataformas de IA externas (fora do controle do escritório).
- A IA processa dados sensíveis do cliente (saúde, situação financeira, dados de família).
- A ferramenta de IA pode reter ou usar os dados para treinamento de modelos.
A boa prática — e a recomendação dos Bars internacionais, como a American Bar Association — é incluir no contrato de prestação de serviços uma cláusula sobre uso de IA, informando as ferramentas utilizadas e as garantias de confidencialidade adotadas.
Sigilo Profissional e Ferramentas de IA
O sigilo profissional é um dos pilares da advocacia (art. 7º, II EOAB; art. 34, VII EOAB). A violação do sigilo é infração disciplinar gravíssima, podendo resultar em exclusão dos quadros da OAB.
O Risco das Ferramentas de IA na Nuvem
Quando um advogado cola o texto de uma petição ou a descrição de um caso em uma ferramenta de IA de uso geral (ChatGPT, Gemini, Copilot na versão gratuita), há uma série de riscos reais:
1. Retenção de dados para treinamento: Muitas ferramentas de IA usam dados submetidos pelos usuários para aprimorar seus modelos. Isso significa que informações confidenciais de clientes podem se tornar parte do dataset de treinamento — e potencialmente influenciar respostas futuras para outros usuários.
2. Armazenamento em servidores externos: Os dados são processados em servidores de terceiros, fora do controle do escritório. Em caso de breach de dados, o escritório pode ter violado tanto o sigilo profissional quanto a LGPD.
3. Acesso por funcionários da plataforma: Equipes de segurança e qualidade das plataformas podem ter acesso ao conteúdo submetido para fins de moderação e melhoria.
Como Mitigar o Risco
| Cenário | Risco | Mitigação |
|---|---|---|
| ChatGPT gratuito com dados de cliente | Alto | Não usar; ou anonimizar completamente antes |
| ChatGPT Enterprise / Teams | Médio | Dados não usados para treino; DPA disponível |
| Plataformas jurídicas especializadas (LegalSuite, etc.) | Baixo | DPA com garantias específicas; servidores certificados |
| LLM rodando localmente (on-premise) | Mínimo | Dados não saem do servidor do escritório |
| IA com dados anonimizados | Baixo | Verificar se anonimização é completa e irreversível |
Anonimização Não É Pseudonimização
Substituir o nome do cliente por "Cliente A" não é anonimização — é pseudonimização. Se o contexto do caso permite identificar o cliente (empresa pública envolvida, evento específico, setor de nicho), os dados ainda são pessoais pela LGPD e sigilosos pelo EOAB. Anonimização real exige que seja impossível, por qualquer meio razoável, reidentificar o titular.
O Problema das Alucinações: Casos Reais e Riscos Práticos
As alucinações de LLMs (Large Language Models) são o maior risco técnico no uso de IA jurídica. O modelo gera texto fluente e convincente que pode ser factualmente incorreto — especialmente em relação a:
- Citação de jurisprudência: o modelo pode inventar números de processo, nomes de ministros relatores ou teses que nunca foram decididas.
- Citação de legislação: pode citar artigos revogados, numerar artigos incorretamente ou descrever conteúdo que não corresponde à lei.
- Datas e prazos: pode gerar prazos incorretos, confundindo regras de diferentes sistemas processuais.
- Dados de partes: pode misturar informações de casos distintos.
Casos Documentados no Brasil e no Mundo
EUA — Caso Mata v. Avianca (2023): Advogados citaram 6 precedentes fabricados pelo ChatGPT. Resultado: multa de US$ 5.000, processo disciplinar, cobertura na imprensa nacional e internacional.
EUA — Caso Park v. Kim (2023): Advogado citou precedente inexistente em apelação no 2º Circuito. O tribunal rejeitou o brief e determinou que o advogado explicasse a origem da citação.
Canadá (2024): Advogado em British Columbia suspenso por 6 meses após submeter petição com jurisprudência inventada por IA.
Brasil (2024-2025): Não há casos disciplinares públicos consolidados ainda, mas o CNJ e o TST já emitiram alertas sobre petições com citações incorretas atribuídas a sistemas de IA. A OAB-SP instaurou procedimento de verificação após relatos de petições com precedentes inexistentes no TJSP.
Protocolo de Verificação Obrigatório
Nunca cite jurisprudência gerada por IA sem verificação
Toda citação de acórdão, súmula ou decisão gerada ou sugerida por IA deve ser verificada na fonte primária: portal do tribunal, Jusbrasil, DJe, ou base do STF/STJ. Verifique número do processo, data, relatores e a tese efetivamente decidida.
Verifique artigos de lei na fonte oficial
Use o portal da legislação federal (planalto.gov.br) ou a base da Câmara dos Deputados para confirmar a redação atual de qualquer artigo citado pela IA. Leis sofrem alterações frequentes; a IA pode ter sido treinada com versões desatualizadas.
Revise prazos com o CPC e legislação específica
Prazos gerados por IA devem ser conferidos no CPC, na lei específica e na jurisprudência do tribunal destinatário. Diferenças de contagem de dias úteis entre o CPC e legislações especiais (CLT, Lei dos Juizados, etc.) são fonte frequente de erro.
Valide dados das partes e do processo
Se a IA ajudou a redigir uma peça com dados das partes, confirme CNPJ, endereço, representação legal e número do processo no tribunal. Erros em qualificação de partes podem atrasar o processo ou gerar nulidades.
Documente o uso de IA e a revisão realizada
Mantenha registro interno de quais ferramentas de IA foram usadas, quais partes da peça foram geradas ou revisadas por IA, e qual foi o processo de verificação. Esse registro protege o advogado em caso de questionamento posterior.
Obrigações Específicas do Advogado no Uso de IA
🔍Supervisão Técnica
🔒Confidencialidade dos Dados
💡Competência Tecnológica
📋Transparência com o Cliente
⚖️Independência Profissional
📚Atualização Contínua
Boas Práticas: Como Usar IA de Forma Ética na Advocacia
O Que a IA Pode Fazer com Segurança
- Pesquisa jurisprudencial com verificação: o modelo aponta precedentes relevantes, mas o advogado verifica cada citação na fonte primária.
- Primeira versão de minutas: a IA gera uma estrutura inicial que o advogado revisa, adapta e complementa com conhecimento do caso concreto.
- Resumo de documentos longos: a IA resume contratos, laudos e processos extensos, reduzindo o tempo de leitura inicial sem eliminar a revisão do advogado.
- Brainstorming de teses: a IA sugere teses alternativas que o advogado analisa, descarta ou desenvolve com base em seu julgamento.
- Checklist de cláusulas em contratos: a IA verifica se determinadas cláusulas estão presentes — mas não substitui a análise de adequação ao caso concreto.
O Que a IA Não Pode Fazer
- Assinar peças processuais ou pareceres.
- Representar o cliente em audiências ou negociações.
- Tomar decisões estratégicas sobre o caso.
- Substituir a entrevista e o conhecimento aprofundado do cliente e do contexto.
- Ser responsabilizada por erros — essa responsabilidade é sempre do advogado.
IA jurídica desenvolvida com ética e segurança para advogados brasileiros
O LegalSuite usa Claude Opus 4.6 da Anthropic com DPA, servidores certificados e política de não uso de dados para treinamento. Pesquisa jurisprudencial, análise de contratos e geração de petições com rastreabilidade completa.
Começar grátisPerguntas Frequentes
O advogado precisa informar que usou IA para gerar uma petição?
O Provimento OAB 205/2024 não exige disclosure explícito para cada petição. Mas o princípio de transparência e as regras da LGPD recomendam informar ao cliente quando seus dados são processados por plataformas externas. Alguns tribunais internacionais já exigem declaração de uso de IA em peças — é uma tendência que deve chegar ao Brasil. A boa prática é incluir cláusula no contrato de honorários informando o uso de ferramentas tecnológicas.
Se a IA gerar uma citação incorreta e o advogado assinar sem verificar, qual é a sanção?
A sanção depende da consequência para o cliente. Se houve prejuízo processual (ex.: derrota por argumento equivocado baseado em lei revogada citada pela IA), o advogado responde disciplinarmente por negligência (art. 34, XVII EOAB) e civilmente por danos (art. 186 CC c/c art. 927 CC). Em casos graves com prejuízo financeiro significativo, a responsabilidade pode ser pessoal e solidária com o escritório.
Posso usar o ChatGPT gratuito para elaborar petições de clientes?
É possível, mas exige cuidado extremo. Na versão gratuita, a OpenAI pode usar as conversas para treinamento do modelo — o que pode violar o sigilo profissional e a LGPD se dados identificáveis do cliente forem submetidos. A versão Enterprise e Teams tem política diferente (dados não são usados para treinamento). Para qualquer uso, anonimize os dados antes de submeter e nunca cole documentos de clientes com dados pessoais identificáveis.
A IA pode ser usada para elaborar pareceres jurídicos?
A IA pode auxiliar na pesquisa e na estruturação do parecer, mas o documento final deve ser elaborado, revisado e assinado por advogado. Parecer jurídico é ato privativo de advogado (Lei 8.906/94, art. 1º, II). Um parecer assinado por advogado que foi integralmente gerado por IA sem revisão substancial pode configurar prática de ato com negligência, além de violação da obrigação de personalidade na prestação dos serviços advocatícios.
Como escolher uma ferramenta de IA jurídica com segurança?
Verifique: (1) Onde os dados são processados e armazenados (Brasil ou exterior)? (2) Há DPA (Data Processing Agreement) disponível? (3) Os dados são usados para treinamento de modelos? (4) A empresa segue a LGPD ou o GDPR? (5) Há certificações de segurança (ISO 27001, SOC 2)? (6) Qual a política em caso de vazamento de dados? Ferramentas jurídicas especializadas geralmente têm respostas mais seguras a essas perguntas do que ferramentas de uso geral.
Qual é a diferença entre alucinação e erro jurídico de interpretação?
Alucinação é quando a IA inventa fatos — cita um processo que não existe, menciona uma lei com número errado, atribui a um ministro relator um voto que ele não deu. Erro jurídico de interpretação é quando a IA analisa corretamente os fatos, mas chega a uma conclusão jurídica equivocada — por exemplo, aplica uma tese ultrapassada ou ignora julgado mais recente que mudou o entendimento. Ambos são riscos reais, mas as alucinações são mais perigosas por serem difíceis de detectar sem verificação na fonte.
A tendência regulatória aponta para obrigatoriedade de disclosure de uso de IA?
Sim. A União Europeia, com o AI Act (em vigor desde 2024), já exige transparência sobre uso de sistemas de IA em serviços profissionais de alto risco — e a advocacia é considerada serviço de alto risco. No Brasil, o PL 2338/2023 (Marco Brasileiro de IA, aprovado pelo Senado em 2024) inclui obrigações de transparência e rastreabilidade para sistemas de IA de alto risco. A tendência é que, nos próximos 2-3 anos, o Brasil também exija disclosure de uso de IA em contextos jurídicos de impacto significativo.
Experimente o LegalSuite
44 calculadoras, gestão de escritório, monitoramento de 91 tribunais e IA jurídica.
Começar grátis