IA no atendimento WhatsApp sem quebrar a LGPD.

Publicado em 18 de abril de 2026 · 9 min de leitura

Atendimento automatizado com IA é fantástico até você parar pra pensar que cada mensagem de cliente está indo parar num servidor da Anthropic ou Google. Quando a mensagem tem um CPF, um número de cartão, ou um atestado médico anexado, a conversa muda. Esse post mostra como fazer IA no WhatsApp sem trocar produtividade por risco jurídico.

O que está realmente saindo para o provedor de IA

Quando você habilita um bot com Claude/Gemini, tipicamente vai a mensagem inteira do cliente + contexto. Em atendimento de saúde ou financeiro, esse contexto pode incluir:

  • Nome completo, CPF, telefone, endereço;
  • Histórico de compras ou procedimentos;
  • Detalhes clínicos, condições médicas;
  • Número de cartão, chave PIX, extrato bancário.

Tecnicamente, Anthropic e Google têm contratos (DPA) garantindo que o conteúdo não é usado para treinar modelo. Mas LGPD vai além: é transferência internacional de dados pessoais. Precisa base legal adequada.

A arquitetura em 3 camadas

Camada 1 — Redação automática antes do envio

Um filtro estrutural passa em cada mensagem antes dela chegar ao provedor de IA. Detecta e substitui por placeholders:

  • CPF/CNPJ → {{PESSOA_DOC}}
  • Cartão de crédito → {{CARTAO}}
  • Telefone → {{TEL}}
  • E-mail → {{EMAIL}}
  • CEP → {{CEP}}

O modelo responde usando os placeholders; antes de enviar ao cliente, sua aplicação re-injeta os valores reais. O provedor nunca vê o dado pessoal cru.

Camada 2 — Classificação de sensibilidade

Um classificador pequeno e local (regex + modelo light) analisa cada mensagem e atribui sensibilidade:

  • Baixa (saudação, dúvida geral): vai para Claude/Gemini normalmente.
  • Média (pede status de pedido, fala de produto específico): vai para Claude/Gemini após redação da camada 1.
  • Alta (contém dado médico, jurídico ou financeiro crítico): não sai do Brasil — usa LLM local (Ollama) ou escalona para atendente humano.

Camada 3 — LLM local para o que não pode sair

Setor público, jurídico, saúde, financeiro regulado — esses ramos têm alto percentual de mensagens "Alta sensibilidade". Nessas empresas, manter um Ollama interno rodando qwen3:7b ou llama3.2:8b resolve 80–90% do volume sem nunca tocar rede externa. Mais detalhes em nossa página de LLM local.

Políticas que você precisa ter

  1. Consentimento de IA: aviso prévio no primeiro contato ("Você está conversando com um assistente virtual que pode usar IA. Seus dados sensíveis não saem do Brasil"). Guarde log do aceite.
  2. Escape para humano: toda conversa com IA precisa ter um comando claro de transferir para atendente ("falar com humano", "atendente", "suporte").
  3. Log auditável: cada mensagem enviada a LLM externo fica registrada, com timestamp, modelo usado, prompt enviado e resposta recebida. Se alguém da ANPD perguntar, você mostra.
  4. Retenção limitada: prompts e respostas devem ser retidos por prazo proporcional (não eterno). Padrão razoável: 90 dias + agregados anonimizados para melhoria de modelo.

Casos onde a IA não deve responder sozinha

  • Cancelamento de contrato ou pedido de reembolso (exige comprovação legal);
  • Alteração de dados cadastrais críticos (CPF, conta bancária);
  • Reclamação com indício de incidente de dados;
  • Pedido de acesso/exclusão de dados LGPD (art. 18);
  • Suspeita de fraude com terceiros;
  • Triagem médica em emergência.

O Automatiza reconhece essas classes e automaticamente escalona para atendente, com contexto da conversa.

Prompt engineering para LGPD

Um system prompt bem escrito evita surpresas:

Você é assistente da empresa {{EMPRESA}}.
NUNCA peça CPF, cartão de crédito, senhas ou dados bancários completos.
NUNCA invente informação — se não souber, transfira pra humano.
Se o usuário compartilhar dado sensível, alerte que não deve enviar
informações confidenciais por este canal.
Conversas são registradas para qualidade. O usuário pode pedir pra
falar com humano a qualquer momento dizendo "atendente".

Métricas úteis

  • % de resolução sem humano: meta 60–75% para dúvidas genéricas;
  • % escalado automaticamente: meta 10–20% (alto demais = IA incapaz; baixo demais = IA fazendo o que não deve);
  • Tempo médio de resposta: meta <5s para Baixa/Média; <30s para Alta (via LLM local é mais lento);
  • Incidentes por IA: meta zero. Qualquer alucinação que gerou problema vira treinamento.

Quero IA no WhatsApp dentro da LGPD →