IA no atendimento WhatsApp sem quebrar a LGPD.
Publicado em 18 de abril de 2026 · 9 min de leitura
Atendimento automatizado com IA é fantástico até você parar pra pensar que cada mensagem de cliente está indo parar num servidor da Anthropic ou Google. Quando a mensagem tem um CPF, um número de cartão, ou um atestado médico anexado, a conversa muda. Esse post mostra como fazer IA no WhatsApp sem trocar produtividade por risco jurídico.
O que está realmente saindo para o provedor de IA
Quando você habilita um bot com Claude/Gemini, tipicamente vai a mensagem inteira do cliente + contexto. Em atendimento de saúde ou financeiro, esse contexto pode incluir:
- Nome completo, CPF, telefone, endereço;
- Histórico de compras ou procedimentos;
- Detalhes clínicos, condições médicas;
- Número de cartão, chave PIX, extrato bancário.
Tecnicamente, Anthropic e Google têm contratos (DPA) garantindo que o conteúdo não é usado para treinar modelo. Mas LGPD vai além: é transferência internacional de dados pessoais. Precisa base legal adequada.
A arquitetura em 3 camadas
Camada 1 — Redação automática antes do envio
Um filtro estrutural passa em cada mensagem antes dela chegar ao provedor de IA. Detecta e substitui por placeholders:
- CPF/CNPJ →
{{PESSOA_DOC}} - Cartão de crédito →
{{CARTAO}} - Telefone →
{{TEL}} - E-mail →
{{EMAIL}} - CEP →
{{CEP}}
O modelo responde usando os placeholders; antes de enviar ao cliente, sua aplicação re-injeta os valores reais. O provedor nunca vê o dado pessoal cru.
Camada 2 — Classificação de sensibilidade
Um classificador pequeno e local (regex + modelo light) analisa cada mensagem e atribui sensibilidade:
- Baixa (saudação, dúvida geral): vai para Claude/Gemini normalmente.
- Média (pede status de pedido, fala de produto específico): vai para Claude/Gemini após redação da camada 1.
- Alta (contém dado médico, jurídico ou financeiro crítico): não sai do Brasil — usa LLM local (Ollama) ou escalona para atendente humano.
Camada 3 — LLM local para o que não pode sair
Setor público, jurídico, saúde, financeiro regulado — esses ramos têm alto percentual de mensagens "Alta sensibilidade". Nessas empresas, manter um Ollama interno rodando qwen3:7b ou llama3.2:8b resolve 80–90% do volume sem nunca tocar rede externa. Mais detalhes em nossa página de LLM local.
Políticas que você precisa ter
- Consentimento de IA: aviso prévio no primeiro contato ("Você está conversando com um assistente virtual que pode usar IA. Seus dados sensíveis não saem do Brasil"). Guarde log do aceite.
- Escape para humano: toda conversa com IA precisa ter um comando claro de transferir para atendente ("falar com humano", "atendente", "suporte").
- Log auditável: cada mensagem enviada a LLM externo fica registrada, com timestamp, modelo usado, prompt enviado e resposta recebida. Se alguém da ANPD perguntar, você mostra.
- Retenção limitada: prompts e respostas devem ser retidos por prazo proporcional (não eterno). Padrão razoável: 90 dias + agregados anonimizados para melhoria de modelo.
Casos onde a IA não deve responder sozinha
- Cancelamento de contrato ou pedido de reembolso (exige comprovação legal);
- Alteração de dados cadastrais críticos (CPF, conta bancária);
- Reclamação com indício de incidente de dados;
- Pedido de acesso/exclusão de dados LGPD (art. 18);
- Suspeita de fraude com terceiros;
- Triagem médica em emergência.
O Automatiza reconhece essas classes e automaticamente escalona para atendente, com contexto da conversa.
Prompt engineering para LGPD
Um system prompt bem escrito evita surpresas:
Você é assistente da empresa {{EMPRESA}}.
NUNCA peça CPF, cartão de crédito, senhas ou dados bancários completos.
NUNCA invente informação — se não souber, transfira pra humano.
Se o usuário compartilhar dado sensível, alerte que não deve enviar
informações confidenciais por este canal.
Conversas são registradas para qualidade. O usuário pode pedir pra
falar com humano a qualquer momento dizendo "atendente".
Métricas úteis
- % de resolução sem humano: meta 60–75% para dúvidas genéricas;
- % escalado automaticamente: meta 10–20% (alto demais = IA incapaz; baixo demais = IA fazendo o que não deve);
- Tempo médio de resposta: meta <5s para Baixa/Média; <30s para Alta (via LLM local é mais lento);
- Incidentes por IA: meta zero. Qualquer alucinação que gerou problema vira treinamento.