IA que nunca sai da sua rede.

Enquanto todo concorrente envia seus prompts pra servidores nos EUA, o Automatiza oferece LLM local rodando dentro da sua infraestrutura. Zero trânsito externo. Zero risco de vazamento.

Por que LLM local importa

Quando o prompt contém dados pessoais de um paciente, um contrato sob sigilo, um CPF de cliente ou um parecer jurídico sensível, enviar para um provedor externo é, no mínimo, uma dor de cabeça jurídica. No pior cenário, é violação de contrato, infração à LGPD ou vazamento de segredo comercial.

A maioria das plataformas SaaS resolve isso com "nós anonimizamos antes de enviar" — o que você não consegue auditar. A gente resolve diferente:

Zero egresso

Prompt entra no servidor local, resposta volta do servidor local. Nada passa por cabos transatlânticos.

LGPD automática

Se o dado não sai, o tratamento é interno. Elimina base de "transferência internacional" do mapa de risco.

Rodando em Ollama

Stack open-source padronizada. Qualquer TI que entenda Docker sobe em um dia.

Modelo à sua escolha

Llama 3.2, Qwen, Mistral, Phi — você decide qual modelo, qual tamanho, qual tuning.

Como funciona

Três componentes na sua rede:

  1. Automatiza API — a nuvem SaaS que já conhece (ou uma instância dedicada, se preferir).
  2. Gateway LLM — ponto único por onde passam todos os prompts de IA do sistema. Configurável para rotear para Claude, Gemini ou seu endpoint local.
  3. Ollama server — roda no seu datacenter, VPN ou laboratório local. Aceita qualquer modelo open-weights suportado pelo Ollama.

Exemplo de configuração no painel admin:

OLLAMA_BASE_URL=http://ollama.interno.empresa.com.br:11434
OLLAMA_DEFAULT_MODEL=qwen3:7b
LLM_PROVIDER=ollama    # roteia 100% dos prompts local
LLM_FALLBACK=claude    # opcional: usa Claude se Ollama estiver down

Para quem faz sentido

  • Setor públicoPrefeituras, tribunais, secretarias estaduais com dados de cidadãos.
  • JurídicoEscritórios de advocacia com contratos e petições sob sigilo profissional.
  • SaúdeClínicas e hospitais sob dever de sigilo médico (arts. 73–76 CFM).
  • FinanceiroFintechs e cooperativas reguladas pelo BCB com exigência de localização.
  • IndústriaEmpresas com segredo industrial — fórmulas, processos, P&D.
  • MultinacionalPolíticas internas que proíbem LLM de terceiros (comum em empresas americanas operando no Brasil).

Perguntas rápidas

Posso usar minha GPU interna?

Sim. Ollama detecta NVIDIA/AMD automaticamente. Para cenários sem GPU, modelos de 3B–7B rodam bem em CPU moderna.

Qual modelo você recomenda?

Para português BR com baixa latência: qwen3:7b ou llama3.2:3b. Para tarefas mais exigentes (relatórios estratégicos): qwen3:14b ou llama3.3:70b se tiver GPU adequada.

E se o modelo local errar?

Você pode configurar fallback automático para Claude/Gemini quando o tópico do prompt não envolver dado sensível — decisão tomada por política que você define.

Preço?

Funcionalidade incluída no plano Empresarial. Setup assistido e tuning inicial inclusos. Para planos inferiores, pode ser adquirida como add-on.

Quer ver funcionando? Agende uma POC de 1h com nosso time. Configuramos um Ollama de demonstração na sua rede e rodamos seu caso de uso real. Falar com consultor →