Definindo o "Norte" da transformação: de uma plataforma reativa para uma entidade agêntica que executa processos de ponta a ponta.
A Quantum possui os dados — estoque, histórico, políticas. O que falta é a capacidade de agir sobre eles sem intervenção humana em cada passo. Essa é a real natureza do desafio.
O "muro da escalabilidade operacional" é o sintoma. A causa é estrutural: cada função opera em silo e o custo marginal de atendimento cresce de forma linear com o volume. Chatbots de FAQ e filtros de busca não quebram essa linearidade — apenas a adiam.
Sistemas que respondem quando perguntados. Informação fragmentada, interpretação inconsistente, zero execução autônoma.
Sistemas que executam processos de ponta a ponta com autonomia supervisionada. O custo deixa de crescer com o volume.
Os três primeiros concentram o investimento inicial. Toque em cada linha para ver o detalhe.
O quadro que sintetiza a estratégia e abre a conversa com a diretoria.
(1) Agente de suporte resolutivo · (2) Recomendação contextual · (3) Orquestração logística.
O ativo já existe. O gargalo está na unificação e governança, não na coleta. Necessário: camada semântica única.
RAG sobre base unificada, orquestração multi-agente, tool calling sobre sistemas legados, observabilidade.
AI Engineers como arquitetos. Times de suporte e logística migram para supervisores de agentes.
Guardrails por nível de impacto, human-in-the-loop nas ações de alto risco, trilha de auditoria completa.
De operador de tarefa para gestor de exceção. O humano sai do fluxo e entra no loop de supervisão.
Custo por atendimento, tempo de resolução, conversão pós-recomendação, autonomy rate.
Modelos fundacionais, infraestrutura de orquestração, plataforma de observabilidade de LLM.
O princípio que sustenta o framework: autonomia se conquista com evidência, não se concede por decreto. Cada onda tem um gate de métrica que autoriza a seguinte.
Unificação da camada de conhecimento: políticas de devolução, regras de estoque e exceções operacionais codificadas e versionadas. Sem isso, nenhum agente é confiável.
O agente de suporte sugere respostas ao atendente humano, consultando estoque e políticas em tempo real. O humano ainda decide. Objetivo: provar acurácia e ganhar confiança institucional.
O agente passa a executar resoluções de baixo risco sozinho e escala apenas exceções. Em paralelo entra a recomendação contextual. Ações de alto impacto ainda exigem aprovação humana.
Múltiplos agentes colaboram: o agente logístico detecta risco de ruptura, reroteia e notifica o agente de suporte, que comunica o cliente antes da reclamação. A Quantum vira, de fato, a entidade agêntica.
A onda mais importante de acertar: é ela que constrói — ou destrói — a confiança institucional no resto do programa.
A Onda 1 coloca um agente de IA ao lado do atendente humano, não no lugar dele. O agente lê o ticket, consulta estoque e políticas em tempo real, e sugere a resposta ou a ação. O humano revisa, ajusta se preciso, e envia. Toda decisão final continua sendo humana.
Parece pouco ambicioso — e é proposital. A Onda 1 não está resolvendo o problema de custo ainda; ela resolve um problema anterior e mais perigoso: a organização não confia na IA para agir sozinha, e com razão, porque ninguém ainda mediu se ela acerta. A Onda 1 é o experimento controlado que gera essa evidência — barata de errar, porque o humano filtra, e cada interação vira um dado sobre acurácia.
Direto no Gargalo 1: o estoque não fala com o suporte em tempo real e as políticas de devolução são interpretadas de forma inconsistente. Na Onda 1 o copiloto não conserta a fonte dos dados — ele faz a ponte. Ao abrir um ticket de devolução, o agente já traz status do pedido, política aplicável àquele SKU/país/data e uma resposta sugerida coerente. O atendente para de garimpar em cinco sistemas e passa a validar uma proposta.
As políticas unificadas da Onda 0, indexadas e recuperáveis. Sem isso, o copiloto alucina política — e alucinar política destrói confiança.
Tool calling somente-leitura para pedido e estoque. O agente lê tudo e escreve nada — elimina a categoria de risco "ação errada".
O agente compõe a resposta e a entrega dentro da ferramenta que o atendente já usa, sem trocar de tela.
Aceite, edição ou descarte de cada sugestão é registrado. Esse log é o produto mais valioso da onda.
A Onda 1 só autoriza a Onda 2 quando a acurácia da sugestão passa de um limiar definido com a diretoria. Três coisas a instrumentar:
De quantas sugestões o atendente envia como vieram. É o sinal mais forte de que o agente acertou sozinho.
Sugestão editada levemente ainda indica um agente útil; descartada indica que ele errou o alvo. A proporção mostra se está perto ou longe.
Separado e mais rígido. Política de devolução, reembolso e regras exigem acurácia quase absoluta — erro aqui vira risco jurídico em 12 jurisdições.
O princípio para a diretoria: o gate não é "a IA é boa o suficiente", é "a IA erra de forma rara e previsível o bastante para que, na Onda 2, a gente saiba exatamente quais casos ela pode assumir."
Arquiteta o RAG, os conectores e a camada de sugestão, e instrumenta a captura de feedback.
Muda de papel já aqui: além de atender, está treinando e avaliando o agente a cada aceite ou descarte. Vale nomear isso — não é vigilância, é o mecanismo que torna o trabalho deles menos repetitivo nas próximas ondas.
Define o limiar do gate e o período de observação antes da decisão de avançar.
Se o copiloto for bom, o atendente para de revisar e só clica "aceitar" — perde-se o filtro humano e contamina-se a métrica. Mitigação: amostragem de auditoria independente.
Base incompleta faz o copiloto sugerir com confiança coisas erradas. A Onda 1 só começa com uma fatia da base já confiável — comece pelos casos de devolução mais comuns, não pelo catálogo inteiro.
Aceitação alta pode significar "agente ótimo" ou "atendente não está olhando". A auditoria independente é o que separa os dois.
Três pilares que precisam existir desde a Onda 0 — não depois.
Ações classificadas por impacto: informacional → transacional baixo → transacional alto → irreversível. Cada nível define quem aprova. A IA nunca decide sozinha algo irreversível.
Não é "humano revisa tudo" (não escala) nem "humano revisa nada" (não é seguro). É o humano revisando exceções e amostras, com o sistema aprendendo das correções.
Toda decisão de agente precisa ser rastreável: o que consultou, o que decidiu, com que confiança. Requisito de compliance em 12 jurisdições e base para melhorar o sistema.
A Quantum tem os dados e tem a urgência. O que falta é a camada de ação autônoma governada. O caminho não é um grande projeto de IA — é uma sequência de quatro ondas, onde cada uma entrega valor mensurável e conquista o direito de avançar. O papel do AI Engineer é ser o arquiteto dessa progressão.