86% dos CEOs Estão Aumentando Orçamentos de AI — Mas Apenas 1 em 5 Tem a Governança para Apoiar Isso

Há uma tela dividida acontecendo dentro da maioria das salas de conselho corporativas agora. Em um monitor: os orçamentos de AI estão subindo. No outro: um dashboard de governança quase vazio.

Os números contam a história claramente. Segundo dados de analistas agregados pela Joget, com base em pesquisas públicas do Gartner e IDC, 40% dos aplicativos corporativos incorporarão agentes de AI específicos para tarefas até o final de 2026. E o relatório Deloitte State of AI in the Enterprise descobriu que 86% das organizações pesquisadas esperam que seu investimento em AI aumente este ano, com 64% já implantando AI ativamente nas operações. Isso é adoção real em escala real.

Mas aqui está a parte que deveria estar na próxima agenda do seu conselho: apenas uma em cinco empresas tem um framework de governança maduro para supervisionar o que esses agentes autônomos estão realmente fazendo. A lacuna entre gastos e supervisão não é um problema de CTO. É um problema de responsabilidade do CEO, e está aumentando a cada trimestre.

Por Que a Governança Fica Atrás da Adoção

O padrão é familiar. Uma nova capacidade chega prometendo ganhos mensuráveis de produtividade. Equipes piloto mostram resultados. As unidades de negócios começam a comprar ferramentas. A TI corre atrás. E quando alguém pergunta "mas quem está observando o que esses sistemas fazem?", os agentes já estão tocando a lógica de folha de pagamento, comunicações com clientes e previsões de receita.

Os agentes de AI não estão apenas automatizando tarefas. Eles estão tomando ações autônomas. Essa é uma distinção significativa. Um bot de agendamento que envia um convite para reunião não é o mesmo animal que um agente que resolve reembolsos de clientes, atualiza registros do CRM, reclassifica leads ou ajusta a lógica de precificação com base em sinais em tempo real. Essa segunda classe de agente pode criar consequências downstream que se acumulam antes que alguém perceba.

Empresas de telecomunicações lideram a adoção agêntica com 48%, seguidas por varejo e CPG com 47%, segundo a mesma agregação de analistas. São setores onde os erros dos agentes não são apenas embaraçosos. São eventos regulatórios.

A lacuna de governança existe não porque as empresas não se importam com risco, mas porque os frameworks de governança para agentes autônomos são genuinamente novos. A maioria das funções de risco corporativo construiu seus manuais em torno de software que esperava por comandos humanos. Os agentes não esperam.

A Transferência de Responsabilidade Está no CEO

Há uma tendência de enquadrar a governança de AI como uma função de TI ou jurídica. Esse enquadramento perde a exposição. A lacuna de governança em AI no trabalho já está surgindo em operações de receita e fluxos de trabalho voltados para clientes — não apenas em automação de back-office.

Quando um agente de AI toma uma ação consequente — e eventualmente tomará uma que está errada — o conselho perguntará: "O CEO sabia quais controles estavam em vigor?" Não o CTO. Não o CRO. O CEO.

Isso não é hipotético. Incidentes de governança ligados a sistemas automatizados já geraram escrutínio regulatório em serviços financeiros e saúde. À medida que os agentes de AI se expandem para operações de receita, atendimento ao cliente e procurement, o raio de explosão das lacunas de governança cresce proporcionalmente.

Os 80% das empresas sem supervisão madura não estão assumindo um risco calculado. Estão assumindo um risco não calculado.

Um Framework de Governança em 4 Etapas que os CEOs Devem Exigir

Nada disso exige parar a implantação de AI. O ponto é construir supervisão em paralelo com a adoção, não como um freio nela. Aqui está uma estrutura prática que se mapeia para como a maioria das empresas de médio porte está organizada.

Etapa 1: Faça inventário do que está realmente rodando. Antes de poder governar agentes de AI, você precisa saber o que está implantado. A maioria dos CEOs descobre por meio deste exercício que o número real é 3 a 5 vezes o que lhes foi dito. Um ponto de partida útil é entender a distinção entre copilotos e agentes de AI — porque os requisitos de governança diferem significativamente entre os dois. O procurement de AI nas sombras é tão real quanto a TI nas sombras era uma década atrás. CTO, CIO e chefes funcionais cada um possui uma parte deste quadro. Torne-o uma entregável trimestral compartilhado.

Etapa 2: Classifique por consequência. Nem todos os agentes carregam o mesmo risco. Agrupe-os pelo escopo de ação autônoma que podem tomar. Um agente que rascunha e-mails de saída para revisão é de baixa consequência. Um agente que auto-aprova mudanças de precificação ou sinaliza leads como desqualificados sem revisão humana é de alta consequência. Sua sobrecarga de governança deve escalar com essa classificação.

Etapa 3: Defina limites de decisão explicitamente. Para qualquer agente de alta consequência, documente o que ele pode e não pode fazer sem aprovação humana. Este é o "envelope de autoridade" do agente. Parece básico, mas a maioria das implantações não tem isso escrito. Essa é a lacuna que os reguladores sondarão primeiro.

Etapa 4: Crie um caminho de reporte para o conselho. Governança madura significa que o conselho recebe um resumo periódico de: agentes em execução, sua classificação, incidentes conhecidos e exceções concedidas. Isso não precisa ser um relatório extenso. Uma atualização trimestral de uma página é suficiente para demonstrar que a supervisão está funcionando.

O Argumento de Produtividade para Acertar Isso

Vale reconhecer o que está do outro lado desta equação. Empresas que estão implantando agentes em funções de suporte estão relatando economias de tempo de 40 ou mais horas por mês para pequenas equipes, segundo estudos de caso corporativos citados na pesquisa. O argumento de produtividade é real.

Mas os ganhos de produtividade só são duráveis se a estrutura de governança subjacente se mantiver. Um agente que economiza 40 horas por mês e depois aciona um incidente de compliance no oitavo mês não é um ganho de produtividade. É um passivo diferido. Medir o ROI de AI adequadamente significa contabilizar esse risco, não apenas reportar a economia de tempo.

CEOs que constroem governança agora podem capturar ambos: os ganhos de eficiência e a confiança que vem de saber o que seus sistemas de AI estão fazendo.

O Que Colocar na Próxima Agenda do Conselho

A conversa do conselho sobre AI geralmente fica presa em dois sulcos: ou é uma discussão de "estratégia de AI" de alto nível sem fundamento operacional, ou degenera em um briefing de procurement de ferramentas. O ângulo de RevOps neste mesmo problema — o que os agentes de AI estão fazendo nos fluxos de trabalho de receita — vale ser revisado junto com o quadro de nível de conselho. Nenhum dos dois é útil.

O que o conselho realmente precisa ouvir é mais simples:

  • Quantos agentes de AI autônomos estão operando em fluxos de trabalho materiais?
  • Qual é a classificação de consequência de cada um?
  • Qual é o limite de decisão para cada agente de alta consequência?
  • Quem possui a função de governança e qual é seu caminho de escalação?
  • Quais incidentes ocorreram e qual foi a resolução?

Se sua equipe não consegue responder a essas perguntas com especificidade, isso é o que deve ser reportado ao conselho — não o roadmap para corrigi-las mais tarde. A lacuna entre gastos com AI e governança de AI se fecha quando os CEOs tratam isso como uma questão de responsabilidade no nível do conselho, e não como uma tarefa de tecnologia downstream.

Oitenta e seis por cento das organizações estão aumentando os orçamentos de AI. As que olharão para 2026 como uma vantagem competitiva — em vez de um incidente de governança — são as que estão construindo supervisão no mesmo ritmo.


Os dados neste artigo são baseados em pesquisas agregadas pela Joget a partir de resumos públicos do Gartner e IDC e no relatório Deloitte State of AI in the Enterprise.