Hack Alerta

A próxima crise corporativa será causada por um Agente de IA (se não construirmos a governança agora)

Kleber Bacili, CEO da Sensedia, alerta que a próxima crise corporativa será causada por Agentes de IA sem governança adequada. Análise sobre riscos e implementação.

Governança de IA é o novo epicentro de risco corporativo

A discussão sobre Inteligência Artificial (IA) nas empresas começou com chatbots e copilotos. Úteis, mas ainda assim relativamente “contidos”. Agora, estamos entrando em uma nova fase, em que os Agentes de IA não apenas conversam, mas executam tarefas, acessam sistemas e dados, chamam APIs, tomam decisões operacionais e, em alguns casos, disparam ações transacionais.

Essa transição (conversação para ação) muda tudo. O risco deixa de ser um tema exclusivo de tecnologia e passa a ocupar o centro da agenda executiva: reputação, compliance, continuidade operacional e previsibilidade financeira. Não é por acaso que analistas apontam uma adoção acelerada de Agentes em aplicações corporativas nos próximos anos. De acordo com a Mckinsey, 88% das empresas já estão usando AI em pelo menos uma função de negócio, embora a maioria ainda encontre desafios para escalar esse uso de forma estruturada.

O ponto é simples: se os Agentes vão operar como “mãos digitais” dentro da empresa, precisamos tratá-los como tal. Identidade, limites, trilha de auditoria, controles de acesso, governança e responsabilidade passam a ser fundamentais para os Agentes. Caso contrário, a próxima crise corporativa não virá de um bug tradicional, mas de um Agente bem-intencionado, ou explorado, que age fora de escopo.

De experimento isolado à autonomia: o salto de risco

Empresas estão evoluindo rapidamente do estágio de experimentação para adoção controlada, Agentes escalados e, em alguns setores, para operações mais autônomas, em que Agentes executam ações de negócio. Em arquiteturas mais avançadas, esses Agentes passam a orquestrar outros Agentes, criando cadeias autônomas de decisão.

Essa curva é natural. Conforme a confiança aumenta, cresce a vontade de conectar Agentes a dados reais e processos críticos. O que antes era um fluxo isolado se transforma em uma rede de decisões interdependentes, elevando substancialmente a complexidade e o risco sistêmico.

O desafio é que a maior parte dos sistemas corporativos foi projetada para interagir com usuários humanos, limitados por ritmo, volume e contexto. Um Agente opera em outra ordem de magnitude. Ele executa ações em alta velocidade, escala consultas e transações de forma automatizada e pode encadear decisões sem fricção. A mesma progressão que amplia o valor também multiplica o impacto potencial de uma falha.

Vetores de ameaças e governança prática

Quando a IA passa a interagir com dados sensíveis e sistemas regulados, o custo de uma falha deixa de ser apenas uma 'resposta imprecisa' para se tornar um incidente operacional, financeiro ou reputacional em larga escala.

Nesse contexto, alguns vetores de ameaças já se tornaram comuns no universo de aplicações com LLMs: prompt injection, vazamento de dados, manipulação de saída, cadeia de suprimentos, permissões indevidas e falhas de isolamento. O OWASP Top 10 para aplicações com LLMs consolidou essa discussão ao mapear as categorias de risco mais recorrentes e relevantes para segurança.

Há também um segundo e mais importante sinal: Agentes já aparecem em relatórios e análises de ameaça do mundo real. A própria Anthropic, em seu relatório de Threat Intelligence, descreveu casos em que seus sistemas foram abusados em operações maliciosas envolvendo automação e “Agentic Workflows”, incluindo extorsão e intrusões direcionadas.

Quando algo falha na implementação corporativa, o problema raramente reside no modelo abstrato. Na prática, as crises nascem da ausência de diretrizes claras sobre identidade e acesso, que definem quem é o agente e quais credenciais ele pode utilizar. Somam-se a isso as lacunas em observabilidade e auditoria, que impedem o rastreio de decisões e dados consultados, e a falta de uma gestão de risco e custo eficiente para evitar abusos ou comportamentos inesperados.

Empresas que estabelecem essa governança agora, irão inovar com muito mais agilidade depois. As que negligenciarem essa base, fatalmente hesitarão ou correrão riscos desnecessários até que o custo chegue em forma de incidentes, sanções, manchetes negativas ou faturas inesperadas. A boa notícia é que essa crise pode ser evitada, mas exige uma decisão imediata: para Agentes, a governança não pode ser a 'fase 2', ela é a 'fase 0'. A era dos Agentes chegou e a era do improviso precisa acabar.


Baseado em publicação original de TI Inside
Publicado pela Redação Hack Alerta com base em fontes externas citadas e monitoramento editorial do Hack Alerta. Para decisões técnicas, operacionais ou jurídicas, confirme sempre os detalhes na fonte original.