No meio do entusiasmo da de AI Agents com produtividade e automação, ainda nos faltam algumas respostas a perguntas que realmente importam neste cenário.
A primeira pergunta é estrutural: Quem, exatamente, é responsável por um agente de IA dentro da empresa?
TI, que garante a infraestrutura, a segurança e a integração com sistemas?
RH, que deveria zelar pelo alinhamento comportamental e ético do agente com a organização?
Ou a área funcional para a qual o agente “trabalha”, gerando entregas, respostas ou decisões?
Quem cuida dos agentes?
A verdade é que poderíamos estar inaugurando um modelo de governança emergente: uma gestão matricial de até três dimensões: técnica, humana e funcional. TI como responsável pela integridade e operação da tecnologia; RH, conduta, aderência à cultura e impacto organizacional; as outras áreas de negócio, performance e utilidade do agente frente aos objetivos estratégicos.
Neste sofisticado arranjo, a accountability se torna difusa e traz novos desafios. Os agentes operariam em um “entrelugar”, atravessando fronteiras entre parâmetros técnicos, expectativas e restrições de distintas áreas.
E se o agente não for proprietário?
E quando o agente é construído a partir de um modelo de mercado como OpenAI, Gemini ou Anthropic? Quem responde pelas decisões que ele toma?
Com modelos proprietários, há maior margem de controle. No entanto, com modelos abertos, se opera em uma zona cinzenta — técnica, ética e jurídica.
Uma alternativa seria pensar em algo mais robusto: agentes submetidos a contratos de conduta, SLAs, políticas internas e códigos de cultura.
Se esperamos que eles reflitam os valores corporativos, precisamos definir com clareza o que os alimenta e o que os limita.
E como seria um framework de governança adequado?
Ao permitir que esses sistemas interajam com colaboradores, processem decisões ou influenciem fluxos de trabalho, muitas organizações estão, na prática, delegando poder sem criar mecanismos claros de responsabilidade.
Quem controla os agentes? Quem define seus limites?
E, mais importante: quem responde por eles quando algo dá errado, ou quando reforçam comportamentos e vieses que a empresa afirma combater?
A ausência de governança algorítmica não é neutra e abre espaço para que agentes operem sem transparência, sem limites e sem accountability. Em outras palavras, corremos o risco de criar uma camada de decisões automatizadas sem rosto e sem voz, onde a justificativa final vira “foi o sistema que disse”.
Um framework de governança de agentes deveria considerar 5 elementos-chave:
- Um código de conduta algorítmica, que una SLAs, ética, cultura e diretrizes organizacionais;
- Transparência sobre os critérios e limites da atuação dos agentes:
- Tornar visível o porquê o agente toma determinadas decisões ou executa certas tarefas
- Estabelecer mecanismos de override humano em decisões críticas
- Definir zonas de autonomia plena vs. zonas de supervisão obrigatória
- Mecanismos de accountability distribuída:
- Com clareza de responsabilidades entre TI (técnica), RH (comportamental) e demais áreas funcionais (resultado);
- Com instâncias formais de responsabilização em casos de falha, viés ou impacto negativo;
- Ciclos de monitoramento baseado em indicadores básicos de performance, cujo accountability pode se dividir, conforme proposto, entre áreas de TI, RH e demais funcionais:
- TI: Latência, % uptime, taxa de erros de parsing;
- RH: Contribuição com OKRs do negócio, ganho de produtividade, grau de alinhamento com código de conduta algorítmica (auditoria)
- Áreas funcionais: Acurácia das respostas (via CSAT, NPS), interações bem-sucedidas (sem intervenção humana), tempo médio de solução (SLA) e taxa de abandono;
- Promover aprendizado contínuo e estruturado para trabalhar com agentes
- Inserir a governança de IA na formação gerencial e nos processos de onboarding
No fim, a questão não é apenas o que os agentes podem fazer, mas o que deixamos de considerar ao evitar o debate sobre sua governança. Assumir essa discussão é mais do que mitigar riscos: é uma escolha sobre intenção, coerência e futuro.
Um framework robusto não apenas organiza responsabilidades, mas define limites claros e cria condições para que os agentes operem de forma segura, alinhada e sustentável, refletindo os valores da organização enquanto ampliam seu impacto.