COMO A INTELIGÊNCIA ARTIFICIAL ESTÁ REDEFININDO A GOVERNANÇA CORPORATIVA NAS ORGANIZAÇÕES CONTEMPORÂNEAS?

‎Por Eduardo Marçal

No meio do entusiasmo da de AI Agents com produtividade e automação, ainda nos faltam algumas respostas a perguntas que realmente importam neste cenário.

QUEM CUIDA DOS AGENTES?

A primeira pergunta é estrutural: Quem, exatamente, é responsável por um agente de IA dentro da empresa? TI, que garante a infraestrutura, a segurança e a integração com sistemas?
RH, que deveria zelar pelo alinhamento comportamental e ético do agente com a organização? Ou a área funcional para a qual o agente “trabalha”, gerando entregas, respostas ou decisões?
A verdade é que poderíamos estar inaugurando um modelo de governança emergente: uma gestão matricial de até três dimensões: técnica, humana e funcional. TI como responsável pela integridade e operação da tecnologia, RH, conduta, aderência à cultura e impacto organizacional, as outras áreas de negócio, performance e utilidade do agente frente aos objetivos estratégicos.
Neste sofisticado arranjo, a accountability se torna difusa e traz novos desafios. Os agentes operariam em um “entrelugar” atravessando fronteiras entre parâmetros técnicos, expectativas e restrições de distintas áreas.

E SE O AGENTE NÃO FOR PROPRIETÁRIO?

Quando o agente é construído a partir de um modelo de mercado, como OpenAI, Gemini ou Anthropic? Quem res-ponde pelas decisões que ele toma? Com modelos proprietários, há maior margem de controle. No entanto, com modelos abertos, se opera em uma zona cinzenta, técnica, ética e jurídica. Uma alternativa seria pensar em algo mais robusto: agentes submetidos a contratos de conduta, SLAs, políticas internas e códigos de cultura. Se esperamos que eles reflitam os valores corporativos, preci-samos definir com clareza o que os alimenta, e o que os limita.

E COMO SERIA UM FRAMEWORK DE GOVERNANÇA ADEQUADO?

Ao permitir que esses sistemas interajam com colaboradores, processem decisões ou influenciem fluxos de trabalho, muitas organizações estão, na prática, delegando poder sem criar mecanismos claros de responsabilidade.
Quem controla os agentes? Quem define seus limites? E, mais importante: quem responde por eles quando algo dá errado, ou quando reforçam comportamentos e vieses que a empresa afirma combater?
A ausência de governança algorítmica não é neutra e abre espaço para que agentes operem sem transparência, sem limites e sem accountability. Em outras palavras, corremos o risco de criar uma camada de decisões automatizadas sem rosto e sem voz, onde a justificativa final vira “foi o sistema que disse”. Um framework de governança de agentes deveria considerar 5 elementos-chave:

• Um código de conduta algorítmica, que una SLAs, ética, cultura e diretrizes organizacionais;
• Transparência sobre os critérios e limites da atuação dos agentes: Tornar visível o porquê o agente toma determinadas decisões ou executa certas tarefas Estabelecer mecanismos de override humano em decisões críticas Definir zonas de autonomia plena vs. zonas de supervisão obrigatória
• Mecanismos de accountability distribuída: Com clareza de responsabilidades entre TI (técnica), RH (comportamental) e demais áreas funcionais (resultado); Com instâncias formais de responsabilização em casos de falha, viés ou impacto negativo;
• Ciclos de monitoramento baseado em indicadores bá-sicos de performance, cujo accountability pode se dividir, conforme proposto, entre áreas de TI, RH e demais funcionais: TI: Latência, % uptime, taxa de erros de parsing; RH: Contribuição com OKRs do negócio, ganho de produtividade, grau de alinhamento com código de conduta algorítmica (auditoria) Áreas funcionais: Acurácia das respostas (via CSAT, NPS), interações bem-sucedidas (sem intervenção humana), tempo médio de solução (SLA) e taxa de abandono;
• Promover aprendizado contínuo e estruturado para trabalhar com agentes Inserir a governança de IA na formação gerencial e nos processos de onboarding No fim, a questão não é apenas o que os agentes podem fa- zer, mas o que deixamos de considerar ao evitar o debate sobre sua governança. Assumir essa discussão é mais do que mitigar riscos: é uma escolha sobre intenção, coerência e futuro.

Um framework robusto não somente organiza responsabilidades, mas define limites claros e cria condições para os agentes operarem de forma segura, alinhada e sustentável, refletindo os valores da organização enquanto ampliam seu impacto.

Eduardo-A.-Marçal_1910

CONSELHEIR@

Eduardo Marçal

É formado em Engenharia de Produção pela UFSC com graduação sanduíche na University of Ulsan na Coreia do Sul. Tem experiência em projetos de transformação, atuando na América do Norte e América do Sul em energias renováveis, varejo, agronegócio e bens de consumo.

Atualmente, trabalha na Atlas Renewable Energy, liderando iniciativas de transformação a nível global, resolvendo desafios que emergem da interseção entre pessoas, processos e tecnologia.

Nas horas vagas, divide seu tempo entre leitura, escrita, contrabaixo e corrida de rua.