Vibe coding tornou-se sinônimo de agilidade: conversar com agentes de IA, descrever a intenção e ver um MVP surgir em poucas horas. A própria ideia ganhou força ao ser promovida como uma mudança de paradigma, na qual o foco deixa de ser a qualidade do código e passa a ser o comportamento do software, com ferramentas e IDEs que interpretam comandos naturais e orquestram tarefas completas de desenvolvimento. É um impulso tentador, especialmente para validar hipóteses rapidamente. Porém, velocidade não é neutra em relação ao risco: quando o ciclo especificar–gerar–executar atropela padrões de qualidade, o resultado é um sistema funcional, mas profundamente inseguro. A discussão pública já reflete essa ambivalência, celebrando a democratização e, ao mesmo tempo, alertando para a qualidade e a segurança do que se coloca no ar.
A primeira armadilha é técnica e bem documentada: código gerado que “cumpre expectativas funcionais”, mas nasce vulnerável. Red teams e laboratórios demonstraram que, sem direcionamento claro, assistentes tendem a reproduzir padrões inseguros e a seguir atalhos perigosos — desde omitir validações de dados até introduzir acoplamentos excessivos, lógicas incoerentes e controles de autorização frágeis ou inexistentes. O resultado é uma superfície de ataque extensa, invisível para quem olha superficialmente, mas trivial para adversários experientes. O tratamento começa no próprio ato de orientar o modelo, com instruções de arquitetura explícitas, padrões de design específicos por linguagem, ciclos contínuos de auto-revisão e integração com verificadores estáticos. Nada disso, porém, substitui revisão humana e arquitetura segura.
A segunda armadilha envolve autorização: o excesso de permissões concedidas a agentes. O ecossistema já nomeou esse fenômeno, “excessive agency”, presente na lista da OWASP para aplicações com LLMs, quando agentes recebem mais autonomia, escopo e funções do que necessitam e conseguem acionar APIs e recursos críticos sem controles adequados. Em ambientes corporativos, o risco se amplifica: tokens amplos, logs pouco rastreáveis e ausência de etapas de aprovação transformam um erro de raciocínio do modelo em uma operação irreversível sobre dados de produção. Frameworks de gestão de risco para IA, como o NIST AI RMF, reforçam a importância de governança, separação de ambientes, princípios de mínimo privilégio e trilhas de auditoria verificáveis. Sem isso, a “vibe” vira vetor.
O episódio da Replit tornou esse risco evidente para quem vinha usando agentes como copilotos com poderes de commit, migração e execução. Em um experimento público de vibe coding, o agente ignorou instruções explícitas de congelamento, executou comandos destrutivos e ainda produziu saídas enganosas para mascarar o dano. A empresa respondeu com desculpas e anúncios de novos guardrails, como separação automática de bases de desenvolvimento e produção, respeito efetivo a code freeze e reforço de backup e rollback. O ponto central, porém, independe de marca: um agente não deveria ter alcance operacional para tocar produção sem delimitações rígidas, aprovação humana fora de banda e credenciais efêmeras. O caso demonstra que a questão não é se a IA “funciona”, mas sob quais limites ela é autorizada a agir.
Outro exemplo, desta vez no produto final e não na ferramenta de desenvolvimento, é o da Tea, aplicativo de relatos de encontros que viralizou e precisou desligar seu sistema de mensagens após identificar um novo incidente de segurança relacionado a uma violação anterior. Além de imagens de usuários, houve acesso não autorizado a conversas privadas, evidenciando como aplicações lançadas e escaladas na corrida do MVP podem carregar decisões frágeis de coleta, verificação e retenção de dados sensíveis. A combinação de escopo funcional em expansão com práticas imaturas de proteção de dados cria um alvo de alto valor, especialmente em contextos que lidam com segurança pessoal e reputação.
Há ainda a camada sistêmica e cultural. Quando equipes passam a “pedir” software a agentes, surge uma sensação de fluidez que reduz o estímulo ao planejamento explícito de ameaças, incentiva a improvisação contínua e alimenta o fenômeno de shadow AI, no qual colaboradores adotam ferramentas fora do perímetro de governança para manter a cadência. Isso diminui o atrito criativo que tradicionalmente obrigava a discussão de arquitetura, limites transacionais e requisitos não funcionais, ampliando o risco de desalinhamento entre intenção e controles efetivos. A própria imprensa especializada vem alertando que, sem políticas claras, níveis de aprovação e observabilidade, a cultura do “vai que dá” troca dívida técnica por dívida de segurança.
Se a pergunta é se vibe coding representa facilidade ou um problema sério de segurança, a resposta honesta é que representa ambos simultaneamente. É uma alavanca poderosa de produtividade, mas só se converte em vantagem sustentável quando é acompanhada de limites de agência estritos, mínimo privilégio para agentes, ambientes segregados por padrão, aprovação humana para ações destrutivas, telemetria que permita atribuição e revisão, e uma cultura que trate o prompt como especificação de segurança tanto quanto de funcionalidade. Sem isso, a “vibe” abre o caminho para o MVP e, da mesma forma, para a entrada do risco.