Como lidar com BYOAI sem perder o controle sobre a segurança e a estratégia corporativa?

‎Por Roberto Della Penna

A ascensão do BYOAI (Bring Your Own AI) representa um dos maiores desafios para o ambiente corporativo desde a massificação do BYOD (Bring Your Own Device). No passado, nossos celulares e gadgets trouxeram vários desafios para as equipes de TI, que precisaram ajustar políticas, controles e camadas de segurança para equilibrar produtividade, confidencialidade e proteção de dados. Agora, com a inteligência artificial generativa integrada diretamente ao cotidiano dos profissionais, enfrentamos novamente uma nova fronteira: colaboradores utilizando ferramentas de IA por conta própria, na maioria das vezes, sem nenhum tipo de governança aplicada!

A principal diferença entre o BYOD e o BYOAI é a natureza da tecnologia. Enquanto a primeira envolvia conectividade e dispositivos físicos, a segunda lida com modelos computacionais que “aprendem”, armazenam, preveem e influenciam decisões. O risco, portanto, não está apenas em vulnerabilidades técnicas, mas também em vieses algorítmicos, falhas regulatórias, vazamento de propriedade intelectual, decisões estratégicas automatizadas fora da área de expertise do funcionário e do escopo da empresa.

Com o avanço de ferramentas como Gemini, ChatGPT, Claude, Perplexity, Copilot, muitos profissionais começaram a automatizar tarefas, gerar conteúdos, criar códigos e estruturar análises de dados, muitas vezes fora do seu contexto de excelência. A promessa de ganho de produtividade é real, e não deve ser ignorada, mas também pode representar uma nova superfície de ataque para cibercriminosos, além de riscos legais significativos.

O desafio é ainda mais crítico em empresas que operam sob forte regulação. Setores como financeiro, jurídico, saúde e energia lidam com dados sensíveis e processos que exigem rastreabilidade e conformidade. Se um colaborador utilizar uma IA generativa para redigir um contrato ou criar um modelo preditivo com dados confidenciais, como garantir que essas informações não estejam sendo expostas a terceiros?

Outro ponto importante é a perda do controle sobre os dados! A IA precisa ser treinada com informações, e muitas vezes esses dados são inseridos de forma manual por profissionais que sequer consideram o impacto disso. Textos corporativos, linhas de código, registros de clientes ou análises de desempenho estão sendo inseridos em ferramentas cujos termos de uso são, na maioria das vezes, ignorados. Isso abre margem para que informações confidenciais sejam incorporadas aos modelos e reapareçam em respostas a outros usuários fora da organização.

Do ponto de vista da segurança da informação, o BYOAI exige uma reestruturação das políticas tradicionais. Firewalls e antivírus já não são suficientes. É necessário construir uma estratégia de Zero Trust que se estenda também ao uso de IA. Isso inclui a classificação de dados sensíveis, a criação de modelos internos treinados com dados autorizados, o monitoramento de uso de plataformas externas e, sobretudo, a capacitação constante dos colaboradores sobre o uso ético e seguro da inteligência artificial.

As lideranças têm um papel decisivo nesse cenário! Ignorar o BYOAI seria tão ingênuo quanto proibir o uso de celulares no ambiente corporativo. O caminho é estabelecer diretrizes claras, reconhecer os benefícios da IA pessoal e buscar integrar essas ferramentas num ecossistema controlado. A área de TI deve atuar como facilitadora, e não como um órgão de contenção.

Um movimento crescente é a criação de ambientes corporativos com IA generativa customizada, nos quais os modelos são treinados com dados internos, auditáveis e operam dentro de camadas seguras da nuvem ou on-premise. Isso permite que a empresa aproveite os ganhos de produtividade oferecidos pela IA sem prescindir da governança. Além disso, o uso de APIs controladas para integrar plataformas abertas à infraestrutura corporativa tem se mostrado uma solução viável.

Empresas mais maduras no uso de tecnologia já estão criando “catálogos de IA” autorizados, em que determinadas ferramentas recebem selos de conformidade e passam por auditorias antes de serem liberadas para uso pelos times. Esse tipo de abordagem não apenas evita riscos como também estimula a inovação num ambiente supervisionado.

Outro fator relevante é o uso de logs e rastreamento das interações feitas pelos usuários. Ao registrar cada prompt, entrada ou resposta gerada por IA utilizadas internamente, as empresas ganham capacidade de auditoria, identificação de falhas e, mais importante, aprendizagem organizacional. Afinal, o conhecimento gerado por IAs também é um ativo estratégico que precisa ser gerido.

Vale destacar que o BYOAI não é uma tendência passageira. Pesquisas recentes da Gartner mostram que mais de 80% dos colaboradores em empresas com mais de mil funcionários já usam ferramentas de IA generativa de forma espontânea no dia a dia. Ou seja, estamos diante de um fenômeno irreversível, que pede regulação, mas também inteligência na gestão.

Sob a perspectiva jurídica, o uso não controlado de IA pode colocar a empresa em situações de risco de compliance, vazamento de dados pessoais, violações à LGPD e até questionamentos sobre autoria de conteúdo. Não é apenas uma questão de TI, mas de estratégia, reputação e sustentabilidade do negócio.

No âmbito jurídico, as implicações do BYOAI são multifacetadas e exigem uma análise cuidadosa. A Lei Geral de Proteção de Dados (LGPD), por exemplo, impõe requisitos rigorosos sobre o tratamento de dados pessoais, como por exemplo a necessidade de consentimento, a garantia de direitos dos titulares e a responsabilização em caso de incidentes, em contrapartida, temos o legítimo interesse como contraponto. Se um colaborador inserir dados pessoais em uma plataforma de IA externa sem a devida autorização, mesmo tendo como base legal o consentimento, a empresa corre o risco de ser responsabilizada por violação da LGPD. Além disso, a questão da autoria de conteúdos gerados por IA também é complexa. Quem detém os direitos autorais de um texto ou imagem criado por uma IA? A empresa? O colaborador que inseriu o prompt? A plataforma de IA? Essa indefinição pode gerar disputas legais e impactar a propriedade intelectual da organização. É fundamental que as empresas estabeleçam políticas claras sobre o uso de IA, que incluam diretrizes sobre a inserção de dados, a propriedade de conteúdos gerados e a responsabilidade em caso de incidentes. A realização de Due Diligence em plataformas de IA externas, para verificar suas políticas de privacidade e segurança, também é recomendável.

Empresas que entendem o potencial do BYOAI e canalizam essa energia para dentro de seus sistemas terão uma vantagem competitiva clara. Ao transformar colaboradores em parceiros estratégicos no uso da IA, e não em usuários proibidos, essas organizações estarão criando culturas mais abertas, inovadoras e resilientes.

A cultura organizacional, aliás, é um dos pilares dessa transformação. O medo do novo ou a tentativa de controlar tudo por meio de bloqueios tende a falhar. A nova liderança deve ser capaz de construir um ambiente de confiança, em que o uso de IA pessoal seja debatido abertamente, com regras claras e espaço para experimentação segura.

A capacitação também entra como fator-chave. Não basta proibir ou liberar: é preciso educar. Mostrar os riscos, os limites éticos e as boas práticas no uso da inteligência artificial é uma responsabilidade que deve ser compartilhada por RH, compliance e liderança técnica.

Com a disseminação do BYOAI, surge também a possibilidade de capturar insights valiosos de como os profissionais estão aplicando IA em seus contextos específicos. Isso pode orientar o desenvolvimento de soluções internas mais eficazes, além de gerar inovação vinda diretamente da base.

O grande risco não está apenas na tecnologia, mas na ausência de política, supervisão e consciência. O BYOAI é um espelho do novo mundo do trabalho: mais distribuído, mais digital e mais personalizado. Controlar o que é possível, orientar o que é necessário e permitir o que é produtivo deve ser a base de toda estratégia.

Este texto mesmo, foi escrito em parceria com uma IA, mostrando que chegaram para ficar, para nos ajudar a entender melhor, nos aprofundar e potencializar nosso conhecimento, produtividade e capacidade de comunicação

Ignorar o movimento é ceder ao caos; controlá-lo demais é travar a inovação. O equilíbrio está na governança inteligente, apoiada por tecnologia, cultura e liderança. O futuro do trabalho será cada vez mais híbrido, e isso inclui a inteligência que cada colaborador traz, literalmente, na ponta dos dedos.

Roberto-Della-Penna

CONSELHEIR@

Roberto Della Penna

Mais de 35 anos construindo, liderando e investindo em empresas de tecnologia, com foco em dados, inovação e transformação digital. Experiência comprovada no desenvolvimento de novas soluções tecnológicas, monetização de dados, gestão e processos de negócios. Atuação em empresas de tecnologia, construção civil, mercado metal mecânico e bens de capital. Apaixonado por desafios e comprometido em gerar resultados por via de processos, dados, tecnologia e inovação.

LinkedIn
Twitter
Facebook
WhatsApp
Email

Quem também está com a gente

Empresas, Startups, Centros de Pesquisa e Investidores