Segurança da Informação para Inteligência Artificial

dezembro, 2024‎ ‎ ‎ |

‎Por Marcelo Fonseca Santos

A inteligência artificial (IA) é uma área da ciência da computação que visa criar sistemas capazes de realizar tarefas que normalmente exigiriam inteligência humana, como reconhecimento de padrões, aprendizado, raciocínio e tomada de decisão. A IA tem avançado rapidamente graças ao aumento da disponibilidade de dados, poder computacional e algoritmos sofisticados, inclusive de visão computacional.

A IA tem aplicação em diversos domínios e setores, como saúde, educação, transporte, segurança, entretenimento e indústria.

No entanto, a IA também traz novos desafios e riscos para a segurança da informação, que é a proteção da informação e dos sistemas de informação contra ameaças maliciosas ou não autorizadas.

Lembremo-nos que a Segurança da Informação está contida na Lei Geral de Proteção de Dados e nos Frameworks de Governança da Inteligência Artificial, envolvendo aspectos como confidencialidade, integridade, disponibilidade, autenticidade e não repúdio. A IA pode afetar a segurança da informação de duas formas principais: como um atacante e como um defensor, e pode ser objeto de ataques promovidos interna e externamente caso não sejam observados rígidos métodos de segurança.

Como um atacante, a IA pode ser usada para gerar ataques mais sofisticados, eficientes e adaptativos contra sistemas de informação. Por exemplo, a IA pode ser usada para: (i) Gerar conteúdo falso ou enganoso, como imagens, vídeos, áudios ou textos, usando técnicas como redes adversariais generativas (GANs) ou síntese neural. Esse conteúdo pode ser usado para manipular, desinformar ou extorquir pessoas ou organizações; (ii) Automatizar o processo de exploração de vulnerabilidades, usando técnicas como aprendizado por reforço ou planejamento automatizado. Essas técnicas podem permitir que os atacantes encontrem e explorem falhas em sistemas de informação de forma mais rápida e eficaz do que os métodos tradicional; (iii) Evadir ou enganar os mecanismos de defesa, usando técnicas como aprendizado adversarial ou ofuscação. Essas técnicas podem permitir que os atacantes modifiquem seus ataques para evitar a detecção ou o bloqueio por sistemas de segurança baseados em IA ou não.

Como um defensor, a IA pode ser usada para melhorar os mecanismos de proteção, detecção e resposta a ataques contra sistemas de informação. Por exemplo, a IA pode ser usada para: (i) Analisar grandes volumes de dados, usando técnicas como aprendizado profundo ou mineração de dados. Essas técnicas podem permitir que os defensores identifiquem padrões, anomalias ou comportamentos suspeitos em sistemas de informação, como redes, dispositivos ou aplicações.

  • Automatizar o processo de prevenção, mitigação ou recuperação de ataques, usando téc>nicas como aprendizado por reforço ou orquestração. Essas técnicas podem permitir que os defensores reajam aos ataques de forma mais rápida e eficaz do que os métodos tradicionais.



Aumentar a resiliência e a robustez dos sistemas de informação, usando técnicas como aprendizado federado ou redes neurais recorrentes. Essas técnicas podem permitir que os defensores criem sistemas de informação mais distribuídos, dinâmicos e adaptativos, capazes de resistir ou se recuperar de ataques. Portanto, a IA tem um papel ambíguo na segurança da informação, podendo ser tanto uma ameaça quanto uma oportunidade.



Para garantir que a IA seja usada de forma ética, responsável e segura, é necessário considerar aspectos como:

(i) Governança: estabelecer normas, princípios e regulamentos para o desenvolvimento, uso e controle da IA, envolvendo múltiplos atores e interesses, como governos, empresas, academia, sociedade civil e usuários finais.

(ii) Auditoria: monitorar, avaliar e verificar o funcionamento, o desempenho e o impacto da IA, usando métodos e ferramentas adequados, como testes, simulações, revisões ou certificações.

(iii) Transparência: tornar público e acessível o processo, o propósito e o resultado da IA, usando meios e formatos apropriados, como documentação, explicação ou visualização.

(iv) Privacidade: proteger os dados pessoais ou sensíveis que são coletados, processados ou gerados pela IA, usando medidas e técnicas adequadas, como criptografia, anonimização ou consentimento.

(v) Segurança: prevenir, detectar e responder a ataques maliciosos ou não autorizados contra a IA ou usando a IA, usando mecanismos e estratégias adequados, como firewalls, antivírus ou treinamento.

A segurança da informação para a inteligência artificial é um tema complexo e multidimensional, que requer uma abordagem holística e colaborativa, envolvendo diversos aspectos técnicos, legais, éticos e sociais.

Marcelo-Santos-_1910

CONSELHEIR@

Marcelo Fonseca Santos

Mestrando em Direito Político e Econômico na  Universidade Presbiteriana MACKENZIE, Especialista em Direito Empresarial pela FGV/SP, advogado, Vice Presidente da Associação Nacional das Advogadas e Advogados de Direito Digital – ANADD, Diretor da International Association of Artificial Intelligence– I2AI, Pesquisador, Professor e Palestrante de Direito Digital e Inovação, Presidente da Comissão de Direito Digital da OAB/SP – Lapa, Coordenador do Curso de Pós-Graduação de Inteligência Artificial e Gestão de Negócios,  Professor da Pós Graduação da LEGALE em Lei Geral de Proteção de Dados, Professor de Direito Tributário das Faculdades Integradas Campos Salles, Membro das Comissões de Tecnologia e Inovação, de Compliance e de Privacidade, Proteção de Dados e Inteligência Artificial da OAB/SP, Coordenador da Escola Superior de Advocacia – ESA – da OAB/SP – Lapa.

Quem também está com a gente

Empresas, Startups, Centros de Pesquisa e Investidores