O mercado de Inteligência Artificial deverá alcançar um crescimento expressivo de 35% até 2025, impulsionado pelo salto de desenvolvimento proporcionado pela IA Generativa, segundo dados da Statista. Esse crescimento impacta diretamente a área de Cibersegurança, positivamente: estima-se que o mercado global alcance crescimento de 24,5% anuais até 2028, segundo estudo da Research and Marketers.
Ao mesmo tempo, muitos especialistas também debatem como isso pode trazer implicações mais graves para a segurança cibernética, como a possibilidade de expansão, por exemplo, do Ransomware as a Service, algo que já era possível antes, mas é facilitado neste contexto. É algo que as lideranças precisam estar atentas e entender mais sobre o que está em jogo.
• Clique aqui agora e receba todas as principais notícias do Diário de Curitiba no seu WhatsApp!
A difusão de uma inovação disruptiva, como a IA Generativa, demanda análises para distinguir riscos e desafios. Diante desse cenário, especialistas em IA e CEOs de Big Techs assinaram um manifesto pedindo uma pausa no desenvolvimento por, pelo menos, 6 meses, para ser possível, com certo distanciamento, analisar o que está em jogo.
Estavam entre os signatários: Elon Musk (responsável pela Tesla), Yoshua Bengio (pioneiro em desenvolvimento de IA), Steve Wozniak (cofundador da Apple), Tristan Harris e Aza Raskin (co fundadores do Center for Human Technology), Emad Mostaque (CEO da Estabilidade AI), entre outros.
Alguns deles, inclusive, formaram o Frontier Model Forum: um espaço para que as lideranças na criação desse modelo possam discutir formas éticas e responsáveis de dar os próximos passos. Compõem o fórum a OpenAI, Google, Microsoft e Anthropic).
O Open Web Application Security Project (OWASP), a organização dedicada para discussões sobre cibersegurança, desenvolveu o OWASP AI Security and Privacy Guide, definindo os principais riscos envolvidos que devem ter a atenção das lideranças:
- Aumento da superfície de ataques de dados: com mais informações circulando fora das aplicações para treinamento de aprendizado de máquina, há uma maior superfície de ação que os cibercriminosos podem utilizar e, portanto, há necessidade de maior mitigação de riscos;
- Ataques de modelos de IA (Adversarial Machine Learning Attacks): ataques que têm como alvo sistemas de IA e visam diminuir o desempenho ou, então, enganar o algoritmo de Machine Learning para obter vantagens;
- Ataques de envenenamento de dados: também chamado de “ataques backdoor”, visa alterar os dados utilizados para treinamento de IA, e manipular o modelo de dados, simulando uma situação de normalidade. É um perigo real e grave, pois afeta, por exemplo, o funcionamento de carros autônomos;
- Ataques de inversão de modelo: a IA generativa pode, por exemplo, fornecer respostas relacionadas com dados de treinamento confidenciais e tornar públicas informações que deveriam ser confidenciais. Isso ocorreu, por exemplo, com o Bing em fevereiro de 2023.
IA e Segurança da Informação enfrentam desafios para futuro
O OWASP alerta sobre os desafios com privacidade, ética, viés algorítmico, transparência, direito do usuário sobre os dados tratados por IA, precisão de análise e legalidade. Além disso, é possível incluir:
- Uso da IA para facilitar processos de desenvolvimento e, com isso, proporcionar vulnerabilidades graves (como o uso das plataformas de Large Language Models – LLMs – para criação de código-fonte);
- Compartilhamento de dados sensíveis e sigilosos com as plataformas de LLM que operam com opacidade em relação ao armazenamento e tratamento das informações para treinamento do modelo;
- Vulnerabilidades de segurança injetadas nos conjuntos de treinamento e isso ser passado na solução desenvolvida por meio de IA Generativa;
- Facilitação de cibercrimes como o Ransomware as a Service, e-mails de Phishing ainda mais realistas, vídeos deep fake para fraudes, criação de códigos que pareçam confiáveis, mas sejam maliciosos, entre outros;
- Tomadas de decisões cruciais na Segurança da Informação baseadas em resultados oferecidos por plataformas sem transparência sobre dados de treinamento.
É essencial ter cautela ao tomar decisões baseadas em IA sem supervisão humana com ferramentas não-transparentes. Isso porque não é possível identificar os vieses presentes nos processos realizados por essas plataformas.
Ney Lopez, Senior Consultant for Data Security, Protection and Privacy na Century Data, ressalta: “Para garantir uma implementação bem-sucedida e segura da IA na segurança, é essencial abordar os desafios mencionados e garantir que a tecnologia seja usada de forma ética, transparente e em conformidade com as leis e regulamentos aplicáveis”.
Surgem novas tendências com a união da IA e Segurança da Informação
Além dos riscos e desafios, a IA tem um grande potencial na área de Segurança, como reforça Ney: “[Ela] tem o potencial de revolucionar a segurança da informação, permitindo que as organizações enfrentem ameaças cibernéticas de maneira mais eficiente e eficaz”.
Essa incorporação proporcionará o próximo nível de plataformas de Segurança da Informação, facilitando detecção de problemas, corrigindo vulnerabilidades e automatizando respostas aos incidentes. Isso ajuda a reduzir chances de falhas humanas.
Contudo, para isso, o trabalho conjunto para identificar e superar os desafios será fundamental nesse contexto revolucionário: “A colaboração contínua entre especialistas em segurança, profissionais de IA e formuladores de políticas será fundamental para enfrentar esses desafios e construir um futuro mais seguro e resiliente em relação à segurança da informação”, alerta o especialista, reforçando a necessidade da atualização com experts da área, para a adoção dessas inovações de forma segura.
Para mais informações sobre Cibersegurança, basta acessar: https://centurydata.com.br/blog/