Com as eleições americanas de 2024 a apenas um mês de distância, não há dúvida de que a IA está desempenhando um papel sem precedentes na formação da percepção pública. Embora a IA tenha impulsionado a inovação em diversos setores, ela também se tornou cada vez mais acessível àqueles que buscam explorar suas capacidades para desinformação e manipulação.
Como o Gabinete do Diretor de Inteligência Nacional descrito no final de setembro, Rússia e Irã estão usando IA para influenciar as eleições americanas. Este alerta confirma que campanhas de desinformação geradas por IA, já observadas em eleições internacionais este ano, agora estão acontecendo nos EUA. À medida que entramos no último mês antes da eleição, esse aumento da desinformação gerada por IA, incluindo deepfakes, apresenta novos desafios para eleitores, governos e plataformas de mídia social.
A desinformação está em ascensão.
Pista de natação Recentemente, realizamos uma pesquisa com 500 tomadores de decisão em cibersegurança sobre a percepção deles em relação à IA no ambiente de trabalho e em outros setores. Embora o relatório completo esteja previsto para ser divulgado em outubro, havia um dado que consideramos essencial compartilhar: 74% dos responsáveis pela tomada de decisões em cibersegurança concordam que o uso de IA para gerar informações enganosas representa um risco significativo para os EUA.. Essas pessoas sabem em primeira mão que a tecnologia de IA está se tornando mais barata e acessível. Como resultado, o volume de informações enganosas só aumentará até o dia 5 de novembro.
A inteligência artificial deixou de ser domínio exclusivo de organizações com muitos recursos. Hoje, qualquer pessoa com acesso à internet e conhecimentos básicos pode utilizar ferramentas de IA. Embora essa democratização seja empolgante em muitos aspectos, ela também abre a caixa de Pandora da mídia fabricada — de vídeos deepfake a artigos enganosos — que ameaça inundar as plataformas online.
Uma das ameaças mais alarmantes da IA é o surgimento dos deepfakes — vídeos extremamente convincentes que reproduzem de forma realista ações ou declarações de indivíduos, levantando profundas implicações éticas e sociais. Um estudo recente deepfake envolvendo Taylor Swift Foi um lembrete arrepiante de como figuras facilmente reconhecíveis podem ser alvos. E este é apenas um dos muitos exemplos que vimos este ano.
A desinformação visual é particularmente perigosa porque as pessoas instintivamente confiam no que veem. Isso torna mais difícil para a pessoa comum distinguir entre conteúdo autêntico e conteúdo alterado. As implicações são vastas, especialmente na esfera política, onde deepfakes podem desacreditar candidatos ou manipular eleitores.
Áreas cinzentas legais e éticas
A interseção entre inteligência artificial e desinformação levanta questões complexas, principalmente em relação à liberdade de expressão. Deepfakes e conteúdo manipulado por IA confundem os limites entre expressão criativa e intenção maliciosa. Em que ponto o conteúdo editado deixa de ser uma forma de arte ou sátira e passa a ser uma mentira perigosa?
Do ponto de vista jurídico, essa questão é especialmente complexa. Embora algumas leis abordem a desinformação, a natureza evolutiva do conteúdo gerado por IA dificulta sua aplicação. A União Europeia formalizou recentemente sua Lei da Inteligência Artificial, Isso a torna a primeira regulamentação de sistemas de IA na UE. No entanto, nos EUA, as atuais regulamentações federais que regem deepfakes e conteúdo de IA podem não levar em conta os rápidos avanços da tecnologia, deixando desafios éticos e legais críticos sem solução.
Para onde vamos a partir daqui?
As mesmas técnicas baseadas em IA que estão sendo usadas para influenciar eleições — seja por meio de deepfakes, vozes falsas ou mensagens de texto altamente personalizadas — estão sendo cada vez mais utilizadas para comprometer organizações. A realidade é que a IA não está sendo usada apenas para manipulação política; ela também está sendo aplicada a ataques de phishing altamente direcionados, como aqueles que enganam novos compradores de imóveis para que transfiram o pagamento da compra para a conta errada, enviando um e-mail personalizado e no momento certo.
Esse nível de sofisticação abre novas vias para os atacantes, expandindo uma superfície de ataque já crescente. À medida que a dependência da tecnologia se aprofunda em todos os setores, o volume e a complexidade das ameaças cibernéticas só tendem a aumentar.
Para acompanhar essa rápida escalada, as empresas precisam adotar novas estratégias. automação e integrar IA em suas defesas. Com a IA sendo usada em ambos os lados da equação — por atacantes e defensores — a eficiência será fundamental. A direção que precisamos seguir é clara: não se trata apenas de ficar à frente dos atacantes, mas de evoluir em sintonia com eles, usando a IA para enfrentar os desafios de um cenário digital cada vez mais sofisticado.
Relatório TAG Cyber Tech: Usando IA para Automação de SecOps
O relatório do analista começa com uma breve visão geral do mercado de SOAR e a história de como a Swimlane se transformou de uma plataforma de automação de segurança SOAR para uma plataforma aprimorada por IA. Para entender melhor o uso de IA pela Swimlane, leia o relatório completo.

