Manual para Navegar na Nova Fronteira da Tecnologia Eleitoral
A IA Chegou para Ficar, Influenciar e Mudar. Sua Campanha e/ou seu candidato estão preparados para usar e enfrentar a IA nestas eleições?
Prof. Aécio D’Silva, Ph.D. e Equipe
AquaUniversity
Este ano teremos primeira eleição no Brasil com uso massivo de inteligência artificial (IA). Candidatos e Eleitores não podem ignorar o poder da IA em influenciar intensamente os resultados das urnas. Numa era em que os dados são reis, a IA tornou-se um componente fundamental no processo eleitoral. O uso correto e inteligente da IA pode ser a diferença entre ganhar e perder uma eleição. Isto é, com este grande poder vem uma grande responsabilidade
(IA) no Processo Eleitoral – O uso legal ou ilegal da inteligência artificial na política eleitoral é um tema de crescente importância e controvérsia. Candidatos e eleitores não podem ignorar esta nova realidade. Todos devem estar preparados pois a IA chegou para ficar. À medida que os sistemas de IA se tornam mais sofisticados, têm o potencial de influenciar e mudar significativamente os resultados eleitorais, levantando questões sobre a integridade e a justiça dos processos democráticos.
Este post Colaborativo Inteligente do MyBeloJardim fornece uma visão abrangente da complexa relação entre IA e eleições, destacando as oportunidades e os desafios que apresenta. É crucial que candidatos e eleitores se envolvam nesta conversa e tomem medidas proativas para garantir que a IA sirva ao bem público e fortaleça as instituições democráticas.
(IA) no Processo Eleitoral – O poder da previsão
A capacidade da IA de analisar grandes quantidades de dados pode prever o comportamento dos eleitores com uma precisão sem precedentes. As campanhas que aproveitam este poder podem atingir os eleitores com mensagens personalizadas, potencialmente influenciando os indecisos.
O gerenciador de campanha algorítmico
A análise baseada em IA pode otimizar estratégias de campanha, identificando os principais dados demográficos e os canais de comunicação mais eficazes. Este nível de personalização pode ser a diferença entre ganhar e perder uma eleição.
Mídia social: o campo de batalha para corações e mentes
As ferramentas de IA podem espalhar informações super rapidamente, em segundos, pelas plataformas de redes sociais, influenciando a opinião pública. No entanto, também podem ser utilizados para disseminar desinformação, exigindo vigilância e verificação.
(IA) no Processo Eleitoral – A espada de dois gumes dos bots políticos
Contas automatizadas, ou bots, podem amplificar mensagens, criando a ilusão de apoio generalizado a um candidato ou causa. Embora possam envolver potenciais eleitores, também correm o risco de minar a confiança no discurso político.
(IA) no Processo Eleitoral – Protegendo o voto
A cibersegurança é uma preocupação crítica, uma vez que a IA pode ser utilizada para manipular sistemas de votação ou violar bases de dados de eleitores. Garantir a segurança da infra-estrutura eleitoral é fundamental para manter a confiança do público. A urna eletrônica com verificação de voto impresso é imprescindível, insubstituível e extremamente importante para garantir a legitimidade do voto.
(IA) no Processo Eleitoral – Como a desinformação é espalhada pelos bots?
Certamente! A desinformação espalhada por bots é um problema significativo na era digital, especialmente no que diz respeito ao seu impacto na opinião pública e nas eleições. Aqui está uma visão mais detalhada de como os bots contribuem para a disseminação de desinformação:
- Bots e propagação de notícias falsas: Bots são programas automatizados que podem interagir com usuários ou conteúdo em plataformas de mídia social. Eles são projetados para imitar o comportamento humano e podem executar tarefas de forma autônoma. Esses bots podem amplificar notícias falsas ao compartilhar repetidamente informações erradas, aumentando assim sua aparente popularidade e alcance.
- Microssegmentação e manipulação: os bots podem usar análise de dados para microssegmentar usuários com perfis específicos, mostrando-lhes conteúdo com o qual eles têm maior probabilidade de se envolver ou acreditar. Esta abordagem direcionada significa que a desinformação pode ser adaptada para explorar os preconceitos e crenças dos utilizadores individuais, tornando-a mais eficaz.
- Trolls e redes de bots: alguns bots fazem parte de redes maiores controladas por “trolls”, que espalham intencionalmente notícias falsas e desinformação para gerar polêmica ou manipular a opinião pública. Estas redes podem criar uma falsa sensação de consenso ou apoio a um ponto de vista específico.
- O desafio da detecção e controle: As plataformas de mídia social lutam para identificar e controlar a desinformação gerada por bots. Os bots podem ser programados para se comportarem como usuários normais, tornando difícil distinguir entre atividades genuínas e artificiais. Além disso, uma vez espalhada a desinformação, é difícil corrigi-la, pois tende a persistir mesmo depois de ser desmascarada.
- Impacto psicológico: A disseminação de desinformação por parte dos bots pode ter um impacto psicológico nos utilizadores. Estudos demonstraram que as pessoas são mais propensas a acreditar em informações que estejam alinhadas com suas crenças existentes, sejam fáceis de processar ou venham de uma fonte aparentemente confiável. Os bots podem explorar essas tendências para tornar a desinformação mais persuasiva.
- Mitigar a propagação : Para mitigar a propagação de desinformação por bots, é essencial melhorar os algoritmos de deteção das plataformas de redes sociais, educar o público sobre o pensamento crítico e a literacia mediática, e desenvolver políticas que promovam a transparência e a responsabilização no conteúdo online.
Na realidade, embora os bots possam influenciar significativamente a opinião pública ao espalharem desinformação, uma abordagem multifacetada que envolva tecnologia, educação e política pode ajudar a combater este desafio e proteger a integridade da informação online.
(IA) no Processo Eleitoral – Como podemos identificar e combater a desinformação espalhada por bots?
Identificar e combater a desinformação espalhada por bots é um processo de várias etapas que envolve soluções tecnológicas e vigilância humana. Aqui está uma abordagem detalhada:
Identificação de Bots:
- Algoritmos de aprendizado de máquina: utilize algoritmos de aprendizado de máquina para analisar padrões de comportamento característicos de bots, como postagem de alta frequência ou compartilhamento de conteúdo idêntico em diversas contas.
- Verificação de contas: incentive as plataformas de mídia social a implementar processos de verificação de contas mais rigorosos para evitar a criação de contas falsas de bots.
- Conscientização do público: Conscientize o público sobre os sinais de atividade de bot , como contas sem foto de perfil, sem informações pessoais ou que foram criadas recentemente e ainda assim apresentam um alto nível de atividade.
Combate à desinformação:
- Serviços de verificação de factos: Apoie e utilize serviços de verificação de factos que podem verificar rapidamente a exactidão das informações divulgadas online.
- Ferramentas de denúncia: Utilize ferramentas de denúncia fornecidas pelas plataformas de mídia social para sinalizar contas ou conteúdos suspeitos para análise.
- Campanhas Educacionais: Realizar campanhas educativas para melhorar a literacia digital, para que os utilizadores possam distinguir melhor entre informações credíveis e falsas.
Política e Regulamento:
- Colaboração entre autoridades e organizações civis: Trabalhar com órgãos governamentais e a sociedade para desenvolver políticas que estabeleçam diretrizes claras junta as plataformas de redes sociais contra a disseminação de desinformação.
- Transparência nos Algoritmos: Defenda a transparência nos algoritmos que determinam qual conteúdo é mostrado aos usuários, para garantir que eles não promovam inadvertidamente informações erradas.
Inovações Tecnológicas:
- IA para o bem: desenvolver e implantar sistemas de IA que possam neutralizar a disseminação de desinformação, identificando e rebaixando conteúdos falsos.
- Esforços comunitários: Promover uma abordagem orientada para a comunidade, onde os utilizadores trabalham colectivamente para identificar e desmascarar a desinformação.
Ao combinar estas estratégias, podemos criar uma sociedade mais informada e melhor equipada para identificar e combater a propagação de desinformação por parte dos bots.
(IA) no Processo Eleitoral – Quais são alguns exemplos bem-sucedidos de algoritmos de detecção de bots?
Vários exemplos bem-sucedidos de algoritmos de detecção de bots foram desenvolvidos para identificar contas automatizadas de mídia social, ou bots, que podem espalhar desinformação ou manipular o discurso online. Aqui estão alguns exemplos notáveis:
Botômeter X: (https://botometer.osome.iu.edu/) Desenvolvido por pesquisadores da Universidade de Indiana nos US, o Botometer X (anteriormente conhecido como BotOrNot ) usa aprendizado de máquina para avaliar a probabilidade de uma conta ser um bot com base em seu comportamento e características. Ele analisa mais de mil recursos de dados públicos e metadados de contas para fazer suas avaliações.
Métodos de aprendizagem profunda: (Deep Learning Methods): O método deep learning é uma técnica de inteligência artificial (IA) que instrui computadores a analisar dados de forma inspirada no cérebro humano. Os modelos de aprendizagem profunda são capazes de identificar padrões intrincados em imagens, texto, áudio e outras formas de dados, permitindo gerar insights e previsões precisas. Com métodos de aprendizagem profunda, tarefas que tradicionalmente exigem inteligência humana, como descrição de imagens ou transcrição de áudio em texto, podem ser automatizadas.
Uma revisão sistemática destacou a eficácia dos métodos de aprendizagem profunda para detecção de bots em mídias sociais. Esses métodos podem processar grandes conjuntos de dados e identificar padrões complexos que distinguem os bots dos usuários humanos.
Técnicas baseadas em aprendizado de máquina: (Machine Learning-Based Techniques:): Revisões abrangentes da literatura compilaram várias técnicas baseadas em aprendizado de máquina para detecção de bots em plataformas de mídia social. Essas técnicas incluem métodos supervisionados, semissupervisionados e não supervisionados, que são continuamente atualizados para acompanhar a evolução das estratégias de bot.
Estes algoritmos e métodos representam os esforços contínuos para manter a integridade das plataformas online, detectando e mitigando a influência dos bots.
(IA) no Processo Eleitoral – Existem ferramentas de código aberto disponíveis para os usuários verificarem se uma conta é um bot ou não?
Sim, existem ferramentas de código aberto disponíveis que podem ajudar os usuários a determinar se uma conta é provavelmente um bot. Uma dessas ferramentas é o BotD , desenvolvido pela FingerprintJS (https://github.com/fingerprintjs/BotD). É uma biblioteca de detecção de bots que roda no navegador e pode detectar ferramentas e estruturas de automação. Ele foi projetado para ser fácil de ser integrado pelos desenvolvedores em seus aplicativos da web e está disponível sob a licença MIT, que permite uso gratuito em aplicativos pessoais e comerciais.
A sigla “BOTD” significa em inglês “Benefício da Dúvida”. Significa dar uma suposição positiva sobre alguém ou algo, em vez de uma suposição negativa. Por exemplo, se alguém estiver incerto sobre a precisão das estatísticas de outra pessoa, poderá dizer: “Não tenho certeza se suas estatísticas são totalmente precisas, mas darei o BOTD.
Outro recurso é a lista de projetos de código aberto de detecção de bots disponíveis em plataformas como GitHub, onde os desenvolvedores compartilham várias ferramentas e bibliotecas que podem ser usadas para identificar atividades de bots. (https://www.opensourceagenda.com/tags/bot-detection)
Essas ferramentas normalmente usam uma combinação de algoritmos de aprendizado de máquina, análise de comportamento e reconhecimento de padrões para diferenciar bots de usuários humanos. Eles podem ser um ativo valioso para indivíduos e organizações que buscam manter a integridade de suas interações online.
Como os usuários podem acessar e usar essas ferramentas de detecção de bots de código aberto?
Os usuários podem acessar e usar ferramentas de detecção de bots de código aberto seguindo estas etapas gerais:
1 – Encontre uma ferramenta: pesquise ferramentas de detecção de bot de código aberto em plataformas como GitHub ou npm (Node Package Manager). Procure ferramentas que tenham boa documentação e suporte da comunidade.
2 – Leia a documentação: Depois de selecionar uma ferramenta, leia atentamente sua documentação para entender como ela funciona e quais são seus requisitos. A documentação geralmente inclui instruções sobre como configurar e usar a ferramenta.
3 -Baixe e instale: Baixe a ferramenta da fonte fornecida. Se for um pacote, geralmente você pode instalá-lo usando gerenciadores de pacotes como npm ou yarn para bibliotecas JavaScript, por exemplo:
npm instalar @fingerprintjs/ botd
ou
yarn add @fingerprintjs/botd
4 – Integre ao seu projeto: integre a ferramenta ao seu aplicativo ou projeto web. Isso pode envolver a adição de scripts ao seu HTML ou a importação de módulos para os seus arquivos JavaScript.
5 – Use a ferramenta: Invoque as funções da ferramenta para analisar contas ou tráfego. Isso pode envolver chamar uma função como botd.detect () e, em seguida, manipular os resultados, que podem ser algo como:
import { load } from ‘@fingerprintjs/botd’;
const botdPromise = load();
botdPromise
.then((botd) => botd.detect())
.then((result) => console.log(result))
.catch((error) => console.error(error));
6 – Revise os resultados: revise os resultados fornecidos pela ferramenta para determinar se uma conta ou tráfego é provável de um bot. A ferramenta pode fornecer pontuações ou sinalizadores que indicam a probabilidade de atividade do bot.
7 – Mantenha-se atualizado: mantenha a ferramenta atualizada e verifique se há novas versões ou patches que possam incluir melhorias ou correções de segurança.
Lembre-se de que, embora as ferramentas de código aberto possam ser poderosas, elas também exigem um certo nível de conhecimento técnico para serem implementadas e usadas de maneira eficaz. Se você não se sentir confortável em fazer isso sozinho, talvez seja necessário procurar ajuda de alguém com as habilidades técnicas necessárias.
https://www.npmjs.com/package/@fingerprintjs/botd
https://github.com/fingerprintjs/BotD.
(IA) no Processo Eleitoral – Existem interfaces fáceis de usar para ferramentas de detecção de bots ?
Sim, existem interfaces fáceis de usar para ferramentas de detecção de bots que atendem a usuários que podem não ter amplo conhecimento técnico. Essas interfaces geralmente apresentam painéis intuitivos para fácil gerenciamento e monitoramento, filtragem granular de tráfego e opções de resposta automatizadas para lidar com a detecção de bots .
Por exemplo, alguns serviços oferecem plataformas baseadas em nuvem com plug-ins que avaliam as solicitações de conexão e sinalizam se elas devem ser rejeitadas, facilitando aos usuários a proteção de seus aplicativos web, dispositivos móveis e APIs contra bots.
Além disso, existem serviços de detecção de bots que se integram à infraestrutura de TI e às ferramentas de segurança existentes, proporcionando uma experiência de usuário perfeita .
Essas ferramentas usam diversas técnicas, como análise de comportamento, desafios CAPTCHA, verificações de reputação de IP e inteligência artificial para diferenciar entre tráfego humano e de bot, oferecendo uma abordagem abrangente para identificar e mitigar ameaças relacionadas a bots. Nos links abaixo você pode encontrar alguns destes serviços:
O melhor software de detecção de botnets para 2024: https://www.comparitech.com/data-privacy-management/best-botnet-detection-software/ .
10 ferramentas de detecção de bot para 2023: recursos e métodos de mitigação: https://securityboulevard.com/2023/10/10-bot-detection-tools-for-2023-features-mitigation-methods/ .
(IA) no Processo Eleitoral – Quais são alguns serviços populares de detecção de bots fáceis de usar?
Existem vários serviços populares de detecção de bots fáceis de usar que oferecem soluções robustas para identificar e mitigar ameaças relacionadas a bots. Aqui estão alguns dos principais serviços do setor:
- CHEQ Essentials: Conhecido pela análise de tráfego em tempo real e biometria comportamental, o CHEQ Essentials conta com a confiança de mais de 15.000 organizações para proteger sua presença online.
- ClickGUARD : um serviço que fornece proteção contra diversas formas de fraude de cliques e atividades maliciosas de bots.
- CloudFlare Bot Management: Oferece gerenciamento abrangente de bots como parte de seu conjunto de serviços de segurança.
- DataDome : Especializado em proteção contra bots e fraudes online com alta precisão e zero comprometimento.
- F5 Distributed Cloud Bot Defense: Fornece defesa contra bots como parte de sua abordagem de segurança em várias camadas.
- Indústria AppTrana : um serviço que inclui verificação de aplicativos da web e recursos de proteção de bot.
- Radware Bot Manager: Conhecido por sua proteção multicamadas e algoritmos de aprendizado de máquina para combater bots .
Estes serviços são concebidos para serem acessíveis e eficientes, garantindo que empresas de todas as dimensões possam proteger os seus ativos digitais da crescente ameaça dos bots automatizados. Eles normalmente apresentam painéis intuitivos, monitoramento em tempo real e respostas automatizadas às ameaças detectadas.
As 7 principais soluções de detecção e proteção de bots: https://expertinsights.com/insights/the-top-7-bot-detection-and-protection-solutions/?
Melhor software de detecção e mitigação de bots: https://www.g2.com/categories/bot-detection-and-mitigation
(IA) no Processo Eleitoral – Como esses serviços lidam com falsos positivos?
Os serviços de detecção de bots lidam com falsos positivos – ações legítimas do usuário sinalizadas erroneamente como atividade de bot – usando várias estratégias para equilibrar a segurança com a experiência do usuário. Veja como eles normalmente gerenciam falsos positivos:
- Ajuste de limite: os serviços geralmente ajustam os limites de detecção de bots para minimizar a chance de sinalizar usuários legítimos como bots.
- Desafios CAPTCHA: Quando há suspeita de que uma solicitação seja de um bot, alguns serviços apresentam um desafio CAPTCHA. Se o desafio for aprovado, a solicitação será considerada legítima.
- Ciclos de Feedback: Ao analisar os resultados dos desafios CAPTCHA e outros sinais de detecção, os serviços podem aprender e otimizar seus algoritmos de detecção para reduzir falsos positivos ao longo do tempo.
- Análise Comportamental: Os serviços analisam os padrões de comportamento dos usuários para distinguir entre bots e humanos com mais precisão, reduzindo a probabilidade de falsos positivos.
- Lista de permissões: usuários legítimos ou bots conhecidos (como rastreadores de mecanismos de pesquisa) podem ser colocados na lista de permissões para evitar que sejam sinalizados como maliciosos.
- Monitoramento Contínuo: Os serviços monitoram continuamente o tráfego para identificar e corrigir rapidamente quaisquer falsos positivos, garantindo interrupção mínima para usuários legítimos.
Esses métodos ajudam a garantir que, embora os bots sejam efetivamente bloqueados ou gerenciados, os usuários legítimos continuem a ter uma experiência perfeita.
Para concluir, a influência da IA nas eleições é inegável e crescente. Candidatos, eleitores e a sociedade em geral não podem ignorar esta nova realidade. Para salvaguardar a democracia e a legitimidade do processo eleitoral, devemos desenvolver quadros técnicos, jurídicos e éticos robustos que sejam proativos na utilização da IA na arena política, promovam a transparência e protejam contra a utilização indevida. Sua campanha está preparada para a chegada da IA?
Referências:
- A IA pode fortalecer a democracia dos EUA – e enfraquecê-la. https://www.brookings.edu/articles/ai-can-strengthen-us-democracy-and-weaken-it/
- Ferramentas que combatem a desinformação online. https://www.rand.org/research/projects/truth-decay/fighting-disinformation/search.html.
- Sifry , L. (2024) Como a IA está transformando a forma como as campanhas políticas funcionam. https://www.thenation.com/article/politics/how-ai-is-transforming-the-way- Political-campaigns-work/
- “Protegendo a Democracia: IA e o Desafio da Segurança Cibernética”, Agência de Segurança Cibernética e de Infraestrutura. https://www.cisa.gov/topics/election-security
- https://www.cidrap.umn.edu/ghosts-machine-malicious-bots-spread-covid-untruths .
- https://cits.ucsb.edu/fake-news/spread
- https://www.apa.org/monitor/2021/03/controlling-misinformation
- https://www.cidrap.umn.edu/ghosts-machine-malicious-bots-spread-covid-untruths
- https://www.brookings.edu/articles/how-to-deal-with-ai-enabled-disinformation/ .
- https://techxplore.com/news/2024-02-secrets-social-bots-ai-role.html .
- https://datadome.co/learning-center/bot-solution-provider-false-positivos/