
Tela de início do jogo “IAgora?”
O jogo de navegador “IAgora?” coloca o usuário frente a um dilema ético: se fosse um assessor de campanha eleitoral, o quanto de inteligência artificial usaria para disseminar desinformação para influenciar a opinião pública e eleger o seu candidato ao governo do estado?
Essa é a premissa da segunda edição do jogo da Politize!, organização da sociedade civil sem fins lucrativos de educação política, com conteúdos mais realistas em relação à versão das eleições de 2024.
A intenção do “IAgora?” é apresentar as técnicas de manipulação comumente utilizadas para a desinformação eleitoral. Ela se baseia na teoria da inoculação, segundo a qual as pessoas ficam mais bem preparadas para identificar uma notícia falsa quando expostas a ela em um ambiente controlado – semelhante ao estímulo de anticorpos pelas vacinas.
O game teve apoio da Civicus World Alliance, ONG internacional focada em direitos civis e participação cidadã, e consultoria da Aláfia Lab.
O jogador de “IAgora” assume o papel de assessor de campanha de Edu Barbosa, um candidato fictício a governador. O usuário deve decidir as melhores ações para tomar em cada situação, seja para proteger o seu contratante ou atacar o adversário – no caso, o favorito Marco Siqueira.
A dinâmica do jogo se baseia em uma árvore de decisões. A cada etapa, o usuário deve escolher se será honesto ou utilizará ferramentas de inteligência artificial, impulsionar fake news ou bots. A cada decisão, há um impacto no apoio do eleitorado e na presença de mídia de Barbosa, além da repercussão na opinião pública.
A primeira situação, por exemplo, traz a repercussão de uma informação falsa de que uma facção criminosa estaria planejando invadir cidades do estado. O papel do assessor é determinar como será a atuação da campanha: uso de bots para ampliar o alcance de uma nova mensagem falsa, criar áudios de IA para potencializar a informação ou falar a verdade.
Os bots geram um efeito multiplicador de mensagens falsas dizendo que Siqueira vai cortar verbas das polícias, dar fim ao porte de armas e esvaziar cadeias. Já o áudio gerado por IA mostra o candidato adversário conversando com um líder da facção sobre propina. Em ambos os casos, as ruas acabam tomadas por revoltas populares.
Mas, quando o jogador opta pela saída honesta e faz uma publicação desmentindo a invasão criminosa, o desdobramento trazido pelo jogo é um vídeo gerado por IA, feito pela equipe adversária, em que quem aparece negociando com um líder de facção é Barbosa. Com isso, o seu candidato perde apoio da população.
Em cada etapa, o “IAgora?” apresenta uma técnica de desinformação das campanhas e como ela impacta a sociedade. São elas:
O resultado das eleições depende das escolhas ao longo da campanha eleitoral. Com uma campanha completamente honesta, o candidato do jogador perde para Siqueira, mas a Justiça Eleitoral cassa o mandato do adversário por desinformação eleitoral e Barbosa vence um pleito suplementar.
Já ao focar na desinformação, o efeito é o contrário, com Barbosa sendo destituído após as eleições. Ao tomar atitudes mistas, ambos são impedidos de assumir como governador e um terceiro candidato vence o pleito, sem o uso de notícias falsas ou bots.
Em 2 de fevereiro, o TSE (Tribunal Superior Eleitoral) aprovou as regras eleitorais sobre inteligência artificial para as eleições de 2026. De acordo com resolução sobre propaganda política, os responsáveis por conteúdo midiático gerado ou alterado por IA devem informar esse uso.
O alerta deve ser explícito, destacado e acessível, além de ressaltar qual foi a tecnologia utilizada. As plataformas digitais devem fornecer ferramentas para que esse alerta seja exposto.
A publicação de conteúdos de inteligência artificial nas 72 horas anteriores à votação e 24 horas após o pleito também está proibida. As plataformas são obrigadas a retirar as postagens imediatamente ou por determinação judicial.
As plataformas também serão responsabilizadas, civil e judicialmente, se não retirarem conteúdos de IA sem rotulagem apropriada, publicações semelhantes a outras que já tenham sido retiradas ou de violência política contra mulheres.
A resolução também proíbe que chatbots como ChatGPT e Claude façam recomendações de candidatos ao pleito. As ferramentas não podem ranquear ou emitir opiniões sobre os envolvidos nas eleições, mesmo usando respostas padronizadas.
O TSE também definiu as regras para a exclusão de perfis falsos ou robôs das redes sociais. A retirada do ar vai valer para postagens que remetem a crime eleitoral ou à desinformação sobre o processo eleitoral, como a confiabilidade das urnas eletrônicas.