Líderes políticos, governos e donos de redes sociais fazem crescer o pessimismo sobre a desinformação

Líderes políticos, governos e donos de redes sociais fazem crescer o pessimismo sobre a desinformação


O menor risco, segundo os entrevistados, vem dos jornalistas e da imprensa, citado como ameaça por apenas 1,5% dos participantes. (Foto: Freepik)

Uma investigação do Painel Internacional sobre o Ambiente da Informação (IPIE) revelou um agravamento das expectativas entre os especialistas sobre a desinformação. O estudo aponta os líderes políticos, governos e proprietários de redes sociais como as principais ameaças à qualidade do ambiente de informação global e coloca a inteligência artificial (IA) no centro das preocupações. Os analistas consideram que, embora a IA tenha tido um impacto menor do que o esperado nas eleições de 2024, as instituições deverão permanecer alertas para as próximas eleições.

Mais de 400 acadêmicos de áreas como ciência da computação, engenharia de dados e ciências sociais e humanas, de 66 países, foram entrevistados pelo IPIE. Embora mais de metade (54%) esperasse que as condições piorassem em 2023, o número subiu para 63% em 2024. Nos países em desenvolvimento, como o Brasil, 75% disseram estar muito pessimistas quanto ao futuro do ambiente de informação. Uma das principais razões para este pessimismo é o uso da IA.

Os proprietários de redes sociais foram citados como a principal ameaça ao ambiente informacional por 15,5%. Os governos e políticos do país de origem dos entrevistados vieram em seguida, com 12,1%. Depois, governos e políticos de outros países e meios de comunicação estatais. O menor risco, segundo os entrevistados, vem dos jornalistas e da imprensa, citado como ameaça por apenas 1,5% dos participantes.

Integridade

“O controle que essas entidades (plataformas) exercem sobre as políticas de distribuição e moderação de conteúdo afeta significativamente a qualidade e integridade da informação”, disse o presidente do IPIE, Phil Howard. “O poder irrestrito destas entidades representa um sério risco para a saúde do nosso ambiente de informação global.”

Para mais de metade dos participantes no inquérito, vídeos, vozes, imagens e textos gerados artificialmente representam um risco. A Data Privacy Brasil, que monitora o uso de IA em parceria com Desinformante e Aláfia Lab, registrou 26 casos durante o primeiro turno do processo eleitoral de 2024 no país. Deepfakes, chatbots e jingles criados artificialmente foram os principais tipos de IA utilizados.

Entre os incidentes, foram registrados até “deepnudes”, imagens falsas e vídeos com conteúdo sexual. Candidatas derrotadas na disputa paulista, Tabata Amaral (PSB) e Marina Helena (Novo) foram vítimas. A lista de vídeos falsos também incluía um suposto abraço entre Pablo Marçal (PRTB) e Tabata.

Desafio

“É um risco permanente. Daí a importância de sermos observados e contidos pelas medidas institucionais, especialmente as ações dos Tribunais”, disse o diretor do Data Privacy Brasil, Rafael Zanatta. “É preciso avançar desta eleição para a próxima, reavaliando o quanto as regras atuais aderem a uma realidade que está sempre em mudança.”

Chefe de Programas do IPIE, Egerton Neto afirmou que as próximas eleições serão desafiadoras. “A parte mais difícil ainda está por vir. As eleições de 2026 e 2028 decorrerão num ambiente informacional ainda pior. Isto coloca pressão sobre as instituições para regularem o uso da IA ​​e para explorarem maneiras pelas quais a IA pode ser uma aliada, como na detecção de deepfakes.”