15.3 C
Porto
17.2 C
Lisboa
17.9 C
Faro
Quarta-feira, Março 26, 2025

Ferramentas de IA influenciadas por propaganda russa espalham desinformação em português

Uma investigação da NewsGuard revela que ferramentas de IA populares estão a replicar desinformação pró-Kremlin em 33% das respostas. A rede russa Pravda, que opera com cerca de 150 domínios, publica milhões de artigos por ano e influencia modelos de linguagem artificial.

As mais lidas

Uma análise da NewsGuard identificou que a rede de desinformação russa Pravda conseguiu infiltrar desinformação em ferramentas de IA como ChatGPT, Copilot, Meta AI, Gemini e Grok. Estes modelos foram influenciados em 33% das respostas analisadas, replicando informações falsas relacionadas com a guerra na Ucrânia e outros temas políticos.

A rede Pravda surgiu após a invasão da Ucrânia em 2022 e tem crescido desde então. Segundo o relatório do American Sunlight Project (ASP), a operação já conta com cerca de 150 domínios ativos e publica mais de 3,6 milhões de artigos por ano. As alegações falsas disseminadas incluem teorias sobre laboratórios secretos de armas biológicas dos EUA na Ucrânia e a acusação infundada de que Volodymyr Zelensky teria desviado ajuda militar para comprar uma propriedade na Alemanha.

O impacto desta desinformação nos modelos de IA preocupa especialistas, que alertam para riscos na formação da opinião pública e possíveis efeitos em eleições democráticas. O Country Manager Portugal da Check Point Software Technologies, Rui Duro, sublinha a gravidade da situação:

“Como mostra a análise mais recente, a rede Pravda está a inundar a internet com desinformação, interferindo na forma como os principais modelos de linguagem processam e apresentam informação. A propaganda russa está, assim, a infiltrar-se nos sistemas de IA ocidentais, contribuindo para a disseminação de mentiras. É importante referir que, dada a dimensão da campanha, toda a operação deve ser bem financiada. Deixou de ser apenas uma ameaça teórica.”

A manipulação da IA para fins políticos pode representar uma nova ameaça digital. O Regulamento Europeu de IA (EU AI Act) já alerta para o potencial uso indevido de sistemas de IA treinados com dados enviesados. Para mitigar estes riscos, especialistas recomendam a implementação de mecanismos de filtragem de fontes duvidosas e maior transparência entre empresas tecnológicas, governos e organizações independentes.

“Se ferramentas de IA generativas repetirem narrativas de desinformação, podem desestabilizar processos democráticos, influenciar a opinião pública e afetar a decisão dos eleitores em eleições, sem que estes se apercebam disso. Os apoiantes de regimes autoritários estão a tentar usar a IA como arma de guerra informativa e, se não investirmos na resiliência dos modelos de IA, as consequências poderão ser muito graves.” acrescenta Rui Duro.

A Check Point Software defende que o combate à desinformação deve incluir educação pública e estratégias para reforçar a resiliência digital da sociedade contra a manipulação informativa.

OC©

Foto | ThisIsEngineering

- Publicidade -spot_img

Mais artigos

- Publicidade -spot_img

Artigos mais recentes

- Publicidade -spot_img