N/A

Estudo estima que 111 mil artigos de 2025 contêm citações falsas geradas por IA

3 views
Estudo estima que 111 mil artigos de 2025 contêm citações falsas geradas por IA

Um estudo publicado na revista Nature em colaboração com a Grounded AI revela que mais de 111 mil publicações científicas previstas para 2025 podem conter referências bibliográficas inválidas, muitas das quais geradas por inteligência artificial. Esse fenômeno ocorre quando modelos de linguagem criam informações que aparentam ser verdadeiras, mas que na realidade não existem, um fenômeno conhecido como "alucinações" da IA. No âmbito acadêmico, isso resulta em citações a estudos ou artigos que nunca foram publicados, comprometendo a integridade da pesquisa científica.

A pesquisa envolveu a análise de mais de 4 mil publicações recentes de cinco grandes editoras internacionais: Elsevier, Sage, Springer Nature, Taylor & Francis e Wiley. Cada trabalho recebeu uma pontuação de risco, levando em conta a quantidade de referências problemáticas e a probabilidade de terem sido geradas por inteligência artificial. A equipe revisou manualmente os 100 artigos com maior nível de suspeita. Dentre esses, 65 artigos apresentavam pelo menos uma referência inválida, apontando para publicações inexistentes. Além disso, 22 artigos continham citações que correspondiam a trabalhos reais, enquanto em 13 artigos não foi possível determinar a validade, em parte devido ao fato de serem publicações regionais ou em outros idiomas.

Com base nesses resultados, os pesquisadores estimaram que cerca de 111 mil publicações científicas de 2025 podem ter referências inválidas. Os especialistas alertam que o número real pode ser ainda maior, uma vez que a análise focou em editoras com maiores recursos de controle e revisão. O problema já está sendo percebido pelas próprias revistas acadêmicas. Alison Johnston, coeditora principal da Review of International Political Economy, informou que rejeitou 25% de aproximadamente 100 manuscritos recebidos em janeiro devido à presença de referências falsas. Nick Morley, cofundador da Grounded AI, destacou que os erros identificados em 2025 apresentam características diferentes das observadas antes da expansão dos modelos de linguagem, sugerindo que a IA está introduzindo novas formas de erro, mais difíceis de detectar.

As referências bibliográficas são fundamentais para a validação do conhecimento, pois permitem rastrear fontes e verificar informações. A presença de citações inexistentes enfraquece esse sistema e pode impactar a credibilidade dos estudos publicados. Em resposta a essa situação, editoras e plataformas acadêmicas estão começando a implementar ferramentas de detecção e protocolos mais rigorosos para identificar irregularidades. Contudo, o ritmo de adoção da IA na pesquisa frequentemente supera a capacidade de controle dessas instituições. O estudo enfatiza que o uso de modelos de linguagem na redação científica não é problemático em si, pois pode trazer eficiência, mas a falta de supervisão adequada aumenta o risco de erros que podem passar despercebidos nos processos de revisão tradicionais.


Descubra mais sobre Euclides Diário

Assine para receber nossas notícias mais recentes por e-mail.

Rolar para cima