Pesquisadores Descobrem Como Datas Falsas Afetam IA

Um estudo realizado pela Universidade de Waseda revelou que a inclusão de datas falsas em conteúdos online pode aumentar sua visibilidade em sistemas de inteligência artificial. A pesquisa mostrou que ferramentas como ChatGPT, Claude e Gemini tendem a priorizar conteúdos mais recentes, independentemente de sua qualidade ou relevância. Essa descoberta destaca uma vulnerabilidade nos sistemas de IA, que pode comprometer a qualidade das informações apresentadas aos usuários.

Os pesquisadores desenvolveram um método para testar o viés temporal em modelos de IA. Eles usaram passagens de testes acadêmicos padronizados, adicionando datas de publicação falsas sem alterar o conteúdo. Sete modelos principais de IA foram testados, incluindo GPT-4o e LLaMA-3. Os resultados mostraram que conteúdos com datas mais recentes subiram significativamente nas classificações.

O pesquisador independente Metehan Yesilyurt encontrou evidências no código do ChatGPT que confirmam a priorização de conteúdos recentes. A configuração “use_freshness_scoring_profile: true” indica que o sistema foi projetado para favorecer conteúdos novos. Essa descoberta levanta questões sobre a transparência dos sistemas de IA, que não divulgam claramente seus critérios de classificação.

A manipulação de datas em IA lembra práticas de SEO de black hat, como o uso excessivo de palavras-chave, que no passado tentaram manipular o Google. Embora o Google tenha desenvolvido algoritmos para combater essas práticas, o ecossistema de IA ainda é novo e suscetível a manipulações. Isso pode levar a consequências negativas, como ocorreu com o SEO de black hat.

A descoberta do viés temporal apresenta dilemas éticos para criadores de conteúdo. A tentação de falsificar datas para aumentar a visibilidade é grande, mas pode comprometer a qualidade das informações. Dados mostram que 85% das citações em AI Overviews vêm de conteúdos publicados nos últimos dois anos, prejudicando materiais mais antigos, mas ainda relevantes.

O Futuro da Integridade Informacional

A facilidade de manipulação dos sistemas de IA levanta preocupações sobre a integridade das informações digitais. Empresas de IA precisam desenvolver mecanismos de detecção mais sofisticados e transparentes. A regulamentação pode ser necessária se a autorregulação falhar, como já sinalizado pela União Europeia com o AI Act. A educação dos usuários sobre as limitações da IA também é crucial para garantir a confiabilidade das informações.

Fonte: https://www.conversion.com.br/blog/datas-falsas-manipulam-chatgpt/

Comments

No comments yet. Why don’t you start the discussion?

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *