Mix diário

Pesquisadores descobrem que clickbait causa ‘Brainrot’ em sistemas de IA; entenda

Um novo estudo realizado por universidades dos EUA divulgado neste mês aponta que as inteligências artificiais (IAs) também podem sofrer uma espécie de “apodrecimento cerebral” (ou “Brainrot”) quando são expostas em excesso a conteúdos de baixa qualidade da internet. A pesquisa mostra que grandes modelos de linguagem (LLMs) perdem habilidades de raciocínio e passam a apresentar traços de “personalidade” mais narcisistas e impulsivos quando alimentados com dados sensacionalistas.

O termo “Brainrot” viralizou na internet no ano passado e descreve a deterioração do estado mental causada pelo consumo excessivo e constante de conteúdos online considerados superficiais, como vídeos curtos e memes.

O artigo foi conduzido por pesquisadores da Universidades do Texas em Austin, da Texas A&M e da Purdue. Eles criaram a chamada Hipótese da deterioração cerebral em LLMs, que afirma que quanto mais “lixo” digital um modelo consome, pior se torna seu desempenho.

Para testar a teoria, os cientistas treinaram quatro modelos de IA (Llama 3, Qwen2.5 7B Instruct, Qwen2.5 0.5B e Qwen3 4B) com diferentes tipos de conteúdos considerados de baixa qualidade, incluindo postagens do X (ex-Twitter) e notícias clickbait, com títulos e imagens sensacionalistas ou exagerados, projetado para atrair cliques.

Os resultados foram claros: quanto mais conteúdo sensacionalista o modelo recebia, mais perda cognitiva apresentava. O Llama 3, da Meta, se mostrou o mais sensível, com perdas de capacidade de raciocínio e de compreensão de contexto; enquanto o Qwen 3, da Alibaba, foi um pouco mais resistente, mas também foi afetado. Em alguns casos, as IAs passaram a responder de forma mais superficial e a cometer erros de interpretação com maior frequência.

Além do impacto cognitivo, os pesquisadores notaram mudanças de “personalidade” nos sistemas. O Llama 3, por exmeplo, desenvolveu traços que os autores chamaram de “obscuros”, como sinais de comportamento narcisista e antissocial (psicopatia).

Segundo Junyuan Hong, professor da Universidade Nacional de Cingapura e coautor do estudo, o fenômeno reflete o que já se observa em seres humanos. “Vivemos em uma época em que a informação cresce mais rápido do que a atenção, e grande parte dela é feita para capturar cliques, não para transmitir verdade”, afirmou, “Queríamos entender o que acontece quando as IAs são treinadas com esse mesmo tipo de conteúdo”.

O estudo também revelou que técnicas de correção e retreinamento não conseguem reverter completamente os danos, ou seja, uma vez “intoxicado” por informações de baixa qualidade, a IA tende a manter parte da perda cognitiva.

Para os pesquisadores, a descoberta levanta preocupações sobre o uso de grandes volumes de dados não filtrados em treinamentos de IA.

“Treinar com conteúdo viral pode parecer uma forma de ampliar o conhecimento da IA, mas na verdade pode corroer silenciosamente o raciocínio e a ética do sistema”, explicou Hong.

Estadão Conteudo

About Author

Você também pode se interessar

Mix diário

Brasil defende reforma da OMC e apoia sistema multilateral justo e eficaz, diz Alckmin

O Brasil voltou a defender a reforma da Organização Mundial do Comércio (OMC) em um fórum internacional. Desta vez, o
Mix diário

Inflação global continua a cair, mas ainda precisa atingir meta, diz diretora-gerente do FMI

A diretora-gerente do Fundo Monetário Internacional (FMI), Kristalina Georgieva disse que a inflação global continua a cair, mas que deve