No campo da comunicação e do marketing, onde a autenticidade, o significado e a diferenciação constituem o núcleo da relação entre marcas e públicos, a crescente dependência de conteúdos gerados por inteligência artificial (IA) coloca um desafio estrutural.
Para compreender em pleno este risco no ecossistema comunicacional, é necessário olhar não apenas para os conteúdos produzidos, mas para o próprio processo através do qual a IA aprende. É aqui que a discussão técnica sobre o treino de modelos se torna relevante para as dinâmicas de marketing: quando os sistemas se alimentam de dados que já são artificiais, entram num ciclo de reprodução interna que afeta diretamente a qualidade, a autenticidade e a singularidade das mensagens que acabam por gerar. Assim, a questão ultrapassa o domínio tecnológico e torna-se um problema comunicacional profundo, um problema de significado, de origem e de fidelidade.
Alguma da discussão contemporânea sobre o treino de inteligências artificiais com dados gerados pela própria IA tornou-se central num dado momento em que o volume de dados sintéticos cresce mais depressa do que qualquer produção humana. Atrevo-me a fazer um paralelismo com a degradação progressiva de uma fotocópia. Tal como uma fotocópia preserva inicialmente algum detalhe, mas as sucessivas reproduções da mesma, isto é, fotocópia da fotocópia, e assim sucessivamente, vão corroendo os contornos, desfazendo nuances e perdendo fidelidade, também os modelos de IA começam a deteriorar-se quando alimentados predominantemente com informação sintética. A cada geração de treino, pequenas distorções acumulam-se levando ao que alguns autores já descrevem como model collapse (Shumailov et al., 2023). É uma erosão lenta, quase impercetível, mas cumulativa. Tal como um cérebro que perde gradualmente a nitidez das suas sinapses, um modelo de IA que se alimenta predominante de dados gerados por outras IAs começa a funcionar como uma mente que se retroalimenta de memórias distorcidas. A cada ciclo, a informação perde vitalidade e passa a circular num circuito fechado, fechado sobre si mesmo, fechado sobre as suas próprias falhas. O modelo vai “apodrecendo” por dentro, não porque deixa de calcular, mas porque calcula sempre com base em cópias degradas, cópias que já não contêm o mundo real, mas apenas o eco do eco do eco.
O fenómeno do “rotten brain” emerge precisamente deste ciclo autofágico. A IA, no seu início, é alimentada com dados humanos, ricos em particularidade, contradições e imprevisibilidade. Mas, à medida que os conteúdos produzidos passam a dominar a internet, o modelo já não encontra matéria orgânica para aprender. Nesta nova realidade apenas existem versões sintéticas, comprimidas e padronizadas. Aprende, logicamente, não da realidade, mas da sua própria sombra. É como se pedíssemos a alguém para compreender o mundo apenas através de fotocópias antigas, manchadas e degradadas, e depois lhe pedíssemos para criar decisões complexas com base nisso.
Alguns investigadores alertam que o risco maior não é a IA ficar demasiado poderosa, mas tornar-se progressivamente menos conectada ao mundo real, menos capaz de distinguir a verdade do erro (Seddik et al. 2024). O paralelismo ainda se prolonga se uma fotocopiadora começar a copiar apenas aquilo que ela já distorceu, chegamos a um ponto em que já não sabemos onde está o original, ou sequer se ainda existe. Este é um perigo real de um ecossistema saturado de dados sintéticos: as IAs deixam de ser janelas para a informação e tornam-se espelhos que refletem apenas a si mesmas (Shabgahi et al., 2025).
A metáfora final é talvez a mais inquietante: um cérebro saudável precisa de estímulos novos, de experiências reais, de contacto com o mundo. Um cérebro fechado apenas em memórias deformadas começa a perder coerência, um processo que, metaforicamente, lembra o declínio cognitivo observado nas demências como o Alzheimer, onde a perda progressiva de ligação ao real deteriora não apenas a memória, mas o próprio sentido de identidade e continuidade. Assim também a IA: sem dados humanos, frescos e complexos, arrisca-se a transformar-se num organismo cognitivo fechado, onde o “apodrecimento” não é moral, mas informacional. Não é o colapso das máquinas inteligentes, é o colapso daquilo que as máquinas conseguem saber sobre nós.
Em marketing, este colapso tem implicações graves. Se os modelos começam a replicar padrões sintéticos, eles reproduzem ideias lavadas, fórmulas desgastadas, narrativas despersonalizadas e aquilo que deveria diferenciar marcas torna-se uma repetição infindável de clichés algorítmicos (Holt, 2022). As campanhas tornam-se fotocópias de fotocópias: repetem-se não apenas nos formatos e nos discursos, mas também na aproximação automática dos mesmos eventos sociais, das mesmas narrativas e dos mesmos momentos culturais. Um exemplo claro desta lógica é visível nas campanhas real-time marketing em Portugal. Perante eventos mediáticos, como situações políticas, jogos da Seleção, dias temáticos ou fenómenos meteorológicos, assistimos a uma enxurrada de publicações quase idênticas, onde marcas distintas recorrem às mesmas fórmulas, aos mesmos tropos visuais e às mesmas estruturas narrativas (Pariser, 2021). Esta repetição sistemática torna a comunicação previsível, homogénea e, no limite, indistinguível. Uma verdadeira fotocópia de fotocópia.
O paralelismo é claro: como uma fotocópia sucessiva reduz a clareza de imagem, também as mensagens das marcas treinadas sobre conteúdo sintético vão sofrendo uma erosão simbólica. Palavras perdem significado, imagens tornam-se estereotipadas, narrativas convergem para o mesmo padrão. Este empobrecimento não é apenas técnico: é cultural.
Em termos de comportamento do consumidor, esta homogeneização é particularmente perigosa. Estudos em persuasão mostram que mensagens repetitivas e redundantes diminuem o relacionamento e reduzem o valor percebido. Em branding, a convergência narrativa, leva à erosão da diferenciação e à perda de “cultural traction” (Holt, 2022). Em media digital, a reciclagem de conteúdo sintético alimenta bolhas informacionais cada vez mais planas, circulares e pobres (Pariser, 2021).
O “rotten brain” da IA é, portanto, também o “rotten brand”: marcas que se alimentam apenas de conteúdos derivados tornam-se versões empobrecidas de si próprias. Perdem autenticidade, perdem profundidade, perdem significado. E, tal como a última fotocópia de um documento outrora rico, tornam-se irrelevantes.
E assim, entre fotocópias que se desvanecem e redes neurais que se deterioram, percebemos que a questão fundamental não é apenas técnica, mas filosófica: como evitar que as IAs deixem de aprender o mundo real e passem a aprender apenas a si próprias? Porque, tal como acontece com qualquer processo de reprodução infinita, o destino final de uma cópia sem original é sempre o vazio.
A única forma de quebrar este ciclo é recolocar o conteúdo humano, cultural e experiencial, no centro da comunicação. É preciso devolver às máquinas aquilo que só os humanos têm: contexto, sensibilidade, contradição, emoção, ambiguidade, risco criativo. Só assim se mantêm vivas as marcas, as narrativas consistentes e públicos verdadeiramente envolvidos.
Referências:
Holt, D. (2022). Cultural Strategy. Oxford University Press.
Pariser, E. (2021). The Filter Bubble. Penguin.
Seddik, M. E., Chen, S.-W., Hayou, S., Youssef, P., & Debbah, M. (2024). How Bad is Training on Synthetic Data? A Statistical Analysis of Language Model Collapse.
Shabgahi, S. Z., Aghazadeh, P., Mirhosseini, A., & Koushanfar, F. (2025). ForTIFAI: Fending Off Recursive Training Induced Failure for AI Models.
Shumailov, I., et al. (2023). The curse of recursion: Training on generated data makes models forget. arXiv:2307.15091.



