Em Blade Runner 2049, acompanhamos K, um replicante (andróide) que vive em um mundo onde a linha entre o biológico e o sintético já não é mais evidente. Ao longo da narrativa, K passa a acreditar que carrega memórias de infância que indicariam algo impossível: que ele talvez não seja apenas uma máquina, mas sim um ser humano.
É aqui que o filme atinge seu ponto mais inquietante: o próprio personagem já não consegue afirmar com segurança o que ele é. K começa a duvidar da sua própria natureza. Ele não sabe se é humano que foi enganado ou uma máquina que aprendeu a acreditar em uma história convincente o suficiente.
De certa forma, há um quê de 2026 nessa história: quando lemos um texto, um post ou um comentário na internet, já não sabemos com clareza se aquilo foi vivido por alguém ou se foi gerado artificialmente. Assim, a dúvida que antes pertencia à ficção começa a se deslocar para o campo do discurso.
E é exatamente esse tipo de deslocamento que começa a aparecer na forma como experienciamos a internet contemporânea.
O que é a teoria da internet morta
A chamada Dead Internet Theory propõe uma hipótese desconfortável: a de que a internet deixou de ser, em grande parte, um espaço orgânico de interação entre pessoas e passou a ser dominada por sistemas automatizados, bots e mecanismos de geração de conteúdo em escala.
É certo que a manipulação digital não é novidade para ninguém. Qualquer pessoa que já tentou encontrar um e-mail importante no meio de uma caixa de entrada tomada por spam já percebeu como o ruído artificial pode engolir o que é relevante. Afinal, estudos como esse da Hostinger mostram que, atualmente, cerca de 13% dos e-mails recebidos vêm de pessoas escrevendo manualmente. O restante é composto por notificações, alertas, campanhas, lembretes e sistemas automatizados operando em segundo plano. Ou seja, mesmo em um dos canais mais antigos da internet, já convivemos há anos com uma realidade onde máquinas falam muito mais do que pessoas.
O que muda agora é outra coisa: a escala, a sofisticação e, principalmente, a capacidade de simulação.
A teoria, portanto, não afirma apenas que existem robôs online. Ela sugere que parte significativa daquilo que percebemos como debate público pode ser, em alguma medida, artificialmente moldada.
Perdendo a autenticidade
Durante muito tempo, a internet carregava sinais claros de humanidade. Textos imperfeitos, opiniões contraditórias, estilos únicos, ironia e até incoerências funcionavam como marcas de autoria. Fóruns, blogs e comunidades de nicho eram espaços onde vozes diferentes coexistiam, às vezes de forma caótica, mas quase sempre com identidade própria. Havia menos escala, mas mais singularidade.
Com a evolução das ferramentas de produção, especialmente com a ascensão da inteligência artificial generativa, passamos a observar um fenômeno diferente: a padronização.
Tudo começa a soar correto, organizado e, ao mesmo tempo, estranhamente genérico. Como se diferentes vozes estivessem convergindo para um mesmo tom neutro, uma média segura, onde quase tudo faz sentido, mas pouco se destaca. À medida que a qualidade estrutural aumenta, os sinais de individualidade diminuem.
O que é real e o que não é?
Essa transformação nos leva a uma questão central: ainda conseguimos distinguir experiência de simulação?
Tal qual K em Blade Runner 2049, um leitor contemporâneo pode começar a se perguntar sobre a origem daquilo que consome: isso foi vivido por alguém, pensado a partir de uma experiência concreta, ou é fruto de uma produção em escala, gerada por sistemas que operam em uma espécie de automação autorregulável?
IA agêntica e o ciclo fechado
Com o avanço da IA agêntica, entramos em uma nova fase. Esses sistemas não apenas produzem conteúdo, mas também o distribuem, analisam sua performance e interagem com ele.
Isso cria um circuito potencialmente fechado: IA gera conteúdo → conteúdo alimenta outras IAs → novas IAs geram mais conteúdo.
Ao longo do tempo, isso pode levar à redução de diversidade informacional, já que sistemas tendem a reproduzir padrões médios do que aprenderam. A internet, nesse cenário, deixa de ser um reflexo do mundo e passa a ser um sistema que aprende consigo mesmo.
O fim da internet como espaço exclusivamente humano
Obviamente, a internet não morreu e, provavelmente, está mais viva do que nunca. Mas ela deixou de ser um espaço exclusivamente humano. Ela se tornou um ambiente híbrido, onde experiências vividas coexistem com construções sintéticas genéricas, e onde a distinção entre uma coisa e outra se torna progressivamente menos evidente.
Se parte significativa do conteúdo que consumimos é gerada, amplificada ou filtrada por sistemas, então nossa leitura de mundo passa, inevitavelmente, por camadas que não são humanas. E quanto mais essas camadas se tornam sofisticadas, mais difícil é perceber onde termina a experiência e onde começa a simulação.
Existe ainda um efeito mais silencioso, mas talvez mais relevante: a tendência à média. Sistemas aprendem padrões e os reproduzem. Com o tempo, o que foge da curva (por ser menos provável em termos probabilísticos) pode acabar sendo diluído. Isso porque os modelos não operam a partir do extraordinário, mas sim do recorrente. E, nesse processo, aquilo que é singular, específico ou profundamente humano corre o risco de se tornar cada vez mais raro.
Conclusão
Durante muito tempo, não precisávamos perguntar de onde vinha o que líamos, pois a tendência é que fosse algo original.
Em Blade Runner, o conflito não está na existência de máquinas, mas no fato de que o próprio personagem já não consegue afirmar com segurança o que ele é. A dúvida sobre a própria origem corrói a estabilidade da sua identidade.
Na internet contemporânea, essa mesma dúvida começa a migrar para o leitor. Não sabemos mais, com clareza, se aquilo que lemos foi vivido por alguém, pensado a partir de uma experiência concreta, ou produzido por um sistema em escala.
Essa dúvida constante não necessariamente leva à desconfiança ativa, mas pode levar a algo mais silencioso: o desinteresse.
Em tese, podemos estar vendo algo novo: ou eventualmente as pessoas aprendem a distinguir o que é artificial ou incluem mecanismos que façam esse trabalho por elas (tal qual uma caixa de spam o faz num software de e-mail). Ou ainda, em uma alternativa mais dramática deixam de ler tudo, já que não acreditam em mais nada.




