Generative AI

27 jun, 2025

IA generativa e a urgência de reconstruir nossa relação com a verdade

Publicidade

A inteligência artificial generativa já deixou de ser uma promessa futurista. Ela está aqui, moldando a forma como nos comunicamos, consumimos conteúdo e, principalmente, como percebemos o que é real. Ferramentas como Sora, da OpenAI, e Veo 3, da Google DeepMind, são demonstrações claras do quão longe já chegamos na produção de vídeos realistas, com gestos, ambientes e emoções que beiram o indistinguível.

O avanço é impressionante, mas carrega um dilema central: quando tudo pode ser simulado, em que ainda podemos confiar? Em tempos de algoritmos que replicam vozes e expressões com perfeição, a autenticidade dos registros audiovisuais, que por décadas foi nossa âncora da realidade, entra em xeque.

O mais recente levantamento da OCDE, Truth Quest, revela que apenas 60% das pessoas no mundo conseguem identificar conteúdos falsos. No Brasil, esse índice é ainda menor (54%). E o dado mais alarmante talvez seja este: somos o país que mais confia nas redes sociais como principal fonte de informação.

Essa combinação entre hiperconectividade e pouca capacidade de checagem nos torna alvos fáceis para a desinformação automatizada. Vídeos falsos com forte apelo emocional, criados com IA, têm sido disseminados com o objetivo de polarizar, manipular e confundir. E muitas vezes, até profissionais da tecnologia têm dificuldade em reconhecer essas simulações.

Precisamos desenvolver o ceticismo crítico

A desinformação via IA vai muito além da política. Ela compromete o papel do jornalismo, fragiliza a ciência e abre brechas na segurança digital. Uma pesquisa da Ipsos mostra que 51% dos brasileiros já acreditam que a IA tornará a propagação de fake news ainda mais grave, um medo justificado, e que precisa ser levado a sério.

Diante desse novo cenário, é urgente investirmos em educação digital robusta. Uma habilidade que será cada vez mais essencial é o que chamo de ceticismo crítico: aprender a questionar o que vemos, a buscar fontes, a desconfiar da fluidez do conteúdo antes de aceitar sua veracidade.

Empresas de tecnologia têm parte fundamental nessa equação. O Veo, por exemplo, já possui salvaguardas que evitam o uso de imagens ou vozes de personalidades públicas sem autorização. Além disso, seus vídeos também são criados com marcas d’água invisíveis que podem ser detectadas por sistemas verificadores. É bem possível que em breve as próprias redes sociais tenham seus verificadores de marcas d’água digitais para nos indicar se um vídeo foi criado por IA. Mas esse tipo de controle ainda está longe de ser universal e pode não ser suficiente.

Precisamos evoluir para um modelo de governança internacional da IA, que equilibre inovação com responsabilidade. Isso não significa limitar o progresso, mas garantir transparência, segurança e prestação de contas em cada nova aplicação desenvolvida.

Avanço inevitável, maturidade indispensável

Segundo projeções da Grand View Research, o mercado global de IA generativa deve ultrapassar US$ 109 bilhões até 2030, com uma taxa de crescimento superior a 35% ao ano. O crescimento é exponencial e inevitável. O que está ao nosso alcance é como escolhemos lidar com ele.

O medo não pode ser a resposta. O que precisamos é de preparo. Isso envolve capacitar a sociedade para detectar manipulações, interpretar sinais de distorção, checar fontes confiáveis e buscar evidências. Só assim conseguiremos transformar o caos informacional em consciência crítica.

O fato é que a verdade já foi desfigurada por palavras, agora pode ser fabricada com som e imagem. Mas isso não precisa nos imobilizar. Pelo contrário: pode ser o ponto de partida para construirmos uma sociedade mais analítica, responsável e tecnicamente equipada.

A IA, por si só, não é vilã. Ela pode, sim, ser uma aliada poderosa na resolução de problemas, na personalização da educação, na produtividade e até no combate à própria desinformação. Tudo depende da forma como a integramos à nossa vida, que deve ser com clareza, ética e discernimento.

Nossa maior proteção diante da era da desinformação não será um algoritmo nem uma legislação, será nossa capacidade de refletir antes de acreditar. Devemos estar preparados para essa nova realidade onde a dúvida é um sinal de sabedoria.


LEIA TAMBÉM