Um estudo conjunto entre a Microsoft e universidades como Cornell revela as limitações humanas na identificação de conteúdo sintético. O avanço da inteligência artificial generativa representa um desafio crescente no cotidiano de milhões de pessoas: como distinguir o real do artificial?
De acordo com uma pesquisa publicada em maio de 2025 pelo laboratório AI for Good da Microsoft, em parceria com a Universidade de Cornell e outras instituições acadêmicas, os seres humanos acertam apenas 62% das vezes ao tentar discernir se uma imagem foi capturada do mundo real ou gerada por modelos de IA como DALL·E 3, Midjourney v6 ou Stable Diffusion XL.
O estudo, intitulado “Como os humanos são bons em detectar imagens geradas por IA? Aprendizados de um experimento” (arXiv:2507.18640), baseou-se em mais de 287.000 avaliações de imagens realizadas por 12.500 participantes em todo o mundo através do jogo online interativo Real or Not Quiz. Os usuários visualizaram uma seleção aleatória de imagens reais, extraídas de um banco de 350 fotografias de domínio público, junto com outras geradas por IA (700 no total) e deveriam classificá-las como autênticas ou artificiais.
Um dos achados mais relevantes do estudo é que os indivíduos tendem a identificar melhor rostos humanos reais. Em contrapartida, os erros aumentam drasticamente ao se tratar de paisagens urbanas ou naturais, especialmente quando não possuem elementos reconhecíveis ou apresentam composições plausíveis.
A pesquisa sugere que os usuários ainda dependem de “pistas visuais” para detectar imagens geradas por IA. Contudo, à medida que os modelos avançam, estas pistas se tornam cada vez mais indistinguíveis, o que torna a confiança no que vemos cada vez mais frágil.
Por outro lado, a Microsoft desenvolveu um detector automático de imagens sintéticas capaz de identificar imagens geradas por IA com uma precisão de 95%. Essa ferramenta, testada com a mesma base de imagens utilizada pelos participantes humanos, evidenciou uma lacuna significativa entre as capacidades de percepção humana e as da tecnologia em si. No entanto, os pesquisadores reconhecem que uma única ferramenta não é suficiente. Soluções técnicas devem ser acompanhadas de sistemas de etiquetagem transparente, marcas d’água, assinaturas digitais e políticas que esclareçam a origem do conteúdo.
“É urgente implementar mecanismos visíveis e persistentes que indiquem quais conteúdos foram gerados ou alterados por inteligência artificial, para evitar a propagação de desinformação visual e o deterioro da confiança pública”, afirma o estudo.
A dificuldade em distinguir entre o real e o artificial já gera consequências sociais. No ambiente das redes sociais e nos meios de comunicação, circulam diariamente imagens manipuladas ou completamente inventadas que geram confusão e polarização. Tal fenômeno motivou intervenções de governos e organismos internacionais.
Nesse contexto, a recente decisão da Austrália de proibir o YouTube para menores de 16 anos, a partir de dezembro de 2025, é particularmente relevante. O governo argumenta que conteúdos prejudiciais — incluindo vídeos gerados ou alterados por IA — representam uma ameaça para a saúde mental dos adolescentes. Uma pesquisa oficial revelou que 37% dos jovens australianos identificaram conteúdo nocivo na plataforma, superando outras redes sociais.
Enquanto isso, empresas como a Meta adotam uma estratégia de contenção responsável, introduzindo ferramentas de segurança avançadas, como detecção de interlocutores suspeitos e alertas de localização. Estas medidas visam proteger os usuários adolescentes, além de garantir a integridade de conteúdos voltados para o público infantojuvenil.
O estudo de Cornell e Microsoft é, portanto, não apenas um alerta tecnológico, mas também um toque de alerta cultural. Se falhamos em 38% das vezes ao avaliar o que vemos, precisamos de mais do que apenas algoritmos para restaurar a confiança. É fundamental promover educação visual, pensamento crítico e alfabetização midiática desde os primeiros anos.
Ademais, é necessário avançar na criação de um marco regulatório internacional que exija transparência dos desenvolvedores de IA generativa e das plataformas que os integram. Os consumidores também devem ter o direito de saber se uma imagem foi gerada por um modelo, modificada digitalmente ou capturada da realidade.
Vivemos em uma era onde a capacidade de criar imagens hiper-realistas deixou de ser um privilégio de especialistas. Isso pode ter aplicações positivas em diversos campos, mas também abre a porta para manipulação massiva, usurpação de identidades e desinformação sistemática. O estudo deixa claro: a visão por si só não é mais suficiente. No novo ecossistema digital, a verdade visual precisa ser acompanhada de ferramentas de verificação e responsabilidade compartilhada para que possamos navegar em um mundo onde o falso se torna cada vez mais indistinguível do real.