• About
  • Advertise
  • Careers
  • Contact
Sexta-feira, 27 Março 2026
  • Iniciar sessão
Sem resultados
Ver todos os resultados
Noticias Portugal
  • Home
  • Últimas notícias
  • Economia
  • Deporto
  • Sociedade
  • Internacional
  • Mais notícias
    • Tecnologia
    • Receitas
    • Viagens
  • Home
  • Últimas notícias
  • Economia
  • Deporto
  • Sociedade
  • Internacional
  • Mais notícias
    • Tecnologia
    • Receitas
    • Viagens
Sem resultados
Ver todos os resultados
Noticias Portugal
Sem resultados
Ver todos os resultados
início da web Tecnologia

62% das pessoas não distingue entre imagens reais e geradas por IA: a urgência de novas ferramentas e educação digital

por Notícias Tecnologia
31/07/2025
em Tecnologia
0
0
ACÇÕES
2
VISTAS
Share on FacebookShare on Twitter

Um estudo conjunto entre a Microsoft e universidades como Cornell revela as limitações humanas na identificação de conteúdo sintético. O avanço da inteligência artificial generativa representa um desafio crescente no cotidiano de milhões de pessoas: como distinguir o real do artificial?

De acordo com uma pesquisa publicada em maio de 2025 pelo laboratório AI for Good da Microsoft, em parceria com a Universidade de Cornell e outras instituições acadêmicas, os seres humanos acertam apenas 62% das vezes ao tentar discernir se uma imagem foi capturada do mundo real ou gerada por modelos de IA como DALL·E 3, Midjourney v6 ou Stable Diffusion XL.

O estudo, intitulado “Como os humanos são bons em detectar imagens geradas por IA? Aprendizados de um experimento” (arXiv:2507.18640), baseou-se em mais de 287.000 avaliações de imagens realizadas por 12.500 participantes em todo o mundo através do jogo online interativo Real or Not Quiz. Os usuários visualizaram uma seleção aleatória de imagens reais, extraídas de um banco de 350 fotografias de domínio público, junto com outras geradas por IA (700 no total) e deveriam classificá-las como autênticas ou artificiais.

Um dos achados mais relevantes do estudo é que os indivíduos tendem a identificar melhor rostos humanos reais. Em contrapartida, os erros aumentam drasticamente ao se tratar de paisagens urbanas ou naturais, especialmente quando não possuem elementos reconhecíveis ou apresentam composições plausíveis.

A pesquisa sugere que os usuários ainda dependem de “pistas visuais” para detectar imagens geradas por IA. Contudo, à medida que os modelos avançam, estas pistas se tornam cada vez mais indistinguíveis, o que torna a confiança no que vemos cada vez mais frágil.

Por outro lado, a Microsoft desenvolveu um detector automático de imagens sintéticas capaz de identificar imagens geradas por IA com uma precisão de 95%. Essa ferramenta, testada com a mesma base de imagens utilizada pelos participantes humanos, evidenciou uma lacuna significativa entre as capacidades de percepção humana e as da tecnologia em si. No entanto, os pesquisadores reconhecem que uma única ferramenta não é suficiente. Soluções técnicas devem ser acompanhadas de sistemas de etiquetagem transparente, marcas d’água, assinaturas digitais e políticas que esclareçam a origem do conteúdo.

“É urgente implementar mecanismos visíveis e persistentes que indiquem quais conteúdos foram gerados ou alterados por inteligência artificial, para evitar a propagação de desinformação visual e o deterioro da confiança pública”, afirma o estudo.

A dificuldade em distinguir entre o real e o artificial já gera consequências sociais. No ambiente das redes sociais e nos meios de comunicação, circulam diariamente imagens manipuladas ou completamente inventadas que geram confusão e polarização. Tal fenômeno motivou intervenções de governos e organismos internacionais.

Nesse contexto, a recente decisão da Austrália de proibir o YouTube para menores de 16 anos, a partir de dezembro de 2025, é particularmente relevante. O governo argumenta que conteúdos prejudiciais — incluindo vídeos gerados ou alterados por IA — representam uma ameaça para a saúde mental dos adolescentes. Uma pesquisa oficial revelou que 37% dos jovens australianos identificaram conteúdo nocivo na plataforma, superando outras redes sociais.

Enquanto isso, empresas como a Meta adotam uma estratégia de contenção responsável, introduzindo ferramentas de segurança avançadas, como detecção de interlocutores suspeitos e alertas de localização. Estas medidas visam proteger os usuários adolescentes, além de garantir a integridade de conteúdos voltados para o público infantojuvenil.

O estudo de Cornell e Microsoft é, portanto, não apenas um alerta tecnológico, mas também um toque de alerta cultural. Se falhamos em 38% das vezes ao avaliar o que vemos, precisamos de mais do que apenas algoritmos para restaurar a confiança. É fundamental promover educação visual, pensamento crítico e alfabetização midiática desde os primeiros anos.

Ademais, é necessário avançar na criação de um marco regulatório internacional que exija transparência dos desenvolvedores de IA generativa e das plataformas que os integram. Os consumidores também devem ter o direito de saber se uma imagem foi gerada por um modelo, modificada digitalmente ou capturada da realidade.

Vivemos em uma era onde a capacidade de criar imagens hiper-realistas deixou de ser um privilégio de especialistas. Isso pode ter aplicações positivas em diversos campos, mas também abre a porta para manipulação massiva, usurpação de identidades e desinformação sistemática. O estudo deixa claro: a visão por si só não é mais suficiente. No novo ecossistema digital, a verdade visual precisa ser acompanhada de ferramentas de verificação e responsabilidade compartilhada para que possamos navegar em um mundo onde o falso se torna cada vez mais indistinguível do real.

Tags: dasDigitaldistingueEducaçaoentreferramentasgeradasImagensNãoNovasPessoasporreaisUrgência
Notícias Tecnologia

Notícias Tecnologia

Related Posts

Os portáteis entram em crise: a China afunda e a IA encarece o mercado

por Notícias Tecnologia
26/03/2026
0

O mercado de notebooks enfrenta custos crescentes e queda brusca nas vendas na China O mercado de notebooks começou 2026...

FCT Anuncia Novo Valor para Bolsas de Estudo em 2026

por Notícias Tecnologia
26/03/2026
0

A Fundação para a Ciência e a Tecnologia (FCT) anunciou uma atualização significativa nos valores das bolsas de investigação, que...

Pax Silica: assim os EUA querem proteger chips e minerais contra a China

por Notícias Tecnologia
26/03/2026
0

Os Estados Unidos estão empenhados em transformar a segurança tecnológica em uma nova arquitetura de alianças por meio da iniciativa...

Recommended

Worldline Expande Sua Presença na Extremadura com Software e Talento Local

6 meses atrás

Entenda as Distinções: Edredão, Nórdico e Colcha

1 mês atrás

Popular News

  • Conflito no RD Congo: A Violência Sexual como Estratégia de Guerra e seus Danos Imensuráveis

    0 shares
    Share 0 Tweet 0
  • Descubra Onde José Maria Ricciardi Chamava Lar

    0 shares
    Share 0 Tweet 0
  • 50 Diretrizes Espanholas que Revolucionarão a Liderança Empresarial Feminina em Santander

    0 shares
    Share 0 Tweet 0
  • Pastrana Renova Sua Semana Santa: Tradição, Devoção e Reflexo de Recolhimento

    0 shares
    Share 0 Tweet 0
  • Parlamentares e empresários intensificam apelos por reforma da OMC na MC14

    0 shares
    Share 0 Tweet 0

Connect with us

  • About
  • Advertise
  • Careers
  • Contact

© 2025 Noticias Portugal

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In
Sem resultados
Ver todos os resultados
  • Home
  • Internacional
  • Economia
  • Viagens
  • Deporto
  • Sociedade
  • Tecnologia
  • Receitas

© 2025 Noticias Portugal