As fotos de satélite publicadas pelos meios de comunicação iranianos parecem reais, mostrando uma base militar dos EUA em ruínas no Qatar.
No entanto, era uma falsificação gerada pela IA, destacando a ameaça crescente da desinformação baseada na tecnologia durante a guerra.
A ascensão da IA generativa está a acelerar a capacidade dos intervenientes estatais e propagandistas de fabricarem imagens de satélite convincentes durante conflitos de grande escala, uma tendência que os investigadores alertam que tem implicações na segurança do mundo real.
À medida que a guerra dos EUA e de Israel contra o Irão se intensifica, o diário estatal de língua inglesa Tehran Times publicou imagens de “antes e depois” no X, alegando que uma instalação de radar dos EUA numa base no Qatar foi “completamente destruída”.
Segundo os pesquisadores, na verdade era uma imagem do Google Earth aprimorada por IA, tirada no ano passado de uma base militar dos EUA no Bahrein.
Os efeitos visuais sutis incluíam fileiras de carros estacionados no mesmo local tanto na foto real de satélite quanto na imagem manipulada.
Mas as fotos adulteradas foram espalhadas pelas redes sociais em vários idiomas e obtiveram milhões de visualizações, mostrando como os usuários não conseguem distinguir entre realidade e ficção em uma plataforma saturada de recursos visuais gerados por IA.
Brady Afric, um investigador de inteligência de código aberto, observou o “aumento de imagens de satélite manipuladas” que aparecem nas redes sociais na sequência de grandes eventos, como as guerras no Médio Oriente.
“Muitas dessas imagens manipuladas têm características imperfeitas geradas pela IA, como ângulos estranhos, detalhes borrados e características alucinatórias que não correspondem à realidade”, disse Afric à AFP.
“Outras imagens parecem ser imagens manipuladas manualmente, muitas vezes pela sobreposição de indicadores de danos ou outras alterações em imagens de satélite que, para começar, não possuem tais detalhes”, disse ele.
“Névoa da Guerra”
O analista de guerra de informação Tal Hagin deu o alarme sobre imagens de satélite separadas geradas por IA que pretendem mostrar aviões de guerra israelitas e norte-americanos a atacarem silhuetas de aeronaves pintadas no solo no Irão, enquanto o Irão transportava os aviões reais para outro lugar.
As fotos de satélite publicadas pelos meios de comunicação iranianos parecem reais, mostrando uma base militar dos EUA em ruínas no Qatar. —Crédito da foto: GulfNews
Pistas óbvias incluíam coordenadas sem sentido incorporadas em imagens falsas, que se espalharam por sites como Instagram, Threads e X.
A AFP detectou SynthID, uma marca d’água invisível para identificar imagens criadas usando Google AI.
As imagens de satélite fabricadas surgem após o surgimento de contas falsas de OSINT (Open Source Intelligence) nas redes sociais que parecem minar o trabalho de investigadores digitais confiáveis.
Hagin disse que em países como o Irã, “por causa da névoa da guerra, pode ser muito difícil determinar se um ataque inimigo foi bem-sucedido. A OSINT surgiu como uma solução para utilizar imagens públicas de satélite para contornar a censura”.
“Mas agora está a ser explorado por agentes de desinformação”, acrescentou.
Relatos de imagens de satélite falsas criadas ou editadas usando IA também se seguiram ao conflito do ano passado entre a Rússia e a Ucrânia e à guerra de quatro dias entre o Paquistão e a Índia.
“Percepção Crítica”
“As imagens de satélite manipuladas, tal como outras formas de desinformação, podem ter consequências no mundo real se as pessoas agirem com base na informação que recebem sem verificar a sua autenticidade”, disse Afric.
“Isto poderá ter uma vasta gama de implicações, desde influenciar a opinião pública sobre questões importantes, como se um Estado deve participar num conflito, até impactar os mercados financeiros.”
Na era da IA, imagens de satélite autênticas e de alta resolução recolhidas em tempo real podem fornecer pistas críticas aos decisores para avaliar ameaças à segurança e desmascarar falsidades provenientes de fontes não verificadas.
Durante o recente ataque extremista ao aeroporto de Niamey, no Níger, a empresa de inteligência por satélite Vantaa anunciou ter detectado imagens que circulavam online que pretendiam mostrar o principal terminal civil em chamas.
Tomi Maxted, da Vantor, disse à AFP que as próprias imagens de satélite da empresa confirmaram que a foto era quase certamente uma falsificação gerada por IA.
“Quando as imagens de satélite são apresentadas como evidência visual no contexto da guerra, podem facilmente influenciar a forma como as pessoas interpretam os acontecimentos”, disse Bo Zhao, da Universidade de Washington, à AFP.
À medida que as imagens geradas pela IA se tornam mais persuasivas, “é importante que o público aborde esse conteúdo visual com cautela e consciência crítica”, disse Zhao.

