Durante anos, os chamados aplicativos e sites “Nudify” se tornaram cogumelos on-line, permitindo que as pessoas criem imagens inconsensuais e abusivas de mulheres e meninas que contêm material de abuso sexual infantil. Apesar de alguns legisladores e empresas de tecnologia tomarem medidas para limitar serviços prejudiciais, milhões de pessoas ainda visitam o site todos os meses e os criadores do site podem ganhar milhões de dólares a cada ano, sugere novas pesquisas.
Análise de 85 sites de Nudify e “Despir”. Isso lhes permitiu fazer upload de fotos e usar a IA para gerar fotos “nuas” de assuntos em apenas alguns cliques, mas descobrimos que a maioria dos sites depende de serviços técnicos do Google, Amazon e Cloudflare para manipulá -los e ficar online. As descobertas reveladas pelo indicador são uma publicação que examina decepções digitais, dizendo que o site combinou uma média de 18,5 milhões de visitantes cada nos últimos seis meses, coletivamente potencialmente cobrando até US $ 36 milhões por ano.
Alexios Manzarlis, co-fundador do pesquisador de indicadores e segurança on-line, diz que o ecossistema nudificador lamacento se tornou um “negócio motivado” onde “a abordagem liberal do Vale do Silício para gerar IA” pode durar. “Quando ficou claro que seu único caso de uso era assédio sexual, eles tiveram que parar de oferecer qualquer serviço aos nudificadores da AI”, disse Mantzarlis sobre a empresa de tecnologia. Criar ou compartilhar os deepfakes explícitos está se tornando cada vez mais ilegal.
Pesquisas mostram que a Amazon e o CloudFlare oferecem 62 serviços de hospedagem ou entrega de conteúdo em 85 sites, enquanto o sistema de assinatura do Google é usado em 54 sites. O site NUDify também usa muitos outros serviços, como sistemas de pagamento oferecidos pelas empresas convencionais.
O porta -voz da Amazon Web Services, Ryan Walsh, diz que a AWS tem termos de serviço claros que exigem que os clientes cumpram as leis “aplicáveis”. “Quando recebemos um relatório de uma possível violação dos termos, estamos agindo prontamente e tomando medidas para desativar o conteúdo proibido”, diz Walsh, acrescentando que as pessoas podem relatar o problema às suas equipes de segurança.
“Alguns desses sites violam nossos termos e nossa equipe está tomando medidas para lidar com essas violações e trabalhar em soluções de longo prazo”, disse o porta-voz do Google, Karl Ryan, que observou que o sistema de assinatura do Google exige que os desenvolvedores concordem com uma política que proíbe conteúdo ilegal ou conteúdo que assedia outros.
O Cloudflare não havia respondido ao pedido de comentário da Wired no momento da redação. A Wired não nomeará o site Nudifier para esta história. Isso ocorre porque não fornece mais exposição.
Desde 2019, os sites e os robôs nudify e despidos floresceram desde 2019, depois de serem originalmente gerados a partir das ferramentas e processos usados para criar os primeiros “DeepFakes” explícitos. Conforme relatado pela Bellingcat, as redes de empresas interconectadas estão surgindo on -line, oferecendo tecnologia e ganhando dinheiro com sistemas.
Geralmente, o serviço usa a IA para converter fotos em imagens explícitas e não consensuais. Você costuma ganhar dinheiro vendendo “créditos” ou assinaturas que você pode usar para gerar fotos. Eles foram sobrecarregados pelas ondas de geradores de imagens de IA gerados que apareceram nos últimos anos. Sua saída é extremamente prejudicial. As fotos de mídia social foram roubadas e usadas para criar imagens abusivas. Enquanto isso, em meio a uma nova forma de cyberbullying e abuso, os adolescentes em todo o mundo criaram imagens de seus colegas de classe. Abusar de imagens tão íntimas pode ser infeliz para as vítimas e pode ser difícil eliminar imagens da web.