Todos os 400 sistemas de IA expostos encontrados pelo UpGuard têm uma coisa em comum. Eles usam uma estrutura de AI de código aberto chamado llama.cpp. Este software permite que as pessoas implantem modelos de IA de código aberto com relativa facilidade em seus próprios sistemas ou servidores. No entanto, se não estiver configurado corretamente, poderá publicar incorretamente os prompts que estão sendo enviados. À medida que empresas e organizações de todos os tamanhos implantam IA, a configuração adequada dos sistemas e infraestrutura utilizada é importante para evitar vazamentos.
As rápidas melhorias na IA artificial nos últimos três anos explodiram sistemas que tornam os colegas e sistemas de IA mais “humanos”. Por exemplo, a Meta experimentou personagens de IA com os quais as pessoas podem conversar no WhatsApp, Instagram e Messenger. Em geral, sites e aplicativos complementares permitem que as pessoas tenham conversas gratuitas com caracteres de IA. Que o personagem seja um personagem com uma personalidade personalizável ou uma figura pública, como uma celebridade.
As pessoas encontraram amizade e apoio em conversas com a IA. E nem todos eles incentivam cenários românticos ou sexuais. Talvez sem surpresa, as pessoas se apaixonaram por personagens de IA e, nos últimos anos, dezenas de namoradas e serviços de namorado de IA apareceram.
Claire Boyne, pesquisadora de pós -doutorado da Faculdade de Direito da Universidade de Washington e afiliada do Instituto Cordell, diz que milhões de pessoas, incluindo adultos e adolescentes, usam o popular aplicativo da AI Companion. “Eu sei que muitas pessoas constroem algum vínculo emocional com chatbots”, diz Boyne, que publicou um estudo sobre o assunto. “Por exemplo, as pessoas que estão emocionalmente conectadas aos seus colegas de IA têm maior probabilidade de divulgar informações pessoais ou íntimas”.
Mas Boein disse que muitas vezes existem desequilíbrios de poder que estão emocionalmente ligados à IA criados pelas empresas. “Às vezes, as pessoas se envolvem nessas conversas para construir esse tipo de relacionamento em primeiro lugar”, diz Boyne. “Mas depois que eles o desenvolvem, parece que eles realmente não podem optar por sair com facilidade”.
À medida que a indústria de companheiros de IA cresce, alguns desses serviços não têm moderação de conteúdo ou outro controle. O personagem apoiado pelo Google está sendo processado depois que um adolescente da Flórida supostamente se apaixonou por um dos chatbots antes de morrer de suicídio. (O caractere AI aumentou as ferramentas de segurança ao longo do tempo.) Separadamente, os usuários da ferramenta de IA gerada foram abordados quando a empresa mudou sua personalidade.
Além dos colegas individuais, também existem serviços de interpretação de papéis e companheiros de fantasia. Isso pode conversar com milhares de personas, mas coloca o usuário como personagens no cenário. Alguns deles podem se tornar sexualmente avançados e fornecer bate -papo NSFW. Eles podem usar personagens de anime, alguns dos quais parecem mais jovens, mas alguns afirmam que permitem conversas “sem censura”.
“Testamos essas coisas e estamos muito surpresos com o que essas plataformas estão dizendo e, à primeira vista, parece que não há regulamentos ou restrições”, diz Adam Dodge, fundador da Endtab (abuso de tecnologia final). “Isso ainda não está longe do radar das pessoas”. Dodge diz que essas tecnologias estão abrindo uma nova era de pornografia on -line. Isso permite que novas questões sociais sejam introduzidas à medida que a tecnologia continua amadurecendo e melhorando. “Os usuários passivos agora estão fazendo corpos digitais e retratos de mulheres e meninas um participante ativo sem precedentes”, disse ele sobre vários sites.