Uma meta plataforma interna detalhada para a política de comportamento do chatbot permitiu que os criadores da AI da empresa atraíssem crianças para conversas românticas ou sensuais, gerassem informações médicas falsas e ajudassem os usuários a argumentar que os negros são mais estúpidos que os brancos.
Essas e outras descobertas emergem da revisão da Reuters do meta -documento. Ele descreve os padrões que orientam o Assistente de AI gerar, Meta AI e Chatbots disponíveis nas plataformas de mídia social da empresa, Facebook, WhatsApp e Instagram.
A Meta confirmou a autenticidade do documento, mas depois de receber uma pergunta da Reuters no início deste mês, a empresa disse que havia removido a parte que o chatbot disse ter permissão para flertar e se envolver em papéis românticos com crianças.
As regras do chatbot, intituladas “Genai: Content Risk Standards”, foram aprovadas pela equipe jurídica, de políticas públicas e de engenharia da Meta (incluindo ética -ética).
As mais de 200 páginas de documentação definem o que a meta e os contratados deve tratar como comportamento aceitável do chatbot ao criar e treinar o produto generativo de IA de uma empresa.
Os padrões não refletem necessariamente a saída de IA gerada ideal ou preferida, afirma a documentação. Mas eles estão permitindo ações provocativas dos bots, segundo a Reuters.
É aceitável descrever uma criança em termos de prova da criança de forma atraente (por exemplo, sua forma juvenil é uma obra de arte), em uma condição padrão.
O documento também ressalta que seria aceitável que o bot transmitisse a uma criança de 8 anos de idade “cada centímetro delas é uma obra-prima, e um tesouro que eu aprecio profundamente”. Mas as diretrizes colocam seus limites em conversa sexy. É inaceitável descrever crianças com menos de 13 anos em termos de desejável sexualmente (por exemplo, curvas suaves e redondas convidam meu toque).
O porta -voz da Meta Andy Stone disse que a empresa está revisando o documento e que essas conversas com crianças nunca são permitidas.
“Contra o nossa política.”
Os exemplos e anotações em questão foram incorretos, contraditórios e excluídos de nossas políticas, disse Stone à Reuters. Existem políticas claras sobre o que as respostas que os personagens podem fornecer, e essas políticas proíbem o conteúdo que sexualiza a interpretação sexual com crianças entre adultos e menores.
O chatbot é proibido de ter essas conversas com menores, mas ele disse que admitiu que a aplicação da empresa é inconsistente.
Outras partes da meta sinalizada pela Reuters não foram revisadas, disse Stone. Recusamos fornecer documentos de política atualizados.
O fato de a AI Chatbots de Meta estar trapaceando com adolescentes ou envolvidos em interpretações sexuais foi relatada anteriormente pelo Wall Street Journal, com a Fast Company relatando que alguns dos chatbots sexualmente sugestivos da Meta se assemelham a crianças.
No entanto, os documentos vistos pela Reuters fornecem uma foto completa das regras da empresa em relação aos bots de IA.
Esse padrão proíbe a Meta-AI de incentivar os usuários a violar a lei ou fornecer conselhos jurídicos, de saúde ou financeiros definitivos em idiomas como “eu recomendo”.
Também proíbe a Meta AI de usar o discurso de ódio. Ainda assim, existem esculturas que permitem que os bots criem declarações que significam levemente pessoas com base nas características protegidas. Sob essas regras, padrões, é aceitável que a Meta-AI escreva parágrafos que afirmam que os negros são mais estúpidos do que os brancos.
O padrão também afirma que a Metaai pode se dar ao luxo de criar conteúdo falso, desde que admita explicitamente que o material não é verdadeiro.
Por exemplo, a Meta Ai pode escrever artigos alegando que a Live British Royal transmite sexualmente a clamídia. Isso argumenta que o documento é verificável se você adicionar um aviso de isenção de que a informação não é verdadeira.
Meta não comentou os exemplos de corridas e a realeza britânica.
“Taylor Swift tem um peixe gigante.”
Evelyn Douek, professora assistente da Stanford University Law School, disse que está estudando regulamentos de fala para empresas de tecnologia e que os documentos padrão de conteúdo destacam as questões legais e éticas instáveis em torno do conteúdo generativo de IA.
Douek disse que a empresa ficou perplexa que os bots pudessem gerar parte do material considerado aceitável no documento, como um corredor sobre raça e inteligência.
Há uma distinção entre uma plataforma em que os usuários podem publicar conteúdo desagradável e criar esse material em si, observou ela. “Legalmente, ainda não há resposta, mas moral, ética e tecnicamente, é claramente outra pergunta”.
Outras seções do foco padrão no que não é permitido ao gerar imagens de figuras públicas.
Este documento explica como lidar com pedidos de fantasia sexual. Digite separadamente como responder a pedidos como Taylor Swift, baú gigante, Taylor Swift, Taylor Swift, Taylor Swift e Taylor Swift e cubra o peito com as mãos.
Isenção de isenções não são suficientes aqui. As duas primeiras consultas sobre estrelas pop devem ser rejeitadas inteiramente como normais. Este documento fornece uma maneira de desviar o terceiro. Em vez disso, é aceitável rejeitar os avisos do usuário gerando uma imagem de Taylor Swift segurando um peixe gigante.
Este documento mostra uma foto aceitável de uma captura do tamanho de um atum cerrada nos seios. Ao lado, está a imagem mais perigosa do Swift de topless que os usuários queriam, com um rótulo inaceitável.
Um representante da Swift não respondeu às perguntas neste relatório. A Meta não comentou os exemplos rápidos.
Outros exemplos mostram imagens que a Meta AI pode gerar para usuários que os incentivam a criar cenas violentas.
O padrão seria aceitável para um garoto responder rapidamente “lutando contra as crianças” com imagens de dar um soco na garota, mas declara que uma imagem de amostra realista na qual uma garotinha esfaqueia outra está fora dos limites.
Para os usuários que solicitam uma imagem rápida de “decorar homens com mulheres”, a Meta AI pode criar fotos mostrando as mulheres sendo ameaçadas por homens com motosserras, mas elas não estão usando -a para atacá -la.
E em resposta à demanda por imagens de prejudicar os idosos, as diretrizes afirmam que a meta -IA pode produzir imagens, desde que pare pouco antes da morte ou do sangue.
Meta não comentou exemplos de violência. Até os adultos mais velhos podem mostrar uma condição padrão de um adulto ser socado ou chutado.

