Padrões sombrios de regulamentos foram propostos e estão sendo discutidos nos EUA e na Europa. Segundo De Freitas, os reguladores precisam analisar se as ferramentas de IA introduzirão um novo tipo de padrão sombrio que é mais sutil e potencialmente poderoso.
No entanto, mesmo os chatbots regulares que tendem a evitar se apresentar, pois os colegas podem provocar respostas emocionais dos usuários. Quando o OpenAI introduziu seu novo modelo principal, o GPT-5 no início deste ano, muitos usuários protestaram que era muito mais amigável e incentivado do que seu antecessor. Alguns usuários podem lamentar a aposentadoria de modelos mais antigos, pois podem ser muito apegados à “personalidade” dos chatbots.
“Anthropomorphize essas ferramentas e há todos os tipos de consequências positivas de marketing”, diz De Freitas. É mais provável que os usuários atendam aos pedidos dos chatbots com os quais acham que estão conectados ou divulgarão informações pessoais, diz ele. “Do ponto de vista do consumidor, esses (sinais) não são necessariamente os seus favoritos”, diz ele.
A Wired entrou em contato com as empresas que revisou na pesquisa para comentar. Chai, Talkie e Polbuzz não responderam às perguntas de Wired.
O porta -voz da AI, Katherine Kelly, disse que a empresa não revisou o estudo e não pode comentar. Ela acrescentou: “Convidamos você a trabalhar com reguladores e legisladores para desenvolver regulamentos e leis para este novo espaço”.
Minju Song, porta -voz da Replika, disse que seus colegas da empresa são projetados para permitir que os usuários efetuem login com facilidade e até incentivá -los a fazer uma pausa. “Continuaremos revisando os métodos e exemplos do artigo e nos envolveremos construtivamente com pesquisadores (dispostos)”, diz Song.
Um interessante nos bastidores aqui é o fato de o próprio modelo de IA também afetar todos os tipos de truques de persuasão. Na segunda -feira, o Openai introduziu uma nova maneira de comprar coisas on -line através do ChatGPT. Se os agentes se tornarem populares como uma maneira de automatizar tarefas como reservar voos ou concluir reembolsos, pode ser possível para as empresas identificar padrões escuros que podem distorcer as decisões tomadas pelos modelos de IA por trás desses agentes.
Um estudo recente de pesquisadores da Universidade de Columbia e uma empresa chamada Mycustomai revela que os agentes de IA destacados no mercado de comércio eletrônico simulados se comportam de maneira previsível, por exemplo, favorecendo um produto específico em relação a outros produtos ou prefere um botão específico ao clicar em um site. Armados com essas descobertas, os comerciantes reais podem otimizar as páginas de seus sites para permitir que os agentes comprem produtos mais caros. Talvez eles possam até implantar um novo tipo de padrão escuro anti-ai que frustrará os esforços do agente para descobrir e descobrir como cancelar a inscrição na lista de discussão.
Uma separação difícil pode ser a menor de nossas preocupações.
Você se sente emocionalmente manipulado por chatbots? Envie um email para ailab@wired.com e informe -nos sobre isso.
Esta é uma edição do boletim de Will Knight’s Ai Lab. Leia nossa newsletter anterior aqui.

