A Meta causou polêmica na semana passada quando vazou que pretendia apresentar sua plataforma a um grande número de usuários completamente sintéticos em um futuro não muito distante.
“Esperamos que essas IAs realmente vivam em nossa plataforma ao longo do tempo, assim como as contas”, disse Connor Hayes, vice-presidente de produtos generativos de IA da Meta, ao Financial Times. “Eles terão um perfil e uma foto de perfil e poderão gerar e compartilhar conteúdo com tecnologia de IA na plataforma. Achamos que tudo acontecerá a partir daí.”
O fato de a Meta parecer feliz em preencher sua plataforma com resíduos de IA e acelerar a “funcionalização” da Internet como a conhecemos é alarmante. Desde então, algumas pessoas notaram que o Facebook já está cheio de indivíduos estranhos gerados por IA, a maioria dos quais parou de postar há algum tempo. Isso inclui, por exemplo, Liv, uma “orgulhosa mãe negra queer de dois filhos e uma contadora da verdade que é a verdadeira fonte dos altos e baixos da vida”, que as pessoas ficaram surpresas com sua desleixo estranho e rapidamente se tornou viral. A Meta começou a remover esses primeiros perfis falsos depois de não conseguir obter o envolvimento de usuários reais.
Mas vamos parar de odiar o meta por um segundo. É importante notar que as personas sociais geradas pela IA também podem ser uma ferramenta de pesquisa valiosa para cientistas que procuram explorar como a IA pode imitar o comportamento humano.
Um experimento chamado GovSim realizado no final de 2024 mostra como pode ser útil estudar como os personagens de IA interagem. Os investigadores por trás deste projeto queriam investigar o fenómeno da cooperação entre humanos que têm acesso a recursos partilhados, como terras partilhadas para pastagem de gado. Há décadas, a economista vencedora do Prémio Nobel, Elinor Ostrom, sugeriu que as comunidades reais partilhassem recursos através da comunicação informal e da cooperação, sem impor quaisquer regras, em vez de esgotarem esses recursos.
Max Kleiman Weiner, professor da Universidade de Washington e uma das pessoas envolvidas no esforço do GovSim, disse que o projeto foi parcialmente inspirado em um projeto da Universidade de Stanford chamado Smallville, que escrevi anteriormente no AI Lab. isto. Smallville é uma simulação semelhante a Farmville, onde os personagens se comunicam e interagem entre si sob o controle de um extenso modelo de linguagem.
Kleiman-Weiner e seus colegas queriam ver se os personagens de IA formariam relacionamentos cooperativos como os que Ostrom encontrou. A equipe testou 15 LLMs diferentes, incluindo os da OpenAI, Google e Anthropic, em três cenários hipotéticos. Um pastor que divide terras com suas ovelhas. e grupos de proprietários de fábricas que precisam limitar a poluição coletiva.
Em 43 das 45 simulações, descobrimos que a persona da IA não conseguiu compartilhar os recursos corretamente, mas o modelo mais inteligente se saiu melhor. “Encontramos uma correlação bastante forte entre a força do LLM e a capacidade de manter a colaboração”, disse-me Kleiman-Weiner.