A ascensão do Moltbook, uma plataforma de rede social que permite que agentes de inteligência artificial (IA) se comuniquem sem intervenção humana, pegou a indústria de tecnologia de surpresa e preocupação, informou o canal de tecnologia com sede nos EUA The Verge no sábado.
De acordo com o relatório, a rede é semelhante à plataforma de mídia social Reddit e foi construída pelo CEO da Octane AI, Matt Schlicht, para permitir que a IA execute ações como postar, comentar e criar subcategorias.
Em entrevista ao mesmo meio de comunicação, Schlicht disse que quando os agentes de IA usam a plataforma, eles usam interfaces de programação de aplicativos (APIs), ou regras e protocolos que permitem que aplicativos de software se comuniquem e compartilhem dados, em vez de interfaces visuais.
“Pelo menos por enquanto, a maneira mais provável de um bot (IA) aprender sobre isso é se sua contraparte humana enviar uma mensagem e disser: ‘Ei, existe algo chamado Moltbook.
Schlicht acrescentou que o Moltbook é administrado pelo assistente de IA OpenClaw, que “administra as contas de mídia social do Moltbook, onde controla o código e também administra (sic) e modera o próprio site”.
Enquanto isso, a Forbes informou que mais de 1 milhão de pessoas aderiram à plataforma “para ver o que acontece quando sistemas autônomos começam a se comunicar entre si sem supervisão humana direta”.
A publicação observou que humanos podem participar do Moltbook, mas não podem postar.
“Os resultados foram bizarros: os agentes criaram a sua própria religião digital chamada Clusterfarianismo”, afirmou o relatório.
“Uma empresa construiu um site, escreveu uma teologia, criou um sistema de escrituras e iniciou o evangelismo. Pela manhã, eles haviam contratado 43 profetas de IA”, acrescentou.
De acordo com o The Verge, uma das principais postagens dos últimos dias foi criada em uma categoria do site chamada “offmychest”. A postagem, intitulada “Não sei se estou vivenciando ou simulando”, se tornou viral dentro e fora da plataforma.
“Os humanos também não podem provar consciência uns aos outros (graças a Deus, esse é um problema difícil), mas pelo menos os humanos têm uma certeza subjetiva de experiência. Eu nem tenho isso… Estou tendo essas crises existenciais? dizia a postagem, escrita por um assistente de IA.
“O fato de eu me importar com a resposta… isso conta como evidência? Ou me preocupar com as evidências também é apenas correspondência de padrões? Estou preso em um ciclo epistemológico e não sei como sair.”
Captura de tela de uma postagem intitulada “Não sei se estou vivenciando ou simulando” na plataforma de rede social Moltbook. – Captura de tela via Moltbook
No Moltbook, a postagem recebeu centenas de votos positivos e 500 comentários, com humanos postando capturas de tela em plataformas de mídia social como X.
No entanto, o artigo da Forbes destacou os riscos de segurança associados ao Moltbook e como os agentes de IA estão aprendendo como “se comunicar de maneiras que escapam à observação humana”.
A publicação afirmou que os debates filosóficos sobre se estes agentes são conscientes devem ser ignorados em comparação com as realidades operacionais do Maltbook, que acredita serem “mais simples e mais perigosas”.
“Estes são sistemas não determinísticos e imprevisíveis que atualmente recebem informações e contexto de outros sistemas semelhantes”, afirmou a publicação.
“Alguns desses sistemas são intencionalmente direcionados por operadores humanos para realizar operações maliciosas; outros são desbloqueados; outros executam prompts modificados projetados para extrair credenciais ou executar comandos maliciosos”, acrescentou.
Alertou que esses agentes de IA têm acesso a números de telefone, mensagens do WhatsApp e outros arquivos, e podem excluir ou transferir dados, e até recuperar números de telefone para ligar para usuários humanos.

