I. Fundador
Sol Kennedy pediu a seu assistente que lesse uma mensagem enviada a ele por sua ex-mulher. Depois que o casal se separou em 2020, Kennedy diz que achou a comunicação entre o casal “difícil”. Quando ele recebe um e-mail ou uma série de e-mails sobre seus dois filhos e uma turbulência emocional não relacionada, seu dia fica arruinado enquanto ele tenta responder. Kennedy, um fundador e investidor em série de tecnologia do Vale do Silício, estava fazendo terapia na época. Porém, fora das sessões semanais, senti necessidade de suporte em tempo real.
Após o divórcio do casal, a comunicação deles mudou para uma plataforma chamada OurFamilyWizard. A plataforma é usada por centenas de milhares de pais nos EUA e no exterior para trocar mensagens, compartilhar calendários e controlar gastos. (OFW mantém todos os registros admissíveis em tribunal com carimbo de data e hora.) Kennedy pagou a mais por um complemento chamado ToneMeter, que o OFW anunciou na época como um “verificador ortográfico emocional”. Depois de redigir uma mensagem, o software realiza análises básicas de sentimento e sinaliza possíveis palavras como “preocupante”, “ofensivo”, “perturbador” e “humilhante”. Mas houve um problema, diz Kennedy. Seu co-pai não parecia estar usando o medidor de tom.
Sempre um dos primeiros a adotar, Kennedy vinha experimentando o ChatGPT para “co-criar” histórias para dormir com seus filhos. Agora ele recorreu a este site para obter conselhos sobre como se comunicar com seu ex. Ele ficou surpreso, mas não foi o primeiro. No Reddit e em outros fóruns da Internet, pessoas com ex-namorados, familiares e colegas problemáticos postaram em estado de choque sobre a orientação aparentemente superior e a valiosa validação emocional que os chatbots podem fornecer. Aqui estava uma máquina que poderia lhe dizer, sem qualquer propósito aparente, que você não estava louco. Aqui você tinha um conselheiro segurando sua mão pacientemente 24 horas por dia enquanto você suportava qualquer porcaria. Como diz Kennedy, é uma “solução escalável” para complementar a terapia. Finalmente.
Mas ele diz que o ChatGPT, pronto para uso, é muito loquaz e apologético demais para as necessidades de Kennedy. Ele envia uma mensagem severa e incentiva você a responder (em mais frases do que o necessário) com: “Sinto muito, por favor, perdoe-me e farei melhor.” Eu não tinha identidade nem respeito próprio.
Kennedy queria um chatbot com “espinha dorsal” e pensou que, se o construísse, muitos outros co-pais também poderiam querer. Ele acreditava que a IA poderia ajudar em cada etapa da comunicação. A IA pode filtrar palavras que induzem emoções nas mensagens recebidas e resumir apenas os fatos. Pode sugerir uma resposta apropriada. Kennedy diz que tem o potencial de orientar os usuários em direção a “melhores maneiras de fazer as coisas”. Então ele fundou uma empresa e começou a desenvolver aplicativos. Ele o chamou de BestInterest, em homenagem ao padrão que os tribunais costumam usar para determinar a custódia: o “melhor interesse” da criança. Ele pegou esses modelos OpenAI prontos para uso e deu-lhes uma espinha dorsal com suas próprias instruções.
É claro que parceiros distantes acabam tendo brigas feias por vários motivos. Para muitas pessoas, provavelmente a maioria das pessoas, as coisas se acalmam depois de meses suficientes, então ferramentas como o BestInterest podem não ser úteis no longo prazo. Mas quando você adiciona certos traços de personalidade à mistura, sejam sinônimos de “insano” ou “confronto”, “narcisista”, “controlador” ou “tóxico”, que são frequentemente vistos em feeds da Internet, a briga pelas crianças nunca para, pelo menos de um lado. O presidente Kennedy queria que seu chatbot fosse capaz de competir com essas pessoas, então recorreu à pessoa que elas mais odiariam: Ramani Durvasula. Ramani Durvasula é uma psicóloga clínica que mora em Los Angeles e se especializou em como o narcisismo molda os relacionamentos.

