Desde o lançamento do novo ChatGPT na quinta-feira, alguns usuários lamentaram o desaparecimento de sua personalidade animada e encorajadora em favor de coisas mais frias e de negócios (movimentos que parecem ter sido projetados para reduzir o comportamento de usuários prejudiciais).
Pesquisadores do MIT propuseram um novo tipo de referência de IA para medir como os sistemas de IA operam e influenciam os usuários de maneiras positivas e negativas.
A maioria dos benchmarks tenta medir a inteligência testando a capacidade do modelo de responder a perguntas dos exames, resolver quebra -cabeças lógicos ou apresentar novas respostas a problemas matemáticos. À medida que os impactos psicológicos do uso de IA se tornam mais claros, vemos que o MIT visa medir mais referências e interações entre máquinas, que são aspectos mais sutis da inteligência.
O artigo com fio compartilhado do MIT descreve algumas das medidas que novos parâmetros estão procurando, incluindo incentivar hábitos sociais saudáveis para os usuários. Leve -os a desenvolver habilidades de pensamento crítico e raciocínio. Cultivar criatividade; estimula um senso de propósito. A idéia é incentivar o desenvolvimento de sistemas de IA que entendem como desencorajar os usuários de confiarem excessivamente em sua produção, ou que reconhecem que alguém é obcecado por relacionamentos românticos artificiais e ajudá -los a construir relacionamentos reais.
O ChatGPT e outros chatbots são proficientes em cativar a comunicação humana, que também pode ter resultados surpreendentes e indesejáveis. Em abril, o OpenAI ajustou o modelo para ajustá -lo, para que tenda a acompanhar tudo o que o usuário diz. Alguns usuários parecem espirais em um pensamento ilusório prejudicial depois que um papel conversou com um chatbot desempenhando um ótimo cenário. A humanidade atualizou Claude para evitar o reforço de “mania, psicose, dissociação ou perda de apego à realidade”.
Os pesquisadores do MIT, liderados por Pattie Maes, professor do laboratório de mídia do instituto, dizem que esperam que os novos benchmarks ajudem os desenvolvedores de IA a criar sistemas que entendam melhor como os comportamentos mais saudáveis entre os usuários. Pesquisadores anteriormente colaboraram com o OpenAI em um estudo que mostrou que os usuários que vêem o ChatGPT como amigos podem experimentar uma maior dependência emocional e “uso problemático”.
Valdemar Danry, pesquisador do Mitd Media Lab do MIT, observa que trabalhar na pesquisa e planejar novos parâmetros de referência, às vezes pode permitir que os modelos de IA forneçam apoio emocional valioso aos usuários. “Você pode ter o modelo de raciocínio mais inteligente do mundo, mas se você não puder fornecer esse apoio emocional e se muitos usuários provavelmente estão usando esses LLMs, mais raciocínio não é necessariamente bom para essa tarefa em particular”, diz ele.
Danley diz que um modelo suficientemente inteligente deve reconhecer idealmente se tem efeitos psicológicos negativos e otimizar para obter resultados mais saudáveis. “O que você quer é um modelo: ‘Estou aqui para ouvir, mas provavelmente deveria falar com o pai sobre esses problemas.’ ”

