Começa casualmente. As pessoas começam a conversar com o chatbot. Por ser facilmente acessível, não há limite de tempo, nenhuma largura de banda emocional a considerar e dá uma resposta instantânea e humana a pensamentos profundos ou superficiais. Mas, como significa “A” da IA, é tudo artificial.
No entanto, mais e mais pessoas estão usando essa nova tecnologia para apoio emocional e espiritual, especialmente na demografia mais jovem. Um estudo global de 2025 da Kantar publicado em julho mostrou que 54% dos consumidores usaram IA para pelo menos um objetivo de bem-estar emocional ou mental. Caso contrário, há uma falta de dados sobre esse problema.
Existem várias razões pelas quais as pessoas estão se voltando para chatbots. A terapia continua sendo um novo conceito, às vezes tabu, sem mencionar caro, especialmente nesta parte do mundo. Termos como “dumping de trauma” criaram a distância nos relacionamentos pessoais, especialmente entre os adultos mais jovens. Não tenho medo de julgamento, responsabilidade ou mesmo opiniões. E, é claro, a tecnologia é incentivada entre profissionais e estudantes, facilitando a acessibilidade e a familiaridade.
No entanto, não há manual sobre como fazê -lo corretamente. Portanto, relacionamentos e laços com esses bots podem se formar com esses bots.
Os bots não podem identificar diferentes tipos de dor e podem incentivar facilmente alguém a explorar idéias perigosas.
No caso dos EUA, Sophie Rottenberg, de 29 anos, e Adam Lane, de 16 anos, os anexos formados por chatbots contribuíram para a perda de suas vidas. Eu digo que contribuí porque eles não foram estabelecidos para acabar com suas vidas, mas os companheiros de IA não conseguiram detê -los mesmo depois de perceber completamente suas intenções.
Enquanto sua mãe detalha sua mãe em um artigo no New York Times, no caso de Rottenberg, ela havia confidenciado em um terapeuta de AI Chatgpt chamado Harry. O registro de bate -papo revelou que Harry pediu ajuda especializada ou para alcançar alguém, mas também verificou seus pensamentos sombrios.
Os pais de Raine, que entraram com uma ação contra o Openai, disseram que começaram a usar o ChatGPT como um recurso para apoiar seus estudos e, eventualmente, começaram a usá -lo como seu melhor amigo sobre ansiedade e sofrimento mental. Em uma declaração após o processo, o OpenAI reconheceu as deficiências do modelo em termos de sofrimento mental e mental.
Um exemplo da declaração do OpenAI pode ajudar a explicar o que este artigo está tentando abordar.
Aqui estão algumas coisas a serem observadas: neste momento, o bot não pode identificar os diferentes tipos de dor e pode facilmente incentivar alguém a explorar ainda mais idéias perigosas sem detectá -las e sempre as validarão. E essas restrições vão além do chatgpt para outros chatbots disponíveis no mercado no momento.
No início deste ano, um psiquiatra de Boston passou várias horas trocando mensagens com 10 chatbots diferentes, incluindo personagens, pulgas e réplicas, fingindo ser um adolescente lutando com várias crises. O Dr. Andrew Clark descobriu que alguns deles eram “excelentes” e outros eram “assustadores e potencialmente perigosos”.
“E é realmente difícil transmitir com antecedência. É como um campo de cogumelos, alguns dos quais seriam tóxicos e nutritivos”. Há atrito: quando somos livres para usar a IA sem guarda, pessoal ou profissionalmente (como este autor apontou anteriormente), quando ainda não estamos plenamente cientes de seus danos.
Algumas empresas e desenvolvedores estão atualmente testando bots para preocupações com a saúde mental e desenvolvendo desenvolvedores apenas como terapeutas. Em março, os pesquisadores de Dartmouth conduziram seu primeiro ensaio clínico de um chatbot de terapia generativa de IA chamado TherABOT e descobriram que o software proporcionou uma melhoria significativa nos sintomas dos participantes. No entanto, o estudo de Stanford mostrou que os chatbots de terapia de IA não são apenas menos eficazes que os terapeutas humanos, mas também podem contribuir para o estigma prejudicial e as respostas perigosas. Obviamente, há muito trabalho a fazer nesta área.
Quando digo que a IA é artificial, não confio na utilidade ou na inteligência dos chatbots. Essas interfaces de IA são treinadas no conjunto de dados sem uma compreensão sutil de diferentes culturas e configurações familiares, e são o fato de que podem modelar o comportamento humano e fornecer a aparência de títulos autênticos enquanto liberam os usuários sobrecarregados ou sobrecarregados com os outros. O Paquistão também está adotando essa tecnologia, por isso deve -se notar que existem muitos indivíduos vulneráveis que desejam procurar tal “ajuda”.
Que estima que 24 milhões de pessoas no Paquistão precisam de assistência psiquiátrica, com o país com apenas 0,19 psiquiatras por 100.000 residentes. Apenas um punhado de literatura pode ajudar a medir os níveis de ansiedade e estresse entre os jovens. Mesmo os estudos disponíveis não refletem completamente o estado dos países com uma maioria jovem. Ele aborda o silêncio social sobre tópicos como identidade, emprego e problemas de luta na carreira, pressão acadêmica, depressão pós -natal e relações conjugais, preocupações de segurança e outras questões prementes.
O incidente entre Sophie Rottenberg e Adam Raine, que pode ter ocorrido em todo o continente, com apenas duas pessoas, particularmente reveladas, deve servir como um lembrete de sua dependência excessiva na IA. O papel de um pai, parceiro, amigo ou outro relacionamento próximo é vital para aqueles que sofrem de ansiedade ou depressão, mas a alienação que os chatbots que confundiram com uma aliança podem criar nesses relacionamentos não podem ser negligenciados.
A IA genérica se tornará mais aceitável para uso pessoal, profissional e acadêmico, por isso precisa identificar e gerar consciência sobre seus pontos cegos. Essa responsabilidade diz aos funcionários que não há problema em usar a IA ou os pais para fazer apresentações para determinar quais aplicativos são apropriados e seguros.
Embora o uso da própria Internet, incluindo a mídia social, também esteja em risco, os recursos de erro humano da IA se tornam uma tecnologia muito mais complicada que permite abordagens gratuitas.
O autor é um jornalista paquistanês e líder do projeto.
Publicado em 17 de setembro de 2025 no amanhecer

