A Openai anunciou os novos recursos de segurança adolescente do ChatGPT na terça -feira como parte de seus esforços em andamento para abordar preocupações sobre como os menores estarão envolvidos em chatbots. A empresa construiu um sistema de idade que identifica se os usuários têm menos de 18 anos e os dirige para um sistema “baseado em idade” que bloqueia o conteúdo sexual gráfico. Se o sistema detectar que o usuário está considerando o suicídio ou a auto-prejudicação, ele entra em contato com os pais do usuário. No caso de um perigo iminente, o sistema pode entrar em contato com as autoridades se os pais do usuário não conseguirem alcançá -lo.
Em um post sobre o anúncio, o CEO Sam Altman escreveu que a empresa está tentando equilibrar a liberdade, a privacidade e a segurança adolescente.
“Reconhecemos que esses princípios estão em desacordo, e nem todos concordam com como resolver esse conflito”, escreve Altman. “Essas são decisões difíceis, mas depois de conversar com os especialistas, é isso que pensamos ser o melhor e queremos ser transparentes com nossas intenções”.
O Openai tende a priorizar a privacidade e a liberdade para usuários adultos, mas os adolescentes dizem que é seguro. Até o final de setembro, a empresa poderá implantar controles dos pais para permitir que os pais vinculem as contas de seus filhos a suas contas, gerenciem conversas e desativem os recursos. De acordo com a postagem do blog da empresa, se “o sistema estiver em um momento de angústia aguda”, os pais podem receber notificações e também estabelecer limites quando a criança pode usar o ChatGPT.
A medida continua a trazer manchetes profundas e preocupantes para as pessoas que morrem por suicídio ou cometerem violência contra suas famílias depois de participarem de longas conversas com a IA Chatbots. Os legisladores estão cientes, e a meta e a abertura estão sob escrutínio. No início deste mês, a Comissão Federal de Comércio pediu à Meta, Open, Google e outras empresas de IA que entregassem informações sobre como a tecnologia afeta as crianças, de acordo com a Bloomberg.
Ao mesmo tempo, o OpenAI está sob uma ordem judicial que exige que as conversas dos consumidores sejam mantidas indefinidamente, de acordo com as fontes com as quais falei. As notícias de hoje são um passo importante para proteger os menores, um movimento de relações públicas experiente para reforçar a idéia de que as conversas com chatbots são muito pessoais e que a privacidade do consumidor só deve ser violada nas circunstâncias mais extremas.
“Chatgpt Sex Bot Avatar”
Das fontes com as quais falei no Openai, o ônus de proteger os usuários é pesado em muitos pesquisadores. Eles querem criar experiências divertidas e envolventes, mas rapidamente se tornam infelizes. É certo que empresas como o OpenAI estão tomando medidas para proteger menores. Ao mesmo tempo, ainda não há nada para forçar essas empresas a fazer a coisa certa se não houver regulamentos federais.
Em uma entrevista recente, Tucker Carlson instou Altman a responder exatamente quem está tomando essas decisões que afetarão o resto de nós. O chefe do OpenAI apontou para a equipe de ação do modelo, responsável por ajustar o modelo para atributos específicos. “Sou eu quem pensa que você deve ser responsável por essas ligações”, acrescentou Altman. “Eu sou o rosto público. Então, posso derrubar uma dessas decisões ou nosso conselho de administração”.

