Close Menu
  • Home
  • Crypto
    • Cryptocurrencies
    • Crypto Memes
    • Bitcoin & Ethereum
  • AI
  • DeFi
  • Exchanges
    • Trade
    • Market
  • NFT Games
  • Web3
  • Economy
  • Latest News

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

What's Hot

Empresa suíça de relógios aumenta previsão de vendas para o ano fiscal, mas o preço das ações cai devido à orientação de margem

fevereiro 4, 2026

Preços de fechamento dos EUA: após a alta de segunda-feira, as ações caem devido ao impacto da tecnologia

fevereiro 4, 2026

Os relatórios da primeira metade do grupo NWF são mistos.

fevereiro 3, 2026
Facebook X (Twitter) Instagram
Facebook X (Twitter) Instagram
All Web3 NewsAll Web3 News
  • Home
  • Crypto
    • Cryptocurrencies
    • Crypto Memes
    • Bitcoin & Ethereum
  • AI
  • DeFi
  • Exchanges
    • Trade
    • Market
  • NFT Games
  • Web3
  • Economy
  • Latest News
All Web3 NewsAll Web3 News
Home » Líder de pesquisa que apoiou a pesquisa de saúde mental do ChatGPT deixa a OpenAI
AI

Líder de pesquisa que apoiou a pesquisa de saúde mental do ChatGPT deixa a OpenAI

ForaDoPadraoBy ForaDoPadraonovembro 24, 2025Nenhum comentário3 Mins Read
Facebook Twitter Pinterest LinkedIn Tumblr Email
Share
Facebook Twitter LinkedIn Pinterest Email


O líder da pesquisa de segurança da OpenAI, que ajudou a moldar a resposta do ChatGPT aos usuários que enfrentam crises de saúde mental, anunciou sua saída da empresa no mês passado, descobriu a WIRED. Andrea Vallone, chefe da equipe de pesquisa de segurança conhecida como Model Policy, deixará a OpenAI no final do ano.

A porta-voz da OpenAI, Kayla Wood, confirmou a saída de Vallone. Wood disse que a OpenAI está procurando ativamente por um substituto e, enquanto isso, a equipe de Vallone se reportará diretamente a Johannes Heidecke, chefe de sistemas de segurança da empresa.

A saída de Vallone ocorre no momento em que a OpenAI enfrenta um escrutínio cada vez maior sobre como seu principal produto responde aos usuários necessitados. Vários processos foram movidos contra a OpenAI nos últimos meses, alegando que usuários criaram anexos prejudiciais ao ChatGPT. Alguns processos alegam que o ChatGPT piorou as condições de saúde mental e contribuiu para pensamentos suicidas.

Sob essa pressão, a OpenAI tem trabalhado para entender como o ChatGPT deve lidar com usuários em dificuldades e melhorar as respostas do chatbot. A Model Policy é uma das equipes que lidera esse trabalho, liderando um relatório de outubro detalhando o progresso da empresa e consultando mais de 170 especialistas em saúde mental.

A OpenAI disse em seu relatório que centenas de milhares de usuários do ChatGPT a cada semana podem mostrar sinais de passar por uma crise maníaca ou psicótica, e mais de 1 milhão “têm conversas que incluem sinais claros de possíveis planos ou intenções suicidas”. Com as atualizações do GPT-5, a OpenAI afirma no relatório que conseguiu reduzir as respostas indesejadas nessas conversas em 65-80%.

“No ano passado, liderei a pesquisa da OpenAI sobre um problema para o qual há poucos precedentes estabelecidos: como os modelos devem responder quando confrontados com sinais de dependência emocional ou sinais precoces de problemas de saúde mental”, escreveu Vallone num post no LinkedIn.

Vallone não respondeu ao pedido de comentários da WIRED.

Tornar o bate-papo com ChatGPT divertido, mas não excessivamente lisonjeiro, é uma tensão central no OpenAI. A empresa está trabalhando ativamente para aumentar a base de usuários do ChatGPT, que atualmente inclui mais de 800 milhões de pessoas por semana, a fim de competir com chatbots de IA do Google, Anthropic e Meta.

Depois que a OpenAI lançou o GPT-5 em agosto, os usuários recuaram, alegando que o novo modelo era surpreendentemente frio. Na última atualização do ChatGPT, a empresa afirmou que reduziu significativamente o número de bajuladores, mantendo o “calor” do chatbot.

A saída de Vallone segue a reestruturação de outro grupo em agosto para se concentrar na resposta do ChatGPT a usuários problemáticos e na modelagem de comportamento. Sua ex-líder, Joan Jiang, deixou seu cargo para iniciar uma nova equipe que pesquisa novas maneiras de interação entre humanos e IA. O restante da equipe de comportamento modelo foi transferido para o líder pós-treinamento, Max Schwarzer.



Source link

Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
ForaDoPadrao
  • Website

Related Posts

OpenAI contrata CEO do Slack como novo diretor de receitas

dezembro 9, 2025

Funcionários da OpenAI se demitem, alegando que a pesquisa econômica da empresa está sendo usada para defender a IA

dezembro 9, 2025

OpenAI, Anthropic e Block colaboram para melhorar o desempenho do agente de IA

dezembro 9, 2025

A maior mineradora de Bitcoin da América está mudando seu foco para IA

dezembro 9, 2025
Add A Comment
Leave A Reply Cancel Reply

Editors Picks

Pixelverse dá vida a memes criptográficos com o jogo MemeBattle

dezembro 20, 2024

3 moedas meme devem disparar antes do Natal

dezembro 18, 2024

4 melhores novas moedas meme para investir neste fim de semana, de especialistas em criptografia

dezembro 17, 2024

Esqueça o Bitcoin – a próxima estrela da criptografia tem como objetivo um aumento de 26.000% na pré-venda da moeda Meme

dezembro 16, 2024

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

All Web3 News
Facebook X (Twitter) Instagram Pinterest Vimeo YouTube
  • Home
  • Anuncie Conosco
  • Contate-nos
  • DMCA
  • Política de Privacidade
  • Sobre Nós
  • Termos e Condições
© 2026 allweb3news. Designed by allweb3news.

Type above and press Enter to search. Press Esc to cancel.