A humanidade está preparada para reutilizar as conversas com o Claude Chatbot como dados de treinamento para modelos de idiomas em larga escala, a menos que o usuário tenha optado por não participar.
Anteriormente, a empresa não treinava modelos de IA gerados em bate -papo de usuário. Em 8 de outubro, a Política de Privacidade da Humanidade foi atualizada e, se isso for permitido, os usuários terão que optar por não participar. Caso contrário, novos logs de bate -papo e tarefas de codificação serão usados para treinar futuros modelos humanos.
Por que mudar? “Todos os grandes modelos de idiomas como Claude são treinados usando uma grande quantidade de dados”, ele lê uma seção do blog da Anthrópica, explicando por que a empresa mudou essa política. “Os dados de interações reais fornecem informações valiosas sobre as respostas mais úteis e precisas para os usuários”. Com mais dados do usuário sendo jogados no LLM Blender, os desenvolvedores antrópicos desejam criar uma versão melhor do chatbot ao longo do tempo.
As mudanças foram originalmente programadas para ocorrer em 28 de setembro. “Queríamos dar aos usuários tempo para revisar essa opção e garantir uma transição técnica suave”, escreveu o porta -voz da humanidade Gabby Curtis em um e -mail para a Wired.
Como optar por não participar
Os novos usuários deverão tomar decisões sobre seus dados de bate-papo durante o processo de inscrição. Os usuários de Claude existentes já podem ter encontrado um pop-up de alterações na terminologia humana.
Lê “Permitimos que as sessões de bate -papo e codificação treinem e melhorem os modelos de IA humana”. Os usuários que optam por aceitar atualizações sem que a alternância seja selecionada para novas políticas de treinamento, pois a alternância que fornece dados à humanidade para treinar Claude será ativada automaticamente.
Todos os usuários podem alternar o treinamento de conversas em suas configurações de privacidade. Sob uma configuração rotulada para ajudar a melhorar o Claude, se você não quiser ter um novo modelo de trem de trem de trem Claude Chats, verifique se o interruptor está desligado e o interruptor está fora da esquerda.
Se os usuários não optarem por não optar pelo treinamento do modelo, a política de treinamento alterada abrange todos os bate -papos novos e revisitados. Em outras palavras, a humanidade não está treinando automaticamente o próximo modelo na história do bate -papo, a menos que retorne ao arquivo e reacende threads antigos. Após a interação, esse bate -papo antigo foi retomado e os jogos justos foram retomados para treinamento futuro.
A nova política de privacidade também chegará com uma extensão à política de retenção de dados da humanidade. A humanidade aumentou o tempo para manter os dados do usuário de 30 dias para cinco anos muito mais amplos na maioria das situações, independentemente de os usuários permitirem o treinamento modelo para conversas.
Alterações na terminologia humana se aplicam a usuários comerciais gratuitos e pagos. Os usuários comerciais não são afetados pelas mudanças, como licenciadas por meio de planos de governo e educação. As conversas desses usuários não serão usadas como parte do treinamento modelo da empresa.
Claude é uma ferramenta de IA favorita para desenvolvedores de software que adquiriram a capacidade de ser um assistente de codificação. As atualizações da política de privacidade incluem projetos de codificação e logs de bate -papo, para que a humanidade possa coletar uma quantidade significativa de informações de codificação sobre esse interruptor para fins de treinamento.
Antes da humanidade atualizar sua política de privacidade, era um dos únicos grandes chatbots que não usavam conversas de treinamento de LLM automaticamente. Em comparação, as configurações padrão para o ChatGPT e o Google para contas pessoais do OpenAI incluem a possibilidade de treinamento de modelo, a menos que o usuário opte por optar por não participar.
Confira o guia completo da Wired para optar por não participar do treinamento de IA para ver mais serviços que podem solicitar a geração de IA que não são treinados para dados do usuário. A opção de optar por não participar do treinamento de dados é um benefício de privacidade pessoal, especialmente ao lidar com conversas com chatbot e outras interações individuais, mas qualquer coisa publicada on-line publicada, de postagens de mídia social a análises de restaurantes, pode ser reduzida por uma startup como material de treinamento para o próximo modelo gigante da IA.

