É possível começar a optar por não participar dos posts usados em modelos de treinamento para reduzir o impacto de sua própria voz e perspectiva sobre esses modelos? Cada vez mais, os modelos se tornarão a janela principal do mundo para todos. Aqueles que mais se preocupam com essas coisas parecem ser os que têm mais dados que devem treinar o comportamento padrão do modelo.
– Influenciador de dados
Honestamente, é frustrante ver os usuários da Internet sendo forçados a optar por não participar do treinamento de inteligência artificial como padrão. Não é uma coisa boa se o consentimento positivo era o padrão para gerar empresas de IA, pois reduz a web e outros repositórios de dados que podem ser encontrados para construir modelos de fronteira cada vez maiores?
Mas, infelizmente, esse não é o caso. Empresas como o OpenAI e o Google argumentaram que nenhuma dessas tecnologias é possível se o uso justo de uso a todos esses dados for retirado deles. Por enquanto, os usuários que não desejam contribuir para o modelo generativo estão presos no atoleiro do processo de exclusão em vários sites e plataformas de mídia social.
Mesmo que a bolha atual em torno da IA gerada execute o pop, assim como a bolha pontocom alguns anos depois, modelos que aprimoram todas essas novas ferramentas de IA não serão extintas. Portanto, os Ghosts of Niche Forum Posts e os tópicos de mídia social que defendem convicções fortemente realizadas vivem dentro de ferramentas de software. Optar para não optar por sair significa ativamente tentar não ser incluído em uma cultura potencialmente de longo prazo.
Para abordar as perguntas direta e realisticamente, esses processos de opção são essencialmente inúteis em seu estado atual. Aqueles que estão optando atualmente ainda estão afetando o modelo. Preencha o formulário em seu site de mídia social para evitar usar ou vender seus dados para treinamento de IA. Mesmo que a plataforma respeite seus pedidos, o Vale do Silício tem inúmeras startups no Vale do Silício, um garoto de 19 anos que nunca mais pensa em esfregar dados publicados, mesmo que não estejam tecnicamente previstos. Como regra geral, podemos assumir que qualquer coisa publicada on -line até agora provavelmente foi vários modelos generativos.
Ok, mas digamos que você possa bloquear realisticamente os dados desses sistemas ou solicitar que sejam excluídos após o fato. Estou pensando nessa pergunta há alguns dias e ainda estou separado.
Por um lado, sua informação singular é uma contribuição ligeiramente pequena para a vastidão do conjunto de dados, então sua voz como pessoa ou autor particular provavelmente não aprimorou o modelo de forma alguma.
Nessa perspectiva, seus dados são outro tijolo nas paredes de um edifício de 1.000 andares. Também vale lembrar que a coleta de dados é apenas o primeiro passo na criação de um modelo de IA. Os pesquisadores passam meses ajustando o software para obter os resultados desejados, contando com trabalhadores com baixos salários para rotular os conjuntos de dados e medir a qualidade da produção para o refinamento. Essas etapas podem abstrair ainda mais os dados e reduzir o impacto individual.
Por outro lado, o que acontece se você comparar isso para votar nas eleições? Milhões de votos foram lançados nas eleições presidenciais dos EUA, mas a maioria dos cidadãos e advogados da democracia argumenta que todo voto é importante. Não é um phor comparativo perfeito, mas e se você vê os dados como tendo um impacto semelhante? Existem pequenos sussurros na cacofonia do ruído, mas ainda afeta a saída do modelo de IA.
Não tenho certeza desse argumento, mas não acho que essa perspectiva deva ser completamente descartada. Especialmente para especialistas em assuntos, suas idéias claras e como você aborda as informações são extremamente valiosas para os pesquisadores da IA. Se os dados antigos fizeram o truque, a Meta não teria o trabalho de usar todos esses livros com o novo modelo de IA.
Olhando para o futuro, o impacto real dos dados nesses modelos é estimular dados “sintéticos”. Quando as empresas que criam sistemas de IA generativos ficam sem informações de qualidade e os afastam, entram na era Ouroboros. A IA gerada é usada para replicar dados humanos e alimentar o sistema para treinar o próximo modelo de IA para replicar melhor as respostas humanas. Lembre -se, enquanto houver uma IA geradora, você como humano, sempre se tornará uma pequena parte da sua máquina, quer você queira ser ou não.