No ciclo eleitoral de 2024, a inteligência artificial foi divulgada pela primeira vez por campanhas políticas. Embora os candidatos tenham evitado amplamente os principais acidentes, a tecnologia foi usada com pouca orientação ou restrição. Atualmente, o Comitê de Treinamento Democrático (NDTC) está desenvolvendo seu primeiro manual oficial, alegando que as campanhas democratas podem usar a IA com mais responsabilidade do que no médio prazo.
Com o novo treinamento on -line, o comitê planeja usar a IA para criar conteúdo social, criar mensagens de divulgação de eleitores e investigar distritos e inimigos. Desde a fundação do NDTC em 2016, a organização disse que treinou mais de 120.000 democratas em busca de escritórios políticos. O grupo oferece lições virtuais e treinamento pessoal de bootcamp, tornando-os políticos democráticos em tudo, desde registro de votação e captação de recursos até gerenciamento de dados e organização de campo. O grupo está direcionado principalmente a pequenas campanhas de baixa resistência aos cursos de IA e procura melhorar o que uma equipe de cinco pode trabalhar com “eficiência de uma equipe de 15 pessoas”.
“A adoção da IA e da IA responsável é uma necessidade de concorrência. Não é luxo”, diz Donald Riddle, designer de treinador sênior da NDTC. “É algo que os alunos precisam entender e se sentir confortáveis com a implementação, para que possam ser competitivos e usar essas ferramentas de maneira eficaz e responsável, enquanto aumentam sua competitividade e empurram a agulha”.
O treinamento em três partes inclui uma explicação de como a IA funciona, mas a carne no curso gira em torno de possíveis casos de uso de IA para campanhas. Especificamente, incentiva os candidatos a usar a IA para preparar textos para uma variedade de plataformas e usos, incluindo mídias sociais, e -mails, discursos, scripts bancários telefônicos e materiais de treinamento interno que foram revisados pelos seres humanos antes de serem publicados.
O treinamento também aponta como os democratas não devem usar a IA, desencorajar os candidatos a usar a IA para se aprofundar em seus inimigos, se passar por pessoas reais e “criar imagens e vídeos que podem deturpar eventos, indivíduos ou realidade para enganar os eleitores.
“Isso mina o discurso democrático e a confiança dos eleitores”, diz o treinamento.
Também aconselha os candidatos a substituir artistas humanos e designers gráficos por IA para “manter a integridade criativa” e apoiar os criativos de trabalho.
A seção final do curso incentiva os candidatos a divulgar o uso da IA se o conteúdo for usado para funcionar vozes geradas pela IA, ser “profundamente pessoal” ou desenvolver posições de política complexas. É lido como “quando a IA contribui muito para o desenvolvimento de políticas, a transparência cria confiança”.
Essas divulgações são a parte mais importante do treinamento de Hany Farid, especialista em IA generativo e professor de engenharia elétrica da UC Berkeley.
“Você precisa ser transparente quando algo não é real ou quando algo é totalmente gerado”, diz Farid. “Mas a razão é que não se trata apenas de revelar coisas que não são reais, mas também de confiar na realidade”.
Ao usar a IA para vídeos, o NDTC sugere que as campanhas usam ferramentas como escrever clipes para criar scripts, editar rapidamente o conteúdo das mídias sociais e remover videoclipes para pausas longas e momentos desagradáveis.