The National Institute of Standards and Technology (NIST) is issuing new instructions to scientists affiliated with the American Institute of Artificial Intelligence Safety (AISI), which eliminates mentions of “AI fairness” that expect members to refer to “AI safety,” “responsible AI,” and “AI fairness,” and introduces a request to “prioritize the existence of ideology.”
Essas informações são como parte dos mais recentes acordos de pesquisa e desenvolvimento colaborativos para os membros do Consórcio do Instituto de Segurança da IA apresentados no início de março. Anteriormente, o acordo incentivou os pesquisadores a contribuir para o trabalho técnico que ajuda a identificar e corrigir comportamentos de modelos discriminatórios relacionados a gênero, raça, idade ou desigualdade de riqueza. Tais vieses são extremamente importantes, pois podem afetar diretamente os usuários finais e podem prejudicar desproporcionalmente as minorias e os grupos economicamente desfavorecidos.
O novo contrato remove o desenvolvimento de uma ferramenta “para autenticar conteúdo e rastrear sua origem” e menciona “rotulando o conteúdo sintético”, indicando menos interesse em rastrear a desinformação e os deepfakes. Ele também se concentra em trazer a América primeiro, pedindo a um grupo de trabalho para desenvolver uma ferramenta de teste “para expandir a posição global da IA da América”.
“O governo Trump removeu a segurança, a justiça, a desinformação e a responsabilidade como as principais coisas sobre a IA. Acho que isso fala de si”, diz um pesquisador de uma organização que trabalha com o Instituto de Segurança da IA.
Os pesquisadores acreditam que ignorar esses problemas pode prejudicar os usuários comuns pela possibilidade de que os algoritmos identifiquem com base na renda e em outros dados demográficos não sejam verificados. “A menos que você seja um bilionário de tecnologia, isso levará a um futuro pior para você e para quem se importa. Esperamos que a IA seja injusta, discriminatória, segura e sem resposta”, argumentam os pesquisadores.
“É selvagem”, diz outro pesquisador que colaborou anteriormente com o IA Safety Institute. “Isso significa que os humanos florescerão?”
Elon Musk, que atualmente está liderando um esforço controverso para reduzir os gastos e a burocracia do governo em nome do presidente Trump, critica o modelo de IA construído pelo Openai e pelo Google. Em fevereiro passado, ele postou um meme no X. Lá, Gêmeos e Open foram rotulados como “racistas” e “acordados”. Ele costuma citar casos em que um dos modelos do Google discutia se era errado entender mal alguém, mesmo que isso dificultasse o apocalipse nuclear. Além de Tesla e SpaceX, Musk dirige a XAI, uma empresa de IA que compete diretamente com o OpenAI e o Google. Os pesquisadores que aconselham a XAI desenvolveram recentemente novas técnicas que poderiam mudar as tendências políticas dos modelos de idiomas em larga escala, conforme relatado pela Wired.
Um número cada vez maior de pesquisas mostra que o viés político no modelo de IA pode afetar liberais e conservadores. Por exemplo, um estudo dos algoritmos recomendados pelo Twitter publicados em 2021 mostrou que os usuários provavelmente mostrarão uma perspectiva justificada pela direita na plataforma.
Desde janeiro, o chamado Bureau de Eficiência do Governo de Musk (DOGE) conquistou o governo dos EUA pela tempestade, demitindo efetivamente funcionários públicos, suspendendo os gastos e criando um ambiente em que é considerado hostil àqueles que podem se opor aos propósitos do governo Trump. Alguns departamentos governamentais, como o Ministério da Educação, arquivaram e excluíram documentos que mencionam Dei. Doge também tem como alvo o NIST, a organização dos pais da AISI nas últimas semanas. Dezenas de funcionários foram demitidas.