Os democratas do Comitê de Supervisão da Câmara pressionaram os líderes da agência federal na manhã de quarta -feira com informações sobre planos de instalar o software de IA entre as agências federais em meio a cortes contínuos na força de trabalho do governo.
A série de consultas segue um relatório recente do Wired e Washientton Post pelo chamado Escritório de Eficiência do Governo de Elon Musk (DOGE), que automatiza tarefas com uma variedade de ferramentas de IA exclusivas e acessam dados sensíveis.
“Os americanos confiam informações pessoais sensíveis ao governo federal em relação à saúde, informações financeiras e outras informações biográficas com base no fato de que essas informações não são divulgadas ou usadas indevidamente sem consentimento”, diz a solicitação “, incluindo o uso de software de IA de terceiros não autorizado e não calculado”.
O pedido obtido pela primeira vez pela Wired foi assinado pelo democrata Gerald Connolly, um democrata da Virgínia.
O objetivo central da solicitação é forçar os agentes a mostrar que o uso potencial da IA é legal e que as medidas estão sendo tomadas para proteger os dados privados dos americanos. Os democratas também querem saber se o uso da IA estabelecerá a XAI e se a empresa de carros elétricos problemática Tesla se beneficiará financeiramente, trabalhando em pivôs em relação à robótica e à IA. Os democratas estão ainda mais preocupados, Connolly diz que Musk pode usar o acesso a dados do governo sensíveis ao enriquecimento pessoal e usar dados para “super carregar” como seu próprio modelo de IA exclusivo, Glock.
Na solicitação, Connolly aponta para os programas de gerenciamento de risco e aprovação do governo federal, principalmente que as agências federais “estão vinculadas a vários requisitos estatutários no uso do software de IA”. Ele também ressalta que as agências federais avançarão as leis da IA que exigem “preparar e manter o inventário para os casos de uso da inteligência artificial da agência” e “permitir o inventário da agência ao público”.
Os documentos obtidos pela Wired na semana passada mostram que os agentes do Doge implantaram seu próprio chatbot chamado Gsai para cerca de 1.500 trabalhadores federais. A GSA supervisiona a propriedade federal e fornece serviços de tecnologia da informação a muitas agências.
As notas obtidas por repórteres com fio mostram que os funcionários são avisados contra o fornecimento de software com informações controladas e não categorizadas. Outras agências, incluindo departamentos do Ministério das Finanças e do Departamento de Saúde e Serviços Humanos, estão pensando em usar chatbots, embora não necessariamente GSAI, de acordo com documentos visualizados pela Wired.
A Wired também relata que o Exército dos EUA está atualmente usando o software chamado CAMOGPT para digitalizar seu sistema de gravação em busca de referências à diversidade, equidade, inclusão e acessibilidade. Um porta -voz do Exército confirmou a existência da ferramenta, mas se recusou a fornecer mais informações sobre como o Exército o usaria.
Connolly escreveu em seu pedido de que o Departamento de Educação tenha informações pessoalmente identificáveis sobre mais de 43 milhões de pessoas associadas ao Programa Federal de Auxílio a Estudantes. “Por causa do ritmo opaco e entusiasmado que faz Doge parecer estar funcionando”, ele escreve. “As informações confidenciais de estudantes, pais, cônjuges, familiares e todos os outros mutuários são tratados por membros secretos da equipe do Doge para fins pouco claros e não estão protegidos para impedir a divulgação ou uso fraudulento. O Washington Post relatou anteriormente que o DOGE havia começado a fornecer dados federais sensíveis extraídos do sistema de registros do Departamento de Educação para analisar as despesas.
A secretária de Educação Linda McMahon disse na terça -feira que está avançando com planos de demitir mais de 1.000 trabalhadores no departamento, juntando -se a centenas de outros que aceitaram a “loja” de Doge no mês passado. O setor educacional perdeu quase metade de sua força de trabalho. Este é o primeiro passo e o primeiro passo para abolir completamente a agência.
“O uso da IA para avaliar dados sensíveis é um risco sério além da divulgação inadequada, escreve Connolly.
Ele acrescenta: “Sem o objetivo claro do uso da IA, garantindo o processamento adequado dos dados, o monitoramento e a transparência adequados são perigosos para aplicar a IA e podem violar a lei federal”.