A política nacional de inteligência artificial do Paquistão, 2025, foi aprovada pelo gabinete federal em 31 de julho de 2025 como um roteiro de seis pilares para a construção de um ecossistema de IA.
Esta é uma etapa bem -vinda, considerando o aumento do uso de IA no setor de tecnologia, aplicações, disponibilidade, risco e o aumento do uso social dele. A política descreve os ambiciosos planos do Paquistão relacionados à IA, mas se beneficia de algumas adições e abordagem real contextual, incluindo impactos e riscos que o plano não reconhece.
A política de IA criou o Fundo Nacional da IA (aloca 30% do Fundo de Pesquisa e Desenvolvimento da Ignite), Centro de Excelência, Conselho/Conselho da IA, Sandbox regulatório e infraestrutura nacional de computação/dados.
Essa política prioriza os pilotos do setor e as percepções do público em saúde, educação, agricultura e governança. A Target incluirá treinamento de até 1 milhão de profissionais até 2030. 3.000 bolsas de estudo, estágios pagos e colaboração com padrões globais para ética, segurança cibernética e proteção de dados. A implementação segue um plano diretor e matriz de ação supervisionados pelo Ministério da Tecnologia da Informação e Comunicações.
O processo de formulação de políticas não foi abrangente, pois o diálogo de vários participantes não incluía segmentos cruzados da sociedade, como ambientalistas, sociedade civil, especialistas em direitos digitais, setores de mídia, saúde e educação. Além disso, não há transparência em relação ao processo de envolvimento das partes interessadas.
É importante ressaltar que não há base legislativa para tomar essas decisões, pois não há discussão parlamentar (incluindo comitês de TI).
Primeiro de tudo, essa política não permite restrições à infraestrutura digital do Paquistão. Isso inclui disparidades digitais duras que afetam imparcialmente a implementação da política de IA. Por exemplo, houve um desligamento da Internet móvel de três semanas em todo o Baluchistão no mês passado, e a conectividade da Internet permanece limitada em algumas outras partes do país, incluindo a região oeste do KP.
A política fala sobre a inclusão de IA no currículo da escola pública, mas milhares de escolas em todo o país não possuem laboratórios funcionais de informática. Por exemplo, os relatórios mostram que as 1.482 escolas administradas pelo governo da KP não possuem instalações de laboratório de informática. Então, como você pode ensinar IA a estudantes que não têm acesso ao computador?
Além disso, essa política não leva em consideração a natureza dinâmica da IA e da tecnologia e não descreve estratégias de como o currículo de IA no setor educacional será atualizado com as mudanças tecnológicas.
Esta política não leva em consideração a natureza dinâmica da IA e da tecnologia.
A política menciona o uso da IA no ambiente, mas os riscos relacionados ao clima nos data centers de IA no Paquistão são completamente ignorados. Grandes data centers de IA podem exigir até 5 milhões de galões de água por dia. Esse é o valor diário necessário para uma cidade de cerca de 50.000 pessoas.
O Paquistão é um dos países mais estressados com água do mundo; portanto, mais de 80% de sua população enfrenta escassez de água. Portanto, as políticas de IA que incluem propostas de data center local devem incluir critérios obrigatórios de avaliação de impacto ambiental.
A política de IA inclui planos para o Centro Eletrônico Khidmat de Serviços Públicos, Saúde, Educação, Higiene, Energia, Segurança e outros serviços governamentais por meio de chatbots, relatórios inteligentes e prestação de serviços centralizados. Isso representa um risco de vigilância, especialmente diante da falta de regimes de proteção de dados. Além disso, reflete os portais atuais e a linha de apoio, onde as pessoas nunca respondem quando precisam de assistência ou interagir com funcionários do governo, ou quando não confiam na IA.
Essa política tem importantes impactos de direitos, particularmente relacionados ao impacto dos direitos de privacidade e à liberdade de expressão. Com a fatura de proteção de dados pessoal ainda não aprovada, é surpreendente que uma política tenha sido formulada na ausência do sistema de proteção de dados do Paquistão. No entanto, as políticas de IA se referem a aspectos do projeto, apesar do fato de a lei permanecer desconhecida. Se existir um forte regime de proteção de dados, levanta sérias preocupações sobre os riscos de privacidade em torno de grandes modelos de idiomas que alimentam sistemas de IA.
Além disso, a política detalha como as estações de IA são formadas para fornecer diretrizes regulatórias para lidar com “desinformação, violações de dados e notícias falsas”. Tais medidas devem envolver um processo parlamentar robusto e abrangente, pois esse idioma levanta alarmes relacionados à liberdade de expressão.
A política não menciona a Lei de Prevenção de Crimes Eletrônicos de 2016. Isso lida com questões como desinformação e “notícias falsas” no formato revisado a partir de fevereiro de 2025, e o trabalho desta diretoria pode se sobrepor ao dos reguladores de mídia social proposto pelas emendas da PECA.
Em sua análise de políticas, a Digital Rights Foundation destaca “questões sérias relacionadas à transparência, proteção ética e proteção das comunidades marginalizadas da discriminação”. Se a Política de Avaliação de Risco de Direitos Humanos não fornecer, o impacto dos direitos humanos dos sistemas domésticos de IA poderá causar novos problemas, em vez de abordar questões existentes.
Da mesma forma, a política inclui propostas de programas de treinamento especiais para mulheres e pessoas com deficiência, mas não abordam o papel expandido que a IA desempenha na violência baseada em gênero que promove a tecnologia.
Em um evento no TFGBV, o homem do Paquistão disse: “No passado, os homens jogavam ácido nas mulheres para destruir vidas, mas agora eles precisavam criar vídeos gerados pela IA para destruir a vida das mulheres”. Isso ilustra o risco de gênero que a IA representa para mulheres e minorias de gênero, especialmente em paquistaneses, o que deve ser refletido na política.
Finalmente, enquanto as políticas de IA apóiam a expansão dos sistemas de IA do Paquistão e da inovação e educação associadas, certas disposições sobre o desenvolvimento de modelos de aprendizado de máquina nas línguas mais comuns do Paquistão, reduzindo a expansão abrangente de ferramentas de IA e uma expansão inclusiva, a puni e a puni, puni.
O escritor é o diretor de Borobi, um fórum de defesa de direitos digitais.
X: @usamakhili
Publicado em 4 de setembro de 2025 em Dawn

