Três dias depois que o governo Trump divulgou seu altamente esperado plano de ação de IA, o governo chinês emitiu seu próprio plano de política de IA. A coincidência do momento foi? Eu duvido disso.
O Plano de Ação de Governança Global da IA da China foi lançado em 26 de julho, o primeiro dia do maior evento anual de IA da China, World Artificial Intelligence Conference (WAIC). Jeffrey Hinton e Eric Schmidt estavam entre as muitas figuras da indústria de tecnologia ocidental que participaram do Festival de Xangai. Nosso colega com fio Will Knight também estava em cena.
A atmosfera de Weick era polar ao lado da primeira polaridade de Trump, a visão de luz da América para a regulamentação da IA. Em seu discurso de abertura, o primeiro -ministro chinês Tian criou um caso calmo sobre a importância da cooperação global na IA. Ele foi seguido por uma série de pesquisadores de IA chineses conhecidos. Ele realizou consultas técnicas destacando questões urgentes que o governo Trump parece estar em grande parte dissipando.
Zhou Bowen, líder do Shanghai Ai Lab, um dos principais institutos de pesquisa da IA da China, promoveu o trabalho da equipe de segurança da IA em WAIC. Ele também sugeriu que o governo pudesse desempenhar um papel na vigilância de modelos comerciais de vulnerabilidade de IA.
Em uma entrevista à Wired, professora da Academia Chinesa de Ciências e uma das principais vozes do país na IA, ele disse que espera que as organizações de segurança da IA em todo o mundo encontrem maneiras de trabalhar juntos. “Seria melhor se o Reino Unido, os EUA, China, Cingapura e outros laboratórios fossem reunidos”, disse ele.
A reunião também incluiu uma reunião de fechamento sobre questões de política de segurança da IA. Depois de participar de tal confissão, Paul Triolo, sócio da empresa consultiva DGA-Albright Stonebridge Group, disse a Wired que o debate era produtivo, apesar da proeminente ausência de líderes americanos. Os EUA depotaram a foto e “uma coalizão co-liderada por principais players de segurança da IA, China, Cingapura, Reino Unido e UE, promoverá os esforços para construir corrimãos em torno do desenvolvimento de modelos de IA da fronteira”, disse o trio ao Wired. Ele acrescentou que o governo dos EUA não era o único que desapareceu. De todos nós da AI Labs, o XA de Elon Musk enviou funcionários para participar do fórum WAIC.
Muitos visitantes ocidentais ficaram surpresos ao saber que grande parte da conversa sobre IA chinesa girava em torno dos regulamentos de segurança. “Nos últimos sete dias, consegui literalmente participar de eventos de segurança de IA ininterruptos. Esse não foi o caso de algumas das outras cúpulas globais da IA”, disse Brian TSE, fundador da AI Safety Institute de Pequim, Concordia AI. No início desta semana, a Concordia AI realizou um fórum de segurança de um dia em Xangai, hospedando-o com pesquisadores conhecidos de IA como Stuart Russell e Joavegio.
Posição de comutação
Comparando o plano de AI da China com o plano de ação de Trump, parece que os dois países mudaram de posição. Quando as empresas chinesas começaram a desenvolver modelos avançados de IA, muitos observadores pensaram que seria reduzido pelos requisitos de censura impostos pelo governo. Agora, os líderes americanos querem garantir que os modelos caseiros de IA estejam “buscando verdades objetivas”. Eu digo que este é um “exercício flagrante em preconceito ideológico de cima para baixo”, como escreveu meu colega Stephen Levy no boletim do Back Channel da semana passada. Enquanto isso, o plano de ação da IA da China parece um manifesto globalista. Ele recomenda que as Nações Unidas ajudem a liderar iniciativas internacionais de IA, sugerindo que os governos desempenhem um papel importante na regulamentação tecnológica.
Seus governos são muito diferentes, mas quando se trata de segurança da IA, as pessoas na China e nos EUA estão preocupadas com muitas das mesmas coisas, incluindo alucinações modelo, discriminação, riscos existenciais e vulnerabilidades de segurança cibernética. Isso também significa que a pesquisa acadêmica sobre segurança da IA está convergindo em ambos os países, incluindo áreas como vigilância escalável (como os humanos monitoram os modelos de IA com outros modelos de IA) e o desenvolvimento de padrões de teste de segurança interoperáveis.