O governo de Cingapura emitiu hoje um plano para a cooperação global sobre a segurança da inteligência artificial após uma conferência de pesquisadores de IA dos EUA, China e Europa. Este documento apresenta uma visão comum para abordar a segurança da IA por meio da cooperação internacional, e não da concorrência.
“Cingapura se reuniu bem com o leste e o oeste e é um dos poucos países do planeta”, disse Max Tegmark, um cientista do MIT que ajudou uma conferência de celebridades da IA no mês passado. “Eles sabem que não se construirão – eles farão com que o façam – então é seu interesse conversar sobre os países que estão tentando construí -lo”.
Obviamente, os países que pensávamos serem os mais propensos a construir Agis foram os EUA e a China, mas esses países parecem estar mais destinados a se desviar um do outro do que trabalhar juntos. Em janeiro, depois que a startup chinesa Deepseek lançou seu modelo de ponta, o presidente Trump chamou de “chamado despertador para a nossa indústria”, dizendo que os EUA deveriam “se concentrar em lasers competindo para vencer”.
O consenso de Cingapura sobre as prioridades globais de pesquisa de segurança da IA de Cingapura exige que os pesquisadores colaborem em três áreas principais: o estudo dos riscos apresentados pelos modelos de Frontier AI, exploram maneiras mais seguras de construir esses modelos e desenvolver métodos para controlar o comportamento dos sistemas de IA mais avançados.
O consenso foi desenvolvido em uma conferência realizada em 26 de abril, juntamente com a Conferência Internacional sobre Aprendizagem e Expressão (ICLR), o principal evento da IA realizado em Cingapura este ano.
Pesquisadores do Openai, Anthrópica, Google DeepMind, Xai e Meta participaram de eventos de segurança da IA, bem como estudiosos de instituições como MIT, Stanford, Tsinghua e a Academia Chinesa de Ciências. Especialistas de agências de segurança de IA dos EUA, Reino Unido, França, Canadá, China, Japão e Coréia também participaram.
“Em uma era de fragmentação geopolítica, essa integração abrangente de pesquisas de ponta na segurança da IA é um sinal promissor de que as comunidades globais estão se unindo com um compromisso comum em moldar o futuro da IA mais segura”, disse o reitor da Universidade de Tsinghua em comunicado.
Com o desenvolvimento de modelos de IA cada vez mais capaz, alguns deles têm recursos incríveis, mas os pesquisadores se preocuparam com uma variedade de riscos. Alguns se concentram em danos a curto prazo, incluindo problemas causados por sistemas tendenciosos de IA e a possibilidade de criminosos explorar a tecnologia, mas acreditam que a IA pode representar ameaças existenciais à humanidade quando começam a cobrir seres humanos em mais domínios. Esses pesquisadores, às vezes chamados de “AI Doomers”, estão preocupados com o fato de os modelos enganarem e manipularem os seres humanos para buscar seus objetivos.
A possibilidade de IA também surpreendeu a história da corrida armamentista entre os EUA, China e outros países poderosos. Essa tecnologia é vista como importante no mundo das políticas para a prosperidade econômica e o controle militar, e muitos governos esperam apostar em sua própria visão e regulamentos que regem como deve ser desenvolvido.