O CEO da OpenAI, Sam Altman, espera que a inteligência artificial geral (AGI), ou IA que pode superar os humanos na maioria das tarefas, chegue por volta de 2027 ou 2028. A previsão de Elon Musk é para 2025 ou 2026, e ele afirma que está “perdendo o sono por causa da ameaça dos perigos da IA”. . “Essas previsões estão erradas. À medida que as limitações da IA atual se tornam cada vez mais aparentes, a maioria dos investigadores de IA chegaram à conclusão de que a simples construção de chatbots maiores e mais poderosos não levará à AGI.
Mas mesmo em 2025, a IA ainda representará riscos significativos. Não se deve à superinteligência artificial, mas ao mau uso humano.
Podem ser abusos não intencionais, como advogados que se tornam excessivamente dependentes da IA. Por exemplo, após o lançamento do ChatGPT, muitos advogados foram sancionados por utilizarem IA para gerar briefings falsos em tribunal, aparentemente inconscientes da tendência dos chatbots para os fabricar. Na Colúmbia Britânica, o advogado Chong Ke foi condenado a pagar custas ao advogado da oposição por incluir um caso fictício gerado por IA numa petição legal. Em Nova York, Stephen Schwartz e Peter Loduca foram multados em US$ 5 mil por citações falsas. No Colorado, Zakaria Krabill foi suspensa por um ano por usar uma jurisprudência fictícia gerada pelo ChatGPT e culpar um “estagiário jurídico” pelo erro. A lista está crescendo rapidamente.
Outros abusos são intencionais. Em janeiro de 2024, deepfakes sexualmente explícitos de Taylor Swift inundaram as plataformas de mídia social. Essas imagens foram criadas usando a ferramenta AI Designer da Microsoft. A empresa tinha proteções para evitar a produção de imagens de pessoas reais, mas o erro ortográfico do nome de Swift foi suficiente para contornar as proteções. Desde então, a Microsoft corrigiu esse erro. Mas Taylor Swift é apenas a ponta do iceberg, e deepfakes não consensuais são generalizados. Uma razão para isso é a disponibilidade de ferramentas de código aberto para a criação de deepfakes. A legislação atualmente em vigor em todo o mundo visa combater os deepfakes na esperança de limitar os danos. Ainda não se sabe se é eficaz.
Em 2025, será ainda mais difícil distinguir o real do falso. A fidelidade do áudio, texto e imagens gerados por IA é incrível, e depois vem o vídeo. Isto poderia levar a um “dividendo do mentiroso”. Isto significa que as pessoas em posições de poder negarão as provas dos seus próprios erros, alegando que são falsos. Em 2023, Tesla afirmou que o vídeo de 2016 de Elon Musk pode ter sido um deepfake para contrariar as alegações de que o CEO exagerou na segurança do sistema de piloto automático da Tesla e causou um acidente. Um político indiano afirmou que um clip de áudio admitindo a corrupção no seu partido foi adulterado (o áudio de pelo menos um dos seus clips foi confirmado como autêntico pelos meios de comunicação). Dois réus no motim de 6 de janeiro também alegaram que os vídeos em que apareceram eram deepfakes. Ambos foram considerados culpados.
Enquanto isso, as empresas aproveitam a turbulência social para comercializar produtos fundamentalmente questionáveis sob o rótulo de “IA”. Se essas ferramentas forem usadas para categorizar pessoas e tomar decisões importantes sobre elas, isso poderá dar terrivelmente errado. Por exemplo, a empresa de recrutamento Retrio afirma que a sua IA prevê a adequação dos candidatos para um emprego com base em entrevistas em vídeo, mas um estudo descobriu que o sistema poderia. correlações.
A IA também está agora a ser utilizada para privar as pessoas de importantes oportunidades de vida em áreas como a saúde, a educação, as finanças, a justiça criminal e os seguros. Nos Países Baixos, as autoridades fiscais holandesas utilizaram algoritmos de IA para identificar pessoas que cometeram fraudes no bem-estar infantil. Acusaram falsamente milhares de pais, exigindo muitas vezes o reembolso de dezenas de milhares de euros. Na sequência, o primeiro-ministro e todo o seu gabinete renunciaram.
Em 2025, os riscos da IA virão do que os humanos fazem com a IA, e não do que a IA faz por si só. Isso inclui casos que parecem estar funcionando bem, mas dependem excessivamente disso (advogados que usam ChatGPT). Quando funciona bem, mas é mal utilizado (deepfakes não consensuais e dividendos mentirosos). E se simplesmente não for adequado ao propósito (se negar direitos às pessoas). Mitigar esses riscos é um grande desafio para empresas, governos e sociedade. Já é bastante difícil sem se preocupar com ficção científica.