Quando a história da IA for escrita, Steven Adler poderá se tornar o Paul Revere da IA, ou pelo menos um deles, quando se trata de segurança.
No mês passado, Adler, que passou quatro anos na OpenAI em várias funções de segurança, contribuiu com um artigo para o New York Times com o título bastante alarmante: “Eu liderei a segurança de produtos na OpenAI: não acredite nas afirmações ‘eróticas'”, no qual ele revelou os desafios que a OpenAI enfrentou ao permitir que os usuários tivessem conversas eróticas com chatbots, ao mesmo tempo que os protegia dos efeitos dessas interações na saúde mental. “Ninguém queria ser a polícia da moralidade, mas faltava-nos uma forma de medir e controlar cuidadosamente o uso erótico”, escreveu ele. “Decidimos que o erotismo alimentado pela IA teria que esperar.”
Adler escreveu o artigo depois que o CEO da OpenAI, Sam Altman, anunciou recentemente que a empresa em breve permitiria “material erótico adulto verificado”. Em resposta, Adler escreveu que havia “questões significativas” sobre se a OpenAI tinha feito o suficiente para, nas palavras de Altman, “mitigar” as preocupações de saúde mental sobre como os utilizadores interagem com os chatbots da empresa.
Depois de ler o texto de Adler, quis falar com ele. Ele aceitou de bom grado a oferta de ir aos escritórios da WIRED em São Francisco e, neste episódio de The Big Interview, ele fala sobre o que aprendeu durante seus quatro anos na OpenAI, o futuro da segurança da IA e o desafio que ele representa para as empresas que fornecem chatbots para o mundo.
Esta entrevista foi editada para maior extensão e clareza.
Katie Drummond: Antes de começarmos, quero deixar duas coisas claras. Primeiro de tudo, infelizmente, você não é o mesmo Steven Adler que tocou bateria no Guns N’ Roses, certo?
Steven Adler: Isso é exatamente certo.
OK, esse não é você. E dois, você teve uma longa carreira em tecnologia, especificamente em inteligência artificial. Portanto, antes de entrarmos em tudo isso, conte-nos um pouco sobre sua carreira, experiência e no que você tem trabalhado.
Trabalhei na indústria de IA, com foco particular na perspectiva de segurança. Mais recentemente, trabalhei na OpenAI por quatro anos. Basicamente, trabalhei em todos os aspectos da questão de segurança que um cliente poderia imaginar. Então, como podemos tornar nossos produtos melhores para nossos clientes e eliminar os riscos que já estão ocorrendo? E pensando um pouco mais adiante, como saberemos se nossos sistemas de IA estão realmente se tornando muito perigosos?

