Dois membros da comunidade expatriada, os empresários da Internet Brian e Sabine Atkins, rapidamente se casaram depois de se encontrarem em uma lista de correspondência estrangeira em 1998, foram filmados nesta mensagem em 2000, quando bancaram o think tank de Yudkowsky, o Instituto de Especificidade da Inteligência Artificial. Aos 21 anos, Yudkowsky se mudou para Atlanta, onde começou a desenhar um salário sem fins lucrativos de cerca de US $ 20.000 por ano, pregando uma mensagem bipartidária benevolente. “Eu pensei que algo muito inteligente automaticamente era bom”, disse ele. No entanto, dentro de oito meses, ele começou a perceber que estava errado. Ele decidiu que a IA poderia ser uma catástrofe.
“Eu estava tirando o dinheiro de outra pessoa. Sou uma pessoa que sente um profundo senso de obrigação com aqueles que me ajudam”, explicou Yudkowsky. “A certa altura, ‘se as superinteleligências não decidem automaticamente o que é certo, o que é realmente certo ou errado, quem se importa se é o caso?” Eu digo: ‘Bem, mas Brian Atkins provavelmente não vai gostar de não ser morto por algo próximo’. “Ele queria que Atkins tivesse um ‘plano de fallback’, mas quando ele se sentou e tentou expulsar um, ele percebeu com medo de que fosse impossível.” Isso realmente me envolveu no problema subjacente e depois percebi que estava totalmente errado sobre tudo “.
Atkins entende, e a missão do laboratório foi articulada da criação de inteligência artificial e a criação de inteligência artificial amigável. “A parte necessária para resolver um problema amigável da IA colocou um obstáculo ao caminho de cobrar rapidamente para contratar pesquisadores de IA, mas certamente não havia financiamento para fazê -lo”, disse Yudkowsky. Em vez disso, ele desenvolveu uma nova estrutura intelectual, que ele chamou de “racionalismo”. (While in its face, rationalism is the belief that humanity has the power to use reasons to make reasons correct, and over time, in the words of writer Ozzy Brennan, he began to explain the movement “involving reductionism, moral unrealism, utilitarianism, utilitarianism, anti-datorism, and transhumanism,” which “Eliezer Yudkovsky is a legitimate California.”)
Em seu artigo de 2004, “Extrapolação coerente”, Yudkowsky argumentou que deveríamos desenvolver IA amigável, não apenas o que queremos fazer agora, mas o que realmente pensamos que é do nosso interesse. “O objetivo da engenharia é perguntar se a humanidade” deseja “ou melhor determina se sabemos mais. Em seu artigo, ele também usou o memorável ratiophor que o Bostrom enviou sobre como a IA não funciona. Se sua IA estiver programada para gerar clipes de papel, você estará preenchendo seu sistema solar com clipes de papel se não tiver cuidado.
Em 2005, Yudkowsky participou de um jantar particular em um restaurante de São Francisco, realizado pelo Foresight Institute, um think tank de tecnologia fundado na década de 1980 para promover a nanotecnologia. (Muitos dos membros originais vieram da L5 Society. Isso foi dedicado a incentivar a criação de uma colônia cósmica pairando logo atrás da lua e fez lobby com sucesso para os EUA não assinarem o acordo da Lua da ONU de 1979 para o fornecimento de que o seu amigo era que seu sinalizador se aproximou do que se aproximava que não se aproximava do que se aproximava, se o que se aproveitava, se o que se aproveitou, quando o que se aproxima, quando o que se aproxima, quando o que se aproxima, quando o que se aproxima, quando o seu sinalizador se aproximou que não se aproximava, quando o que se apossou, se o que se aproveitou, quando o que se apossou, quando o seu amigo era um sinalizador que se aproximava que era que seu sinalizador se aproximava que era que seu amigo. Mercado para garantir que as ações desça “,” Yudkowsky lembra essencialmente a hipótese eficiente do mercado que já está alegando que todos os fatores de risco já foram reivindicados para fornecer a eles o que já adquiriram. Thiel era atraente.