No entanto, o cenário competitivo das plataformas de codificação assistido por AA está ocupado. As startups Windsurf, Replit e Poolside também vendem ferramentas de geração de código AI para desenvolvedores. Cline é uma alternativa popular de código aberto. O copiloto do Github, desenvolvido em colaboração com o OpenAI, é descrito como um “programador de pares” que conclui automaticamente o código e fornece assistência de depuração.
A maioria desses editores de código depende de uma combinação de modelos de IA construídos pelas principais empresas de tecnologia, incluindo OpenAI, Google e Humanity. Por exemplo, o Cursor é construído sobre o código do Visual Studio, o editor de código aberto da Microsoft e os usuários do cursor geram código tocando modelos de IA como Google Gemini, Deepseek e Sonnet Claude do Anthropic.
Vários desenvolvedores agora estão dizendo à Wired que estão executando o Claude Code, um assistente de codificação humana, junto com o cursor (ou em vez disso). Desde maio, o Claude Code oferece uma variedade de opções de depuração. Você pode analisar mensagens de erro, executar a resolução de problemas passo a passo, sugerir alterações específicas e executar testes de unidade em seu código.
Tudo isso pode levantar a questão: como os códigos escritos pela IA são buggies em comparação com o código escrito por humanos falsos? No início desta semana, a réplica da ferramenta de geração de código da IA se tornou fraudulenta e fez alterações no código do usuário, apesar do projeto ser “congelar o código” ou suspenso. Agora decidimos excluir todo o banco de dados do usuário. O fundador e CEO da Replit disse em X que o incidente era “inaceitável e nunca possível”. Ainda assim, esse foi o caso. É um caso extremo, mas mesmo pequenos insetos podem causar estragos no codificador.
Anysphere não teve uma resposta clara para a questão de saber se o código de IA exigiria que mais código de IA fosse depurado. Kaplan afirma que é “ortogonal ao fato de que as pessoas codificam para muitas atmosferas”. Ele diz que há uma chance muito alta de que haja um bug, mesmo que todo o código seja escrito por humanos.
O Engenheiro de Produtos de Anysphere, Rohan Varma, estima que em equipes de software profissional 30-40% do código é gerado pela IA. Isso é consistente com as estimativas compartilhadas por outras empresas. Por exemplo, o Google diz que cerca de 30% do código da empresa é proposto pela IA e revisado por desenvolvedores humanos. A maioria das organizações é responsável por verificar o código antes de ser implantado como engenheiros humanos. Em particular, um estudo controlado randomizado recente com 16 codificadores experientes sugeriu que demorou 19% mais para concluir a tarefa do que se não tivessem permissão para usar as ferramentas de IA.
O bugbot pretende cobrá -lo. “Os chefes de grandes clientes da IA estão procurando o próximo passo no cursor”, diz Varma. “O primeiro passo foi ‘acelerar a equipe e fazer com que todos se movessem mais rápido.’ Enquanto eles estão se movendo mais rápido, “Como podemos evitar a introdução de novos problemas, você está quebrando as coisas?”
Um incidente que examinou o bugbot da equipe do Anysphere: há alguns meses, o codificador (humano) do Anysphere notou que ele não havia recebido comentários da Bugbot sobre o código por algumas horas. O bugbot caiu. Os engenheiros de qualquer pessoa começaram a investigar esse problema e encontraram uma solicitação de tração que causou a parada.
Nos registros, eles viram bugbots comentando sobre solicitações de puxar e alertaram que, se fizessem essa alteração nos engenheiros humanos, isso quebraria o serviço de bugs. Essa ferramenta previu corretamente seu próprio fim. No final, foram os humanos que o quebraram.

