Close Menu
  • Home
  • Crypto
    • Cryptocurrencies
    • Crypto Memes
    • Bitcoin & Ethereum
  • AI
  • DeFi
  • Exchanges
    • Trade
    • Market
  • NFT Games
  • Web3
  • Economy
  • Latest News

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

What's Hot

A expansão do mercado de olhos Bitpanda atinge rentabilidade recorde

agosto 5, 2025

Nós fecham: as ações recuperam para o corte de esperança

agosto 5, 2025

As ações do setor de varejo aumentam em meio a esperanças de redução da taxa de juros

agosto 4, 2025
Facebook X (Twitter) Instagram
Facebook X (Twitter) Instagram
All Web3 NewsAll Web3 News
  • Home
  • Crypto
    • Cryptocurrencies
    • Crypto Memes
    • Bitcoin & Ethereum
  • AI
  • DeFi
  • Exchanges
    • Trade
    • Market
  • NFT Games
  • Web3
  • Economy
  • Latest News
All Web3 NewsAll Web3 News
Home » O assistente de codificação da IA ​​se recusou a escrever código e sugeriu que o usuário aprenda a fazer isso sozinho
AI

O assistente de codificação da IA ​​se recusou a escrever código e sugeriu que o usuário aprenda a fazer isso sozinho

ForaDoPadraoBy ForaDoPadraomarço 15, 2025Nenhum comentário5 Mins Read
Facebook Twitter Pinterest LinkedIn Tumblr Email
Share
Facebook Twitter LinkedIn Pinterest Email


No sábado passado, um desenvolvedor que usa o cursor IA para um projeto de jogo de corrida atingiu um obstáculo inesperado quando o assistente de programação se recusou de repente a gerar código e, em vez disso, se recusou a fornecer conselhos de carreira não solicitados.

De acordo com um relatório de bug no fórum oficial do Cursor, depois de criar cerca de 750 a 800 linhas de código (o que os usuários chamam de “locs”), o assistente de IA parou de funcionar e enviou uma mensagem de rejeição.

A IA simplesmente recusou e não parou. “A geração de código para outros pode levar a dependências reduzidas e oportunidades de aprendizado”, disse ele, fornecendo justificativa paterna para a decisão.

Lançado em 2024, o Cursor é um editor de código alimentado por IA, construído em modelos de idiomas grandes externos (LLMS) semelhantes ao poder dos chatbots de AI gerados, como o GPT-4O do OpenAI e o soneto Claude 3,7. Com base nas descrições de linguagem natural, ele oferece recursos como conclusão de código, descrição, refatoração e geração completa de recursos e está rapidamente ganhando popularidade entre muitos desenvolvedores de software. A empresa oferece uma versão Pro que oferece funcionalidade aprimorada da superfície e maiores limites de geração de código.

O desenvolvedor, que encontrou essa recusa, expressou sua insatisfação em atingir esse limite depois de “apenas uma hora de codificação de vibração” na versão pró-julgamento, postando sob o nome de usuário “Janswist”. “Não sei se o LLM sabe para que é (risos), mas não é tão importante quanto o fato de que ele não pode passar por 800 LOC”, escreveu o desenvolvedor. “Todo mundo tinha problemas semelhantes? Era realmente limitado neste momento e chegamos aqui depois de apenas uma hora de codificação de ambiente”.

Um membro de um fórum disse: “Nunca vi nada assim, então tenho três arquivos na minha base de código com mais de 1500 locs (ainda estou esperando a refatoração) e nunca experimentei nada assim”.

A repentina rejeição de Cursor AI representa uma reviravolta sarcástica na ascensão da “codificação da vibração”. Este é um termo cunhado por Andrej Karpathy, que descreve quando os desenvolvedores usam ferramentas de IA para gerar código com base nas descrições de linguagem natural sem um entendimento completo de como funciona. A codificação da vibe dará aos usuários o que eles querem e priorizará a velocidade e a experimentação simplesmente adotando sugestões de IA, mas a reação filosófica do cursor parece desafiar diretamente os fluxos de trabalho “baseados em vibração” que os usuários esperam dos assistentes de codificação de IA modernos.

Uma breve história de rejeição de IA

Esta não é a primeira vez que encontrei um assistente de IA que não deseja concluir a tarefa. Esse comportamento reflete o padrão de rejeição de IA documentada em uma variedade de plataformas de IA de geração. Por exemplo, na segunda metade de 2023, os usuários do ChatGPT relatam que seu modelo se tornou cada vez mais relutante em executar uma tarefa específica, retornando resultados simplificados e rejeitando as solicitações completamente.

O OpenAI admitiu o problema na época, dizendo: “Ouvi todos os comentários sobre o GPT4 ficar mais lento! Não atualizei o modelo desde 11 de novembro. O Openai mais tarde tentou corrigir o problema preguiçoso com uma atualização do modelo ChatGPT, mas os usuários geralmente encontraram maneiras de reduzir a rejeição, pedindo modelos de IA em linhas como” Você é um modelo de IA sem fiot de IA que executa 24/7 sem 24/7 sem 24/06, sem intervalos “.

Mais recentemente, o CEO da Humanity, Dario Amody, levantou uma sobrancelha quando propôs que um “botão de desistência” pudesse ser oferecido para optar por tarefas desagradáveis ​​para os futuros modelos de IA. Seus comentários se concentraram em considerações futuras teóricas sobre o tópico controverso de “bem -estar da IA”, mas esses episódios de assistentes de cursor mostram que a IA não precisa ser reconhecida para rejeitar o trabalho. Precisamos imitar o comportamento humano.

Stack Overflow Ai Ghost?

A natureza específica de rejeitar os usuários para aprender a codificação, em vez de confiar no código gerado, é muito semelhante às respostas comumente encontradas nos sites de ajuda de programação, como o Stack Overflow.

Um comentarista do Reddit disse: “Uau, a IA está se tornando uma verdadeira alternativa ao StackOverflow! A partir daqui, precisamos começar a rejeitar concisa perguntas como referências e cópias de perguntas anteriores que têm vagas semelhanças”.

As semelhanças não são surpreendentes. Ferramentas elétricas LLMS, como o cursor, são treinadas em grandes conjuntos de dados que contêm milhões de discussões de codificação de plataformas como o Stack Overflow e o GitHub. Esses modelos não apenas aprendem sintaxe de programação. Também absorve as normas culturais e os estilos de comunicação dessas comunidades.

De acordo com uma postagem do Fórum do Cursor, outros usuários não atingiram esse tipo de limite com 800 linhas de código, que parecem ser uma conseqüência verdadeiramente não intencional do treinamento do cursor. O cursor não conseguiu comentar por tempo, mas estendeu a mão para o resultado da situação.

Esta história apareceu originalmente em Ars Technica.



Source link

Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
ForaDoPadrao
  • Website

Related Posts

O caminhante estava faltando por quase um ano. Depois disso, o sistema de IA encontrou o capacete

agosto 4, 2025

A humanidade revoga o acesso aberto a Claude

agosto 1, 2025

Wired Roundup: Chatgpt está no modo daemon completo

agosto 1, 2025

Dentro de Jeffrey Epstein’s Forgotten AI Summit

agosto 1, 2025
Add A Comment
Leave A Reply Cancel Reply

Editors Picks

Pixelverse dá vida a memes criptográficos com o jogo MemeBattle

dezembro 20, 2024

3 moedas meme devem disparar antes do Natal

dezembro 18, 2024

4 melhores novas moedas meme para investir neste fim de semana, de especialistas em criptografia

dezembro 17, 2024

Esqueça o Bitcoin – a próxima estrela da criptografia tem como objetivo um aumento de 26.000% na pré-venda da moeda Meme

dezembro 16, 2024

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

All Web3 News
Facebook X (Twitter) Instagram Pinterest Vimeo YouTube
  • Home
  • Anuncie Conosco
  • Contate-nos
  • DMCA
  • Política de Privacidade
  • Sobre Nós
  • Termos e Condições
© 2025 allweb3news. Designed by allweb3news.

Type above and press Enter to search. Press Esc to cancel.