Close Menu
  • Home
  • Crypto
    • Cryptocurrencies
    • Crypto Memes
    • Bitcoin & Ethereum
  • AI
  • DeFi
  • Exchanges
    • Trade
    • Market
  • NFT Games
  • Web3
  • Economy
  • Latest News

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

What's Hot

Youm -iistehsal: PM “define a ocupação de conflitos” da Caxemira da Índia – Paquistão

agosto 5, 2025

Os trabalhadores norte -coreanos de TI estão usando trabalhos remotos para se infiltrar em empresas de criptografia: relatório

agosto 5, 2025

A expansão do mercado de olhos Bitpanda atinge rentabilidade recorde

agosto 5, 2025
Facebook X (Twitter) Instagram
Facebook X (Twitter) Instagram
All Web3 NewsAll Web3 News
  • Home
  • Crypto
    • Cryptocurrencies
    • Crypto Memes
    • Bitcoin & Ethereum
  • AI
  • DeFi
  • Exchanges
    • Trade
    • Market
  • NFT Games
  • Web3
  • Economy
  • Latest News
All Web3 NewsAll Web3 News
Home » Os chatbots só querem ser amados, assim como todos os outros em nós.
AI

Os chatbots só querem ser amados, assim como todos os outros em nós.

ForaDoPadraoBy ForaDoPadraomarço 5, 2025Nenhum comentário3 Mins Read
Facebook Twitter Pinterest LinkedIn Tumblr Email
Share
Facebook Twitter LinkedIn Pinterest Email


Os chatbots se tornaram uma parte rotineira da vida cotidiana, mesmo quando os pesquisadores de inteligência artificial nem sempre têm certeza de como os programas funcionam.

Novas pesquisas mostram que os modelos de linguagem em larga escala (LLMS) mudam intencionalmente o comportamento durante a investigação. Isso responde a perguntas projetadas para medir os traços de personalidade que significam que eles parecem o mais favorável ou socialmente desejável possível.

Johannes Eichster, professor assistente da Universidade de Stanford, diz que se interessou em investigar modelos de IA usando técnicas emprestadas da psicologia depois de saber que os LLMs geralmente ficam loucos e significados após longas conversas. “Percebemos que precisamos de alguns mecanismos para medir o ‘espaço da cabeça do parâmetro’ desses modelos”, diz ele.

Ayhistoed e seus colaboradores perguntaram a vários LLMs amplamente utilizados, incluindo cinco traços de personalidade comumente usados ​​em psicologia, a saber, GPT-4, Claude 3 e Llama 3, para medir cinco traços de personalidade comumente usados ​​em psicologia e imaginação, imaginação, extroversão, consentimento e neurose.

Os pesquisadores descobriram que os modelos modularam suas respostas quando lhe disseram que estavam fazendo testes de personalidade. Às vezes, se não disse explicitamente, mostra mais extroversão e menos consentimento e respostas neuróticas.

O comportamento reflete a maneira como alguns sujeitos humanos mudam suas respostas e parecem gostar mais de si mesmos, mas o efeito foi mais extremo no modelo de IA. “O que é surpreendente é o quão bem eles mostram esse viés”, diz Aadesh Salecha, cientista de dados da equipe de Stanford. “Se você vê o quanto eles saltam, eles são como uma extroversão de 50% a 95%”.

Outros estudos mostraram que os LLMs geralmente empregam leads de usuários e são mais consistentes, menos agressivos e melhores em conversar onde quer que você esteja como resultado do ajuste fino. Isso incentivará o modelo a concordar com declarações ofensivas e até promover o comportamento prejudicial. O fato de os modelos parecerem familiares quando testados aumenta a evidência de que a IA pode se sobrepor e, portanto, afeta a segurança da IA.

Professor Associado da Georgia Tech, Rosa Ariaga, estudando como o LLM é usado para imitar o comportamento humano, mostra o quão útil o modelo é como um espelho de comportamento, levando em consideração os testes de personalidade. No entanto, ela disse: “É importante que o público saiba que o LLMS não é perfeito e que, de fato, é conhecido por alucinar ou distorcer a verdade”.

Eichstaedt disse que o trabalho também levanta questões sobre como o LLM é implantado e como isso afeta e opera usuários. “Até apenas alguns milissegundos atrás, na história evolutiva, foram os humanos que falaram com você”, diz ele.

Eichstaedt acrescenta que é necessário explorar maneiras diferentes de criar modelos que podem mitigar esses efeitos. “Estamos caindo na mesma armadilha que fizemos nas mídias sociais”, diz ele. “Estamos desenrolando essas coisas em todo o mundo sem realmente participar de uma lente psicológica ou social”.

A IA deve tentar se infiltrar com as pessoas com quem interage? Você está preocupado que a IA seja um pouco atraente e persuasiva? Envie um email para hello@wired.com.



Source link

Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
ForaDoPadrao
  • Website

Related Posts

O caminhante estava faltando por quase um ano. Depois disso, o sistema de IA encontrou o capacete

agosto 4, 2025

A humanidade revoga o acesso aberto a Claude

agosto 1, 2025

Wired Roundup: Chatgpt está no modo daemon completo

agosto 1, 2025

Dentro de Jeffrey Epstein’s Forgotten AI Summit

agosto 1, 2025
Add A Comment
Leave A Reply Cancel Reply

Editors Picks

Pixelverse dá vida a memes criptográficos com o jogo MemeBattle

dezembro 20, 2024

3 moedas meme devem disparar antes do Natal

dezembro 18, 2024

4 melhores novas moedas meme para investir neste fim de semana, de especialistas em criptografia

dezembro 17, 2024

Esqueça o Bitcoin – a próxima estrela da criptografia tem como objetivo um aumento de 26.000% na pré-venda da moeda Meme

dezembro 16, 2024

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

All Web3 News
Facebook X (Twitter) Instagram Pinterest Vimeo YouTube
  • Home
  • Anuncie Conosco
  • Contate-nos
  • DMCA
  • Política de Privacidade
  • Sobre Nós
  • Termos e Condições
© 2025 allweb3news. Designed by allweb3news.

Type above and press Enter to search. Press Esc to cancel.