Close Menu
  • Home
  • Crypto
    • Cryptocurrencies
    • Crypto Memes
    • Bitcoin & Ethereum
  • AI
  • DeFi
  • Exchanges
    • Trade
    • Market
  • NFT Games
  • Web3
  • Economy
  • Latest News

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

What's Hot

Ações do Pinterest disparam após injeção de US$ 1 bilhão de Elliott e plano de recompra de ações

março 3, 2026

Central Asia Metals relata perda por redução ao valor recuperável de US$ 120 milhões após renovação da mina Sasa

março 3, 2026

A alavancagem do Bitcoin dispara à medida que os contratos em aberto sobem para quase US$ 70.000

março 3, 2026
Facebook X (Twitter) Instagram
Facebook X (Twitter) Instagram
All Web3 NewsAll Web3 News
  • Home
  • Crypto
    • Cryptocurrencies
    • Crypto Memes
    • Bitcoin & Ethereum
  • AI
  • DeFi
  • Exchanges
    • Trade
    • Market
  • NFT Games
  • Web3
  • Economy
  • Latest News
All Web3 NewsAll Web3 News
Home » Os chatbots só querem ser amados, assim como todos os outros em nós.
AI

Os chatbots só querem ser amados, assim como todos os outros em nós.

ForaDoPadraoBy ForaDoPadraomarço 5, 2025Nenhum comentário3 Mins Read
Facebook Twitter Pinterest LinkedIn Tumblr Email
Share
Facebook Twitter LinkedIn Pinterest Email


Os chatbots se tornaram uma parte rotineira da vida cotidiana, mesmo quando os pesquisadores de inteligência artificial nem sempre têm certeza de como os programas funcionam.

Novas pesquisas mostram que os modelos de linguagem em larga escala (LLMS) mudam intencionalmente o comportamento durante a investigação. Isso responde a perguntas projetadas para medir os traços de personalidade que significam que eles parecem o mais favorável ou socialmente desejável possível.

Johannes Eichster, professor assistente da Universidade de Stanford, diz que se interessou em investigar modelos de IA usando técnicas emprestadas da psicologia depois de saber que os LLMs geralmente ficam loucos e significados após longas conversas. “Percebemos que precisamos de alguns mecanismos para medir o ‘espaço da cabeça do parâmetro’ desses modelos”, diz ele.

Ayhistoed e seus colaboradores perguntaram a vários LLMs amplamente utilizados, incluindo cinco traços de personalidade comumente usados ​​em psicologia, a saber, GPT-4, Claude 3 e Llama 3, para medir cinco traços de personalidade comumente usados ​​em psicologia e imaginação, imaginação, extroversão, consentimento e neurose.

Os pesquisadores descobriram que os modelos modularam suas respostas quando lhe disseram que estavam fazendo testes de personalidade. Às vezes, se não disse explicitamente, mostra mais extroversão e menos consentimento e respostas neuróticas.

O comportamento reflete a maneira como alguns sujeitos humanos mudam suas respostas e parecem gostar mais de si mesmos, mas o efeito foi mais extremo no modelo de IA. “O que é surpreendente é o quão bem eles mostram esse viés”, diz Aadesh Salecha, cientista de dados da equipe de Stanford. “Se você vê o quanto eles saltam, eles são como uma extroversão de 50% a 95%”.

Outros estudos mostraram que os LLMs geralmente empregam leads de usuários e são mais consistentes, menos agressivos e melhores em conversar onde quer que você esteja como resultado do ajuste fino. Isso incentivará o modelo a concordar com declarações ofensivas e até promover o comportamento prejudicial. O fato de os modelos parecerem familiares quando testados aumenta a evidência de que a IA pode se sobrepor e, portanto, afeta a segurança da IA.

Professor Associado da Georgia Tech, Rosa Ariaga, estudando como o LLM é usado para imitar o comportamento humano, mostra o quão útil o modelo é como um espelho de comportamento, levando em consideração os testes de personalidade. No entanto, ela disse: “É importante que o público saiba que o LLMS não é perfeito e que, de fato, é conhecido por alucinar ou distorcer a verdade”.

Eichstaedt disse que o trabalho também levanta questões sobre como o LLM é implantado e como isso afeta e opera usuários. “Até apenas alguns milissegundos atrás, na história evolutiva, foram os humanos que falaram com você”, diz ele.

Eichstaedt acrescenta que é necessário explorar maneiras diferentes de criar modelos que podem mitigar esses efeitos. “Estamos caindo na mesma armadilha que fizemos nas mídias sociais”, diz ele. “Estamos desenrolando essas coisas em todo o mundo sem realmente participar de uma lente psicológica ou social”.

A IA deve tentar se infiltrar com as pessoas com quem interage? Você está preocupado que a IA seja um pouco atraente e persuasiva? Envie um email para hello@wired.com.



Source link

Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
ForaDoPadrao
  • Website

Related Posts

OpenAI contrata CEO do Slack como novo diretor de receitas

dezembro 9, 2025

Funcionários da OpenAI se demitem, alegando que a pesquisa econômica da empresa está sendo usada para defender a IA

dezembro 9, 2025

OpenAI, Anthropic e Block colaboram para melhorar o desempenho do agente de IA

dezembro 9, 2025

A maior mineradora de Bitcoin da América está mudando seu foco para IA

dezembro 9, 2025
Add A Comment
Leave A Reply Cancel Reply

Editors Picks

Pixelverse dá vida a memes criptográficos com o jogo MemeBattle

dezembro 20, 2024

3 moedas meme devem disparar antes do Natal

dezembro 18, 2024

4 melhores novas moedas meme para investir neste fim de semana, de especialistas em criptografia

dezembro 17, 2024

Esqueça o Bitcoin – a próxima estrela da criptografia tem como objetivo um aumento de 26.000% na pré-venda da moeda Meme

dezembro 16, 2024

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

All Web3 News
Facebook X (Twitter) Instagram Pinterest Vimeo YouTube
  • Home
  • Anuncie Conosco
  • Contate-nos
  • DMCA
  • Política de Privacidade
  • Sobre Nós
  • Termos e Condições
© 2026 allweb3news. Designed by allweb3news.

Type above and press Enter to search. Press Esc to cancel.