Aqui estão algumas pequenas distrações dos dias de trabalho: vá para o Google, digite qualquer frase e adicione a palavra “significado” para pesquisar. Olhar! A visão geral da AI do Google não apenas confirma que seu Giverisch é um verdadeiro provérbio, mas também informa o que isso significa e como foi derivado.
Isso é muito divertido e você pode encontrar muitos exemplos nas mídias sociais. No mundo da visão geral da IA, “um cachorro solto não surfará” é “uma maneira divertida de dizer que algo é improvável que aconteça ou algo dá errado”. A frase inventada “Wired Is Wired” é um idioma que significa “o comportamento ou a característica de alguém é o resultado direto de uma natureza inerente ou” fiação “, em função de um computador é determinada por uma conexão física”.
Tudo parece completamente plausível e é entregue com confiança inabalável. O Google também às vezes fornece links de referência, dando à resposta um brilho adicional de autoridade. Isso é errado, pelo menos no sentido de que eles criam a impressão de que essas são frases comuns e não pacotes aleatórios de palavras. E embora seja estúpido pensar que a IA descreve “Não jogue Poodles em porcos”, o provérbio com variação na Bíblia também é um encapsulamento ordenado de lugares onde ainda falta a IA generativa.
Como aviso de isenção de responsabilidade na parte inferior das notas de resumo de todas as IA, o Google usa a geração “experimental” da IA para impulsionar os resultados. A geração AI é uma ferramenta poderosa com todos os tipos de aplicações práticas legítimas. No entanto, ao explicar essas frases inventadas, duas de suas propriedades críticas funcionam. A primeira é que, em última análise, é uma máquina de probabilidade. Embora possa parecer que um grande sistema baseado em modelo tenha até pensamentos e sentimentos, no nível básico, ele simplesmente coloca as palavras mais ridículas uma após a outra e coloca os caminhões para que o trem avance para a frente. Não é muito bom em explicar o que essas frases significam quando significam alguma coisa.
“As previsões para o próximo período são baseadas nessa grande quantidade de dados de treinamento”, disse Ziang Xiao, cientista da computação da Universidade Johns Hopkins. “No entanto, em muitos casos, as seguintes palavras consistentes não nos guiam para a resposta certa”.
Outro fator é que a IA pretende ser feliz. Pesquisas mostram que os chatbots costumam dizer às pessoas o que elas querem perguntar. Nesse caso, significa levar suas palavras com as palavras “Você não pode lamber o texugo duas vezes”. Em outros contextos, como demonstrado por uma equipe de pesquisadores liderados por Xiao no estudo do ano passado, pode significar que você reflete seus próprios preconceitos.
“É muito difícil para esse sistema explicar todas as consultas individuais ou questões -chave dos usuários”, diz Xiao. “Isso é especialmente difícil para conhecimentos raros, idiomas com significativamente menos conteúdo disponível e para perspectivas minoritárias. Como a pesquisa AI é um sistema tão complexo, os erros são cascados”.

