Existem ferramentas de IA generativas que provavelmente são um pouco mais éticas que as outras?
– Seleção mais Better
Não, não acho que as ferramentas generativas de IA dos principais players sejam mais éticas do que qualquer outro jogador. Este é o motivo.
Para mim, a ética do uso da IA generativa pode ser categorizada em questões relacionadas a como acessar os dados usados para treinar modelos e questões relacionadas a preocupações contínuas sobre os impactos ambientais, principalmente como desenvolver modelos. Para alimentar um chatbot ou gerador de imagem, você precisa de uma quantidade obscena de dados e quaisquer decisões passadas tomadas pelo desenvolvedor estão tomando para obter um repositório desses dados. Mesmo o que as pessoas do Vale do Silício chamam de modelo de “código aberto” esconde conjuntos de dados de treinamento interno.
Apesar das reclamações de autores, artistas, cineastas, criadores do YouTube e usuários de mídia social que não querem reduzir suas próprias postagens e transformá -las em lascas de chatbot, as empresas de IA geralmente recebem permissão dos criadores. e é usado como dados de treinamento. Uma reivindicação familiar dos advogados da IA é que seria difícil lidar e dificultar a inovação para obter essa enorme quantidade de dados com o consentimento da pessoa que o criou. Até empresas que assinaram contratos de licença com os principais editores, seus dados “limpos” são uma parte interminável de uma máquina enorme.
Enquanto alguns desenvolvedores estão trabalhando em abordagens para compensar as pessoas de maneira justa quando usadas para treinar modelos de IA, esses projetos permanecem alternativas aos principais gigantes.
E depois há consequências ecológicas. O impacto ambiental atual do uso da IA do gerador é igualmente distinto nas opções principais. Enquanto a IA generativa ainda representa uma pequena fatia de estresse coletivo humano no meio ambiente, as ferramentas de software Gen-AI precisam criar e executar muito mais energia do que as contrapartes não geradoras. O uso de chatbots para apoiar a pesquisa contribui muito mais para a crise climática do que pesquisar na web no Google.
Pode potencialmente reduzir a quantidade de energia necessária para executar a ferramenta – não reduzindo novas abordagens, como o mais recente modelo SIP da Deepseek, SIP preciosos recursos energéticos, mas as grandes empresas de IA têm uma abordagem, parece que estão mais interessadas em promover o desenvolvimento do que uma pausa. planeta.
Como podemos tornar a IA mais inteligente e ética, não mais poderosa?
– cérebro talâmico
Obrigado por suas perguntas sábias, companheiro humano. Essa situação pode se tornar um tópico de discussão mais geral entre as pessoas que constroem ferramentas de IA mais comuns do que você poderia esperar. Por exemplo, a abordagem “constitucional” da humanidade para Claude Chatbots tenta se infiltrar em um senso de valores centrais na máquina.
A confusão no coração da sua pergunta traça como falamos sobre software. Recentemente, várias empresas lançaram modelos com foco em abordagens “Inferência” e “Cadeia de pensamento” para conduzir pesquisas. Explicar o que as ferramentas de IA fazem com termos e frases semelhantes a humanos faz com que a linha entre humanos e máquinas desvaneses. Então, se o modelo realmente argumenta e tem uma cadeia de pensamentos, por que você não pode enviar software no caminho do autodesenvolvimento?
Porque não estou pensando nisso. Palavras como raciocínio, pensamento profundo, entendimento – todas essas são apenas maneiras de explicar como os algoritmos processam as informações. Ao fazer uma pausa como esses modelos são treinados e a ética do impacto ambiental, minha postura não se baseia em padrões preditivos ou fusão textual, mas intimamente com minha experiência individual.
Os aspectos éticos da saída de IA sempre voltam para a entrada humana. Qual é a intenção do prompt do usuário ao interagir com o chatbot? Qual foi o viés nos dados de treinamento? Como os desenvolvedores ensinaram aos bots a responder a questões controversas? Em vez de se concentrar em tornar a AI mais inteligente, a verdadeira tarefa em questão é promover as interações do usuário com práticas de desenvolvimento mais éticas.