No ano passado, o engenheiro veterano de software Jay Prakash Thakur passou a prototipagem de agentes de IA que lhe permitem pedir quase inteiramente alimentos e engenharia aplicativos móveis em um futuro próximo. Seu agente é surpreendentemente capaz, mas também revela novas questões legais que aguardam empresas que desejam capitalizar a nova tecnologia mais quente do Vale do Silício.
Os agentes são programas de IA que podem agir de forma amplamente de forma independente, permitindo que as empresas automatizem tarefas como responder a perguntas dos clientes e pagar faturas. O ChatGPT e os chatbots semelhantes podem redigir e analisar e -mails mediante solicitação, mas a Microsoft e outros gigantes da tecnologia esperam que os agentes abordem recursos mais complexos.
Os planos mais ambiciosos do setor de tecnologia incluem sistemas multi-agentes, um dia dezenas de agentes combinando para substituir toda a força de trabalho. Para as empresas, os lucros são claros. Economize tempo e custos de mão -de -obra. A demanda por tecnologia já está aumentando. Os pesquisadores de mercado da tecnologia Gartner estima que o agente IA resolverá 80% das consultas comuns de atendimento ao cliente até 2029. A Fiverr relata que é um serviço que permite às empresas reservar codificadores freelancers e está procurando “agentes de IA”.
Um codificador mais autodidata que vive na Califórnia, Thakur queria estar na vanguarda dos campos emergentes. Seu trabalho na Microsoft não tem nada a ver com agentes, mas desde que trabalha na Amazon em 2024, ele está mexendo no Autogen, um software de código aberto para os agentes arquitetônicos da Microsoft. Na semana passada, a Amazon implantou uma ferramenta de desenvolvimento de agentes semelhante chamada Strands. O Google oferece o que é chamado de kit de desenvolvimento de agentes.
Como os agentes pretendem agir de forma autônoma, a questão de quem será responsável quando erros causarão danos financeiros foi a maior preocupação de Thakur. Ele acredita que, se agentes de diferentes empresas pudessem entender mal em um único sistema grande, eles atribuem acusações. Ele comparou o desafio de revisar os registros de erros de diferentes agentes e reconstruiu a conversa com base em notas de pessoas diferentes. “Muitas vezes é impossível identificar responsabilidade”, diz Thakur.
Joseph Fireman, advogado sênior do OpenAi, disse em uma recente conferência jurídica organizada pelo Centro de Recursos de Direito da Mídia em São Francisco, que as partes angustiadas tendem a perseguir aqueles com os bolsos mais profundos. Isso significa que empresas como ele precisam ser responsabilizadas de alguma forma, mesmo que a criança que mexa com o agente seja responsável se o agente for prejudicial. (Se essa pessoa é negligente, provavelmente pensa que não valem a pena como dinheiro, a ideia vai). “Não acho que alguém queira montar um consumidor sentado no porão de sua mãe em um computador”, disse o bombeiro. O setor de seguros começou a implantar uma série de problemas de chatbot de IA que ajudarão as empresas a cobrir os custos de acidentes.
Anel de cebola
O experimento de Thakur envolve vincular agentes em um sistema que requer o mínimo de intervenção humana possível. Um dos projetos que ele realizou foi substituir colegas desenvolvedores de software por dois agentes. Um foi treinado para procurar as ferramentas especializadas necessárias para criar aplicativos e o outro resumindo as políticas de uso. No futuro, um terceiro agente pode usar a ferramenta identificada e desenvolver um aplicativo completamente novo de acordo com a política descrita, diz Thakur.
Quando Thakur testou o protótipo, o agente de pesquisa encontrou uma ferramenta, de acordo com o site, “suporta as solicitações ilimitadas dos usuários corporativos por minuto” (o que significa que os clientes com alto pagamento podem confiar apenas no que querem). No entanto, ao tentar destilar informações importantes, o agente resumido removeu o “por minuto para usuários corporativos”. Ele confundiu agentes de codificação que não eram qualificados como usuários corporativos de que eles poderiam escrever programas que faria solicitações ilimitadas a serviços externos. Este foi um teste e não houve mal. Se estivesse acontecendo na vida real, a orientação truncada poderia ter resultado em todo o sistema ser inesperadamente interrompido.