Oriol Nieto, da Adobe, carregou um pequeno vídeo com algumas cenas e narração, mas sem efeitos sonoros. O modelo de IA analisou o vídeo e o segmentou em cenas aplicando tags emocionais e descrições para cada cena. Então ouvi um efeito sonoro. Por exemplo, o modelo de IA reconheceu uma cena com um despertador e criou automaticamente um efeito sonoro. Identificamos uma cena em que o personagem principal (neste caso o polvo) dirige um carro e adicionamos o efeito sonoro da porta fechando.
Não foi perfeito. O som do alarme não era realista e, em uma cena em que dois personagens estavam se abraçando, o modelo de IA adicionou um farfalhar anormal de roupas, mas não funcionou. A Adobe usou uma interface conversacional (como ChatGPT) para escrever as alterações em vez de fazer edições manuais. Durante as cenas do carro, não houve som ambiente vindo do carro. Em vez de selecionar manualmente uma cena, a Adobe usou uma interface de conversação para solicitar ao modelo de IA que adicionasse efeitos sonoros de carro à cena. Encontramos a cena, geramos os efeitos sonoros e os posicionamos perfeitamente.
Esses recursos experimentais não estão disponíveis, mas normalmente são integrados ao pacote Adobe. Por exemplo, Harmonize, um recurso do Photoshop que coloca automaticamente ativos com cores e iluminação precisas em uma cena, foi revelado no Sneaks do ano passado. Bem, é o Photoshop. Espera-se que apareça em 2026.
O anúncio da Adobe ocorre poucos meses depois que os dubladores de videogame encerraram uma greve de quase um ano para garantir proteções relacionadas à IA. Se um desenvolvedor de jogos quiser recriar a voz de um dublador ou algo semelhante por meio de IA, a empresa precisará obter consentimento e firmar um acordo de divulgação. Os dubladores estão se preparando para o impacto da IA nos negócios há algum tempo, e o novo recurso da Adobe é outro indicador das mudanças que a IA está forçando na indústria criativa, mesmo que não esteja gerando dublagens do zero.

