A nova era do Vale do Silício é dirigida por redes, e não por redes como as encontradas no LinkedIn.
À medida que a indústria tecnológica investe milhares de milhões de dólares em centros de dados de IA, os fabricantes de chips, de grande a pequeno porte, estão a acelerar a inovação em torno da tecnologia que liga chips a outros chips e racks de servidores a outros racks de servidores.
A tecnologia de rede existe desde o surgimento dos computadores, desempenhando um papel fundamental ao permitir que mainframes se conectem e compartilhem dados. No mundo dos semicondutores, as redes desempenham um papel em quase todos os níveis da pilha, desde as interconexões entre os transistores no próprio chip até as conexões externas feitas entre caixas e racks de chips.
Grandes empresas de chips como Nvidia, Broadcom e Marvell já possuem redes estabelecidas e legítimas. Mas em meio ao boom da IA, algumas empresas estão explorando novas abordagens de rede para ajudar a acelerar as enormes quantidades de informações digitais que fluem através de seus data centers. É aqui que entram startups de tecnologia profunda como Lightmatter, Celestial AI e PsiQuantum, usando tecnologia óptica para acelerar a computação de alta velocidade.
A tecnologia óptica, ou fotônica, está atingindo seu estágio de maturidade. Pete Shadbolt, cofundador e diretor científico da PsiQuantum, disse que a tecnologia foi considerada “ruim, cara e em grande parte inútil” por 25 anos antes que o boom da IA reacendesse o interesse. (Shadbolt apareceu em um painel co-organizado pela WIRED na semana passada.)
Alguns capitalistas de risco e investidores institucionais estão a investir milhares de milhões de dólares em startups como estas, que encontram novas formas de acelerar o processamento de dados, na esperança de aproveitar a próxima onda de inovação em chips ou, pelo menos, encontrar aquisições adequadas. Eles acreditam que as tecnologias tradicionais de interconexão que dependem da eletrônica simplesmente não conseguem atender à crescente necessidade de cargas de trabalho de IA de alta largura de banda.
“Se você olhar para trás, historicamente, era realmente chato falar sobre redes porque se tratava de troca de pacotes de bits”, disse Ben Bajarin, analista de tecnologia de longa data e CEO da empresa de pesquisa Creative Strategies. “Agora, com a IA, temos que movimentar cargas de trabalho bastante robustas e é por isso que estamos vendo inovação em torno da velocidade.”
energia de chip grande
Bajarin e seus colegas atribuem à NVIDIA a visão de compreender a importância das redes quando fez duas importantes aquisições neste espaço tecnológico há vários anos. Em 2020, a Nvidia gastou quase US$ 7 bilhões para adquirir a Mellanox Technologies, uma empresa israelense que fabrica soluções de rede de alta velocidade para servidores e data centers. Pouco depois, a Nvidia adquiriu a Cumulus Networks para alimentar seu sistema de software baseado em Linux para redes de computadores. Este foi um ponto de viragem para a Nvidia. A Nvidia apostou corretamente que as GPUs e seus recursos de computação paralela se tornariam ainda mais poderosos quando agrupados com outras GPUs e instalados em data centers.
Enquanto a Nvidia domina com pilhas de GPU integradas verticalmente, a Broadcom se tornou um player importante em aceleradores de chips personalizados e tecnologias de rede de alta velocidade. A empresa de US$ 1,7 trilhão trabalha em estreita colaboração com Google, Meta e, mais recentemente, OpenAI para desenvolver chips para data centers. Também está na vanguarda da fotônica de silício. E no mês passado, a Reuters informou que a Broadcom estava preparando um novo chip de rede chamado Thor Ultra, projetado para fornecer um “elo crítico entre os sistemas de IA e o resto do data center”.
Durante sua teleconferência de resultados na semana passada, a gigante do design de semicondutores ARM anunciou planos para adquirir a empresa de redes DreamBig por US$ 265 milhões. A DreamBig fez parceria com a Samsung para produzir chips de IA, pequenos circuitos modulares projetados para serem agrupados em sistemas de chips maiores. O CEO da ARM, Rene Haas, disse em uma teleconferência de resultados que a startup tem “propriedade intelectual interessante que é realmente fundamental para expandir e expandir a rede”. (Isso significa conectar componentes para enviar dados para cima e para baixo dentro de um único cluster de chips e conectar racks de chips a outros racks.)
luz acesa
O CEO da Lightmatter, Nick Harris, destacou que a quantidade de poder de computação necessária para IA está atualmente dobrando a cada três meses, o que é muito mais rápido do que determina a Lei de Moore. Os chips de computador estão ficando cada vez maiores. “Depois que você chega à vanguarda dos maiores chips que pode construir, todo o desempenho posterior vem da ligação dos chips”, diz Harris.
A abordagem da sua empresa é inovadora e não depende de tecnologias de rede tradicionais. Lightmatter constrói a fotônica de silício que liga os chips. A empresa afirma desenvolver o motor fotônico mais rápido do mundo para chips de IA, essencialmente uma pilha 3D de silício conectada com tecnologia de interconexão baseada em luz. A startup arrecadou mais de US$ 500 milhões nos últimos dois anos de investidores como GV e T. Rowe Price. Sua avaliação no ano passado atingiu US$ 4,4 bilhões.

