A próxima grande arquitetura da NVIDIA para centros de dados, Feynman, já começa a deixar lições antes mesmo de seu lançamento no mercado. Na era da inteligência artificial, não basta apenas criar o chip mais ambicioso; é fundamental garantir capacidade suficiente para fabricá-lo. Nos últimos dias, tem circulado com força a ideia de que a falta de capacidade no nodo A16 da TSMC pode estar forçando a NVIDIA a repensar parte do design de suas futuras GPUs, previstas para 2028. No entanto, até o momento, não há confirmação oficial da NVIDIA ou da TSMC sobre esse possível redesenho, o que torna o assunto um rumor sobre a cadeia de suprimentos, relevante, mas ainda não verificado publicamente.
O contexto que torna a hipótese credível é confirmado. A TSMC anunciou o A16 como um processo focado em produtos de HPC e inteligência artificial, utilizando transistores nanosheet e tecnologia Super Power Rail, com produção em volume programada para a segunda metade de 2026. Comparado ao N2P, a TSMC promete para o A16 entre 8% e 10% mais de velocidade no mesmo consumo, entre 15% e 20% menos de energia com desempenho equivalente, e uma densidade entre 7% e 10% maior. Esse é, em teoria, exatamente o tipo de nodo que se encaixa com a geração Feynman, já listada oficialmente no cronograma da NVIDIA para 2028.
Porém, é preciso lembrar que no papel tudo é possível, mas a capacidade fabril é uma realidade mais rigorosa. Em janeiro, a TSMC já reconheceu em sua conferência de resultados que a demanda por silício avançado ligado à IA se mantinha robusta, com grandes clientes prevendo um cenário positivo e até clientes desses grandes nomes — principalmente provedores de nuvem — solicitando capacidade diretamente. Essa pressão não se restringe a um único nodo ou cliente. Recentemente, a Reuters informou que a Broadcom também vê a capacidade da TSMC como um gargalo e que a fundição taiwanesa está enfrentando limites de produção à medida que a demanda por chips para IA aumenta.
A origem da especulação sobre mudanças na Feynman deriva de relatos da cadeia de suprimentos asiática, que indicam que a NVIDIA inicialmente planejou esta família de GPUs baseada no A16, mas agora pode precisar combinar esse nodo com o N3P para alguns blocos menos críticos. A interpretação que esses meios fazem é que os die ou chiplets mais sensíveis permaneceriam no A16, enquanto outras partes migrariam para um processo mais maduro e com maior disponibilidade. Essa informação ainda carece de confirmação das empresas envolvidas, e esse detalhe é crucial, uma vez que em semiconductores a diferença entre “objetivo de design”, “teste de engenharia” e “produto final” pode alterar completamente a interpretação.
Mesmo assim, a hipótese não é descabida. A própria TSMC deixou claro que o A16 não é um nodo generalista, mas uma tecnologia projetada para chips de altíssimo desempenho com necessidades complexas de sinalização e alimentação. Quanto mais específico e avançado é um nodo, mais difícil se torna escalá-lo rapidamente. Além disso, a indústria tem observado como a IA está pressionando ao máximo não só as wafers avançadas, mas também o empacotamento, a memória HBM, interposers, lasers e até segmentos menos visíveis da cadeia de suprimentos. Se uma empresa como a Broadcom já fala abertamente sobre restrições na TSMC, não seria surpreendente que a NVIDIA também precisasse ajustar cronogramas, misturas de nodos ou a distribuição interna de blocos nas gerações futuras.
Além do rumor específico, o que realmente importa é o que isso revela sobre o mercado. A NVIDIA continua dominando a infraestrutura de IA, mas nem mesmo esse domínio garante acesso ilimitado ao processo mais avançado do maior fabricante do mundo. Isso traz várias implicações. A primeira é técnica: caso a Feynman acabe combinando nodos, a NVIDIA teria que otimizar ainda mais a distribuição entre os blocos de lógica, memória e interconexão para não comprometer eficiência, desempenho ou consumo. A segunda é industrial: a vantagem competitiva em IA não depende mais apenas da arquitetura, software e ecossistema, mas também da capacidade de assegurar fornecimento para os próximos anos.
A terceira implicação é mais ampla e afeta todo o setor. Se a TSMC tiver que administrar com rigor o A16 para clientes de primeira linha, o espaço para empresas menores será ainda mais restrito. Isso reforça uma tendência já observada: contratos mais longos, planejamento mais agressivo e diversificação parcial quando possível. Em outras palavras, a era da IA não apenas multiplicou a demanda por computação; ela também transformou a capacidade fabril avançada em um ativo estratégico escasso.
Por ora, a cautela é essencial. A NVIDIA deixou claro que a Feynman faz parte de sua geração de 2028, e a TSMC afirma que o A16 chegará à produção na segunda metade de 2026. O que vem a seguir — se a Feynman será totalmente baseada no A16, se misturará A16 e N3P ou se ajustará seu design devido à falta de capacidade — permanece no âmbito da especulação industrial. No entanto, a mensagem subjacente já é bastante clara: a próxima batalha da IA não se dará apenas nos laboratórios de design, mas também na capacidade de transformar esses designs em wafers reais, a tempo e em volume suficiente.






