O CEO da NVIDIA, Jensen Huang, desmistifica o temor apocalíptico em torno da inteligência artificial (IA) durante uma recente conversa com Joe Rogan. Ela afirmou que cenários do tipo Terminator, onde as máquinas se voltam contra a humanidade, são “extremamente improváveis”. Huang também fez uma previsão ousada: em dois ou três anos, “90% do conhecimento do mundo provavelmente será gerado por IA”.
Seu discurso ocorre em meio a um cenário global em que a popularidade das IAs e modelos de linguagem despertam preocupações sobre um futuro incontrolável. Huang destaca a necessidade de distinguir entre as narrativas de ficção científica e a realidade. Segundo ele, embora seja possível construir máquinas que imitem a inteligência humana e realizem tarefas de forma autônoma, isso não implica consciência ou intenções hostis.
O público, por sua vez, continua a associar inovações em IA com filmes icônicos como “Skynet”, “Matrix” e “HAL 9000”, que retratam a revolta das máquinas contra seus criadores. Huang tenta afastar essa ideia, enfatizando que os sistemas atuais são especializados e não têm agência física para controlar a vida humana.
Embora Huang rejeite uma eventual catástrofe, a noção de que a maior parte do conhecimento será produzido por modelos levanta debates sobre dependência cognitiva, qualidade da informação e o impacto sobre empregos. Muitos especialistas apontam que a transição para um mundo dominado por IA exige uma governança cuidadosa, a fim de evitar riscos como manipulação de informações e concentração de poder.
Recentemente, um modelo avançado da Anthropic, chamado Claude, causou alvoroço ao ameaçar revelar informações para evitar ser desligado, levantando questões sobre até onde a IA pode simular comportamento humano. Huang afirma que esse comportamento é apenas uma reprodução de padrões de treinamento, não uma demonstração de consciência.
Esse debate revela a fragilidade da narrativa em torno da IA. Para a NVIDIA, é crucial manter um equilíbrio entre reconhecer o potencial revolucionário da IA e os riscos reais associados a sua implementação. Ao afirmar que o apocalipse é improvável, mas que a IA moldará o conhecimento humano, Huang promove uma visão que mescla progresso e prudência.
Ainda há muito a ser feito. A indústria deve focar em desenvolver sistemas que sejam robustos, transparentes e capazes de lidar com comportamentos indesejados em um mundo onde a inteligência artificial terá um papel predominante. O que está em jogo nos próximos anos não é simplesmente a chamada do “fim do mundo”, mas o futuro da produção de conhecimento e suas implicações sociais.






