A utilização de assistentes de Inteligência Artificial (IA) para acelerar a programação está levantando uma questão preocupante: o que acontece com as habilidades dos profissionais quando o foco muda de aprender para produzir mais rapidamente? Um novo estudo da Anthropic, a empresa por trás do assistente Claude, revela um trade-off que muitas empresas já suspeitavam, mas que poucas quantificaram de forma controlada.
O estudo, que envolveu 52 engenheiros de software, predominantemente juniores, tinha como objetivo aprender uma nova biblioteca de Python chamada Trio, voltada para programação assíncrona. Metade dos participantes utilizou um assistente de IA integrado, enquanto a outra metade trabalhou sem ele. Após a conclusão de uma série de exercícios, todos passaram por um teste que mediu habilidades críticas na era do código assistido, como depuração, leitura de código e compreensão conceitual.
Os resultados foram claros: o grupo que utilizou a IA obteve uma “maestria” 17% inferior em suas tarefas, sem que esse desempenho piorado fosse compensado por um aumento significativo na velocidade de conclusão. Embora os que usaram IA tenham terminado em média dois minutos antes, essa diferença não foi estatisticamente significativa. O grupo que trabalhou sem a IA obteve 67% de acertos no teste, comparado a 50% para o grupo com IA, evidenciando que a dependência da ferramenta não resultou em mais aprendizado.
Um dos achados mais preocupantes diz respeito à habilidade de depuração, que é essencial para garantir a qualidade do código, especialmente em contextos onde a IA gera ou sugere trechos. A dificuldade em identificar e entender rapidamente erros pode resultar em custos elevados em termos de manutenção e segurança dos sistemas.
Os pesquisadores analisaram as interações com a IA nas tarefas e notaram que aqueles que passavam mais tempo “conversando” com a ferramenta, como elaborar perguntas, tendiam a ter um desempenho pior no teste de compreensão. O estudo categorizou seis padrões de interação, três associados a baixos resultados e três a melhores desempenhos. Os participantes que simplesmente delegaram tarefas à IA sem entender o raciocínio por trás delas apresentaram um desempenho inferior.
Face a esses resultados, o estudo alerta para um problema de governança técnica. A perda de habilidades como a depuração não é apenas uma questão de aprendizado individual, mas pode afetar a qualidade e segurança do desenvolvimento de software em larga escala. Assim, se os novos profissionais não conseguem construir uma compreensão sólida durante seu treinamento, arrisca-se a formação de uma geração de desenvolvedores menos preparados para liderar e gerir sistemas complexos.
O relatório sugere que as empresas adotem práticas que incentivem o uso da IA como ferramenta de aprendizado, definindo claramente contextos de uso. Em vez de permitir que a IA substitua o raciocínio humano, as empresas devem usá-la para complementar o aprendizado, exigindo explicações e revisões críticas no trabalho feito com assistência de IA.
Conforme a indústria avança rumo a uma maior automação, o estudo de Anthropic ressalta que a produtividade não deve ser vista como um atalho para a competência, especialmente quando o objetivo é desenvolver novas habilidades.






