O Novo Mercado da Programação
Fundamento técnico, dependência algorítmica e a reconfiguração do valor do engenheiro de software na era da IA — com dados de estudos controlados, relatórios de segurança e tendências do mercado de trabalho.

A rápida adoção de assistentes de codificação baseados em LLMs — com 84% dos desenvolvedores usando ou planejando usar ferramentas de IA em 2025 (Stack Overflow Developer Survey, 2025) — reacendeu um debate estrutural: o que define, hoje, o valor profissional de um engenheiro de software?
Este artigo analisa a tensão entre aceleração por IA e erosão de fundamentos técnicos, examinando dados de estudos controlados randomizados sobre produtividade, relatórios de qualidade de código gerado por IA e tendências do mercado de trabalho.
A evidência disponível indica que IA aumenta o throughput individual de desenvolvedores menos experientes em até 35–39%, mas pode retardar engenheiros sêniores em até 19% em tarefas de alta complexidade (METR, 2025). Paralelamente, 45% das tarefas de desenvolvimento assistidas por IA introduzem vulnerabilidades classificadas no OWASP Top 10 (Veracode, 2025).
O achado central deste estudo é que o diferencial competitivo do engenheiro não se desloca para o prompt — ele se concentra na capacidade de arquitetar, arbitrar, revisar e barrar decisões que a IA não possui contexto suficiente para tomar corretamente.
1. Introdução ao Problema
Entre 2022 e 2025, o volume médio de código submetido por desenvolvedor cresceu 75% — impulsionado pela adoção massiva de ferramentas generativas (GitClear, 2025). O número parece expressivo até que se observe o outro lado da equação: o mesmo período registrou aumento proporcional em dívida técnica, churn de código e vulnerabilidades de segurança.
O mercado reagiu com uma pergunta legítima e ainda sem resposta consensual: o que, exatamente, um engenheiro de software deve saber fazer em uma era em que a IA escreve código funcional em segundos?
A questão não é trivial. Ela tem implicações diretas em critérios de contratação, progressão de carreira, design de entrevistas técnicas e estratégia organizacional de formação de equipes. Ao mesmo tempo, ela é frequentemente abordada com imprecisão: de um lado, discursos que equiparam a IA a uma ameaça existencial à profissão; de outro, narrativas que descartam qualquer preocupação como luddismo corporativo.
Este artigo recusa ambos os extremos. A análise parte de dados mensuráveis para responder a três perguntas operacionais:
- Em quais condições a IA aumenta — ou reduz — a produtividade do engenheiro?
- Quais categorias de competência técnica a IA não substitui e por quê?
- O que o mercado de trabalho, em termos de dados de vagas e salários, revela sobre o valor diferencial do fundamento técnico humano?
O escopo é deliberadamente delimitado a engenharia de software aplicada — sistemas em produção, decisões de arquitetura, revisão de código e resolução de incidentes — excluindo pesquisa em IA/ML e funções de dados. O perfil de leitor assumido é o engenheiro com 2 a 8 anos de experiência, inserido no debate sobre o papel da IA em seu dia a dia de trabalho.

2. Fundamentação: O Que Mede Produtividade em Engenharia de Software
Antes de avaliar o impacto da IA, é necessário definir o que se mede. A literatura de engenharia de software consolidou dois frameworks principais para mensuração de produtividade:
2.1 Framework DORA
O DORA (DevOps Research and Assessment) mensura quatro dimensões: deployment frequency, lead time for changes, mean time to restore (MTTR) e change failure rate. O framework distingue produtividade individual de produtividade sistêmica — distinção crítica para avaliar ferramentas de IA, que frequentemente melhoram a primeira sem impactar a segunda.
2.2 Framework SPACE
O SPACE (Satisfaction, Performance, Activity, Communication, Efficiency) amplia a perspectiva para incluir bem-estar do desenvolvedor, colaboração e eficiência percebida, reconhecendo que métricas de atividade isoladas — como linhas de código por dia — são proxies inadequados de valor entregue.
“More code ≠ more value. Industry telemetry and independent studies converge on one point: AI ups developer output but yields little company-level productivity change.” — Index.dev, AI Coding Assistants ROI Report, 2025
A distinção entre throughput individual e entrega sistêmica é o ponto de partida para compreender o paradoxo de produtividade da IA, detalhado na próxima seção.
3. Análise Técnica
3.1 O Paradoxo de Produtividade da IA: Dados de Estudos Controlados
A narrativa dominante equipara adoção de IA a ganho de produtividade. Os dados controlados apresentam um quadro mais complexo, segmentado por perfil de experiência e tipo de tarefa.
| Estudo | Metodologia | Perfil | Resultado |
|---|---|---|---|
| Google Internal RCT (2024) | ~100 engenheiros, tarefa enterprise-grade (474 LOC, 10 arquivos) | Engenheiros Google (experientes) | +21% de velocidade com IA |
| Multi-Company RCT (2024) | ~5.000 devs, GitHub Copilot em ambiente real | Mix de senioridade | +26% média; juniors +35–39%; sêniors +8–16% |
| METR Open-Source RCT (2025) | 16 devs experientes, repos >1M LOC, 246 issues reais | Sêniores com anos no repo | -19%: IA os tornou MAIS LENTOS |
| Faros AI (2025) | Telemetria longitudinal, 10.000 devs, 1.255 times | Todos os níveis | +21% tasks; +98% PRs; +91% tempo em code review |
O estudo METR (Becker et al., 2025) merece atenção particular pela robustez metodológica: RCT com randomização por issue, desenvolvedores trabalhando em seus próprios repositórios de longa data, utilizando ferramentas de última geração (Cursor Pro com Claude 3.5/3.7). O resultado — 19% mais lento com IA — contraria a percepção dos próprios participantes, que estimavam ganho de 24% antes do experimento. Essa lacuna de percepção é, em si, um dado relevante: a confiança subjetiva na ferramenta pode divergir significativamente do impacto mensurável.
Limitação de Generalização: O resultado negativo do METR não invalida a utilidade da IA em outros contextos. O próprio estudo ressalva que os benefícios podem ser maiores para desenvolvedores menos experientes ou em codebases desconhecidos. A evidência disponível aponta para uma interação complexa entre experiência, familiaridade com o código e tipo de tarefa — não para uma conclusão universal.
3.2 O Gargalo de Revisão: Por Que Mais Código Não É Mais Valor
O relatório da Faros AI (2025), com dados de 10.000 desenvolvedores em 1.255 times, identifica um padrão recorrente: times com alta adoção de IA concluem 21% mais tarefas e fazem merge de 98% mais pull requests, mas o tempo de revisão de código aumenta 91%. O mecanismo subjacente é descrito pelos autores como uma instância da Lei de Amdahl: a velocidade do sistema é limitada pelo seu componente mais lento. Quando a geração de código acelera, o gargalo migra para a revisão — que exige julgamento humano sobre segurança, arquitetura e adequação ao contexto do produto.
O relatório da Bain & Company (2025) corrobora: times usando assistentes de IA registram 10–15% de ganho de produtividade individual, mas “o tempo economizado frequentemente não é redirecionado para trabalho de maior valor”, resultando em retornos que não se traduzem em impacto de negócio mensurável.
3.3 A Dimensão de Qualidade: Vulnerabilidades, Dívida Técnica e Code Slop

A aceleração no volume de código tem um custo documentado em qualidade e segurança que o debate sobre produtividade frequentemente subestima.
| Fonte | Métrica | Valor |
|---|---|---|
| Veracode (2025) | Tarefas de dev que introduzem vulnerabilidades OWASP Top 10 | 45% (>100 LLMs testados) |
| Pearce et al. / Georgetown CSET (2024) | Programas do Copilot com vulnerabilidades CWE Top 25 | ~40% de 1.689 programas |
| Apiiro Research (2025) | Novos findings de segurança/mês por código IA | 10.000+/mês — aumento de 10x |
| Apiiro Research (2025) | Aumento em privilege escalation paths em código IA | +322% |
| GitClear (2025) | Aumento no volume de código por dev vs 2022 | +75% |
| Google DORA Report (2024) | Queda em delivery stability com maior uso de IA | -7,2% |
| Faros AI (2025) | Aumento em code review time com alta adoção de IA | +91% |
O CTO da Veracode, Jens Wessling, denomina o fenômeno “vibe coding”: desenvolvedores que delegam a implementação à IA sem especificar requisitos de segurança, transferindo ao modelo decisões que ele toma incorretamente quase metade das vezes. O resultado estrutural é o que os pesquisadores do CSET (Georgetown, 2024) chamam de “AI-induced technical debt”: vulnerabilidades sem proprietário claro, código duplicado em escala e codebases que crescem em tamanho sem crescer em qualidade.
“Developers using AI are parallelizing more workstreams — but AI-augmented code is getting bigger and buggier, shifting the bottleneck to review.” — Faros AI Productivity Paradox Report, 2025
3.4 O Que a IA Não Faz: Competências de Alta Demanda e Baixa Automação

A segmentação do mercado de trabalho oferece um sinal prático sobre quais competências permanecem insubstituíveis. Dados de vagas e tendências salariais revelam uma bifurcação estrutural:
| Dimensão | Funções Commoditizadas pela IA | Funções de Alta Valorização Humana |
|---|---|---|
| Natureza da tarefa | Geração de boilerplate, autocomplete, refatoração local | Arquitetura de sistemas, trade-offs, revisão de segurança |
| Tendência de emprego (2023–2025) | Programador tradicional: -27,5% | Software Developer (design-oriented): -0,3% |
| Crescimento de vagas | Entry-level generalista: contração | AI Engineer: +143,2%; Prompt Engineer: +135,8% |
| Salário médio (EUA, 2025) | Entry-level: pressão descendente | AI Engineer: ~US$206.000/ano |
| Resistência a automação | Tarefas com contexto local limitado | System design, incidentes complexos |
A distinção que emerge dos dados do Bureau of Labor Statistics americano é reveladora: a função de “programmer” (execução de código) declinou 27,5%; a função de “software developer” (design e decisão) manteve-se estável (-0,3%) no mesmo período (Metaintro, 2026).
“AI can produce a web app quickly, but an expert engineer ensures the AI followed security best practices and didn’t introduce race conditions.” — Addy Osmani, 2025
O Stack Overflow Developer Survey (2025, n=49.000+) quantifica a resistência: 76% dos desenvolvedores não planejam delegar deployment e monitoring à IA; 69% não planejam usar IA em project planning. As categorias de maior resistência coincidem precisamente com as que exigem julgamento sistêmico — não execução local.
3.5 LeetCode, Entrevistas Técnicas e a Validade da Avaliação sob Pressão
A crítica recorrente às entrevistas com exercícios algorítmicos — “a IA resolve isso em segundos” — parte de uma premissa correta e chega a uma conclusão equivocada. A premissa é verdadeira: LLMs resolvem a maioria dos problemas de LeetCode de nível médio com alta consistência. A conclusão equivocada é que, portanto, o exercício não tem valor avaliativo.
O que uma entrevista técnica bem conduzida avalia não é a capacidade de memorizar um algoritmo — é a capacidade de:
- Decompor um problema ambíguo em subproblemas tratáveis (análise top-down)
- Articular trade-offs de complexidade de tempo vs. espaço antes de escrever uma linha de código
- Identificar edge cases a partir de leitura do problema, sem execução iterativa via prompt
- Manter raciocínio coerente sob pressão de tempo — proxy relevante para incidentes de produção
Essas capacidades não são acessórias à função de engenheiro — são centrais. Um engenheiro pleno ou sênior que “chega à metade do caminho sem escrever código” — articulando a arquitetura da solução, os riscos e as decisões de design antes da implementação — demonstra exatamente o raciocínio que diferencia o humano da ferramenta.
4. Dados e Resultados Consolidados
4.1 Adoção e Sentimento — Stack Overflow Developer Survey 2025
Metodologia: survey global com 49.000+ respondentes.
| Métrica | 2023 | 2024 | 2025 |
|---|---|---|---|
| Devs usando ou planejando usar IA | — | 76% | 84% |
| Sentimento positivo sobre IA | >70% | >70% | 60% |
| Devs que usam IA diariamente | — | — | 51% |
| Concordam que IA melhorou produtividade | — | — | 52% |
| Não confiam plenamente nos resultados da IA | — | — | 46% |
4.2 Segurança de Código — Veracode GenAI Code Security Report 2025
Metodologia: avaliação de >100 LLMs em 80 tarefas de codificação com potencial para vulnerabilidades CWE/OWASP.
| Linguagem | Taxa de Falha de Segurança (IA) |
|---|---|
| Java | >70% |
| Python | 38–45% |
| C# | 38–45% |
| JavaScript | 38–45% |
Limitação declarada: estudo baseado em tarefas curadas, não em codebases reais de produção.

5. Conclusão
A análise dos dados disponíveis sustenta uma posição que não é nem alarmista nem ingênua: a IA generativa é uma ferramenta de amplificação, não de substituição — mas o que ela amplifica depende criticamente do que o engenheiro traz para a interação.
Para desenvolvedores com menor experiência ou em codebases desconhecidos, a IA oferece ganhos mensuráveis de velocidade (26–39% em estudos controlados). Para engenheiros experientes operando em sistemas que conhecem profundamente, a mesma ferramenta pode introduzir fricção — ao exigir que se formulem problemas complexos como prompts, que se verifique output de qualidade incerta e que se gerencie contexto que o modelo não possui.
O diferencial competitivo do engenheiro sênior não está em digitar código mais rápido. Está em chegar à metade do caminho antes de escrever uma linha: identificar o problema real antes do descrito no ticket, propor arquitetura que o time valida em uma reunião, barrar uma decisão que custaria semanas de retrabalho, e fazer um ajuste cirúrgico em produção às 2h da manhã sem esperar 15 minutos de contexto de um prompt.
O mercado de trabalho confirma essa leitura com dados: enquanto vagas de programador generalista contraem (-27,5% entre 2023 e 2025), engenheiros com competências em arquitetura, segurança e integração de IA acumulam prêmio salarial crescente (AI Engineer: ~US$206.000/ano nos EUA). O código gerado pela IA ainda precisa de alguém que saiba que ele está errado — e por quê.
A questão em aberto que este artigo não resolve — e que a evidência empírica ainda não fechou — é a da trajetória de médio prazo: à medida que os modelos evoluem e o contexto de janela se expande, o ponto de inflexão onde a IA supera o engenheiro sênior em tarefas de alta complexidade se aproxima. Mas por enquanto, em 2026, o fundamento técnico humano não é nostalgia — é o mecanismo pelo qual se distingue sinal de ruído no output das ferramentas que, de fato, já fazem parte do arsenal obrigatório de qualquer equipe competitiva.
Referências
- Stack Overflow. “Developer Survey 2025 — AI Section.” survey.stackoverflow.co/2025/ai
- Becker, J.; Rush, N.; Barnes, E.; Rein, D. “Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity.” METR, julho de 2025.
- Wach, K. et al. “Multi-Company Industry RCT on GitHub Copilot — Microsoft, Accenture, Fortune 100.” SSRN, 2024.
- Faros AI. “AI Productivity Paradox Report 2025.” Telemetria de 10.000 desenvolvedores em 1.255 times.
- Veracode. “2025 GenAI Code Security Report.” Avaliação de >100 LLMs em 80 tarefas curadas.
- Pearce, H. et al. “An Empirical Cybersecurity Evaluation of GitHub Copilot’s Code Contributions.” IEEE S&P, 2022.
- Ji, J. et al. “Cybersecurity Risks of AI-Generated Code.” CSET, Georgetown University, novembro de 2024.
- GitClear. “State of AI-Assisted Software Development.” Outubro de 2025.
- Apiiro Research. “4x Velocity, 10x Vulnerabilities: AI Coding Assistants Are Shipping More Risks.” Setembro de 2025.
- Google DORA. “State of AI-Assisted Software Development 2024.” Setembro de 2024.
- Faros AI / Laura. “93% of Developers Use AI — Productivity Only 10%.” Nov. 2025–fev. 2026.
- Bain & Company. “From Pilots to Payoff: Generative AI in Software Development.” Technology Report 2025.
- Metaintro. “AI Reshapes Engineering Careers.” Análise de ~3 milhões de vagas; Bureau of Labor Statistics (EUA). Janeiro de 2026.
- Osmani, A. “The Next Two Years of Software Engineering.” 2025.
- Schreiber, M.; Tippe, P. “Security Vulnerabilities in AI-Generated Code.” arXiv:2510.26103, outubro de 2025.