Assessment Técnico

Avaliação de Devs na Era da IA Quando as entrevistas técnicas pararam de funcionar.

Uma empresa publicou no HN: 'We made a hiring challenge because Claude can 1-shot our interviews.' Outra perguntou: 'Why hiring feels impossible now: employers can't tell who's good.' A confiança dos devs na precisão da IA caiu de 40% para 29% (Stack Overflow 2025), mas 84% dizem usar ou planejar usar IA. O problema não é a ferramenta — é que ninguém sabe avaliar quem realmente sabe usar a ferramenta.

O Problema

O Colapso dos Critérios de Avaliação

LeetCode, HackerRank e exercícios de algoritmo foram projetados para avaliar o que a IA faz em segundos. O Stack Overflow Survey 2025 mostra que a habilidade que mudou não é sintaxe — é julgamento arquitetural, capacidade de revisão de código e conhecimento de domínio que IA não tem. Mas nossos processos de avaliação ainda testam a primeira.

IA passa no que o processo testa

Claude 1-shot entrevistas técnicas padrão. Isso não significa que Claude é um dev senior — significa que o processo estava testando a coisa errada. O filtro foi projetado para um mundo que não existe mais.

Os que sabem usar IA parecem iguais aos que não sabem

Um dev que usa Claude Code estruturalmente (revisão, testes, contexto explícito) entrega 5x mais. Um que usa como autocomplete não entrega mais que antes. Em entrevista, os dois mostram o mesmo código. Você não sabe qual contratou até 3 meses depois.

O débito técnico invisível de código AI-gerado

45% dos devs dizem que debugar código gerado por IA leva mais tempo do que teria levado escrever. Código duplicado cresceu 8x em dois anos (GitClear). Quem entregou rápido com IA pode ter acelerado a entrega de hoje ao custo da manutenção de amanhã.

Juniores competem com ferramentas, não com pessoas

Stanford: emprego de devs entre 22-25 anos caiu quase 20% desde o pico de 2022. 70% dos gerentes acreditam que IA faz o trabalho de estagiários. O pipeline de senioridade está sendo cortado — e daqui 5 anos a conta aparece.

Nossa Abordagem

Como Avaliamos e Desenvolvemos Capacidade Técnica Real

Não testamos sintaxe. Testamos julgamento. E quando o julgamento ainda não está lá, desenvolvemos — com contexto de como IA amplifica quem pensa bem e expõe quem não pensa.

1

Assessment de Capacidade Real — O que o dev entrega, não o que ele conhece

Avaliações baseadas em tarefas reais do seu contexto, não em problemas de algoritmo genérico. Revisão de código com IA — sabe identificar onde o agente errou? Decisão arquitetural — consegue justificar o trade-off sem prompt? Esses são os critérios que importam agora.

2

Avaliação de Maturidade com IA — Quem usa como amplificador vs. muleta

Um dev que usa IA estruturalmente faz perguntas melhores ao agente, revisa com critério de domínio, documenta o raciocínio da decisão. Um que usa como muleta aceita o primeiro output. Avaliamos qual é qual com metodologia que IA não consegue passar.

3

Programa de Desenvolvimento — Para os que precisam chegar lá

Para equipes que precisam elevar o nível de uso de IA, desenvolvemos trilhas práticas: como estruturar contexto para o agente, como revisar código AI-gerado, como identificar onde o agente mente com confiança. Não é teoria — é prática no seu stack.

4

Processo de Avaliação que Você Replica — Autonomia, não dependência

Documentamos o processo de avaliação, os critérios e os sinais de alerta para que seu time de RH e liderança técnica consiga aplicar sem nós. O objetivo é você ter o processo — não depender de nós para cada contratação.

Resultados

O que entregamos

Prova Real

Filtro que IA não passa

Avaliações baseadas em julgamento arquitetural, revisão de código e capacidade de articular trade-offs — não em LeetCode que Claude resolve em segundos.

5x Delta

Diferencia quem usa bem de quem usa mal

O dev que entrega 5x mais com IA vs. o que entrega igual ao que entregava antes. A diferença é real e mensurável — mas invisível em entrevista padrão.

ROI Visível

Equipe que usa IA estruturalmente

Time que sabe como estruturar contexto, revisar output e identificar onde o agente erra. Não 'AI literacy' — uso operacional que aparece no DRE.

Pipeline

Pipeline de Senioridade Preservado

Juniores que aprendem a usar IA como amplificador desde o início desenvolvem julgamento mais rápido que a geração anterior. Com trilha certa, o pipeline volta a funcionar.

Autônomo

Processo que Você Replica

Documentação completa dos critérios, exercícios e sinais de avaliação. Seu time de RH e liderança técnica consegue aplicar o processo sem consultoria contínua.

22 anos

Contexto de Domínio, não Teoria

22 anos de experiência em saúde, e-commerce, logística e finanças. Os exemplos de avaliação e desenvolvimento são do contexto onde erros têm consequência — não de tutorial de YouTube.

Sua equipe sabe usar IA ou acha que sabe?

A diferença aparece na manutenção, na segurança e no DRE. Avaliamos e desenvolvemos capacidade técnica real para a era dos agentes.