Menos tecleo, más criterio bajo presión.
Ciudad de México, marzo de 2026
La inteligencia artificial no está “quitando” el trabajo a los programadores en el sentido banal de reemplazarlos por completo. Lo que está haciendo es algo más silencioso y, por eso, más profundo: está cambiando la unidad de valor del oficio. Durante décadas, el prestigio técnico se midió por cuánto código podías producir, qué tan rápido y con qué elegancia. Hoy, en demasiados equipos, el código ya no es el centro del esfuerzo humano. La parte humana se está desplazando hacia la supervisión, la corrección, el diseño de decisiones y el control de riesgos. Infobae lo sintetiza con una idea que ya se siente cotidiana en la industria: muchos ingenieros escriben menos líneas y pasan más tiempo dirigiendo a la máquina, revisándola o “traduciéndola” al mundo real.
Esta transición no se explica solo por moda. Tiene tres motores estructurales. El primero es la madurez de los asistentes de programación, que dejaron de ser un autocompletado glorificado y se convirtieron en herramientas capaces de proponer funciones completas, pruebas, documentación y refactors. El segundo es la presión empresarial por velocidad, donde entregar rápido se volvió una ventaja competitiva incluso cuando aumenta el riesgo técnico. El tercero es el cambio cultural: la programación dejó de verse como artesanía individual y se consolidó como producción en cadena de sistemas vivos, donde lo difícil no es escribir una función, sino mantenerla segura, escalable y entendible a lo largo del tiempo.
Los datos de adopción ayudan a dimensionar el giro. Encuestas globales recientes en comunidades de desarrolladores muestran que una mayoría abrumadora ya utiliza herramientas de IA en su flujo de trabajo, y que un porcentaje significativo lo hace a diario. Esto no significa que la máquina “haga todo”, pero sí indica que el asistente dejó de ser opcional. Para muchos, se volvió parte del entorno básico de trabajo. En paralelo, empresas grandes han reconocido públicamente que una fracción relevante de su nuevo código ya se genera con ayuda de IA y luego pasa por revisión humana antes de integrarse. Lo crucial es esa segunda parte: revisión humana. La IA produce, el humano valida. El punto de quiebre es que validar bien puede costar más que escribir mal, y ahí empieza el conflicto.
La industria ya está observando un fenómeno que parece paradoja: aumenta la velocidad, pero también aumenta el “trabajo invisible”. Cuanto más código sugiere la IA, más crece la necesidad de inspeccionar supuestos, dependencias, licencias, seguridad y coherencia con la arquitectura existente. La máquina puede escribir rápidamente algo que compila, pero no necesariamente algo que encaje. Además, los modelos tienden a producir código con una estética convincente, lo suficiente para engañar al ojo cansado, y eso hace que los errores sean más peligrosos: menos obvios, más sutiles, más fáciles de pasar a producción. De ahí surge una nueva forma de deuda, no solo técnica, sino de verificación: la acumulación de decisiones no revisadas con el rigor adecuado.
Ese riesgo se vuelve más tangible cuando se mira el comportamiento real en equipos. En encuestas de mercado difundidas en los últimos meses, una parte importante de desarrolladores admite que no verifica de manera consistente el código generado por IA antes de integrarlo, incluso cuando reconocen que no confían plenamente en su corrección funcional. La razón declarada suele ser brutalmente pragmática: revisar a fondo puede tardar más que revisar el trabajo de un colega, porque el código de la IA “parece correcto” y obliga a rastrear detalles ocultos. El resultado es una tentación organizacional: aceptar velocidad a cambio de incertidumbre, con la esperanza de que los errores aparezcan en pruebas o, peor, en producción.
El ecosistema también está mostrando señales de dependencia psicológica. Un ejemplo reciente lo dejó claro: cuando un asistente popular sufrió interrupciones, numerosos ingenieros describieron que su productividad se desplomó y que tuvieron que “volver a programar como antes”, como si se tratara de una regresión. Ese tipo de reacción no es solo comodidad. Es reconfiguración de hábitos cognitivos. Cuando una herramienta se convierte en muleta diaria, el músculo de resolución manual se debilita, y no porque la gente sea menos capaz, sino porque el sistema recompensa no usarlo. La IA no necesita prohibirte aprender. Solo necesita hacerte sentir que aprender es ineficiente.
Aquí aparece el cambio más relevante del oficio: el programador se parece menos a un escritor de código y más a un editor y arquitecto de sistemas. Su ventaja ya no es teclear, sino formular bien el problema, definir interfaces, anticipar fallos, escoger compromisos y decidir qué no se debe automatizar. La habilidad central se está moviendo hacia la ingeniería del juicio. En equipos maduros, esto puede ser excelente, porque libera tiempo para lo que realmente importa: diseño, calidad, seguridad y producto. En equipos inmaduros, puede ser desastroso, porque convierte la IA en sustituto de criterio y reduce la cultura de revisión a una formalidad.
El impacto se siente con fuerza en el talento junior. Si el código “básico” lo genera la máquina, ¿dónde aprende el junior los fundamentos? La respuesta saludable sería: aprende revisando, probando, entendiendo y corrigiendo. Pero eso requiere mentores, procesos y paciencia, precisamente lo que muchas organizaciones recortan cuando la presión por entregar domina. El riesgo es que se cree una brecha: seniors que aún entienden el sistema y juniors que operan el asistente sin construir intuición profunda. A mediano plazo, eso debilita a la industria, porque los sistemas se vuelven más complejos justo cuando se reduce el número de personas capaces de comprenderlos sin ayuda.
Nada de esto implica que la IA sea enemiga del software. Implica que el software está entrando en una fase donde la productividad no puede medirse solo por líneas de código y entregas rápidas. Debe medirse por confiabilidad, mantenibilidad y seguridad. La IA puede acelerar, sí, pero también puede homogeneizar malas prácticas, amplificar errores repetibles y aumentar la superficie de ataque si el control humano se relaja. El nuevo contrato del oficio es simple y exigente: la máquina puede escribir, pero el humano responde por lo que entra al sistema.
El patrón de fondo es inevitable: cada vez se escribirá menos código “desde cero” y cada vez se decidirá más sobre código generado. La pregunta no es si ocurrirá, sino si la industria construirá disciplina para que ese cambio eleve la calidad en lugar de degradarla. En esta etapa, el mejor programador no es el que produce más, sino el que detecta antes dónde la IA está equivocándose con estilo convincente. Y esa es una habilidad menos glamorosa, pero mucho más valiosa.
Hechos que no se doblan. / Facts that do not bend.