Home TecnologíaHumanidades contra STEM: la apuesta real en la era de la IA

Humanidades contra STEM: la apuesta real en la era de la IA

by Phoenix 24

El futuro no premia lo obvio.

San Francisco, febrero de 2026.

En el debate sobre qué estudiar para “no quedarse atrás”, la presidenta de Anthropic, Daniela Amodei, puso una bomba silenciosa sobre la mesa: el valor de las humanidades no se reduce con la inteligencia artificial, puede crecer. Su argumento no es romántico ni anti ingeniería, es pragmático. A medida que los modelos se vuelven más competentes en tareas de ciencia, tecnología, ingeniería y matemáticas, el diferencial humano se desplaza hacia lo que esos modelos todavía simulan con torpeza: sentido, contexto, intención, ética, ambigüedad y comprensión de personas. La discusión, entonces, deja de ser humanidades o ciencias, y se vuelve qué tipo de pensamiento te hace irremplazable cuando la técnica se abarata.

La premisa central es incómoda porque choca con el consejo clásico de los últimos veinte años: “aprende a programar”. Amodei reconoce que programar, diseñar sistemas y resolver problemas complejos seguirá siendo importante, pero sostiene que el foco se moverá hacia enseñar a la IA a interactuar de forma más humana y más alineada con objetivos sociales. Esa frase no es retórica de empatía, es estrategia de producto y de riesgo. Anthropic, cuyo posicionamiento gira en torno a seguridad y alineación, entiende que la próxima ventaja competitiva no será solo la capacidad bruta, sino la confianza operativa. Y la confianza, en sistemas generativos, se construye con criterios que nacen tanto de filosofía, lingüística, psicología y derecho, como de matemáticas.

Cuando un laboratorio de frontera dice que el futuro exige más humanidades, hay que leer entre líneas qué tipo de trabajo se está volviendo escaso. Los modelos ya escriben código, depuran, documentan y proponen arquitecturas con una velocidad que presiona a las profesiones técnicas a reconfigurarse. En ese escenario, el “buen programador” se parece menos a un mecanógrafo de sintaxis y más a un director de intención: define el problema, traduce restricciones humanas, evalúa daños colaterales y decide qué no debe hacerse. Ahí entran habilidades que se entrenan en disciplinas interpretativas, donde el texto, el contexto y la ambivalencia no son fallas, sino material de trabajo. Por eso la frase no ataca a STEM, la reposiciona dentro de un ecosistema más amplio.

La lectura internacional del tema refuerza ese giro. El Foro Económico Mundial, al proyectar habilidades clave hacia el final de la década, insiste en pensamiento analítico, creatividad, resiliencia, curiosidad y aprendizaje continuo, junto con liderazgo e influencia social y pensamiento sistémico. Ese listado no es un poema, es un termómetro de empleadores globales. En paralelo, la orientación de UNESCO sobre IA generativa en educación insiste en una visión centrada en lo humano y en capacidades para usar estas herramientas sin perder agencia, criterio y responsabilidad. Visto desde Europa, el problema ya no es formar técnicos que sepan operar máquinas, sino ciudadanos y profesionales que sepan gobernar decisiones mediadas por máquinas.

Asia agrega una capa de tensión que suele omitirse en conversaciones occidentales. El mensaje de Amodei fue amplificado por medios en India, donde la ansiedad por empleabilidad convive con ecosistemas de ingeniería masivos. En esa región, la pregunta no es solo qué estudiar, sino quién gana poder cuando el conocimiento técnico se vuelve más accesible mediante sistemas generativos. Si un estudiante puede construir prototipos con ayuda de IA, la ventaja competitiva se mueve hacia quienes entienden dominio, regulación, negociación cultural y diseño de comportamiento. En otras palabras, hacia quienes saben interpretar humanos, no solo compilar instrucciones.

El punto más delicado es que “humanidades” no significa solo leer novelas, significa comprender cómo opera una mente, una institución y una cultura bajo presión. En crisis reputacionales, en conflictos de desinformación y en decisiones automatizadas que afectan crédito, salud o justicia, el error no suele venir de una fórmula mal aplicada, sino de un supuesto humano mal modelado. La IA puede optimizar lo que le pides, incluso si lo que le pides está mal planteado. Ahí la habilidad valiosa es formular preguntas correctas, detectar sesgos, anticipar efectos secundarios y reconocer cuándo una respuesta “suena” convincente pero es frágil. Esa forma de criterio se entrena con historia, ética, teoría social y pensamiento crítico, no solo con cálculo.

Sin embargo, hay una trampa en convertir esto en moda. Decir “estudia humanidades” puede terminar siendo un eslogan vacío si se interpreta como licencia para evitar lo técnico. La tesis más sólida es híbrida: la técnica sigue siendo una llave de entrada, pero deja de ser un escudo definitivo. La competencia real será entre quienes dominan herramientas y, además, poseen juicio para usarlas con propósito y límites. Quien no entiende lo básico de datos, modelos y riesgos operativos se vuelve dependiente, y quien solo entiende lo técnico sin comprender humanos se vuelve peligroso o irrelevante.

Aquí aparece el silencio institucional que muchas universidades todavía no quieren nombrar: el currículum tradicional está diseñado para un mundo donde el conocimiento era escaso y la ejecución era cara. Ese mundo se está moviendo. Cuando la ejecución se abarata, el valor migra a la definición del problema, al criterio de calidad, a la gobernanza y a la responsabilidad. Si la universidad sigue premiando memorización, procedimientos rígidos y tareas que una IA hace en segundos, no está formando profesionales, está entrenando dependencia. El estudiante que sobreviva no será el que acumule “skills” como estampas, sino el que aprenda a pensar con elasticidad y a decidir con claridad.

En el fondo, la pregunta “humanidades o ciencias” funciona como distracción porque sugiere una frontera que el mercado ya está borrando. Lo que viene es una economía donde la capacidad técnica se vuelve común y la capacidad humana de juicio se vuelve diferencial. La presidenta de un laboratorio de frontera no está vendiendo nostalgia por lo humanista, está describiendo un reequilibrio de poder: quien entienda mejor a las personas y a los sistemas sociales tendrá más control sobre cómo se despliegan estas máquinas. El empleo del futuro no se define por lo que la IA puede hacer, sino por lo que tú puedes decidir cuando la IA ya puede hacerlo casi todo.

La narrativa también es poder. / Narrative is power too.

You may also like