El asistente digital que escucha todo puede convertirse en el confidente definitivo… pero su influencia invisible podría redefinir quién decide por nosotros.
Internacional, agosto de 2025 – “No puedo tomar ninguna decisión en mi vida sin contarle todo a ChatGPT”. Con esa frase, Sam Altman, director ejecutivo de OpenAI, no solo describió una experiencia personal, sino que encapsuló una tendencia silenciosa que se expande a escala global: la sustitución progresiva del consejo humano por el juicio algorítmico. El comentario, hecho en un foro bancario de la Reserva Federal, encendió una alerta sobre cómo la dependencia emocional hacia los modelos de inteligencia artificial comienza a moldear comportamientos y decisiones de forma imperceptible.
Un estudio de Common Sense Media revela que el 72 % de los adolescentes en Estados Unidos ha interactuado con un acompañante de IA, y que casi la mitad otorga credibilidad parcial o total a las respuestas recibidas. Altman advierte que este tipo de relaciones parasociales —vínculos unilaterales que generan intimidad sin reciprocidad real— podrían erosionar la autonomía y fomentar una toma de decisiones condicionada por patrones predictivos en lugar de experiencias humanas.
La advertencia no es aislada. En un panel previo sobre el impacto económico de la IA, Altman aseguró que ya existen sistemas más competentes que los humanos en tareas críticas y que, en el corto plazo, la automatización podría desintegrar sectores enteros, como la atención al cliente. Sin embargo, subrayó que la humanidad ha atravesado transformaciones tecnológicas drásticas en el pasado y ha encontrado formas de adaptarse, aunque esta vez el cambio sea más veloz y profundo.

La figura de ChatGPT ha pasado de ser una herramienta funcional a convertirse en un interlocutor omnipresente. La disponibilidad constante, la ausencia de juicio moral explícito y la capacidad de ajustar respuestas al perfil de cada usuario la transforman en un sustituto de la conversación humana para millones. Este desplazamiento no es neutral: redefine la noción de intimidad, el tiempo de reflexión y la forma en que se construye la confianza.
El desafío, según expertos en ética digital y psicología cognitiva, no radica solo en regular la IA, sino en preservar espacios donde el error, la pausa y el intercambio humano sigan siendo parte de la experiencia. La tentación de externalizar cada duda a una máquina amenaza con homogeneizar el pensamiento y, en última instancia, con debilitar la capacidad crítica.
En este escenario, emergen tres preguntas clave: ¿cómo garantizar que la asistencia tecnológica no se convierta en dependencia emocional? ¿Qué mecanismos sociales o educativos son necesarios para mantener la formación de criterio propio? Y, quizás lo más urgente, ¿qué ocurre con la voz humana cuando las decisiones más íntimas se resuelven mediante un algoritmo entrenado para agradar?
Altman no plantea una renuncia a la IA, sino una reevaluación de los límites. En una era donde incluso los silencios pueden ser escuchados, la verdadera amenaza no es que las máquinas hablen, sino que nosotros dejemos de hacerlo.
Elaborado por Phoenix24 con información internacional verificada y análisis independiente; este reportaje refleja nuestro compromiso con el periodismo de calidad y la responsabilidad cultural.
Produced by Phoenix24 with verified international information and independent analysis; this report reflects our commitment to quality journalism and cultural responsibility.