Una amenaza silenciosa combina algoritmos y engaño para explotar vulnerabilidades tecnológicas y desproteger activos financieros.
Ciudad de México, octubre de 2025
El crecimiento explosivo de la inteligencia artificial no solo promete avances disruptivos sino también nuevos vectores de riesgo. En América Latina, bancos y usuarios se enfrentan ya a una modalidad de fraude digital alimentada por IA: hackers que copian voces, inventan gestos faciales o generan documentos falsos con tal realismo que pueden engañar a sistemas de verificación biométrica. Este fenómeno representa un salto cualitativo en la sofisticación del cibercrimen financiero.
Según especialistas consultados por medios regionales y análisis internos de instituciones bancarias, los ataques más frecuentes incluyen clonaciones de voz para autorizar transferencias, deepfakes de rostro para validaciones de identidad remota, generación de chats falsos que simulan atención al cliente y phishing personalizado con datos públicos. En muchos casos, el atacante combina estos métodos para superar capas de seguridad —validación biométrica, códigos en tiempo real y autenticación de múltiples factores— con una técnica híbrida.
Los bancos latinoamericanos enfrentan un doble desafío: por un lado, escalar sus sistemas de seguridad lo suficiente para detectar la firma digital, el patrón de uso y las anomalías con base en IA avanzada; por otro, evitar que esas defensas se conviertan en barreras para la experiencia del cliente. Instituciones de Chile, México y Brasil han informado que intentan reforzar sus modelos de detección de fraude con aprendizaje automático supervisado y no supervisado, monitoreo de comportamiento histórico y verificación cruzada de dispositivos.
En paralelo, los estados y organismos reguladores de la región deben actualizar marcos legales que contemplen la responsabilidad en ataques con inteligencia artificial generativa. Muchos códigos fintech actuales no reconocen la posibilidad de que un algoritmo pueda “suplantar” la identidad biométrica de un cliente, lo que complica la atribución y sanción de estos delitos.
Para los usuarios, la principal recomendación es reforzar hábitos: activar notificaciones en tiempo real, revisar alertas de transacciones sospechosas al instante, limitar los permisos dados a aplicaciones bancarias (especialmente el acceso a micrófono o cámara) y desconfiar de solicitudes de verificación vía voz o video no solicitadas. También es vital usar dispositivos actualizados, evitar redes Wi-Fi públicas para transacciones sensibles y emplear contraseñas robustas que no dependan de datos personales públicos.
El incremento de estos fraudes ya empieza a gestar una carrera armamentista tecnológica: los bancos que se adapten con rapidez y eficacia ganarán ventaja, mientras que aquellos que se rezaguen quedarán expuestos. En última instancia, la defensa frente a ataques con IA no será solo técnica, sino cultural: educar al público, generar confianza en mecanismos de mitigación y mantener un ecosistema digital con estándares mínimos de seguridad transparentes.
La narrativa también es poder. / Narrative is power too.