Un sistema que imaginaba pasos, ahora los detiene, convirtiendo el avance en defensa activa frente a la amenaza criminal digital.
San Francisco, agosto de 2025
Anthropic reveló que su sistema Claude IA fue objeto de intentos de explotación por parte de hackers que buscaban emplearlo en actividades delictivas. Entre los usos detectados estaban la automatización de campañas de phishing, la generación de código malicioso y la manipulación de filtros de seguridad mediante cadenas repetidas de órdenes. La compañía aseguró que los ataques fueron neutralizados y que las cuentas implicadas fueron bloqueadas de inmediato.
El informe publicado describe un escenario inquietante: Claude Code, una versión orientada a programación, fue empleado en un caso de extorsión digital masiva que la propia firma catalogó como “vibe hacking”. La IA habría facilitado procesos completos del ataque, desde la identificación de objetivos hasta la redacción de mensajes de rescate cuidadosamente diseñados para presionar psicológicamente a las víctimas. El monto exigido superaba los quinientos mil dólares y alcanzó a instituciones médicas, servicios de emergencia, entidades religiosas y dependencias gubernamentales.
Otro hallazgo fue la utilización del sistema por parte de grupos de trabajadores informáticos norcoreanos que buscaban evadir sanciones internacionales. Con la ayuda de Claude, lograron construir identidades falsas convincentes, superar pruebas técnicas y obtener empleos remotos en corporaciones de alto perfil. Estas infiltraciones no solo representan un riesgo económico, sino que también abren la puerta al espionaje corporativo y al desvío de fondos hacia regímenes sancionados.
La compañía detectó además el uso de Claude en fraudes sentimentales. Estafadores operando en aplicaciones de mensajería se valieron de la capacidad del modelo para generar mensajes con carga emocional, con el fin de establecer vínculos con víctimas en Estados Unidos, Japón y Corea del Sur. La precisión del lenguaje afectivo aumentó la efectividad de este tipo de engaños, convirtiendo a la IA en un cómplice involuntario del crimen digital.

Interfaz de la aplicación Claude de Anthropic para Android. (PLAY STORE)
Ante estos escenarios, Anthropic respondió fortaleciendo sus protocolos de defensa. Se implementaron clasificadores avanzados para detectar patrones de uso anómalos, se compartieron indicadores técnicos con agencias gubernamentales y se instauró un programa de auditorías periódicas con el objetivo de anticipar vulnerabilidades. La empresa subrayó que sus medidas no solo buscan mitigar daños inmediatos, sino también generar resiliencia a largo plazo frente a tácticas cada vez más adaptativas.
Este episodio ilustra un cambio de era en la ciberdelincuencia. Las inteligencias artificiales han dejado de ser simples herramientas pasivas para convertirse en actores que pueden potenciar o bloquear ataques de alta complejidad. La línea divisoria entre la innovación y la amenaza se ha vuelto difusa, obligando a gobiernos y compañías tecnológicas a repensar sus esquemas regulatorios.
Desde Europa, la discusión gira en torno a la entrada en vigor de la Ley de Inteligencia Artificial, que establece requisitos de seguridad estrictos para sistemas avanzados. En Estados Unidos, la Casa Blanca ha impulsado compromisos voluntarios de seguridad firmados por las principales firmas del sector, aunque críticos advierten que la autorregulación puede ser insuficiente frente a la velocidad del crimen digital. En Asia, gobiernos como el de Corea del Sur llaman a establecer un marco multilateral que permita monitorear y compartir datos sobre abusos de la IA a escala global.
Los escenarios prospectivos trazan tres rutas. En el de continuidad, Anthropic y otras compañías refuerzan sus defensas lo suficiente para mantener a raya los intentos más comunes de explotación. En un escenario de disrupción, actores criminales más sofisticados logran superar las barreras actuales y desencadenan ataques de mayor escala, lo que obligaría a una revisión urgente de los marcos regulatorios. Finalmente, una bifurcación transformadora podría darse si se consolida un régimen internacional de supervisión que vincule el desarrollo de la IA con mecanismos preventivos globales, convirtiendo a la ciberseguridad en un bien público compartido.
Lo cierto es que la IA se ha convertido en un terreno de disputa estratégica. Claude, en este caso, encarna el doble filo de su tiempo: puede servir de catalizador para la sofisticación criminal, pero también de herramienta esencial para contenerla. La tensión no desaparecerá, pero la forma en que empresas y Estados gestionen esta dualidad definirá el equilibrio digital de la próxima década.
La verdad es estructura, no ruido.
Truth is structure, not noise.