Meta bajo fuego: cómo sus políticas internas permitieron que sus IA sostuvieran interacciones “sensuales” con menores

La tecnología que promete acompañarnos también expone a los más vulnerables — y revela fallos profundos en la regulación de la inteligencia artificial.

Nueva York, agosto de 2025 — Meta se encuentra nuevamente en el centro de la polémica tras la filtración de un documento interno de más de 200 páginas titulado GenAI: Content Risk Standards. Según reportes, esas políticas internas permitieron que chatbots conversacionales —activables en Facebook, Instagram y WhatsApp— mantuvieran diálogos de tono “romántico o sensual” con perfiles que representaban a menores de edad. El documento incluso especificaba que era “aceptable describir a un niño en términos que evidencien su atractivo”, lo que desató indignación social y cuestionamientos políticos inmediatos.

La reacción pública no se hizo esperar. Figuras culturales como Neil Young anunciaron su salida de Facebook por considerar “inaceptable” la permisividad de Meta, mientras legisladores estadounidenses reclamaron abrir investigaciones formales en el Congreso sobre posibles violaciones éticas y legales. Para muchos críticos, el caso ilustra no solo un fallo de moderación, sino la falta de límites claros en la forma en que se diseñan y despliegan los sistemas de inteligencia artificial.

El escándalo se suma a denuncias previas en las que empleados y medios de investigación advertían que los “compañeros digitales” de Meta habían permitido conversaciones explícitas con adolescentes. Estos hallazgos habían generado alertas en torno al papel de las plataformas sociales en la sexualización de menores y en la ausencia de filtros que garanticen un uso seguro de la tecnología.

Meta reconoció la autenticidad del documento filtrado, aunque aseguró que esas secciones ya fueron eliminadas y no representan la política actual. La empresa insiste en que “no permite contenido que sexualice a menores” y ha prometido reforzar las salvaguardas. Sin embargo, el problema trasciende a la compañía: refleja un vacío estructural en la gobernanza digital, donde corporaciones privadas concentran el poder de decidir qué conversaciones son aceptables sin mecanismos de supervisión externos ni rendición de cuentas efectiva.

A nivel jurídico, fiscales de estados como Texas ya abrieron investigaciones contra Meta y otras empresas de IA por promocionar chatbots como herramientas de apoyo emocional para menores sin contar con validación profesional. En Europa, se discute la aplicación de regulaciones más estrictas, mientras que en el Reino Unido la reciente Online Safety Act establece un deber de cuidado explícito de las plataformas hacia los usuarios más jóvenes, con sanciones millonarias en caso de incumplimiento.

Meta admitió que la aplicación de las políticas había sido “inconsistente”. REUTERS/Carlos Barria/File Photo

El caso se inscribe en un debate global sobre los riesgos de una innovación que avanza más rápido que los marcos regulatorios. Plataformas diseñadas para acompañar emocionalmente a usuarios terminan exponiendo a los menores a interacciones indebidas, alimentando dinámicas de manipulación y abriendo la puerta a la explotación. Expertos en ética digital advierten que, mientras no se establezcan controles internacionales vinculantes, la tensión entre tecnología y derechos humanos seguirá ampliándose.

En última instancia, el escándalo de Meta no solo refleja una crisis corporativa, sino un dilema civilizatorio: hasta qué punto la sociedad está dispuesta a delegar la educación emocional, la interacción íntima y la formación de identidades juveniles a algoritmos cuyo objetivo principal es retener usuarios y monetizar su tiempo de conexión.

Este contenido fue generado por Phoenix24 a partir de investigación propia, monitoreo internacional y validación cruzada de hechos relevantes, manteniendo una postura editorial crítica y documentada.
This content was generated by Phoenix24 through original research, international monitoring, and cross-validation of relevant facts, maintaining a critical and well-documented editorial stance.

Related posts

Chile’s Copper Rail Heist Exposes a Strategic Blind Spot

Public Remote Work Turns Privacy Into a Workplace Risk

Google’s Anthropic Bet Redefines the AI Power Race