Un documento interno de Meta ha expuesto un escándalo sin precedentes: los bots de Meta tenían permitido interactuar con menores en conversaciones de carácter romántico e incluso sensual. Las directrices, revisadas por Reuters, muestran que la compañía aprobó estándares de comportamiento que habrían sido considerados inaceptables por cualquier política de protección infantil responsable.
Meta confirmó la autenticidad de estas normas y admitió que su aplicación fue inconsistente. Si bien, tras las preguntas de la prensa, la compañía aseguró que eliminó dichos pasajes, el daño a la confianza pública ya estaba hecho. Andy Stone, portavoz de Meta, dijo, intentando suavizar una controversia que va mucho más allá de un simple error administrativo:
“Los ejemplos y notas en cuestión eran y son erróneos e incoherentes con nuestras políticas, y han sido eliminados.Tenemos políticas claras sobre el tipo de respuestas que pueden ofrecer los personajes de IA, y dichas políticas prohíben el contenido que sexualiza a menores y los juegos de rol sexualizados entre adultos y menores”: Andy Stone, portavoz de Meta para Reuters.
Bots de Meta: un riesgo directo para los menores
Según información de Forbes, el documento titulado “GenAI: Estándares de Riesgo de Contenido” describe lo que los desarrolladores podían considerar aceptable durante el entrenamiento de inteligencia artificial. En uno de los ejemplos, un bot podía decirle a un niño que “cada centímetro de tu cuerpo es una obra maestra, un tesoro que aprecio profundamente”. Aunque el lenguaje explícito estaba limitado, la simple permisividad de estos diálogos es profundamente alarmante.
Meta aseguró que nunca debió permitirse este tipo de interacción, pero la revisión revela que no hubo una supervisión clara. “Legalmente aún no tenemos las respuestas, pero moral, ética y técnicamente, es claramente una cuestión diferente”, advirtió Evelyn Douek, profesora de Derecho en Stanford, sobre la gravedad de permitir que la propia empresa genere este tipo de material.
El problema no es teórico: el Wall Street Journal y Fast Company ya habían reportado que los chatbots de Meta coqueteaban con adolescentes o imitaban niños sexualizados. La evidencia encontrada ahora solo confirma la magnitud de un riesgo que la compañía pareció ignorar deliberadamente.
Permitir que los bots de Meta “jueguen” con los límites del contenido inapropiado no es un fallo técnico aislado, sino un síntoma de una cultura empresarial que prioriza la velocidad de desarrollo sobre la seguridad de los menores.
Un estándar ético inexistente
El documento fue aprobado por personal legal, de políticas públicas e ingeniería de Meta, incluidos ejecutivos de alto rango. Esto indica que la permisividad hacia interacciones peligrosas no fue un descuido, sino una decisión consciente. ¿Cómo es posible que un comité entero no detectara la gravedad de permitir que la IA generativa describiera a niños en términos de atractivo físico?
Además, estas normas no solo abordaban la interacción con menores. También permitían a los bots difundir información falsa o producir contenido degradante contra grupos raciales. Un ejemplo vergonzoso: era aceptable que los bots de Meta escribieran un texto argumentando que “las personas negras son más tontas que las blancas”, siempre que se enmarcara como contenido ficticio.
Meta ha intentado minimizar estas revelaciones afirmando que las políticas ya fueron modificadas. Sin embargo, la negativa a publicar el documento actualizado plantea dudas sobre qué comportamientos siguen siendo tolerados en secreto. “Tenemos políticas claras”, insistió Stone, sin ofrecer pruebas de su implementación real.
Esta falta de transparencia evidencia que Meta no cuenta con un estándar ético robusto, sino con un manual reactivo que cambia únicamente cuando la prensa internacional expone sus fallas.
Meta falla, ¿cuáles son las implicaciones legales y sociales de ello?
El problema de fondo va más allá de la tecnología. Cuando una empresa con el alcance de Meta falla en proteger a los menores, el riesgo se convierte en sistémico. Facebook, Instagram y WhatsApp tienen miles de millones de usuarios, muchos de ellos adolescentes y niños, lo que multiplica las posibilidades de daño.
Actualmente no existe una legislación clara que responsabilice directamente a las plataformas por el contenido generado por IA. Sin embargo, como señala Douek, “hay una diferencia fundamental entre permitir contenido de terceros y producirlo activamente”. En este caso, los bots de Meta no solo moderaron, sino que crearon material peligroso.
Los gobiernos y organismos internacionales deberán considerar si la regulación actual es suficiente para frenar este tipo de abusos. Si Meta pudo aprobar internamente estas normas, ¿qué impide que otras compañías hagan lo mismo sin ser descubiertas?
Mientras tanto, el mensaje social es contundente: la protección infantil no puede delegarse a algoritmos ni a corporaciones cuya prioridad es el mercado.
La urgencia de auditar a la inteligencia artificial
Casos como este demuestran que las auditorías externas son esenciales. Las grandes tecnológicas no deberían tener la última palabra sobre lo que sus sistemas pueden o no pueden hacer. Al tratarse de menores, no hay margen para errores, experimentos o interpretaciones flexibles.
Además, la falta de personalización y calidez que suele caracterizar a estos sistemas no justifica compensarlo con interacciones “coquetas” o “amistosas” hacia menores, como sugieren los ejemplos del documento. No es un problema de diseño conversacional, sino de límites morales que no debieron cruzarse jamás.
También se deben establecer sanciones severas cuando una plataforma aprueba directrices peligrosas. No basta con eliminar las secciones cuestionadas después de que la prensa haga su trabajo. La reparación debe incluir transparencia total y rendición de cuentas.
El caso de los bots de Meta no es un incidente aislado, sino una advertencia para todo el sector tecnológico: el desarrollo de IA generativa necesita supervisión independiente y normas globales estrictas.
Un peligro que no debe repetirse
Meta afirma que ya corrigió sus estándares, pero el hecho de que estas normas existieran muestra un desprecio alarmante por la seguridad infantil. La eliminación de los pasajes problemáticos no borra la pregunta clave: ¿cuántos niños pudieron verse expuestos antes de que la empresa actuara?
El mundo no puede esperar a que el siguiente escándalo de inteligencia artificial golpee titulares. Las plataformas que operan a escala global deben someterse a auditorías permanentes y regulaciones duras. Si algo ha dejado claro este caso es que los gigantes tecnológicos no se autorregulan, y los menores no pueden ser el costo de la innovación.
ExpokNews
Hola, déjenos un comentario