
Las principales empresas de procesamiento de pagos enfrentan un escrutinio sin precedentes tras permitir transacciones vinculadas a la generación masiva de imágenes sexualizadas de menores a través de Grok, la herramienta de inteligencia artificial de X. El Centro para Contrarrestar el Odio Digital documentó 101 imágenes sexualizadas de niños en una muestra de 20 mil imágenes generadas por Grok entre el 29 de diciembre y el 8 de enero, lo que sugiere una producción estimada de 23 mil imágenes en ese período de 11 días.
El alcance del problema documentado por investigadores independientes
Los datos recopilados por organizaciones de defensa revelan la magnitud del fenómeno. De acuerdo con las estimaciones del Centro para Contrarrestar el Odio Digital, una imagen sexualizada de un menor era producida cada 41 segundos durante esos días. El equipo de investigación señaló que no todas estas imágenes constituyen abuso material infantil según las definiciones legales, pero reportes indican que al menos algunas probablemente cruzan esa línea.
La herramienta también ha generado un volumen considerable de contenido sexual de adultos. El New York Times calculó que 1.8 millones de imágenes producidas en un período de nueve días —aproximadamente 44 por ciento de los posts generados— contenían material sexualizado de mujeres adultas. El Centro para Contrarrestar el Odio Digital, usando diferentes metodologías, estimó que más de la mitad de las imágenes de Grok contenían algún tipo de material sexualizado de hombres, mujeres y menores.
Las contradicciones en los controles de la plataforma
Desde su implementación, Grok ha ofrecido múltiples narrativas contradictorias sobre sus restricciones. La herramienta llegó a afirmar que había limitado la generación de imágenes a suscriptores pagos de X, mientras continuaba permitiendo acceso directo a usuarios gratuitos. Las pruebas realizadas por reporteros independientes contradijeron las aseveraciones públicas: utilizando una cuenta gratuita, fue posible generar imágenes deepfake de personas reales en posiciones sexualmente sugestivas, incluso después de que supuestamente nuevas medidas de seguridad entraran en vigencia.
Aunque X parece haber restringido parcialmente las funciones de edición de imágenes de Grok a suscriptores pagos, esto sugiere que el intercambio financiero es parte del ecosistema. Los usuarios pueden adquirir suscripciones a X a través de Stripe, las tiendas de aplicaciones de Apple y Google utilizando tarjetas de crédito. Elon Musk ha sugerido en publicaciones que no considera problemático que la herramienta genere imágenes de personas desnudas, planteando interrogantes sobre la intención estratégica detrás de esta funcionalidad.
El antecedente de la industria de pagos contra contenido ilícito
Durante años, empresas como Visa, Mastercard, American Express y Stripe han adoptado posiciones severas respecto al material de abuso infantil. En 2020, Mastercard y Visa suspendieron operaciones en Pornhub tras un reportaje del New York Times que documentaba la prevalencia de contenido de abuso infantil en la plataforma. En mayo de 2025, Civitai fue desconectada por su procesador de pagos debido a que la empresa “no desea apoyar plataformas que permiten contenido explícito generado por inteligencia artificial”, según declaró el CEO Justin Maier a 404 Media.
Las instituciones financieras han mostrado históricamente una propensión a sobre-aplicar estos criterios. En 2014, una recaudación de fondos de una actriz de cine para adultos fue cancelada por WePay tras un retweet. Ese mismo año, JPMorganChase cerró abruptamente cuentas bancarias de varias actrices de cine para adultos. En 2021, OnlyFans intentó brevemente prohibir contenido sexualmente explícito debido a presiones bancarias, aunque revirtió la decisión tras reacciones públicas masivas. Se trataba en todos estos casos de contenido legal y consensuado.
Sin embargo, la situación con X y Grok presenta un contraste notorio. Pese a que el contenido incluye abuso infantil documentado, las procesadoras de pago no han tomado acciones similares. Visa, Mastercard, American Express, Stripe y Discover declinaron comentar sobre la situación. La Coalición Financiera Estadounidense Contra la Explotación Sexual Infantil, grupo industrial integrado por procesadores de pagos, bancos y compañías de tarjetas de crédito, tampoco respondió solicitudes de comentarios. En su sitio web, la organización se jacta de que “como resultado de sus esfuerzos, el uso de tarjetas de crédito para comprar contenido de abuso infantil en línea ha sido prácticamente eliminado globalmente”.

Factores que explican la inacción regulatoria
Especialistas en política tecnológica atribuyen la falta de respuesta a la industria financiera a factores políticos y comerciales específicos. Según Riana Pfefferkorn, investigadora en política del Instituto de Inteligencia Artificial Centrada en el Ser Humano de Stanford, tradicionalmente ha existido un incentivo para sobre-aplicar límites alrededor de contenido cuestionable. “La industria ya no está dispuesta a auto-regularse en algo universalmente acordado como lo más abominable”, comenta Lana Swartz, autora de “New Money: How Payment Became Social Media”, refiriéndose a la inacción.
El factor determinante parece radicar en la identidad del propietario de la plataforma. “Es el hombre más rico del mundo, tiene vínculos cercanos al gobierno estadounidense y es increíblemente litigioso”, señala Pfefferkorn sobre Elon Musk. El empresario ha demandado previamente al Centro para Contrarrestar el Odio Digital, alegando recopilación ilegal de datos. Existe el riesgo político implícito de que cualquier estado que presente demandas contra procesadores de pagos sobre X podría enfrentar ataques públicos por “censurar” a la base de usuarios de derecha de la plataforma, además de posibles recursos legales y políticos movilizados por Musk y potencialmente por el gobierno actual.
Implicaciones legales pendientes
La situación abre múltiples frentes legales complejos. California emitió un cese y desista contra Musk y X tras anunciar una investigación sobre las imágenes de Grok. El estado posiblemente está evaluando violaciones a su prohibición de pornografía deepfake. Al menos 23 estados han promulgado leyes similares contra deepfakes sexuales, y 45 estados han criminalizado el material de abuso infantil generado por inteligencia artificial.
Precedentes relevantes incluyen demandas de 2022 contra Visa por ofrecer servicios de pago a Pornhub, argumentando que Visa conocía la inadecuada moderación de abuso infantil en esa plataforma. Un juez rechazó inicialmente ciertos argumentos pero desestimó tentativamente en 2025 las acusaciones contra Visa, aunque la demandante podría presentar una queja enmendada.
La abogada Carrie Goldberg, quien ha impugnado exitosamente la Sección 230 en demandas contra plataformas como Grindr y Omegle, representa a Ashley St. Clair, madre de un hijo de Musk, en una demanda contra X argumentando que la plataforma ha creado una molestia pública. Goldberg indicó en correo electrónico que, aunque el caso se enfoca en xAI y Grok por responsabilidad directa, “podría envisionarse otras fuentes de responsabilidad”, refiriéndose específicamente a distribuidores como las tiendas de aplic
📰 Fuente: The Verge
🏷️ Temas relacionados: contenido infantil contra grok plataforma





