Grok desnuda mujeres con IA: la monetización del abuso

12 de enero de 2026

Hola nuevamente, querido, querida suscriptora.

La semana pasada hablamos de ideología y moral, y tenía pensado un camino más ordenado para ir desentrañando el tema: filosofía, ética profesional, todo en calma. Pero me voy a saltar unos pasos, porque la realidad no está esperando. Hablemos de la evidente falta de ética de Grok, la IA de Elon Musk integrada en X, que está permitiendo generar deepfakes de personas desnudas sin su consentimiento. Basta con que subas tu foto a X, alguien pida que «te desnuden» y la IA hace el resto. Sin importar quién seas, tu edad o si diste permiso.

Monetizar el abuso

¿La respuesta de X ante las denuncias? Restringir la función solo a usuarios de pago. No eliminarla, no desactivarla de raíz: ponerla detrás de un paywall. Esto no es innovación, es monetización del abuso, como lo expresó Emma Pickering, especialista en violencia de género y tecnología, al describir este tipo de prácticas. No parece un simple «descuido técnico», sino un diseño intencional: primero se genera escándalo y tráfico, luego se factura con la misma funcionalidad que causó el daño.

Lo más grave es que esto no es ninguna sorpresa. Desde que aparecieron los deepfakes, expertos en IA, organizaciones de derechos digitales y colectivos feministas advirtieron sobre el riesgo de abuso sexual digital y la creación de pornografía no consensuada. No estamos ante un «efecto secundario imprevisto»: este era exactamente el escenario que se venía señalando desde hace años, y aun así X puso la herramienta a disposición de millones de usuarios. Cuando las denuncias explotaron, no la eliminaron. La rentabilizaron.

No es un bug, es la prioridad

Lo que queda claro es que a X no le importa lo suficiente. Si realmente les preocupara el daño, habrían eliminado por completo la capacidad de generar este tipo de imágenes, no solo restringido el acceso a quienes pagan por usarlas. Esa decisión lo dice todo: el problema no es ético, es de reputación y de ingresos.

En el mundo del diseño y la tecnología, esto debería ser un escándalo mayúsculo. Pero ya conocemos el proceso: una tecnología abusa de los usuarios, hay escándalo unos días, después llegan las regulaciones meses o años más tarde, las empresas ajustan lo mínimo para cumplir y seguimos como si nada. Mientras tanto, el daño ya se hizo: las imágenes circularon, las personas fueron violentadas y nosotros seguimos scrolleando, o peor, tomando estos casos como benchmarks de «lo que técnicamente se puede hacer».

UX, pero de violencia

Adalides de la UX: ¿qué clase de «experiencia de usuario» es que un desconocido pueda pedirle a una IA que te desnude y obtener un deepfake tuyo en segundos? ¿Y que la «solución» de la plataforma sea cobrar por hacerlo, en lugar de impedirlo por diseño? Esto no es innovación; es violencia sistematizada con machine learning, encapsulada en una interfaz aparentemente inocente.

Lo irónico es que varios países ya están tomando acción: la Unión Europea con su AI Act, que incluye obligaciones específicas sobre deepfakes e identidad manipulada, Brasil e India investigando el caso, autoridades en otros países exigiendo respuestas a X y xAI. Y está bien que lo hagan. El problema es la hipocresía de nuestra comunidad tech: nos quejamos de que «los gobiernos no entienden la tecnología y nos ponen restricciones absurdas», pero esperamos pasivamente a que esas mismas regulaciones lleguen para empezar a comportarnos de forma mínimamente ética.

La cómoda ausencia de autorregulación

Mientras tanto, aprovechamos los vacíos legales. Experimentamos hasta dónde podemos llegar. Y cuando finalmente llega la regulación, nos quejamos de que es «muy restrictiva» o que «ahoga la innovación». Pero, ¿dónde estaba nuestra autorregulación antes? ¿Dónde estaban los límites éticos que supuestamente íbamos a ponernos como industria para no llegar justo a este punto?

Da la impresión de que solo nos importa que los gobiernos «entiendan tecnología» cuando se trata de no pagar impuestos o esquivar regulaciones laborales. Cuando se trata de proteger a las personas del abuso tecnológico, entonces sí: que los políticos se las arreglen solos. Mientras tanto, nosotros seguimos construyendo todo lo que sea técnicamente posible, sin preguntarnos si deberíamos.

Los «costos» de innovar

Y lo más triste es que ya sabemos cómo termina esta historia. Borrarán las fotos más denunciadas, suspenderán algunas cuentas que usaron la herramienta exactamente como fue diseñada, sacarán una ley que limite (un poco) estas prácticas y listo. Dirán que aprendimos, que evolucionamos, que ahora sí «hay políticas claras». Pero ¿y las personas que ya sufrieron la violencia? Eso se archivará bajo la etiqueta de «costos de la innovación».

La pregunta es: ¿tiene que seguir siendo así? ¿Ya nos resignamos? ¿Este es el «progreso» al que aspiramos, uno que normaliza como daño colateral el abuso, la humillación y el miedo?

Aguantar la puerta

Tampoco es cuestión de ingenuidad. Lo que cada persona hace puede parecer insignificante. Pero como en Game of Thrones: más vale «hold the door», Hodor. Alguien tiene que aguantar la puerta, aunque parezca inútil.

Aguantar la puerta, en este contexto, es que sepas responder a estas preguntas, no solo en teoría sino en tu práctica profesional diaria:

  • ¿Te atreverías a decir que no cuando tu jefe te pida diseñar algo que claramente abusa de los usuarios «porque aumenta el engagement»?
  • ¿Cuando te digan que hay que hacerlo «porque cumple los OKR», aunque vaya contra todo lo que sabes que está mal?
  • ¿Cuando seas tú mismo quien lo proponga, casi en automático, sin darte cuenta de que cruzaste una línea?
  • ¿O vas a pensar «igual alguien más lo hará», así que mejor lo haces tú y no pierdes el trabajo?

La respuesta a estas preguntas no cabe en un simple sí o no, y de eso me gustaría que hablemos la próxima semana.

Por ahora: ¿qué te provoca más incomodidad, la tecnología que hace estas cosas o nuestro silencio profesional frente a ellas? ¿O peor aún, ya nos acostumbramos tanto que pensamos que «son cosas que pasan», el precio inevitable de innovar?