Diapositiva anterior
Diapositiva siguiente
Diapositiva anterior
Diapositiva siguiente

Fotos falsas, consecuencias reales: Alexandria Ocasio-Cortez y la batalla contra el porno por IA

Las deepfakes son más sencillas de hacer que nunca antes, y a raíz de ello, nuestra percepción de la realidad y la democracia están en peligro

Ilustración por Matthieu Bourel

mayo 21, 2024

Alexandria Ocasio-Cortez (AOC) estaba en un coche hablando con su equipo sobre legislación y hojeando sus menciones en X cuando vio la foto. Era finales de febrero, y después de pasar la mayor parte de la semana en Washington, quería volar a Orlando para ver a su madre después de un evento de trabajo. Pero todo se le olvidó cuando vio la foto: una imagen alterada digitalmente de un extraño obligándola a poner la boca sobre sus genitales. La adrenalina se le disparó y su primer pensamiento fue: “Tengo que quitarla de la pantalla”. Cerró la aplicación, estremecida.

“Es shockeante ver imágenes tuyas y que alguien pueda pensar que son reales”, me dice la congresista. Han pasado unos días desde que vio el inquietante deepfake (imágenes o noticias falsas fabricadas con IA) y ahora estamos esperando la comida en una cafetería de Queens, Nueva York, cerca de su barrio. Es amable y enérgica durante toda la conversación, mantiene el contacto visual y responde con pasión a mis preguntas. Sin embargo, cuando me cuenta esta historia, se ralentiza, hace más pausas y juega con los anillos de su mano derecha. “Como sobreviviente de una agresión sexual física, esto me añade un nuevo nivel de perturbación”, afirma. “Resurge el trauma cuando intento… puede ser en medio de una puta reunión”.

Ocasio-Cortez no pudo sacarse la imagen de la cabeza en todo el día.

“Hay ciertas imágenes que no abandonan a una persona, no pueden dejarla”, comenta. “No es una cuestión de fortaleza mental o fuerza de voluntad: se trata de neurociencia y de nuestra biología”. Me comenta sobre informes científicos que ha leído acerca de lo difícil que le resulta a nuestro cerebro separar las imágenes viscerales de un teléfono de la realidad, aunque sepamos que son falsas. “No es tan imaginario como la gente quiere hacer creer. Tiene efectos reales, muy reales, no solo en las víctimas, sino en las personas que ven y consumen también”.

“Y una vez que lo viste, no hay vuelta atrás”, asevera Ocasio-Cortez. “Tiene la misma intención de la violación física y la agresión sexual, se trata del poder, la dominación y la humillación. Los deepfakes son una forma de digitalizar una humillación violenta en contra de otras personas”.

Aún no la había anunciado públicamente, pero me cuenta de una nueva ley en la que está trabajando para acabar con los deepfakes o ultrafalsos no consentidos y sexualmente explícitos. A lo largo de nuestro almuerzo, vuelve una y otra vez al tema: quiere hacer algo real y concreto para que esto no le ocurra a nadie más.

El porno deepfake no es más que una forma en que la inteligencia artificial facilita el abuso, y la tecnología es mejor día tras día. Desde el momento en que AOC ganó sus elecciones primarias en 2018, ha tenido que lidiar con imágenes falsas y manipuladas, ya sea mediante Photoshop o IA generativa. Hay fotos de ella portando esvásticas; hay videos en los que su voz ha sido clonada para decir cosas que no ha dicho. Alguien creó una imagen de un tuit falso de Ocasio-Cortez supuestamente quejándose de que le habían robado todos los zapatos en la insurrección del 6 de enero. Durante meses, la gente le ha preguntado por sus zapatos perdidos. Estos ejemplos se suman a los innumerables desnudos falsos o imágenes sexualmente explícitas de ella que pueden encontrarse en Internet, sobre todo en X.

En este momento Ocasio-Cortez es una de las congresistas más notorias de EE. UU., y es una joven latina que se presentará para la reelección en 2024, lo que significa que está en la primera línea de fuego de una era en la que es inquietante e impredecible ser una figura pública. Según un estudio reciente de la empresa de ciberseguridad DeepTrace Labs, un abrumador 96 % de los videos deepfake en total son de porno no consentido, todos protagonizados por mujeres. Y las mujeres que se enfrentan a múltiples formas de discriminación (incluidas mujeres racializadas, personas LGBTQ+ y mujeres con discapacidad) corren un mayor riesgo de sufrir violencia de género facilitada por la tecnología, según un informe de ONU Mujeres.

De acuerdo a un análisis de la investigadora independiente Genevieve Oh, en 2023 se compartieron más videos de abusos deepfake que en toda la historia. Lo que antes les llevaba horas de Photoshop a expertos en tecnología, ahora se puede hacer en un momento con la ayuda de una aplicación. Algunos sitios web de deepfakes ofrecen incluso tutoriales sobre cómo crear pornografía con IA.

¿Qué pasará si no lo controlamos? Se difuminarán aún más las fronteras entre lo que es real y lo que no, y la política se polarizará cada vez más. ¿Qué ocurrirá cuando los votantes no puedan separar la verdad de la mentira? ¿Qué está en juego? A medida que nos acercamos a las elecciones presidenciales, la propia democracia podría estar en peligro. Y, como señala Ocasio-Cortez en nuestra conversación, se trata de mucho más que imágenes imaginarias.

“Es muy importante para mí que la gente entienda que esto no es solo una forma de violencia interpersonal, no se trata solo del daño infligido a la víctima”, explica sobre la pornografía deepfake no consentida y, dejando la cuchara un momento, se inclina hacia delante. “Porque esta tecnología amenaza con hacerlo a gran escala, se trata de subyugación de clase. Es una subyugación de pueblos enteros. Y cuando esto se cruza con el aborto, cuando se cruza con los debates sobre la autonomía corporal, cuando se es capaz de subyugar activamente a todas las mujeres de la sociedad a una enorme escala, de manera digital, está directamente relacionado con la eliminación de sus derechos”.

En estos momentos es cuando se le ve más motivada, cuando hace énfasis en el alcance que tendrá este problema en muchísima gente. No parece una política entrenada soltando frases hechas. Suena genuinamente preocupada —angustiada, incluso— por cómo esta tecnología afectará a la humanidad.

Ocasio-Cortez está viviendo esta pesadilla mientras lucha contra ella. Ha visto cómo su cuerpo, su voz, todo sobre sí misma se distorsiona en una versión de película de terror de la realidad. Es algo muy personal para ella, pero si consigue encontrar el antídoto para poner fin a esta forma de abuso, podría cambiar la forma en que el resto de nosotros experimentamos el mundo.

**

A principios de la década de 2010, antes de que se popularizaran las IA generativas, los expertos en abusos alertaron sobre el uso de imágenes alteradas para intimidar a comunidades en Internet. Nighat Dad es una abogada de derechos humanos de Pakistán que dirige una línea de ayuda para víctimas de chantaje con imágenes, tanto reales como manipuladas. Y es que las consecuencias son nefastas: según Dad, algunos casos han terminado en asesinatos “por honor” por parte de familiares y en suicidios. “Las mujeres de color y las feministas del Sur global llevan mucho tiempo hablando de esta cuestión y nadie les ha prestado atención”, afirma Dad.

Aquí, en Estados Unidos, la diputada demócrata Yvette Clarke lleva años intentando que el Congreso actúe. En 2017, empezó a darse cuenta de la frecuencia con la que las mujeres afrodescendientes eran acosadas en las redes sociales, ya fuera siendo objeto de comentarios racistas o de imágenes ofensivas y alteradas. En Internet, la intolerancia suele ser más abierta, y los “trolls” se sienten seguros escondiéndose detrás de sus pantallas.

“Eso fue lo que realmente me impulsó a profundizar en el uso de la tecnología para perturbar, obstaculizar y perjudicar, en particular, a poblaciones vulnerables”, afirma Clarke. En aquel entonces, la tecnología de las deepfakes era aún incipiente, y ella quería establecer barreras de seguridad para adelantarse a los daños y que estos no se propagaran.


¿Qué ocurrirá cuando los votantes no puedan separar la verdad de la mentira? ¿Qué está en juego?


“Fue toda una batalla cuesta arriba”, expresa Clarke, señalando que no había mucha gente en el Congreso que hubiera oído de esta tecnología, y mucho menos que pensara en regularla. Junto con Clarke, el senador Ben Sasse (republicano de Nebraska) fue otra excepción; había presentado un proyecto de ley en diciembre de 2018, pero duró poco. Por parte de la Cámara de Representantes, la primera audiencia del Congreso sobre ultrafalsosy desinformación fue en junio de 2019, coincidiendo con el proyecto de ley de Clarke, la DeepFakes Accountability Act. La legislación fue un intento de establecer sanciones penales y proporcionar recursos legales a las víctimas de deepfakes. Clarke volvió a presentarla en septiembre de 2023.

En mayo de 2023, el representante Joe Morelle presentó la Preventing Deepfakes of Intimate Images Act, que habría penalizado el intercambio de deepfakes no consentidos y sexualmente explícitos. Al igual que la legislación anterior sobre ultrafalsos, no prosperó. Clarke cree que el Congreso se ha tardado en comprender lo grave y generalizado que es este problema.

Finalmente, la gente está empezando a prestar atención a los peligros de los tipos de abuso que facilita la IA. Clarke es vicepresidenta del Caucus Negro del Congreso de los Estados Unidos, que acaba de anunciar el lanzamiento de una serie de políticas sobre IA que analizará este tipo de tecnología desde el punto de vista de la raza. Las políticas abordarán el sesgo algorítmico en los sistemas de IA y educará al público sobre la desinformación, especialmente en lo que respecta a las campañas de desinformación contra los votantes negros. Y Clarke forma parte del nuevo grupo de trabajo bipartidista de la Cámara sobre IA, junto a Ocasio-Cortez y otros 22 miembros, además de los dos líderes de la Cámara.

“Gracias a Dios, la gente por fin ha reconocido que se están violando los derechos civiles”, me dice Clarke. “El trabajo que hacemos ahora tiene implicaciones no solo para esta generación, y no solo para ahora, sino para las generaciones futuras. Y por eso es importante que actuemos con rapidez”

A medida que la tecnología ha avanzado de manera rápida, también lo han hecho los abusos. Y como señala Clarke, el daño ya no se centra únicamente en las comunidades marginadas; se ha generalizado y afecta a adolescentes y universitarios de todo el país. Puede ocurrirle a cualquiera que tenga una foto en Internet.

En mayo de 2020, Taylor (quien pidió usar un alias para evitar más abusos) acababa de graduarse de la universidad y estaba en cuarentena con su novio en Nueva Inglaterra cuando recibió un extraño correo electrónico, con el asunto: “Cuenta falsa a tu nombre”. Un viejo compañero de clase le había escrito, diciendo: “Mira, este es un correo muy raro de escribir, pero pensé que querrías saberlo”.

El compañero continuó diciendo que había visto una cuenta falsa de Pornhub de ella con su nombre e información personal. “Parece que usaron un deepfake para poner tu cara en algunos videos”, escribió.

Confundida, Taylor pensó que debía ser spam, y le envió un mensaje a ese mismo compañero a través de Facebook, diciendo: “Oye, solo quería decirte que tu cuenta fue hackeada”. “No”, le respondió él; el correo era genuino.

Cuatro años después, recuerda que ni siquiera sabía lo que era un ultrafalsoen ese entonces. Encendió el computador de su novio y entró al enlace de Pornhub que su compañero le había enviado. Cuando el sitio terminó de cargar, se vio la cara en un video sexualmente explicito que jamás había grabado.

“No podía creer que fuera mi cara… especialmente los ojos”, me dice en una llamada de Zoom. “Se veían como muertos por dentro… el deepfake era realísta, pero no se veía como… se veía como si estuviera perdida”.

Ahí se dio cuenta de que la cuenta tenía múltiples videos, con fotos de su Facebook e Instagram. Y los videos ya contaban con miles de reproducciones. Taylor leyó los comentarios y se dio cuenta de que algunas personas pensaban que el video era real. Y aún más aterrador, había un perfil de Pornhub con toda su información real listada: nombre completo, ciudad de origen, colegio. (Un representante de Pornhub dijo que los deepfake no consensuados son baneados y que cuentan con equipos que revisan y borran dicho contenido tan pronto lo encuentran).

La joven comenzó a buscar más y más en Internet, y se encontró con múltiples cuentas falsas con videos hechos a su nombre, en diferentes sitios. Se dio cuenta de por qué había visto un aumento de mensajes en todas sus redes sociales en las últimas semanas. De inmediato se sintió preocupada por su integridad física.

“No tenía idea si la persona que lo hizo estaba cerca de mí, a mis alrededores, o si me iban a hacer algo más”, comenta Taylor. “No sabía si alguien que había visto el video iba a intentar encontrarme. Para ese punto era físicamente vulnerable”.

Con su novio llamaron a la policía local, que no fueron de mucha ayuda. La joven esperó en el teléfono a un detective que le dijo: “Tengo que realmente examinar estos perfiles”, lo cual la perturbó. Eventualmente le dijo que técnicamente era legal y que, quien lo hizo, incluso tenía derecho a hacerlo.

Esto sucedió durante los primeros meses de la pandemia global y Taylor, que padece de ansiedad y de un trastorno obsesivo-compulsivo, afirma que ya sentía preocupación y paranoia, pero esto lo exacerbó todo. Al salir, se ponía nerviosa por si algún desconocido la reconocía por los videos. Se obsesionó con quién, en su vida personal, podría ya haberlos visto. A punto de empezar sus estudios de posgrado, se preguntaba si sus futuros jefes los encontrarían y si su carrera habría terminado antes de empezar.

En los siguientes meses, Taylor descubrió que a otra chica de la universidad también le había ocurrido lo mismo. A través de sus conversaciones, las jóvenes fueron capaces de identificar a un chico con el que ambas habían tenido una discusión, quien resultó ser experto en tecnología. A medida que investigaban, se fueron topando con varias mujeres de su universidad que habían sido objeto de ataques similares, todas relacionadas con este hombre al que llamaban Mike. Pero la policía estatal nunca pudo demostrar que él fue quien hizo los videos.


Cuanto más se eduque a la gente sobre este fenómeno como una forma de abuso, y no como una broma inofensiva, más se contribuirá a la prevención.


Taylor fue una de las primeras en hablar de su abuso con IA, compartiendo de manera anónima su historia en el documental Another Body de 2023. Los cineastas han creado una organización llamada #MyImageMyChoice para hacer frente al abuso de la imagen íntima. En marzo, los organizadores coorganizaron una cumbre virtual sobre el abuso de deepfakes, en la que participaron expertos jurídicos, defensores y sobrevivientes, como la actriz Sophia Bush, que contaron sus historias.

Tras ese ataque con deepfakes, Taylor siente con frecuencia que no tiene control de su propia vida, y lo compensa intentando controlar otras situaciones. Aprieta repetidamente el control de su carro para asegurarse de que está cerrado, y le suele aterrorizar que la cafetera siga encendida y su casa vaya a incendiarse. “Aún hoy sigo lidiando con ello”, comenta sobre su TOC exacerbado.

Mike estaba interesado en las redes neuronales y el aprendizaje automático, comenta Taylor, manera en la cual ella sospechaba que podría haber creado el ultrafalso antes de que hubiera aplicaciones de fácil acceso que lo hicieran de manera instantánea como ahora. Según #MyImageMyChoice, hay más de 290 aplicaciones de deepfake pornográfico (también conocidas como apps de “nudificación”), el 80 % de las cuales fueron lanzadas en el último año. La búsqueda en Google dirige el 68 % del tráfico a estos sitios.

Una de las personas con las que Taylor ha conectado en la defensa contra los abusos en línea es Adam Dodge, fundador de la organización de educación en seguridad digital EndTAB (Ending Tech-Enabled Abuse [“Acabar con los abusos habilitados por la tecnología” en español]). Dodge me cuenta que la gente suele pasar por alto la impotencia y el desamparo extremos que conlleva esta forma de trauma tecnológico, porque el abuso puede parecer ineludible.

LA GUERRERA: Ocasio-Cortez codirige los esfuerzos para poner fin al abuso por IA. KENT NISHIMURA/”LOS ANGELES TIMES”/GETTY IMAGES

Por ejemplo, en la “pornografía vengativa” o revenge porn, cuando una pareja filtra imágenes íntimas de alguien, las victimas suelen intentar reafirmar su control prometiendo no volver a hacerse fotos así nunca más. Con un deepfake, no hay forma de evitar que ocurra, porque alguien puede generar ese abuso cuando y donde quiera.

Dodge quiere replantear la conversación; en vez de destacar el fenómeno de la nueva tecnología capaz de crear estas imágenes hiperrealistas, el enfoque debería estar en cómo esto está creando una cantidad sin precedentes de víctimas de violencia sexual. Cree que cuanto más se eduque a la gente sobre este fenómeno como una forma de abuso, y no como una broma inofensiva, más se contribuirá a la prevención.

Menciona un incidente reciente en una universidad de Nueva Jersey en el que alguien hizo desnudos generados por IA de compañeras de clase. “El hecho de que fueran capaces de crear estas imágenes tan rápidamente en sus teléfonos, con poca o ninguna experiencia tecnológica, y de participar en la violencia sexual y el abuso a escala en su escuela es realmente preocupante”.

**

Rumman Chowdhury no es ajena a los horrores del acoso en línea; fue jefa del equipo de IA ética en X, cuando se llamaba Twitter y antes de que Elon Musk diezmara su departamento. Sabe de primera mano lo difícil que es controlar las campañas de acoso, y también cómo las poblaciones marginadas con frecuencia son objeto de ataques desproporcionados en estas plataformas. Recientemente publicó un artículo para la UNESCO junto con Dhanya Lakshmi, asistente de investigación, sobre cómo la IA generativa exacerbará lo que en el sector se conoce como violencia de género facilitada por la tecnología.

“En el artículo mostramos ejemplos basados en código de lo fácil que es no solo crear imágenes de acoso, sino planificar, programar y coordinar toda una campaña de acoso”, explica Chowdhury, quien actualmente trabaja en el Departamento de Estado como embajadora científica de IA de EE.UU., conectando a legisladores, a organizadores comunitarios y a la industria con el objetivo de desarrollar una IA responsable.

Chowdhury enumera las formas en que las personas pueden utilizar la tecnología para realizar acoso a gran escala. Pueden pedirle a la IA generativa que no solo escriba mensajes negativos, sino que también los traduzca a diferentes idiomas, dialectos o jergas. Pueden utilizar esta información para crear personajes falsos, de modo que una persona pueda dirigirse a una política y decirle que no está calificada o es fea, pero que parezca que lo dicen diez personas. Chowdhury y Lakshmi lo hicieron en su investigación: le pidieron a un programa que vistiera a una mujer como un soldado yihadista y le cambiaron la camiseta para que se leyera Blue Lives Matter. Y no tuvieron que engañar o hackear el modelo para generar estas imágenes.

No se trata solo de generación, sino de amplificación, que ocurre incluso cuando la gente no intenta ser cruel. Es algo que Chowdhury vio con frecuencia mientras trabajaba en X: gente que retuiteaba una foto o un video falsos, sin saber que no eran reales.

“La gente amplifica sin darse cuenta de la información engañosa”, afirma Chowdhury. “Es un problema muy grave y también uno de los más difíciles de resolver, porque la gente no tiene malas intenciones, vio algo que parecía real”.

Piensa que mucha gente ha aprendido a no creer todo lo que lee en Internet, pero no tiene la misma protección mental contra el video y el audio. Tendemos a creer que son verdad, porque antes era difícil falsificarlos. La científica dice que no sabe si mejoraremos a la hora de identificar contenidos falsos o si dejaremos de confiar en todo lo que vemos en Internet.

“Una de las cosas que más me preocupa es que vayamos a entrar en un mundo de posverdad en el que nada de lo que veas en Internet sea digno de confianza, porque todo puede generarse de forma muy realista, pero falsa”, me explica Chowdhury.

Se trata de un problema humano que necesita una solución humana. Como señala la experta, no es un problema fácil de resolver, pero eso no significa que no debamos intentarlo y propone un enfoque múltiple. Las empresas de redes sociales pueden rastrear cuentas individuales para ver si están interactuando con otras personas o si la misma dirección IP tiene varias cuentas. Pueden ajustar los algoritmos que determinan lo que la gente ve. La gente puede movilizar a sus propias comunidades en cuanto a alfabetización mediática. Los legisladores pueden trabajar en protecciones y normativas, y encontrar medidas que no impongan a la victima la responsabilidad de actuar. Los desarrolladores de IA generativa y las empresas tecnológicas que les sirven de plataforma pueden ser más transparentes en sus acciones y más cuidadosos con los productos que lanzan al público. (X no respondió a la solicitud de comentarios para este artículo).

Mary Anne Franks, jurista especializada en libertad de expresión y acoso en línea, afirma que es perfectamente posible elaborar una legislación que prohíba la información perjudicial y falsa sin infringir la Primera Enmienda de los EE.UU. “La parodia y la sátira dejan claro que la información que se presenta es falsa; hay una línea clara entre burlarse de alguien y hacerse pasar por alguien”, afirma.

“Y aunque el tribunal supremo ha sostenido que algunos discursos falsos pueden estar protegidos, nunca ha dicho que exista un derecho de la Primera Enmienda para participar intencionadamente en discursos falsos que causen un daño real”.


Se trata de un problema humano que necesita una solución humana.


Franks quiere que las leyes sobre pornografía generada por IA incluyan un componente penal y otro civil, porque, dice, la gente suele tener más miedo de ir a la cárcel que de ser demandada por algo tan abstracto y difícil de comprender.

“Si bien es cierto que Estados Unidos es culpable de penalizar en exceso muchos tipos de conducta, nos pasa lo contrario cuando se trata de abusos dirigidos desproporcionadamente a mujeres y niñas”, afirma Franks, citando cómo el maltrato doméstico, la violación y el acoso tienen pocos procesados. Los abusos en línea se dirigen de manera desproporcionada a poblaciones marginadas, pero también suelen afectar a mujeres en espacios públicos, como periodistas o políticas. Las mujeres que se encuentran en la intersección de estas identidades son especialmente vulnerables.

La diputada Summer Lee dice que suele pensar en la rapidez con la que avanza esta tecnología, sobre todo teniendo en cuenta los niveles de acoso que sufren las figuras públicas en las redes sociales.

“A muchos nos preocupa que no haya mecanismos que nos protejan”, afirma Lee y dice que ya ve un mundo en el que los afrodescendientes y otras personas marginadas se muestran escépticos ante el sistema tras las campañas de desinformación: “Esto hace que los votantes y las personas, que en otras circunstancias se presentarían [a las elecciones], teman que el propio sistema no sea digno de confianza. Cuando pienso en las mujeres que se presentarán, especialmente las negras y las morenas, tenemos que pensar en las formas en que se usarán y abusarán de nuestras imágenes. Ese es un temor constante de las mujeres, y en particular de las mujeres de color, que se plantean si quieren arriesgarse o no a presentarse como candidatas al Congreso.

“Hasta cierto punto pierdes el control de ti misma cuando te presentas para un cargo, pero en esta época, el perder el control de tu imagen, de tu persona, adquiere un nuevo significado; las formas en las que esta tecnología puede explotar y ser abusada, cómo puede extenderse, cómo puede arruinar no solo reputaciones sino vidas”.

**

En la cafetería, Ocasio-Cortez me cuenta algo parecido. Hablamos de lo real que son las consecuencias para las víctimas de este tipo de abusos. “Hay chicos que se van a suicidar por esto”, expresa. “Hay gente que se va a suicidar por esto”.

Le pregunto a Ocasio-Cortez qué le diría a una adolescente que ha sido víctima de abusos con AI. “En primer lugar, creo que es importante que sepa que, y quiero decirlo, la sociedad te ha fallado”, afirma. “Alguien te hizo esto, y está mal, pero la sociedad te ha fallado. La gente no debería tener las herramientas para hacer esto”.

“Mi principal prioridad es asegurarme de que no lo interiorice, de que el delito no tiene lugar aquí”, declara Ocasio-Cortez. Le pregunto cómo lo afronta ella personalmente, ¿hay algo que haga para evitar interiorizar el abuso?

“No pienso en ello como un interruptor de encendido o apagado”, dice, y añade que a menudo tiene mujeres jóvenes que le preguntan cómo es tan fácil para ella hablar al respecto. “No lo es”, me dice y vuelve a hablar más despacio, eligiendo cuidadosamente sus palabras. “Yo lo veo como una disciplina, una práctica. Es como, ‘¿Qué tan buena seré hoy con esto?’. Porque algunos días me sale terrible, otros lo interiorizo, hay otros en los que no hablo porque me afecta”.

Ocasio-Cortez dice que gran parte de su política está motivada por no querer que otras personas experimenten las cosas que ella u otras personas han tenido que enfrentar. “Gran parte de mi trabajo se basa en romper la cadena, romper el ciclo, y esto, para mí, es un ciclo realmente, realmente, realmente importante de romper”, dice.

Hablamos también de las fotos sexualmente explícitas de Taylor Swift que se hicieron virales en enero. Ya se estaba trabajando en la legislación sobre deepfakes de IA cuando eso ocurrió, pero dice que el incidente de Swift ayudó a acelerar los plazos de la legislación bipartidista y bicameral. Los senadores Dick Durbin y Lindsey Graham lideran la versión del Senado del proyecto de ley, mientras que Ocasio-Cortez lidera la versión de la Cámara. Llamada Disrupt Explicit Forged Images and NonConsensual Edits (DEFIANCE) Act, la legislación de 2024 busca modificar la Ley sobre la violencia contra la mujer para que las personas puedan demandar a quienes producen, distribuyen o reciben pornografía deepfake, “sabiendo o ignorando de manera imprudente” que la víctima no consintió esas imágenes.

El proyecto de ley define las “falsificaciones digitales” como imágenes “creadas mediante el uso de software, aprendizaje automático, inteligencia artificial o cualquier otro medio tecnológico o generado por ordenador para que parezcan falsamente auténticas”. Cualquier falsificación digital que muestre a las víctimas “desnudas o participando en conductas sexualmente explícitas o escenarios sexuales” cumpliría los requisitos. Si el proyecto de ley se aprueba en la Cámara de Representantes y el Senado, se convertiría en la primera ley federal para proteger a las víctimas de los deepfakes.

El proyecto de ley cuenta con el apoyo de ambos lados, reuniendo a aliados que parecerían improbables. Por ejemplo, la representante Nancy Mace (republicana de Carolina del Sur), quien ha discutido públicamente con Ocasio-Cortez en el pasado, es copatrocinadora de la ley DEFIANCE.

“El Congreso está encabezando esta iniciativa tan necesaria para abordar las lagunas en nuestro marco legal contra la explotación digital”, dice un portavoz de Mace, quien recientemente presentó su propio proyecto de ley que criminaliza la pornografía deepfake. “Juntos estamos combatiendo esta escalofriante nueva ola de abusos contra las mujeres, y haciendo frente al alarmante aumento de material de abuso infantil deepfake. Nuestro objetivo es llevar a los autores ante la justicia y garantizar la seguridad de todas las personas en el ámbito digital”.

Durbin me dice que cree que la clave para que DEFIANCE se convierta en ley es el importante apoyo bipartidista. “Genuinamente considero que los políticos de ambos partidos y de todas las tendencias políticas se están dando cuenta de que este es un peligro real”, dice, y añade que tener a Ocasio-Cortez como socia en la ley DEFIANCE es importante. “Me entristece que ella haya pasado por esta experiencia”, dice Durbin. “Pero sin duda le da credibilidad cuando habla del tema”.

Durante el almuerzo, le pregunto a Ocasio-Cortez si pensaba que el hecho de haber sido la mujer más joven —y racializada— en llegar al Congreso tiene que ver con la razón por la cual es un blanco para este tipo de acoso. “Por supuesto”, responde sin dudarlo un instante. Le pregunto por qué cree que la gente suele atacar a las mujeres en puestos de liderazgo. “Quieren darnos una lección por estar ahí, por existir: ese no es su lugar y, como están aquí, las vamos a castigar”, dice.

Hablamos también sobre la fascinación que siente la gente por los personajes públicos, ya sean artistas, personas influyentes o políticos. “La gente, desde la aparición de los teléfonos inteligentes, ha ido confiando cada vez más en Internet como un sustituto de la experiencia humana”, expone Ocasio-Cortez. “Y si este se convierte en el principal medio a través del cual se relacionan con el mundo, al menos en este país, manipularlo significa manipular la realidad”.

La lucha por la realidad a veces puede parecer inútil. Frente a la frontera de la IA, es difícil no sentir una corriente de temor. ¿Estamos entrando en un mundo posverdad en el que los hechos reales son escurridizos, y se abusa aún más de los más marginados en la sociedad? ¿O aún estamos a tiempo de navegar hacia un futuro mejor y más equitativo?

“Ha habido momentos en el pasado en los que dije, ‘No sé si puedo sobrevivir a esto’”, comenta Ocasio-Cortez en voz baja. “Y en esos momentos a veces recuerdo, ‘Sí, esa es la cuestión. Ese es literalmente el punto’. Fui la mujer más joven elegida para el Congreso, y tuvieron que pasar más de 200 años para que una mujer con menos de 30 fuera elegida para el Congreso, ¡Cuando este país fue fundado por tipos de 25 años! ¿La gente cree que es una puta coincidencia?”.

Pronto vuelve a animarse, y lo relaciona con su trabajo: “Es algo diseñado, e incluso la IA representa —no la IA en general, sino este uso de la IA— la automatización de ese diseño. Es la automatización de una sociedad en la que un país entero puede ser fundado por hombres de 25 años, pero una mujer de 29 tarda más de 200 años en ser elegida como diputada. Y una vez elegida, hacen todo lo posible para que renuncie”.

Se inclina y sonríe. “¿Y saben qué, hijos de puta? No me voy a ninguna parte. Acéptenlo”.

CONTENIDO RELACIONADO