Los mejores consejos y trucos para detectar IA

Los generadores de imágenes con inteligencia artificial están mejorando cada vez más. Aquí hay algunas formas de mantenerte un paso adelante de ellos… por ahora.

septiembre 4, 2025

Adobe Stock

Para decenas de millones de personas en TikTok, darse cuenta de que la IA podría estar mejorando no llegó a través de un comunicado de prensa o un artículo, sino con un video de una docena de conejos saltando en una cama elástica.

El clip, publicado por primera vez por una cuenta desconocida de TikTok llamada @rachelthecatlovers, mostraba a un grupo de conejos bajando hacia una cama elástica en un vecindario suburbano, de noche, acompañado del pie de foto: “Acabo de revisar la cámara de seguridad de la casa y… ¡creo que tenemos artistas invitados en el patio trasero!”. Los videos con estilo de vigilancia ya son un tipo de contenido muy común en la app, pero lo que impactó a las 230 millones de personas que lo vieron fue que el video resultaba convincente… casi. Tantas personas se sorprendieron de que este video generado por IA las hubiera engañado —aunque solo fuera por un momento— que provocó una ola de alarma en toda la plataforma.

También te puede interesar: ¿La IA acabará con la industria musical?

Internet ha avanzado mucho desde que la prueba más reconocida para evaluar la IA consistía en crear un video convincente de Will Smith comiendo un plato de espaguetis —algo que los primeros modelos simplemente no podían hacer. Ahora, con fotos y videos generados o modificados por IA inundando las redes sociales, saber cómo detectar imágenes alteradas o manipuladas puede ser clave para un consumo crítico de medios.

Literalmente piénsalo por más de un segundo 

Las imágenes manipuladas o completamente generadas por IA pueden abarcar desde desinformación política hasta ediciones de video casi indetectables. Pero, según Zhuang Liu, profesor de ciencias de la computación en la Universidad de Princeton, una de las formas más sencillas de detectar imágenes creadas por IA es simplemente pensar si lo que estás viendo es realmente posible.

“Si no es plausible en el mundo real, entonces obviamente está generado por IA”, dice a Rolling Stone. “Por ejemplo, un caballo en la luna o una silla hecha de aguacate. Esos son casos evidentemente generados por IA. Es el ejemplo más sencillo”.

El siguiente paso es revisar la fuente donde encontraste la imagen. Esto no siempre funciona con contenido viral, especialmente porque a menudo proviene de cuentas desconocidas, pero ver un video en una página de memes podría ser una señal de que no es real. Verificar tus fuentes, incluyendo buscar el video en sitios legítimos o usar la búsqueda inversa de imágenes, puede ayudarte si intentas confirmar la autenticidad de una foto, especialmente si es de carácter político.

Ponte tu sombrero de crítico arte 

Identificar contenido generado por IA puede ser sencillo en algunos casos. Pero cuando una imagen o video parece plausible, es cuando realmente hay que recurrir a otras pistas para detectar IA. V.S. Subrahmanian, director del Security and AI Lab de la Universidad Northwestern, le dice a Rolling Stone que determinar si una imagen fue creada por IA empieza por descomponer la foto en componentes. Aunque el resultado final pueda parecer creíble, a menudo hay señales de que ciertos objetos no respetan las reglas de la física. Detalles como sombras imposibles pueden ser una pista de que la foto fue creada por IA, o videos donde la fuente de luz parece irreal. Otra señal importante es observar las transiciones en la imagen, como el punto donde terminan los cuerpos de las personas y comienzan los árboles o los fondos.

“Buscamos cosas que son difíciles de recrear con un deep fake de forma precisa”, explica. “Por ejemplo, si observo la oreja de una persona con un fondo lleno de objetos, la IA no siempre entiende que una oreja tiene un borde definido. Tiene un final claro. Así que, al generar falsificaciones, puede haber zonas borrosas ahí.”

El profesor de ciencias de la computación de la Universidad de Nueva York, Saining Xie, agrega que este tipo de análisis crítico también se aplica a los videos. “Busca detalles extraños. Revisa si hay escritura antinatural”, señala. “Si hay un espejo o agua, a veces notarás reflejos distorsionados o sombras que no coinciden. Pon el video en pausa en diferentes fotogramas y fíjate en fallas, rostros deformados o fondos inconsistentes”.

Piensa en la manipulación, no solo en la generación de IA

Si bien el contenido completamente generado por IA puede ser un problema, muchas personas no consideran que algunas imágenes pueden estar manipuladas en lugar de creadas desde cero, lo que puede hacer que las falsificaciones parezcan aún más reales. Uno de los mejores ejemplos de esto está en la propaganda política y la desinformación, que a menudo utilizan clips de video reales, pero reemplazan el audio, o mantienen el audio verificado mientras cambian ligeramente lo que las personas hacen en pantalla.

Estos microajustes pueden ser más difíciles de detectar, razón por la cual los expertos recomiendan buscar videos desde múltiples ángulos y, sobre todo, mantener una actitud escéptica.

“Mantén una mentalidad de pensamiento crítico”, dice Liu. “Verifica si la fuente es confiable y piensa: ‘¿Cuál podría ser la intención de quien comparte esto? ¿Es para ganar seguidores en redes sociales o para promocionar algún producto?’ Debemos ser claros sobre el propósito detrás del contenido”.

“Estamos viviendo activamente en una era posverdad y debemos cambiar la mentalidad de que ver es creer”, agrega Xie. “Para el usuario promedio de internet, la actitud por defecto debería ser el escepticismo”.

Entender el problema de fondo 

A medida que las empresas tecnológicas continúan invirtiendo miles de millones en avances de IA, está absolutamente claro que podría haber fácilmente un futuro en el que se vuelva increíblemente difícil identificar imágenes generadas por IA de fotografías y videos reales. El 27 de agosto, Google lanzó una actualización importante para su editor de fotos Gemini AI, que Google ha promocionado como teniendo una capacidad de renderizado sofisticada.

“Identificar [IA] se está volviendo cada vez más difícil”, dice Xie. “Si me hubieras preguntado ayer, te habría dado una respuesta diferente. Pero ahora, el modelo de Google ha avanzado a un nuevo nivel. Muchas de estas herramientas virales de inspección podrían ya no ser válidas.”

Aquí es donde termina la percepción pública y comienza la responsabilidad corporativa. Todos los expertos que hablaron con Rolling Stone dicen que las empresas detrás de estos modelos enormemente exitosos tienen la responsabilidad de desarrollar técnicas de marca de agua que indiquen explícitamente cuándo las imágenes fueron hechas con sus modelos.

“Este tipo de autenticación tiene que hacerse también desde este tipo de edición de imágenes, desde el lado del proveedor de generación”, dice Xie. “Muchos proveedores de generación de imágenes no tienen este servicio. Pero creo que, de cara al futuro, a la gente le importará más la responsabilidad y la seguridad, y [las empresas] añadirán más protecciones. Soy bastante optimista sobre eso.”

Liu señala que, aunque el consumidor promedio se ha preocupado por identificar imágenes de IA, muchas empresas han desarrollado modelos de IA que pueden identificar con precisión cuándo una imagen ha sido generada o manipulada, pero muchos no están disponibles para el público.

Subrahmanian está de acuerdo en que las empresas tecnológicas tienen la responsabilidad de identificar y etiquetar sus creaciones de IA. Pero señala que, incluso con cambios generalizados, eso no se aplicaría a las personas que usan sus propios modelos o modelos desarrollados más recientemente. “Creo que el número de empresas tecnológicas que están lanzando algoritmos para crear deep fakes realmente están comenzando a poner marcas de agua”, dice Subrahmanian. “Pero los actores malintencionados pueden aprovechar ese tipo de cosas, y eso es mucho más difícil de regular”.

No hay una buena respuesta sobre cómo mantener las compuertas de internet firmes contra las olas de imágenes generadas por IA. Habrá otra plaga de conejos en camas elásticas que haga que las aplicaciones entren en pánico, o un video de una figura política que convenza a personas en los márgenes de algo completamente inverosímil. Pero mientras estos desarrollos continúan, la herramienta más fuerte que tiene la persona promedio para combatir la IA es su propio pensamiento crítico.

“Al final del día, muchas de las cosas que estás viendo han sido creadas por desconocidos, y necesitas tratarlas con el mismo escepticismo con el que tratarías una solicitud directa de dinero de alguien que no conoces”, dice Subrahmanian. “El sentido común es un recurso enormemente subestimado”.

También te puede interesar: La Academia del Cine regulará la IA en los Premios Goya

CONTENIDO RELACIONADO

  • 00:00
00:00
  • 00:00