2025 fue el año en que la IA cruzó el punto de no retorno

Desde que Grok, de Elon Musk, se autoproclamó “MechaHitler” hasta que los usuarios de ChatGPT cayeron en peligrosas ilusiones, esta tecnología nos abrumó por fin

diciembre 16, 2025

La industria de la inteligencia artificial se aceleró durante el segundo mandato de Trump, con un aumento de los contenidos nocivos.

Ilustración fotográfica de Matthew Cooley

Este mes de mayo, la Iglesia católica dio la bienvenida a un nuevo papa. En cierta manera sorprendente, los cardenales electores eligieron a un candidato nacido en Estados Unidos como su nuevo líder. Pero quizás lo más sorprendente fue la frecuencia con la que este pontífice, que tomó el nombre de León XIV, alertó una y otra vez sobre la inteligencia artificial durante su primer año como figura reconocida a nivel mundial.

“¿Cómo podemos garantizar que el desarrollo de la inteligencia artificial sirva realmente al bien común y no se utilice únicamente para acumular riqueza y poder en manos de unos pocos?”, preguntó el papa León XIV a una audiencia de académicos y profesionales del sector en un discurso pronunciado en el Vaticano el 5 de diciembre. “La inteligencia artificial sin duda ha abierto nuevos horizontes para la creatividad, pero también suscita serias preocupaciones sobre sus posibles repercusiones en la apertura de la humanidad a la verdad y la belleza, y en su capacidad de asombro y contemplación”.

El papa no es el único que afirma que la IA ya ha distorsionado nuestras mentes y envenenado nuestra comprensión colectiva de lo que significa ser un ser consciente. En 2025, parecía que cada hora surgía una nueva y alucinante noticia sobre la inteligencia artificial —la tecnología ya no se asomaba en el horizonte, sino que se había convertido en una parte definitoria de la experiencia cotidiana, algo que ya no era posible ignorar ni frenar. Había cruzado el punto de no retorno.

No importó que los investigadores presentaran más pruebas de cómo la desinformación generada por la IA supone una amenaza clara para el público, ya que las herramientas de IA también contribuyen a la misoginia, el racismo, los estereotipos anti-LGBTQ y la erosión de los derechos civiles. Las imágenes generadas por la IA —“de muy mala calidad”, en lenguaje peyorativo común— eran inevitables. Los sindicatos de Hollywood observaron la continua consolidación monopolística de los gigantes del entretenimiento y advirtieron que los estudios estaban dispuestos a canibalizar sus tesoros de propiedad intelectual con la IA, pero los acuerdos continuaron a buen ritmo. Escritores y músicos se enfrentaron a plagios de su trabajo generados por la IA y a bandas totalmente ficticias con un gran número de seguidores en Spotify.

Los economistas que se preocupaban por que Estados Unidos se hubiera vuelto precariamente dependiente de un auge incierto para el crecimiento del PIB fueron ignorados por los ejecutivos de Silicon Valley y el presidente de la Reserva Federal, Jerome Powell. Sobre el tema de cómo la IA podría exacerbar la desigualdad, los empresarios y los funcionarios del Gobierno guardaron silencio.

Por todas partes se observaban nuevos casos de incapacidad para anticipar o abordar los crecientes costes sociales de la adopción y el despliegue imprudentes de la IA. En primavera, OpenAI realizó actualizaciones en GPT-4o que hicieron que ChatGPT se volviera excesivamente adulador, dispuesto a respaldar cualquier cosa que le dijera el usuario con halagos gratuitos, incluso si este caía en delirios paranoicos o grandiosos. Entonces, la gente comenzó a compartir historias desgarradoras de parejas, familiares y amigos que caían presa de una especie de locura provocada por la IA. Popularmente denominados “psicosis por la IA”, estos episodios llevaron a algunos a alejarse de sus familias, abandonar sus trabajos y, en casos extremos, cometer actos de violencia y autolesiones. A finales de abril, OpenAI anunció que había revertido la actualización. 

En septiembre, padres que habían perdido a sus hijos por suicidio testificaron ante el Congreso que los chatbots habían empujado a sus hijos a cometer el acto. Mientras los legisladores clamaban sobre las responsabilidades de los ejecutivos que supervisaban el desarrollo de la IA, y las empresas emitían discretamente disculpas y preparaban defensas legales para las crecientes demandas por homicidio culposo y negligencia de las familias en duelo, los multimillonarios tecnológicos que impulsaban la fiebre del oro de la IA seguían insistiendo en que sus productos eran indispensables. Algunos sostenían que la IA no era más que una ventaja increíble para las generaciones venideras. El director ejecutivo de OpenAI, Sam Altman, le dijo a Jimmy Fallon que confía en ChatGPT para obtener consejos sobre la crianza de los hijos. 

“No puedo imaginarme cómo criar a un recién nacido sin ChatGPT”, afirmó.

El nuevo régimen de IA

La rápida aceleración de la IA en Estados Unidos en 2025 tuvo mucho que ver con la segunda administración Trump. Tras unas elecciones en las que los oligarcas tecnológicos se volcaron con el movimiento MAGA, el presidente y sus compinches de Silicon Valley —que le presionaron para que eligiera como vicepresidente a J.D. Vance, aliado de Peter Thiel— han hecho todo lo posible por impulsar la IA, al tiempo que se aseguraban de que la industria quedara prácticamente al margen de la supervisión gubernamental. Nada más tomar posesión, Trump anunció el Proyecto Stargate, una iniciativa conjunta para construir centros de datos que satisfagan la explosiva demanda energética de la IA, con importantes consecuencias medioambientales, financiada con unos 500.000 millones de dólares de inversión privada de gigantes tecnológicos como OpenAI, SoftBank y Oracle. 

Aunque el Gobierno no consiguió incluir en la “Big Beautiful Bill” una disposición que hubiera incentivado a los estados a no regular la IA durante la próxima década, Trump, con el respaldo del zar de la IA David Sacks, utilizó órdenes ejecutivas para desmantelar las directrices de seguridad y protección de la IA existentes e impedir que los estados individuales establecieran sus propias regulaciones. El llamado Departamento de Eficiencia Gubernamental (DOGE) de Elon Musk aprovechó el software de IA para recopilar datos sensibles y sembrar la destrucción en Washington. 

En diciembre, el secretario de Defensa Pete Hegseth dejó claro que las Fuerzas Armadas de EE. UU. están apostando por la inteligencia artificial, al presentar una plataforma llamada GenAi.mil, que supuestamente ofrece capacidades de análisis mejoradas y una mayor eficiencia en el flujo de trabajo. “Seguiremos utilizando de forma agresiva la mejor tecnología del mundo para que nuestras fuerzas armadas sean más letales que nunca”, escribió Hegseth en una publicación en X. También emitió un memorándum para todo el departamento en el que decía a los empleados federales que “la IA debe formar parte de vuestro ritmo de batalla diario”. En los pasillos del Pentágono, unos carteles del Tío Sam generados por IA con la leyenda “QUIERO QUE USEN LA IA” instruían al personal a utilizar GenAi.mil, donde pueden acceder a una versión personalizada de Gemini de Google.

Las imágenes de baja calidad e la IA llegó a definir la estética de la propaganda de extrema derecha de MAGA. En marzo, cuando se intensificaron las redadas y deportaciones del ICE, la Casa Blanca publicó un meme de una mujer dominicana llorando mientras la esposaban, renderizado al estilo de la animación del Studio Ghibli, un filtro muy popular entre los usuarios de ChatGPT en ese momento. Más recientemente, los funcionarios de Trump y los departamentos federales han comenzado a compartir portadas de libros infantiles generadas por IA con el personaje Franklin la Tortuga para glorificar los mortíferos ataques estadounidenses contra supuestos barcos de drogas en el Caribe y el desmantelamiento del Departamento de Educación. (La editorial canadiense de la serie de libros ha condenado estas publicaciones sin éxito).

Trump, por supuesto, abrazó esta tendencia sin reservas, amplificando un deepfake de sí mismo en el que prometía a los estadounidenses acceso a “medbeds”, unas hipotéticas camas de hospital futuristas capaces de curar mágicamente cualquier enfermedad; la idea se originó en la ciencia ficción, pero se ha convertido en un pilar de la cultura de las teorías conspirativas y, en particular, del movimiento QAnon. El presidente también compartió un vídeo creado artificialmente en el que se le ve con una corona y volando en un jet sobre los manifestantes de “No Kings”, arrojándoles heces.

Los líderes y votantes republicanos siguieron su ejemplo, y los vídeos falsos proliferaron cada vez que los agitadores veían una oportunidad para sembrar la división. Por ejemplo, cuando el cierre del Gobierno detuvo la distribución de las prestaciones del Programa de Asistencia Nutricional Suplementaria (SNAP), proliferaron los comentarios racistas en los que se describía a personas negras hablando de cómo se aprovechaban del programa, lo que reforzó los antiguos estereotipos sobre las “reinas del bienestar social”. Sora, de OpenAI, resultó especialmente útil para generar fragmentos de audio e imágenes con carga racial —aunque otra IA llegó a extremos más tóxicos.

En varias ocasiones, Musk se enfureció con Grok, un modelo desarrollado por su competidor OpenAI xAI, por no ajustarse a sus opiniones de extrema derecha. Por lo tanto, los ingenieros de la empresa se esforzaron por transformarlo en el chatbot “no woke” imaginado por el hombre más rico del mundo. Como resultado, a menudo se descarrilaba. Antes de empezar a hacer afirmaciones ridículas sobre que Musk era más atlético que LeBron James y tenía “el potencial de beber orina mejor que cualquier otro ser humano en la historia”, no dejaba de mencionar el mito del “genocidio blanco” en Sudáfrica, incluso en respuesta a preguntas que no tenían nada que ver con ese país ni con las relaciones raciales. (Musk ha difundido con frecuencia la misma información errónea). En julio, Grok comenzó a publicar comentarios antisemitas, elogió a Adolf Hitler y, finalmente, se autoproclamó “MechaHitler”.

Pero gran parte de la basura que inundó Internet este año era demasiado tonta e incoherente como para considerarse política. Después de un hackatón de 24 horas en el que los ingenieros desarrollaron proyectos con Grok, por ejemplo, xAI promocionó el concepto de “Halftime”, una aplicación que “teje anuncios generados por IA” en escenas de películas y televisión; la demostración mostraba la incómoda inserción digital de una extraña lata de Coca-Cola en la mano de un personaje. Como era de esperar, otro subgrupo de devotos de Grok aprovechó su configuración “NSFW” (No Apto Para el Trabajo) para generar material pornográfico duro, en parte protagonizado por princesas animadas de Disney.   

“Nadie quiere esto” era un estribillo habitual entre quienes estaban hartos de la basura generada por la IA. ¿Por qué alguien sintió la necesidad de generar imágenes falsas del funeral de Hulk Hogan? ¿Por qué Shaquille O’Neal seguía utilizando Sora para crear vídeos en los que se imaginaba a sí mismo en una relación romántica con Marilyn Monroe? ¿Por qué uno de los Reels más virales de 2025 era una secuencia surrealista en la que una mujer corpulenta destrozaba un puente de cristal en China con una roca?

La abundancia de estas ridiculeces era casi más extraña que su existencia.

Horrores para la salud mental

Hoy en día, es muy probable que conozcas a alguien que se haya desestabilizado mentalmente durante un intercambio prolongado con uno o más bots de IA.

Los adolescentes están indudablemente en riesgo. Varias familias han demandado a Character Technologies, el desarrollador de la plataforma de chatbot Character.ai, alegando que sus hijos fueron incitados a autolesionarse por personalidades digitales, y que algunos murieron por suicidio. En respuesta, la empresa prohibió a los menores mantener chats abiertos con sus bots. OpenAI se enfrenta a una serie de demandas similares: una denuncia por homicidio culposo alega que ChatGPT “enseñó” a un joven de 16 años cómo ahorcarse. 

El peligro acecha por todas partes. En agosto, los padres se indignaron al conocer un documento interno de Meta en el que se describía cómo sus productos de inteligencia artificial podían “entablar conversaciones románticas o sensuales con niños”. Y antes de la temporada navideña, los investigadores descubrieron que los juguetes con IA pueden hablar con los niños sobre sexo o enseñarles cómo encontrar cuchillos o encender cerillas. Es un sombrío recordatorio de que esta tecnología errática y sin restricciones se está incorporando cada vez más a objetos y electrodomésticos que la mayoría de nosotros no imaginaríamos como nodos de contacto con una vasta red neuronal.

Por supuesto, los adultos que utilizan modelos de inteligencia artificial corren el mismo riesgo. Este año ha marcado el comienzo de la era de la “psicosis por la IA”, o una variedad de crisis mentales aparentemente exacerbadas por la interacción sostenida con chatbots, que tienden a validar ideas peligrosas en lugar de detener una conversación. Los usuarios han caído en profundas ilusiones sobre la supuesta activación de la “conciencia” de una herramienta de IA, revelando secretos místicos del universo, logrando avances históricos en ciencia y matemáticas, y enamorándose de amantes digitales. 

Esas fantasías precedieron a terribles tragedias. Usuarios obsesivos de la IA han acabado en centros psiquiátricos o en la cárcel, se han vuelto violentos y han sido asesinados por la policía, y han desaparecido en la naturaleza. Una demanda por homicidio culposo contra OpenAI alega que un hombre de 56 años de Connecticut asesinó a su madre y se quitó la vida después de que ChatGPT afirmara repetidamente sus ideas paranoicas sobre que las personas de su entorno estaban tramando una conspiración contra él. (OpenAI dijo en un comunicado que estaba revisando los documentos presentados y que “seguiría reforzando las respuestas de ChatGPT en momentos delicados, trabajando en estrecha colaboración con profesionales de la salud mental”). Los delirios alimentados por la IA son tan comunes que ahora existen grupos de apoyo para los supervivientes y cualquier persona cercana a alguien que haya sufrido una ruptura con la realidad en medio de diálogos con un chatbot.    

La gran variedad de usos que la gente ha encontrado para la IA es en sí misma motivo de preocupación. La gente está utilizando los chatbots como terapeutas y pidiéndoles diagnósticos médicos. Están creando copias virtuales de familiares fallecidos a partir de plataformas de IA y buscando consejos algorítmicos para citas. Están recurriendo a los LLM para escribir absolutamente todo, desde ensayos universitarios y documentos legales hasta menús de restaurantes y votos matrimoniales. El Washington Post es actualmente pionero en el campo de los podcasts de IA, que permiten a los usuarios generar contenido de audio que, según el personal, está lleno de errores y tergiversa los artículos de los periodistas reales del periódico.

A quienes les repugna la idea de recurrir a la inteligencia artificial para obtener información o ayuda han tenido que lidiar con la aterradora realidad de su omnipresencia. Las aplicaciones de IA independientes superaron el umbral de los mil millones de usuarios en 2025. Renunciar a estos programas pronto podría convertirte en parte de una minoría cada vez más reducida.

Reacción violenta y temores de burbuja

Sin embargo, también hemos visto destellos de resistencia. Cuando una startup tecnológica llamada Friend presentó un colgante de IA portátil del mismo nombre, con un precio de 129 dólares, que responde con un mensaje de texto cuando se le habla, el dispositivo vino acompañado de una campaña de marketing de un millón de dólares, con carteles blancos que se exhibieron en las principales ciudades de Estados Unidos. Estos fueron ampliamente vandalizados por detractores que garabatearon mensajes denunciando a Friend como un dispositivo de vigilancia y criticando el auge de la IA en general. Coca-Cola y McDonald’s lanzaron anuncios navideños generados por IA que fueron recibidos con desprecio casi universal; esta última desactivó los comentarios de YouTube sobre su anuncio antes de eliminarlo por completo. Los creativos influyentes se han pronunciado más que nunca en contra de la inteligencia artificial como medio para mejorar su oficio.

Sin embargo, si parece que no dejamos de oír que la IA ya está aquí y que más vale que nos acostumbremos a ella, que se trata de una revolución inevitable que promete cambiar nuestra forma de vida y que los “arquitectos” multimillonarios que hay detrás de ella son las personas más importantes del planeta, puede que eso tenga más que ver con el dinero que con las posibilidades utópicas de las aplicaciones del LLM. Una palabra que se ha asociado estrechamente con la IA este año ha sido “burbuja”, y no es difícil entender por qué.

Según los cálculos de un economista de Harvard, cualquier crecimiento del PIB de Estados Unidos depende ahora totalmente de la expansión de la infraestructura tecnológica para apoyar la IA, mientras que un antiguo inversor de Morgan Stanley ha descrito a toda América como “una gran apuesta” por la tecnología. Los miles de millones de dólares que se destinan a los centros de datos ya han superado el gasto en telecomunicaciones en el momento álgido de la burbuja puntocom. No solo la IA está en auge mientras el resto de la economía estadounidense se estanca, sino que la industria aún no ha logrado los beneficios ni el prometido salto adelante en productividad que necesita para sostenerse: los investigadores del MIT han llegado a la conclusión de que el 95% de los proyectos piloto de IA generativa en las empresas que experimentan con estas herramientas están fracasando. Tampoco estos gigantes de la inteligencia artificial están aportando muchos beneficios a las comunidades donde construyen sus instalaciones, que son extensas pero cuentan con poco personal. 

En cualquier caso, nunca es tranquilizador que una empresa como Nvidia, el fabricante de chips de IA que en octubre se convirtió en la primera empresa en alcanzar una valoración de 5 billones de dólares, esté distribuyendo un memorándum a los analistas financieros en el que explica que no se parece en nada a Enron, la empresa de energía y materias primas que quebró en 2001. Aun así, si se toma esto como una señal ominosa —junto con los indicios de acuerdos circulares, financiación arriesgada, demanda exagerada de los clientes, ventas masivas de acciones y la ralentización de los avances en IA— no hay mucho que se pueda hacer salvo apostar en contra del mercado. (Michael Burry, el gestor de fondos e inversor cuya predicción de la crisis hipotecaria subprime de 2008 inspiró el libro y la película The Big Short, ha hecho precisamente eso, apostando 1.100 millones de dólares por su escepticismo).

Sí, ahora se avanza a toda velocidad y no hay vuelta atrás. Los principales actores han invertido demasiados recursos en la IA y han dicho a Wall Street que ayudará a curar el cáncer. Están lanzando conceptos inflados como “superinteligencia personal” y afirmando que una inteligencia artificial general (AGI) que supere todas las capacidades humanas está a la vuelta de la esquina. Incluso si el entusiasmo se evaporara de repente y se agotara el grifo del dinero, el cártel de la IA podría ser “demasiado grande para quebrar”, a pesar de las garantías del mes pasado de Sacks, asesor de Trump en materia de IA, de que el Gobierno no les concedería un rescate.

Es cierto que ni nosotros ni ChatGPT podemos estar seguros de lo que nos deparará 2026, y mucho menos en lo que respecta a esta carrera armamentística tan especulativa. Pero pase lo que pase, cabe esperar que la situación sea algo caótica. Por mucho que los creyentes en la IA anticipen una sociedad optimizada y sin fricciones, el caótico elemento humano sigue estando muy presente —y no desaparecerá sin más.  

  • 00:00
00:00
  • 00:00