Introducción
Escribir este libro no ha sido fácil. Elegí un tema que me apasiona pero que tiene una versatilidad vertiginosa, una complejidad creciente y una multidimensionalidad cambiante. De hecho, durante los meses de escritura, los eventos que me resultaban relevantes eran sustituidos de un día para otro por otros más complejos e interesantes.
Así que una de las primeras decisiones que tuve que tomar fue elegir algunos acontecimientos significativos para mi argumento principal y abandonar la pretensión de entregar un libro actualizado Por ejemplo, a los pocos días de que terminé el capítulo sobre el problema de la creatividad, OpenAI lanzó su modelo de generación de videos SORA2, que revolucionará las discusiones sobre propiedad intelectual y derechos de autor en el mundo También se empezó a hablar de “superinteligencia artificial” por esos días. Opté por dejar los capítulos que ya había trabajado en sus términos porque la problemática de fondo planteada seguirá siendo la misma.

Valga esta advertencia y esos ejemplos para dar cuenta de la velocidad con la que evoluciona el fenómeno tecnológico y la necesidad de buscar los temas y dilemas de fondo que plantea para las personas que habitamos el mundo en el siglo XXI.
La Inteligencia Artificial impacta de muchas maneras en nuestras vidas individuales y colectivas En el libro se encuentran diversos ejemplos de cómo lo hace, pero es importante advertir que se trata de impactos emocionales y racionales, tanto en la dimensión personal como en la dimensión social.
Esta situación permite justificar el enfoque de este libro. Como investigador de la Universidad Nacional Autónoma de México llevo décadas estudiando la relación entre el derecho —soy constitucionalista— y el poder —también soy teórico de la política—, sobre todo en el ámbito de las dinámicas estatales. Pero desde hace poco más de un lustro me interesé en las intersecciones entre el derecho y la IA.
No tardé mucho en darme cuenta de que mis temas tradicionales de estudio —la concentración y la limitación del poder, los derechos humanos, la autonomía de las personas, la democracia— eran interpelados de una manera relevante e interesante por esas intersecciones. Así descubrí una nueva veta de reflexión que me ha tenido curioso, entretenido, ocupado, divertido y preocupado en los años recientes. A este libro lo dispara más la preocupación que los otros cuatro resortes, pero sin ellos no habría podido escribirlo.
La tesis que propongo es simple y, en una paradoja aparente, a la vez, compleja. El empuje tecnológico —que va más allá de la Inteligencia Artificial Generativa, pero que tiene en ésta una expresión ejemplar— ha permitido la mayor concentración de poder en manos de unas cuantas personas nunca antes vista, y creo que ni siquiera imaginada. La clave está en la manera en la que industrias tecnológicas con ingente poder económico, que también poseen los medios de control ideológico, hacen alianzas con actores políticos que gobiernan potencias globales.
En esta amalgama no importan las coordenadas políticas. De hecho, aunque parezca increíble, Estados Unidos y China son equiparables. Si bien con estrategias distintas y políticas públicas diferentes, en ambos Estados se realizan inversiones multimillonarias para desarrollar tecnologías —en particular de AI— con impactos en múltiples ámbitos de la vida colectiva. Esas inversiones son fomentadas por los gobiernos nacionales y, aunque las aplicaciones tecnológicas tienen diversas funciones y fines, orientan las ideas y la vida de sus poblaciones. Son alianzas público-privadas para gobernar naciones que se disputan el gobierno mundial.
La tendencia a la confusión de poderes no es nueva, lo que está cambiando es la capacidad de los medios tecnológicos para hacerla posible. La propaganda en nuestros días puede parecerse a la de otros momentos ominosos en la historia como, por ejemplo, la Alemania nazi o la Italia fascista. Nihil novum sub sole. Pero nunca habían existido herramientas tan poderosas para falsear la realidad y convencernos del engaño.
En el pasado, aun en los contextos totalitarios, la historia era una secuencia de eventos reales que se acompañaban de narrativas que versaban sobre los mismos y que podían intentar falsearlos. Pero era posible desvelar la falsedad. Por eso, por ejemplo, sabemos que las víctimas del bombardeo aliado a la ciudad de Dresde en febrero de 1945 fueron alrededor de 25 000 personas y no 250 000, como difundió el ministro de Propaganda nazi, Joseph Goebbels. El engaño tuvo efectos, pero fue desenmascarado.
En la actualidad, nuestra capacidad para discernir entre lo que es real y lo que es falso (generado mediante IA) está en crisis. Lo paradójico —de nuevo reaparece esta palabra— es que las imágenes, textos, narrativas, versiones, sonidos, videos, etcétera, generados también son reales. Aunque no sean veraces. Por eso la superposición entre lo que sucede y lo que sabemos no necesariamente coincide. Pretendemos saber para entender, pero ese vínculo cada vez es más incierto. Es como si se hubieran dislocado los referentes de nuestra existencia. De esta manera, las personas que habitamos el mundo en el siglo XXI estamos perdidas en una ignorancia que ignoramos.
Es cierto que el mundo siempre ha sido impredecible y, en buena medida, inescrutable, pero con la IA le hemos adicionado —porque la hemos creado los seres humanos— una capa de complejidad inusitada. Unacomplejidad artificial e inteligente. Lo primero es un dato, lo segundo es el principal desafío que, a mi entender, enfrenta la humanidad en los años venideros. Lo es, entre otras razones, porque fermenta el caldo de cultivo idóneo para el totalitarismo total.
Una nota del diario El País del 25 de abril de 2025, que mis colegas de la Línea de Investigación sobre Derecho e Inteligencia Artificial (LIDIA) del Instituto de Investigaciones Jurídicas de la UNAM —que coordino junto con Pablo Pruneda Gross— compartieron en el chat de quienes la integramos me pareció óptima para dar contexto a los temas y a la estructura de este volumen. “Jianewi Xun, supuesto autor de la hipnocracia, no existe y es fruto de la Inteligencia Artificial”, consignaba el encabezado
Leí la nota un par de veces. Su subtítulo era más preciso y, al mismo tiempo, más enigmático: “Una colaboración entre un ensayista y dos plataformas de IA crea una reflexión sobre las nuevas formas de manipulación”. La historia sería extravagante si no fuera real.
El caso es que se publicó un libro escrito por un autor inexistente que introdujo un concepto —hipnocracia—que se citó en un foro académico serio y relevante sobre un tema oportuno y urgente —“Metamorfosis de la democracia. Cómo la Inteligencia Artificial quiebra la gobernanza digital y redefine nuestra política”— que tuvo lugar en la ciudad de Cannes, Francia. El traductor del libro, Andrea Colamedici, en realidad era su coautor y su contraparte eran dos plataformas de ia. El supuesto autor de la obra, Jianwei Xun, nunca existió. El título del libro también es cautivador: Hipnocracia: Trump y Musk y la nueva arquitectura de la realidad. Su contenido, según consta en la misma nota, era tan sugerente que académicos serios lo retomaron para reflexionar sobre nuevas formas de dictadura y de concentración del poder en el mundo.
Colamedici, con una socia, fundó la editorial Tlon, que publicó el libro, inventó la biografía del autor inexistente y omitió referir el uso de IA para la creación del texto. Así fue como varios mordieron el anzuelo. También reseñó que el libro explica “cómo el poder funciona no a través de la opresión sino a través de las historias que consumimos, compartimos y creemos”.
En la nota de El País se refiere la siguiente y pertinente reflexión del director de L’Espresso, Emilio Carelli, publicada en ese periódico, que fue el que reveló el engaño:
En este punto, una pregunta es obligada y surge espontáneamente: si las tesis de este libro son correctas o al menos han logrado suscitar un intenso debate cultural, que ha involucrado a intelectuales y filósofos, incluidos académicos del prestigioso Instituto HEC de París, que lo citaron en algunos de sus artículos científicos, ¿qué importa que hayan sido escritas por Inteligencia Artificial? ¿O, como en este caso, fueron co-creados con IA? ¿Podría este modelo abrir camino a una nueva manera de hacer filosofía? Si es así, el exitoso experimento de hipnocracia nos enseña algo importante y es que también podemos tener una relación activa con la IA y, sobre todo, podemos utilizarla para aprender a pensar.
La reflexión de Carelli primero me convenció e inmediatamente después me llevó al diccionario de la Real Academia para buscar el significado de mani-pular. Encontré lo siguiente: “Intervenir con medios hábiles y, a veces, en la política, en el mercado o en la información, etcétera, con distorsión de la verdad ola justicia, y al servicio de intereses particulares”.
Cuatro de los cinco capítulos de este libro tratan temas encapsulados en este caso tan peculiar. El quin-totiene un enfoque particular que no tiene eco en esta historia. Elegí cinco ámbitos temáticos de enorme importancia para nuestras vidas para problematizar los efectos de la ia y en particular de la ia Generativa en cada uno de ellos: el poder, la creatividad, la responsabilidad, la guerra y el amor. El contenido de cada uno está en las siguientes páginas por lo que no lo adelanto en esta breve introducción.
Sólo dejo asentado que hay muchos otros problemas que pudieron y deben ser analizados. El problema del medio ambiente, el problema del aprendizaje, el problema del razonamiento, el problema de la desigualdad, el problema de la polarización, el problema del odio y un largo etcétera. Tal vez algún día emprenda la escritura de otro volumen sobre esos temas, pero éste es el que es. Espero que su lectura sea disfrutable y me disculpo con las personas lectoras porque temo que será preocupante.
Pedro Salazar Ugarte
Investigador del Instituto de Investigaciones Jurídicas de la UNAM