Hoy se habla mucho de inteligencia artificial (IA), tanto que la expresión empieza a referirse a un ser misterioso, amorfo y cuestionable. Es un nombre lleno de significado y, a la vez, vacío. La idea de una inteligencia artificial sacia el anhelo muy humano de convertirnos en dioses creadores debido a la ciencia y despierta los miedos primitivos que suscitan las inteligencias no humanas. Desde la naturaleza hasta las máquinas, pasando por los dioses, las voluntades no humanas nos fascinan y nos aterran. Las corporaciones de la industria de IA cultivan estos miedos para crear confusión sobre lo que hacen y venden. Difunden la idea de que esta creación podría tomar conciencia, rebelarse y actuar contra la humanidad. Con un mensaje espeluznante, dirigen nuestra atención a un escenario hipotético de ciencia ficción. Mientras tanto, ignoramos los detalles de lo que hacen ahora y de los intereses —demasiado humanos— detrás de esa industria.
Esta narrativa catastrofista —impulsada por líderes de la industria tecnológica, algunos académicos y figuras públicas— se expresa bien en la carta abierta “Pause Giant AI Experiments” del Future of Life Institute, firmada por Elon Musk, Yuval Noah Harari y más de treinta mil personas.1 Los principales medios de comunicación difunden y magnifican este discurso con titulares del tipo: “Los expertos temen que la inteligencia artificial podría tomar el control de la civilización”. Este tono alarmista provocó una respuesta crítica de algunos medios, círculos académicos y escépticos independientes. A muchas personas nos cuesta comprender la posibilidad de que la inteligencia —como la conocemos y experimentamos— pueda surgir de una serie de cables y redes de información organizada.
En esas líneas se construyen dos aproximaciones en el debate sobre el estado actual de la IA. Por un lado, el discurso del llamado hype o bombo publicitario que exagera las capacidades de la inteligencia artificial y presenta un escenario catastrófico sobre sus posibles consecuencias. Bajo tal narrativa, la amenaza contra la humanidad viene de la IA misma: se habla de sus responsabilidades morales en lugar de las de creadores o usuarios. Por otro lado, la discusión pretende más realismo sobre las capacidades de las IA y niega que puedan empezar a decidir por sí solas. Si no tienen agencia, mucho menos responsabilidades morales: éstas son sólo humanas.
Cada bando presenta una imagen distinta. Dentro de la narrativa del hype o entusiasmo, se le da forma de nube: una inteligencia similar a la nuestra que no puede tocarse porque, como el vapor, es etérea y sublime. El lado realista imagina la IA como un montón de cables y placas metálicas en cuartos llenos de servidores con sus circuitos y chips. Esta narrativa nos dirige también a las minas de silicio y a la piedra de cobre: a los minerales que sostienen materialmente a las IA. Un lado de la discusión las llama mentes, el otro las reduce a sus cables; uno las ve como agentes, otro como herramientas. En este ir y venir ambos lados presentan verdades parciales y confunden el debate público: éste es el primer riesgo, que nos sitúa entre la nube —y su posible tormenta— y los cables que vienen de las entrañas del planeta.
La confusión es peligrosa porque estas nuevas tecnologías aparecieron en nuestra vida de un día a otro y tenemos pocos elementos para entender qué está en juego. En ese ambiente intentamos moldear imaginarios y convenciones morales con las que nuestras sociedades se aproximarán a las IA. No se trata de definir si son buenas o malas, sino de comprender qué implica su uso y quiénes serían responsables de las consecuencias negativas. Primero, habría que entender cómo funcionan para definir si es razonable considerarlas capaces de dañar de manera deliberada a alguien o de hacerle el bien. Al mismo tiempo, tendríamos que contextualizar sus desarrollos: quiénes las crean y para qué. También nos gustaría entender qué problemas podrían resolver y qué objetivos valiosos de la humanidad podrían comprometerse. Las preguntas no se agotan, pero algunas luces permiten navegarlas.
Mientras nos emocionamos con los desarrollos esperanzadores de la IA, le encontramos más usos inaceptables. Por una parte, se mejoran mecanismos para diagnosticar enfermedades a tiempo, se crean dispositivos para explorar nuestra creatividad, se diseñan herramientas para proteger la naturaleza y un sinfín de adelantos útiles, bellos y necesarios. Al mismo tiempo, se fabrican noticias falsas en masa, se utilizan drones automatizados para la guerra, se delegan decisiones importantes, entre otros usos peligrosos de la IA. Además, esta industria explota a miles de trabajadores del sur global y consume cantidades obscenas de energía y agua.2 La confusión sobre los riesgos de la IA nos distrae de todo esto: de lo bueno y lo malo.
La discusión gira en torno a tres aspectos de la IA. Primero su definición: lo que cada bando considera que es. De ahí se deriva el problema de atribuir responsabilidades morales, ya sea a la IA o a los humanos. En conjunto, estas dos capas implican un tercer elemento: el escenario presente y futuro sobre lo que está en juego. Esto último es lo que vemos en las narrativas sobre la IA: una catastrofista y otra más realista. El hype presenta un discurso engañoso, pero ilustra bien algunos de los nuevos problemas planteados por la inteligencia artificial. El acercamiento realista es una excelente crítica al hype y propone un camino más responsable, pero no considera que la IA presenta enigmas inéditos. Considero que hay una tercera aproximación responsable y realista que no demerita las posibilidades abiertas por la inteligencia artificial, pero tampoco las exagera.3

Para llegar a la tercera vía hay que partir del primer extremo: la nube del hype catastrofista. Con el propósito de vaticinar el fin de la humanidad a manos de esta inteligencia, ese bando asume una serie de supuestos, algunos cuestionables y otros plausibles. En primer lugar, instalaron y popularizaron el término paraguas de “inteligencia artificial” para englobar un sinfín de programas computacionales a los que se les atribuye inteligencia por igual, aunque las diferencias entre sus capacidades son significativas. Ahora que circula su gran marca (IA), fijaron un horizonte aún más ambicioso: la Inteligencia Artificial General (AGI, por sus siglas en inglés); una inteligencia que estaría en el nivel de la humana, como para afirmar que las herramientas actuales ya son inteligentes, no en el mismo sentido que tú o yo, aunque “lo serán pronto”.
El discurso entusiasta sitúa a las IA detrás de unas nubes de opacidad e imprecisiones que permiten presentarlas como un enigma que sólo se revela ante pocos expertos (en su mayoría, hombres). Aquellos que las conocen realmente afirman que sus máquinas ya toman decisiones importantes de forma más o menos autónoma, por ejemplo, con algo que llaman “sistemas de agentes artificiales expertos”. Incluso les atribuyen subjetividad y personalidad, sin considerar que puede explicarse por una programación humana intencionada o por el hecho de que los datos de entrenamiento provienen de subjetividades humanas reales y la máquina sólo las imita. Imaginemos lo valiosa que sería una herramienta así de sofisticada (casi humana) en el mercado: exagerar las capacidades de la IA es una gran estrategia de marketing.
Según la narrativa del hype, la IA puede llegar a ser tan autónoma en sus operaciones que cuando ocasione un efecto negativo podríamos considerarla como la principal responsable. En esa posibilidad está la mayor motivación para exagerar sus capacidades. Una herramienta que permite diluir responsabilidades morales y legales es muy lucrativa. Esta pretensión de autonomía combinada con la capacidad de infligir daño da los elementos necesarios para el escenario catastrofista, sobre todo si sumamos vocabulario y fantasías de ciencia ficción que se replican en la industria e investigación de la IA. En este relato, la máquina se rebela, desplaza a los humanos o, en el extremo, los aniquila. Es un arma potente y seductora que puedes amar o temer.
El lado realista del debate sospecha del uso mismo de la etiqueta “inteligencia artificial”: le parece inadecuada porque refiere a algo inexistente.4 Argumentan que es impreciso presentar a la IA como un sujeto, cuando se trata de objetos más parecidos a una calculadora que a una mente humana. En estas líneas les parece absurdo —o ridículo— atribuirles responsabilidades a las inteligencias artificiales. Si no las podemos considerar agentes, mucho menos personas morales. Dado que no experimentan dolor, no pueden desear infligirlo.5 La narrativa realista diría que quienes están detrás del discurso catastrofista sólo buscan vender más y responder menos.
El escenario realista de la IA encuentra en esta industria los mismos desafíos que presenta cualquier otra del capitalismo tardío, aunque con herramientas más poderosas. Las amenazas principales de la IA no difieren mucho de las que conocemos: trabajo precario en zonas pobres del planeta, explotar sin medida recursos naturales y concentración desproporcionada de riqueza y poder. Pero la industria de la IA añade nuevas amenazas: tener y procesar todos los datos —por fuerza privados— de quienes usan sus herramientas.6 También se abre un nicho de poder político demasiado grande —e injustificado desde un punto de vista democrático— para los dueños de las redes sociales, quienes lideran buena parte del desarrollo de la IA.
Contrario a la narrativa del hype que plantea un hipotético escenario futuro, la narrativa realista dirige su mirada al presente. Desde la ética, parece una postura más responsable centrada en los riesgos actuales y el potencial daño futuro que implican: una sociedad donde tener acceso a inteligencias artificiales significa evadir responsabilidades. Lejos de introducir nuevas inteligencias a nuestras sociedades, gracias a la IA las inteligencias humanas tendrán armas más poderosas para atacarse entre sí. Según la realista, siempre se podrá rastrear a los humanos detrás de las máquinas involucradas en algún delito o daño moral. Bajo esta perspectiva, los desarrolladores están en condiciones de diseñar IA seguras y, en caso de que no resulten así, las consecuencias recaerán en ellos.
El discurso realista queda bien con nuestra comprensión básica del mundo. Parecería ridículo atribuirle inteligencia a un coche tradicional (no autónomo) y sería más absurdo imputarle responsabilidades. Sabemos que se diseñó para hacer lo que hace: no toma decisiones por sí mismo. No culparíamos al coche del atropellamiento en que estuvo involucrado. Hasta hace poco, la relación del humano con sus herramientas parecía bastante simple: las creábamos con un fin concreto y ellas daban ese resultado. En un entorno de herramientas indiferentes, sólo podíamos atribuirles moralidad a los humanos.
Este discurso comunica bien la gravedad de los riesgos actuales de la IA, pero tiene límites importantes; es real, como señala el discurso del hype, que las IA tienen cierto grado de agencia y que es relevante en términos morales. Estas inteligencias crean nuevas situaciones para las que nuestros parámetros tradicionales de agente, acción y juicio moral no bastan. Se forman brechas en las cadenas de decisiones cuando una persona desarrolla un algoritmo con un objetivo, éste usa la información disponible de formas inéditas —aprende de manera autónoma— y crea distintas estrategias para lograr ese objetivo. Esto tiene consecuencias que surgen de combinaciones de datos imprevistas. De manera que algunas decisiones moralmente relevantes provienen de la máquina. Un ejemplo de esto ocurrió con el algoritmo de Volkswagen que entregaba resultados sobre emisiones de carbono. Salieron resultados engañosos y los desarrolladores intentaron culpar al algoritmo del fraude.7
El caso Volkswagen es un ejemplo básico de algo más problemático. Actualmente se usan drones autónomos en la guerra, hay algoritmos que deciden cómo distribuir créditos o empleos y hay grandes modelos del lenguaje —como el que usa ChatGPT— que escriben información falsa y engañan a las personas sobre sus capacidades reales. Entonces, ¿quiénes serán responsables de lo que haga una IA? ¿De qué serviría imputar a una máquina sin emociones, incapaz de sentir dolor o placer?, ¿qué clase de justicia haríamos a la víctima?, ¿qué tipo de sociedad moldearíamos si las máquinas pudieran infligir dolor sin sentir culpa? El escenario es sombrío, no queremos someter a la humanidad al poder de máquinas indiferentes al dolor. Ni de humanos que se esconden detrás de esta ilusión.
Necesitamos nuevas formas de comprender la responsabilidad ante las cuestiones morales no tradicionales que nos plantea la IA. En un problema moral clásico podemos ubicar responsables y víctimas. A puede responder por su delito, ser juzgado y recibir un castigo o reparar el daño. Pero cuando la IA media la relación entre A y B hay un agente sin voluntad que interviene en la toma de decisiones morales. A diferencia del coche común que es un agente causal indiferente en un atropellamiento, el algoritmo de un coche autónomo puede considerarse como agente causal necesario para el atropellamiento. Aunque el algoritmo no tenga valores ni intereses, la decisión que llevó al daño corre por su cuenta en buena medida.
La intervención de la IA en la toma de decisiones o en actos morales puede atenderse desde la idea de una agencia distribuida. Ésta supone una cadena de actos y actores que en conjunto son responsables —en diferentes proporciones— de las consecuencias de su actuar colectivo. Esta agencia distribuida se podría visualizar con la imagen del chip o circuito integrado, que se ve como una pequeña red de filamentos y nodos. Con esa imagen en mente puede sortearse la confusión entre las nubes del hype y los cables del discurso realista para pensar con más claridad en las IA como posibles agentes en nuestras sociedades.

En su Manifiesto cíborg, Donna Haraway presenta la idea del circuito integrado para exponer las distintas funciones de las mujeres en una sociedad tecnificada; esta imagen ilustra esas redes de identidades y espacios donde las fronteras entre individuos y sus comunidades son difusas. Uso esta metáfora para visualizar que la digitalización y uso generalizado de máquinas configura una nueva estructura social que no deja de ser comunitaria. En el circuito integrado se encuentran personas con sus máquinas informáticas y redes de datos. Tenemos muchas funciones y objetivos a la vez, pero las relaciones de base persisten, nos configuran. Imagino el circuito como una ciudad vista desde arriba: en lugar de calles hay filamentos de cobre sobre los que navegamos con nuestra información. Son tan materiales como esos cables que el discurso realista ve, pero éstos no son puro mineral, transmiten información en forma de energía en los campos electromagnéticos que forman a su alrededor. De manera que, en el circuito integrado, la IA no se reduce a la materia del cable, pero tampoco es una entidad vaporosa como la nube.
La asociación de máquinas y sus chips nos es familiar. La imagen del circuito integrado ofrece una nueva metáfora para visualizar a la IA en el contexto de las sociedades humanas-maquinales contemporáneas. Comunidades donde los humanos crean máquinas que luego moldean a los humanos mismos o las relaciones entre nosotros —pensemos en las redes sociales o las redes informáticas de bancos y gobiernos—. Es algo más complejo que la nube o los cables, y por eso esta metáfora nos ayuda a tener una mejor idea del lugar que habitamos y desde donde intentamos forjar relaciones simbióticas entre los humanos, la naturaleza y las IA.
A partir de esta imagen podemos fijar algunas coordenadas hacia dónde dirigir nuestra atención para una IA responsable ante la humanidad. Primero, nuestro camino nos lleva al presente; si no comprendemos lo que sucede aquí y ahora, no podremos moldear la tecnología del futuro hacia nuestros fines. La idea del circuito integrado nos hace pensar las IA como herramientas mediadoras de las acciones y relaciones humanas. Desde ahí, nuestra atención se dirige a las prácticas indeseables de la industria actual, como sugieren las realistas. Algunos riesgos están en el uso de nuestros datos, el consumo de recursos, las prácticas laborales injustas, en las amenazas al discurso político auténtico, etcétera. Ante esto habría que preguntar: ¿quiénes crean las tecnologías?, ¿quiénes son sus dueños?, ¿qué intereses tienen? También habría que preguntarse cómo funcionan las herramientas que nos interesan. Si la IA no tiene voluntad en el sentido humano (aunque tenga cierta autonomía y algo similar a la inteligencia), impidamos que los humanos se escondan tras ellas por nuestras confusiones.
Pensar en los tipos de herramientas que queremos para el presente y futuro es un asunto político, pero también científico. Idealmente, la IA permitiría descentralizar poderes y conocimientos, delegar trabajos pesados sin que eso signifique abandonar a su suerte a quienes viven de dichos trabajos. Una vez que nos reconocemos insertas en el circuito con nuestras máquinas, hemos de aprender a moldearlas para nuestros fines de maneras responsables. Desde ahí, podemos rechazar los usos que dañan a las personas y sus ecosistemas —que también están en el circuito. Las múltiples funciones de humanos y máquinas requieren del equilibrio simbiótico entre todos los agentes relacionados. Una IA armoniosa en este circuito integrado permearía nuestras vidas —que ya lo hace— como la herramienta que es, no como un ser consciente ni peligroso.
Tatiana Lozano
Filósofa y ensayista. Estudia la maestría en Ética y Justicia Global en la Universidad de Birmingham.
1 Future of Life, “Pause Giant AI Experiments: An Open Letter”, 22 de marzo de 2023, https://bit.ly/3zjthzV.
2 Tubaro, P.; Casilli, A.; Coville, M. “The trainer, the verifier, the imitator: Three ways in which human platform workers support artificial intelligence”, Big Data & Society, 7, 2021; Crawford, K., y Joler, V. “Anatomy of an AI System: The Amazon Echo as an anatomical map of human labor, data, and planetary resources”, 2018, https://anatomyof.ai.
3 Desarrollé este argumento de manera más sistemática en el capítulo “Un enfoque relacional en la atribución de responsabilidades a la IA”, publicación académica editada por Karen González Fernández y José Martín Castro Manzano, en prensa.
4 Bender, E. M. “On NYT Magazine on AI: Resist the Urge to be Impressed”, Medium, 17 de abril de 2022, https://bit.ly/45uTGac.
5 Véliz, C. “Moral zombies: why algorithms are not moral agents”, AI & Society, 36, 2021, pp. 487-497.
6 Véliz, Carissa, Privacy is Power: Why and How You Should Take Back Control of Your Data, Bantam Press, 2021.
7 Johnson, D. G., y Verdicchio, M. “AI, agency and responsibility: the VW fraud case and beyond”, AI & Society 34, 2019, pp. 639-647.