Constitución 3.0
La ley y la inteligencia artificial

Desde hace un par de décadas, el planeta ha entrado en un profundo y vertiginoso cambio tecnológico que está impactando de manera radical nuestras vidas. Como suele suceder con las grandes transformaciones, varias investigaciones científicas —que avanzaron durante años por cuerdas separadas— han confluido para echar a andar una dinámica global que no pocos aseguran será más determinante para el futuro de la humanidad que la revolución industrial.

Algoritmos, bases de datos, inteligencia artificial, internet, aplicaciones y plataformas en línea, machine learning o aprendizaje automático, máquinas automatizadas, poder de cómputo, entre muchos otros aspectos más, son parte de esta compleja madeja tecnológica. Se trata de artilugios cuyo funcionamiento no depende de manera directa de seres humanos y cuya autonomía para resolver problemas, evaluar contextos probabilísticos y predecir escenarios interfiere en el ejercicio de los derechos humanos de las personas de manera profunda y diversa, cimbrando los cimientos del constitucionalismo.

Esta sinergia tecnológica determina qué tipo de expresiones recibimos en nuestras cuentas de Facebook y TikTok, fijando las voces que alimentan la conversación pública; decide cuáles son los hallazgos que resultan de nuestras pesquisas en motores de búsqueda como Google, influyendo de manera clave en el conocimiento e información que es “relevante” para las personas; y, por supuesto, determina qué publicidad digital nos acercan a manera de guiño, moldeando nuestras preferencias de consumo y dinámicas de mercado. Pero, con efectos aún más problemáticos, está decidiendo también si una persona de tez oscura acusada de un delito representa un riesgo considerable de fuga o reincidencia y, por ello, debe permanecer en prisión mientras se determina su culpabilidad o inocencia mediante un juicio. O si un matrimonio joven, en el que uno de ellos tiene una enfermedad crónica degenerativa sin cobertura de un seguro médico, es candidato idóneo para un crédito inmobiliario. Asimismo, estas herramientas se utilizan para evaluar si un estudiante recién graduado es un buen prospecto para cierto puesto laboral o si un trabajador reúne méritos suficientes para ser promovido o, más bien, su desempeño está fuera del rango de indicadores mínimos y debe ser despedido.

Estos casos son apenas un puñado de ejemplos de procesos que ya están afectando a millones de personas y que suceden todos los días en diferentes puntos del planeta, incluido México. En nuestro país cada vez más nichos laborales, industriales, agrícolas, educativos e, inclusive, de políticas públicas estatales se reinventan a través de estos recursos tecnológicos. En Ciudad Juárez existe la iniciativa transfronteriza Borderplex Alliance, compuesta por ciudadanos, autoridades y empresas de Chihuahua, Nuevo México y Texas, con el propósito de impulsar proyectos que resuelvan a través de inteligencia artificial varios de los problemas propios de la complejidad social y económica de la frontera norte. Tequila, en el estado de Jalisco, cuenta con la aplicación Tequila Inteligente, la cual usa un sistema de algoritmos para identificar cómo interactúan los turistas con las marcas de tequila —densidad, tráfico, compras, etcétera—, permitiendo a las empresas delinear mejor sus estrategias comerciales.

Amazon, por su parte, cuenta con diversos centros de distribución en el país para mejorar la logística del amplio abanico de productos que vende en su portal. En estos lugares, como se ha comprobado en otros países, los empleados seguramente interactúan con un robot en calidad de superior jerárquico que evalúa su desempeño y permanencia laboral. Este robot califica a los trabajadores de acuerdo con métricas de tiempos mínimos en tareas como almacenar, acomodar, empaquetar y entregar bienes, así como periodos de descanso, consumo de alimentos y visitas al inodoro. Un último ejemplo: para combatir las operaciones simuladas que se realizan a través de facturas falsas y que han provocado un daño fiscal de miles de millones de pesos, el Sistema de Administración Tributaria (SAT) utiliza aprendizaje automático para identificar patrones de facturación y consumo, detectar anomalías y obtener indicios de contribuyentes que pudieran estar realizando fraudes fiscales.1

Las ventajas de estas máquinas automatizadas e inteligentes para la toma de decisiones son indiscutibles. Pero precisamente por su poder es que no debemos dejarnos seducir por sus encantos sin pasarlas por el tamiz civilizatorio del derecho. Tarea que, sin embargo, es mucho más compleja de lo que aparenta.

Ilustración: Patricio Betteo
Ilustración: Patricio Betteo

Periódicamente la humanidad desarrolla tecnologías que alteran de manera profunda la distribución de poder y riqueza en la sociedad. En este sentido, la inteligencia artificial es sólo una tecnología más en esa cadena disruptiva. Hay tres elementos, sin embargo, que la distinguen del resto y que dificultan enormemente su regulación: la sustancia, la velocidad y el alcance de su disrupción.

Esta revolución tecnológica, a diferencia de las previas, consiste en crear herramientas que por primera vez en la historia de la humanidad no son extensiones de la fuerza y destreza del cuerpo humano, sino de su cerebro y capacidad de raciocinio. En cuanto a la temporalidad, si el derecho tardó doscientos años en (más o menos) acomodar los cambios de la revolución industrial, no es de extrañarse que los gobiernos del mundo en los últimos veinte años se han limitado básicamente a rascarse la cabeza respecto de qué hacer con la digitalización y la automatización, mismas que evolucionan, sin exagerar, día con día. Además, estas transformaciones no se limitan a los factores de producción, sino que alteran prácticamente cada esfera de nuestra existencia, trátese del hogar, del trabajo, del ocio, de la salud, de la socialización o de las finanzas.

El problema es que no tenemos tiempo. La ventana para poner en cintura jurídicamente a las grandes empresas tecnológicas se cierra conforme avanza la asimetría de información y la experiencia en el campo. No se puede regular lo que no se entiende. Lo peor es que, como veremos, el paradigma constitucional actual no cuenta con las herramientas conceptuales y técnicas para hacerse cargo de los riesgos que acompañan la inteligencia artificial, el aprendizaje automático y la utilización de algoritmos en la toma de decisiones en los ámbitos públicos y privados. Urge repensar los derechos como instituciones adecuadas para proteger los valores intrínsecos a la condición de ser humano.

 

Además de las relevantes discusiones sobre brechas tecnológicas entre países, pérdida masiva de empleos e impactos desproporcionados en grupos vulnerables, hay un tema central en la creciente utilización de estas tecnologías que, sin ser apocalípticos, pone en jaque la forma tradicional en la que resolvemos los conflictos a través del derecho: la discordancia entre el discurso de los derechos humanos y la utilización de algoritmos en procesos decisorios en los ámbitos privados y públicos.

Si la concepción moderna de los derechos ya mostraba sus limitaciones para enfrentar la inequidad socioeconómica, la degradación del medioambiente y los poderes de las grandes corporaciones, no hay manera en que su actual formulación siquiera proporcione un marco analítico adecuado para atajar estos procesos de digitalización y automatización. No es sólo el hecho de que el constitucionalismo fuese en origen diseñado para imponer límites al Estado y no a actores privados. Incluso con herramientas judiciales que permiten exigir a particulares que respeten y protejan derechos (como son las doctrinas de la horizontalidad, los efectos indirectos o de irradiación de los derechos humanos, que ha utilizado la Suprema Corte mexicana en algunos casos para requerir, por ejemplo, que una empresa modifique una oferta laboral para no discriminar a empleados potenciales o que una asamblea de condóminos restituya el acceso al elevador a un propietario moroso que tiene una discapacidad motriz), las lógicas operativas de los derechos y los algoritmos son tan diversas que el choque de estos dos mundos es inminente. Siguiendo la obra de los académicos Julie Cohen, Aziz Z. Huq y Frank Pasquale,2 proponemos tres puntos clave para reflexionar sobre esta colisión en el contexto mexicano.

Afectación personal vs. daños sistémicos. Los órdenes jurídicos descansan en los jueces como garantes últimos de los derechos. Es en los tribunales donde se procesan los problemas de los ciudadanos, ya se trate de disputas entre ellos o en reclamos al Estado. Nuestra idea de justicia encuentra su máxima expresión en el proceso jurisdiccional, donde a partir de un caso concreto se da oportunidad a las partes de defenderse, aportar pruebas y alegar. Incluso en los desarrollos más sofisticados de los derechos, como son las políticas públicas, el sistema tradicional es sumamente casuístico e individual en su diseño, proceso y remedios. Basta pensar en los requisitos de interés jurídico o afectación personal y directa, así como en la narrativa legal sobre imposible reparación, tan arraigados en nuestra tradición jurídica para cerrar la llave procesal a ciertos conflictos. Con todo y el reconocimiento del interés legítimo y las acciones colectivas que amplían las posibilidades del proceso, la inercia judicial gravita hacia el análisis individualizado y atomizado. Este enfoque de caso por caso simplemente no funciona para los sistemas, redes y estructuras que integran las herramientas de esta revolución tecnológica. Son dos obstáculos medulares que el derecho tiene que lograr sortear: el volumen masivo de información que procesan las máquinas y el carácter intangible y estructural de los daños involucrados.

Primero, la cantidad de decisiones (y, por ende, intromisiones en derechos de las personas) que llevan a cabo los sistemas de inteligencia artificial es casi infinita. Los algoritmos no comen ni duermen: distribuyen bienes sociales e imponen cargas a escala industrial. Simplemente no hay poder judicial que aguante tal volumen de controversias, ni en capacidades institucionales ni en costos. Segundo, los algoritmos generan afectaciones que exceden la esfera jurídica del individuo para impactar sistémicamente a la sociedad en su conjunto. En ocasiones los daños generados no son materiales ni fácilmente cuantificables, similar a lo que sucede con la contaminación ambiental. Es más, muchas veces se actualizan únicamente en el agregado. El ejemplo de pizarrón es la extracción y procesamiento de datos de un usuario particular, que son relativamente inútiles por sí solos, pero adquieren enorme valor cuando se insertan en grupos sociales más amplios —ordenados, por ejemplo, por escolaridad, profesión, residencia, edad, hábitos de ocio— que permiten identificar patrones de consumo, enfermedades, productividad y un largo etcétera.

La queja individual de los procedimientos judiciales tradicionales no captura la gravedad de la afectación ni su dimensión estructural. Peor aún, el remedio del caso concreto tampoco corregirá los daños que produce la operación algorítmica en el sistema o la red. Es cierto que los jueces ya se han enfrentado con intereses colectivos y difusos y reparaciones que exceden la esfera jurídica de las partes, pero el carácter intrínsecamente sistémico de la inteligencia artificial hace que lo excepcional se convierta en la regla dentro de un proceso jurisdiccional que fue diseñado originalmente para las controversias entre personas.

Ilustración: Patricio Betteo
Ilustración: Patricio Betteo

Conducta humana vs. automatización. En efecto, mientras que la lectura tradicional de los derechos remite básicamente a acciones y omisiones de humanos, la inteligencia artificial abre la puerta a decisiones violatorias de derechos que no siempre pueden ser reconducidas a un humano. Es cierto: uno de los pilares del derecho son ficciones que permiten crear vínculos con entes imaginarios. Autoridades, corporaciones y países son ejemplos de ese recurso que ha aprovechado la técnica jurídica para hacer operables un sinfín de regulaciones. Pero estos ejercicios siempre redireccionan un acto humano a tales ficciones legales —el dictado de una orden de aprehensión, la venta de acciones, la declaración de guerra. Lo que realiza un individuo se atribuye a una ficción jurídica: el poder judicial ordena aprehender a un exfuncionario, Telcel vende una de sus subsidiarias, Rusia declara la guerra a Ucrania. El problema es que esta cadena de conductas humanas y ficciones no es tan clara cuando se trata de procesos algorítmicos. ¿Quién será el responsable último de los daños que genere un algoritmo? ¿Aquel que lo diseñó? ¿Quien lo operó? ¿La persona que elaboró la base de datos a partir de la cual aprendió dicha máquina?

La cuestión se complica aún más si consideramos que en ocasiones ni siquiera los programadores conocen a cabalidad el peso específico de los factores que integran una decisión automatizada. Es decir, no están en condiciones de explicar su conclusión. ¿Cómo revisar la validez o razonabilidad del proceso? ¿Cómo exigir cuentas? Es así como la metáfora de los algoritmos como cajas negras que acuña el académico Frank Pasquale adquiere completa literalidad. Frente a la secrecía de la industria y la oscuridad de sus procesos, es inviable tasar daños y señalar responsabilidades de las empresas o agencias gubernamentales cuyo trabajo descansa en sistemas propios de la inteligencia artificial.3

Análisis cualitativo y retrospectivo vs. aproximación cuantitativa y probabilística. El tercer punto de choque ocurre en el razonamiento judicial mismo. Tradicionalmente, los jueces analizan afectaciones cualitativas relacionadas con hechos pasados, mientras que los retos de la inteligencia artificial involucran aproximaciones cuantitativas y probabilísticas. Por ejemplo, los jueces están acostumbrados a determinar si un arrendatario incumplió un contrato; si un periodista actuó de mala fe al publicar una nota falsa sobre un político; si un cónyuge ejerció violencia familiar contra el otro; o si el Estado clausuró indebidamente un restaurante. Por supuesto que hay desarrollos jurisdiccionales sobre teorías de riesgo e imprevisión que permiten analizar hechos probables o futuros, así como pruebas periciales que acercan conocimiento especializado al juicio (como sucede habitualmente en áreas como telecomunicaciones, competencia económica y medioambiente), pero es evidente que el razonamiento judicial es primordialmente cualitativo y retrospectivo. Por el contrario, la evaluación de los daños generados por algoritmos se basa en gran medida en indicadores numéricos, sensibilidad probabilística y márgenes de error aceptables o inaceptables. ¿Puede acaso la violación a un derecho humano encontrar justificación por ubicarse dentro del margen de error?

Estos tres puntos de choque entre la concepción moderna de los derechos y la utilización de algoritmos en procesos decisorios muestran apenas algunas de las principales barreras institucionales, conceptuales y técnicas que enfrentamos para construir una sociedad justa que pueda convivir con la inteligencia artificial. Los jueces difícilmente podrán salvarnos en esta ocasión. Son parte de la solución, pero también parte del problema. Si pretendemos reparar las violaciones derivadas del uso de inteligencia artificial a golpe de sentencias, nos quedaremos a años luz de analizar, procesar y remediar sus riesgos y afectaciones. Con esto, no sugerimos que el constitucionalismo sea irrelevante en la era digital. La imposición de límites y la protección de derechos humanos es igual o más pertinente que cuando se firmó la Magna Carta hace ochocientos años. El reto reside, entonces, en cómo transformar, en sintonía con esta revolución tecnológica, las herramientas del constitucionalismo.

 

¿Cómo traducir los derechos al mundo de la inteligencia artificial? La respuesta a esta interrogante no es clara. Hoy, alrededor del planeta, existe precisamente un álgido debate al respecto. Y si bien hay un consenso cada vez más sólido en cuanto a la necesidad de someter el poder de estas tecnologías a la lógica de limitación y control mediante instituciones jurídicas, existen ideas variopintas de cuál es la estrategia más adecuada para traducirlos al universo de la inteligencia artificial. No obstante, es posible distinguir al menos tres grandes trincheras desde las cuales académicos, autoridades y organizaciones de la sociedad civil están imaginando propuestas para adecuar los derechos a esta compleja arena de juego de algoritmos, bases de datos y poder de cómputo.4

En primer lugar, si la inteligencia artificial exige que el derecho mude de la conducta humana a decisiones de máquinas inteligentes, con enorme autonomía frente a los seres humanos, con capacidad de daño no individual sino estructural en sistemas automatizados para otorgar créditos, determinar prisión preventiva, ofrecer oportunidades laborales, detectar indicios de fraude fiscal y un largo etcétera, entonces, es indispensable repensar los derechos humanos desde una lógica cuantitativa y probabilística. Esto significa que es necesario diseccionar la estructura de un derecho humano, como la libertad de expresión o el derecho a la igualdad y no discriminación para convertir sus características sustantivas definitorias en objetivos de un sistema de inteligencia artificial y, por supuesto, determinar a partir de qué criterios cuantitativos se evaluará el cumplimiento de tales mandatos.

Vale insistir en este aspecto crucial: por sus características, los sistemas de inteligencia artificial sólo pueden calificarse a partir de indicadores numéricos y, por ello, aspectos cualitativos propios de conceptos como los derechos deben transformarse en metas que puedan ser evaluadas a partir de este lenguaje. Esto no significa que no puedan realizarse juicios morales respecto de las operaciones de una máquina automatizada o que sea fútil utilizar categorías del pensamiento liberal igualitario para trazar rutas de mejora del aprendizaje automático. Un algoritmo, por ejemplo, puede concluir de manera acertada que una persona de cierta minoría social tiene menores probabilidades de éxito escolar, de sobrevivir un trasplante o de incumplir un crédito. La respuesta respecto de si el Estado debe prohibir la utilización de tal herramienta a pesar de funcionar correctamente tiene que elaborarse desde un ámbito netamente cualitativo. El punto, no obstante, es que el sustrato de estas ponderaciones no pueden ser conductas humanas ni hechos fácticos, sino números que permitan capturar la actuación de cierta inteligencia artificial y, luego, contrastar tales datos con los mandatos en los que se tradujo cierto derecho. Aquí, sin duda, vendrá una discusión cualitativa para determinar si tal cumplimiento satisface la idea de cierto derecho humano o, en otras palabras, si la traducción de los aspectos sustantivos de éste en objetivos numéricos fue atinada o no. Pero, al final, éstas y otras consideraciones siempre partirán de un examen cuantitativo.

En este sentido, y no obstante la extraordinaria evolución de la inteligencia artificial en los últimos años, ninguno de estos sistemas es infalible; inevitablemente sus rendimientos arrojan un margen de error. Al respecto, es central definir dos aspectos: cuál es un margen de error aceptable para un mecanismo automatizado y cómo distribuirlo de forma equitativa entre los diferentes usuarios del sistema; esto es: que los errores no recaigan preponderantemente en cierto grupo social. Pensemos, por ejemplo, en una herramienta que utiliza Facebook para garantizar uno de los límites que esta plataforma ha establecido al sistema de expresión en línea: el discurso de odio. Se trata de un conjunto de algoritmos diseñados para evitar que pueda circular en esta red social contenido que ataque a las personas con base en su etnia, su género, su orientación sexual, etcétera. Resulta irremediable que esta herramienta tenga un margen de error y ofrezca resultados que sean falsos positivos y falsos negativos: mensajes insidiosos, violentos y excluyentes que logran colarse a Facebook y expresiones no “odiosas” que son bloqueadas o eliminadas de esta plataforma.

¿Qué pasa, sin embargo, si este margen de error varía entre el contenido supremacista blanco y otras expresiones “de odio”, de tal manera que el sistema permite que se publiquen más expresiones neonazis respecto del margen de error promedio, mientras que bloquea más expresiones en lengua árabe, aunque no entren en la categoría de “discurso de odio” definida por la propia plataforma? Una traducción básica de los derechos al debido proceso y a la no discriminación al terreno de la inteligencia artificial reside precisamente en verificar que los márgenes de error de tales sistemas, por más pequeños que sean, se distribuyan de manera equitativa entre los diferentes grupos sociales involucrados.

Por ello, después de convertir los aspectos conceptuales definitorios de un derecho en mandatos de operación de una máquina automatizada y establecer métricas numéricas para evaluar el cumplimiento de tales objetivos, la segunda estrategia para traducir de manera adecuada una institución jurídica a la inteligencia artificial consiste en un recurso clave: la transparencia. Transparentar estas herramientas tecnológicas es esencial para comprobar que su funcionamiento va en sintonía con los derechos humanos convertidos en metas sistémicas; acceder a sus engranajes es imprescindible para tener oportunidad de detectar y, en su caso, ajustar eventuales daños estructurales.

Uber (la aplicación de movilidad y transporte de personas o productos) ha sido acusada en varias ciudades del mundo por discriminación algorítmica. Esta empresa, como parte de sus políticas de seguridad, utiliza algoritmos junto con tecnología de reconocimiento facial para verificar que sus conductores sean efectivamente las personas que dicen ser. Su sistema, no obstante, tiene un mejor porcentaje de aciertos cuando se trata de reconocer personas de tez blanca, frente a aquéllas de piel oscura. Lo peor es que se ha criticado a Uber por no ofrecer mecanismos adecuados de apelación ante procesos de verificación no exitosos (que prácticamente inhabilitan a ciertos conductores para trabajar y en algunos países esto ha resultado inclusive en despidos).5 ¿En dónde está la raíz de este trato diferenciado? ¿En el diseño original del algoritmo? ¿En la manera como éste fue aprendiendo y modificándose? ¿En los casos que conformaron la base de datos que enseñó a trabajar al algoritmo? ¿En la metodología trazada para procesar los casos atípicos? Mientras no haya posibilidad de escudriñar el funcionamiento de este sistema, es inviable identificar y corregir esta falla sistémica, con enormes daños a los derechos de miles de trabajadores.

Como alerta Pasquale, el problema es que no es evidente qué piezas de estas máquinas inteligentes habría que transparentar, en qué etapa de su operación, ni ante qué autoridad estatal. Esto significa que, en primer lugar, es necesario establecer reglas legales mínimas encaminadas a evitar errores básicos en la integración de las bases de datos, así como en la estructura de los algoritmos; exigir lineamientos respecto cómo proceder ante los casos atípicos que surjan y, en este sentido, trazar la metodología para curar constantemente el universo de ejemplos a partir de los cuales trabajan los algoritmos; así como establecer estándares de márgenes de errores mínimos y asegurar criterios equitativos de distribución de tales costos entre los grupos sociales participantes.

Ilustración: Patricio Betteo
Ilustración: Patricio Betteo

Luego, hay que realizar ejercicios de transparencia periódicos que permitan una evaluación continua del funcionamiento de estos sistemas inteligentes. No hay que olvidar que un algoritmo o una base de datos pueden estar bien diseñados al inicio de su operación, pero su constante proceso de reinvención, a partir de su capacidad de aprendizaje automatizado, no asegura que en un futuro el algoritmo se modifique. Ésa es, precisamente, una de las críticas centrales a redes sociales como TikTok: mientras las modificaciones que sufren sus procesos algorítmicos sigan propiciando ganancias en su modelo de negocios de publicidad individualizada, les son irrelevantes los eventuales efectos perniciosos de tales ajustes en el discurso público democrático.

La última dificultad relacionada con la transparencia consiste en resolver qué autoridad estatal debe encargarse de escudriñar los sistemas de inteligencia artificial. Esto debido a que las afectaciones de estos procesos automatizados suelen abarcan una gran diversidad de derechos o garantías legales, que pueden ir desde presunción de inocencia, protección de datos personales y derecho a la no discriminación hasta prácticas anticompetitivas, barreras de entrada a ciertos mercados, violencia digital a grupos minoritarios y demás. Se trata de daños que no corresponde procesar a una sola autoridad; ciertas instituciones podrán hacerse cargo de algunos perjuicios, mas no de otros. Los costos que puede arrojar la inteligencia artificial es de tal calibre que es transversal a varios derechos e instituciones legales, alude a responsabilidades de un amplio listado de autoridades estatales y, por lo mismo, además de una institución con facultades adecuadas para examinar de manera holística estas máquinas, requiere de una nueva generación de funcionarios con el conocimiento y habilidad pericial para enfrentar estos desafíos regulatorios.

Por último, otra veta a explorar en la traducción de los derechos humanos y otras instituciones jurídicas al lenguaje de la inteligencia artificial son los remedios agregados. Como apuntamos, una de las limitaciones de los tribunales y sus tradicionales medios de impugnación es que ofrecen remedios individuales a las afectaciones de derechos. Se trata de remedios atados a una lógica individual, cuyo impacto en máquinas inteligentes es inocuo. Un juicio de amparo en contra del SAT debido a que su aprendizaje automatizado afectó derechos de un contribuyente, aun si es exitoso, tal resolución judicial no resolvería la falla estructural que está detrás de tal vulneración; por su parte, si un usuario de Facebook obtiene una decisión a su favor al activar el procedimiento de apelación de esta red social, debido a que uno de sus contenidos fue eliminado, esa victoria no mejora en un ápice la dinámica algorítmica que tiende a polarizar el flujo de expresiones. Urge imaginar esquemas de reparación que permitan corregir problemas agregados en máquinas automatizadas inteligentes que maquilan decisiones con un enorme impacto en las personas.

Una idea es crear medios de impugnación como las acciones colectivas pero que no se limiten a resolver las afectaciones del grupo de personas aglutinadas en dicha demanda. Más bien, esta acción procesal, si reúne ciertos requisitos, permitiría resolver las afectaciones agregadas de los demandantes y, más relevante todavía, abriría la posibilidad de auditar ciertas piezas de tal máquina inteligente para detectar y corregir errores sistemáticos. Esto, a su vez, se puede trasladar al ámbito público, de tal manera que una autoridad pueda activar escrutinios estructurales si cumple con una serie de exigencias de procedencia pertinentes. Una muy puntual es el mero transcurso del tiempo: las empresas y entidades públicas cuyo trabajo se realiza con el apoyo de inteligencia artificial debieran dar acceso a autoridades para evaluar el trabajo de sus artilugios tecnológicos y, de esta manera, dar seguimiento a mejoras pendientes acordadas en revisiones previas. En la misma línea, y más allá de litigios privados o públicos, habría que pensar también en modelos de arbitraje y mecanismos alternativos e independientes de solución de conflictos, de preferencia financiados por las compañías, para combatir los problemas de escala y evitar la saturación de los tribunales.

 

¿Qué implica esto para el mundo jurídico tradicional? La respuesta breve a esta cuestión es que el papel del Estado se tiene que reinventar ante las ramificaciones del poder derivado de esta revolución tecnológica. Contrario a la noción clásica en la que el Estado implementa esquemas regulatorios dirigidos de manera vertical sobre personas y organizaciones, el ascenso de la inteligencia artificial en las dinámicas sociales exige un cambio del rol estatal en el juego de establecer reglas y hacerlas efectivas. Expertos como Tim Wu, Nicholas Suzor y Evelyn Douek explican que, en lugar de imponer normas concretas y precisas en contextos altamente técnicos, el Estado debe volverse una especie de orquestador de andamiajes regulatorios híbridos que fomenten la coordinación y colaboración entre autoridades y empresas.6 En este sentido, el gobierno establecería ciertos principios y metas a cumplir por las empresas, que fijarían sus propias reglas y procesos sometidos a la vigilancia y escrutinio de las autoridades. Estos esquemas de gobernanza y metarregulación ya han sido utilizados en campos como el financiero y energético, pero parecieran ineludibles en el caso de la inteligencia artificial tomando en cuenta las dificultades de aplicación directa, ejecución y evolución constante de la tecnología. No hay que olvidar que una regulación excesiva no sólo entorpece la innovación, sino que corre el riesgo de convertirse en papel mojado.

En este ejercicio colaborativo, tanto el gobierno como la sociedad civil tendrán que estar muy alertas de no asumir posiciones cándidas respecto de la buena fe empresarial. La historia muestra que la responsabilidad corporativa y los esquemas de autorregulación no resultan suficientes; asimismo, entre más rápido nos sacudamos el ciberoptimismo propio de los años noventa del siglo pasado (que veía esta revolución tecnológica como un camino seguro para la liberación y democratización), mejor preparados estaremos para construir límites razonables al poder de estas empresas que protejan los derechos de la población (y de las propias compañías).

Ilustración: Patricio Betteo
Ilustración: Patricio Betteo

Por último, es evidente que el campo de batalla de la Constitución 3.0 y la cruzada regulatoria del mundo digital y automatizado está en el conocimiento, de ahí que sea indispensable que a su vez la profesión jurídica se reinvente. Si bien los abogados no necesariamente tienen que saber programar ni crear sistemas automatizados, sí deben conocer su lenguaje para comunicarse con ingenieros, economistas y demás técnicos. Si las leyes pretenden seguir siendo relevantes en la ordenación de la realidad, el diálogo estrecho entre diferentes disciplinas tendrá que ser la base de cualquier política pública, regulación o revisión jurisdiccional.

Claro está que la irrupción (y disrupción) de la inteligencia artificial en nuestras vidas no eliminará los conflictos y controversias del mundo jurídico tradicional. Al menos en el mediano plazo, los abogados tendrán que aprender a moverse entre estos dos mundos y ayudar en la renovación de un constitucionalismo que responda a ambas lógicas. En esta tarea, más que optar por trasplantar viejas fórmulas institucionales al terreno digital y automatizado o crear nuevos derechos con las limitaciones ya apuntadas, la ruta más promisoria pasa tanto por la reconceptualización de los derechos ya reconocidos, de sus procesos y remedios, así como esquemas regulatorios híbridos donde colaboren agentes públicos y privados.7

 

El maltrecho Estado mexicano enfrenta retos mayúsculos. Lejos está de cumplir cabalmente con su primera gran responsabilidad de proveer de seguridad pública a sus habitantes. A partir de esta asignatura pendiente, se pueden listar muchas más. Algunas se arrastran desde hace décadas, mientras que otras apenas emergen. A éstas, hay que sumar a la inteligencia artificial que, con sigilo pero gran velocidad, empieza a colonizar varios nichos sociales de nuestro país ante la actitud omisa (y más ignorante que complaciente) de nuestros gobernantes. Los riesgos de esta revolución tecnológica en términos de afectaciones a derechos de amplias franjas de la población son abrumadores, pero así son las oportunidades que ofrece. Nuestro orden constitucional actualmente no da respuestas adecuadas ni suficientes. Por ello, urge abrir la discusión sobre cómo exprimir los beneficios de estos sistemas y contener sus costos; aguijonear la creatividad institucional para reconceptualizar los derechos, impulsar nuevos diseños regulatorios y, por supuesto, asegurar que el desarrollo de estas tecnologías no sea el feudo de empresas privadas, sino el centro por antonomasia de lo público: la ley. El desafío es inconmensurable: asegurar condiciones civilizatorias que nos permitan escapar de la barbarie de la violencia y, a su vez, domesticar poderes inéditos derivados de la inteligencia artificial. Lo cierto es que mientras la imaginación de nuestros gobernantes se limite al militarismo como fórmula para construir Estado y el trapiche como trampolín tecnológico estaremos avanzando claramente en la dirección equivocada.

 

Saúl López Noriega
Profesor e investigador de la Escuela de Gobierno y Transformación Pública del Tecnológico de Monterrey

Luz Helena Orozco y Villa
Estudiante de doctorado en la Universidad de Oxford, Reino Unido, en regulación y gobernanzas de nuevas tecnologías


1 Sobre estos ejemplos, ver: Vargas-Parada, L. “Inteligencia artificial y ciencia de redes contra la evasión fiscal”, Centro de Ciencias de la Complejidad, 20 de mayo de 2020, https://bit.ly/3xJzq5L; Barboza, C. “El SAT descubrió redes de empresarios que evaden impuestos utilizando ‘machine learning’, la base de la inteligencia artificial”, Business Insider México, 2 de febrero de 2021, https://bit.ly/3v20lYG; Stanely, J. “Amazon Drivers Placed Under Robot Surveillance Microscope”, American Civil Liberties Union, 23 de marzo de 2021, https://bit.ly/3EypmOm; Soper, S. “Amazon employee fired by a robot: It’s you vs machine’s algorithm”, Business Standard, 28 de junio de 2021, https://bit.ly/3OuoSxb. Ver además: https://www.borderplexalliance.org y https://tequilainteligente.com

2 Cohen, J. Between Truth and Power: The Legal Constructions of Informational Capitalism, Oxford University Press, Estados Unidos, 2019, Huq, A. Z. “Constitutional Rights in the Machine-Learning State”, Cornell Law Review, volumen 105, no. 7, noviembre 2020, pp. 1875-1953, y Pasquale, F. The Black Box Society. The Secret Algorithms That Control Money and Information, Harvard University Press, Estados Unidos, 2016.

3 Cfr. Pasquale, F. The Black Box Society. The Secret Algorithms That Control Money and Information, Harvard University Press, Estados Unidos, 2016.

4 Cfr. Ibid.

5 Cfr. Lytvynenko, J. “Why the balance of power in tech is shifting toward workers”, MIT Technology Review, 7 de febrero de 2022, https://bit.ly/3v4fnNG

6 Wu, T. “Will Artificial Intelligence Eat the Law” The Rise of Hybrid Social-ordering Systems”, Columbia Law Review, volumen 119, no.7, diciembre de 2019, pp. 2001-20128; Suzor, N. P. Lawless: The Secret Rules That Govern our Digital Lives, Cambridge University Press, 2019; Douek, E. “The Administrative State of Content Moderation”, Stanford Cyber Policy Center, 26 de octubre de 2021.

7 Ver: Suzor, N. P. Lawless: The Secret Rules That Govern our Digital Lives, Cambridge University Press, Estados Unidos, 2019.

Escribe tu correo para recibir el boletín con nuestras publicaciones destacadas.


Publicado en: 2022 Julio, Ensayo