Resultado de profundos avances tecnológicos, concretamente en los campos del machine learning y de las redes neuronales, la inteligencia artificial (IA) ha dejado de ser solamente un asunto de la ciencia ficción; ahora es una realidad con implicaciones disruptivas que está transformando varios aspectos clave de nuestras sociedades —salud, educación, trabajo— e incluso nuestra propia concepción del mundo y de la inteligencia.

Si bien la automatización de diversos trabajos es todavía incipiente en la mayoría de los países y sectores industriales, es necesario empezar a prever las consecuencias; especialmente en países como México, cuya mano de obra barata es fuente importante de ingresos. En efecto, quienes piensan que una de las “ventajas” de ser un país en vías de desarrollo es la inmunidad, al menos por un tiempo, al impacto de estos cambios tecnológicos, están equivocados. Por ejemplo, de acuerdo con el estudio Hacia una Estrategia de Inteligencia Artificial (IA) en México: Aprovechando la Revolución de IA,1 los trabajos relacionados con la manufactura, comida, industria automotriz y servicios financieros en México son particularmente vulnerables a la automatización. De tal manera que, en principio, 19% de los empleos en nuestro país (cerca de 9.77 millones de trabajos) se verán afectados por la automatización, de los cuales el 16%, es decir 1.5 millones, expirarán en los próximos cinco años.2

Como sucede con cualquier desarrollo tecnológico, la IA es, por naturaleza, de uso dual: puede ser empleada para fines benéficos o bien para propósitos nocivos. De ahí que, ante sus posibles riesgos, desde diferentes trincheras se han empezado a construir principios y reglas mínimas que orienten el desarrollo y uso de la IA, garantizando que atienda a valores centrales para la humanidad, concretamente para la cultura occidental como la libertad, la equidad o la igualdad de género.

Un ejemplo: el grupo de expertos de alto nivel sobre inteligencia artificial de la Unión Europea (AI HLEG, por sus siglas en inglés) ha desarrollado un proyecto de directrices éticas sobre una inteligencia artificial confiable3 que fue presentado el 8 de abril pasado. “Estas directrices van dirigidas a todas las partes implicadas que desarrollan, aplican o usan la IA, abarcando a empresas, organizaciones, investigadores, servicios públicos, instituciones, individuos u otras entidades”.4 Incluyen elementos relevantes para atender problemas que se han presentado en la práctica, como los métodos de explicación de los sistemas IA, rendición de cuentas, acciones de educación y formación, entre otros.

Pero el ejercicio, hasta el momento, más relevante por parte de un organismo internacional ha sido el de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) que, en el contexto de la conferencia AI: Intelligent Machines, Smart Policies, creó en 2018 un grupo de trabajo multidisciplinario (AIGO, por sus siglas en inglés) de más de 50 expertos de 20 países, incluido México, representantes de la Comisión Europea, de grupos empresariales y laborales, así como del sector académico a través de instituciones reconocidas como el Centro Berkman Klein de la Universidad de Harvard y el Massachusetts Institute of Technology (MIT).5 Sus trabajos se cristalizaron el 22 de mayo pasado, cuando los 36 países miembro además de Argentina, Brasil, Colombia, Costa Rica, Perú y Rumania adoptaron la recomendación del Consejo sobre inteligencia artificial.6

Ilustración: Víctor Solís

Para cumplir con su mandato, el grupo se reunió en cuatro ocasiones, la más reciente en febrero de 2019 en Emiratos Árabes Unidos —por cierto, el primer país en el mundo que tiene un Ministerio de Inteligencia Artificial—, bajo criterios puntuales de trabajo: identificar principios aplicables específicamente a la IA; facilitar la confianza en y la adopción de la IA; hacer recomendaciones que puedan implementarse en la práctica, lo suficientemente flexibles para trascender el rápido avance de la tecnología y que promuevan la cooperación internacional.

Un reto no menor que enfrentaron los expertos a lo largo de estas cuatro reuniones fue delimitar su objeto de estudio: ¿qué es inteligencia artificial? Si bien podría parecer una obviedad, no resulta fácil desarrollar un concepto que comprenda todas las aristas de la IA (machine learning, redes neuronales, deep learning, inteligencia artificial general, inteligencia artificial estrecha, etcétera), que soporte el paso del tiempo y, sobre todo que, sin dejar de ser técnicamente correcta, sea comprensible fuera del círculo especializado para ayudar al diseño de políticas públicas. En breve: trazar la línea entre lo que es y no es inteligencia artificial es una tarea compleja. Hay algunos programas, por ejemplo, optimizadores de rutas carreteras, que podrían pasar por IA pero que no lo son, porque carecen de la capacidad de adaptación y autoaprendizaje que genera recomendaciones dinámicas. Simplemente calculan la ruta y estiman el tiempo, distancia y costos del trayecto en función de las entradas manuales del usuario tales como tipo de vehículo, velocidad de conducción, tipo de carga, pesos o preferencias. Si bien pueden tener actualizaciones de funciones, rutas carreteras y costos de casetas, son estáticos en el sentido de que no perciben su entorno ni cambios repentinos en éste, por tanto, no podrán ejecutar algoritmos de autoaprendizaje. Todo ello con independencia de la difícil tarea, casi filosófica, de definir qué debemos entender por inteligencia o raciocinio.

Así, la OCDE propone en la recomendación del Consejo sobre inteligencia artificial cinco definiciones básicas: sistema de inteligencia artificial, ciclo de vida del sistema de inteligencia artificial, conocimiento de inteligencia artificial, actores de inteligencia artificial y partes interesadas.

Un segundo reto consiste en lograr equilibrio entre reglas e innovación tecnológica, esto es, proponer ciertos principios generales básicos sin coartar el desarrollo de la IA y sus potenciales beneficios. En este balance la OCDE trata de abordar en su propuesta los principales dilemas relacionados con la inteligencia artificial en dos grandes secciones: “Principios para la administración responsable de la Inteligencia Artificial confiable” y “Políticas nacionales y cooperación internacional para una Inteligencia Artificial confiable”. En la primera sección delinea principios generales para atender los problemas más evidentes, mientras que la segunda sección pretende ser insumo para el desarrollo de políticas públicas.

La existencia de sesgos en la información que sirve de base para la operación y aprendizaje de los sistemas de IA es uno de los problemas que orienta la propuesta. ¿Si los seres humanos tenemos sesgos y prejuicios, es inevitable que se reflejen en la IA? Una de las formas para evitarlo es incrementar el volumen y variedad de la información a partir de la cual los algoritmos “aprenden”, de tal manera que el sistema tenga una gran muestra de cierto concepto (lo que se conoce como training data o información de entrenamiento). Por esta razón, la OCDE incluye entre sus principios: el deber de aplicar un enfoque sistemático de gestión de riesgos en cada fase del ciclo de vida del sistema de IA para abordar riesgos sobre privacidad,7 seguridad y sesgos, además de que los gobiernos consideren la inversión pública en bases de datos abiertas “libres de sesgos inapropiados”.8

Sin embargo, esto lleva a un tercer reto: la permanente tensión entre privacidad y acceso a la información para el desarrollo y perfeccionamiento de los sistemas de IA. Por ejemplo, la información clínica es de gran relevancia para promover avances en la predicción, detección y tratamiento de cáncer de mama usando machine learning. De acuerdo con Regina Barzilay,9 a partir de datos de la American Society of Clinical Oncology, actualmente las decisiones médicas en Estados Unidos se basan en datos de sólo 3% de la población que participó en pruebas clínicas. Esto es así porque organizaciones como hospitales y aseguradoras suelen monopolizar esta información y porque la legislación de privacidad es muy estricta sobre el tratamiento de estos datos, haciendo difícil encontrar mecanismos legales claros para que los pacientes que lo deseen los compartan sistemáticamente. Al respecto, las recomendaciones de la OCDE incluyen la privacidad y protección de la información10 como valores que deben respetarse y prevén que los gobiernos deben promover mecanismos tales como “fideicomisos de datos que apoyen el intercambio seguro, legal y ético de la información”.11

Una vez sorteados estos obstáculos el grupo de trabajo enfrentó la que llamaría la madre de todas las batallas en este campo: la explicabilidad o trazabilidad de la inteligencia artificial, es decir, la posibilidad de que el proceso de toma de decisiones de un algoritmo sea accesible, evitando el fenómeno de las “cajas negras”. En machine learning los algoritmos son capaces de aprender no sólo de las grandes cantidades de información con la que fueron o son alimentados, sino también de su experiencia, de su capacidad de adaptación al entorno, de manera similar a lo que hace el cerebro humano. Así, el sistema deja de ser un mero ejecutor de instrucciones humanamente predeterminadas y es capaz de llegar, por sí mismo, a soluciones dinámicas a problemas.12 A mayor complejidad del sistema, aumenta también la dificultad técnica de lograr reconstruir el proceso lógico que siguió para llegar a determinado resultado.

Suponiendo que tal reconstrucción es posible y comprensible en todos los casos para seres humanos, el siguiente paso sería utilizarla para deslindar responsabilidades, esto es, identificar quién podría/debería ser responsable por el resultado arrojado (especialmente los resultados adversos) por el sistema de IA, esto es, el diseñador, desarrollador, comercializador o el usuario. Las recomendaciones de la OCDE incluyen tres principios específicos que tratan de atender esta problemática:

Transparencia y explicabilidad: permitir a aquellos afectados por un sistema de IA entender el resultado y a aquellos afectados adversamente por tales sistemas, cuestionar el resultado a partir de información fácil de entender sobre los factores y la lógica que sirvieron de base para la predicción, recomendación o decisión cuestionada.

Robustez, seguridad y protección: se debe asegurar la trazabilidad incluyendo las bases de datos, procesos y decisiones tomadas durante el ciclo de vida del sistema IA de tal manera que se permita el análisis de los resultados de dicho sistema.

Transparencia: los actores de IA deben ser responsables por el funcionamiento adecuado del sistema y por el respeto de los principios adoptados por la OCDE, con base en sus roles, contexto y de manera consistente con el estado del arte.

Uno de los elementos que permea a lo largo del trabajo de la OCDE es promover medidas que permitan garantizar que el desarrollo de la IA sea para fines benéficos, disminuir las desigualdades y evitar el impacto negativo en el ámbito laboral. Para ello, destaca el papel de principios y políticas relacionados con la transformación de la educación, la construcción de capacidades institucionales y la inversión para lograr una transición laboral justa. De tal manera que quienes se quedarán sin empleo por la automatización cuenten con las herramientas para adaptarse y encontrar una nueva forma de ser productivos.

Por otro lado, un desafío adicional cuya solución es bosquejada en la propuesta de la OCDE es el dilema ético en torno a la IA, es decir, si estas tecnologías —desde su diseño— debieran obedecer a ciertos principios éticos y morales fundamentales; en su caso, ¿cuáles serían?, ¿cómo priorizarlos? La respuesta en las recomendaciones es sólo un punto de partida que dispone que, a lo largo del ciclo de vida de los sistemas de inteligencia artificial, los actores de IA deben respetar el Estado de derecho, los derechos humanos y valores democráticos como la libertad, dignidad, autonomía, igualdad, diversidad, equidad, justicia social y derechos laborales internacionalmente reconocidos. Además, prevé que los gobiernos deberían considerar la inversión en investigación enfocada en implicaciones éticas (ver cuadro).

¿Por qué es relevante el trabajo de la OCDE o tiene mayor legitimidad que otros esfuerzos? Si bien en términos de derecho internacional el foro que goza de la mayor legitimidad es la Organización de las Naciones Unidas —con todos los obstáculos políticos que eso conlleva—, la OCDE agrupa a países con modelos de gobierno y economía afines, lo que facilita que se comprometan a la adopción e implementación de las recomendaciones. Además, si bien no son legalmente vinculantes, lo cierto es que las recomendaciones de la OCDE gozan de prestigio y aceptación —incluso en países que no son miembros—, por lo que su incumplimiento puede resultar más costoso que, por ejemplo, la violación de resoluciones de la Asamblea General de la ONU. Al final, se trata del primer conjunto de principios en esta materia adoptados por 42 gobiernos.

Estamos ante el fin de una era y el inicio de otra en la cual la inteligencia artificial transformará la interacción social y el conocimiento como los concebimos. México no solamente debería ser partícipe de dicha transformación, sino también tomar las acciones necesarias para acceder a los potenciales beneficios, remediar oportunamente los inevitables costos y ser generador, no sólo consumidor, de inteligencia artificial en el mundo. Haber participado en el grupo de expertos de la OCDE, a través del Instituto Federal de Telecomunicaciones (IFT), es un paso en la dirección correcta.

 

Paola Cicero Arenas
Abogada por el ITAM, maestra en derecho internacional por la Universidad de Nueva York.


1 Elaborado por Oxford Insights y C Minds bajo los auspicios del Reino Unido. Disponible en http://go.wizeline.com/rs/571-SRN-279/images/Towards-an-AI-strategy-in-Mexico.pdf Fecha de consulta: 6 de febrero 2019.

2 “Towards an AI Strategy in Mexico: harnessing the AI Revolution”, Oxford Insights y C Minds, junio 2018, p. 25.

3 Disponible en: https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai

4 “Proyecto de directrices éticas sobre una inteligencia artificial confiable”, p. 4.

5 Ver http://www.oecd.org/going-digital/ai/oecd-creates-expert-group-to-foster-trust-in-artificial-intelligence.htm

6 Recommendation of the Council on Artificial Intelligence, OECD/LEGAL/0449 adoptada en París el 22 de mayo del 2019. Disponible en: https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449

7 Parte del principio “Robustez, seguridad y protección”.

8 Parte del principio de “Inversión en investigación y desarrollo de IA”.

9 AI Policy Congress, Massachusetts Institute of Technology, Boston, Estados Unidos, 15 de enero 2019. http://news.mit.edu/2019/first-ai-policy-congress-0118 y https://www.youtube.com/watch?v=wf6gCyg8Ah8

10 Parte del principio “Valores humanos y equidad”.

11 Parte del principio de “Fomento de un ecosistema digital para la IA”.

12 Bathaee, Yavar, “The Artificial Intelligence Black Box And TheFailure Of Intent And Causation”, Harvard Journal of Law & Technology, volúmen 31, número 2, primavera 2018, p. 3. Disponible en: https://jolt.law.harvard.edu/assets/articlePDFs/v31/The-Artificial-Intelligence-Black-Box-and-the-Failure-of-Intent-and-Causation-Yavar-Bathaee.pdf Fecha de consulta: 11 de febrero 2019.

 

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.