Exploraciones
doi: 10.31391/ap.vi7.124 Recepción: 19-06-2024 Aprobación: 08-08-2024
Derechos humanos, un reto para el Estado de derecho ante la inteligencia artificial
Iván González Vega |
González Vega, I. (2024). Derechos humanos, un reto para el Estado de derecho ante la inteligencia artificial. Análisis Plural, (7). |
Resumen: La reciente aprobación de una ley sobre inteligencia artificial en la Unión Europea hace evidente el desafío que esta tecnología significa para todo el mundo, a la luz de los problemas que han sido denunciados en relación con las políticas bajo las cuales se la desarrolla, el uso que le dan ciudadanos y gobiernos, y el modo en que influye en diferentes campos profesionales y sociales. Este texto revisa algunos de esos retos en relación con la orientación de derechos humanos de algunas legislaciones nacionales. |
Abstract: The recent approval of an artificial intelligence Act for the European Union highlights the challenges this technology poses globally, considering some issues regarding the policies under which is developed, its use by citizens and governments, and its influence across various professional, and social fields. This text reviews some of those challenges in relation to the human rights orientation of certain national legislations.. |
Palabras clave: Inteligencia artificial, regulación, derechos humanos, discriminación |
Keywords: Artificial intelligence, regulation, human rights, discrimination |
¿Quién y cómo responderá ante la ley si alguien usa una fotografía de mi rostro para hacerme aparecer en una escena en la que no participé? ¿Qué responsabilidad tendrá un gobierno que utilice reconocimiento de rasgos faciales para filtrar a las personas que pueden entrar a su territorio o que sean sospechosas de haber cometido un crimen? ¿Por qué canales las grandes empresas de internet darán cuenta acerca del modo en que utilizan los datos personales de sus usuarios para dirigir la publicidad y los servicios que les muestran en redes sociales? ¿O si sus aplicaciones de celular inciden en mis decisiones acerca de mi cuenta de banco, en mis compras en línea, en mi historial crediticio a la vista de aseguradoras, hospitales o tiendas de automóviles? Y, por supuesto, ¿a quién reclamar si una plataforma que ayude a seleccionar noticias termina por generar información falsa?
La generalización de las tecnologías de inteligencia artificial (ia) en las vidas de las personas ha obligado a plantear preguntas como ésas, orientadas a discutir el modo en que dispositivos, softwares e interfaces serán regulados. La reciente promulgación de la primera ley de esa escala, emitida por la Unión Europea en diciembre de 2023, representa un intento por organizar las preocupaciones de diversos actores, en medio de una década de muchos esfuerzos en el mundo por lograr marcos regulatorios (Acces Now, 2024), particularmente luego del escándalo de Cambridge Analytica de 2016, que involucró a la plataforma de Facebook.
Sin embargo, también ha merecido críticas por funcionar sólo como un marco inicial sin resolver una de las preocupaciones centrales: el modo en que una nueva tecnología, de rápida dispersión en un mundo hiperconectado y digitalizado, podría violentar el marco de derechos fundamentales que tiene, en el centro, a los derechos humanos, un sistema de valores y principios elevado a rango constitucional en países como México.
Al propiciar la transformación de los espacios sociales en donde irrumpen, los sistemas de ia revelan la relevancia de las empresas que los fabrican, operan y capitalizan; subrayan su impacto en la vida de los ciudadanos que las utilizan y ponen de relieve las relaciones sociales que generan o modifican. Desde algunas lecturas, su aplicación y uso indiscriminado podría sencillamente subrayar las brechas de desigualdad digital y acceso a bienes públicos, además de agravar los sesgos que producen discriminación (Venturini, 2024).
Su impacto no está limitado, pues, a su capacidad de innovación, sino también al modo en que comprometen los derechos de las personas, y con ello las democracias y el Estado de derecho, al influir sobre las conversaciones públicas o, de hecho, alterarlas con contenidos específicos.
Mientras numerosos actores estudian modelos de supervisión diversos, que propicien el desarrollo y la innovación que se espera que lleguen con las ia, la advertencia sobre la necesidad de poner a los derechos humanos al centro se ha convertido en uno de los reclamos de índole regulatoria más repetidos. Se trata, pues, no solamente de un reto para la protección de los derechos en los entornos de internet, como acordaron los países en el Consejo de Derechos Humanos de la onu desde 2012 (hrc, 2012): es un desafío en forma al Estado de derecho democrático, que demanda reacciones expeditas en forma no sólo de nuevas leyes, sino, en general, de marcos jurídicos y éticos que propicien los modelos de gobernanza más adecuados posibles.
El ejemplo de Europa
Por ia entendemos sistemas de cómputo que “muestran un comportamiento inteligente por la vía de analizar y tomar acciones, con cierto grado de autonomía, para lograr objetivos específicos”, según una de las definiciones recientes propuestas, y constantemente revisadas, por la Comisión Europea (2019; hleg, 2019). La misma fuente añade que resulta preferible la noción de racionalidad a la de inteligencia, en el sentido de la capacidad de “elegir la mejor acción a tomar para lograr un objetivo determinado, dados ciertos criterios que se deben optimizar y los recursos disponibles”.
En la nueva ley europea (ai Act, 2023), un sistema de ia es uno
basado en máquinas que está diseñado para funcionar con diversos niveles de autonomía y que puede mostrar capacidad de adaptación tras su despliegue, y que, para objetivos explícitos o implícitos, infiere, a partir de la entrada que recibe, cómo generar salidas tales como predicciones, contenidos, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales.
Para algunos autores (Llamas Covarrubias et al., 2022), definir apropiadamente a las ia es uno de los retos iniciales para la regulación futura. En general es aceptado como un “concepto paraguas” que permite referirse a diversos sistemas, presentes en forma de componentes, software o hardware, con los que las personas y los sistemas pueden interactuar a través de plataformas y dispositivos diversos. La misma Comisión Europea ha establecido la noción de “familia de tecnologías de rápida evolución” (Council of the European Union, 2024).
Los usos más extendidos son los motores de búsqueda de internet y los que enriquecen aplicaciones de computadoras y teléfonos inteligentes, pero también se manifiestan en forma de programas con todo tipo de aplicaciones: para analizar o crear imágenes, reconocer voz o rostros, o que se integran a coches autónomos, drones o robots.
Esta presencia potencialmente universal de las tecnologías de ia es una de las características que motiva las mayores inquietudes sobre los riesgos de seguridad, al punto de que no pocas voces —incluyendo en 2021 la entonces Alta Comisionada de la onu para los Derechos Humanos, Michelle Bachelet (Noticias onu, 2021)— han propuesto moratorias en su desarrollo para lograr, primero, el marco regulatorio adecuado.
La Ley o Reglamento de Inteligencia Artificial de la Unión Europea (ai Act, en inglés) pretende “mejorar el funcionamiento del mercado interior y promover la adopción de la inteligencia artificial (ia) centrada en el ser humano y digna de confianza”, al mismo tiempo que garantizar “un alto nivel de protección de la salud, la seguridad, los derechos fundamentales consagrados en la Carta, incluida la democracia, el Estado de Derecho y la protección del medio ambiente, contra los efectos nocivos de los sistemas de ia en la Unión y apoyando la innovación”.
Para eso, establece regulación para sistemas clasificados según cuatro distintos niveles de riesgo, y está dirigida a proveedores, fabricantes, distribuidores y agentes involucrados con ia, pero no a quienes tengan prácticas de investigación o desarrollo científico ni sistemas de licencias libres o código abierto que no tengan fin comercial.
En el principio normativo de establecer niveles de riesgo y responsabilidades, también ensaya un aparato de gobernanza que incluye la creación de entes supervisores y facultades para algunas oficinas de la Unión. Así llega a la categorización de usos y aplicaciones prohibidos, de forma notable en torno a datos biométricos, es decir, los que escanean y miden rasgos biológicos de las personas para la toma de decisiones. De manera que establece principios clave en torno a temas de transparencia, rendición de cuentas y seguridad, que luego deberán ser convertidos en leyes y reglamentación concreta en los 27 países de la Unión.
Una buena parte de las discusiones que, en diciembre de 2023, devinieron en la aprobación de la ley europea tuvo que ver precisamente con sistemas de categorización biométrica, como el uso de retratos humanos tomados de internet o el empleo de cámaras de vigilancia para crear bases de datos de reconocimiento facial. Todo esto quedó prohibido, junto con el monitoreo de emociones en empleos y espacios escolares, sistemas de puntuación ciudadana y, en general, cualquier sistema de ia que manipule comportamientos humanos. Así, la ley europea prohíbe que fuerzas de seguridad empleen sistemas de identificación biométrica y tecnologías de respuesta predictiva, salvo excepciones previstas en la ley (por ejemplo, bajo autorización previa de los jueces).
Hay una importante variedad de sistemas de alto riesgo, incluidos en las conversaciones de los años recientes, que quedan prohibidos y además implican el establecimiento de obligaciones para las empresas que podrían desarrollarlos: los relativos a educación, servicios públicos, salud, servicios bancarios, migración y gestión de aduanas, asuntos judiciales y procesos electorales. La ley obliga a sus productores a evaluar y reducir los riesgos, documentar su uso y establecer mecanismos de transparencia basados en supervisión humana, así como cumplir leyes que ya existen, como las relativas a derechos de autor. Será obligatorio etiquetar el material multimedia artificial o manipulado sobre registros reales (las llamadas deep fake o “ultrafalsificaciones”).
Uno de los más delicados es que a estos sistemas de alto riesgo se les obligará también a publicar información sobre el contenido que utilizaron para entrenar sus modelos de inteligencia artificial, y sobre ese principio hay aun requisitos adicionales según cada modelo sea más potente. En este renglón entran los populares sistemas de inteligencia artificial generativa, como Chatgpt, que deberán dar garantías de uso transparente de los datos con que fueron entrenados.
Sesgos, transparencia y monopolios
Una de las críticas centrales a la ley europea tiene que ver con el enorme poder de las empresas desarrolladoras de tecnología: las plataformas digitales que concentran el negocio al ser las dueñas de los motores de búsqueda, las redes sociales, los dispositivos y los software más populares en el planeta; verbigracia, Alphabet, Meta, X, Microsoft, Apple y la dueña de Chatgpt, Openai.
Para los críticos de la ley europea (Davies, 2024), aunque su texto es el primero del mundo orientado a mitigar riesgos y establecer responsabilidades, tal regulación se revela débil ante el creciente dominio de mercado y, con ello, la influencia en la vida cotidiana de estas corporaciones tecnológicas, que no solamente es financiera, sino política y cultural.
En ese sentido, una de las observaciones principales a modelos como los sistemas de ia generativa tiene que ver con exigir transparencia al respecto de cómo son entrenados, para propiciar que las fuentes de contenido con las que construyen sus respuestas, como ocurre con Chatgpt, anticipen seguridad, pluralidad y diversidad en relación con la defensa de los derechos humanos.
Las aplicaciones críticas de esta observación son innumerables, pues implican desde limitar posibles sesgos discriminatorios hasta propiciar interacciones que eviten problemas de desinformación o, por el contrario, contribuyan a la alfabetización mediática de los usuarios.
La preocupación por anticipar los sesgos discriminatorios es una de las más extendidas en la bibliografía sobre inteligencia artificial. Un análisis de 84 textos de regulación ética de diferentes países, llevado a cabo en 2019 (Jobin, Ienca & Vayena), logró categorizar 11 grupos o clústeres de principios éticos en juego, que incluían transparencia, justicia, responsabilidad, políticas de no–maleficencia y privacidad, todos atravesados por la necesidad común de establecer responsabilidad a los actores involucrados; aunque el artículo que glosó la investigación mencionada se hacía eco de iniciativas para la estandarización de estos principios éticos entre empresas y desarrolladores de sistemas, también advertía del mayúsculo reto de involucrar a los gobiernos y las corporaciones en los ejercicios de debate y auditoría públicos correspondientes.
Las numerosas advertencias sobre cómo estos problemas se evidencian en tecnologías concretas a disposición de los gobiernos, como el reconocimiento facial, tuvieron una de sus manifestaciones más inquietantes en la denuncia de cómo el gobierno de la ciudad argentina de Buenos Aires contrató un cuestionable programa para buscar a personas prófugas del sistema penitenciario, con bases de datos que produjeron errores que incluyeron la detención de homónimos, entre 2019 y 2020 (Naundorf, 2023). La operación del sistema está suspendida y de hecho una juez local lo declaró inconstitucional en 2022 (cels, 2022).
Por mencionar un ejemplo del mundo del derecho, un artículo (Moral Soriano, 2023) de una académica de la Universidad de Granada, España, revisa desde la argumentación jurídica cómo funcionan los límites del derecho en relación con procesos judiciales en los que sistemas de inteligencia artificial pueden contribuir a la toma de decisiones administrativas, al permitir el procesamiento de información con mucha mayor velocidad que la propia de un juez humano. En este contexto, según la autora, la falta de transparencia es un problema en cuanto, en el Estado de derecho, las personas deben ser capaces de conocer las razones que justifican una decisión judicial, incluso con la finalidad de recurrirla. En ese tenor se vuelve indispensable que cualquier modelo de este tipo esté sujeto a la verificación o, mejor, que en su desarrollo intervenga la noción de que algoritmos y códigos sean considerados información de interés público.
Una advertencia más reciente subraya el reto que supone enfrentarse a sistemas que desarrollan un cierto tipo de inteligencia, es decir, que se entrenan para resolver de mejor modo las tareas a las que se enfrentan. Un grupo de investigadores de Estados Unidos y Australia documentó (Park et al., 2024) cómo algunos bots aprendieron a “engañar” a usuarios humanos, en el sentido de introducir sesgos o creencias que condujeran a las personas a obtener resultados falsos. El estudio revisa casos de sistemas diferentes, incluyendo algunos que aprendieron a usar el juego de estrategia Diplomacy y que emplearon tácticas como ofrecer información falsa a sus rivales humanos o, simplemente, adularlos para que se equivocaran. El trabajo propone subrayar los esfuerzos de regulación y supervisión e introducir políticas de “con o sin bots” en sectores que podrían ser más susceptibles a estos rasgos de las ia, como la organización de elecciones.
Otra de las inquietudes está vinculada con la potencial complejidad de aplicar regulaciones nacionales a actores de terceros países, como fabricantes o distribuidores de estas tecnologías. En principio, el tema supone un desafío para la cooperación entre Estados (Carretero Sánchez, 2024), pero otra interesante línea de acción se ha abierto a escala de ciudades, como Barcelona, Nueva York o Buenos Aires, que han impulsado sus propios protocolos o incluso reglamentos para promover la innovación tecnológica y también normar algunos de los aspectos más relevantes (Galceran–Vercher, 2023).
Género y participación ciudadana
Son los sesgos que puedan producir posibles actos discriminatorios los que más han provocado la atención crítica. Al tratarse de motores “alimentados” por empresas desde datos creados por humanos, y en muchos casos disponibles en internet, los sistemas de ia incorporan de forma acrítica los sesgos ya presentes en la información del mundo, incluyendo los de raza, nivel socioeconómico y género.
En el caso de género, por ejemplo, la alimentación de los sistemas obliga a un proceso de supervisión para eliminar tales sesgos. Un ejemplo habitual es que, si se pide a un chatbot como Chatgpt que traduzca palabras que en inglés son de género neutro (“nurse and doctor”, por ejemplo), tenderá a entregar un resultado que subraye las convenciones (“enfermera y médico”, aunque los datos en inglés carecieran de precisión de género gramatical). Aunque este ejemplo parece de fácil solución (entrenar mejor al chatbot en cuestión), en realidad los sesgos pueden estar presentes tanto en la información disponible en internet como en la programación propia de los algoritmos. Las implicaciones son materia de numerosos estudios (Flores Anarte, 2023).
Una vez más, la necesidad de transparencia y colaboración es una inquietud repetida, y abre la puerta a la discusión sobre el tipo de vigilancia que los Estados podrían imponer. Destaca el caso de China, que ante la popularidad de chatbots como Chatgpt postuló su intención de supervisar que los contenidos de texto producidos por sistemas generativos sean “verdaderos y precisos” (Toner et al., 2023), lo cual, según algunos críticos, podría motivar actos de censura.
Por último, es muy importante mencionar las denuncias de que las discusiones sobre regulación están resolviéndose a escala de corporaciones y gobiernos del Norte global y que, en general, parecen ignorar a grupos ciudadanos y de la sociedad civil. Así lo señaló, por ejemplo, un grupo de 35 asociaciones civiles, en un comunicado (vvaa, 2023) en el que protestó porque las sesiones públicas para discutir el Pacto Digital Mundial en 2023 se llevaron a cabo sin permitirles el uso de la palabra y sin incorporar enfoques de derechos humanos.
Precisamente las discusiones sobre el Pacto Digital Mundial incluyeron una declaración conjunta contra la discriminación por género (apc, 2023), como uno de los gestos más explícitos para colocar a los derechos humanos en el centro de las conversaciones.
Conclusiones
El desafío regulatorio en torno a los sistemas de inteligencia artificial se revela como un tema central para el futuro inmediato, no únicamente por la intención de evitar los mayores peligros ya identificados o pronosticados, o por organizar la relación entre las empresas que las desarrollan y los Estados, sino, sobre todo, por la necesidad de construir un marco de principios éticos y normativos que subrayen la centralidad de los derechos humanos, la democracia y el Estado de derecho.
El caso de México y de los países de América Latina puede servir de escenario para observar la complejidad de encontrar marcos regulatorios de tipo global y el desafío de diseñar dispositivos útiles para cada contexto. Por ejemplo: al presentar, en julio de 2024, el Reporte de Evaluación del Estadio de Preparación de Inteligencia Artificial para México (unesco, 2024), la Unesco advirtió de la fortaleza que significa para México, en contraste con otros países de la región, tener un fuerte marco institucional en privacidad, transparencia de datos y acceso a la información, “porque cuenta con un marco normativo e institucional sólido coordinado por el Instituto Nacional de Transparencia, Acceso a la Información y Protección de Datos Personales, un organismo constitucional autónomo”, y en general por la perspectiva de derechos humanos que inspira a su Constitución Política. No obstante lo anterior, el país enfrentará durante el segundo semestre de 2024 la posibilidad de que, a propuesta del Poder Ejecutivo, el Congreso federal desaparezca (Espinoza Ibarra, 2024) precisamente a organismos como el señalado con argumentos relativos a la austeridad y la eficiencia operativa de la administración pública. Sin embargo, al mismo tiempo enumeró problemas como “la falta de acceso a la justicia para las personas de bajos recursos y para grupos históricamente discriminados”, la brecha de género en la formación superior en disciplinas de ciencia y tecnología en perjuicio de las estudiantes mujeres, o la caída de la inversión pública en tecnologías de información y comunicación.
Este panorama de condiciones contrastantes es similar en otros países de la región, lo cual subraya la necesidad de pensar los desafíos regulatorios de forma específica para cada nación, sin abandonar la perspectiva global que supondrá equilibrar demandas locales con, por ejemplo, modelos de negocio que tendrán carácter internacional. Aunque se trata de un reto mayúsculo, los años de estudio y vigilancia sobre el tema ya permiten construir una agenda de tareas concretas, en las que deberá involucrarse la sociedad civil. Contra la especulación sobre el riesgo del futuro, el presente exige acciones inmediatas.
Bibliografía
AccessNow.org. (2024). Radiografía normativa: ¿Dónde, qué y cómo se está regulando la inteligencia artificial en América Latina? Consultado en https://www.accessnow.org/wp-content/uploads/2024/02/LAC-Reporte-regional-de-politicas-de-regulacion-a-la-IA.pdf el 1 de junio de 2024.
ai Act. (2023). Texto del Artículo 3. Consultado en https://
artificialintelligenceact.eu/es/article/3/ el 1 de junio de 2024.
apc. (2023). “Joint submission to the Global Digital Compact on gender”. Consultado en https://audri.org/wp-content/uploads/2023/05/GDC_Joint-Submission-on-Gender-with-APC.docx.pdf el 1 de junio de 2024.
Carretero Sánchez, S. (2024). “La Ley Europea de la Inteligencia Artificial: una norma que marcará el futuro mundial en esta materia”. Consultado en https://hdl.handle.net/10115/31538 el 1 de junio de 2024.
cels. (2022). “Declaran inconstitucional el uso del sistema de reconocimiento facial en caba”. https://www.cels.org.ar/web/2022/09/una-jueza-declaro-inconstitucional-el-uso-del-sistema-de-
reconocimiento-facial-en-caba/#:~:text=07%20Sep%202022-,
Declaran%20inconstitucional%20el%20uso%20del%20sistema%20de%20reconocimiento%20facial%20en,de%20la%20denuncia%20del%20CELS el 1 de junio de 2024.
Council of the European Union. (2024). Texto del acuerdo provisional del Reglamento. Consultado en https://data.consilium.europa.eu/doc/document/ST-5662-2024-INIT/en/pdf el 1 de junio de 2024.
Davies, P. (2024). “Reacción a la Ley de Inteligencia Artificial de la ue: Los expertos coinciden en que que la primera norma del mundo es ‘histórica’ aunque corta”. EuroNews, 18 de marzo de 2024. Consultado en https://es.euronews.com/next/2024/03/18/reaccion-a-la-ley-de-
inteligencia-artificial-de-la-ue-los-expertos-coincide-en-que-que-la- el 1 de junio de 2024.
Espinoza Ibarra, G. (2024). “¿Qué pasaría con la transparencia si desaparece el inai?” Mexicanos contra la Corrupción y la Impunidad, 22 de febrero de 2024. Consultado en https://contralacorrupcion.mx/que-pasaria-con-la-transparencia-si-desaparece-el-inai/ el 5 de julio de 2024.
Flores Anarte, L. (2023). “Sesgos de género en la Inteligencia Artificial: El Estado de derecho frente a la discriminación algorítmica por razón de sexo”. Revista Internacional de Pensamiento Político, 18(18), 95–120. Consultado en https://doi.org/10.46661/rev.int.pensampolit.8778 el 1 de junio de 2024.
Galceran–Vercher, M. (2023). “Inteligencia artificial y ciudades: la carrera global hacia la regulación de los algoritmos”. Consultado en https://www.cidob.org/publicaciones/serie_de_publicacion/notes_internacionals
_cidob/286/inteligencia_artificial_y_ciudades_la_carrera_global_
hacia_la_regulacion_de_los_algoritmos el 1 de junio de 2024.
hleg. (2019). “A definition of artificial intelligence: main capabilities and scientific disciplines”. Consultado en https://www.informeticplus.com/informe-a-definition-of-artificial-intelligence-main-capabilities-and-scientific-disciplines-comision-europea el 1 de junio de 2024.
hrc. (2012). Resolución a/hrc/20/L.13 del Consejo de Derechos Humanos de las Naciones Unidas. 29 de junio de 2012. Consultado en https://ap.ohchr.org/documents/S/HRC/d_res_dec/A_HRC_20_L13.pdf el 1 de junio de 2024.
Jobin, A., Ienca, M. & Vayena, E. (2019). “The global landscape of ai ethics guidelines”. Nat Mach Intell 1, 389–399 (2019). Consultado en https://doi.org/10.1038/s42256-019-0088-2 el 1 de junio de 2024.
Llamas Covarrubias, J. Z., Mendoza Enríquez, O. A., & Graff Guerrero, M. (2022). “Enfoques regulatorios para la inteligencia artificial (ia)”. Revista Chilena de Derecho, 49(3), 31–62. Consultado en https://doi.org/10.7764/R.493.2 el 1 de junio de 2024.
Moral Soriano, L. (2023). “Criaturas empíricas en un mundo normativo: la inteligencia artificial y el Derecho”. En Revista de Derecho Público: Teoría y método, vol. 7. (2023). Consultado en https://doi.org/10.37417/RPD/vol_7_2023_1313 el 1 de junio de 2024.
Naundorf, K. (2023). “Un escándalo en Buenos Aires revela los peligros del reconocimiento facial”. Wired, 15 de septiembre de 2023. Consultado en https://es.wired.com/articulos/escandalo-en-buenos-aires-
revela-los-peligros-del-reconocimiento-facial el 1 de junio de 2024.
Noticias onu. (2021). “Bachelet pide una moratoria urgente en la venta y uso de la inteligencia artificial”. Consultado en https://news.un.org/es/story/2021/09/1496782 el 1 de junio de 2024.
Park, P. S., Goldstein, S., O’Gara, A., Chen, M., & Hendrycks, D. (2024). “ai deception: A survey of examples, risks, and potential solutions”. Patterns, vol. 5, núm. 5, 10 de mayo de 2024. Consultado en https://doi.org/10.1016/j.patter.2024.100988 el 1 de junio de 2024.
Toner, H., et al. (2023). “How will China’s generative ai regulations shape the future? A DigiChina Forum”. DigiChina, 19 de abril de 2023. Consultado en https://digichina.stanford.edu/work/how-will-chinas-generative-ai-regulations-shape-the-future-a-digichina-forum/ el 1 de junio de 2024.
unesco. (2024). “unesco presenta Reporte de Evaluación del Estadio de Preparación de Inteligencia Artificial de México”. Consultado en https://mexico.un.org/es/273090-unesco-presenta-reporte-de-evaluaci%C3%B3n-del-estadio-de-preparaci%C3%B3n-de-inteligencia-artificial el 5 de julio de 2024.
Venturini, J. (2024). “Inteligencia artificial más allá de la polarización”. En DerechosDigitales.org. Consultado en https://www.derechosdigitales
.org/23564/inteligencia-artificial-mas-alla-de-la-polarizacion/ el 1 de junio de 2024.
vvaa. (2023). “Joint letter regarding civil society participation in the un Global Digital Compact process”. Consultado en https://www.apc.org/es/node/38726 el 1 de junio de 2024.