Forus

2023-12-07

La sociedad civil mundial lanza un manifiesto por una IA ética

Nosotros y nosotras, una coalición mundial de más de 50 organizaciones de la sociedad civil y de derechos humanos de más de 30 países, hemos elaborado conjuntamente el "Manifiesto de la sociedad civil por una IA ética", una iniciativa innovadora que pretende orientar las políticas de IA hacia la salvaguarda de los derechos y la descolonización del discurso sobre la IA. Nos preguntamos, y no somos los únicos: ¿de quién son las voces, ideas y valores que importan en la IA?  

 

"Si Silicon Valley fuera un país, probablemente sería el más rico del mundo. Entonces, ¿hasta qué punto están realmente comprometidas las grandes tecnológicas y la IA con la financiación y el fomento de los derechos humanos por encima de los beneficios? La pura verdad es que si la democracia fuera rentable, los abogados y defensores de los derechos humanos, incluidos los activistas tecnológicos de las organizaciones de la sociedad civil, no estarían sentados en torno a mesas de participación de múltiples partes interesadas exigiendo responsabilidades a Big Tech e IA. ¿Hasta qué punto están interesados en un impacto social real centrado en los derechos, a pesar de las evidentes pruebas de lo contrario?", se pregunta Nina Sangma, del Pacto de los Pueblos Indígenas de Asia, una organización regional fundada en 1992 por movimientos de pueblos indígenas con más de 40 miembros en 14 países de la región Asia-Pacífico.  

  

Actualmente nos encontramos en una coyuntura crítica en la que la mayoría de los países carecen de una política o un marco normativo global en materia de IA. La repentina dependencia de la IA y otras tecnologías digitales ha introducido nuevas vulnerabilidades, a menudo "invisibles", y apenas hemos visto la punta del iceberg, literalmente derretido por los efectos del cambio climático.  

 

Sin embargo, ya hemos visto algunas cosas: La IA sigue siendo un producto de datos históricos que representan inequidades y desigualdades. Un estudio que analizaba más de 100 imágenes generadas por IA utilizando los modelos de difusión de Midjourney reveló sesgos consistentes, como la representación de hombres mayores para trabajos especializados, las representaciones binarias de género, la presentación de entornos urbanos independientemente de su ubicación, y la generación de imágenes que refuerzan predominantemente el "edadismo, sexismo y clasismo", con un sesgo hacia una perspectiva occidental.   

 

Las fuentes de datos siguen siendo "tóxicas". Las herramientas de IA aprenden a partir de grandes cantidades de datos de entrenamiento, que a menudo consisten en miles de millones de entradas extraídas de Internet. Estos datos pueden perpetuar estereotipos nocivos y a menudo contienen contenidos tóxicos como pornografía, misoginia, violencia e intolerancia. Además, los investigadores descubrieron sesgos en hasta el 38,6% de los "hechos" utilizados por la IA.  

 

A pesar de la mayor concienciación, el discurso en torno a la IA, como la propia tecnología, ha estado predominantemente moldeado por "occidente, la blancura y la riqueza". La discriminación que vemos hoy en día es el resultado de un cóctel de "cosas que han salido mal", desde prácticas de contratación discriminatorias basadas en el género y la raza hasta la prevalencia de sesgos en los algoritmos.  

 

"Los sesgos no son una coincidencia. La inteligencia artificial es una máquina que saca conclusiones de los datos basándose en modelos estadísticos, por lo tanto, lo primero que elimina son las variaciones. Y en el ámbito social eso significa no dar visibilidad a los márgenes", declara Judith Membrives i Llorens, responsable de políticas digitales de Lafede.cat - Organitzacions per la Justícia Global.  

 

"El desarrollo de la IA no es la única preocupación aquí. El verdadero problema se deriva de mantener a los ciudadanos en la oscuridad, restringiendo las libertades cívicas y la prevalencia de la polarización y los prejuicios en varias dimensiones de nuestras sociedades. Esto se traduce en un acceso desigual, una discriminación prevalente y una falta de transparencia en los procesos tecnológicos y más allá. A pesar de reconocer el potencial y el poder de estas tecnologías, está claro que muchos siguen excluidos y marginados debido a fallos sistémicos. Si no se aborda esta cuestión, el desarrollo global de la IA y otras tecnologías emergentes no será inclusivo. Si no actuamos ahora y creamos espacios de debate para que surjan nuevas visiones, estas tecnologías seguirán reflejando y exacerbando estas disparidades", afirma Mavalow Christelle Kalhoule, líder de la sociedad civil en Burkina Faso y en toda la región del Sahel, y presidenta de la red mundial de la sociedad civil Forus.  

 

El Manifiesto de la Sociedad Civil por una Inteligencia Artificial Ética se pregunta cuáles son los riesgos potenciales de utilizar los actuales sistemas de Inteligencia Artificial para tomar decisiones en el futuro, especialmente en términos de reforzar las disparidades existentes 

 

Hoy, cuando se espera que los responsables políticos de la UE cierren un acuerdo político para la Ley de IA, nos preguntamos si las normas internacionales para regular el aprendizaje automático incluyen la voz de la gente. Con el Manifiesto exploramos, desafiamos, perturbamos y reimaginamos los supuestos subyacentes en este discurso, pero también ampliamos el debate para incorporar comunidades más allá de los "expertos" tradicionales. Nada sobre nosotros/as, sin nosotros/as.   

 

"Queremos Inteligencia Artificial, pero creada por y para todos, no sólo para unos pocos", añade Judith Membrives i Llorens.  

 

Desde el "Internet de las vacas" hasta el impacto de la IA en los derechos de los trabajadores y en el espacio cívico, desarrollado por más de 50 organizaciones de la sociedad civil, el Manifiesto incluye 17 estudios de caso sobre sus experiencias, visiones e historias en torno a la IA. Con cada historia, queremos tejer un camino diferente para construir nuevas visiones sobre los sistemas de IA que amplíen en lugar de restringir las libertades en todo el mundo 

 

"El desarrollo actual de la IA no es en absoluto un camino inevitable. Las grandes empresas tecnológicas le dan forma porque nosotros se lo permitimos. Es hora de que la sociedad civil defienda sus derechos sobre los datos", afirma Camilla Lohenoja, de SASK, la organización de derechos de los trabajadores de los sindicatos de Finlandia.  

 

"Centrarse en una tecnología ética y transparente también significa prestar la misma atención a la imparcialidad e inclusividad de sus procesos de diseño y toma de decisiones. La integridad de la IA depende tanto de su desarrollo como de su aplicación", afirma Hanna Pishchyk, del grupo juvenil Digital Grassroots.  

 

En última instancia, el Manifiesto pretende desencadenar un diálogo mundial -y no sólo sectorial y dominado por Occidente- sobre el desarrollo y la aplicación de la IA.   

La sociedad civil no está aquí como mera comparsa en los espacios de múltiples partes interesadas, sino que aporta lo que otros a menudo descartan y participa activamente en todo el mundo en la configuración de un futuro tecnológico que abarque la inclusión, la responsabilidad y los avances éticos