Garantizar que la Inteligencia Artificial (IA) sirva a la gente y que el conocimiento siga siendo humano: Fundación Wikimedia publica una Evaluación de Impacto de Derechos Humanos sobre IA y aprendizaje automático

Translate this post
An illustration representing that artificial intelligence and machine learning can serve to help strengthen, not replace, what humans do best: arrows that have a background of human hands and computer keyboards in tones of grey are superimposed on a cityscape in tones of green.
Una ilustración que representa cómo la IA y ML pueden servir para ayudar a fortalecer, no reemplazar, lo que los seres humanos hacen mejor. Imagen por Jordan McRae | Wikimedia Foundation, CC BY-SA 4.0, vía Wikimedia Commons.

En la Fundación Wikimedia, creemos que el acceso al conocimiento es un derecho humano. Nuestra misión es garantizar que todas las personas, en todos lados puedan acceder y compartir información confiable de forma libre y abierta en Wikipedia y otros proyectos Wikimedia. El acceso al conocimiento libre y abierto, sustentado por el derecho fundamental a la libertad de expresión, empodera a las personas a ejercer muchos otros derechos consagrados en la Declaración Universal de Derechos Humanos, incluyendo el derecho a la educación, la expresión artística, el progreso económico y la participación política. Hoy, les compartimos una Evaluación de Impacto de Derechos Humanos (EIDH) sobre inteligencia artificial (IA) y aprendizaje automático (ML, por sus siglas en inglés, machine learning) que se realizó en 2024 para ayudarle a la Fundación y comunidades de voluntariado de Wikimedia a entender mejor cómo estas tecnologías pueden afectar el ejercicio de los derechos humanos en nuestro ecosistema.

Los proyectos de Wikimedia, y las personas voluntarias de Wikimedia en cualquier lugar, ocupan un espacio único en el actual ecosistema de información en línea. Sin embargo, este ecosistema está evolucionando rápidamente. La introducción y rápido avance de tecnologías emergentes, como los modelos de lenguaje de gran tamaño y otras clases de IA generativa, ofrecen oportunidades, y también dificultades, relacionadas con la creación, acceso y distribución de información. La IA generativa está cambiando fundamentalmente la forma en que el público busca, recibe, y difunde información e ideas en línea, lo que plantea nuevas preguntas sobre el rol y la responsabilidad de la Fundación Wikimedia y de las comunidades de voluntariado en este ecosistema. 

Ni la IA ni el aprendizaje automático son novedades para los proyectos de Wikimedia ni para las personas voluntarias wikimedistas que los hacen posibles. La Fundación y las comunidades de voluntariado han elaborado numerosas herramientas de ML que se remontan a 2010, para ayudar a las personas voluntarias a colaborar, editar y seleccionar el siempre creciente volumen de conocimiento en todos los proyectos. Varias de estas herramientas han aprovechado el aprendizaje automático y la IA para ayudar a las personas voluntarias con tareas que repiten con frecuencia como identificar el vandalismo y la necesidad de citas. La mayoría de dichas herramientas fueron desarrolladas antes de la IA generativa. En la era de estas tecnologías emergentes, la comunidad de voluntariado Wikimedia se plantea nuevas preguntas:

  • ¿Cuál es el rol, si existiera alguno, que la IA debería jugar en cuanto al conocimiento compartido en los proyectos Wikimedia?
  • Dado el amplio uso de IA generativa en el internet, ¿cómo podemos proteger y fortalecer la exactitud e integridad del conocimiento en los proyectos Wikimedia?
  • ¿Cómo pueden usarse las herramientas de aprendizaje automático e IA para fortalecer, y no reemplazar aquello que los seres humanos hacen mejor: crear, curar y compartir el conocimiento libre?
  • ¿Cómo pueden usarse los grandes modelos de lenguaje y herramientas de IA para traducir contenido a nuevos idiomas, a la vez que se preservan la fiabilidad y las sutilezas y contextos culturales?
  • ¿Cómo deberían evolucionar las políticas de las comunidades de voluntariado para considerar estos casos de estas nuevas tecnologías?

Sobre la Evaluación del Impacto de Derechos Humanos (EIDH) de la IA y el aprendizaje automático (ML)

Esta EIDH es el resultado más reciente de las iniciativas de la Fundación para cumplir con nuestro compromiso de proteger y defender los derechos humanos de todas las personas que interactúan con los proyectos Wikimedia. La Fundación lo encargó para identificar y analizar el impacto, oportunidades y riesgos que surgen del uso de las tecnologías de IA y ML en el ecosistema Wikimedia. El reporte fue redactado y compilado por Taraaz Research, una organización de investigación especializada y defensoría, que trabaja en la intersección de la tecnología y los derechos humanos. Al desarrollar el reporte Taraaz se entrevistó con personal de la Fundación, personas voluntarias individuales, grupos afiliados, organizaciones de la sociedad civil y personas expertas en asuntos externos, pero el reporte no representa los puntos de vista o el consenso compartido de cualquiera de esos grupos. En su lugar, el reporte ofrece sugerencias para avanzar las pesquisas, políticas e inversión en tecnología de acuerdo al estado de los proyectos y tecnología de Wikimedia desde octubre de 2023 a agosto de 2024, durante la realización del estudio. Más aún, los resultados en el reporte representan áreas potenciales de riesgos y oportunidades. El reporte no identifica ningún riesgo, daño, oportunidad o beneficio observado en realidad como resultado del uso de las tecnologías de ML e IA en los proyectos Wikimedia.

¿Cuáles son los resultados de este reporte?

Este reporte consideró los riesgos que emergen de tres distintas categorías de problemas relacionados con la IA y ML en los proyectos Wikimedia: las herramientas internas desarrolladas por el personal de la Fundación para apoyar el trabajo de las personas editoras voluntarias; IA generativa (GenAI) y su riesgos potenciales de derechos humanos marginales en el contexto de Wikimedia; y contenidos en los proyectos Wikimedia que pueden ser usados para el desarrollo de aprendizaje automático (ML por sus siglas en inglés, machine learning).

Es importante recalcar que los resultados que contiene este reporte reflejan daños potenciales que podrían ocurrir en el futuro. El reporte no encuentra que hayan ocurrido ninguno de dichos daños. En lugar, explica que estos daños podrían ocurrir si la IA se usa o aprovecha en ciertas formas en los proyectos Wikimedia sin mitigaciones apropiadas establecidas.

El reporte encontró que las herramientas de IA/ML desarrolladas por la Fundación para apoyar a las personas editoras voluntarias tienen el potencial de contribuir positivamente a varios derechos humanos, tales como la libertad de expresión y el derecho a la educación, entre otros. Sin embargo, existen ciertos riesgos que nacen de limitaciones conocidas de herramientas con funcionalidades de IA/ML: por ejemplo, la posibilidad de perpetuar o amplificar brechas y sesgos existentes en la representación del conocimiento, o marcar o identificar incorrectamente contenidos para que sean borrados. Estos riesgos, si fueran a materializarse a gran escala, podrían tener consecuencias negativas a los derechos humanos del voluntariado Wikimedia.

Más aún, el reporte consideró en términos generales qué nuevos riesgos podrían traer las herramientas externas de GenIA a los proyectos Wikimedia. El equipo de investigación determinó que la GenIA podría aumentar la escala, velocidad y sofisticación de generación de contenidos dañinos, incluyendo campañas de desinformación y ataques a personas voluntarias individuales en Wikimedia o a sus comunidades. Estas herramientas también podrían automatizar la creación de contenidos engañosos en varios idiomas de forma simultánea, lo que dificultaría su detección y moderación, además de jugar un papel en la generación de grandes cantidades de contenidos personalizados de abuso que van dirigidos a personas o comunidades específicas. Estos riesgos, además de otros también identificados, podrían afectar negativamente los derechos humanos del voluntariado Wikimedia, e incluso del público en general si no son mitigados apropiadamente.

Por último, el reporte consideró los riesgos descendientes de los usos de los contenidos Wikimedia en los grandes modelos de lenguaje (LLMs). Si bien la Fundación Wikimedia no puede controlar cómo usa el público en general los contenidos liberados bajo licencias libres en los proyectos Wikipedia, sí tenemos una responsabilidad de salvaguardar los riesgos a los derechos humanos que podrían resultar de los riesgos descendientes. El equipo de investigación identificó preocupaciones acerca de cómo los resultados de los LLMs entrenados parcialmente en contenidos Wikimedia podrían representar un riesgo en cuanto a sesgos y representación, calidad y precisión de datos, riesgos de privacidad y problemas relacionados con sensibilidades culturales. Como tal, el equipo recomendó monitorear estos riesgos potenciales, aunque también encontraron que las iniciativas actuales de calidad de datos y los programas enfocados en la equidad ya mitigan los riesgos en cuestión, ya que estos programas buscan reducir las brechas de contenidos y representación en distintas comunidades lingüísticas.

En cada una de estas áreas de enfoque, el reporte anota que la Fundación y las comunidades de voluntariado también han implementado ya varias estrategias y procesos que mitigan los riesgos identificados a la vez que ofrecen recomendaciones para medidas adicionales de mitigación. Dada la prominencia de los proyectos Wikimedia en el ecosistema en línea de información, es crucial considerar los nuevos riesgos provenientes de las tecnologías que crecen y evolucionan rápidamente, tales como la IA y ML. Es importante anotar que las discusiones y conclusiones en este reporte nos permiten contemplar anticipadamente estos daños potenciales a fin de planear cuál es la mejor forma de mitigarlos proactivamente.

¿Qué significa este informe de la EIDH para los proyectos y la comunidad de voluntariado Wikimedia?

Desde que publicamos nuestra primera EIDH en julio de 2022, la Fundación ha sido clara en la necesidad de que las comunidades de voluntariado global participen y colaboren para poner en práctica las recomendaciones de estos informes. Tomará tiempo analizar los hallazgos y recomendaciones de la EIDH con las comunidades de voluntariado para decidir cuál es la mejor manera de ponerlas en práctica, pero nuestras acciones serán más efectivas si procedemos así.

Publicamos este informe de EIDH para ayudar a la Fundación y a las comunidades de voluntariado a explorar y atender los profundos impactos sociales que podrían derivarse de la interacción de las tecnologías de IA y los proyectos de Wikimedia en los años por venir. Las comunidades de Wikimedia alrededor del mundo ya están lidiando con importantes decisiones sobre cómo establecer políticas claras para un uso apropiado de la IA generativa en los proyectos, o incluso si existen dichos casos de uso. Esperamos que los riesgos y oportunidades identificados en este informe ayuden a guiar sus debates y decisiones para garantizar que los proyectos puedan continuar siendo una contribución positiva al ecosistema de información en línea y nuestra sociedad global.

¿Cómo pueden las personas wikimedistas aprender más y hacernos llegar sus comentarios?

¡Queremos escucharte! ¿Qué preguntas tienes? ¿Qué piensas sobre los riesgos y recomendaciones analizados en el informe? ¿Qué está haciendo ya tu comunidad, o qué quisieras que hiciera, para aprovechar responsablemente los beneficios de la IA y el aprendizaje automático en los proyectos de Wikimedia?

En los próximos meses, crearemos espacios para escuchar directamente las reflexiones tuyas y de tus comunidades sobre los hallazgos y recomendaciones de este informe, y las oportunidades y riesgos asociados con la IA y el aprendizaje automático en el ecosistema de Wikimedia. Puedes dejar tus ideas y comentarios en la página de Discusión de la EIDH o unirte a una de las siguientes conversaciones:

Can you help us translate this article?

In order for this article to reach as many people as possible we would like your help. Can you translate this article to get the message out?