
À la Fondation Wikimédia, nous estimons que l’accès au savoir est un droit humain. Notre mission est de garantir que chacun, partout dans le monde, puisse accéder à des informations fiables et les partager librement et ouvertement sur Wikipédia et les autres projets de Wikimédia. L’accès à un savoir libre et ouvert, soutenu par le droit fondamental à la liberté d’expression, permet d’exercer de nombreux autres droits inscrits dans la Déclaration universelle des droits de l’homme, notamment les droits à l’éducation, à l’expression artistique, au développement économique et à la participation politique. Nous partageons aujourd’hui une évaluation d’impact sur les droits humains (EIDH) de l’intelligence artificielle (IA) et de l’apprentissage automatique (AA), réalisée en 2024, afin d’aider la Fondation et les communautés de bénévoles de Wikimédia à mieux comprendre l’impact potentiel de ces technologies sur l’exercice des droits humains dans notre contexte.
De par le monde, les projets et bénévoles de Wikimédia occupent une place unique dans le paysage actuel de l’information numérique. Cependant, ce dernier évolue rapidement. L’introduction et le développement rapide de technologies émergentes telles que les grands modèles de langage (LLM) et d’autres formes d’IA générative ouvrent des perspectives, mais aussi des défis, en matière de création, d’accès et de diffusion de l’information. L’IA générative transforme fondamentalement la manière dont le public recherche, reçoit et partage l’information et les idées en ligne, soulevant de nouvelles questions quant au rôle et à la responsabilité de la Fondation et des communautés de bénévoles Wikimedia dans ce cadre.
L’IA et l’apprentissage automatique ne sont nouveaux ni pour les projets Wikimédia, ni pour les bénévoles qui les rendent possibles. Dès 2010, la Fondation et les communautés de bénévoles ont développé de nombreux outils d’apprentissage automatique pour aider les bénévoles qui contribuent, modifient et organisent le volume toujours croissant de contenu des projets. Plusieurs de ces outils exploitent l’apprentissage automatique (ML) et l’IA pour soutenir les bénévoles dans des tâches fréquentes telles que l’identification des actes de vandalisme et la détection de citations manquantes. La plupart des outils actuellement utilisés ont été développés avant l’introduction de l’IA générative. À l’ère de ces technologies émergentes, les bénévoles de Wikimédia sont confrontés à de nouvelles questions:
- Quel rôle, s’il y en a, devrait jouer l’IA dans les connaissances partagées sur les projets Wikimédia?
- Compte tenu de la grande utilisation de l’IA générative sur Internet, comment pouvons-nous protéger et renforcer l’exactitude et l’intégrité des connaissances partagées sur les projets Wikimédia?
- Comment les outils d’apprentissage automatique et d’IA peuvent-ils contribuer à renforcer, et non à remplacer, ce que les humains font le mieux: Créer, cultiver et partager des connaissances libres?
- Comment les LLM et les outils d’IA peuvent être utilisés pour traduire du contenu dans de nouvelles langues, tout en préservant la fiabilité, les nuances culturelles et le contexte?
- Comment les politiques des communautés de bénévoles devraient-elles évoluer pour tenir compte de ces nouvelles utilisations de ces technologies?
À propos de l’Étude d’impact sur les droits humains (EIDH) de l’IA/ML
Cette EIDH est le dernier résultat des efforts continus de la Fondation pour respecter son engagement à protéger et à faire respecter les droits humains de tous ceux qui interagissent avec les projets Wikimédia. La Fondation a commandé cette étude afin d’identifier et d’analyser les impacts, les opportunités et les risques liés à l’utilisation des technologies d’IA et d’apprentissage automatique dans le paysage de Wikimédia. Le rapport a été rédigé et compilé par Taraaz Research, une organisation de recherche et de plaidoyer spécialisée travaillant à l’intersection des technologies et des droits humains. Pour l’élaborer, Taraaz a consulté des employés de la Fondation, des bénévoles individuels et affiliés, des organisations de la société civile et des experts externes. Cependant, ce rapport ne reflète ni les points de vue ni le consensus de ces groupes. Il propose plutôt des suggestions pour des recherches, des politiques et des investissements technologiques plus approfondis, basés sur l’état des projets et des technologies Wikimédia entre octobre 2023 et août 2024, période à laquelle l’étude a été menée. De plus, les conclusions du rapport représentent des domaines de risques et d’opportunités potentiels. Il n’identifie aucun risque, préjudice, opportunité ou avantage réel observé résultant de l’utilisation des technologies d’apprentissage automatique ou d’IA sur les projets de Wikimédia.
Quelles sont les conclusions de ce rapport?
Ce rapport a examiné les risques liés à trois catégories de problèmes liés à l’IA/ML sur les projets Wikimédia: Les outils développés en interne par l’équipe de la Fondation pour soutenir le travail des contributeurs bénévoles; l’IA générative (GenAI) et ses risques potentiels pour les droits humains dans le contexte de Wikimédia ; et le contenu des projets Wikimédia susceptible d’être utilisé pour le développement externe de l’apprentissage automatique (ML).
Il est important de noter que les conclusions de ce rapport reflètent les préjudices potentiels qui pourraient survenir à l’avenir. Le rapport ne constate pas de tels préjudices. Il explique plutôt que ces derniers pourraient survenir si l’IA est utilisée ou exploitée de certaines façons, à grande échelle, sur les projets Wikimedia sans mesures d’atténuation appropriées.
Le rapport a révélé que les outils d’IA/ML développés par la Fondation pour soutenir les contributeurs bénévoles peuvent contribuer positivement à plusieurs droits humains, tels que la liberté d’expression et le droit à l’éducation, entre autres. Néanmoins, certains risques découlent des limites connues de ces outils: Par exemple, la possibilité de perpétuer ou d’amplifier les lacunes et les biais existants dans la représentation des connaissances, ou de signaler ou de marquer à tort des contenus pour suppression. De tels risques, s’ils se matérialisent à grande échelle, pourraient avoir des conséquences négatives sur les droits humains des bénévoles de Wikimédia.
En outre, le rapport a examiné de manière générale les nouveaux risques que les outils GenAI externes pourraient introduire pour les projets de Wikimédia. Les chercheurs ont déterminé que l’IA générative pourrait accroître l’ampleur, la rapidité et la sophistication de la création de contenus préjudiciables, notamment pour les campagnes de désinformation et pour attaquer les bénévoles de Wikimédia ou leurs communautés. Ces outils pourraient également automatiser la création de contenus trompeurs dans plusieurs langues simultanément, rendant leur détection et leur modération plus difficiles, et contribuer à la génération de volumes importants de contenus personnalisés et abusifs ciblant des individus ou des communautés spécifiques. Ces risques, parmi d’autres identifiés, pourraient avoir un impact négatif sur les droits humains des bénévoles de Wikimédia et, même, sur le grand public s’ils ne sont pas correctement atténués.
Enfin, le rapport a examiné les risques en aval liés à l’utilisation du contenu des projets Wikimédia pour l’apprentissage des grands modèles linguistiques (LLM). Bien que la Fondation Wikimédia ne puisse contrôler l’utilisation par le grand public du contenu sous licence libre et ouverte des projets Wikimédia, nous avons le devoir de protéger les droits humains contre les risques potentiels liés aux impacts en aval. Les chercheurs ont identifié des préoccupations quant aux risques que les résultats des LLM partiellement amorcés sur le contenu Wikimédia pourraient représenter en termes de biais et de représentation, de qualité et d’exactitude des données, de risques pour la vie privée et de sensibilité culturelle. Ainsi, leur recommandation était de surveiller ces risques potentiels, tout en constatant que les initiatives en cours en matière de qualité des données et les programmes axés sur l’équité atténuent déjà ces risques, car ils comblent les écarts de contenu et de représentation entre les communautés linguistiques.
Pour chacun de ces domaines d’intervention, le rapport souligne que la Fondation et les communautés de bénévoles de Wikimédia ont déjà mis en œuvre de nombreuses stratégies et processus pour atténuer les risques identifiés, tout en formulant des recommandations pour des mesures supplémentaires. Compte tenu de l’importance des projets Wikimédia dans le monde de l’information numérique, il est crucial de prendre en compte les nouveaux risques liés à des technologies en constante évolution et en plein essor comme l’IA et l’apprentissage automatique. Il est important de noter que les discussions et les conclusions de ce rapport nous permettent d’anticiper ces risques potentiels et de planifier les meilleures mesures pour les atténuer de manière proactive.
Que signifie ce rapport d’EIDH pour les projets Wikimedia et les communautés de bénévoles?
Depuis la publication de notre première EIDH en juillet 2022, la Fondation a clairement indiqué que la mise en œuvre de nombreuses recommandations de ces rapports nécessite l’adhésion et la collaboration des communautés de bénévoles à travers le monde. Il faudra du temps pour discuter des conclusions et des recommandations de cette EIDH avec les communautés de bénévoles afin de déterminer la meilleure façon de collaborer à leur implémentation, mais nos actions seront ainsi plus efficaces.
Nous publions ce rapport d’EIDH afin d’aider la Fondation et les communautés de bénévoles à explorer et à gérer les impacts sociétaux profonds que pourraient engendrer l’interaction des technologies d’IA et des projets Wikimédia dans les années à venir. Les communautés Wikimédia du monde entier sont déjà confrontées à des décisions importantes concernant la manière d’établir des politiques claires pour une utilisation appropriée de l’IA générative sur les projets, ou même l’existence de telles utilisations. Nous espérons que la prise en compte des risques et des opportunités identifiés dans ce rapport contribuera à orienter les discussions et les décisions de la communauté afin de garantir que les projets puissent continuer à contribuer positivement à l’information numérique et à notre société mondiale.
Comment les wikimédiens peuvent-ils en savoir plus et donner leur avis?
N’hésitez pas à nous contacter! Avez-vous des questions? Que pensez-vous des risques et des recommandations abordés dans le rapport? Que fait déjà votre communauté, ou que souhaiteriez-vous faire, pour exploiter de manière responsable les avantages de l’IA et de l’apprentissage automatique sur les projets de Wikimédia?
Au cours des prochains mois, nous vous donnerons l’occasion, à vous et à vos communautés, de nous faire part directement de vos commentaires sur les conclusions et recommandations de ce rapport, ainsi que de vos points de vue sur les opportunités et les risques liés à l’IA et à l’apprentissage automatique dans le monde de Wikimédia. Vous pouvez d’ores et déjà laisser vos commentaires sur la page de discussion de l’EIDH ou participer à l’une des conversations suivantes sur ce sujet:
- 21 novembre (12:00 GMT): Heure de conversation de la communauté de plaidoyer mondial
- 21 novembre (17:00 GMT): Heure de conversation de la communauté de plaidoyer mondial
Pouvez-vous nous aider à traduire cet article ?
Pour que cet article soit diffusé au plus grand nombre, nous avons besoin de votre aide. Pouvez-vous traduire cet article pour faire passer le message ?
Commencer la traduction