
نحن في مؤسسة ويكيميديا نؤمن بأن الوصول إلى المعرفة هو حق من حقوق الإنسان. وتتمثّل مَهمّتنا في ضمان أن يتمكن الجميع، في كل مكان، من الوصول إلى المعلومات الموثوقة ومشاركتها بحرّية وانفتاح في ويكيبيديا ومشاريع ويكيميديا الأخرى. إن الوصول إلى المعرفة الحرة والمفتوحة، المدعوم بالحق الأساسي في حرية التعبير، يمكّن الأفراد من ممارسة العديد من الحقوق الأخرى المنصوص عليها في الإعلان العالمي لحقوق الإنسان، بما في ذلك الحق في التعليم، والتعبير الفني، والتقدّم الاقتصادي، والمشاركة السياسية. اليوم، نشارككم تقييمًا (HRIA) لتأثير الذكاء الاصطناعي (AI) وتعلّم الآلة (ML) على حقوق الإنسان. أجرت مؤسسة ويكيميديا هذا التقييم عام 2024 لمساعدة المؤسسة ومجتمعات المتطوعين في حركة ويكيميديا على فهم كيفية تأثير هذه التقنيات على ممارسة حقوق الإنسان في نظامنا فهماً أفضل.
تشغل مشاريع ويكيميديا ومتطوعوها حول العالم، موقعًا فريدًا في منظومة المعلومات الرقمية المعاصرة. إلا أن هذه المنظومة تتطور بوتيرةٍ سريعة. فقد أدى ظهور وتطور تقنيات ناشئة مثل النماذج اللغوية الضخمة (LLMs) وأنواع أخرى من الذكاء الاصطناعي التوليدي إلى طرح فرصٍ وتحديات جديدة تتعلق بإنشاء المعلومات والوصول إليها وتوزيعها. يعمل الذكاء الاصطناعي التوليدي على تغيير الطريقة التي يبحث بها الأشخاص عن المعلومات وتلقيها وتبادلها عبر الإنترنت، مما يثير تساؤلات جديدة حول دور ومسؤولية المؤسسة ومجتمع متطوعي ويكيميديا في هذا السياق.
مع ذلك، فإن الذكاء الاصطناعي وتعلّم الآلة ليسا جديدين على مشاريع ويكيميديا، ولا على المتطوعين القائمين عليها. فقد طوّرت المؤسسة ومجتمعات المتطوعين أدوات عدّة لدعم المتطوعين في المساهمة والتحرير وتنظيم الكمّ المتزايد من المعلومات في المشاريع، وذلك منذ 2010. استفادت العديد من هذه الأدوات من تقنيات تعلّم الآلة والذكاء الاصطناعي لمساعدة المتطوعين في إنجاز المهام المتكررة، مثل اكتشاف التخريب أو الإشارة إلى الحاجة لإضافة المراجع. طُوّرت معظم الأدوات المستخدمة حالياً قبل ظهور الذكاء الاصطناعي التوليدي. مع دخول هذه التقنيات الجديدة، يواجه المجتمع الآن تساؤلات جديدة:
- ما الدور الذي ينبغي أن يؤديه الذكاء الاصطناعي فيما يخص المعرفة المُشاركة على مشاريع ويكيميديا، إن وُجد؟
- في ظل الاستخدام واسع النطاق للذكاء الاصطناعي التوليدي على الإنترنت، كيف يمكننا حماية وتعزيز دقة ومصداقية المعرفة في مشاريع ويكيميديا؟
- كيف يمكن أن تُساعد أدوات تعلّم الآلة والذكاء الاصطناعي في تعزيز، وليس استبدال، ما يفعله البشر على أفضل وجه: إنشاء المعرفة المجانية ورعايتها ومشاركتها؟
- كيف يمكن استخدام النماذج اللغوية الضخمة وأدوات الذكاء الاصطناعي في ترجمة المحتوى إلى لغات جديدة، مع الحفاظ على الموثوقية والدقة الثقافية والسياق؟
- كيف ينبغي لسياسات مجتمعات المتطوعين أن تتطور لتشمل مثل هذه الاستخدامات لهذه التقنيات الجديدة؟
نبذة عن تقييم أثر تقنيات الذكاء الاصطناعي/تعلّم الآلة على حقوق الإنسان (HRIA)
يقدّم تقرير تقييم آثر تقنيات الذكاء الاصطناعي وتعلم الآلة على حقوق الآنسان HRIA أحدث النتائج التي توصلت لها جهود المؤسسة المتواصلة للوفاء بالتزامنا بحماية حقوق الإنسان لجميع الذين يتفاعلون مع مشاريع ويكيميديا. وقد كلفت المؤسسة بتحديد وتحليل التأثيرات والفرص والمخاطر الناجمة عن استخدام تقنيات الذكاء الاصطناعي والتعلم الآلي في نظام ويكيميديا.
أعدّت التقرير وجمعته منظمة تاراز للأبحاث، وهي هيئة متخصصة في الأبحاث والمناصرة، تعمل في مجال تلاقي التكنولوجيا وحقوق الإنسان. خلال إعداد التقرير، استشارت منظمة تاراز عدداً من موظفي المؤسسة، ومتطوعين أفراد، وجهات شقيقة تطوعية، ومنظمات من المجتمع المدني، وخبراء خارجيين في مجالات متخصصة. ومع ذلك، لا يُعبّر التقرير عن آراء أيٍّ من هذه الأطراف أو عن توافقٍ مشترك بينها. بل، يقدّم التقرير مقترحات لإجراء المزيد من البحث، والسياسات، والاستثمار في التكنولوجيا، وذلك استناداً إلى واقع مشاريع ويكيميديا والتقنيات خلال الفترة من أكتوبر 2023 إلى أغسطس 2024، وهي الفترة التي أُجري فيها البحث. كما تمثّل النتائج الواردة في التقرير مجالات محتملة للمخاطر والفرص. لا يشير التقرير إلى أي مخاطر أو أضرار أو فرص أو فوائد فعلية رُصدت نتيجة استخدام تقنيات تعلّم الآلة أو الذكاء الاصطناعي في مشاريع ويكيميديا.
ما هي نتائج هذا التقرير؟
تناول هذا التقرير المخاطر الناجمة عن ثلاث فئات مختلفة من القضايا المتعلقة بالذكاء الاصطناعي/تعلّم الآلة في مشاريع ويكيميديا: الأدوات التي طوّرها موظفو المؤسسة داخليًا لدعم عمل المحررين المتطوعين؛ والذكاء الاصطناعي التوليدي (GenAI) وإمكاناته فيما يتعلق بمخاطر حقوق الإنسان الهامشية في سياق ويكيميديا؛ والمحتوى الموجود في مشاريع ويكيميديا والذي يمكن استخدامه لتطوير تعلّم الآلة خارجياً.
من المهم الإشارة إلى أن النتائج الواردة في التقرير تعكس مخاطر محتملة قد تحدث مستقبلًا. لا يخلُص التقرير إلى أن أياً من هذه المخاطر قد حدث بالفعل، بل يوضّح أن هذه المخاطر قد تحدث في حال استخدام الذكاء الاصطناعي أو الاستفادة منه على نطاق واسع بطرقٍ معيّنة في مشاريع ويكيميديا دون وجود تدابير وقائية مناسبة.
وجد التقرير أن بإمكان أدوات الذكاء الاصطناعي وتعلّم الآلة التي طورتها المؤسسة لدعم المحررين المتطوعين المساهمة بشكلٍ إيجابي في تعزيز العديد من حقوق الإنسان، مثل حرية التعبير والحق في التعليم، وغيرها. ومع ذلك، توجد بعض المخاطر الناجمة عن القيود المعروفة لهذه الأدوات: على سبيل المثال، إمكانية إدامة أو تضخيم الفجوات والتحيزات القائمة في تمثيل المعرفة، أو الإبلاغ غير الصحيح عن محتوى أو وسمه للحذف. قد يكون لهذه المخاطر، إذا ما تحققت على نطاق واسع، آثار سلبية على حقوق متطوعي ويكيميديا.
علاوةً على ذلك، يناقش التقرير، بشكل عام، المخاطر الجديدة التي قد تُسببها أدوات الذكاء الاصطناعي التوليدي الخارجية على مشاريع ويكيميديا. وخلُص الباحثون إلى أن الذكاء الاصطناعي التوليدي قد يزيد من نطاق وسرعة وتطور إنتاج المحتوى الضار، بما في ذلك حملات التضليل ومهاجمة متطوعي ويكيميديا الأفراد أو مجتمعاتهم. كما يمكن أن تؤتمت هذه الأدوات إنشاء محتوى مضلل بلغات متعددة في آنٍ واحد، ما يزيد من صعوبة اكتشافه وإدارته، ويلعب دورًا في إنتاج كميات كبيرة من المحتوى المسيء والمُخصص الذي يستهدف أفرادًا أو مجتمعات محددة. هذه المخاطر، من بين مخاطر أخرى حُدّدت، قد تؤثر سلبًا على حقوق متطوعي ويكيميديا، بل وحتى على عامة الناس، إذا لم تُخفف من حدتها بشكل صحيح. وحدد الباحثون مخاوف بشأن كيفية تمثيل مخرجات نماذج اللغات الكبيرة (LLMs) المدربة جزئيًا على محتوى ويكيميديا لمخاطر تتعلق بالتحيز والتمثيل، وجودة البيانات ودقتها، ومخاطر الخصوصية، والقضايا المتعلقة بالحساسية الثقافية. وبناءً على ذلك، أوصوا برصد هذه المخاطر المحتملة، مع أنهم وجدوا أيضًا أن مبادرات جودة البيانات الجارية والبرامج التي تركز على المساواة تخفف بالفعل من المخاطر المعنية، نظرًا لأن هذه البرامج تعالج فجوات المحتوى والتمثيل بين المجتمعات اللغوية.
أخيرًا، تناول التقرير المخاطر الناتجة عن استخدام محتوى مشاريع ويكيميديا في تدريب النماذج اللغوية الضخمة (LLMs). في حين أن مؤسسة ويكيميديا لا تستطيع التحكم في كيفية استخدام الجمهور العام لمحتوى مشاريع ويكيميديا المرخّص ترخيصاً حراً، إلا أننا نلتزم بواجب حماية حقوق الإنسان من المخاطر التي قد تنشأ نتيجة هذه التأثيرات اللاحقة. وقد حدّد الباحثون مخاوف بشأن كيف يمكن لمخرجات النماذج اللغوية الضخمة المدربة على محتوى ويكيميديا تمثيل المخاطر من حيث التخيز والعرض، وجودة البيانات ودقّتها، ومخاطر الخصوصية، والقضايا المتعلقة بالحساسية الثقافية. وعليه، فقد أوصى الباحثون بمراقبة هذه المخاطر المحتملة، على الرغم من أنهم وجدوا أيضاً أن المبادرات التي تُعنى بجودة البيانات والبرامج التي تركّز على العدالة تخفّف من المخاطر المعنية، نظراً لأن هذه البرامج تعالج فجوات المحتوى والتمثيل عبر المجتمعات اللغوية.
في كل مجالٍ من مجالات التركيز هذه، يُشير التقرير إلى أن المؤسسة قد طبّقت بالفعل مع مجتمعات الويكيميديين المتطوعين العديد من الاستراتيجيات والعمليات للتخفيف من المخاطر المحدّدة، مع تقديم توصيات لتدابير التخفيف الإضافية. نظراً لأهمية مشاريع ويكيميديا في نظم المعلومات عبر الإنترنت، من المهم الأخذ بالاعتبار المخاطر الجديدة الناشئة عن التقنيات التي تتطور وتنمو بسرعة مثل الذكاء الاصطناعي وتعلّم الآلة. والأهم من ذلك، النقاشات والاستنتاجات الواردة في هذا التقرير التي تتيح لنا التفكير في مثل هذه المخاطر المحتملة في وقتٍ مبكر والتخطيط لكيفية التخفيف منها استباقياً.
ماذا يعني تقرير تقييم تأثير تقنيات الذكاء الاصطناعي/تعلّم الآلة على حقوق الإنسان في مشاريع ويكيميديا ومجتمعات المتطوعين؟
منذ نشر أول تقييم للأثر على حقوق الإنسان في يوليو 2022، كانت المؤسسة واضحة بكون تنفيذ العديد من توصيات هذه التقارير يتطلب دعم وتعاون مجتمع المتطوعين العالمي. سيستغرق الأمر وقتًا لمناقشة نتائج هذا التقرير وتوصياته مع مجتمع المتطوعين من أجل تحديد أفضل السبل لتنفيذها، ولكننا نؤمن بأن ذلك سيجعل إجراءاتنا أكثر فاعلية.
ننشر هذا التقرير لمساعدة المؤسسة ومجتمعات المتطوعين على استكشاف ومعالجة التأثيرات الاجتماعية العميقة المحتملة لتفاعل تقنيات الذكاء الاصطناعي مع مشاريع ويكيميديا في السنوات القادمة. تناقش المجتمعات حول العالم بالفعل كيفية وضع سياسات واضحة لاستخدام الذكاء الاصطناعي التوليدي ضمن المشاريع، أو ما إذا كانت مثل هذه الاستخدامات موجودة أصلاً. نأمل أن تساعدكم المخاطر والفرص المحددة في هذا التقرير في توجيه نقاشاتكم وقراراتكم لضمان أن تواصل المشاريع مساهمتها الإيجابية في نظام المعلومات العالمي والمجتمع ككل.
كيف يمكن أن تعرف مجتمعات ويكيميديا المزيد وتقديم آرائهم؟
نود سماع آرائكم! ما هي أسئلتكم؟ ما رأيكم في المخاطر والتوصيات التي نوقشت في التقرير؟ ماذا تفعل مجتمعاتكم بالفعل، أو ما الذي تودون القيام به، للاستفادة من الذكاء الاصطناعي والتعلم الآلي بشكل مسؤول في مشاريع ويكيميديا؟
سنوفر فرصًا لسماع آرائكم مباشرة حول نتائج وتوصيات هذا التقرير خلال الأشهر القادمة، بالإضافة لوجهات نظركم حول الفرص والمخاطر المرتبطة بالذكاء الاصطناعي والتعلم الآلي في منظومة ويكيميديا. يمكنكم ترك تعليقاتكم في صفحة نقاش التقرير، أو الانضمام إلينا في إحدى الجلسات التالية:
- 21 نوفمبر (17:00 بتوقيت UTC): ساعة محادثة لمجتمع المناصرة العالمية
- 21 نوفمبر (12:00 بتوقيت UTC): ساعة محادثة لمجتمع المناصرة العالمية
Can you help us translate this article?
In order for this article to reach as many people as possible we would like your help. Can you translate this article to get the message out?
Start translation