بصفتنا باحثين في مؤسسة ويكيميديا، يتمثل جزء من عملنا في تطوير وتطبيق تقنيات التعلم الآلي وذلك لمساعدة محرري ويكيبيديا في مهامهم. ويأتي ذلك ضمن سياسات نزاهة المعرفة والتي تعتبر من أحد محاور تركيزنا في مساعدة مستخدمي ويكيبيديا على اكتشاف انتهاكات سياسات المحتوى الأساسية. وبينما تستثمر الشركات الربحية موارد كبيرة في تطوير أنظمة الذكاء الاصطناعي لمنع انتشار المعلومات المضللة على منصاتها، وبينما يعمل الباحثون الأكاديميون أيضًا في هذا الاتجاه، فإن حالة ويكيبيديا فريدة بشكل خاص. في هذا المنشور، أود أن أشرح القيود المفروضة على استخدام الذكاء الاصطناعي لتحسين تكامل المعرفة في ويكيبيديا، ولماذا لا يمكننا تطبيق التقنيات والأساليب المطورة لمنصات التواصل الاجتماعي بشكل مباشر، وكيف نتعامل مع هذه المشاكل
لنبدأ في الإشارة إلى بعض الاختلافات الرئيسية: في حين أن معظم الديناميكيات في وسائل التواصل الاجتماعي تدور حول مشاركة الآراء واكتساب الشهرة، فإن ويكيبيديا تدور حول المشاركة ونشر المعرفة. ويمثل هدف وعملية ويكيبيديا الفريدين كلاهما تحديين لتطبيق تقنيات التعلم الآلي والذكاء الاصطناعي التي تستخدمها منصات وسائل التواصل الاجتماعي الكبيرة لتحديد المعلومات المضللة وفرص الأساليب الجديدة التي تركز على الإنسان بشكل أكبر.
لنبدأ بمقارنة هذين النموذجين المختلفين. بدايةً، يعكس نشاطك على الشبكة الاجتماعية أفكارك واهتماماتك، ومن ناحية أخرى، يتم إنشاء مقالة ويكيبيديا بشكل جماعي، أو بعبارة أخرى، تعتبر أمرا مشتركا، دون مالك واحد. ثانيا، دورة الحياة على محتوى الشبكات الاجتماعية قصيرة جدا، لكن بالنسبة إلى ويكيبيديا، فهي تدور حول المعرفة الدائمة. وأخيرا وليس آخراً، في الشبكات الاجتماعية، يمكنك أن تفعل- تقريبا- كل ما تريده مع احترام مجموعة عامة جدا من “الشروط والأحكام” التي صممها مالكو المنصة، بينما توجد في ويكيبيديا إجراءات وسياسات لكتابة المقالات، تم إنشاؤها بواسطة المجتمع، بما في ذلك النقاط الرئيسية مثل الحفاظ على وجهة نظر محايدة واستخدام مصادر موثوقة ويمكن التحقق منها
على الرغم من أن شعبية الشبكات الاجتماعية بدأت منذ أكثر من عقد من الزمان، إلا أن المخاوف بشأن مصداقية محتواها أصبحت أكثر حداثة. حيثُ أدت الفضائح في استخدام الشبكات الاجتماعية خلال انتخابات البريكسيت والولايات المتحدة الأمريكية في عام 2016 إلى وضع الشبكات الاجتماعية تحت المراقبة. شوهدت حالات مهمة أخرى – كانت تغطيتها أقل من قبل وسائل الإعلام العالمية، وهذه الحالات ظهرت أثناء الانتخابات في البرازيل والهند. ومع ذلك، ترتبط مشاكل الشبكات الاجتماعية الأكثر شيوعًا بنموذج أعمالهم: فهم بحاجة إلى السماح للناس بقول ما يريدون، وربما الجزء الأكثر أهمية هو لإظهار محتوى للناس وبالتالي يزيد من مشاركتهم ونشاطهم في مواقع التواصل الاجتماعي، وعادةً ما تعمل مواقع التواصل الاجتماعي على تعزيز معتقدات الناس وذلك بهدف كسب الجدارة والثقة في المحتوى. ونظرًا للكم الهائل من المحتوى الذي يحتاجون إليه، فإن شركات التكنولوجيا الكبرى تبذل الكثير من الجهد والأمل في تطوير أدوات تعتمد على التعلم الآلي (المعروف أيضًا باسم الذكاء الاصطناعي) للمساعدة – وتولي زمام المبادرة – في اكتشاف وإزالة هذا المحتوى المتطرف
على العكس من ذلك، كرست ويكيبيديا ما يزيد عن 20 عامًا من وجودها لمشاركة المعرفة، وتحاول باستمرار إنشاء محتوى جدير بالثقة. يمكن أن تحدث المعلومات المضللة في ويكيبيديا عندما لا تفي التعديلات بسياسات المحتوى. يمكن أن يكون هذا عن قصد بنية الخداع (معلومات مضللة) أو قد يكون عرضيًا (معلومات مضللة). مهما كان الدافع، فإن المجتمع ينظم نفسه. وعندما يكتشف محرر محتوى غير موثوق به، فأنه يقوم بإصلاحه باتباع عملية التحسين المستمر. وعندما يشك المجتمع في أن فردًا أو مجموعة من أعضائه يضيفون محتوى سيئًا أو مضللًا عن قصد، فإنهم يبدأون عملية تداول يمكن أن تنتهي بحظر هذا العضو أو المجموعة. على الرغم من أنه يمكن العثور على محتوى قليل االجودة على ويكيبيديا، إلا أن غالبية محرري ويكيبيديا يحاولون اتباع سياسات المحتوى، ويحاولون أيضًا اكتشاف انتهاكات سياسات المحتوى. في حين أن هناك مجموعة من الأدوات المستندة إلى الذكاء الاصطناعي لدعم هذه العمليات، ولكن يتم تنفيذ الجزء الأكبر من العمل يدويًا.
وتختلف عمليات تعديل المحتوى وتحسينه اختلافًا كبيرًا عبر الأنظمة الأساسية. لمنع المعلومات المضللة، يأتي الإشراف على المحتوى في وسائل التواصل الاجتماعي من سلطة مركزية: الشركة التي تقف وراء كل منصة. أيضًا لإجراء الإشراف على المحتوى على نطاق واسع، تقوم شركات التكنولوجيا الكبرى بتوظيف موظفين وإنشاء أنظمة ذكاء اصطناعي. تحتاج أنظمة الذكاء الاصطناعي إلى “حقيقة أساسية”، أي مصدرًا فريدًا للحقيقة. على العكس من ذلك، لا يمكن أن تمتلك ويكيبيديا حسب التصميم حقيقة أساسية فريدة من نوعها، لأن هدفها هو أن تكون مجموع كل المعرفة البشرية، لذلك لا توجد نقطة مرجعية واحدة، علاوة على ذلك، في ويكيبيديا جميع وجهات النظر المهمة بشرط أن تكون مدعومة بمصادر. لا يتعلق “الاعتدال” في ويكيبيديا بالحقيقة، بل يتعلق بإمكانية التحقق من المحتوى من خلال مصادر موثوقة. ولا تأتي القواعد من سلطة مركزية فريدة، بل يتم تصميمها ومراجعتها وتطبيقها من قبل مجتمع من المحررين، من خلال عملية تداول راسخة
كل هذه الاختلافات الأساسية في عمليات إنشاء المحتوى لها تأثير مباشر على تصميم الأدوات التي تدعم الذكاء الاصطناعي. بالنسبة للشبكات الاجتماعية، تتمثل مهمة الذكاء الاصطناعي النموذجية في الإشراف على المحتوى في النظر إلى المحتوى الذي ينتشر بسرعة، والتحقق مما إذا كان هذا الجزء من المحتوى مدعومًا بـ “الحقيقة الأساسية”، والتي تكون في كثير من الحالات مقالة على ويكيبيديا. تُعرف عملية التناقض بين الادعاء بمستند موثوق به باسم “استدلال اللغة الطبيعية ”، وكما ذكرنا سابقًا فأنها تتطلب حقيقة أساسية
لكن في حالة ويكيبيديا، فإن التحديات التي تواجه الذكاء الاصطناعي مختلفة. فهي بدون حقيقة أساسية واحدة، ويجب التحقق من المعلومات الواردة في مقالات ويكيبيديا مقابل مصادر متعددة. لكن مجرد تطبيق خوارزميات الاستدلال اللغوي الطبيعي على مقالات ويكيبيديا لا يكفي. على سبيل المثال، تحديد ما هو مصدر موثوق هو تحد إضافي. وتتجاوز المشاكل التحقق من الحقائق: تحتاج ويكيبيديا إلى خوارزميات من شأنها أن تساعد في إنشاء محتوى مكتوب بوجهة نظر محايدة، دون تحيز ثقافي. من منظور الذكاء الاصطناعي، لدينا مجموعة من المشكلات العديدة التي تتضمن الاستدلال اللغوي الطبيعي المذكور أعلاه، وأيضًا مشاكل فهم اللغة الطبيعية المعقدة الأخرى، ومهام استرجاع المعلومات. وربما الجزء الأكثر أهمية، نحن في ويكيبيديا نعمل على إتباع نهج الذكاء الاصطناعي المرتكز على الإنسان، وإنشاء خوارزميات قابلة للتفسير وقادرة على التمكين – ولا تحاول أبدًا استبدال محرري مجتمعنا بذكاء اصطناعي آلي، ولكن مع الحفاظ على احترام السياق الثقافي والخلفية الثقافية المختلفة
باختصار، تتطلب تحديات مكافحة المعلومات المضللة على ويكيبيديا جهودًا مخصصة تتجاوز معالجة مشكلة “التحقق من الحقائق” التقليدية. وذلك بشكل مختلف عن الشبكات الاجتماعية حيث من المتوقع أن تقوم الخوارزميات بالعمل الذي لا يقوم به أي شخص آخر، ونحتاج في ويكيبيديا إلى خوارزميات قادرة على مساعدة سير عمل المحرر الحالي، مما يعني أن خط الأساس لدينا يمثل تحديًا أكبر بكثير. من المتوقع أن تتفاعل خوارزمياتنا مع المحررين ذوي الخبرة، وهم بحاجة إلى فهم التوصيات التي يتلقونها. إن توليد هذا التآزر بين الخوارزميات والمحررين، لإنشاء ويكيبيديا غير متحيزة وعالية الجودة وشاملة، هو هدفنا الرئيسي
Can you help us translate this article?
In order for this article to reach as many people as possible we would like your help. Can you translate this article to get the message out?
Start translation