
在維基媒體基金會,我們相信獲取知識是一項人權。我們的使命是確保每個人,無論身在何處,均能在維基百科和其他維基媒體計畫上自由公開地獲取和分享可靠的資訊。在言論自由這項基本權利的支持下,獲取自由開放的知識,可以讓人們更有能力去進一步行使《世界人權宣言》中所載明的種種權利──包括接受教育、藝術表達、經濟發展和政治參與的權利。今天,我們將分享一份於2024年開展有關於人工智慧 (AI) 和機器學習 (ML) 的人權影響評估 (HRIA),旨在幫助維基媒體基金會和維基媒體志願者社群更好地理解這些技術如何影響我們生態系統中行使人權。
維基媒體專案與來自世界各地的維基志願者在當今的網路資訊生態之中的確有其獨到之處;然而,這個生態系統正在快速地演進之中。近年來,大型語言模型(LLM)和生成式人工智慧等新興技術的蓬勃發展,為資訊的創建、獲取和傳播帶來了機會和挑戰。生成式人工智慧正在從根本上改變公眾在線上搜尋、接收和傳遞訊息和思想的方式,這同時引發了關於我叫他們基金會和維基媒體志願者社群在這個生態系統中的角色和責任的新問題。
人工智慧和機器學習對於維基媒體計畫和促成這些專案的維基媒體志願者來說都並非新鮮事。早在 2010 年,維基媒體基金會和志願者社群就開發了大量機器學習工具,以支持志願者貢獻、編輯和整理專案中不斷增長的知識。其中一些工具利用機器學習和人工智慧來協助志願者完成一些常見的重複性任務,例如識別破壞行為或在需要引用時進行標記。目前使用的大多數工具都是在生成式人工智慧出現之前開發的。在這些新興科技的時代,維基媒體志願者面臨新的問題:
- 人工智慧在維基百科專案的知識分享中應該扮演什麼角色?
- 鑑於生成式人工智慧在網路上的廣泛應用,我們如何保護和加強維基百科專案知識共享的準確性和完整性?
- 機器學習和人工智慧工具如何幫助強化而不是取代人類最擅長的領域:創造、培育和分享自由知識?
- 如何利用大型語言模型和人工智慧工具將內容翻譯成新的語言,同時保持其可靠性、文化差異和脈絡?
- 志願者社群的政策應該如何演變,以適應這些新技術的使用?
關於本次為人工智慧與機器學習所展開的人權影響評估(HRIA)
這份人權影響評估報告是維基媒體基金會持續努力履行承諾的最新成果,我們致力於保護和維護所有與維基媒體專案互動的人員的人權。維基媒體基金會委託進行該報告識別和分析維基媒體生態系統中使用人工智慧和機器學習技術所帶來的影響、機會和風險。該報告由Taraaz Research撰寫和彙編——這是一家致力於技術與人權交叉領域的專業研究和倡導組織。在編寫報告的過程中,Taraaz諮詢了維基媒體基金會工作人員、個人志願者、志願者自治體、民間社會組織和外部主題專家,但該報告並不代表任何這些群體的觀點或共識。相反,該報告根據研究進行期間(2023年10月至2024年8月)維基媒體賺啊和技術的狀況,提出了進一步調查、政策和技術投資的建議。此外,報告中的研究結果同時代表了潛在的風險和機會領域。該報告並未指出在維基媒體專案中使用機器學習或人工智慧技術所帶來的任何實際觀察到的風險、危害、機會或益處。
這份報告的調查結果是什麼?
本報告考慮了維基媒體專案中與人工智慧/機器學習相關的三類問題所帶來的風險:維基媒體基金會員工內部開發的用於支援志願編輯工作的工具;生成式人工智慧 (GenAI) 及其在維基媒體環境中可能帶來的邊際人權風險;以及維基媒體轉哪中可能用於外部機器學習 (ML) 開發的內容。
值得注意的是,本報告的調查結果反映了未來可能發生的潛在危害。報告並未發現任何此類危害。相反,這解釋了如果在維基媒體專案中以某種方式大規模使用或利用人工智慧而沒有採取適當的緩解措施,則可能會發生這些危害。
報告發現,維基媒體基金會為支持志願編輯者而開發的人工智慧/機器學習工具有可能對多項人權做出積極貢獻,例如言論自由和教育權等等。儘管如此,由於人工智慧/機器學習工具的已知局限性,某些風險仍然存在:例如,知識表達中現有的差距和偏見可能會延續或擴大,或錯誤地標記或刪除內容。如果這些風險大規模出現,可能會對維基媒體志願者的人權產生負面影響。
此外,該報告從宏觀角度探討了外部生成式人工智慧 (GenAI) 工具可能為維基媒體專案帶來的新風險。研究人員發現,生成式人工智慧可能會增加惡意內容生成的規模、速度和複雜性,包括用於散播虛假宣傳活動,以及攻擊維基媒體個人志願者或其社群。這些工具可以自動同時生成不同語言的誤導性內容,使其檢測和審核更具挑戰性,並可能產生大量針對特定個人或群體的個性化辱罵內容。若未妥善緩解,此類風險(及其他已識別風險)恐將損害維基媒體志願者的人權,甚至波及廣大公眾。
最後,該報告探討了維基媒體專案內容用於大型語言模型 (LLM) 訓練中的下游風險。雖然維基媒體基金會無法控制公眾如何自由和公開地使用維基媒體專案中的授權內容,但我們有責任防範下游影響可能引發的人權風險。研究人員指出,部分以維基媒體內容訓練大型語言模型的輸出可能存在偏見和代表性、數據品質與準確性、隱私風險以及與文化敏感度相關的問題。因此,他們建議對這些潛在風險進行監控。該報告同時發現現行數據品質計劃與公平性專項計劃已有效緩解相關風險——這些計畫正致力填補不同語言社群間的內容與代表性落差。
該報告指出,在每個重點領域中,維基媒體基金會與維基媒體志願者社群已實施多項策略與流程以緩解已識別的風險,同時針對額外緩解措施提出建議。鑑於維基媒體專案在線上資訊生態系統中的重要地位,我們必須審慎評估人工智慧與機器學習等快速發展的技術所衍生的新興風險。值得注意的是,本報告的討論與結論使我們得以及早審視此類潛在危害,並規劃如何主動採取最佳緩解方案。
對於維基媒體專案和志願者社群來說,這份人權影響評估報告意味著什麼?
自2022年7月發佈首份人權影響評估報告以來,維基媒體基金會始終明確,實施報告中的許多建議需要全球志願者社群的支持與合作。我們需要時間與志願者社群討論這份人權影響評估報告的結論和建議,以確定如何以最佳方式共同實施這些建議——這最終會讓我們在採取相關行動時更有效率。
我們發佈這份人權影響評估報告,旨在幫助維基媒體基金會和志願者社群探索並應對未來幾年人工智慧技術與維基媒體專案互動可能帶來的深遠社會影響。世界各地的維基媒體社群正在努力做出重要決策,探討如何制定明確的政策,以妥善運用生成式人工智慧,或是否有此類應用。我們希望,本報告中指出的風險和機會將有助於指導社群的討論和決策,確保這些專案能夠繼續為線上資訊生態系統和全球社會做出積極貢獻。
維基媒體成員如何了解更多資訊並提供回饋?
我們非常期待能聽到大家的回饋!您有什麼疑問嗎?您對該報告中討論的風險和建議有何看法?各位已經在個別社群中採取了哪些措施──或者希望採取哪些措施──來確保大家能以負責任的態度來利用人工智慧和機器學習在維基媒體計畫中的優勢?
在接下來的幾個月裡,我們將創造機會,直接聽取您的社群和您對本報告的調查結果和建議的看法,以及您對維基媒體生態系統中人工智慧和機器學習相關的機會和風險的看法。現在您可以在人權影響評估報告的討論頁面上留下您的想法和評論,或加入我們關於此主題的以下對話之一:
Can you help us translate this article?
In order for this article to reach as many people as possible we would like your help. Can you translate this article to get the message out?
Start translation