Lectura artificial para una enciclopedia escrita por máquinas: reflexiones sobre una Wikipedia hecha a mano ante el vértigo generativo

Translate this post
Sculpture of a giant hand in the Muzeon Park of Arts, Moscow. Black and white photography.
Wikimedia Commons, By Mikhail Kryshen, 2013

En la pasada edición de Wikimania en Katowice, el wikilari Galder González, en su presentación titulada “Abstract Wikipedia and the dream of a Universal Language“, señalaba algunas cosas que a menudo pasan desapercibidas sobre la colaboración hombre-máquina en la producción y organización de conocimiento. Inspirados por su magnetismo empezamos a darle forma a estas reflexiones. Posteriormente, las hemos ido sintetizando en conversaciones y lecturas, tratando de conectarlas también con los diálogos y talleres preocupados por el papel de la inteligencia artificial generativa en el ecosistema Wikimedia.

El producto y no el proceso

Al igual que la electricidad o el agua corriente, la existencia de Wikipedia se nos presenta como un objeto acabado y disponible a voluntad, un suministro de un cierto tipo de conocimiento ordenado, cauteloso y prolijo, accesible en línea sin sobresaltos y en cualquier idioma. El éxito del resultado – la enciclopedia, el producto – nos hace pasar por alto el proceso: la comunidad y su trabajo voluntario. La Comunidad wikimedista no es, desde luego, ajena a la onda expansiva de la inteligencia artificial generativa sobre cualquier área de procesamiento y transformación de información textual. Asistimos a varios foros que iban más allá de la capacidad de las aplicaciones basadas en grandes modelos de lenguaje (LLM) para producir resultados convincentes escribiendo o mejorando artículos. Estos debates buscaban comprender a tiempo los impactos en un ecosistema delicado y único como el de las enciclopedias colaborativas libres. La mera existencia de tantas Wikipedias solventes en cada idioma ya debería parecernos un accidente inexplicable. Sus fundamentos – la confianza radical y la colaboración a gran escala descentralizada– en otros proyectos degeneran en pseudositios zombies y vocingleros, mientras que en Wikipedia producen una elegante y monumental obra artesana llena de sentido y utilidad, que no deja de retocarse y ganar peso.

Lectores máquina

Es bien conocido el interés de las corporaciones digitales por extraer conocimiento de las Wikipedias, y de su reverso estructurado, la base de datos abierta Wikidata. Los buscadores y algoritmos las usan para identificar conceptos, entidades, personas y mejorar su relación con el mundo real, y los GPT del mundo han leído y desmenuzado su contenido para aprender a hablar y explicarnos cosas. Hasta ahora las máquinas lectoras de Wikipedia cumplían un papel de mediación y búsqueda, donde ya el efecto zero-click afectaba a la economía basada en buscadores. En estos tiempos, hasta el Grafo de Conocimiento de Google nos parece una travesura inocua, porque en una acrobacia relámpago, estos recolectores automatizados de datos, textos o información, también pueden ponerse a continuar escribiendo la enciclopedia.

Nuestra experiencia con ChatGPT es apenas la punta del iceberg – una conversación explorativa y manual – frente a lo que puede hacer un pipeline – un programa estructurado en etapas cada vez más depuradas con una sofisticada red de entradas y salidas – en el que varios agentes artificiales acuerdan entre sí un esquema para un artículo, localizan fuentes y producen una entrada paso a paso, como hace el reciente prototipo STORM, resultado de investigaciones apoyadas por la Wikimedia Foundation y con resultados que podemos calificar de apabullantes. Otra línea en desarrollo, como Abstract Wikipedia, pareciera que tienen un camino más pantanoso porque su propósito es producir un modelo de lenguaje universal (que impulse la producción de contenido a partir de datos factuales y aplicarse a lenguajes minoritarios y a equilibrios entre conocimiento producido en diferentes idiomas).

Lectores y lectoras naturales para una enciclopedia lenta

Las tecnologías del lenguaje ya pueden producir resultados funcionales, especialmente cuando se usan en cadenas de producción sofisticadas. Pero ¿podemos hablar de resultados satisfactorios? Más allá del concepto de “habilidades sin comprensión”, acuñado por Daniel Dennett y puesto de relieve por el investigador en inteligencia artificial Ramón López de Mántaras en sus reflexiones sobre sentido común e inteligencia general, la cuestión que nos incomoda es si de verdad nos interesa una enciclopedia que se produce sola, y que por lo tanto deja de funcionar como comunidad editora que lee y duda, filtra y busca fuentes motivada por el afán de construir un mapa compacto del conocimiento. La enciclopedia automática es factible, pero seguramente también nos conduzca a un escenario de lectura artificial, en el que máquinas generativas recopilan información para producir artículos de enciclopedia que leerán otras máquinas para aprender a producir textos con sentido aparente.

¿De verdad nos interesa delegar la producción de las Wikipedias en los generadores de texto artificial? La tentación de productividad es innegable, todos queremos “más, ahora mismo y mejor. Pero olvidaríamos que es precisamente el deseo de escribir y revisar la enciclopedia lo que motiva a miles de colaboradores/as a leer, aprender y contrastar informaciones. La energía consumida en hacer “a mano y sin permiso” una infraestructura de contenido organizado y fiable – Wikipedia – tiene como resultado tangible un dique de contención frente a la marea de contenido insustancial, tendencioso, efímero y desarticulado.

Periódicamente se alerta sobre la dificultad de la captación de nuevos editores y editoras, y de mantener la motivación de quienes ya editamos. Ahora diversas voces alertan sobre cierto cambio en nuestra autopercepción como wikipedistas. Alek Tarkowski, director de estrategia en la Open Future Foundation, apuntaba en el panel de Wikimania titulado “Wikimedia & GenAI: A 360 movement panel one year later” del giro paulatino de estos sentimientos de estar meramente “alimentando un dataset” y no participando en la aventura colectiva del conocimiento. Wikipedia sirve como excusa para seguir buscando y leyendo fuentes de información fiables, y para movilizar nuestra competencia para construir sentido y dibujar el mundo a nuestra medida. Internet es un organismo enorme, Wikipedia apenas un esqueleto que ayuda darle forma y un puerto seguro para humanos que leen y escriben. Lectoras y lectores naturales, escribiendo y conversando a un ritmo lento, inteligencias naturales que se relacionan con la información y con el entorno con sentido de responsabilidad.

¿Sueña Wikipedia con lectores eléctricos? Los Wikipedistas a veces sueñan con enciclopedias eléctricas, pero, ya despiertos encuentran que hacer un pedacito de su Wikipedia da sentido a leer y seguir leyendo, y contagiar esos conocimientos adquiridos con esfuerzo y gusto. No necesitamos la mejor enciclopedia automática, queremos simplemente hacerla bien y disfrutar por el camino.

Wikimedia & GenAI: A 360 movement panel one year later. By Niccolò Caranti. CC BY-SA 4.0, at Wikimedia Commons

Can you help us translate this article?

In order for this article to reach as many people as possible we would like your help. Can you translate this article to get the message out?