Archivo de la categoría: Tecnología

El uso de herramientas informáticas, principalmente de software libre, es esencial para que los proyectos de conocimiento libre puedan ser consultados, mejorados y ampliados por sus lectores y editores —el propio software MediaWiki surgió de la necesidad de dar soporte técnico a Wikipedia— y para que los grupos que los promueven, como Wikimedia España, puedan coordinarse. Así, tenemos las plataformas wiki, las listas de correo, la mensajería instantánea Telegram… que permiten la implicación de los socios en el trabajo cotidiano y en la toma de decisiones.

No obliguen a las plataformas a reemplazar sus comunidades por algoritmos

Glühlampe explodiert
Imagen de Stefan Krause, Germany con licencia FAL, vía Wikimedia Commons
Artículo original de Allison Davenport (Fundación Wikimedia) y Anna Mazgal (Wikimedia Alemania). Traducido por Virginia Díez (Wikimedia España).

Mientras que quienes formulan políticas y leyes sugieren cada vez mayores soluciones tecnológicas para combatir el contenido ilegal y controvertido en línea, desde el movimiento Wikimedia les pedimos que tengan en cuenta los derechos de quienes utilizan Internet y que dejen un margen para la moderación de contenidos realizada por personas.

Más de un año después de plantear este problema por primera vez, una propuesta cuestionable sobre la nueva directiva de derechos de autoría se someterá a votación en el Parlamento Europeo la próxima semana. Incluso en su versión modificada, esta directiva requeriría que los sitios web con grandes cantidades de contenido subido por su comunidad deban implementar filtros obligatorios. Lo que esto significa es que se requerirá a los sitios web que tengan algoritmos para comprobar todas y cada una de las subidas de su comunidad, las comparen con una base de datos de contenido y que bloqueen aquellas detectadas como infractoras del copyright para que no aparezcan en línea.

Nos preocupa mucho el impacto potencial que la propuesta tendría en Wikipedia, donde los litigios sobre contenido se gestionan a través de mecanismos comunitarios. Tales propuestas otorgan demasiada importancia al poder de las tecnologías para la detección automática de contenido (ya sea a través de inteligencia artificial, aprendizaje automático o identificación de archivos basada en hash) sin considerar el impacto en los modelos de moderación de contenido dirigidos por personas.

Además de exigir el filtrado automático de contenido, en el Artículo 13 de la propuesta directiva de derecho de autor, la Comisión Europea también propone una nueva Iniciativa Contra Contenido Ilegal. En el anuncio correspondiente, las “tecnologías automáticas de detección y filtrado” se presentan como un factor importante en la lucha contra el contenido extremista y otros contenidos ilegales en línea. Ambas propuestas demuestran una confianza cada vez mayor en la tecnología para tomar decisiones sobre la legalidad del contenido en línea. A medida que la inteligencia artificial se extiende y el aprendizaje automático o machine learning mejora, parece que estas llamadas a la detección automática de contenido continuarán creciendo en volumen.

La creencia en la inteligencia artificial y la detección automática de contenido obligatoria es insuficiente cuando presenta a la tecnología como la única solución a los problemas y retos a los que se enfrentan las plataformas online hoy en día. No es ni la mejor ni la única forma de lidiar con contenido ilegal, y mucho menos con contenido que controvertido o problemático en otros aspectos.

La Fundación Wikimedia cree que la tecnología, incluida la inteligencia artificial, será una herramienta útil en el futuro de la evaluación del contenido, pero no debe confundirse con una solución integral que solventará todos los problemas. Las personas voluntarias que editan Wikipedia y sus proyectos hermanos actualmente utilizan una herramienta de aprendizaje automático llamada Servicio Objetivo de Evaluación de Revisiones (ORES) para marcar el vandalismo en los proyectos y predecir la calidad de un artículo. Es importante destacar que ORES en sí no toma decisiones finales, sino que proporciona un servicio de ayuda para que personas y robots mejoren Wikipedia y sus proyectos hermanos. Una vez marcado por ORES, la revisión y eliminación del contenido se maneja por completo a través de procesos que ponen el foco en la comunidad. Esta forma de actuar reconoce las limitaciones del aprendizaje automático mientras que aprovecha sus puntos fuertes.

En general, quienes contribuyen de manera voluntaria en los proyectos Wikimedia supervisan las nuevas contribuciones y si estas cumple con las normas de la comunidad, así como con las leyes de derechos de autor y con otras leyes, y resuelven disputas sobre contenido de manera colaborativa. Este sistema es efectivo y los problemas sobre el contenido de los proyectos de Wikimedia muy raramente necesitan la intervención de la Fundación Wikimedia. Del pequeño número de quejas sobre derechos de autor que se envían a la Fundación, sólo un número mínimo es válido. Los procesos comunitarios grandes, colaborativos y distribuidos permiten que los proyectos Wikimedia sean dinámicos y flexibles en el manejo de un flujo constante de ediciones: alrededor de 10 por segundo. Es importante destacar que el sistema de gobernanza de la comunidad proporciona garantías cruciales para la participación, la libertad de expresión y la colaboración. Obviamente, no todas las plataformas que alojan contenido subido por su comunidad son como Wikimedia. Sin embargo, la moderación centrada en las personas permite realizar una toma de decisiones menos arbitraria.

Por el contrario, cualquier tipo de ley que obligue implementar filtros automáticos para examinar todo el contenido subido utilizando inteligencia artificial o tecnologías relacionadas no deja espacio para los modelos basados en procesos comunitarios que han sido tan efectivos en los proyectos Wikimedia. Como ya se ha mencionado, los filtros de carga tal y como existen hoy en día ven el contenido a través de una lente muy amplia, que puede pasar por alto muchos de los matices cruciales para la revisión de contenido y las evaluaciones de legalidad o veracidad del mismo. Incluso cuando se realizan mejoras en estas tecnologías (como el sistema Content ID de YouTube para identificar obras protegidas por derechos de autor y la API Cloud Vision de Google que detecta contenido “inapropiado”) estas cuestan una cantidad significativa de dinero y, a menudo, dan falsos positivos al no tener en cuenta el contexto o matices en la ley como el uso legítimo o las excepciones de los derechos de autor. Si bien se pueden hacer mejoras para solucionar estos problemas, también cabe destacar la necesidad de precaución cuando las tecnologías de detección automática se intentan aplicar como una solución general para contenido incluso más complicado o controvertido, como el relacionado con terrorismo o la desinformación.

A medida que continuamos explorando nuevas formas de utilizar la tecnología de aprendizaje automático para mejorar los proyectos de Wikimedia, la Fundación Wikimedia reconoce que este crecimiento debe dejar espacio para la participación de todas las personas en Internet y respetar los derechos humanos. Por lo tanto, firmamos la Declaración de Toronto sobre machine learning, que utiliza el marco de las normas internacionales de derechos humanos como guía para el desarrollo de esta tecnología en el futuro. A medida que el movimiento de Wikimedia mira hacia 2030, lo hace sabiendo que el progreso debe ser evaluable, inclusivo y proteger la libertad de expresión. Instamos a los responsables de las políticas de la UE a que respeten estos valores y los derechos humanos al considerar la propuesta de una directiva de derecho de autor para el mercado único digital.

 

 

Wikidata: cómo hacemos Wikipedia un poco más inteligente

Durante la última Wikimanía tuvo lugar una serie de presentaciones acerca de diversos avances en los diferentes ámbitos del movimiento Wikimedia: métricas, colaboración y proyectos que permiten comprender y mejorar las relaciones entre los editores. Muchos de estos avances se han centrado en cómo los lectores -los usuarios que no editan- consumen la Wikipedia en el día a día, y se ha determinado que uno de los mejores avances ha sido la creación de Wikidata, un repositorio de datos abiertos.

Hace más de dos años, Wikimedia Deutschland (Wikimedia Alemania), comenzó a desarrollar una idea que permite unificar la información (metadatos esencialmente) de todas las Wikipedias en una sola base de datos central: fue bautizado como Wikidata. Los avances que ha tenido en los últimos años han sido sorprendentes, hasta el punto que Freebase, el proyecto libre de Google, decidió cerrar sus puertas para pasar el testimonio a Wikidata.

Actualmente Wikidata ya ha alcanzado un nivel bastante avanzado de desarrollo, donde los millones de objetos creados ya dan cuenta de que hemos podido migrar la información a este proyecto, y que Wikipedia ya ha comenzado a utilizarlos en forma positiva.

En Wikipedia

Un ejemplo del uso en Wikipedia se puede ver en la plantilla ficha de persona. Esta plantilla se encarga de crear la caja lateral con información breve de la persona biografiada. Tras varios meses de esfuerzo, ya se han comenzado a usar datos desde Wikidata permitiendo ahorrar tiempo y el esfuerzo de completar los parámetros, para así mantener unificada la información básica del biografiado en todas las versiones de Wikipedia.

image001

En este ejemplo se delega el control de la información que contiene la ficha lateral a Wikidata, ya que una vez que existe en el repositorio, basta con usarla en la ficha sin la necesidad que deba ser ingresada nuevamente en cada proyecto local.

SPARQL: obtener listados

Como este proyecto tiene su génesis en la web semántica, también posee un endpoint (Wikidata Query Service) donde los usuarios más experimentados pueden extraer información o combinar con otros endpoints para obtener mayor valor con los intercambios de información.

El servicio de consultas, que es compatible con SPARQL 1.1, permite extraer básicamente listados de información para trabajarlos localmente, o simplemente para responder a dudas e inquietudes acerca de determinados cruces de datos que sería imposible realizar normalmente en Wikipedia.

Un ejemplo de esto último: he trabajado en los últimos meses en la vinculación de los ganadores del premio de literatura infantil y juvenil de España con los escritores ganadores en Wikidata. Como una curiosidad general, decidí obtener el listado de ganadores y la edad que tenía la persona al obtener el premio (aquí está la consulta) -el más joven en recibirlo fue Fernando Martínez Gil, mientras la persona de mayor edad fue Carmen Conde-. Este listado, sin la existencia de estos datos en Wikidata, es un trabajo que exige mucho tiempo, debido a que requiere consultar a todos los galardonados y calcular cuántos años tenían al momento de ganar el premio.

Aplicación móvil

Esta forma de construir de Wikidata ha permitido que, a partir de la aplicación móvil de Wikipedia, se tenga un pequeño extracto antes de consultar el dato, una fotografía en la cabecera y que los artículos relacionados sean más inteligentes. Por ejemplo, al buscar un texto en la aplicación de Wikipedia, este es un ejemplo de los posibles resultados:

image003

Donde en rojo es una imagen descriptiva, en este caso los logotipos, y en verde es una breve descripción del elemento: ambos metadatos provienen de Wikidata. Al acceder a un elemento, en este caso, Rede Globo, la imagen de logotipo ocupa la cabecera y el texto descriptivo ocupa la parte inferior de dicha imagen:

image005

La ventaja de este tipo de uso es que si se intenta consultar por este artículo en otro idioma -y si existe-, siempre se verá el logo y la descripción que provienen desde Wikidata.

Por tanto, el uso de Wikidata como repositorio central ha contribuido a mejorar Wikipedia y disponer de más y mejores herramientas para descubrir la información que contienen los artículos, generar la información de resumen de cada artículo, y poder darle más  inteligencia para que todos podamos encontrar nuevos conocimientos a partir de estos datos.

Dennis Tobar.
Socio de Wikimedia España.

Iniciación a los wikis en los institutos de Teruel

En el IES Vega del Turia.

En el IES Vega del Turia.

El final del año 2015 y el comienzo del 2016 han sido claves para la difusión de los wikis y de Wikipedia en los centros de enseñanzas medias turolenses. En colaboración con Wikimedia España, y con motivo de la celebración de la V edición del Girl’s Day, la profesora Piedad Garrido, socia de Wikimedia España, coordinadora del Girl’s Day en Teruel, vocal de la Junta Directiva de AMIT-Aragón (Asociación de Mujeres Investigadoras y Tecnólogas), y miembro del grupo de investigación turolense INIT (Intelligent Networks and Information Technologies), llevó a cabo unos talleres de iniciación a los wikis en diversos centros educativos de Teruel y de Albarracín.

Participantes del IES Segundo de Chomón.

Participantes del IES Segundo de Chomón.

Los institutos que participaron en la actividad fueron:

En cada instituto se impartió una sesión presencial de 50 minutos, en la cual tanto el alumnado como el profesorado tuvieron su primera toma de contacto con este entorno de trabajo colaborativo. En los diferentes centros participaron más de 70 estudiantes. Además, se les animó a participar en el segundo certamen de WikinformáticA, concurso en el que colabora Wikimedia España por segundo año consecutivo. En él, equipos de estudiantes de ESO o de ciclos formativos, liderados por un tutor, deberán adivinar quiénes son las investigadoras y tecnólogas que aparecen en las fotografías proporcionadas por la organización, y elaborar sus biografías en formato wiki, con las que luego podrán enriquecer Wikipedia.

Piedad Garrido
Socia de Wikimedia España