Archivo de la etiqueta: filtrado de contenidos

No obliguen a las plataformas a reemplazar sus comunidades por algoritmos

Glühlampe explodiert
Imagen de Stefan Krause, Germany con licencia FAL, vía Wikimedia Commons
Artículo original de Allison Davenport (Fundación Wikimedia) y Anna Mazgal (Wikimedia Alemania). Traducido por Virginia Díez (Wikimedia España).

Mientras que quienes formulan políticas y leyes sugieren cada vez mayores soluciones tecnológicas para combatir el contenido ilegal y controvertido en línea, desde el movimiento Wikimedia les pedimos que tengan en cuenta los derechos de quienes utilizan Internet y que dejen un margen para la moderación de contenidos realizada por personas.

Más de un año después de plantear este problema por primera vez, una propuesta cuestionable sobre la nueva directiva de derechos de autoría se someterá a votación en el Parlamento Europeo la próxima semana. Incluso en su versión modificada, esta directiva requeriría que los sitios web con grandes cantidades de contenido subido por su comunidad deban implementar filtros obligatorios. Lo que esto significa es que se requerirá a los sitios web que tengan algoritmos para comprobar todas y cada una de las subidas de su comunidad, las comparen con una base de datos de contenido y que bloqueen aquellas detectadas como infractoras del copyright para que no aparezcan en línea.

Nos preocupa mucho el impacto potencial que la propuesta tendría en Wikipedia, donde los litigios sobre contenido se gestionan a través de mecanismos comunitarios. Tales propuestas otorgan demasiada importancia al poder de las tecnologías para la detección automática de contenido (ya sea a través de inteligencia artificial, aprendizaje automático o identificación de archivos basada en hash) sin considerar el impacto en los modelos de moderación de contenido dirigidos por personas.

Además de exigir el filtrado automático de contenido, en el Artículo 13 de la propuesta directiva de derecho de autor, la Comisión Europea también propone una nueva Iniciativa Contra Contenido Ilegal. En el anuncio correspondiente, las “tecnologías automáticas de detección y filtrado” se presentan como un factor importante en la lucha contra el contenido extremista y otros contenidos ilegales en línea. Ambas propuestas demuestran una confianza cada vez mayor en la tecnología para tomar decisiones sobre la legalidad del contenido en línea. A medida que la inteligencia artificial se extiende y el aprendizaje automático o machine learning mejora, parece que estas llamadas a la detección automática de contenido continuarán creciendo en volumen.

La creencia en la inteligencia artificial y la detección automática de contenido obligatoria es insuficiente cuando presenta a la tecnología como la única solución a los problemas y retos a los que se enfrentan las plataformas online hoy en día. No es ni la mejor ni la única forma de lidiar con contenido ilegal, y mucho menos con contenido que controvertido o problemático en otros aspectos.

La Fundación Wikimedia cree que la tecnología, incluida la inteligencia artificial, será una herramienta útil en el futuro de la evaluación del contenido, pero no debe confundirse con una solución integral que solventará todos los problemas. Las personas voluntarias que editan Wikipedia y sus proyectos hermanos actualmente utilizan una herramienta de aprendizaje automático llamada Servicio Objetivo de Evaluación de Revisiones (ORES) para marcar el vandalismo en los proyectos y predecir la calidad de un artículo. Es importante destacar que ORES en sí no toma decisiones finales, sino que proporciona un servicio de ayuda para que personas y robots mejoren Wikipedia y sus proyectos hermanos. Una vez marcado por ORES, la revisión y eliminación del contenido se maneja por completo a través de procesos que ponen el foco en la comunidad. Esta forma de actuar reconoce las limitaciones del aprendizaje automático mientras que aprovecha sus puntos fuertes.

En general, quienes contribuyen de manera voluntaria en los proyectos Wikimedia supervisan las nuevas contribuciones y si estas cumple con las normas de la comunidad, así como con las leyes de derechos de autor y con otras leyes, y resuelven disputas sobre contenido de manera colaborativa. Este sistema es efectivo y los problemas sobre el contenido de los proyectos de Wikimedia muy raramente necesitan la intervención de la Fundación Wikimedia. Del pequeño número de quejas sobre derechos de autor que se envían a la Fundación, sólo un número mínimo es válido. Los procesos comunitarios grandes, colaborativos y distribuidos permiten que los proyectos Wikimedia sean dinámicos y flexibles en el manejo de un flujo constante de ediciones: alrededor de 10 por segundo. Es importante destacar que el sistema de gobernanza de la comunidad proporciona garantías cruciales para la participación, la libertad de expresión y la colaboración. Obviamente, no todas las plataformas que alojan contenido subido por su comunidad son como Wikimedia. Sin embargo, la moderación centrada en las personas permite realizar una toma de decisiones menos arbitraria.

Por el contrario, cualquier tipo de ley que obligue implementar filtros automáticos para examinar todo el contenido subido utilizando inteligencia artificial o tecnologías relacionadas no deja espacio para los modelos basados en procesos comunitarios que han sido tan efectivos en los proyectos Wikimedia. Como ya se ha mencionado, los filtros de carga tal y como existen hoy en día ven el contenido a través de una lente muy amplia, que puede pasar por alto muchos de los matices cruciales para la revisión de contenido y las evaluaciones de legalidad o veracidad del mismo. Incluso cuando se realizan mejoras en estas tecnologías (como el sistema Content ID de YouTube para identificar obras protegidas por derechos de autor y la API Cloud Vision de Google que detecta contenido “inapropiado”) estas cuestan una cantidad significativa de dinero y, a menudo, dan falsos positivos al no tener en cuenta el contexto o matices en la ley como el uso legítimo o las excepciones de los derechos de autor. Si bien se pueden hacer mejoras para solucionar estos problemas, también cabe destacar la necesidad de precaución cuando las tecnologías de detección automática se intentan aplicar como una solución general para contenido incluso más complicado o controvertido, como el relacionado con terrorismo o la desinformación.

A medida que continuamos explorando nuevas formas de utilizar la tecnología de aprendizaje automático para mejorar los proyectos de Wikimedia, la Fundación Wikimedia reconoce que este crecimiento debe dejar espacio para la participación de todas las personas en Internet y respetar los derechos humanos. Por lo tanto, firmamos la Declaración de Toronto sobre machine learning, que utiliza el marco de las normas internacionales de derechos humanos como guía para el desarrollo de esta tecnología en el futuro. A medida que el movimiento de Wikimedia mira hacia 2030, lo hace sabiendo que el progreso debe ser evaluable, inclusivo y proteger la libertad de expresión. Instamos a los responsables de las políticas de la UE a que respeten estos valores y los derechos humanos al considerar la propuesta de una directiva de derecho de autor para el mercado único digital.