Archivo de la etiqueta: filtrado de contenidos

Nuevo Reglamento de la Unión Europea amenaza Internet (otra vez)

Fog surrounding standing man
Imagen de Todd Quackenbush con licencia CC0, desde Wikimedia Commons

El Parlamento Europeo votará un nuevo Reglamento que tiene por objetivo prevenir la difusión de contenidos terroristas en línea y corre el riesgo de repetir muchos de los errores asociados con la recientemente aprobada directiva sobre derechos de autoría. La votación se realizará en el pleno del 17 de abril y en ella se preven soluciones tecnológicas para un problema complejo que podrían causar un daño significativo a los derechos digitales de quienes habitan la red. La propuesta incluye una serie de reglas preceptivas que crearán marcos para la censura y que potencialmente dañarán documentación importante sobre terrorismo en línea. Además, de aprobarse esta medidas, se consagraría el poder de las entidades privadas sobre el derecho de las personas a discutir y debatir sus ideas en Internet.

Anna Mazgal, EU Policy Adviser en Wikimedia Germany, y Jan Gerlach, Senior Public Policy Manager en la Fundación Wikimedia han elaborado cuatro recomendaciones de cara a la votación para dar forma a esta propuesta, promoviendo tanto sus objetivos como la rendición de cuentas y la protección de los derechos digitales de la ciudadanía europea:

1. Dejar de tratar a Internet como una plataforma gigante de redes sociales privadas.

De acuerdo con el borrador del Reglamento, cualquier plataforma que contenga contenido de terceros, desde redes sociales a proyectos Wikimedia como Wikipedia y, potencialmente, servicios de alojamiento de archivos privados, deberá describir cómo trata el contenido que pueda estar relacionado con terrorismo en sus términos de servicio. Las personas pueden hablar sobre terrorismo de diferentes formas y con diferentes propósitos, tales como la investigación, la sensibilización y los informes exhaustivos. La regulación obligaría a las plataformas a decidir cuál es y cuál no es una forma aceptable y legal de tener estas conversaciones.

Es peligroso que la ley refleje el enfoque de los sitios web para frenar el contenido ilegal mediante la aplicación de sus términos de servicio. El reglamento propuesto obligaría a todas las plataformas a actuar de manera similar, independientemente del contenido que alberguen o de su modelo operativo. Eso incluye a Wikipedia, donde la implantación de un conjunto riguroso de políticas como las propuestas puede interferir con el sólido y eficaz sistema de resolución de disputas sobre contenido de la enciclopedia libre, que en la actualidad se hace de manera transparente y consensuada por la comunidad que la escribe.

En cambio, lo que debería hacer esta norma es definir claramente qué es contenido terrorista ilegal y dejar a los proveedores de servicios de alojamiento poco espacio para la interpretación.

2. Que los tribunales decidan, no las máquinas.

De manera similar a la nueva directiva de derechos de autoría, el reglamento contempla el uso de herramientas automatizadas para detectar, identificar y deshabilitar de manera proactiva el acceso a contenido terrorista en línea. Decidir qué es y qué no es una expresión que condona el terrorismo es un asunto complicado y el contexto es crucial para decidir si el contenido es ilegal según las leyes antiterroristas. Tales decisiones deben ser tomadas por los tribunales, no por algoritmos que pueden o no estar sujetos a la supervisión humana.

Cuando la aplicación de la ley se basa en el código, el código se convierte en la ley. Esto se contrapone con la manera en la que funcionan nuestros proyectos de conocimiento libre, con una deliberación comunitaria, vibrante y abierta sobre lo que debería tener su lugar en Wikipedia y lo que no debería tenerlo. La moderación del contenido de las plataformas debe basarse en un marco adecuado que incluya a personas bien preparadas para ello, no solo a máquinas.

3. No trastocar los principios de la libre expresión.

La libertad de expresión es un derecho que solo puede ejercerse mediante la práctica de expresar los pensamientos, ideas u opiniones propias. Los límites solo se aplican cuando esa expresión se considera inaceptable. El filtrado de contenido funciona exactamente en las premisas opuestas: una expresión podrá sofocarse prematuramente, antes de que tenga la oportunidad de ser escuchada y evaluada.

Cualquier referencia a medidas que puedan conducir a un filtrado proactivo de contenido debe eliminarse de la propuesta. Los filtros de carga revocan la jurisprudencia y las prácticas legales en todas las jurisdicciones que reconocen la libertad de expresión como un derecho humano. Operan en secreto y sus decisiones están envueltas en secretos comerciales de las compañías que los dirigen. Confiar en estas tecnologías puede detener algunas de las comunicaciones sobre terrorismo que no queremos, pero no vale la pena si el coste es socavar los cimientos de la libre expresión. Hay otras maneras de hacerlo.

4. No obligar a los sitios web a eliminar contenido legal.

La propuesta prevé que, además de las órdenes de eliminación de contenido, la autoridad competente pueda emitir una referencia para solicitar a un sitio web que verifique si el contenido viola sus términos de servicio. Las plataformas se enfrentarán a sanciones si no abordan rápidamente estas referencias, lo que crea un fuerte incentivo para actuar de forma no transparente y eliminar preventivamente cualquier contenido susceptible de revisión, aunque sea legal.

Esta medida debe ser eliminada del texto. Son las autoridades encargadas de abordar el contenido terrorista quienes deberían de estar obligadas a centrarse en los casos en que el contexto terrorista es evidente y emitir una orden para eliminarlo. La legislación deben dejar espacio para que los casos que no son evidentes se debatan en un marco de libertad de expresión aceptable.

Pensamos que proporcionar una exclusión para el contenido difundido con fines educativos, artísticos, periodísticos o de investigación es una buena idea. Sin embargo, si la difusión del contenido terrorista no necesita ser intencional para ser eliminada (activistas utilizan la difusión como manera de pedir ayuda e instigar la investigación de actividades terroristas), es posible que una gran cantidad de información importante quede atrapada en una oleada de bloqueos y retiradas de contenido. Esperamos que el Parlamento Europeo esté a la altura de las circunstancias. Desde Wikimedia, continuaremos monitoreando el proceso legislativo y seguiremos trabajando en nuestro compromiso con la defensa y la promoción del conocimiento libre.

 

No apoyamos la Directiva del copyright de la Unión Europea en su forma actual. Lee por qué tú tampoco deberías.

Eiffel Tower through shattered glass
Imagen de Eutouring con licencia CC BY-SA 4.0, desde Wikimedia Commons

Artículo original de Allison Davenport (Fundación Wikimedia).

El texto final de la Directiva del copyright para el mercado único digital afectará negativamente al acceso al conocimiento y beneficiará indebidamente a las corporaciones y grandes organizaciones que gestionan los derechos de autoría. A pesar de las exclusiones introducidas en el texto, Wikimedia no puede apoyar una reforma que, desde su base, está destinada a controlar radicalmente la información que se comparte online.

Tras un largo proceso legislativo, el texto final de la Directiva del copyright de la UE fue consolidado a finales de febrero cuando las negociaciones a tres bandas entre la Comisión, el Parlamento y el Consejo de la Unión Europea llegaron a su fin.
Ahora que el texto final está disponible, esperando solo a los resultados de una votación sí-no en el Parlamento para su puesta en vigor, el Movimiento Wikimedia no puede apoyar la reforma tal y como es. Estas son las razones.

La evolución del texto de la Directiva

Durante los últimos años, nos hemos manifestado en contra de las partes problemáticas de la propuesta de Directiva del Copyright de la Unión Europea.  Inicialmente, teníamos esperanza.
Nuestra comunidad era partidaria de la reforma, y se puso en contacto con la Comisión Europea antes de que la directiva fuera propuesta, también con MEPS y representantes de los Estados Miembro para transmitir lo que esperaban encontrar en la nueva regulación. Entre otras peticiones, se pedía una amplia excepción para la libertad de panorama, de modo que los fotógrafos puedan tomar libremente fotografías de obras de arte y de edificios en la vía pública, y una mayor armonización de las reglas que afectan al dominio público, de modo que las reproducciones fieles de las obras en dominio público no generaran nuevos derechos.

Pese a ello, la Comisión presentó una propuesta unilateral y agregó elementos preocupantes a la directiva. Dado que la comunidad consideró sus sugerencias ignoradas en favor de las provisiones que beneficiaban a grandes editores, gestores de derechos y de noticias, la crítica sobre la Directiva se acrecentó. Las dos provisiones más perjudiciales, los artículos 11 y 13, se han mantenido a pesar de las críticas y ahora forman parte del texto final que el Parlamento y el Consejo europeos cerraron en febrero de 2019. Aunque se hayan incluido algunos elementos interesantes en el paquete de la reforma, es imposible que Wikimedia apoye un texto que incluya esos dos artículos. Como etapa final, la Directiva del copyright de la Unión Europea volverá al Parlamento esta primavera para una última vocación.

A pesar de las exclusiones, la reforma supone una pérdida importante para el conocimiento libre

El artículo 11 (que está dirigido a agregadores de noticias, pero tiene un alcance mucho más amplio) requerirá que se generen y utilicen licencias para prácticamente todo uso en línea de contenido sobre noticias, con algunas excepciones.Esto significa que los sitios web que agregan, organizan o interpretan noticias no podrán mostrar fragmentos junto a los artículos, dificultando en gran manera a los usuarios la búsqueda de información online.
Afortunadamente, el artículo 11 incluye al menos algunas excepciones para particulares, usos sin ánimo de lucro, “palabras individuales” o “extractos muy cortos”.
Sin embargo, al hacer más difícil la obtención de información en línea, el artículo 11 afecta a la capacidad de nuestra comunidad de personas voluntarias para mejorar Wikipedia, especialmente cuando se trate de fuentes específicamente europeas.

El artículo 13 impondrá que las plataformas sean las responsables cuando cualquiera cargue contenido que infrinja el copyright, salvo que cumplan una serie de requisitos rigurosos.
La disposición requiere que los sitios web se esfuercen “al máximo” para obtener autorización para todo el contenido que publiquen, así como para eliminar el que infrinja derechos e impedir la reiteración de las cargas inadecuadas.
Estas tareas son arduas para cualquier plataforma que permita cargar contenidos a una gran cantidad de personas usuarias por lo que solo las más sofisticadas y potentes serán capaces de desarrollar por sí mismas la tecnología necesaria para aplicar estas reglas.
Si los sitios web cumplen estrictamente estos requisitos se disminuirá dramáticamente la diversidad de contenidos accesibles en línea , ya que supone la implantación de un sistema para la protección del copyright a través de filtros de contenidos que pueden conducir a un exceso de eliminación de contenidos por miedo a la responsabilidad o por falsos positivos.
Si el contenido fuera de Wikipedia se reduce, en igual medida ocurrirá con la profundidad, la exactitud y la calidad del contenido de Wikipedia. Confiamos en el mundo exterior (más allá de los proyectos Wikimedia) para la construcción de nuestra enciclopedia colaborativa, por lo tanto lo que afecta al ecosistema de Internet en su totalidad afecta a Wikipedia, al margen de las exclusiones legales directas.

No obstante, en vista de la lucha a la que nos hemos enfrentado, la comunidad del conocimiento libre puede estar orgullosa del impacto que ha tenido en la reforma.
El texto actual incluye una amplia excepción para la extracción de datos y textos; una salvaguarda para la digitalización de las obras en dominio público; una disposición para obras “out-of-commerce” (fuera de comercio) que permitirá que el patrimonio cultural sea más accesible en línea; y una exclusión que intenta limitar el efecto perjudicial del empobrecimiento de los textos para proyectos no comerciales.

Estas medidas son francamente positivas y están en la línea de lo que originalmente se pretendía que la reforma aportara: la adaptación de una legislación centenaria al futuro (y presente) digital al que estamos haciendo frente.
También nos recuerdan con pesar que el resto de esta reforma no muestra esta visión de futuro.

La clave: el conocimiento libre va más allá de Wikipedia

Nos preguntarán por qué no nos satisface esta reforma si ciertos proyectos no comerciales quedan excluidos y podemos incluso destacar algunas mejoras para el dominio público.
Pues bien, las medidas propuestas no hacen que esta sea una reforma buena o equilibrada.
A pesar de algunas buenas intenciones, la inclusión absolutamente perjudicial de los artículos 11 y 13 significa que los principios fundamentales del conocimiento compartido caen por tierra: en la práctica tanto las personas usuarias tendrán que probar que tienen permiso para compartir conocimiento antes de que se les permita cargarlo en una plataforma.
La Directiva del copyright de la Unión Europea prevé una infraestructura técnica y legal que trata el contenido generado por usuarios como sospechoso mientras no esté aprobado legalmente. No podemos apoyar esto —es mejor no tener ninguna reforma que tener una que incluya estas provisiones tóxicas.

Habrá una votación final sí-no sobre la Directiva en el Parlamento y tendrá lugar en marzo.
Esta votación será la última oportunidad para la comunidad de Wikimedia en Europa le diga al Parlamento Europeo que rechaza una reforma de derechos de autoría que facilite excepciones a la comunidad abierta sin considerar del ecosistema de Internet en su totalidad.
En el punto actual de este proceso legislativo, se ha superado ya el momento de las enmiendas y negociaciones. El Parlamento Europeo debería rechazar la reforma en su conjunto.
Con un texto así de polémico y muchos parlamentarios europeos mirando a la reelección en mayo, sería prudente rechazar la propuesta tal como está y continuar trabajando en una solución con la nueva legislatura.

No es demasiado tarde para que Europa goce de una reforma positiva del copyright, pero pronto podría serlo.
Por ello nuestros afiliados en Europa están organizando a sus comunidades para pasar a la acción. Descubre más sobre sus avances.

No obliguen a las plataformas a reemplazar sus comunidades por algoritmos

Glühlampe explodiert
Imagen de Stefan Krause, Germany con licencia FAL, vía Wikimedia Commons
Artículo original de Allison Davenport (Fundación Wikimedia) y Anna Mazgal (Wikimedia Alemania). Traducido por Virginia Díez (Wikimedia España).

Mientras que quienes formulan políticas y leyes sugieren cada vez mayores soluciones tecnológicas para combatir el contenido ilegal y controvertido en línea, desde el movimiento Wikimedia les pedimos que tengan en cuenta los derechos de quienes utilizan Internet y que dejen un margen para la moderación de contenidos realizada por personas.

Más de un año después de plantear este problema por primera vez, una propuesta cuestionable sobre la nueva directiva de derechos de autoría se someterá a votación en el Parlamento Europeo la próxima semana. Incluso en su versión modificada, esta directiva requeriría que los sitios web con grandes cantidades de contenido subido por su comunidad deban implementar filtros obligatorios. Lo que esto significa es que se requerirá a los sitios web que tengan algoritmos para comprobar todas y cada una de las subidas de su comunidad, las comparen con una base de datos de contenido y que bloqueen aquellas detectadas como infractoras del copyright para que no aparezcan en línea.

Nos preocupa mucho el impacto potencial que la propuesta tendría en Wikipedia, donde los litigios sobre contenido se gestionan a través de mecanismos comunitarios. Tales propuestas otorgan demasiada importancia al poder de las tecnologías para la detección automática de contenido (ya sea a través de inteligencia artificial, aprendizaje automático o identificación de archivos basada en hash) sin considerar el impacto en los modelos de moderación de contenido dirigidos por personas.

Además de exigir el filtrado automático de contenido, en el Artículo 13 de la propuesta directiva de derecho de autor, la Comisión Europea también propone una nueva Iniciativa Contra Contenido Ilegal. En el anuncio correspondiente, las “tecnologías automáticas de detección y filtrado” se presentan como un factor importante en la lucha contra el contenido extremista y otros contenidos ilegales en línea. Ambas propuestas demuestran una confianza cada vez mayor en la tecnología para tomar decisiones sobre la legalidad del contenido en línea. A medida que la inteligencia artificial se extiende y el aprendizaje automático o machine learning mejora, parece que estas llamadas a la detección automática de contenido continuarán creciendo en volumen.

La creencia en la inteligencia artificial y la detección automática de contenido obligatoria es insuficiente cuando presenta a la tecnología como la única solución a los problemas y retos a los que se enfrentan las plataformas online hoy en día. No es ni la mejor ni la única forma de lidiar con contenido ilegal, y mucho menos con contenido que controvertido o problemático en otros aspectos.

La Fundación Wikimedia cree que la tecnología, incluida la inteligencia artificial, será una herramienta útil en el futuro de la evaluación del contenido, pero no debe confundirse con una solución integral que solventará todos los problemas. Las personas voluntarias que editan Wikipedia y sus proyectos hermanos actualmente utilizan una herramienta de aprendizaje automático llamada Servicio Objetivo de Evaluación de Revisiones (ORES) para marcar el vandalismo en los proyectos y predecir la calidad de un artículo. Es importante destacar que ORES en sí no toma decisiones finales, sino que proporciona un servicio de ayuda para que personas y robots mejoren Wikipedia y sus proyectos hermanos. Una vez marcado por ORES, la revisión y eliminación del contenido se maneja por completo a través de procesos que ponen el foco en la comunidad. Esta forma de actuar reconoce las limitaciones del aprendizaje automático mientras que aprovecha sus puntos fuertes.

En general, quienes contribuyen de manera voluntaria en los proyectos Wikimedia supervisan las nuevas contribuciones y si estas cumple con las normas de la comunidad, así como con las leyes de derechos de autor y con otras leyes, y resuelven disputas sobre contenido de manera colaborativa. Este sistema es efectivo y los problemas sobre el contenido de los proyectos de Wikimedia muy raramente necesitan la intervención de la Fundación Wikimedia. Del pequeño número de quejas sobre derechos de autor que se envían a la Fundación, sólo un número mínimo es válido. Los procesos comunitarios grandes, colaborativos y distribuidos permiten que los proyectos Wikimedia sean dinámicos y flexibles en el manejo de un flujo constante de ediciones: alrededor de 10 por segundo. Es importante destacar que el sistema de gobernanza de la comunidad proporciona garantías cruciales para la participación, la libertad de expresión y la colaboración. Obviamente, no todas las plataformas que alojan contenido subido por su comunidad son como Wikimedia. Sin embargo, la moderación centrada en las personas permite realizar una toma de decisiones menos arbitraria.

Por el contrario, cualquier tipo de ley que obligue implementar filtros automáticos para examinar todo el contenido subido utilizando inteligencia artificial o tecnologías relacionadas no deja espacio para los modelos basados en procesos comunitarios que han sido tan efectivos en los proyectos Wikimedia. Como ya se ha mencionado, los filtros de carga tal y como existen hoy en día ven el contenido a través de una lente muy amplia, que puede pasar por alto muchos de los matices cruciales para la revisión de contenido y las evaluaciones de legalidad o veracidad del mismo. Incluso cuando se realizan mejoras en estas tecnologías (como el sistema Content ID de YouTube para identificar obras protegidas por derechos de autor y la API Cloud Vision de Google que detecta contenido “inapropiado”) estas cuestan una cantidad significativa de dinero y, a menudo, dan falsos positivos al no tener en cuenta el contexto o matices en la ley como el uso legítimo o las excepciones de los derechos de autor. Si bien se pueden hacer mejoras para solucionar estos problemas, también cabe destacar la necesidad de precaución cuando las tecnologías de detección automática se intentan aplicar como una solución general para contenido incluso más complicado o controvertido, como el relacionado con terrorismo o la desinformación.

A medida que continuamos explorando nuevas formas de utilizar la tecnología de aprendizaje automático para mejorar los proyectos de Wikimedia, la Fundación Wikimedia reconoce que este crecimiento debe dejar espacio para la participación de todas las personas en Internet y respetar los derechos humanos. Por lo tanto, firmamos la Declaración de Toronto sobre machine learning, que utiliza el marco de las normas internacionales de derechos humanos como guía para el desarrollo de esta tecnología en el futuro. A medida que el movimiento de Wikimedia mira hacia 2030, lo hace sabiendo que el progreso debe ser evaluable, inclusivo y proteger la libertad de expresión. Instamos a los responsables de las políticas de la UE a que respeten estos valores y los derechos humanos al considerar la propuesta de una directiva de derecho de autor para el mercado único digital.