Las plataformas están perdiendo su atractivo entre periodistas y activistas
Este artículo es de Farieha Aziz, cofundadora del grupo de defensa de los derechos digitales Bolo Bhi
En Pakistán, los medios sociales se han convertido en el campo de batalla no oficial de los problemas regionales y nacionales.
Hemos visto campañas extranjeras de desinformación en Twitter, y una fuerte presión del Gobierno sobre las plataformas para que ajusten sus políticas de moderación de forma tal que satisfagan sus propios planes. Esta tendencia se ha reforzado con nuevas reglas represivas contra la libre expresión, e incluso bloqueos de plataformas, y solo han conseguido que se restablezca el acceso a sus servicios cuando han acatado la línea oficial. Ha habido casos de políticos, activistas y periodistas que han sufrido campañas que han marcado sus actividades en medios sociales por supuestos incumplimientos de las normas de la plataforma, lo que puede provocar la suspensión o cierre de sus cuentas. Todo eso además del acoso y las presiones que periodistas, activistas, académicos, miembros de minorías religiosas, organizadores y participantes en marchas de mujeres llevan años soportando en Pakistán. Este acoso se canaliza hoy en línea con etiquetas, pero sigue existiendo un riesgo de violencia muy real. En el tira y afloja entre el Gobierno y las plataformas, los intereses de los usuarios suelen quedar a medio camino.
Cada vez que las compañías llegan a un punto intermedio con los Gobiernos para mantener operativos sus servicios mientras ocultan sus acciones en interés de los usuarios, asestan otro golpe a los esfuerzos locales que intentan crear un discurso basado en el derecho que exige responsabilidades a corporaciones y Gobiernos. La popularidad de una plataforma en cualquier región depende de su número de usuarios. Para que una jurisdicción se considere un mercado interesante para los inversores, también los números son importantes. Los usuarios de plataformas ejercen esta función, de la que se benefician plataformas y Gobiernos. Pero la decisión de lo que estará o no disponible en una plataforma, qué contenido se elimina, por qué, a través de qué proceso y recurso a disposición de los usuarios, corresponde unilateralmente una empresa o Gobierno, o bien las toman las empresas y los Gobiernos de acuerdo. En lo que respecta a la toma de decisiones, ni las compañías ni los Gobiernos consideran a los usuarios actores primarios.
Durante años, la sociedad civil de Pakistán ha luchado contra leyes represivas y acciones gubernamentales que limitaban la libre expresión. Pero ahora, la forma en que las empresas evalúan y aplican sus normas comunitarias es una causa de preocupación tan alarmante como las leyes y mecanismos que los Gobiernos adoptan para restringir la libertad de expresión. Está claro que ya sean quejas de usuarios bajo las normas comunitarias de las plataformas, o la aceptación de “exigencias legales” de los Gobiernos para eliminar contenido o suspender cuentas, su impacto en la libertad de expresión es considerable. Lo que conllevan esos mecanismos de moderación de contenido, incluido cómo se toman las decisiones y quién las toma, y la cuestión de si deberían ser ellos los que decidieran, exige una mayor atención. Pero a pesar de la enorme importancia de las decisiones de estas plataformas, sigue existiendo un gran déficit de transparencia.
En la Cumbre RightsCon 2015, las organizaciones de la sociedad civil pidieron informes más amplios de transparencia a las plataformas. Su declaración decía:
…Without greater qualification of the data published and clarity on the process companies follow to determine whether a request is legal or is made by a legitimate legal entity, and how the determination to ultimately restrict content or hand over user data is made, the report’s usefulness to users, researchers, journalists, and advocates is limited.
(…) Sin una mayor calificación de los datos publicados y de la claridad del proceso con que las empresas determinan si una exigencia es legal o proviene de una entidad legítima, y cómo se decide restringir definitivamente contenido o entregar datos de usuarios, la utilidad del informe para usuarios, investigadores, periodistas y activistas es limitada.
Para que la transparencia sea útil y significativa, los informes deben contener algo más que simples cifras y categorías. En 2020 no estamos más cerca de conseguirlo.
Al tiempo que las empresas entran en mercados de todo el mundo, y por tanto, en jurisdicciones legales diferentes, la aplicabilidad de las leyes locales y su cumplimiento implican todo tipo de restricciones a la libertad de expresión. Lo que antes eran temores o se consideraban amenazas a una internet sin fronteras son hoy una realidad. Estamos en la era de internet con fronteras.
Las peticiones gubernamentales se suelen categorizar separadamente en los informes de transparencia. No obstante, si la naturaleza del contenido o de las cuentas identificados en la petición viola las normas de la empresa, suelen quedar absorbidas en secciones del informe que cubren las propias acciones de la empresa para aplicar sus normas. Esto no tiene en cuenta los recursos que los reguladores estatales tienen a su disposición para vigilar y denunciar contenido en comparación con las personas privadas. A menos que todas las peticiones de los Gobiernos se categoricen por separado, a pesar de pertenecer a la moderación del servicio, no habrá forma de determinar el volumen de peticiones que hacen Gobiernos y reguladores, que es un indicador de sus prioridades y una forma de hacerles responder por la manera en que ejercen sus poderes.
¿Dónde figura el usuario en el juego de las compañías para mantener sus plataformas en funcionamiento y en los intentos de los Gobiernos por ejercer el máximo control? En Pakistán parece que la recién revisada y aprobada —aunque no mejorada— Reglamentación 2020 para eliminación y bloqueo de contenido ilegal (procedimiento, supervisión y seguridad) solo va a exacerbar este dilema. Objeto de oposición por parte de grupos locales de derechos digitales y plataformas extranjeras a través de la Coalición Asiática de Internet, la anterior versión de este reglamento exigía a las plataformas que eliminaran y restringieran contenido en periodos muy cortos. El incumplimiento podía conducir a multas y al bloqueo del servicio. A mediados de 2020, el regulador cursó denuncias amparándose en la sección 37 de la ley de prevención de delitos electrónicos de 2016 que llevaron al bloqueo de varias aplicaciones como Bigo, TikTok, Skout, SayHi, Tagged, Grindr y Tinder. Estas aplicaciones consiguieron que se restaurara su servicio solo cuando las empresas aceptaron adaptar sus políticas de moderación de contenido a una versión localmente aceptable aprobada por la Autoridad de Telecomunicaciones de Pakistán. Las noticias sugieren que no ha cambiado mucho con la nueva reglamentación, que no se hizo pública hasta el 18 de noviembre de 2020.
Atrapados entre Gobiernos que se extralimitan y empresas que acatan, los usuarios están doblemente amenazados. La experiencia de navegar por plataformas les resulta cada vez más dificultosa: o se ven totalmente excluidos de las plataformas o se ven forzados a quedarse como espectadores silenciosos y no participantes activos. Excepto para los que se dedican a la manipulación, la desinformación y el abuso, las plataformas están perdiendo rápidamente su atractivo, sobre todo entre periodistas y defensores de derechos humanos. Deben poner remedio a esta situación con recursos para entender y tratar los problemas a los que se enfrentan los usuarios, en lugar de facilitarle aún más las cosas a los Gobiernos.
Este artículo forma parte de una serie de escritos de la Iniciativa sobre Intermediarios e Información de Wikimedia/Facultad de Derecho de Yale para captar perspectivas sobre los impactos globales de las decisiones que afectan a la moderación de contenidos de las plataformas de internet. Puedes leer todos los artículos de la serie en su blog o en su cuenta de Twitter @YaleISP_WIII.
––––––––––
Publicado originalmente en: Global Voices (Creative Commons)
Por: Lourdes Sada el día 24 November, 2020