Las redes sociales como espacios para el discurso nocivo

La discusión en torno a las diferentes formas que puede adoptar el discurso nocivo en línea parece no tener fin: contenido falso, casos de acoso, doxxing, amenazas y ataques causados por racismo, misoginia, transfobia, homofobia y otros tipos de contenido dañino parecen haberse apoderado de internet, en especial de las plataformas de redes sociales.

Sin embargo, las conductas comprendidas dentro del concepto de discurso nocivo pueden ser elusivas y difíciles de definir, dado el delgado límite que demarca los tipos de discurso protegidos por la libertad de expresión y los estrictos parámetros que deben cumplirse para restringir este derecho.

En el centro de la discusión se encuentra el rol de las plataformas, espacios que en su inicio fueron vistos por los más idealistas como herramientas de un inmenso potencial para la masificación del acceso a la información, a la expresión y a la cultura, pero que hoy parecen verse constantemente bajo la acusación de servir de herramientas para causar daño a otras personas e, incluso, de capitalizar el discurso nocivo para ampliar su atractivo como servicio. No es un error, sino una característica: compañías como Facebook, que sustentan su modelo de negocio en la venta de publicidad, se han visto claramente beneficiadas por su implementación de estándares muy diferentes para el contenido publicado por la comunidad y el contenido proporcionado por sus anunciantes.

Compañías como Twitter, Instagram y Facebook administran espacios en los cuales, de manera simultánea, se permiten actos cotidianos de acoso, agresión y doxxing, mientras se censuran contenidos cuyo carácter dañino es altamente cuestionable: Facebook tiene un largo historial de censura de imágenes de mujeres amamantando, mujeres con sobrepeso o imágenes relacionadas con la menstruación. El modelo autorregulatorio parece resultar insuficiente al encontrarnos frente a compañías que responden a intereses económicos; tal como recientemente reportara Forbes, Twitter ignoró durante la mayor parte de su historia el contenido nocivo; solo sus intentos de vender –y el rechazo de varios potenciales compradores, al menos en parte debido al rol de la plataforma como espacio para el discurso de odio- desencadenaron los recientes de invertir fuertemente en medidas para limitar comportamientos abusivos.

Si bien es cierto que, como propietarios y administradores de espacios donde se desarrolla el discurso público, estas compañías tienen responsabilidad en el control de los actos que se cometen en sus plataformas, la capacidad de los intermediarios de internet para limitar el flujo del contenido debe estar sometida a parámetros sumamente estrictos y limitados, puesto que de lo contrario podríamos promover la privatización de la censura.

Frente a este problema, hay quien argumenta que la autorregulación ha funcionado bien por largo tiempo para los medios de comunicación tradicionales. Pero las plataformas en línea no son medios de comunicación tradicionales. Aunque desde un punto de vista estrictamente técnico la plataforma es “neutral”, en la práctica está regulada por algoritmos, políticas de contenido y empleados que toman decisiones con respecto al contenido “permitido”, no bajo lógicas periodísticas, sino lógicas de mercado. Como consecuencia, una determinada plataforma podrá considerar válido contenido que otra prohibirá, de acuerdo con lo que una comunidad considere permisible; lo que una comunidad como 4chan considera aceptable puede ser muy diferente de lo que se considera aceptable en Instagram, y estas plataformas no obedecen parámetros de derechos humanos, sino de masa crítica: lo que importa, en realidad, es optimizar el número de usuarios activos en el servicio, porque ese es el producto que se vende a los anunciantes.

Esto es una constatación del rol que juega la realidad económica frente a la libertad de expresión: tal como hemos visto, la única forma real de influir en cambios sobre los parámetros de contenido considerado aceptable en una plataforma determinada es lograr que un número crítico de usuarios se retire del servicio o conseguir que los anunciantes dejen de contratar publicidad. Fuera de esto, solo queda una última influencia: la posibilidad de los gobiernos de ejercer presión sobre las compañías.

A efectos prácticos, esto genera un ecosistema donde los parámetros del contenido aceptable están sujetos a cambios constantes, lo que por un lado imposibilita a los usuarios estar seguros de que están pisando firme al publicar determinado contenido (generando así un efecto de enfriamiento de la libertad de expresión) y por el otro, lleva a las compañías a restringir mucho más o mucho menos contenido del que sería exigible por ley.

Por último, si bien medidas como la remoción de usuarios falsos podría incrementar la confianza y la seguridad en una comunidad en línea, lo cierto es que las compañías no tienen incentivos económicos para hacerlo. Por el contrario, la meta es obtener más y nuevos usuarios. Al mismo tiempo, la toma de decisiones por la “conciencia colectiva”, como el reporte en masa que llevó al cierre de la cuenta de Al Jazeera en Twitter, a menudo no obedece a la existencia real de contenido nocivo, sino a los influjos de la ciertos sectores de la opinión pública.

Para más inri, en aquellos lugares donde los usuarios no poseen un peso crítico en términos comerciales, las comunidades no cuentan con la fuerza para lograr que sus protestas sean escuchadas: así, Maiol Sanaüja, independentista en oposición al gobierno de Cataluña, vio cerrada su cuenta de Twitter en marzo de este año, sin que ninguna protesta fuera capaz de recuperarla, viéndose forzado a abrir una nueva cuenta.

En última instancia, la mayor parte del acercamiento de las plataformas al contenido abusivo consiste en darlo de baja, una medida que no logra persuadir a las personas de dejar de “pensar, hablar y publicar” contenido dañino, sino que convierte la administración de estas plataformas en un ejercicio de cacería constante. Por un lado, las herramientas existentes para reportar abusos ponen un peso desproporcionado en la víctima, al punto de forzarla con frecuencia a abandonar la plataforma, lo que suele ser el objetivo principal de los atacantes. Por el otro, la búsqueda de herramientas de censura automática y algorítmica tienden a ser desproporcionales.

Cada vez más los estados están presionando a las plataformas de internet a borrar contenido, lo que inevitablemente llevará a la utilización de sistemas automatizados y al exceso de celo por parte de las plataformas que terminará en la restricción de mucho más contenido del que ordenaría, por ejemplo, una autoridad judicial. Para evitar daños irremediables al ecosistema de internet, necesitamos encontrar el balance entre el importante rol de permitir y preservar el discurso incómodo e impopular, y la preservación de espacios seguros para que los usuarios puedan expresarse libremente.

 

Censura de la red: la incesante amenaza a la democracia

Parece un guion repetido: políticos de países de todo el mundo, desde fuertes democracias hasta cuestionados autoritarismos, piden límites al ejercicio de la libertad de expresión, especialmente en internet. O bien lo ejercen desde la forma bruta de bloqueos de la red o de sitios completos, o bien mediante una extensión odiosa de normas que penan ciertas formas de expresión. Pero se sigue repitiendo.

El caso venezolano es ejemplar. Como comentamos hace semanas, la Asamblea Nacional Constituyente discute un proyecto del gobierno para penar con 12 a 15 años de prisión a quien fomente el odio, además de amenazar con el cierre de los medios o el bloqueo de las plataformas donde tal contenido exista. A los intensos cuestionamientos a la legitimidad de origen de la propuesta, se unen fuertes críticas al contenido normativo, que en conjunto aparecen menos como un intento de rechazo a las expresiones de odio y más como un intento de control del discurso público.

En un contexto político manchado por los eventos de los últimos años, Brasil también vio a sus legisladores incluir a la censura en su normativa. A propósito de un proyecto de ley sobre financiamento de propaganda electoral, a última hora se incluyó una disposición que obliga a los sitios de internet a suspender, sin orden judicial, los contenidos que calificaren como discurso de odio, diseminación de información falsa u ofensas dirigidas contra un partido político o un candidato. Ambas cámaras del Congreso federal aprobaron en cuestión de horas un abierto intento por facilitar la censura. La reacción crítica fue inmediata, y el presidente ya anunció el veto de la reforma.

Pero antes de que muriera la iniciativa en Brasil, un congresista paraguayo se “inspiró” en la propuesta brasileña para poner en discusión un proyecto que ordena identificar a los autores de discurso anónimo “ofensivo” en Paraguay, de forma tal que, solamente previa denuncia, los operadores deban “suspender inmediatamente cualquier acto ofensivo o difamatorio escrito de forma anónima en sus páginas contra partidos, movimientos o candidatos electorales”. Como explica TEDIC en detalle, se trata de un intento de censura sin consideración alguna por el estado actual de la regulación de las ofensas, de la proporcionalidad detrás del intento de remoción, de la necesidad de debido proceso, o de la redundancia en la penalización.

Aunque los contextos son diversos, y las condiciones de derechos humanos varían significativamente entre países, un elemento es común: quienes detentan cierto grado de poder político buscan utilizarlo para protegerse contra quienes lo cuestionan. El odio o la ofensa surgen como excusas poco veladas para un ejercicio arbitrario de la censura, poniendo límites igualmente arbitrarios al debate público. Ello conlleva serios riesgos para la democracia, allí donde las expresiones pueden ser tan fácilmente suprimidas.

El complejo panorama de la expresión en la red

Los problemas de las iniciativas legales que buscan censurar contenido en internet o acallar las voces críticas, no alteran un escenario de cuestionamiento constante al valor de la expresión en línea. Parte de ese cuestionamiento tiene algo de fundamento: no es difícil comprobar que internet está repleto de discurso de odio, homofobia, xenofobia, racismo y misoginia, por lo que parece tener sentido buscar la prevención del daño que ello produce.

En contextos de luchas políticas y campañas electorales (solamente durante el próximo año en Brasil, Chile, Colombia, Costa Rica, Honduras, México y Venezuela), el problema está lejos de desaparecer, y adquiere una dimensión pública y colectiva distinta. Al discurso nocivo se suma la presencia de trolls y bots en América Latina, junto al debate actual sobre el uso de la capacidad de perfilamiento de las grandes compañías de internet para publicidad dirigida con fines de desinformar o desmovilizar a grupos enteros de la población. Grupos que incluyen a quienes por las profundas desigualdades existentes están ya más apartados de la participación política, y que abundan en nuestra región.

¿Cuál es, entonces, la respuesta a la existencia de discursos de odio, frente a la necesidad de libre expresión, especialmente allí donde la lucha política la hace más necesaria? Responsabilizar a los intermediarios o convertirlos en guardianes de la civilidad no parece una respuesta adecuada. Quitarles del todo un rol en la prevención de la violencia en línea es igualmente inadecuado frente al poder que hoy detentan sobre el discurso en línea.

Pero el extremo de requerir una censura expedita y total de expresiones que pueden ser válidas, o de exigir la desanonimización frente a discursos disidentes, significa no solamente una desproporción a nivel legislativo, sino una vulneración de los derechos fundamentales de las personas. A su vez, una afectación directa de la garantía que tales derechos representan para la deliberación democrática y la participación en las decisiones sobre el destino de cada nación. Conociendo las pautas que el sistema interamericano ha expresado para establecer restricciones legítimas, los últimos intentos de promover la censura y la autocensura representan una afrenta a las aspiraciones democráticas de América Latina.

México y Chile quieren trabajar por los Derechos Humanos vigilando a sus ciudadanos

El Consejo de Derechos Humanos (CDH) es un organismo de las Naciones Unidas encargado de la promoción y protección de los derechos humanos a nivel global. El CDH monitorea situaciones de violaciones de los derechos humanos y formula recomendaciones a los Estados; además trabaja en forma permanente en cuestiones temáticas y en situaciones de violación a los derechos humanos en países específicos. Está compuesto por 47 estados miembros de las Naciones Unidas que son elegidos por la Asamblea General de las Naciones Unidas.

Entre los países Latinoamericanos que se han presentado como candidatos al CDH este año están México y Chile. El lunes 11 de septiembre, por sexto año consecutivo Amnistía Internacional y el International Service for Human Rights (ISHR) organizaron dos reuniones (una en Ginebra y la otra en Nueva York) con el propósito de dar oportunidad a los candidatos de presentar sus visiones y compromisos concretos con la defensa de los derechos humanos. Esto porque no existe otra instancia formal para estos efectos, y porque este evento representa una oportunidad única para que actores de la sociedad civil interactúen directamente con los gobiernos y puedan interpelarlos acerca de su postura concreta respecto de temas específicos que afectan el ejercicio de los derechos humanos.

Junto con otras organizaciones de la sociedad civil, desde Derechos Digitales tomamos esta oportunidad hacer llegar a los representantes de México y Chile nuestras preocupaciones particulares, a través de Twitter utilizando el hashtag #HRCPledging. Les preguntamos sobre su compromiso con el ejercicio de derechos humanos en el entorno digital y en general, en relación con el uso de tecnologías. También les preguntamos sobre su su compromiso de trabajo respecto de dichos asuntos desde su eventual posición en el CDH.

Tal como fue destacado por uno de los moderadores al inicio del evento en Nueva York, por su misión, el CDH es probablemente el más noble de los cuerpos que integran el sistema de las Naciones Unidas, pero su legitimidad depende esencialmente de que sus estados miembros no ignoren o directamente vulneren los derechos humanos de sus propios ciudadanos. En las candidaturas de México y Chile, este principio está en riesgo.

En la región existen numerosos desafíos pendientes en materia de derechos humanos, tales como políticas públicas que se hagan cargo de formas históricas de discriminación como aquellas asociadas al género, la opción sexual y la pertenencia a pueblos originarios. Asimismo, la acción de los Estados en la región se ha mostrado insuficiente cuando se trata de asegurar la libertad de expresión y de participación democrática de la sociedad civil, especialmente en cuando se trata de garantizar la seguridad a periodistas, defensores de derechos humanos o comunidades que luchan por la integridad de sus territorios y por la protección del medio ambiente.

Todos estos asuntos tienen un correlato en el uso de la tecnología y la presencia online de los actores sociales. Es por eso que el compromiso de los Estados con los derechos humanos debe extenderse a este espacio. En 2016, el mismo CDH, a través de su Resolución para la “Promoción, protección y disfrute de los derechos humanos en Internet” observó “la importancia de generar confianza en Internet, en particular en lo que respecta a la libertad de expresión, la privacidad y otros derechos humanos, para que Internet alcance su potencial”. Además reconoció que “la privacidad en línea es importante para materializar el derecho a la libertad de expresión y a no ser molestado por sus opiniones, sin injerencias, y el derecho a la libertad de reunión y de asociación pacíficas”, y terminó expresando su profunda preocupación por “todos los abusos y violaciones de los derechos humanos cometidos contra las personas por ejercer sus derechos humanos y libertades fundamentales en Internet, y por la impunidad con que se cometen”.

Tristemente, y lejos de lo que se esperaría de dos candidatos al CDH, durante 2017 tanto México como Chile han dado pasos precisamente en la dirección opuesta a la indicada en la Resolución sobre los derechos humanos en Internet.

México, decidió enfrentar la corrupción, las desapariciones forzadas y torturas de activistas, espiando a las organizaciones de la sociedad civil que denunciaban los excesos gubernamentales. A espaldas de la ciudadanía, el gobierno mexicano compró y usó un programa de espionaje llamado Pegasus para intimidar a activistas, periodistas y defensores de derechos humanos. Luego de organizaciones de la sociedad civil denunciaran estos hechos, hoy día permanecen en la total impunidad sin una investigación apropiada, sin sanciones para los responsables y sin respuestas ni compromisos de acción futura de parte del gobierno mexicano. Y este espionaje se suma a un panorama de censura devastador, ya que México es de los lugares más peligrosos para ser periodista, después de países en guerra como Afganistán, y estados fallidos como Somalia. Desde el 2000, 104 periodistas han muerto y 25 han desaparecido, pero el Estado no ha emprendido acciones concretas para enfrentar esta situación.

Por su parte, comenzando el año Chile dio señales potentísimas de sintonía con el respeto de los derechos humanos en internet: presentó la tan anhelada iniciativa de actualización del marco normativo de protección de los datos personales; además presentó su Política Nacional de Ciberseguridad, elaborada por un Comité Multiministerial con participación de representantes de la sociedad civil y en la cual se plasmaron compromisos explícitos de pleno respeto a la privacidad y a la libertad de expresión en el ciberespacio.

Tristemente, opacando estas iniciativas el año avanza con uno de los atentados más grandes a la privacidad y la inviolabilidad de las comunicaciones, a través de la introducción del Decreto 866 por parte del Ministerio del Interior, el cual busca extender las obligaciones legales sobre retención de datos de comunicaciones, en un sentido contrario a los estándares internacionales.

Interpelados por la sociedad civil durante la sesión del pasado 11 de septiembre, tanto el delegado mexicano como el chileno evitaron cualquier respuesta sobre sus posturas frente a los graves hechos aquí relatados, absteniéndose de efectuar compromisos específicos.

Si quieren ser dignos representantes de la región en el CDH, tanto México como Chile deben asumir un compromiso de trabajo por el respeto de los derechos humanos, tanto a nivel interno como en la región, que abarque su pleno ejercicio en el mundo físico, en el entorno en línea y en relación al uso de tecnología, de forma consistente con la democracia y la protección del ejercicio de las libertades públicas. Urgen un compromiso expreso y acciones concretas.

El odio y los límites a la libertad de expresión

Sin embargo, a lo largo de las épocas, encontrar el balance entre la protección a la libertad de expresión y la demarcación de los límites del discurso que no se encuentra protegido por los derechos humanos ha sido delicado y riesgoso.

Recientemente, Alemania promulgó un decreto según el cual las compañías que administran redes sociales podrían enfrentar multas de hasta 50 millones de dólares si fallan en remover de sus plataformas los contenidos considerados como discurso de odio, y el Parlamento Europeo aprobó un plan que, de convertirse en ley, obligaría a las empresas a tomar medidas con respecto a este tipo de contenidos.

Esta tendencia no se limita únicamente a Europa: en Latinoamérica, el gobierno venezolano discute una ley que sancionaría a quienes publiquen contenidos catalogados como discurso de odio hasta con quince años de prisión, y permitiría al Estado bloquear las páginas web que considere incursas en este tipo de ilícito. En Ecuador, el ex-presidente Rafael Correa presentó a principios de este año un proyecto, y hace apenas unos días, el gobierno chileno presentó un proyecto de ley contra la incitación al odio; ambos textos contemplan sanciones de tipo penal.

La libertad de expresión tiene como norte la creación de condiciones para la existencia de una sociedad democrática y plural, y en este sentido, la Corte Interamericana ha señalado que el concepto de orden público requiere garantías a la circulación de la mayor cantidad posible de noticias, opiniones e ideas. Tanto el Pacto Internacional de Derechos Civiles y Políticos como la Convención Americana contemplan la necesidad de restricciones y establecen como límite, el primero, la apología al odio nacional, racial o religioso, y la segunda, el respeto a los derechos o a la reputación de los demás, o  la protección de la seguridad nacional, el orden público o la salud o la moral públicas. Sin embargo, en las Américas no existe un instrumento regional vinculante que regule de manera específica la prohibición de la discriminación por razones de origen nacional, racial o religioso. En este sentido, los parámetros con los que contamos para delimitar lo que puede considerarse discurso de odio surgen en referencia a la jurisprudencia de la Corte Interamericana y de otros órganos con mayor desarrollo en el tema, como la Corte Europea o la Organización de Naciones Unidas.

Así, la Declaración Conjunta del Relator Especial para la Libertad de Expresión de la Comisión Interamericana de Derechos Humanos de la Organización de los Estados Americanos, el Relator Especial de las Naciones Unidas sobre la Libertad de Opinión y Expresión, y el Representante sobre la Libertad de los Medios de la Organización para la Seguridad y la Cooperación en Europa (OSCE), se señaló que las expresiones que incitan al “racismo, la discriminación, la xenofobia y la intolerancia” son dañinas, y que si bien es necesario establecer medidas que rijan estas expresiones, dichas medidas pueden interferir con la libertad de expresión y por ende deben someterse a un conjunto de estándares mínimos de legalidad, legitimidad y necesidad. En este sentido, la Declaración Conjunta estableció que la normativa que regule el discurso de odio debe cumplir los siguientes parámetros mínimos:

  • Nadie debe ser penado por decir la verdad;
  • Nadie  debe  ser  penado  por  divulgar  expresiones  de  odio  a  menos  que se  demuestre  que  las   divulga con la intención de incitar a la discriminación, la hostilidad o la violencia;
  • Debe  respetarse  el  derecho  de  los  periodistas  a  decidir  sobre  la  mejor  forma  de  transmitir  información  y  comunicar  ideas  al  público,  en  particular  cuando  informan  sobre  racismo  e  intolerancia
  • Nadie debe ser sometido a censura previa, y
  • Toda imposición de sanciones por la justicia debe estar en estricta conformidad con el principio de la proporcionalidad

Asimismo, la Corte Europea, en interpretación del artículo 10 de la Convención Europea, ha señalado que una restricción a la libertad de expresión, para estar justificada, debe ser “necesaria en una sociedad democrática” y perseguir “un objetivo legítimo”. Siguiendo este criterio, la Corte ha sostenido, por ejemplo, el derecho de un abogado turco al publicar panfletos que  exhortaban  a  los  “patriotas  demócratas  kurdos  y  turcos  a  que asumieran  sus  responsabilidades”, expresiones por las cuales el Tribunal de Seguridad Nacional turco lo condenó por incitación al odio. A pesar de que la interferencia estaba preestablecida en la ley, la Corte consideró que la condición de necesidad en una sociedad democrática no amparaba solo a las ideas que resultaran inofensivas, sino también a aquéllas que ofenden, perturban o distorsionan, por cuanto estas ideas son especialmente necesarias en una sociedad democrática.

Así, por ejemplo, la Corte Interamericana ha señalado que hay ciertos tipos de discurso que, lejos de estar exceptuados de protección, se encuentran especialmente protegidos por el amparo de la libertad de expresión, entre los cuales se encuentra el discurso político y sobre asuntos de interés público, el discurso sobre funcionarios públicos o candidatos a cargos públicos, y los discursos que configuran elementos centrales de la identidad y la dignidad personales. Esto trae como consecuencia, por ejemplo, que de acuerdo con los parámetros interamericanos, nunca debe protegerse la reputación de un funcionario público a través de sanciones penales, sino solo civiles, y en general las leyes denominadas “de desacato” son consideradas atentatorias a la libertad de expresión.

Cabe, pues, indicar que resulta peligroso el desarrollo de leyes que vinculen de manera inextricable una plataforma o conjunto de plataformas con la expresión de discurso de odio. Tal parece que se ha vuelto popular sostener la opinión de que las redes sociales son “espacios para el odio”, cuando éstas no son más que canales para la comunicación de ideas, como en tiempos anteriores lo han sido el teléfono, la prensa y el telégrafo. Las posibilidades de masificación del acceso a canales para la expresión del discurso no tienen ningún peso o influencia que afecte los parámetros para la protección de la libertad de expresión; los estándares siguen siendo los mismos independientemente del canal utilizado para la transmisión o difusión del discurso.

Por otra parte, responsabilizar a los intermediarios respecto a la remoción o -más grave aún- censura previa del contenido considerado como discurso de odio constituye un riesgo inadmisible por diversas razones, la primera de las cuales es que los intermediarios no pueden ser forzados a evaluar sustantivamente la legalidad del contenido de terceros, dado que esta responsabilidad corresponde única y exclusivamente a una autoridad de carácter judicial. Al convertir al intermediario en mediador del contenido, cada plataforma tiene sus propios estándares para lo que considera permisible, lo que en la práctica constituye tercerizar la administración de justicia a empresas que poseen y obedecen a sus propios intereses.

Por último, es importante entender que las posibles soluciones que un Estado puede plantear al problema del discurso de odio no son necesariamente -o no solo- de carácter punitivo. El odio como fenómeno social no es algo que sucede en el vacío, sino en el contexto de una sociedad y una historia con ciertas características, y en consecuencia, no es razonable pretender que la simple promulgación de una serie de prohibiciones corregirá la existencia del fenómeno, ni que censurarlo evitará otra clase de consecuencias. Así, la educación en derechos humanos y la educación para el respeto de la diversidad, la existencia de procesos y espacios para la justicia y la reconciliación, junto a la creación de sistemas que permitan la supervisión y la respuesta necesaria a las minorías vulnerables, son medidas indispensables que frecuentemente son olvidadas en el abordaje de este complejo problema.

En América Latina también debemos defender la neutralidad de la red

La neutralidad de la red se refiere a que todos los contenidos y aplicaciones que circulan a través de internet sean tratados de la misma manera por los proveedores de servicios (ISP), quienes controlan la infraestructura (los cables) donde funciona la red. Gracias a la neutralidad de la red, es posible acceder a cualquier red social, escuchar música o ver vídeos en la plataforma que más nos guste, a través de la conexión fija o el plan de datos móviles que hayamos contratado, sin que la velocidad de conexión sea manipulada por los proveedores de servicios.

La Open Internet Order adoptada por Estados Unidos en 2015, prohíbe a los ISP: discriminar entre tipos de contenidos o aplicaciones para dar prioridad a unas sobre otras; solicitar pagos a las aplicaciones para obtener condiciones preferentes de navegación para sus servicios; y desmejorar técnicamente la navegación de aplicaciones. Con ello se buscó empoderar a los usuarios, reservándoles la decisión sobre los contenidos o aplicaciones de su preferencia, sin encarecer, dificultar técnicamente o restringir el acceso a estos.

Si se abandonara el principio de neutralidad de la red, los ISP tendrían mayor poder para intervenir arbitrariamente en la velocidad de conexión y así facilitar o no el acceso a determinados contenidos, por ejemplo para proteger sus negocios relacionados o simplemente para exigir pagos adicionales a los proveedores de servicios o aplicaciones. Con esto, sería más difícil que nuevas plataformas y servicios, o servicios pequeños e independientes pudieran entrar a competir frente a los gigantes que ocupan una posición dominante en el mercado de internet.

La exigencia de pago para priorización de contenidos -o para evitar que la velocidad de navegación sea reducida- tendría un impacto concreto en el atractivo de plataformas que no estén en condiciones de asumir esos pagos, ya que se harían más lentas y serían poco atractivas para los usuarios, pudiendo llegar a desaparecer. Esto nos dejaría con menos opciones de acceso a contenidos.

Por último, es muy probable que las plataformas de contenidos o servicios no absorban los cobros exigidos, lo cual podría generar de rebote un incremento en los costos del servicio para los usuarios de la plataforma, quienes estarían pagando dos veces: directamente a través de su suscripción de internet e indirectamente a través del incremento diferencial del precio de los servicios forzados a pagar para asegurar su espacio sin intervenciones en la carretera de internet.

El problema es que al debilitarse el principio de neutralidad en la red en Estados Unidos, los efectos sobre la prestación de servicios de internet serían globales, donde quiera que los servicios sean ofrecidos por las plataformas que operan desde ese país. En América Latina se agravaría el problema de acceso que aún persiste, pues se encarecería, lo que afectaría más dramáticamente a usuarios de menores ingresos. Los usuarios de internet en la región verían afectadas sus posibilidades de acceder a contenidos y aplicaciones, lo que implica una restricción de acceso a la información y al conocimiento. Y con esto se alimentaría indirectamente el círculo vicioso que reduce las posibilidades de usuarios y usuarias para convertirse en nuevos creadores.

Además, el abandono del principio de neutralidad en Estados Unidos tendría un impacto en el ecosistema de internet, incluyendo los servicios y aplicaciones desarrollados o que pretendan desarrollarse en América Latina, los cuales tendrían que adaptar sus modelos de negocios al nuevo escenario, donde su competitividad se vería negativamente impactada.

Con la derogación de la Open Internet Order en Estados Unidos se amenaza el principio de neutralidad de la red en todo el mundo. No podemos quedarnos indiferentes ante esta amenaza que no reconoce límites territoriales. Por eso, empresas y organizaciones de la sociedad civil están llamando a un día de acción por la neutralidad de la red el próximo 12 de julio. Internet es nuestra, defendámosla para que se mantenga fiel a su naturaleza de ecosistema abierto que asegura a los usuarios el poder de decidir cuándo, cómo y a qué contenidos acceder.

Una marcha del orgullo en internet

Para una comunidad cuya identidad se ha construido a partir de disputas por el reconocimiento, durante más de veinte años internet ha servido de canal para expresarse más allá de los prejuicios o estereotipos de género. Existen millones de espacios en la web donde se difunden y comparten ideas y sentires: desde los procesos de transición o el intercambio de información entre adolescente explorando sus sexualidades, hasta organizaciones de derechos LGBTQ+ o grupos promoviendo campañas por más derechos.

Desafortunadamente, internet se ha constituido cada vez más en un espacio para la recolección, clasificación y control de datos, y menos en un espacio para el aprendizaje y la experimentación. Ante las iniciativas de autonomía y liberación en el entorno digital, todos los días crecen y se fortalecen expresiones de rechazo y violencia contra las identidades que no responden a los modelos heteronormativos tradicionales. Los casos son miles.

Y aunque las grandes plataformas de internet se muestran cada vez más empáticas con el reconocimiento y la inclusión, sus políticas continúan demostrando que para ellos, algunas prácticas, estéticas y personas deben ser clasificadas como ‘sensibles’ o ‘inapropiadas’. Empresas como Google y Facebook parecen esforzarse: si buscas «queer» en Google, aparece en la página un arcoiris junto con los resultados de búsqueda; recientemente, luego de celebrar el matrimonio igualitario con aplicaciones para las fotos de perfil, Facebook lanzó una nueva funcionalidad para usar un arcoiris en lugar de un «me gusta». Estas acciones, aunque son válidas, crean una ilusión de que los espacios capitalizados por las empresas de Silicon Valley son abiertos, seguros y sinceramente activos en causas sociales, aunque no aplique en todas partes.

A mediados de marzo, cientos de youtubers protestaron en Twitter porque sus videos relacionados con la sigla LGBTQ+ estaban siendo restringidos para audiencias infantiles o familiares. Ante esto, la plataforma se disculpó, aclarando que el «Modo Restringido» lo utiliza un grupo muy pequeño de usuarios y además está desactivado por defecto. Sin embargo, como dijo una usuaria, este tipo de medidas contribuyen a la estigmatización, a través de la sexualización (por defecto) de los contenidos relacionados con personas trans y no binarias. Un mes más tarde, Youtube declaró que su sistema de filtrado para el «Modo Restringido» había sido arreglado, incluyendo nuevamente cientos de miles de videos con contenido LGBTQ+.

Por otra parte, además de su ya conocida política de nombres reales o su comprometida labor con la censura de pezones femeninos, Facebook prohíbe el uso de palabras como ‘sexual’ o ‘lesbiana’ en los nombres de usuaria, mientras que las palabras ‘gay’ o ‘gaywomen’ están permitidas. Este es uno de los casos de censura por diseño que tiene Facebook, que se suma a la problemática política de moderación de contenidos: ante la sextorsión, por ejemplo, dicen que es un problema lleno de ‘zonas grises’ y normalmente ‘cometen muchos errores’ al responder a las denuncias.

A fin de cuentas, parece que los gigantes de internet se valen de la identidad y el reconocimiento para facilitar la vigilancia y la censura de expresiones que se salen de los formatos deseables y normativos de la cultura patriarcal en la que todavía nos movemos. Por eso, en estos días de marchas y expresiones amigables con la diversidad aprovechamos para sumar nuestros cuerpos en la virtualidad y preguntarnos por la posibilidad de construir calles y encuentros digitales, espacios seguros para la imaginación, la experimentación y la creación; redes libres, abiertas y autónomas, alojadas -¿por qué no?- en servidoras trans-hack-feministas. Por la dignidad, a la manera de cada grupo, en cada lugar. Un carnaval de lucha, celebración y hackeo 🙂

Periodismo, libertad de expresión y seguridad digital

Tamara De Anda es bloguera del diario El Universal y locutora en otros medios de comunicación en México. En marzo de este año, fue víctima de acoso y hostigamiento a través de las redes sociales, luego de denunciar allí mismo haber sido víctima de acoso por parte de un taxista. Decenas de usuarios publicaron amenazas explícitas de muerte contra ella y expusieron sus datos personales, incluida la dirección de su casa. Según datos de la organización Artículo 19, que acompañó el caso, se acumularon alrededor de 250 mensajes por hora, pero este es apenas uno de los innumerables casos de acoso que a diario sufren periodistas a la hora de utilizar las redes como medio de visibilización y denuncia.

Un porcentaje importante de las amenazas en línea pueden convertirse en agresiones físicas a una persona o a su círculo cercano, pueden afectar sus dispositivos o la información que maneja. En muchos de estos casos, se trata de las mismas amenazas que antes se hacían offline, solo que trasladadas al mundo digital: las amenazas de muerte que antes se hacían en papel ahora llegan por Twitter, pero no por eso resultan menos peligrosas.

El creciente uso de las redes sociales para acosar y agredir periodistas puede explicarse por el bajo costo que esto supone. Pero los otros usuarios no son la única amenaza, pues también es creciente la vigilancia y el espionaje de las comunicaciones por parte de los gobiernos. En Argentina, por ejemplo, se confirmó que al menos 33 personas (jueces, fiscales, políticos y periodistas) fueron espiadas por la Agencia Federal de Inteligencia a través de un software malicioso instalado en sus dispositivos móviles.

Asimismo, se ha vuelto cada vez más frecuente la creación de cuentas falsas en redes sociales y las campañas de difamación contra periodistas, una práctica que atenta contra uno de los activos más valiosos para un comunicador: su capital social. La creación artificial de rumores para generar la pérdida de la confianza en un comunicador o en un medio de comunicación (o, como en Turquía, en las redes sociales como entorno para la obtención de información) es una práctica profundamente dañina para la libertad de expresión.

También los ataques distribuidos de denegación de servicio (DDoS) son usados cada vez con mayor frecuencia para impedir o entorpecer el acceso a ciertos medios de comunicación en línea: en 2015, los diarios argentinos Clarín y Página 12 sufrieron este tipo de ataques; en los últimos meses, los medios venezolanos El Pitazo, Correo del Caroní y Caraota Digital enfrentaron ataques similares, todos los cuales resultaron en la caída de estos sitios web durante al menos algunas horas. Este tipo de ataques pueden provenir de agentes estatales pero también de personas u organizaciones interesadas en causar daño, ya que es muy simple llevarlos a cabo, generando una cantidad de solicitudes artificiales al servidor donde se encuentra el sitio web, hasta que este ya no tenga capacidad de responder.

La colaboración efectiva entre los sectores tecnológico y periodístico siempre ha sido, cuando menos, problemática. Los expertos en seguridad suelen recomendar el uso de herramientas como el cifrado PGP, una herramienta excelente en términos de protección, pero compleja en términos de uso y aprendizaje, los cuales requieren una inversión de tiempo y esfuerzo que no muchos periodistas están dispuestos a hacer.

La adopción de herramientas y prácticas de seguridad digital requiere una inversión de tiempo, dinero y capacitación que, aunque es de suma importancia y puede evitar costos mayores al impedir que se materialicen ciertos riesgos, puede ser una dificultad para quienes se encuentran en situaciones de tensión, con restricciones de tiempo y altas cargas de trabajo. Además, a pesar de los innumerables y loables esfuerzos hechos por la comunidad tecnológica para el desarrollo de herramientas y guías que faciliten el acceso del público general a temas de seguridad digital, estos siguen apareciendo como oscuros y complejo para muchas personas.

Por otra parte, resulta al menos problemática la tendencia a desarrollar y utilizar aplicaciones o software especializados para solucionar problemas sociales concretos. La utilidad de este tipo de herramientas está directamente relacionada con la comprensión sobre cómo operan las amenazas en el entorno digital y qué hábitos debemos cambiar, instaurar o fortalecer.

Cada vez existen más mecanismos para la protección y defensa de periodistas; herramientas como Project Shield, de Google, o Deflect, de eQualit.ie, permiten que los medios de comunicación (y en especial los medios de comunicación independientes) se protejan de ataques de denegación de servicio. Pero estos ataques no ocurren en el vacío y no podemos permitir que los aspectos tecnológicos de la protección a periodistas y medios ocupen toda la conversación.

Es importante atender a las dimensiones legales, sociales, políticas y psicológicas de esta violencia y comprender, por ejemplo, la forma en que un ataque de difamación y hostigamiento puede afectar las redes de un periodista, su reputación, su estabilidad psicoemocional y a su entorno íntimo, desencadenando así un efecto de enfriamiento que perjudica la libertad de expresión y por ende, el libre desenvolvimiento de una sociedad democrática.

Por la libertad del acceso, la privacidad y el anonimato

El pasado 6 de Abril Dmitry Bogatov fue detenido en Moscú tras ser acusado de publicar mensajes extremistas en un sitio web ruso bajo los cargos de “incitar actividades terroristas o justificar terrorismo a través de Internet”. De acuerdo al dictamen, Bogatov debía permanecer en prisión al menos hasta el 8 de Junio a la espera del juicio en su contra. Hace un par de días se extendió dicho plazo hasta el 30 de Junio, rechazando la opción de cumplir arresto domiciliario. De ser encontrado culpable, Bogatov podría ser condenado a siete años de cárcel.

Lo cierto es que los mensajes en cuestión fueron publicados bajo un seudónimo a través de Tor. Como contexto, la red Tor está compuesta por miles de servidores distribuidos alrededor del mundo, y es mantenida principalmente por voluntarias y voluntarios que abogan por la privacidad, el anonimato y la evasión de la censura en línea. Al utilizar Tor para navegar, el tráfico pasa por tres nodos de la red antes de llegar a su destino, lo que permite ocultar la ubicación de origen de la usuaria. Estos nodos son elegidos de manera aleatoria y cada uno tiene un rol: entrada, intermedio y salida. El nodo de salida es el último punto en el circuito y está a cargo de acceder a internet como intermediario entre la red Tor y el sitio web de destino. Es decir, es un nodo puente entre la red Tor e internet.

Dada la naturaleza de Tor, quien mantiene un nodo de salida no posee control ni responsabilidad del contenido que pasa a través del mismo (aunque no se recomienda realizarlo desde casa). Probablemente cientos o miles de personas usaron el nodo de Bogatov para permanecer anónimas y anónimos, o para evadir la censura en sus países. En este caso, a Bogatov no se le está exigiendo responsabilidad como intermediario (y, de hecho, no la tiene); peor aún, se le atribuye autoría del contenido que pasó a través de su nodo de salida. Esto refleja un malentendido grotesco sobre cómo funciona la red Tor. Si también se considera que existen grabaciones de cámaras de seguridad confirmando que Bogatov no estaba en su hogar cuando los mensajes fueron publicados, y que la cuenta anónima continuó publicando mensajes después que Bogatov fuera detenido, se tiene un caso sin pies ni cabeza. Así y todo las autoridades decidieron que Dmitry debía permanecer tras las rejas por casi dos meses, como mínimo.

Esto presenta un grave atentado en contra de quienes luchan por el derecho a la privacidad y el anonimato en Internet. El caso de Bogatov sin duda puede producir efectos negativos sobre la percepción de la red Tor y amedrentar a quienes en defensa del acceso al conocimiento y el derecho a la privacidad y el anonimato en línea deciden contribuir con su tiempo, ancho de banda y hardware para mantener nodos de salida. Si bien son una excepción, existen casos de individuos que en el pasado se han visto en problemas por mantener un nodo de salida, pero nunca ha involucrado tiempo en prisión como en este caso. El proyecto Tor y otras organizaciones como Torservers, Debian, Access Now y la Electronic Frontier Foundation se han pronunciado al respecto y han condenado el hecho, pero sin duda es necesario un mayor esfuerzo y acciones por parte de la comunidad para revertir este tipo de situaciones, de lo contrario las voluntarias y voluntarios que mantienen nodos de salida podrían no encontrar el respaldo suficiente para seguir colaborando en pos de una Internet libre.

En Derechos Digitales creemos que no solo es importante denunciar este tipo de persecuciones sino que también abogamos por potenciar las herramientas que ayudan a proteger la privacidad y anonimato en línea. En este sentido nos parece de suma importancia masificar herramientas como Tor, ya sea fomentando el uso de Tor Browser entre las usuarias y usuarios que necesitan navegar de manera anónima, o aportando al crecimiento de la red con la instalación de más nodos de salida Tor en instituciones públicas, bibliotecas, universidades, colectivos u otro tipo de organizaciones que tengan los recursos para ello. Es por esto que en colaboración con organizaciones de la región buscamos promover el aumento de nodos de salida en América Latina como una manera más de expresar compromiso y aporte técnico a la defensa de los derechos humanos en Internet y como una forma de proporcionar diversidad e infraestructura desde el Sur. Desde principios de 2017 aportamos nuestro pequeño grano de arena a la red, y esperamos en breve comenzar con la documentación para reflexionar y compartir lo aprendido, con la esperanza de sumar a más organizaciones en la región y juntos generar conciencia en la comunidad y en las autoridades, sobre las implicaciones legales y técnicas asociadas a la mantención de nodos Tor, y sobre cómo el apoyo a esta red significa también un apoyo a los principios fundamentales de una Internet libre.

¿Quién y cómo controla lo que decimos en internet?

El domingo pasado, el periódico The Guardian publicó las guías y lineamientos que Facebook usa para “moderar” (y eliminar) los contenidos de su plataforma a través de contratistas externos. La empresa ha estado en el ojo del huracán recientemente porque mientras censura pezones femeninos, permite videos en vivo de actos tan violentos como un señor matando a su hija de once años. Los términos de uso nunca son del todo claros, y antes era imposible saber realmente cómo seguían los criterios que declaraban. Con esta filtración, ahora tenemos una idea de lo que implican.

Sin embargo, a cada duda respondida le siguen nuevas interrogantes. No es un problema nuevo: sus cientos de millones de usuarias y usuarios estamos en desprotección, sin reglas claras ni mecanismos de apelación o rendición de cuentas para responsabilizar a una de las empresas más poderosas del mundo, que además de manejar nuestra información privada controla también buena parte de nuestra expresión pública.

¿Qué solución podemos imaginar que respete derechos humanos? ¿Cómo hacer que Facebook sea más responsable? ¿Qué mecanismo es el ideal?

Los lineamientos publicados reflejan un estándar moral muy afín al norteamericano, que en los hechos funciona por encima de la ley de muchos países y que opera incluso al margen del derecho internacional de los derechos humanos. O bien, que se inclina por seguir la ley local solamente cuando puede existir una consecuencia legal real. Facebook es uno de los “soberanos de internet”, una de las empresas que median nuestros dichos y expresiones bajo sus propias reglas. La tensión es evidente. Por un lado, su posición “supraestatal” parece facilitar o fomentar el disenso en países autoritarios, como fue relatado a propósito de la propia Primavera Árabe. Por otro, elimina contenido de su plataforma bajo criterios arbitrarios y opacos, dejando otros contenidos nocivos intactos.

Para Facebook, frases como “alguien dispárele a Trump” deberían ser eliminadas porque el presidente de Estados Unidos es alguien “vulnerable”. Algo así bien podría ser una broma. Una expresión de frustración o sarcasmo sin intención de llevarlo a cabo. En este contexto, los criterios internacionales sobre libertad de expresión lo considerarían discurso especialmente protegido por referirse a un funcionario público. Sin embargo, instrucciones del tipo “para romperle el cuello a una perra, asegúrate de aplicar presión en el cuello” son permitidas, sin importar el contexto en que se dice.

Las guías están hechas para orientar a más de 4.500 empleados subcontratados, que vienen principalmente de Filipinas y de Polonia (aunque algunas fuentes dicen que son más de 100 mil, no lo sabemos bien). Cada “moderador” tiene en promedio diez segundos para decidir si eliminan o no una imagen con base en las instrucciones escritas que Facebook les entrega, sin entrenamiento posterior. Les pagan aproximadamente un dólar la hora. Ven contenidos explícitos todo el día –decapitados, muertes, suicidios– y no reciben atención psicológica suficiente. ¿En qué mundo es este el mejor sistema para decidir qué contenido se queda y qué contenido se elimina de la plataforma?

Con todo, en la era del capitalismo digital, la premisa principal es rechazar cualquier intervención estatal. La autorregulación es la norma, y en este sentido los usuarios son el primer filtro. Cuando estos reportan o denuncian alguna imagen, video o contenido se va a uno de los distintos Comités (odio y acoso, contenido abusivo o seguridad) para ser revisado por uno de los “moderadores”. Esto en sí trae un problema adicional, pues los criterios mayoritarios ponen en riesgo el disenso y las expresiones controvertidas. En una sociedad machista, discursos de odio en contra de las mujeres no se denuncian y se normalizan, mientras insultos a grupos privilegiados se reportan rápidamente.

En los Estados, estas decisiones sobre límites discursivos son tomadas por jueces –idealmente después de cuidadosos ejercicios de ponderación de derechos-. Como en cualquier dicho, todo depende del contexto. No es lo mismo decir “te voy a matar, perra” a una ex novia, a una dirigente feminista o a un amigo gay. O incluso, algo como “fulanita parece embarazada” puede ser un cumplido, o un acto de bullying.

Es este mismo contexto el que no permite que las decisiones sean enteramente automatizadas. Los algoritmos y programas de computación no entienden grises, y además tienen fuertes sesgos culturales y de programación. Sin embargo, los moderadores –mal pagados y mal entrenados– tampoco lo hacen. Mucho menos en diez segundos.

No hay solución perfecta. Estamos atrapados en la naturaleza corporativa de Facebook.

Mark Zuckerberg insiste en que son una empresa de tecnología y no un medio de comunicación. Sin embargo –y como vemos en los lineamientos publicados por the Guardian- la compañía toma miles de decisiones editoriales todos los días al decidir qué contenido se queda y cuál se censura. ¿Acaso es hora de empezar a regularlos como un medio? ¿Bajo qué legislación? ¿Qué implicaciones tendría esto para internet?

Las respuestas no son claras. Lo más lógico –dado que Facebook gana dinero a costa de nuestros datos personales– es exigir como mínimo que la empresa dé muestras reales de su intención de mejorar, transparentando la forma en que toma decisiones que afectan a todo el mundo. Además, debería invertir parte de sus ingresos en investigar, prevenir y resolver este tipo de conflictos (en vez de gastar millones de dólares en desarrollo de inteligencia artificial para predecir las emociones de sus usuarios, por ejemplo). La libertad de expresión debe ser un tema prioritario; la integridad de los usuarios también.

Es inconcebible que nos enteramos de esto porque el documento de Facebook se filtró a medios de comunicación. Porque era privado. Como usuarias y usuarios debemos exigir más transparencia sobre este tipo de decisiones. Ahora que los lineamientos son (un poco más) conocidos por el público, podemos tener un debate amplio sobre el tema y evaluar si estamos de acuerdo con lo que la plataforma permite, y por consiguiente si elegimos seguir usando sus servicios al estar o no de acuerdo.