Una propuesta de ley contra el activismo

¿Qué pasa en Venezuela?

Ya en junio de 2022 y en abril de 2023 se exploraron las potenciales implicancias de este tipo ley en un país sin separación de poderes, además de reseñar cómo ha sido la experiencia en otros países de la región como El Salvador y Nicaragua.

Básicamente se ha llevado adelante la discusión del proyecto de ley de forma unilateral por parte del gobierno y sin participación alguna de la sociedad civil. El borrador que circula de dicha propuesta de ley no es oficial, es decir, no hay certezas sobre los contenidos reales que se llevan a debate. Aun así, fue aprobada en primera discusión por la Asamblea Nacional en enero de 2024 desatando las alarmas de las organizaciones de la sociedad civil y de la comunidad internacional. Pero no es un tema nuevo, sino cíclico y recurrente y ya en septiembre de 2023, varias relatorías de las Naciones Unidas se pronunciaron sobre los efectos negativos de este tipo de ley en el espacio cívico del país.

Desde enero hasta mayo de 2024, la propuesta de ley hibernó cuando Diosdado Cabello anunció que la ley sería aprobada al día siguiente ya se trataba de una deuda con el país. Ante estas declaraciones se hizo evidente que esta propuesta de ley pone a las organizaciones sociales como el «enemigo interno» del país dejándoles además poco margen de reacción.

El 21 de mayo no se aprobó la ley en su totalidad (aunque sí se aprobaron nueve artículos) y se pospuso la discusión en la Asamblea Nacional. Es decir, la amenaza real sigue siendo potencial y como un peso que se balancea sobre la cabeza de la sociedad civil.

¿Por qué la alarma ante este proceso?

La cooperación internacional en sí misma no se limita a los fondos de otros países que puedan recibir las organizaciones sociales. Se basa en el principio de la colaboración entre países y eso incluye intercambio técnico y judicial entre otras formas de trabajo colaborativo.

Una ley que criminalice los fondos internacionales para la sociedad civil organizada envía un mensaje también a aquellos países con los que se tienen relaciones diplomáticas. No sólo con los países que se antagoniza en discurso sino con aquellos con los que se tienen relaciones más cordiales, además de afectar en igual medida a las organizaciones que son afines al gobierno.

Esta propuesta de ley se ha ido perfilando evolutivamente a un detalle en que se castiga a aquellas organizaciones sociales que son críticas al gobierno y que sirve de instrumento restrictivo.

¿Por qué ahora?

La amenaza de aprobar esta ley en un país con una crisis humanitaria compleja, una economía inestable y un panorama sociopolítico y que además tendrá elecciones generales el próximo 28 de julio, viene de alguna manera a atomizar la atención y la acción de las organizaciones sociales. Temen no sólo por el cierre del espacio cívico, sino por el impacto que tendrá esto en las comunidades a las que atienden. Se enmarca en un año donde el gobierno ha recrudecido las detenciones de políticos y activistas contando con más de 250 presos políticos en la actualidad y en donde el discurso sigue sin encontrar una vía para la reconciliación.

Mientras tanto…

El 13 de mayo en Perú, el congresista conservador Alejandro Muñante Barrios, propone el PL 7818/2023-CR, que solicita mediante la intervención del Ministerio Público, la posibilidad de disolución de asociaciones y fundaciones si estas reciben financiamiento para promocionar, realizar, desarrollar, o financie actividades consideradas “ilícitas” en territorio peruano, dejando abierta la interpretación de actividades ilícitas, en las que pueden incluirse organizaciones que trabajan por la despenalización del aborto, por ejemplo. Una propuesta que si bien no es exclusiva de quienes reciban fondos internacionales, estigmatiza la cooperación internacional y criminaliza a las organizaciones por su mandato y labor en la comunidad cuyo efecto será la reducción de la acción de la sociedad civil y el abandono de las comunidades a las que atienden dichas organizaciones.

Por otro lado, este proyecto de ley parece olvidar también que tanto en los convenios de cooperación como en los concursos para recibir fondos, las asociaciones explicitan siempre el uso que harán de los mismos. La propuesta de ley sigue su curso burocrático y de ser aprobado en el Legislativo, traería como consecuencia la disolución de ciertas ONG incómodas para el gobierno de turno y estos grupos religiosos que se han hecho del poder, reduciendo entonces el ejercicio democrático de participación. Perú se sumaría a la lista de países de la región que buscan reducir de forma proactiva la acción de la sociedad civil, tal como pasa en El Salvador y en Nicaragua.

Fuera de la región y más recientemente, Georgia sí aprobó la ley de agentes extranjeros parecido al modelo ruso de la ley que se basa también en el modelo del “enemigo interno”, y que etiqueta a todas aquellas organizaciones o medios de comunicación cuyos ingresos foráneos superen el 20% de su total, obligándoles a registrarse como “portadores de los intereses de una potencia extranjera”. Nuevos modelos de leyes constrictivas que no necesitábamos.  

El costo invisible

Por otro lado, el costo invisible más grande que tiene esta amenaza de ley es el que pagan los activistas de las organizaciones, que trabajan en comunidades pero que también son ciudadanos y que se enfrentan por un lado a la inestabilidad laboral como consecuencia de este tipo de ley y que se suma a las condiciones económicas del país, y por otro, el temor a su seguridad personal por las posibles represiones. Es la carga mental de tener cuidado y hacer un activismo que negocia constantemente con ponerse en la línea de riesgo. Es un contexto que vulnerabiliza en todas las dimensiones posibles al activismo en un juego de desgaste constante en donde todos pierden.

La escuela de mañana, ahora

La pandemia lo cambió todo. Se sabe. Uno de los ámbitos que sufrió mayores transformaciones fue la enseñanza y así lo alertamos en su momento, desde una mirada regional. Pasar de la sala de clases, espacio físico que comporta cierta intimidad funcional al proceso de aprendizaje, a un contexto sin estas características y, peor aún, sin garantizar primero la infraestructura necesaria para la educación a distancia, provocó, de acuerdo con UNESCO en ese entonces, una tragedia.  

Salto temporal al presente y ya no es solo la brecha de conectividad, la falta, la que está impactando de manera negativa al futuro de la humanidad; también la abundancia, expresada en la masificación de las herramientas de inteligencia artificial generativa (IA), pone en peligro la integridad de los conocimientos que adquieren, en este mismo instante, niñas, niños y adolescentes (NNA) en todo el planeta.

Todo esto ocurre al mismo tiempo en que la Unión Europea investiga a Meta, compañía a cargo de Facebook e Instagram, por una posible manipulación intencional a NNA mediante los algoritmos de estas plataformas y por no proveer las garantías suficientes de privacidad, seguridad y protección de menores, contraviniendo lo estipulado en la Ley de Servicios Digitales.

¿Alguien quiere pensar en los niños?

Se entiende que las plataformas sociales, por su nivel de alcance, sean el foco permanente de acciones legales e interpelaciones para rendir cuentas. Desconocemos, sin embargo, qué está pasando en cuanto a protección de datos y seguridad digital en las plataformas educativas. El paradero de los miles de datos recopilados durante una hora pedagógica por software “de ayuda” -intervenciones de estudiantes, materiales educativos, métricas de uso, etc.- es una incógnita.

Otro estudio publicado por UNESCO en 2023 es categórico al evidenciar los efectos negativos en la relación entre el uso de smartphones y los resultados educativos, pero también concluye que “si bien la prohibición de la tecnología en las escuelas puede ser legítima en ciertos casos, también se debe considerar su integración adecuada en el aprendizaje”.

Esta ambigüedad normativa se expresa en la falta de consensos mundiales al respecto. En San Pablo, Brasil, el mes pasado se anunció el uso de la IA para mejorar el currículo escolar producido por los profesores y las críticas no se hicieron esperar: cuál es el rol de las maestras en este cambio, cuáles son las líneas éticas que determinarán su uso y qué tipo de control existe sobre posibles afirmaciones falaces emitidas por estos sistemas, por mencionar algunas de ellas.

En Suecia, mientras tanto, la apuesta es por desescalar el avance de las tecnologías al interior de la sala de clases, luego de los magros resultados obtenidos por sus estudiantes, especialmente en cuanto a capacidades lectoescritoras, en mediciones internacionales. Tales efectos también fueron advertidos en nuestra región en 2018.

Como vemos, el problema es de larga data, pasan los años y, más allá de denunciar la guerra y el hambre, e implementar medidas absolutistas tipo “todo o nada”, desconocemos el verdadero impacto, en el mediano y largo plazo, de estas acciones en el aprendizaje escolar.

Un, dos, tres: Madurez

Contrario a las numerosas de voces de alarma que a diario alertan sobre un apocalipsis pedagógico que destruye la capacidad cognitiva de las infancias alrededor del mundo, lo cierto es que la tecnología, una vez más, es el chivo expiatorio de las malas decisiones que toma seres humanos como tú y como yo, a diferencia de que bajo su cargo tienen el destino del aprendizaje de millones de niñas, niños y adolescentes.

Fuentes consultadas para este análisis -madres y padres- así lo afirman: ven en los motores de búsqueda, aplicaciones de aprendizaje y, sobre todo, los juegos una enorme ayuda en la crianza de sus hijos, al permitir delegar en estas herramientas “la parte cuantitativa” de la educación y ocuparse ellas, en cambio, de entregar aquello que no puede medirse con calificaciones.

Un estudio publicado en 2023 en España, fruto de la colaboración público-privada, adopta un enfoque propositivo sobre este tema, preguntándose por el futuro de la IA en la educación, en América Latina. Sus conclusiones son optimistas: hay tiempo, de aquí al 2030, para meditar y establecer legislaciones claras sobre su uso en las aulas, llamando a todos los sectores (gobiernos, privados, academia, sociedad civil) a colaborar en este esfuerzo conjunto. En Latinoamérica nos toca generar instrumentos en esta misma línea, desde nuestro conocimiento de la realidad local a partir de la experiencia.

En este punto de la historia, “Papel v/s Pantallas” no es más que un título sensacionalista para atraer clics que, campañas de miedo o fearmongering mediante, reduce los desafíos en torno a la educación a una mera cuestión de soporte. La realidad nos muestra que el abrupto acceso a tecnologías que no podíamos siquiera describir hace cinco años trae consigo un deber de las personas adultas que las regulan, implementan y utilizan a comportarse como tales.

Un conocido refrán africano sostiene algo similar a la idea de que “Se necesita una aldea completa para cuidar de un niño”. Llegó la hora de hacernos cargo, aldea global.

¡Por elecciones más informadas! El urgente compromiso de las plataformas digitales con la transparencia en México

Se avecinan las elecciones en México, en las que elegiremos a la próxima presidencia de la república. Las tecnologías digitales resuenan dentro de los debates entre las candidaturas, quienes las utilizan como bandera del tecnosolucionismo para sus propuestas, pero también por su rol determinante en el proceso electoral debido al gran flujo de información que transita diariamente a través de plataformas digitales.

Por supuesto, en este ejercicio democrático, la desinformación está presente. De acuerdo con el Instituto Nacional Electoral (INE), “el 87% de mexicanas y mexicanos toman como la principal fuente de noticias las plataformas por internet”, por lo tanto, cuando circulan noticias falsas se vuelve un tema de interés público —por ejemplo, cuando el actual presidente demandó fallidamente investigar granjas de bots que le perjudicaban tanto a él como a la candidata de su partido—.

Sin embargo, una excesiva moderación de contenidos que no cumpla con las normas internacionales de derechos humanos puede mermar la opinión de la población, que no está exenta del recibimiento de este tipo de contenido y que, algunas veces, no cuenta con las herramientas para distinguir entre noticias falsas y verdaderas. En este escenario, se espera que las plataformas digitales se preparen, teniendo una amplia colaboración con las autoridades, pero también con una serie de acciones proactivas que promuevan la transparencia de sus actos ante la desinformación.

Entre la opacidad y los limitados esfuerzos por la transparencia

En este periodo electoral hemos visto casos en los que la transparencia de las plataformas digitales y las autoridades deja mucho que desear. En febrero de 2024, circularon noticias sobre la decisión de Instagram de limitar el “contenido político de cuentas que no sigues”. De acuerdo con la plataforma, esta acción fue tomada para que las personas usuarias de Instagram y Threads tengan una “excelente experiencia” en estos sitios, evitando recomendar de manera proactiva contenido político en secciones como en el feed o los reels; la plataforma asegura que esto no afectará la forma en que se muestra el contenido de las cuentas que sí sigue un usuario. Esta configuración se activó de manera automática y las personas no fueron explícitamente informadas.

¿Qué significa esto en un contexto electoral como el que está viviendo México? Que las personas usuarias son limitadas en su derecho a la información. Si bien es completamente válido que las usuarias no deseen recibir este tipo información y contenidos políticos, es necesario comunicarlo de la manera más transparente posible para respetar el derecho a decidir por cuenta propia.  La falta de transparencia sobre el funcionamiento y configuración de las plataformas genera incertidumbre sobre la selección de contenidos que nos están mostrando al navegar por estos sitios.

Asimismo, en México se cuenta con un marco regulatorio desactualizado respecto a la publicidad electoral y su relación con las plataformas digitales. Hoy en día, en entornos digitales hay múltiples brechas y vacíos legales que le impiden a las autoridades mexicanas, como el INE, tomar decisiones imparciales y claras sobre los contenidos falsos o ilegales que circulan en redes sociales y otras plataformas

De acuerdo con la campaña “Censura Electoral”, impulsada por organizaciones locales y regionales, el INE se ha valido de medidas cautelares para solicitar a las plataformas digitales la remoción de contenido, siendo en 2018 (en las elecciones presidenciales previas) uno de los años con más solicitudes. Al no requerir de una decisión de un juez competente, la medida cautelar promueve una arbitrariedad por parte del INE, poniendo en peligro la libertad de expresión de las usuarias y usuarios de estas plataformas.

Lo cierto es que, a pesar de la opacidad y arbitrariedad, las plataformas están colaborando con las autoridades electorales en el combate a la desinformación para este 2024. De forma conjunta, Meta, el INE y  la organización Movilizatorio lanzaron el programa educativo Soy Digital, con miras a brindar herramientas a la ciudadanía para detectar y denunciar noticias falsas, estrategia que incluye un chatbot en WhatsApp para realizar preguntas directas al INE sobre estas elecciones.

Mientras tanto, Google lanzó su programa Transparencia México para combatir noticias falsas, que implica, entre otras cosas, ajustes en su buscador para mostrar información oficial sobre el proceso electoral; posibilidad de tener mayor información sobre las imágenes, por ejemplo, saber cuándo se indexó por primera vez ese contenido; alianza con proyectos de audio fact checking, y monitoreos de contenido de publicidad engañosa en YouTube.

En este entorno digital, en donde la inteligencia artificial (IA) juega un papel importante en la generación de contenido —mismo que algunas veces es difundido con la intención de generar desinformación— , tanto Meta con su política de anuncios sobre temas sociales, electorales y políticos lanzada en noviembre de 2023 y Google con su programa antes mencionado, buscan alertar cuando una imagen o contenido han sido creados o modificados con IA u otras tecnologías.  A esto se suma una iniciativa proactiva de Meta: su biblioteca de anuncios, la que también ha sido implementada en otros países.

Para transparencia, lineamientos claros

La realidad del ecosistema de opacidad, tanto por parte del gobierno como de las plataformas digitales, genera una preocupación y una traba metodológica para realizar investigaciones sobre el panorama de desinformación en procesos electorales, tal como lo enfatiza Anna Bentes en su investigación sobre las elecciones brasileñas de 2022. La difusión de noticias falsas, la remoción de contenidos sin criterios claros de derechos humanos y la limitación de contenidos consumidos por las usuarias por decisión unilateral de las plataformas son una forma explícita de vulnerar los derechos humanos en entornos digitales como la libre expresión y el acceso a la información.

Existe una delgada línea entre la regulación y la injerencia que debe ser tratada cuidadosamente en las políticas públicas en esta materia. Por una parte, se debe fomentar que los marcos regulatorios en procesos electorales motiven la transparencia de las plataformas digitales sobre sus configuraciones, decisiones e infraestructura para combatir la desinformación con un enfoque de derechos humanos. Por otra, que la colaboración entre autoridades y plataformas no debe implicar la solicitud arbitraria de las autoridades para la remoción de contenidos. De esta forma se evitan abusos y vulneración a los derechos políticos electorales por parte de las plataformas y las autoridades.

Más importante aún, es necesario que las autoridades en México construyan una estrategia clara sobre la transparencia y la desinformación en elecciones, que tengan claridad de los lineamientos y estándares regionales e internacionales de derechos humanos y que las colaboraciones con plataformas se realicen basadas en una amplia comprensión del ecosistema de desinformación en México. Los programas existentes muestran un buen inicio para prevenir a la población, dotándole de herramientas para identificar noticias falsas o promover una cultura de la verificación de la información. Sin embargo, hace falta un mayor alcance de estas acciones para contar con elecciones más y mejor informadas.

En línea, con todas (las partes interesadas)

Libertades de expresión y prensa, garantizadas por el artículo 19 de la Declaración Universal de los Derechos Humanos y, sin embargo, tan frágiles en todo el orbe. Cuidar de que estos derechos puedan ejercerse es una tarea colectiva. Más todavía en el escenario en que nos encontramos, donde la expresión y la prensa no habitan los soportes tradicionales, sino que se trasladaron al campo virtual. Campo poco regulado y en que las grandes compañías tecnológicas lideran lo que fluye al interior y desde sus plataformas.

Esta edición de la Conferencia del Día Mundial de la Libertad de Prensa se enfocó en cómo enfrentar la crisis climática a la luz de fenómenos recientes y acelerados relacionados con los desórdenes informativos. Además, se dedicó tiempo a profundizar en cómo dichos desórdenes están proliferando en internet. La visión tradicional de “la prensa” como grandes conglomerados dedicados exclusivamente a producir y difundir información bajo estrictos (en el mejor de los casos) criterios periodísticos, ha quedó obsoleta ante el auge de las plataformas que ofrecen un soporte similar, pero sin ningún tipo de control.

Como señala esta columna de Patricia Peña, “la relación de los medios periodísticos digitales se vuelve incómoda con las plataformas digitales, tanto las de los motores de búsqueda como las de redes sociales (…) porque actualmente son su principal competidor” en cuanto a las ganancias recibidas por avisaje. Esta tensión no se resolverá sola, y probablemente tampoco por vías judiciales, camino por el que han optado algunas empresas editoriales.

Apostamos por la incorporación de todas las partes interesadas en estos debates, en los que necesariamente debemos hilar muy fino. La responsabilidad de las empresas, las garantías que los Estados y gobiernos deben ofrecer, los términos y condiciones bajo los que las personas usuarias operan en los entornos digitales, y mucho más, requieren la colaboración de voluntades en una relación mutuamente beneficiosa. Es decir, donde conviven diferentes entidades como una compañía y una organización de la sociedad civil que en un principio pueden parecer poco similares, pero que trabajan en conjunto para beneficiarse las unas a las otras, en lugar del parasitismo al que, lamentablemente estamos acostumbradas.

Lo importante es participar y hacer amigas

Uno de los grandes y constantes desafíos que hemos encontrado a lo largo de los casi veinte años de historia de la organización es la comunicación de procesos cerrados de discusión sobre materias regulatorias de internet que se ejecutan, a veces, en secreto; que reúnen a autoridades de alto nivel tanto de gobiernos como de empresas, y que suceden en los idiomas del poder y los negocios (inglés y francés, por lo general), a un público latinoamericano y con acceso restringido a estas instancias.

Muestra de ello es lo difícil que se nos hace traducir la palabra multistakeholder, puesto que las definiciones sobre qué es una “parte interesada” seguramente son distintas dependiendo del país en América Latina y ciertamente difiere mucho la idea que tiene el Norte Global de ella respecto de cómo la concebimos en el Sur. Esto no impidió que el multistakeholderism o la preocupación por la incorporación de todas las partes interesadas en los debates sobre libertad de expresión y regulación de plataformas fuera protagonista durante el WPFD.

Nuestra realidad digital contemporánea está compuesta por múltiples actores: gobiernos; empresas; sociedad civil; la comunidad técnica, y la academia. Todos ellos tienen un puesto asegurado en las mesas donde se decide, a niveles globales, cómo hacer de esta realidad un ecosistema en que la relación entre dichas partes sea positiva para todas. No obstante, lo que hay también pone a prueba los límites de este esquema de gobernanza, puesto que los retos a los que nos enfrentamos solo aumentan.

La información no tiene dueño

La desinformación, el discurso de odio y el abuso de la inteligencia artificial para la creación de noticias falsas son algunos de los problemas asociados con el ejercicio del periodismo y la prensa libre. Esta situación rompe la promesa de la democratización de la información y el acceso libre al conocimiento. En la era digital caracterizada por el capitalismo de plataformas, las famosas plataformas no solo facilitan y controlan las interacciones entre usuarios y entre servicios, sino que también monetizan dichas interacciones y transferencias masivas de datos, creando fortunas jamás vistas hasta ahora.

Esta forma de generar riqueza es un divorcio radical de los modos tradicionales de organización de la actividad económica. No es que los dueños de los medios de producción hayan desaparecido, por supuesto que no, sino que a la par de estos emergió, en un pestañeo, una nueva clase propietaria de la información; y la información es lo que más abunda por estos días: en tu teléfono, en la vía pública, en tu refrigerador. Este escenario, tan próspero para tan pocos, se sustenta a partir de la datificación de afectos y anhelos. Una vida es igual a un bit que, a su vez, es igual a mercancía.

Para atender la evidencia patente de que compañías y personas lucran con difusión de contenidos falsos y/o maliciosos en línea, junto al desorden regulatorio en esta materia producto del frenético avance de todas las tecnologías, para el que los marcos normativos existentes parecen no poder seguirle el ritmo, es que la UNESCO se propuso como misión, en 2021, la creación de directrices para la regulación de plataformas digitales.

Derechos Digitales ha realizado contribuciones a este proceso en cuatro ocasiones (1, 2, 3, 4) y en todas hemos recalcado que los dueños de las plataformas deben hacerse cargo de las eventuales violaciones a derechos fundamentales que ocurran en ellas, que su quehacer se rija bajo estándares internacionales de protección de derechos humanos, y que incorpore una perspectiva de género transversal a todas sus políticas. También abogamos por la inclusión explícita de derechos a las comunicaciones privadas y al uso de tecnologías de cifrado, especialmente en defensa de ataques y persecuciones por parte de Estados.

A pesar de nuestras sospechas iniciales, en este punto de la discusión podemos reconocer que el proceso ha dado lugar a sinergias interesantes que abren la puerta para alianzas claves para equilibrar, en parte, las asimetrías de poder propias de estos espacios. El futuro de los entornos digitales está lejos de ser una asamblea directa, no cabe ilusionarse. Sin embargo, hemos recogido aprendizajes sobre cómo aproximarnos a los desafíos mencionados desde distintos enfoques, de la mano de diferentes actores y actrices, en un contexto situado en América Latina.

Todas las manos

En la recién estrenada edición del reporte Global Information Society Watch, Renata Ávila toma el tema del multistakeholderism y levanta tempranamente las alertas correspondientes: hay falta de referencias para las comunidades que desean ser parte sobre cómo hacer de su contribución una participación significativa, lo que resulta en que procesos que son presentados y dirigidos para múltiples partes interesadas deriven en un ejercicio de blanqueo para quienes participan siempre a través de la tokenización de minorías incorporadas a la mesa precisamente con ese propósito, como para decir: “sí, somos inclusivos” y rendir la cuenta respectiva.

Otro aspecto que es subrayado a lo largo de nuestras contribuciones al proceso es el imperativo de idear maneras constructivas para fomentar la inclusión verdadera y un ejemplo es la creación de consultas regionales sobre los temas que plantea UNESCO. Plazos rígidos y poco tiempo para estudiar las versiones del documento de Directrices que no están en inglés y participación limitada en los debates sobre los contenidos del texto van en la dirección opuesta.

Pero, pese a que el tamaño de la mesa de la toma de decisiones es reducido y las sillas, incómodas, la infraestructura de internet somos todas. Las libertades de expresión y prensa también son fundamentales para hacer de la participación algo valioso y viceversa: la buena participación multisectorial garantiza que estos derechos se ejerzan de manera cabal y en todo lugar. Estas son parte de las reflexiones que pudimos entregar durante la Conferencia y que, por cierto, seguiremos trabajando de aquí en adelante.

Repartidores de aplicaciones: precarización al servicio del algoritmo

*This text is available in english here.

Poca atención hemos prestado, por ejemplo, al uso y propagación de los eufemismos que dislocan el lenguaje, y que obligan a llamar de otra forma al trabajo que se desempeña con la intermediación de plataformas. No son llamados trabajadores, sino ‘usuarios’.

Pensemos en el trabajo de los repartidores de comida, ejercido por personas que encuentran allí su principal o única forma de sustento económico. Es un trabajo que sabemos que se presta sin garantías de estabilidad laboral, sin salarios mínimos ni formas de protección y seguridad social básica, como salud o pensión. Un trabajo expuesto al rayo del sol y el agua, y bajo pobres condiciones de seguridad vial.

Es una actividad donde los trabajadores son calificados como ‘usuarios’ de aplicaciones tecnológicas ofrecidas por plataformas digitales que les permiten utilizarlas – la mayoría de las veces cobrándoles por ello– para contactar a restaurantes con usuarios/consumidores.

Un trabajo donde los repartidores no perciben salarios sino ‘propinas’, y donde las órdenes no las dicta un jefe, sino un algoritmo exento de responsabilidad o rendición de cuentas, pero que indica el cómo y dónde de la actividad a desempeñar. 

Se trata de una forma de trabajo que las doctrinas canónicas del derecho laboral temen denominar como tal, pues no encaja en la fórmula tradicional de las relaciones laborales según la cual se denomina trabajo a toda relación de subordinación, en la que el empleador dicta las condiciones del trabajo a otro, un empleado, y vigila su cumplimiento.

Ahora ¿por qué no se denomina trabajo a la actividad desempeñada por los repartidores de comida? Porque según las plataformas de repartidores, son libres de ejercer de manera independiente su actividad.

No son trabajadores, sino ‘repartidores independientes’

Pero ¿qué libertad tienen quienes encuentran en entregar comida a otros su único o principal medio de supervivencia económica? ¿qué independencia puede ejercer la persona que se rinde al dictado del algoritmo que establece, de manera arbitraria, cuál debe ser la cantidad aceptable de domicilios diarios para asignarle los mejores pedidos? o ¿cuál debe ser el tiempo mínimo de su entrega para que el repartidor no se exponga a algún tipo de sanción como puede ser, por ejemplo, la no asignación de ningún pedido en la plataforma?

No es considerado trabajo, pese a que como en cualquier empleo, las plataformas digitales de domicilios de comida pueden sancionar a quien incumple los ‘términos y condiciones’ del servicio, a través del bloqueo de la cuenta. Un bloqueo que, más allá de poner en riesgo el sustento vital del repartidor, se efectúa la mayoría de las veces sin mediar derecho a réplica o explicación alguna.

En definitiva, un trabajo que plataformas digitales y a veces los mismos reguladores de nuestros países se abstienen de calificar como tal, pese a que, en un contexto de crisis, como la pandemia, pocos dudaron en calificar y tratar como ‘trabajo esencial’.

Los eufemismos en las Altas Cortes: el caso de Colombia

El poder que tienen los eufemismos para disfrazar la realidad de lo que no es, también radica en convencer a otros de que su tarea no es examinarlos ni desmontarlos, sino en apuntar la vista hacia otra parte.

Por ejemplo, en Colombia, la Corte Constitucional falló en febrero de este año, un caso que involucraba a un repartidor afiliado a Rappi, la empresa colombiana de entrega de domicilios más grande del país y que presta servicios en varios países de América Latina.

El caso es más bien sencillo, pero sus matices por los eufemismos en juego fueron obviados por la Corte. En la acción de amparo o tutela, un repartidor había reclamado judicialmente por la vulneración de su derecho al debido proceso, pues le había sido bloqueada su cuenta sin que mediara justificación de la empresa que, por su parte, aludió al incumplimiento de los términos y condiciones del servicio una conducta acostumbrada por Rappi al punto de que la compañía tuvo que crear, por demanda del sindicato de domiciliarios, una Defensoría del Repartidor.

El reclamo judicial fue resuelto por la Corte al decir que el debido proceso, que comprende el derecho a recibir explicaciones frente a la aplicación de sanciones entre particulares, también rige a la relación de consumo entre los repartidores y Rappi. Y, en consecuencia, ordenó a la empresa a explicar de manera fundada y suficiente los motivos de su actuar a la persona afectada.

Pero la Corte evadió cualquier consideración que permitiese dar claridad sobre la naturaleza de la relación jurídica entre repartidores independientes y la plataforma digital, tan necesaria para que, por ejemplo, estos puedan reclamar condiciones dignas para la prestación de su actividad ‘esencial’. Esta omisión no inhibió a la Corte de afirmar que el bloqueo de la cuenta había puesto en riesgo el derecho al mínimo vital del repartidor afectado, entonces ¿qué relación de ‘consumo’ es esta que, una vez interrumpida por la parte más poderosa de esa relación contractual, es capaz de poner en peligro la subsistencia económica de la otra?

Los eufemismos que contaminan el lenguaje con el que nos referimos a la relación entre los repartidores –y otro tipo de trabajadores- y las plataformas digitales ameritan ser vistas de cerca, para que no sean el instrumento con el que, en la práctica, validemos la precarización de nuevas formas de trabajo que no resultan convencionales ante viejos dogmas.

De esos análisis tendremos que ocuparnos también, en las discusiones que tengamos sobre el futuro del trabajo y de los trabajadores en nuestra región. Como la sucedida en Europa, que luego de dos años de negociaciones, se adoptaron reglas aplicables a los repartidores de comida y conductores de vehículos de alquiler –como Uber- que, a través de una Directiva reciente, los ha calificado como verdaderos trabajadores y no como simples ‘independientes’, presumiendo una relación laboral entre estos y las plataformas digitales.

Ola Bini y la criminalización del conocimiento

“El caso de Ola Bini se ha convertido en un emblema de la persecución que viven las personas expertas en seguridad digital en la región”, escribíamos hace unos meses en el marco de la presentación del libro “Colateral”, de Diego Cazar sobre el mencionado caso. Como organización que trabaja en la defensa de los Derechos Humanos en entornos digitales, hemos abordado este asunto en reiteradas oportunidades y apoyado la campaña #FreeOlaBini.

Se trata del programador sueco detenido en 2019 en Ecuador, acusado de ser cercano a Wikileaks y de participar en intentos para desestabilizar al gobierno ecuatoriano. En agosto de 2019, la fiscalía general del Estado lo acusó de acceso no consentido a un sistema informático de la Corporación Nacional de Telecomunicaciones (CNT) en el año 2015. 

Bini fue arrestado el 11 de abril de 2019 cuando pretendía viajar a Quito con destino a Japón, apenas unas horas después de que el Gobierno ecuatoriano, bajo el mandato de Lenín Moreno, pusiera fin al asilo de Julian Assange en su Embajada en Londres.

En esa ocasión, escribíamos que “no existen antecedentes suficientes ni para la inicial acusación de ser parte de una red de espionaje digital, ni de otras de ‘defraudación fiscal’ o ‘tráfico de influencias’, manteniéndose hasta hoy una investigación con características de persecución política”.

Ola Bini salió en libertad luego de 70 días mediante un recurso de hábeas corpus. El vínculo entre Bini y Assange fue utilizado en reiteradas ocasiones durante el juicio y luego de este. El 31 de enero del 2022 un tribunal ratificó, por unanimidad, la inocencia de Ola Bini.

Sin embargo, el viernes 5 de abril de 2024, más de un año después de haber declarado la inocencia de Ola, un tribunal de apelaciones revocó el fallo de inocencia dictado en 2023 y lo condenó a un año de prisión y a una multa de 1.840 dólares. El 8 de abril de este mismo año, tres días después del fallo, un tribunal de la provincia de Pichincha (Ecuador) aceptó la solicitud de suspención de la condena presentada por la defensa de Ola.  Además, estableció nuevas condiciones para el sueco que deberá “presentarse cada 15 días ante la autoridad competente, no salir del país sin autorización del juez, tener domicilio determinado, ejercer un trabajo, profesión u oficio; no ser reincidente y no ser procesado por otra causa”.

Durante estos años, la sociedad civil, y la defensa de Binihan denunciado diversas irregularidades en el proceso que deberían haberse resuelto en 2019, todo como resultado de un proceso que ha sido suspendido varias veces.

Más allá de la suspensión condicional de la pena de un año de cárcel impuesta por el delito de acceso no consentido a un sistema informático en grado de tentativa, el abogado a cargo del caso Carlos Soria Ávila, nos comentó que apelará para que en la instancia de casación los jueces de la Corte Nacional de Justicia analicen los fallos.

 Según palabras del abogado, el caso representó una “pena ambivalente”, es decir, “tiene un componente de privación de libertad en un centro de detención, un año, por haber sido un tema de tentativa, y no haberse consumado el supuesto delito”. Sin embargo “la pena fue suspendida para que pueda ser cumplida fuera de un centro carcelario, pero esto solo en caso de que perdamos la apelación y el recurso de casación”, proceso que todavía continúa.

Soria Ávila nos dijo que en su opinión “El fallo es completamente ridículo, antitécnico, antijurídico, incluso porque hacen precisiones ajenas al ordenamiento jurídico nacional, e incluso a nivel dogmático. El razonamiento de la pena es que, porque Ola tiene el conocimiento y tiene las capacidades para poder cometer un delito por su formación en este ámbito, lo hacen responsable de haber intentado cometer el delito”. Es decir, “ni siquiera es porque haya hecho algo, sino porque tiene las capacidades”. Se refiere a la pena como una “criminalización del conocimiento pura y dura, en la que se pretende generar miedo en las personas que se dedican a la seguridad y privacidad digital”. Destaca también, que “el profundo desconocimiento del tema técnico en el país es asombroso. Es preocupante, además porque se está persiguiendo a los defensores de los derechos digitales. Y esto es un aliciente perverso para el Ecuador”.

En una conferencia en 2013, Ola Bini propuso la posibilidad de transformar a Ecuador en un paraíso de la privacidad informática.  Hoy declara: “Yo pensé que en ese entonces existía la posibilidad, pero la verdad es que el panorama político ha cambiado mucho. Lamentablemente, no estoy seguro si es posible recuperar esta posibilidad ahora. Hay otras luchas más importantes, como por ejemplo reformas sobre ciberdelitos, o la figura de agente informático encubierto”.

En la condena a Bini se mencionó lo peligroso que podría ser debido a sus conocimientos técnicos. Al respecto, opina:  “Los jueces dijeron claramente que me condenan porque yo tengo la posibilidad de cometer delitos por mis conocimientos. Y claro, es muy peligroso para muchas personas en Ecuador, pero especialmente personas que trabajan con ciberseguridad”.

Asimismo, destaca que las auditorias de seguridad son medidas muy importantes para mantener la seguridad.  Sin embargo, es difícil determinar si el conocimiento adquirido podría ser suficiente para una condena.  Actualmente subraya, “sería muy peligroso estudiar estos temas. Vamos a quedar sin expertos que sepan cómo protegernos, y el resultado es que habrá más incidentes y ataques de ciberseguridad”.

La seguridad informática es un problema grave en Ecuador. En el año 2019, ocurrieron las filtraciones de Databook y Novaestrat, donde se filtraron datos personales de la población de todo el país. Estos casos marcaron el inicio de muchas filtraciones de datos y fallas de seguridad que no han parado desde entonces.

Dentro de este contexto, lo que Ecuador necesita son personas con conocimientos en seguridad digital para fortalecer los sistemas y garantizar la seguridad de los datos de la ciudadanía. En lugar de penalizar el conocimiento técnico, como si estuviéramos viviendo en la Edad Media, necesitamos fomentar un mayor conocimiento y una mayor investigación.

Es más urgente que nunca contar con conocimientos en seguridad informática que ayuden a tener sistemas más seguros.

Inteligencia artificial más allá de la polarización

La edad avanza y llegamos a un punto en la vida en que vemos con curiosidad que las cosas se repiten. Convivimos por décadas con un tecno-optimismo que nos hizo ciegas a la complejidad implicada en el desarrollo tecnológico. Discursos sobre el potencial de internet para facilitar el acceso a todo – la cultura, el conocimiento, la información, la educación, etc. – olvidaban que esas mismas tecnologías no se diseñan, ni se implementan en el vacío. Un escándalo tras la exposición de cómo las principales potencias mundiales utilizaban la misma infraestructura de internet para meterse en las comunicaciones privadas de todo el mundo – incluidos jefes de Estado – fue necesario para traernos de vuelta a la tierra. Sí, las tecnologías digitales pueden y han generado mayor democratización en algunos ámbitos de la vida y para algunas personas. Pero no, no se trata de una panacea que nos va a salvar de todos los males del mundo. Al contrario, puede exacerbar algunos de esos males.

Entra 2024 – 11 años desde las lecciones dejadas por las revelaciones de Snowden –, pero parece que retrocediéramos en el tiempo. Se reemplaza “internet” por “IA” y nuevamente se multiplican expectativas sobre los potenciales beneficios (en este caso, rara vez comprobados) de esta innovadora tecnología. Incluso, frente a críticas sobre su implementación y crecientes evidencias de sus impactos en el ejercicio de derechos, se apuesta a cómo nos ayudará a superar problemas históricos y estructurales que van desde la crisis climática hasta el acceso a salud de calidad y la inclusión de personas con discapacidad. Hay quienes dicen, incluso, que la IA ayudará a combatir la desinformación – quizás ignorando u olvidando que las decisiones algorítmicas automatizadas por detrás de la priorización de contenidos en las plataformas de redes sociales están entre las raíces del caos informativo en la esfera pública digital.

Una “inteligencia” socialmente construida

Lo que se conoce como IA hoy se refiere, en gran medida, a un conjunto de procesos y técnicas que permiten a un sistema computacional hacer cálculos estadísticos capaces de identificar patrones y a partir de ellos, predecir comportamientos. Podría parecer obvio, pero es importante resaltar que pese a la referencia a la inteligencia humana, este tipo de sistema está lejos de tener una capacidad crítica o empática, por ejemplo.

Ellos dependen de al menos (i) la disponibilidad de bases de datos que permitan “entrenar” determinados modelos matemáticos para sacar inferencias, (ii) la existencia de masas de trabajadoras clasificando y etiquetando estas bases de datos según diferentes criterios, (iii) el desarrollo de los modelos algorítmicos responsables de los cálculos, y (iv) una interfaz para la interacción con las usuarias finales o con otros sistemas. Para que la IA exista es necesaria también una infraestructura física, compuesta por cables de telecomunicación, satélites, centros de datos, súper computadoras con extrema capacidad de procesamiento, baterías, etc.

Más allá de la idea de automatización, cada uno de esos procesos implica un conjunto de decisiones humanas influidas por aspectos culturales, éticos, históricos y sociales y, en algunos casos, afectada por factores políticos y económicos. Como en el caso de cualquier tecnología, la IA no es neutral y tampoco fruto de cualquier tipo de magia.

Como sintetiza el investigador de la Universidad de Edinburg, Ben Williamson: esos sistemas materializan formas particulares de percibir el mundo y a su vez pueden influenciar y modelar la manera como las personas actúan en el mundo. Académicas feministas hace mucho apuntan a ese aspecto. La australiana Judy Wajcman, por ejemplo, ha explorado ampliamente cómo las relaciones de género se encuentran materializadas en las tecnologías – que no solo incorporan nociones de masculinidad y femineidades socialmente construidas, sino que luego pasan a ser parte en la construcción del significado de tales conceptos. Y Ruha Benjamin, profesora en la Universidad de Princeton, a su vez, presenta la idea de diseño discriminatorio al identificar cómo las jerarquías raciales son normalizadas en la producción tecnológica.

Por otro lado, tal como el diseño y la implementación de las tecnologías y la IA son permeadas por factores culturales y sociales, también lo son sus usos. Aplicaciones y sistemas desarrollados para ciertos fines, pueden muy bien ser utilizados para otros y los ejemplos abundan. Al contrario de una idea determinista de que los sistemas producirían por sí mismos ciertos resultados – positivos o negativos – en la sociedad, se trata de pensar que los usos de las tecnologías son múltiples y que están en constante interacción con los contextos en que son implementadas.

IA: ¿para el bien, o para el mal?

No es posible, por lo tanto, hablar de una AI for good, o “IA para el bien”. Ese tipo de idea además de mostrar como los aprendizajes, aunque dolorosos, pueden no ser duraderos, refleja nociones deterministas y simplistas sobre las tecnologías que perjudican las importantes discusiones sobre su gobernanza.

El énfasis en el (supuesto) objetivo de determinado sistema – como si hubiera fines legítimos “para el bien” que justificaran el no cumplimiento de determinadas obligaciones –, opera como una cortina de humo que nos distrae de los procesos productivos por detrás de su desarrollo y despliegue. Antes de emprender la imposible tarea de enumerar despliegues positivos o negativos de IA, como si las mismas nociones de “bien” y “mal” fueran estáticas y universales, nuestros líderes deberían reforzar los principios acordados en el marco internacional de derechos humanos a todas las etapas de producción de IA.

Eso implica garantizar que las bases de entrenamiento cumplan con estándares de protección de datos; que las personas que trabajan en la cadena de producción de la IA – sea en la extracción de minerales usados para la creación de productos tecnológicos, sea en el etiquetado de datos – reciban una compensación justa por su trabajo y tengan observados sus derechos laborales; que los data centers obedezcan la legislación ambiental; que las personas indígenas sean consultadas de manera previa antes de intervenciones que puedan impactar sus derechos. Algunas de estas recomendaciones incluimos en el insumo de Derechos Digitales al reporte intermedio del Órgano Asesor sobre IA de la Organización de las Naciones Unidas.

No hay magia

Ningún “bien” puede derivar de la vulneración indebida de derechos garantizados. Adoptar una perspectiva de derechos humanos al enfrentar los desafíos de la gobernanza de IA significa avanzar en mecanismos para lidiar con situaciones complejas y concretas. Tal compromiso debe ir mucho más allá de la creación de principios éticos o declaraciones vacías, pero garantizar, por ejemplo, que las empresas y los Estados sean debidamente responsabilizados en el caso de abusos derivados del desarrollo o despliegue de IA.

El marco de legalidad, necesidad y proporcionalidad es una buena referencia tanto para la resolución de conflictos, como para guiar la digitalización de manera que dichos procesos no impliquen ni un incremento en el deterioro ambiental o reemplacen necesarias inversiones en infraestructura básica de educación, salud, entre otras. Además, resulta fundamental llevar a cabo estudios de impacto en derechos humanos con una participación amplia y diversa para guiar decisiones de diseño y despliegue.

El avance de los Objetivos de Desarrollo Sostenible, la “modernización”, “progreso” o la “participación en la economía digital” no pueden ser excusas para la promoción de tecnología de manera irresponsable. La transformación social y la superación de desigualdades siempre dependerá de compromisos sostenidos de los Estados y del apoyo y participación de las distintas partes interesadas. La realidad muestra y reitera que no existen las fórmulas mágicas.

Fiebre de vigilancia en las gradas

En toda América Latina por décadas la afición al fútbol ha sido acompañada por la crónica roja, la presencia en los estadios de barristas a favor o en contra viene marcada por hechos de violencia, desde peleas entre barras bravas en las calles hasta invasiones de campo, en ocasiones con consecuencias fatales. Ejemplos, desafortunadamente, sobran. 

Pero tal como ocurre con la conmoción social asociada a la delincuencia en los espacios públicos, junto con cada reporte de violencia dentro o alrededor de los estadios de fútbol se alzan voces que exigen mayor seguridad. Más controles en la venta de entradas, más presencia de guardias armados, más presencia policial en los alrededores de los recintos deportivos y más represión.

Y tal como ocurre con los espacios públicos, con un oportunismo y entusiasmo por una transformación digital a través de sistemas biométricos para identificar a cada hincha, se ha incluido la implementación del reconocimiento facial en los estadios de fútbol. Si bien se presenta como una medida de seguridad y control de acceso eficiente, su adopción plantea desafíos éticos y legales significativos.

Marca personal

El funcionamiento del reconocimiento facial exige por una parte la digitalización del rostro de manera automatizada, y por otra un registro biométrico preexistente con el cual cotejar. Sea para verificar que se trata de una persona específica, o para identificarla entre un universo de posibles personas. Así, la identificación de personas impedidas de ingresar a estadios podría lograrse, en principio, con ayuda de tecnologías de reconocimiento facial. 

No obstante, lo que vemos avanzar desde hace varios años son sistemas de registro ex ante de las personas asistentes a estadios, mediante sistemas como el FAN ID que circula desde la Copa del Mundo de 2018 hasta el Registro nacional de hinchas que se exige en Chile desde 2024, como métodos de fría entrega de datos como condición previa para ser parte de una pasión de multitudes.

Con diferentes  tipos de despliegue en varios países de la región se han ido incorporando tecnologías de reconocimiento facial durante los últimos años. La industria se ufanaba en Uruguay de ser pioneros en la instalación de estas tecnologías en la década pasada. También entonces en Argentina se anunciaban avances tecnológicos y pasaportes digitales, que ya tenían el antecedente de una intensa videovigilancia. En Colombia la industria promueve su tecnología tanto para el fútbol como para otros espectáculos en estadios deportivos.

En Brasil, años después de exponer a la afición de toda la región en la Copa América de 2019 las noticias declaraban uso efectivo en un estadio y sucesivos anuncios de instalación en otros.  En México se aceleró la adopción tras una escandalosa batalla campal con decenas de heridos, y si bien la autoridad de control de datos personales intervino tras la creación de nuevas formas de identificación de hinchas, el uso de identificadores o “pasaportes” digitales como el FAN ID ha extendido su uso. 

En Chile, desde 2023 se prueban estos sistemas y cada vez más estadios en todo el país anuncian su instalación. La policía en Paraguay ha anunciado este año el uso de reconocimiento facial en estadios. Y así, nuevos anuncios de intenciones o de planes aparecen con frecuencia, azuzados por sus vendedores.

Peor que el VAR

Como hemos denunciado por años, la promoción de estas tecnologías está acompañada por discursos que le atribuyen efectividad para identificar individuos y así disuadir la violencia y garantizar un ambiente seguro para hinchas y sus familias. Es un elemento crucial la percepción de seguridad asociada a la presencia de elementos de vigilancia.

Sin embargo, esta aparente solución de seguridad plantea una serie de preocupaciones éticas y legales. En primer lugar, el uso generalizado del reconocimiento facial en los estadios de fútbol conduce casi necesariamente a una vigilancia masiva de los aficionados, erosionando su privacidad y sus libertades individuales. Además, existe el riesgo de errores y sesgos inherentes a los algoritmos de reconocimiento facial, lo que podría resultar en identificaciones erróneas y la exclusión injusta de espectadores inocentes. Esto plantea interrogantes sobre la equidad y la justicia en el acceso a los eventos deportivos, especialmente en una región tan diversa como América Latina. 

Por cierto, aún si los sistemas funcionan bien y sin errores, la intensa vigilancia que conlleva la captura y el uso de datos biométricos crea nuevas instancias de vulnerabilidad sobre las personas vigiladas.

La recopilación y el almacenamiento de datos biométricos, como las imágenes faciales, plantean riesgos significativos en términos de seguridad y potencial abuso por parte de las empresas, las autoridades o de terceros malintencionados: nuevas bases de datos que pueden ser explotadas por empresas sin criterios claros, o utilizadas sin autorización por bandidos cibernéticos, comercializadas inescrupulosa o ilegalmente, o entregadas sin resguardo alguno de debido proceso a la autoridad. Ninguno de esos riesgos debería ser aceptado como condición para ser parte de espectáculos deportivos o artísticos.

Goles y autogoles

Quizás uno de los aspectos más desmoralizantes de la insistencia por la securitización mediante tecnologías digitales, es la facilidad con que las autoridades políticas hacen propio el discurso de los mercaderes de la vigilancia.

A modo de ejemplo, mientras en Chile avanza discutiendo el detalle de los últimos artículos para renovar su Ley de Datos Personales, incluyendo mejor protección en el caso de datos biométricos, una comisión de la Cámara de Diputadas y Diputados aprobó de manera expresa la exigencia del uso de biometría en los estadios de fútbol profesional. 

Excelente momento para ser vendedor de tecnologías de vigilancia, pésimo momento para ser hincha. Como reconoce Aldo Rómulo Schiappacase, “para controlar a los más violentos se aplican medidas que afectan a todos los hinchas”, en otro esquema de recolección masiva de información y control sobre la totalidad de un grupo, en atención a la incapacidad de prevenir las incivilidades de algunos de sus miembros, o peor aún, de reconocer y prevenir las causas de la violencia en los estadios. En este caso, el grupo afectado es precisamente aquel que decide acudir presencialmente a atestiguar la gloria deportiva. Cada hincha, por ser hincha, pierde en parte su presunción de inocencia, su libertad de reunión pacífica, su autonomía individual.

Quién tiene la pelota

Todo lo dicho es más que sabido. Las preocupaciones han aparecido una y otra vez, e igualmente el discurso avanza en un único sentido: cada vez más vigilancia, sin resultar en mejoras sustantivas para la seguridad y hasta alejando a la afición de los estadios.

¿Hasta qué punto estamos dispuestos a sacrificar la privacidad y libertades individuales en aras de la seguridad y el orden público? Si bien es indudable que la seguridad en los eventos deportivos es prioridad, es crucial encontrar un equilibrio entre la protección de los aficionados y el respeto a sus derechos fundamentales. Y ese equilibrio no se alcanza con medidas tan intrusivas como lo es el reconocimiento facial.

Así, al menos lo consideró este año la autoridad de control de datos personales en España, al advertir a su poderosa Liga local frente a la licitación de sistemas de reconocimiento facial, un año después de haber ordenado el cese del funcionamiento de sistemas biométricos y la eliminación de la información recabada. Más importante; sugiere la búsqueda de alternativas menos intrusivas: que a un problema identificado se le busque la solución adecuada, en vez  de inventar ajustes para una solución ya elegida.

Podemos volver a repetir la importancia de enfoques que consideren la eficacia de la tecnología y sus implicaciones éticas, legales y sociales, como también la necesidad de salvaguardias adecuadas de transparencia, auditabilidad y rendición de cuentas. O reiterar que un enfoque equilibrado debe considerar a la vez medidas tecnológicas y políticas públicas sólidas, no centradas en vigilancia y represión como en prevención e inclusión, con participación significativa de la sociedad civil para garantizar que se aborden todas las preocupaciones pertinentes. Todo eso es valioso.

No obstante, un debate serio sobre la adopción de estas tecnologías debe enfrentar también la posibilidad real de no adoptarlas. El auténtico respeto por la afición exige no vulnerar sus derechos por una falsa expectativa de seguridad.

Las múltiples caras de la violencia contra periodistas en El Salvador

Ante el profundo cierre democrático que prevalece en el Salvador, el entorno digital se ha convertido en un canal indispensable para ejercer la libertad de expresión, libertad de prensa y la defensa de los derechos humanos.

Desde Derechos Digitales hemos documentado en varias oportunidades  las situaciones de censura, violaciones al derecho de acceso a la información, y limitaciones a la libertad de expresión que se viven en El Salvador desde hace años. 

En el difícil contexto, es sumamente importante reflexionar sobre el estado de medios, periodistas y personas encargadas de mantener informada a la población.

Violencia Digital hacia periodistas en elecciones

El domingo 4 de febrero de 2024 se realizaron las elecciones presidenciales en el país. Resultó reelecto el candidato del partido Nuevas Ideas, Nayib Bukele, con el 81% de los votos tras un proceso permeado por distintos cuestionamientos. 

En el período previo a las elecciones, entre julio de 2023 y febrero de 2024, la Asociación de periodistas de El Salvador (APES) monitoreó los ataques recibidos por la prensa y los periodistas.  El informe resultante reportó 64 casos, la mayoría ocurridos en el ámbito digital. Otro reporte de APES, sobre «Vulneraciones a la prensa» indica que los tipos de ataques más comunes limitan seriamente su labor como periodistas, debido a que la censura de la que son víctimas restringe el libre ejercicio de su profesión. Declaran que sufren declaraciones estigmatizantes, acoso, difamación, amenazas legales, vigilancia y ataques vinculados al género hacia periodistas mujeres. 

La situación tuvo repercusiones en medios y organizaciones del continente y el mundo. Reporteros Sin Fronteras, en conjunto con organizaciones internacionales vinculadas a la libertad de prensa y expresión, condenaron públicamente las agresiones sufridas por la prensa en el marco de las elecciones salvadoreñas. Su llamado fue “para que se establezcan las condiciones y garantías necesarias para que las y los periodistas puedan ejercer su labor, la ciudadanía esté informada, y se reconozca el papel de los medios en el fortalecimiento de la democracia”.

Violencia de género como norma

En este contexto de violencia, agresiones, censura y silenciamiento creciente, no debería sorprendernos que el componente de género ocasione impactos diferenciados. Decisiones gubernamentales como el del Ministerio de Educación de remover todo contenido relacionado a la perspectiva de género de materiales educativos bajo la amenaza de “despedir profesores” que los difundan, reflejan la preocupante postura estatal respecto a la desigualdad de género. Conforme ha sido referido por organizaciones de la sociedad civil, la medida no solamente implica un retroceso, sino que amenaza con elevar los índices de violencia sexual. 

De hecho, cifras como las identificadas en el “Informe sobre violencia digital basada en género dirigida hacia mujeres periodistas”, publicado también por APES en enero de este año, demuestran que la violencia sexual es central en los ataques recibidos. Dicho informe, indica que durante el período de análisis, entre el 1 de octubre de 2023 hasta el 10 de enero de 2024, se registraron un total de 45.530 ataques digitales. Las mediciones señalan que el 17.5% de todos los comentarios contra mujeres periodistas son de tipología de violencia sexual. A su vez, se identifica que el 7% de los ataques dirigidos a hombres periodistas se basan en contenido transfóbico, homofóbico y misógino; lo cual denota que existe un fuerte componente de violencia basada en género incluso cuando ésta está dirigida a los hombres.

El informe puntualiza que las situaciones de violencia suceden generalmente en reacción a posturas de periodistas sobre la administración actual, especialmente en el marco de investigaciones o coberturas periodísticas en el marco del contexto electoral.

Los análisis realizados por APES concluyen que los principales agresores han sido funcionarios públicos, además de las Fuerzas Armadas, partidos políticos, instituciones públicas, entre otros. Los perfiles están compuestos tanto por influenciadores afines al gobierno, como de cuentas anónimas o automatizadas – los bots, conocidos en El Salvador como “troles”- y utilizan direcciones IP localizadas en Estados Unidos. Esto significa que se trata de cuentas que en su mayoría, son muy difíciles de rastrear.

Cabe señalar que El Salvador no cuenta con una legislación específica sobre violencia de género en línea, y a pesar de que cuentan con leyes aplicables a estos ámbitos como la ley especial integral para una vida libre sin violencia (LEIV) y la ley de Delitos Informáticos, expertas señalan que «esto no ha dado una garantía ni una mayor protección legal hacia este grupo de personas, como son las mujeres«. En ese contexto, no se puede perder de vista que al ser los responsables de las violencias ejercidas miembros estatales o afines al gobierno – como indican los informes – inevitablemente, como mínimo, se dificulta la aplicación de la legislación existente.

Violencia y vigilancia institucionalizadas

El pasado 27 de marzo, se cumplieron dos años del régimen de excepción, que implicó una serie de reformas legales en un Estado que continúa evadiendo sus obligaciones en materia de derechos humanos. En febrero de 2022, la Asamblea Legislativa de El Salvador aprobó una reforma del código penal que legitimaba el espionaje digital, como parte de la consolidación del poder de Bukele. Desde el su primer mandato, la represión hacia la prensa ha aumentado a pasos agigantados. Bukele ha atacado continuamente a los medios de comunicación, acusándolos de promover “fake news”.

Un claro ejemplo de esto es el del periódico “El Faro”, uno de los principales medios de comunicación independientes de El Salvador, cuyos miembros han sido objeto de hostigamiento, amenazas, intimidaciones y estigmatización (principalmente en espacios digitales) en base a sus labores periodísticas. Así lo ha reconocido la Comisión Interamericana de Derechos Humanos (CIDH) mediante el otorgamiento de medidas cautelares a favor de 34 miembros del periódico y su posterior resolución de seguimiento. La resolución indica que la información presentada demuestra que los derechos a la vida y a la integridad física de los miembros de «El Faro» se encontraba en situación de gravedad y urgencia. Para ello, la Comisión consideró las amenazas, el acoso y las agresiones recibidas por las periodistas mediante redes sociales, así como el seguimiento de las oficinas del periódico por determinados periodos de tiempo, presuntamente por el Organismo de Inteligencia del Estado.

Además de los ataques por múltiples medios y formatos, una investigación liderada por Citizen Lab en conjunto con organizaciones latinoamericas identificó que el software espía Pegasus había sido instalado en los teléfonos de al menos 35 periodistas y miembros de la sociedad civil. En el caso de “El Faro”, las investigaciones señalan que durante un periodo de 17 meses se tuvo acceso total a los aparatos de más de la mitad de su personal en fechas específicas que coinciden con procesos de investigación específicos llevados a cabo por el medio y con acontecimientos relevantes en la vida política o ataques gubernamentales contra el periódico. La conjunción de hechos, más el peligro diario para sus trabajadores, llevaron al medio a emigrar a Costa Rica

Estos hechos no son aislados, sino que se insertan dentro de una preocupante estructura de vigilancia que se ha ido consolidando como estrategia de gobierno. Así por ejemplo cabe recordar el préstamo multimillonario de 109 millones de dólares para la ejecución de la Fase 3 del Plan de Control Territorial aprobado forzadamente tras la toma militar del congreso. Conforme señalaron los medios de comunicación, el préstamo consolida la militarización de la seguridad pública mediante la adquisición de tecnologías de vigilancia. Entre éstas se encuentran cámaras de vigilancia con un nuevo sistema de reconocimiento facial, además de drones y diversos centros de monitoreos para la policía y el ejército.

Una respuesta urgente

La libertad de expresión y la libertad de prensa son derechos humanos. Que la prensa esté informada, pueda acceder a la información, garantir la protección de sus fuentes e informar sobre lo que sucede sin temer por su integridad física o su continuidad laboral, debería ser una prioridad ineludible en defensa del derecho al acceso universal a la información.

Nada de eso está garantizado ahora en El Salvador. En tal contexto de institucionalización creciente de la violencia y la vigilancia, incluso contra periodistas, y frente a la amenaza latente de una mayor radicalización luego de la victoria electoral, es urgente que las instituciones internacionales refuercen el monitoreo de la situación y la exigencia de medidas concretas por parte del Estado salvadoreño. Además del restablecimiento de las garantías a los derechos fundamentales, es crucial que se incrementen los mecanismos de protección a periodistas.

Conociendo la influencia que el gobierno Bukele ha tenido sobre la extrema derecha latinoamericana, una respuesta fuerte de la comunidad internacional es crucial. Desde la sociedad civil seguimos en alerta máxima para que situaciones como las registradas en El Salvador en los últimos no se sigan repitiendo en nuestra región.

Volver a lo básico: la importancia de delimitar nuestros espacios de exposición 

Se puede pensar a la privacidad como tener el control de qué parte de nuestra vida compartimos y con quién. No es lo mismo una conversación de pareja, un intercambio familiar, que el que se tiene con amigos, o con colegas de trabajo. En cada conversación nos comportamos de una forma diferente, basada en el contexto, porque entendemos muy bien con quién nos comunicamos.

En internet esto no funciona así. Si bien hay quienes creen que la comunicación es anónima, la verdad es que cuando hacemos algo cotidiano, como enviar un mensaje vía WhatsApp, esta empresa conoce al remitente, destinatario, los teléfonos que intervienen, la hora y la frecuencia en que sucede la comunicación. Una empresa de telecomunicaciones puede acceder a información muy similar cuando utilizamos nuestro teléfono móvil. Quien tenga acceso a esos datos, a su vez, puede inferir mucho sobre nuestros hábitos más íntimos. Del mismo modo: el contenido que publicamos en Facebook puede ser visto por las personas que conocemos y queremos, pero también por personas totalmente desconocidas, a depender de nuestras configuraciones de privacidad y seguridad. El contexto dirá si tal acceso puede mostrarse peligroso o no.

La parte que nos toca

Ya sabemos de la vigilancia de las grandes empresas de tecnología y su relación con agencias de inteligencia. También de los mecanismos como podemos sufrir distintos tipos de intervención en nuestras comunicaciones de manera más o menos legítima.  Sin embargo, si bien hay situaciones en que es difícil escaparse de la intrusión de agentes externos, hay mucho que podemos hacer aún para proteger nuestra privacidad en las redes sociales.

Hay momentos en los que la información que queremos compartir debería llegar a todo el mundo y otros en las que no quisiéramos que personas (organismos, o empresas) específicas se enteren.

No es lo mismo promocionar un bien o servicio en Internet, emitir una opinión política o compartir una foto familiar. La opinión política, por ejemplo, podría poner en riesgo mi trabajo o mi emprendimiento. En algunos países, si se piensa en periodistas de investigación o activistas sociales, la exposición de ciertas informaciones personales de manera pública podría poner en riesgo sus vidas e incluso las vidas de sus familias.

La inteligencia de fuentes abiertas permite averiguar mucho de una persona basada en información pública, principalmente en internet. Es lo que utilizaría un periodista para investigar el perfil de un funcionario corrupto. También es utilizada por la policía para seguir a personas sospechosas. Los gobiernos, muchas veces la utilizan para monitorear redes sociales e identificar adversarios políticos. Delincuentes comunes utilizan esta información para conocer nuestros movimientos y así poder planificar actos criminales.

Algo tan sencillo como realizar publicaciones de Instagram en tiempo real, mostrando las maravillosas vacaciones que estoy teniendo podría alertar a un ladrón que no estoy en mi casa. El riesgo de esta situación se incrementa si además comparto esta información en estados de WhatsApp.

Utilizamos a diario esta plataforma para comunicarnos con gente cercana, pero también para interactuar de manera profesional con otras personas. De esta manera, en nuestros teléfonos, tenemos contactos de restaurantes, plomeros, albañiles, médicos y un largo etcétera de profesionales con los que interactuamos de manera cotidiana.

Muchas de estas personas utilizan estados para comunicar su trabajo y los servicios que ofrecen. Sin embargo, parte importante de ellas comparten su vida privada a través de estos estados. Personalmente me he encontrado en situaciones donde observo almuerzos familiares, bautizos, fiestas infantiles y un largo etcétera de situaciones de la vida privada de otras personas con las que no soy cercano.

Soy una persona con buenas intenciones y no quiero hacerle el mal a nadie, pero esta información es accesible a gente bien y mal intencionada. Como persona que trabaja en seguridad digital reflexiono sobre los riesgos a los que nos exponemos en este tipo de situaciones. ¿Qué es lo que haría un acosador, un ladrón, pedófilo o cualquier otro actor mal intencionado con esta información? Nos hemos preguntado, ¿qué tanto conocemos a las personas que tenemos como contactos en nuestros teléfonos?

(Re)tomando las riendas de nuestra información

Las redes sociales que utilizamos a diario tienen configuraciones de privacidad que nos permiten tener mejor control sobre quién puede, o no ver lo que publicamos. Es cierto también que estas configuraciones suelen ser complicadas y sus valores predefinidos son demasiado abiertos. Esto trae como primera consecuencia que la gente publique sin tener conciencia de quién lo verá o quién lo leerá.

Los estados de WhatsApp son accesibles para todas las personas que yo tengo registradas en mi teléfono y que me tienen registrado a mí, sin embargo se puede hacer una lista corta de quién puede leer lo que publico.  Instagram o X pueden ser configurados para que solamente las personas que nos siguen puedan ver las publicaciones y el seguimiento debe ser aceptado, de manera predeterminada cualquiera puede ver nuestras publicaciones. Incluso si la cuenta es privada, pero nos siguen cientos o miles de personas ya no es tan privada.

La privacidad sí importa

Internet ha traído cambios radicales en nuestras vidas, muchos de los cuales aún estamos intentando entender. Por un lado, podemos llegar con nuestros mensajes a cientos, miles y tal vez millones de personas. Por otro, nuestras vidas privadas pueden ser expuestas a audiencias indefinidas y personas mal intencionadas que podrían hoy o en el futuro usar esta información en nuestra contra.

Es importante pensar antes de publicar y utilizar Internet de una manera en la que podamos buscar nuestro beneficio. Si queremos compartir temas familiares mejor hacerlo en grupos pequeños donde conozcamos a las personas. Si queremos vender, informar, expresar nuestras ideas, pensemos cuáles son los mejores espacios de difusión.

Delimitar nuestros espacios de exposición nos protege, nos requiere reflexionar sobre los contenidos personales que compartimos diariamente. No todo está en nuestras manos, es verdad, pero un análisis acerca de cómo usamos nuestras redes está a nuestro alcance y puede ayudarnos a la hora de cuidar nuestra privacidad y nuestra seguridad en línea y fuera de ésta.