Assange y el acuerdo para la libertad

JULIAN ASSANGE ES LIBRE, anunció Wikileaks en sus redes sociales. Salió de la prisión de máxima seguridad de Belmarsh la mañana del 24 de junio, tras 1.901 días detenido.“Este es el resultado de una campaña global que abarcó organizaciones de base, defensores de la libertad de prensa, legisladores y líderes de todo el espectro político, hasta llegar a las Naciones Unidas. Esto creó el espacio para un largo período de negociaciones con el Departamento de Justicia de Estados Unidos que condujo a un acuerdo que aún no se ha cerrado formalmente”, informaron. Los posteos se acompañaron con un video de Assange subiendo a un avión. La prensa mundial cubrió su llegada a las Islas Marianas para la audiencia donde aceptarían  el acuerdo propuesto entre el Gobierno de EE.UU. y Assange, y su posterior regreso a Camberra, Australia, el 26 de junio.

Los medios internacionales reportaron que el fundador, editor y portavoz del sitio web WikiLeaks obtuvo la libertad bajo fianza tras declararse culpable de un delito relacionado con filtraciones de material clasificado del gobierno de Estados Unidos. Wikileaks había publicado casi medio millón de documentos militares secretos relacionados con las guerras de Estados Unidos en Iraq y Afganistán, además de informaciones sobre lo que ocurría en la prisión de Guantánamo.

Las acusaciones y los años de prisión

Assange estuvo encarcelado en Inglaterra desde 2019, enfrentando una posible condena de 175 años de prisión. Antes, había permanecido siete años en la embajada de Ecuador en Londres, hasta que en abril de 2019, Ecuador le retiró su asilo. Luchaba contra la extradición a EE.UU, enfrentando 18 cargos penales por su papel en la obtención y divulgación de documentos clasicados de defensa nacional, algunos de los cuales exponían presuntos crímenes de guerra.

Los cargos contra Assange se presentaron en Estados Unidos durante la administración de Trump, en 2019, tras revisar una decisión previa de 2013 bajo la administración de Obama, que había concluido en no acusarlo, considerando la libertad de prensa. Sin embargo, con Trump, el Departamento de Justicia revisó el caso, imputando finalmente 18 cargos por manejo indebido de información clasificada.

Este año, expertos de la ONU mencionaron que una extradición y procesamiento en Estados Unidos del fundador de WikiLeaks podría tener graves implicaciones para la libertad de expresión. “El derecho internacional de los derechos humanos proporciona fuertes protecciones a los denunciantes, a las fuentes periodísticas y a los que informan en interés público”, afirmó Irene Khan, Relatora Especial sobre libertad de expresión. “Hago un llamado a Estados Unidos y al Reino Unido, que profesan defender el derecho a la libertad de expresión, a que respeten estos estándares internacionales en el caso de Julian Assange”, concluyó en su declaración.

El acuerdo para la libertad

Este 24 de junio de 2024 la defensa de Assange negoció una sentencia de 62 meses durante la que no estará bajo custodia estadounidense, ya que recibirá crédito por el tiempo que estuvo preso en Reino Unido. Assange, ante un tribunal federal en las Islas Marianas, territorio estadounidense en el Pacífico, se declaró culpable de «conspiración para obtener y revelar información relativa a la defensa nacional», según una carta del departamento de Justicia presentada ante el juzgado.

“Su caso no fue sólo una detención arbitraria que equivalía a tortura en su contra, sino también un intento de silenciar a la nueva generación de periodistas. Pero el coraje es contagioso y esto continúa”, manifestó Renata Ávila, portavoz y parte del equipo que defiende a Julian Assange.  

La libertad no es algo inesperado

El diario Página 12 menciona que “El primer ministro de Australia, Anthony Albanese, había pedido en varias ocasiones a Estados Unidos que concluyera el caso. En abril, el presidente estadounidense Joe Biden dijo que lo estaba considerando”.

 Desde su encarcelación, múltiples organizaciones internacionales que defienden la libertad de prensa piden su liberación, alegando a derechos como la libertad de prensa y libertad de expresión. «El eterno encarcelamiento y tortura de Assange fue un atentado contra la libertad de prensa a escala mundial», declaró el presidente de Colombia, Gustavo Petro a CNN.

La liberación de Assange y su exención de enjuiciamiento por su trabajo con Wikileaks son motivos de celebración. Sin embargo, es crucial que aprendamos de este caso para asegurar que los gobiernos, especialmente en América Latina, comprendan y reconozcan la importancia de preservar la libertad de prensa y expresión para fomentar la transparencia y combatir crímenes contra la humanidad.

Censura Digital: ¿Protección de derechos o herramienta de silencio?

Imaginen que deciden transmitir en Youtube los cantos y arengas de una protesta que están presenciando y en la que se reivindica algún derecho. De repente, la policía aparece con altavoces reproduciendo a todo volumen canciones de Taylor Swift. Obvio, la música también es capturada en vivo y transmitida en línea para cientos de espectadores.

Y ¿la intención de la policía? Instrumentalizar la activación automática de los mecanismos de “notificación y retiro” que, en plataformas digitales como Youtube, dan de baja a los contenidos que circulan en línea presuntamente sin permiso de su titular.

Previo a una notificación muy vaga y genérica, se justifica el retiro de un contenido que, en este caso —sucedido en la vida real— no buscaba violar los derechos de una artista o perseguir el lucro, sino registrar la ocurrencia de un evento social y quizás histórico.

Notificación y retirada: viejo como la moda de andar a pie

Este mecanismo de vieja data en la historia de internet, y criticado hasta la saciedad en distintas jurisdicciones que lo han apropiado –incluido Estados Unidos donde nació en el contexto de la Digital Millenium Copyright Act DMCA—, es problemático al menos por dos razones.

Primero, por vulnerar el derecho al debido proceso de las personas usuarias de internet. Las razones del retiro, en la práctica, pueden ser muy vagas o genéricas. El retiro, es ante todo, una decisión unilateral de un privado (la plataforma de internet). Y en caso de acudir a la justicia para defender la validez de su contenido, la persona deberá demostrar que no vulnera el derecho de autor de nadie, o que actuó de buena fe. Ahora, buena suerte reclamando en la justicia de países donde las plataformas sacan con frecuencia de la manga el argumento “allá no tengo domicilio; sobre mí no tienen jurisdicción”.

En segundo lugar, por vulnerar el derecho a la libertad de expresión de las personas usuarias de internet, y en concreto, por promover la censura. En el caso de más arriba, que la obra de Taylor Swift suene de fondo en un video de una protesta, y que la intención de la transmisión en vivo no sea la de perseguir el lucro con la reproducción de la obra de la artista, debería contar en las decisiones sobre la presunta infracción del derecho de autor.

Pero para la “notificación y retirada” el contexto no suele importar mucho. Ni antes del retiro ni después de este, pues cuando la persona afectada decide reclamar ya no en la justicia sino ante la misma plataforma —lo que recibe el nombre de “contra-notificación”— la evidencia sugiere que excepcionalmente, salvo que la persona afectado tenga poder de negociación fruto de su visibilidad, estos reclamos terminan siendo atendidos.

Pese a esto, la “notificación y retirada” recibió el aval reciente de la Suprema Corte de la Justicia de la Nación en México. En un fallo, cuyo texto aun no se publica, declaró constitucional la reforma que en 2020 modificó la Ley Federal de Derechos de Autor LFDA y que introdujo dicha figura, pero ¿por qué?

Tratados multilaterales y la colonización regulatoria

En México la recepción del mecanismo de “notificación y retirada” estuvo justificada por el tratado de libre de comercio entre México-Estados Unidos-Canadá (TMEC) negociado en 2018 y en vigor desde 2020. El tratado ordena, tal y como lo prevé el capítulo sobre “Derechos de Propiedad Intelectual” (arts. 20.89 y ss) su adopción para las partes.

Que México adoptase el mecanismo de “notificación y retirada” pese a lo problemático que pueda ser, trasciende al mero cumplimiento a toda costa de un compromiso multilateral previamente suscrito. Su adopción es ante todo fruto de los mecanismos de colonización regulatoria que ejercen países del Norte Global sobre los del Sur.

Uno de los países con mayor poder de presión regulatoria luego de suscrito un tratado de libre comercio es Estados Unidos que, cada año, publica el informe “Special 301” que acusa y señala las “deficiencias regulatorias” de los países —mayoritamente del Sur Global- que tienen compromisos comerciales sin cumplir, incluido el TMEC.

La publicación pone a los países en una “lista de observación” o la “lista prioritaria de observación”, para dar un énfasis más o menos ominoso y de reprobación al conjunto de países seleccionados como incumplidores. En ellas se encuentran México (en la lista de observación) a los que sugiere endurecer mucho más la regulación de propiedad intelectual para prevenir y combatir la piratería en línea.

Este mismo mecanismo de presión, de hecho, fue uno de los que influenció en 2011 el trámite sin éxito en Colombia de una reforma que, como la aprobada en México, buscaba adoptar el mecanismo de “notificación y retirada” en la ley de derechos de autor. Pese a que organizaciones de la región que hacen seguimiento anual al Special 301 enfatizan en la necesidad de abolir dicho informe, la presión regulatoria continúa.

¿Qué esperar ahora luego del fallo?

Ahora, conviene esperar la publicación íntegra del fallo, pues en él hay un voto disidente de la Jueza Norma Lucía Piña Hernández, presidenta de la CSJN que precisamente da voz a las preocupaciones sobre el impacto que la “notificación y retirada” en la protección de la libertad de expresión de las personas. La disidencia de hoy, puede ser la voz mayoritaria del futuro.

Pero hasta entonces, veremos cómo el mecanismo de notificación y retiro es instrumentalizado para silenciar a las personas, tal y como sucedió en las recientes elecciones donde opositores políticos lo emplearon para censurarse mutuamente. Casos como el de su uso por cuerpos de policía en contextos de protesta no será de extrañar tampoco.

Hasta que la posición de la Corte pueda mutar a futuro, conviene seguir cuestionando este mecanismo que, pese a ser tan viejo, no logra probar su eficacia en la lucha contra la infracción de los derechos de autor sin sacrificar en el medio los derechos de las personas usuarias de internet.

¡Cuidado, te están vigilando!

El Ministerio de Seguridad de la Argentina publicó la última semana de mayo, la resolución 428/2024, que establece “pautas, principios, criterios, recomendaciones y directivas para las labores preventivas de los delitos que se desarrollan en ambientes cibernéticos”. Este protocolo se suma a una serie de resoluciones orientadas a la utilización de fuentes abiertas para la prevención del delito, que fueron impulsadas durante el tiempo por distintos gobiernos, más allá de sus diferencias partidarias.  

El primero fue publicado en 2018, durante la presidencia de Mauricio Macri, a través del Ministerio de Seguridad (con Patricia Bullrich como ministra). Dos años más tarde, en 2020, estos lineamientos fueron derogados y reemplazados por una nueva versión, a partir de la Resolución 144/20 del mismo Ministerio. Esta vez, en un nuevo Gobierno, bajo otro partido político, opositor al gobierno anterior: el gobierno de Alberto Fernández. Esta resolución fue derogada en 2022 por la misma gestión, el gobierno argentino estuvo sin un protocolo de vigilancia por fuentes abiertas hasta fines de mayo pasado.

En qué consiste el nuevo protocolo

El nuevo protocolo establece lineamientos enfocados en proveer a las fuerzas federales de un marco de acción para la vigilancia de fuentes en línea, limitadas a “sitios de acceso público, especialmente en redes sociales de cualquier índole, fuentes, bases de datos públicas y abiertas, páginas de Internet, Dark-Web y espacios de relevancia de acceso público”. Cabe aclarar que este limitante figura entre los considerandos y no en el texto de la resolución en concreto.

El mismo párrafo resalta que debe actuar bajo los parámetros de la Ley 25.326 de Protección de Datos Personales, lo cual es reforzado en los Artículos 1 y 3. Los “temas” objeto de estas tareas de vigilancia, están delineados en diecisiete incisos del artículo 2. Entre ellos, se encuentran las infracciones a las leyes de Tenencia y tráfico de estupefacientes (23.737), Armas Y Explosivos (20.429), Delito informáticos (26.388), de protección animal (14.346); así como amenazas, intimidaciones, ventas provenientes de ilícitos o falsificaciones, acoso o violencia por motivos de género, extorsión y acoso sexual, trata de personas, terrorismo, búsqueda de personas; entre otros.

Hay algunos puntos específicos que llaman la atención por su amplitud o, incluso, por su vaguedad. Entre ellos, el Artículo 2, Inc “o”, que destaca, entre los temas mencionados en el párrafo anterior, “Cualquier otro delito del que se pueda obtener noticia a través del ciberespacio”. El Artículo 3, Inc “d” afirma que “Se excluirán de la lista para su presunta judicialización aquellas conductas susceptibles de ser consideradas regulares, usuales o inherentes al uso de Internet y que no evidencien la intención de transgredir alguna norma”.

Estos ejemplos generaron una reacción en legisladores de la oposición, quienes trabajan en un pedido de informes en el marco de sus competencias en el Congreso Nacional. Fundamentan su inquietud por los riesgos de la vulneración del Artículo 19 de la Constitución Nacional, garante de la protección de la privacidad de las personas, así como diversos tratados internacionales de Derechos Humanos, también con rango constitucional en la Argentina.

Estas inquietudes pueden reforzarse a partir de otros puntos de la Resolución. El artículo 5 afirma que el uso de Inteligencia Artificial (IA), el cual da por sentado, “se ajustará a las estrictas necesidades” de la actividad regulada por el protocolo. Entre sistemas de IA incluye “el uso de softwares o cualquier dispositivo o herramienta tecnológica de tratamiento de la información automatizada basada en inteligencia artificial, aprendizaje automático, sistema experto, redes neuronales, aprendizaje profundo o cualquier otra que en el futuro se desarrolle”. Este punto en sí mismo despierta otra pluralidad de inquietudes, dadas las restricciones técnicas que implican los sistemas de vigilancia masiva basados en IA para restringir el procesamiento de datos a los casos donde solamente se detecte una potencial infracción a los delitos mencionados.

Ciberpatrullaje, labores preventivas, vigilancia de fuentes abiertas o ¿labores de Inteligencia?

Hasta aquí, algunos comentarios y dudas sobre el texto del nuevo protocolo. Con sus características a la vista, también cabe realizar algunos comentarios sobre la práctica en sí.

Expertas del Centro de Estudios en Libertad de Expresión y Acceso a la Información (CELE), en un artículo publicado en ocasión del Protocolo vigente durante 2020, ponen en duda la diferencia entre las tareas de “vigilancia” y las de “inteligencia”, a la hora de la utilización de fuentes abiertas por parte del Estado. Allí resaltan la normativa local respecto de las tareas de inteligencia, enmarcadas en los establecido por la Ley de Inteligencia Nacional (25.520), el Decreto 1311/15 y subsiguientes, la Ley de Seguridad Interior y el Código Procesal Penal de la Nación.

El punto radica en las zonas grises de esta normativa. Como afirman las autoras, si bien la Ley 25.520 no prohíbe expresamente la vigilancia sobre fuentes de acceso público, el Decreto 1311/15 sí hace mención explícita de estas fuentes, pues define a la información de inteligencia como “aquella que comprende las observaciones y mediciones obtenidas o reunidas de fuentes públicas o reservadas”. De esta manera, los principios y objetivos del nuevo protocolo entrarían dentro de este marco, desdibujando los límites entre las tareas de vigilancia e inteligencia.

En el mismo sentido, un reporte publicado por el Centro de Estudios Legales y Sociales (CELS) además de manifestar su preocupación entre la superposición de competencias entre las áreas de seguridad e inteligencia, analiza las afectaciones a la libertad de expresión y a la privacidad. Acerca del riesgo que implica la vigilancia de las redes sociales por parte de las fuerzas de seguridad, el CELS afirma que los casos judicializados como resultado de esas tareas de vigilancia fueron “profusamente espectacularizados”, lo que tiene un efecto “de amedrentamiento de las expresiones públicas” y un consecuente debilitamiento de la discusión y el debate públicos. De la misma manera, la organización Access Now resalta el “efecto inhibidor” que tienen estas prácticas para el discurso público, cuando las personas creen que el gobierno monitorea sus mensajes.

Protocolos para el espacio digital y para la vía pública

No es menor el dato: este protocolo es implementado por un gobierno que generó acciones tendientes a la criminalización de la protesta social. Entre ellos, otro protocolo, no para el espacio digital sino para la vía pública, el “protocolo para el mantenimiento del orden público ante el corte de vías de circulación”, fuertemente criticado por organismos como la Coordinadora Contra la Represión Policial e Institucional (Correpi). Este otro protocolo, también publicado por el Ministerio de Seguridad, establece el deber de identificar “autores, cómplices e instigadores, mediante filmaciones y otros medios digitales o manuales, con registro prioritario de los datos de sus líderes y organización con la cual se vinculan, sin perjuicio de proceder a su detención, cuando así corresponda legalmente”. En este sentido, puede haber una complementariedad entre ambos protocolos.

¿Qué puede salir mal?

Será necesario monitorear los avances en la implementación de estas nuevas políticas. En este sentido, la inclusión de una perspectiva de Derechos Humanos para la implementación de políticas de uso de tecnología no sólo en las áreas de seguridad, sino en toda la administración pública, se vuelve de extrema prioridad. Se trata de un argumento más en contra de la implementación de protocolos basados en principios, con límites difusos, sin establecer mecanismos de rendición de cuentas y autoridades de control.

Inteligencia Artificial en América Latina: Regulación no significa protección

Ha pasado medio año desde la última vez que observamos lo que ocurre en América Latina en materia de regulación de inteligencia artificial. Al igual que las tecnologías, que se expanden, desarrollan y se popularizan, aunque no a la misma velocidad, las regulaciones en la región también han progresado. Como es esperable, no se trata de sucesos aislados en el mundo, sino parte de una tendencia global que ya tiene algunos hitos significativos en el primer mundo, que amenazan con convertirse en modelos para realidades muy distintas.

Europa: ¿modelos a seguir?

A mediados de mayo, el Consejo de Europa adoptó el primer tratado internacional sobre inteligencia artificial, marcando un hito significativo en la regulación de esta tecnología emergente.

El Convenio establece requisitos de transparencia y supervisión adaptados a riesgos específicos, incluyendo la identificación de contenidos generados por IA. Las partes deben identificar, evaluar, prevenir y mitigar riesgos, y considerar moratorias o prohibiciones si la IA es incompatible con los derechos humanos. También se garantiza la rendición de cuentas y el respeto a la igualdad y la privacidad. Además, deben asegurar recursos legales y garantías procesales para las víctimas de violaciones de derechos humanos e informar a quienes interactúan con estos sistemas. El tratado requiere medidas para que la IA no socave las instituciones democráticas. El convenio incluye un mecanismo de seguimiento mediante una Conferencia de las Partes y exige un mecanismo de supervisión independiente, sensibilización pública y consultas con múltiples partes interesadas.

En tanto, después de una larga y tensa negociación, en marzo el Parlamento Europeo aprobó una ley histórica para regular la inteligencia artificial en la Unión Europea, en un movimiento pionero a nivel global. Este acto legislativo, conocido como la Ley de Inteligencia Artificial o «AI Act», tiene como objetivo establecer un marco regulatorio robusto para la inteligencia artificial, abordando preocupaciones tanto de innovación como de ética y derechos.

 La nueva reglamentación prohíbe ciertas aplicaciones de inteligencia artificial que violan los derechos ciudadanos, como sistemas biométricos invasivos y la creación de bases de datos de reconocimiento facial mediante la captura indiscriminada de imágenes. Además, los sistemas de IA de alto riesgo deben evaluar y mitigar riesgos, ser transparentes y sujetos a supervisión humana.

Sin embargo, no todo es celebración. Críticas desde la sociedad civil han dado cuenta de que la AI Act está llena de vacíos legales y defectos que podrían socavar su eficacia en la protección del espacio cívico y el Estado de derecho. En particular, se han destacado fallas, excepciones y vacíos que podrían convertir las prohibiciones contenidas en la Ley en meras declaraciones vacías, sin efecto real.  

América Latina y los “nuevos” modelos

Volviendo a la realidad regional, ha sido medio año de interesantes y preocupantes sucesos. Algunas de las propuestas que ya hemos mencionado han seguido su curso, con la continuación de la discusión en Brasil y una propuesta de reemplazo en Costa Rica, que simplifica y mantiene la propuesta más bien como un proyecto marco. Más de un proyecto en Argentina y alguno en México dan cuenta de la tendencia a presentar iniciativas, con muy variables contenidos y perspectivas de convertirse en ley.

Otros han avanzado más. El Perú, ejemplo de la primera ley sobre inteligencia artificial en la región a mediados de 2023, de limitado alcance por sí sola, ha visto recientemente la publicación de un reglamento para la ley, sometido a comentarios públicos. El especialista Carlos Guerrero destacaba las carencias técnicas de la propuesta reglamentaria, dando cuenta de las dificultades prácticas en la implementación de medidas que hagan efectivas las obligaciones asociadas al desarrollo de la IA.

En Colombia, en tanto, logró algo de tracción un proyecto de ley, originado en la Cámara de Representantes para regular la inteligencia artificial. En audiencia ante la Comisión primera, la Fundación Karisma destacó la necesidad de mejor comprensión del panorama antes de regular, como también la conveniencia de una mayor interacción con distintas partes interesadas, en línea con su profundo llamado a la participación ciudadana en estos procesos. Por cierto, un llamado que vale la pena reforzar frente a la serie de proyectos de ley sobre IA que han proliferado también en el Senado.

En Chile, en tanto, después de un proyecto de ley de la Cámara que había encontrado críticas y resistencia, el Ejecutivo envió su propio proyecto de ley de regulación integral de la inteligencia artificial, suscrito por once ministerios. El proyecto define los sistemas de IA de manera amplia para aplicar sus obligaciones a proveedores, implementadores, importadores, distribuidores y representantes autorizados en el país, definiendo distintos roles en la cadena de suministro de IA y centrándose más en el uso que en tecnologías específicas.

En comparación con la legislación de la Unión Europea y la regulación de los Estados Unidos, el proyecto establece un enfoque reactivo en lugar de preventivo. Se clasifican los sistemas de IA en categorías de riesgo, desde inaceptable hasta sin riesgo evidente, y se aplican prohibiciones y reglas específicas para cada categoría, incluyendo casos como la prohibición de análisis biométrico en tiempo real en espacios públicos. Se promueve la autorregulación de las empresas en la evaluación, de manera que cada empresa clasifique el riesgo de sus sistemas en base al listado que elabore un nuevo Consejo Asesor de IA.

El proyecto incluye medidas para incentivar la innovación, especialmente entre las pymes y las startups. Se proponen sandboxes regulatorios, como espacios de pruebas y validación para sistemas de IA, gestionados por entidades públicas como la eventual Agencia de Protección de Datos Personales. El Consejo Asesor de IA tendría así un papel clave en la identificación de sistemas de alto riesgo y limitado riesgo, así como en la elaboración de normativas. La eventual Agencia también tendría responsabilidad en la supervisión y aplicación de la ley.

Si bien buena parte del proyecto chileno suena heredado de otros esfuerzos como la AI Act, el gobierno chileno ha reconocido que tanto los intereses económicos como la seguridad pública son factores clave en la aproximación a la adaptación local. Esto es causal de alarma: aunque hay un criterio pragmático en no fijar obligaciones estrictas previas al funcionamiento en un mercado reducido como el chileno, se abandona una aproximación precautoria de derechos fundamentales. El problema se exacerba al notar la excepción a las reglas de la ley que se extiende, de manera general, a la seguridad nacional, y separadamente, a la aplicación en la seguridad pública para usos tales como el reconocimiento facial automatizado. Así, la oportunidad de una moratoria protectora de derechos no solo es desaprovechada, sino expresamente rechazada.

Las disputas que vienen

A medida que la regulación de la inteligencia artificial avanza en América Latina, surgen preocupaciones sobre la protección de los derechos fundamentales. La excepción a las reglas de la ley para la seguridad nacional y la falta de participación cívica en la implementación y supervisión podrían debilitar la capacidad de la regulación para salvaguardar los derechos de los ciudadanos.

Es fundamental trabajar en la promoción de regulaciones que fomenten la transparencia, la rendición de cuentas y la participación ciudadana en la toma de decisiones sobre el desarrollo y uso de esta tecnología emergente, con el objetivo de garantizar un equilibrio adecuado entre la innovación tecnológica y la protección de los derechos humanos. Derechos Digitales se encargará de participar activamente en las discusiones legislativas relacionadas con la inteligencia artificial, por lo que puedes esperar análisis más detallados sobre varias de estas propuestas.

Una propuesta de ley contra el activismo

¿Qué pasa en Venezuela?

Ya en junio de 2022 y en abril de 2023 se exploraron las potenciales implicancias de este tipo ley en un país sin separación de poderes, además de reseñar cómo ha sido la experiencia en otros países de la región como El Salvador y Nicaragua.

Básicamente se ha llevado adelante la discusión del proyecto de ley de forma unilateral por parte del gobierno y sin participación alguna de la sociedad civil. El borrador que circula de dicha propuesta de ley no es oficial, es decir, no hay certezas sobre los contenidos reales que se llevan a debate. Aun así, fue aprobada en primera discusión por la Asamblea Nacional en enero de 2024 desatando las alarmas de las organizaciones de la sociedad civil y de la comunidad internacional. Pero no es un tema nuevo, sino cíclico y recurrente y ya en septiembre de 2023, varias relatorías de las Naciones Unidas se pronunciaron sobre los efectos negativos de este tipo de ley en el espacio cívico del país.

Desde enero hasta mayo de 2024, la propuesta de ley hibernó cuando Diosdado Cabello anunció que la ley sería aprobada al día siguiente ya se trataba de una deuda con el país. Ante estas declaraciones se hizo evidente que esta propuesta de ley pone a las organizaciones sociales como el «enemigo interno» del país dejándoles además poco margen de reacción.

El 21 de mayo no se aprobó la ley en su totalidad (aunque sí se aprobaron nueve artículos) y se pospuso la discusión en la Asamblea Nacional. Es decir, la amenaza real sigue siendo potencial y como un peso que se balancea sobre la cabeza de la sociedad civil.

¿Por qué la alarma ante este proceso?

La cooperación internacional en sí misma no se limita a los fondos de otros países que puedan recibir las organizaciones sociales. Se basa en el principio de la colaboración entre países y eso incluye intercambio técnico y judicial entre otras formas de trabajo colaborativo.

Una ley que criminalice los fondos internacionales para la sociedad civil organizada envía un mensaje también a aquellos países con los que se tienen relaciones diplomáticas. No sólo con los países que se antagoniza en discurso sino con aquellos con los que se tienen relaciones más cordiales, además de afectar en igual medida a las organizaciones que son afines al gobierno.

Esta propuesta de ley se ha ido perfilando evolutivamente a un detalle en que se castiga a aquellas organizaciones sociales que son críticas al gobierno y que sirve de instrumento restrictivo.

¿Por qué ahora?

La amenaza de aprobar esta ley en un país con una crisis humanitaria compleja, una economía inestable y un panorama sociopolítico y que además tendrá elecciones generales el próximo 28 de julio, viene de alguna manera a atomizar la atención y la acción de las organizaciones sociales. Temen no sólo por el cierre del espacio cívico, sino por el impacto que tendrá esto en las comunidades a las que atienden. Se enmarca en un año donde el gobierno ha recrudecido las detenciones de políticos y activistas contando con más de 250 presos políticos en la actualidad y en donde el discurso sigue sin encontrar una vía para la reconciliación.

Mientras tanto…

El 13 de mayo en Perú, el congresista conservador Alejandro Muñante Barrios, propone el PL 7818/2023-CR, que solicita mediante la intervención del Ministerio Público, la posibilidad de disolución de asociaciones y fundaciones si estas reciben financiamiento para promocionar, realizar, desarrollar, o financie actividades consideradas “ilícitas” en territorio peruano, dejando abierta la interpretación de actividades ilícitas, en las que pueden incluirse organizaciones que trabajan por la despenalización del aborto, por ejemplo. Una propuesta que si bien no es exclusiva de quienes reciban fondos internacionales, estigmatiza la cooperación internacional y criminaliza a las organizaciones por su mandato y labor en la comunidad cuyo efecto será la reducción de la acción de la sociedad civil y el abandono de las comunidades a las que atienden dichas organizaciones.

Por otro lado, este proyecto de ley parece olvidar también que tanto en los convenios de cooperación como en los concursos para recibir fondos, las asociaciones explicitan siempre el uso que harán de los mismos. La propuesta de ley sigue su curso burocrático y de ser aprobado en el Legislativo, traería como consecuencia la disolución de ciertas ONG incómodas para el gobierno de turno y estos grupos religiosos que se han hecho del poder, reduciendo entonces el ejercicio democrático de participación. Perú se sumaría a la lista de países de la región que buscan reducir de forma proactiva la acción de la sociedad civil, tal como pasa en El Salvador y en Nicaragua.

Fuera de la región y más recientemente, Georgia sí aprobó la ley de agentes extranjeros parecido al modelo ruso de la ley que se basa también en el modelo del “enemigo interno”, y que etiqueta a todas aquellas organizaciones o medios de comunicación cuyos ingresos foráneos superen el 20% de su total, obligándoles a registrarse como “portadores de los intereses de una potencia extranjera”. Nuevos modelos de leyes constrictivas que no necesitábamos.  

El costo invisible

Por otro lado, el costo invisible más grande que tiene esta amenaza de ley es el que pagan los activistas de las organizaciones, que trabajan en comunidades pero que también son ciudadanos y que se enfrentan por un lado a la inestabilidad laboral como consecuencia de este tipo de ley y que se suma a las condiciones económicas del país, y por otro, el temor a su seguridad personal por las posibles represiones. Es la carga mental de tener cuidado y hacer un activismo que negocia constantemente con ponerse en la línea de riesgo. Es un contexto que vulnerabiliza en todas las dimensiones posibles al activismo en un juego de desgaste constante en donde todos pierden.

La escuela de mañana, ahora

La pandemia lo cambió todo. Se sabe. Uno de los ámbitos que sufrió mayores transformaciones fue la enseñanza y así lo alertamos en su momento, desde una mirada regional. Pasar de la sala de clases, espacio físico que comporta cierta intimidad funcional al proceso de aprendizaje, a un contexto sin estas características y, peor aún, sin garantizar primero la infraestructura necesaria para la educación a distancia, provocó, de acuerdo con UNESCO en ese entonces, una tragedia.  

Salto temporal al presente y ya no es solo la brecha de conectividad, la falta, la que está impactando de manera negativa al futuro de la humanidad; también la abundancia, expresada en la masificación de las herramientas de inteligencia artificial generativa (IA), pone en peligro la integridad de los conocimientos que adquieren, en este mismo instante, niñas, niños y adolescentes (NNA) en todo el planeta.

Todo esto ocurre al mismo tiempo en que la Unión Europea investiga a Meta, compañía a cargo de Facebook e Instagram, por una posible manipulación intencional a NNA mediante los algoritmos de estas plataformas y por no proveer las garantías suficientes de privacidad, seguridad y protección de menores, contraviniendo lo estipulado en la Ley de Servicios Digitales.

¿Alguien quiere pensar en los niños?

Se entiende que las plataformas sociales, por su nivel de alcance, sean el foco permanente de acciones legales e interpelaciones para rendir cuentas. Desconocemos, sin embargo, qué está pasando en cuanto a protección de datos y seguridad digital en las plataformas educativas. El paradero de los miles de datos recopilados durante una hora pedagógica por software “de ayuda” -intervenciones de estudiantes, materiales educativos, métricas de uso, etc.- es una incógnita.

Otro estudio publicado por UNESCO en 2023 es categórico al evidenciar los efectos negativos en la relación entre el uso de smartphones y los resultados educativos, pero también concluye que “si bien la prohibición de la tecnología en las escuelas puede ser legítima en ciertos casos, también se debe considerar su integración adecuada en el aprendizaje”.

Esta ambigüedad normativa se expresa en la falta de consensos mundiales al respecto. En San Pablo, Brasil, el mes pasado se anunció el uso de la IA para mejorar el currículo escolar producido por los profesores y las críticas no se hicieron esperar: cuál es el rol de las maestras en este cambio, cuáles son las líneas éticas que determinarán su uso y qué tipo de control existe sobre posibles afirmaciones falaces emitidas por estos sistemas, por mencionar algunas de ellas.

En Suecia, mientras tanto, la apuesta es por desescalar el avance de las tecnologías al interior de la sala de clases, luego de los magros resultados obtenidos por sus estudiantes, especialmente en cuanto a capacidades lectoescritoras, en mediciones internacionales. Tales efectos también fueron advertidos en nuestra región en 2018.

Como vemos, el problema es de larga data, pasan los años y, más allá de denunciar la guerra y el hambre, e implementar medidas absolutistas tipo “todo o nada”, desconocemos el verdadero impacto, en el mediano y largo plazo, de estas acciones en el aprendizaje escolar.

Un, dos, tres: Madurez

Contrario a las numerosas de voces de alarma que a diario alertan sobre un apocalipsis pedagógico que destruye la capacidad cognitiva de las infancias alrededor del mundo, lo cierto es que la tecnología, una vez más, es el chivo expiatorio de las malas decisiones que toma seres humanos como tú y como yo, a diferencia de que bajo su cargo tienen el destino del aprendizaje de millones de niñas, niños y adolescentes.

Fuentes consultadas para este análisis -madres y padres- así lo afirman: ven en los motores de búsqueda, aplicaciones de aprendizaje y, sobre todo, los juegos una enorme ayuda en la crianza de sus hijos, al permitir delegar en estas herramientas “la parte cuantitativa” de la educación y ocuparse ellas, en cambio, de entregar aquello que no puede medirse con calificaciones.

Un estudio publicado en 2023 en España, fruto de la colaboración público-privada, adopta un enfoque propositivo sobre este tema, preguntándose por el futuro de la IA en la educación, en América Latina. Sus conclusiones son optimistas: hay tiempo, de aquí al 2030, para meditar y establecer legislaciones claras sobre su uso en las aulas, llamando a todos los sectores (gobiernos, privados, academia, sociedad civil) a colaborar en este esfuerzo conjunto. En Latinoamérica nos toca generar instrumentos en esta misma línea, desde nuestro conocimiento de la realidad local a partir de la experiencia.

En este punto de la historia, “Papel v/s Pantallas” no es más que un título sensacionalista para atraer clics que, campañas de miedo o fearmongering mediante, reduce los desafíos en torno a la educación a una mera cuestión de soporte. La realidad nos muestra que el abrupto acceso a tecnologías que no podíamos siquiera describir hace cinco años trae consigo un deber de las personas adultas que las regulan, implementan y utilizan a comportarse como tales.

Un conocido refrán africano sostiene algo similar a la idea de que “Se necesita una aldea completa para cuidar de un niño”. Llegó la hora de hacernos cargo, aldea global.

¡Por elecciones más informadas! El urgente compromiso de las plataformas digitales con la transparencia en México

Se avecinan las elecciones en México, en las que elegiremos a la próxima presidencia de la república. Las tecnologías digitales resuenan dentro de los debates entre las candidaturas, quienes las utilizan como bandera del tecnosolucionismo para sus propuestas, pero también por su rol determinante en el proceso electoral debido al gran flujo de información que transita diariamente a través de plataformas digitales.

Por supuesto, en este ejercicio democrático, la desinformación está presente. De acuerdo con el Instituto Nacional Electoral (INE), “el 87% de mexicanas y mexicanos toman como la principal fuente de noticias las plataformas por internet”, por lo tanto, cuando circulan noticias falsas se vuelve un tema de interés público —por ejemplo, cuando el actual presidente demandó fallidamente investigar granjas de bots que le perjudicaban tanto a él como a la candidata de su partido—.

Sin embargo, una excesiva moderación de contenidos que no cumpla con las normas internacionales de derechos humanos puede mermar la opinión de la población, que no está exenta del recibimiento de este tipo de contenido y que, algunas veces, no cuenta con las herramientas para distinguir entre noticias falsas y verdaderas. En este escenario, se espera que las plataformas digitales se preparen, teniendo una amplia colaboración con las autoridades, pero también con una serie de acciones proactivas que promuevan la transparencia de sus actos ante la desinformación.

Entre la opacidad y los limitados esfuerzos por la transparencia

En este periodo electoral hemos visto casos en los que la transparencia de las plataformas digitales y las autoridades deja mucho que desear. En febrero de 2024, circularon noticias sobre la decisión de Instagram de limitar el “contenido político de cuentas que no sigues”. De acuerdo con la plataforma, esta acción fue tomada para que las personas usuarias de Instagram y Threads tengan una “excelente experiencia” en estos sitios, evitando recomendar de manera proactiva contenido político en secciones como en el feed o los reels; la plataforma asegura que esto no afectará la forma en que se muestra el contenido de las cuentas que sí sigue un usuario. Esta configuración se activó de manera automática y las personas no fueron explícitamente informadas.

¿Qué significa esto en un contexto electoral como el que está viviendo México? Que las personas usuarias son limitadas en su derecho a la información. Si bien es completamente válido que las usuarias no deseen recibir este tipo información y contenidos políticos, es necesario comunicarlo de la manera más transparente posible para respetar el derecho a decidir por cuenta propia.  La falta de transparencia sobre el funcionamiento y configuración de las plataformas genera incertidumbre sobre la selección de contenidos que nos están mostrando al navegar por estos sitios.

Asimismo, en México se cuenta con un marco regulatorio desactualizado respecto a la publicidad electoral y su relación con las plataformas digitales. Hoy en día, en entornos digitales hay múltiples brechas y vacíos legales que le impiden a las autoridades mexicanas, como el INE, tomar decisiones imparciales y claras sobre los contenidos falsos o ilegales que circulan en redes sociales y otras plataformas

De acuerdo con la campaña “Censura Electoral”, impulsada por organizaciones locales y regionales, el INE se ha valido de medidas cautelares para solicitar a las plataformas digitales la remoción de contenido, siendo en 2018 (en las elecciones presidenciales previas) uno de los años con más solicitudes. Al no requerir de una decisión de un juez competente, la medida cautelar promueve una arbitrariedad por parte del INE, poniendo en peligro la libertad de expresión de las usuarias y usuarios de estas plataformas.

Lo cierto es que, a pesar de la opacidad y arbitrariedad, las plataformas están colaborando con las autoridades electorales en el combate a la desinformación para este 2024. De forma conjunta, Meta, el INE y  la organización Movilizatorio lanzaron el programa educativo Soy Digital, con miras a brindar herramientas a la ciudadanía para detectar y denunciar noticias falsas, estrategia que incluye un chatbot en WhatsApp para realizar preguntas directas al INE sobre estas elecciones.

Mientras tanto, Google lanzó su programa Transparencia México para combatir noticias falsas, que implica, entre otras cosas, ajustes en su buscador para mostrar información oficial sobre el proceso electoral; posibilidad de tener mayor información sobre las imágenes, por ejemplo, saber cuándo se indexó por primera vez ese contenido; alianza con proyectos de audio fact checking, y monitoreos de contenido de publicidad engañosa en YouTube.

En este entorno digital, en donde la inteligencia artificial (IA) juega un papel importante en la generación de contenido —mismo que algunas veces es difundido con la intención de generar desinformación— , tanto Meta con su política de anuncios sobre temas sociales, electorales y políticos lanzada en noviembre de 2023 y Google con su programa antes mencionado, buscan alertar cuando una imagen o contenido han sido creados o modificados con IA u otras tecnologías.  A esto se suma una iniciativa proactiva de Meta: su biblioteca de anuncios, la que también ha sido implementada en otros países.

Para transparencia, lineamientos claros

La realidad del ecosistema de opacidad, tanto por parte del gobierno como de las plataformas digitales, genera una preocupación y una traba metodológica para realizar investigaciones sobre el panorama de desinformación en procesos electorales, tal como lo enfatiza Anna Bentes en su investigación sobre las elecciones brasileñas de 2022. La difusión de noticias falsas, la remoción de contenidos sin criterios claros de derechos humanos y la limitación de contenidos consumidos por las usuarias por decisión unilateral de las plataformas son una forma explícita de vulnerar los derechos humanos en entornos digitales como la libre expresión y el acceso a la información.

Existe una delgada línea entre la regulación y la injerencia que debe ser tratada cuidadosamente en las políticas públicas en esta materia. Por una parte, se debe fomentar que los marcos regulatorios en procesos electorales motiven la transparencia de las plataformas digitales sobre sus configuraciones, decisiones e infraestructura para combatir la desinformación con un enfoque de derechos humanos. Por otra, que la colaboración entre autoridades y plataformas no debe implicar la solicitud arbitraria de las autoridades para la remoción de contenidos. De esta forma se evitan abusos y vulneración a los derechos políticos electorales por parte de las plataformas y las autoridades.

Más importante aún, es necesario que las autoridades en México construyan una estrategia clara sobre la transparencia y la desinformación en elecciones, que tengan claridad de los lineamientos y estándares regionales e internacionales de derechos humanos y que las colaboraciones con plataformas se realicen basadas en una amplia comprensión del ecosistema de desinformación en México. Los programas existentes muestran un buen inicio para prevenir a la población, dotándole de herramientas para identificar noticias falsas o promover una cultura de la verificación de la información. Sin embargo, hace falta un mayor alcance de estas acciones para contar con elecciones más y mejor informadas.

En línea, con todas (las partes interesadas)

Libertades de expresión y prensa, garantizadas por el artículo 19 de la Declaración Universal de los Derechos Humanos y, sin embargo, tan frágiles en todo el orbe. Cuidar de que estos derechos puedan ejercerse es una tarea colectiva. Más todavía en el escenario en que nos encontramos, donde la expresión y la prensa no habitan los soportes tradicionales, sino que se trasladaron al campo virtual. Campo poco regulado y en que las grandes compañías tecnológicas lideran lo que fluye al interior y desde sus plataformas.

Esta edición de la Conferencia del Día Mundial de la Libertad de Prensa se enfocó en cómo enfrentar la crisis climática a la luz de fenómenos recientes y acelerados relacionados con los desórdenes informativos. Además, se dedicó tiempo a profundizar en cómo dichos desórdenes están proliferando en internet. La visión tradicional de “la prensa” como grandes conglomerados dedicados exclusivamente a producir y difundir información bajo estrictos (en el mejor de los casos) criterios periodísticos, ha quedó obsoleta ante el auge de las plataformas que ofrecen un soporte similar, pero sin ningún tipo de control.

Como señala esta columna de Patricia Peña, “la relación de los medios periodísticos digitales se vuelve incómoda con las plataformas digitales, tanto las de los motores de búsqueda como las de redes sociales (…) porque actualmente son su principal competidor” en cuanto a las ganancias recibidas por avisaje. Esta tensión no se resolverá sola, y probablemente tampoco por vías judiciales, camino por el que han optado algunas empresas editoriales.

Apostamos por la incorporación de todas las partes interesadas en estos debates, en los que necesariamente debemos hilar muy fino. La responsabilidad de las empresas, las garantías que los Estados y gobiernos deben ofrecer, los términos y condiciones bajo los que las personas usuarias operan en los entornos digitales, y mucho más, requieren la colaboración de voluntades en una relación mutuamente beneficiosa. Es decir, donde conviven diferentes entidades como una compañía y una organización de la sociedad civil que en un principio pueden parecer poco similares, pero que trabajan en conjunto para beneficiarse las unas a las otras, en lugar del parasitismo al que, lamentablemente estamos acostumbradas.

Lo importante es participar y hacer amigas

Uno de los grandes y constantes desafíos que hemos encontrado a lo largo de los casi veinte años de historia de la organización es la comunicación de procesos cerrados de discusión sobre materias regulatorias de internet que se ejecutan, a veces, en secreto; que reúnen a autoridades de alto nivel tanto de gobiernos como de empresas, y que suceden en los idiomas del poder y los negocios (inglés y francés, por lo general), a un público latinoamericano y con acceso restringido a estas instancias.

Muestra de ello es lo difícil que se nos hace traducir la palabra multistakeholder, puesto que las definiciones sobre qué es una “parte interesada” seguramente son distintas dependiendo del país en América Latina y ciertamente difiere mucho la idea que tiene el Norte Global de ella respecto de cómo la concebimos en el Sur. Esto no impidió que el multistakeholderism o la preocupación por la incorporación de todas las partes interesadas en los debates sobre libertad de expresión y regulación de plataformas fuera protagonista durante el WPFD.

Nuestra realidad digital contemporánea está compuesta por múltiples actores: gobiernos; empresas; sociedad civil; la comunidad técnica, y la academia. Todos ellos tienen un puesto asegurado en las mesas donde se decide, a niveles globales, cómo hacer de esta realidad un ecosistema en que la relación entre dichas partes sea positiva para todas. No obstante, lo que hay también pone a prueba los límites de este esquema de gobernanza, puesto que los retos a los que nos enfrentamos solo aumentan.

La información no tiene dueño

La desinformación, el discurso de odio y el abuso de la inteligencia artificial para la creación de noticias falsas son algunos de los problemas asociados con el ejercicio del periodismo y la prensa libre. Esta situación rompe la promesa de la democratización de la información y el acceso libre al conocimiento. En la era digital caracterizada por el capitalismo de plataformas, las famosas plataformas no solo facilitan y controlan las interacciones entre usuarios y entre servicios, sino que también monetizan dichas interacciones y transferencias masivas de datos, creando fortunas jamás vistas hasta ahora.

Esta forma de generar riqueza es un divorcio radical de los modos tradicionales de organización de la actividad económica. No es que los dueños de los medios de producción hayan desaparecido, por supuesto que no, sino que a la par de estos emergió, en un pestañeo, una nueva clase propietaria de la información; y la información es lo que más abunda por estos días: en tu teléfono, en la vía pública, en tu refrigerador. Este escenario, tan próspero para tan pocos, se sustenta a partir de la datificación de afectos y anhelos. Una vida es igual a un bit que, a su vez, es igual a mercancía.

Para atender la evidencia patente de que compañías y personas lucran con difusión de contenidos falsos y/o maliciosos en línea, junto al desorden regulatorio en esta materia producto del frenético avance de todas las tecnologías, para el que los marcos normativos existentes parecen no poder seguirle el ritmo, es que la UNESCO se propuso como misión, en 2021, la creación de directrices para la regulación de plataformas digitales.

Derechos Digitales ha realizado contribuciones a este proceso en cuatro ocasiones (1, 2, 3, 4) y en todas hemos recalcado que los dueños de las plataformas deben hacerse cargo de las eventuales violaciones a derechos fundamentales que ocurran en ellas, que su quehacer se rija bajo estándares internacionales de protección de derechos humanos, y que incorpore una perspectiva de género transversal a todas sus políticas. También abogamos por la inclusión explícita de derechos a las comunicaciones privadas y al uso de tecnologías de cifrado, especialmente en defensa de ataques y persecuciones por parte de Estados.

A pesar de nuestras sospechas iniciales, en este punto de la discusión podemos reconocer que el proceso ha dado lugar a sinergias interesantes que abren la puerta para alianzas claves para equilibrar, en parte, las asimetrías de poder propias de estos espacios. El futuro de los entornos digitales está lejos de ser una asamblea directa, no cabe ilusionarse. Sin embargo, hemos recogido aprendizajes sobre cómo aproximarnos a los desafíos mencionados desde distintos enfoques, de la mano de diferentes actores y actrices, en un contexto situado en América Latina.

Todas las manos

En la recién estrenada edición del reporte Global Information Society Watch, Renata Ávila toma el tema del multistakeholderism y levanta tempranamente las alertas correspondientes: hay falta de referencias para las comunidades que desean ser parte sobre cómo hacer de su contribución una participación significativa, lo que resulta en que procesos que son presentados y dirigidos para múltiples partes interesadas deriven en un ejercicio de blanqueo para quienes participan siempre a través de la tokenización de minorías incorporadas a la mesa precisamente con ese propósito, como para decir: “sí, somos inclusivos” y rendir la cuenta respectiva.

Otro aspecto que es subrayado a lo largo de nuestras contribuciones al proceso es el imperativo de idear maneras constructivas para fomentar la inclusión verdadera y un ejemplo es la creación de consultas regionales sobre los temas que plantea UNESCO. Plazos rígidos y poco tiempo para estudiar las versiones del documento de Directrices que no están en inglés y participación limitada en los debates sobre los contenidos del texto van en la dirección opuesta.

Pero, pese a que el tamaño de la mesa de la toma de decisiones es reducido y las sillas, incómodas, la infraestructura de internet somos todas. Las libertades de expresión y prensa también son fundamentales para hacer de la participación algo valioso y viceversa: la buena participación multisectorial garantiza que estos derechos se ejerzan de manera cabal y en todo lugar. Estas son parte de las reflexiones que pudimos entregar durante la Conferencia y que, por cierto, seguiremos trabajando de aquí en adelante.

Repartidores de aplicaciones: precarización al servicio del algoritmo

*This text is available in english here.

Poca atención hemos prestado, por ejemplo, al uso y propagación de los eufemismos que dislocan el lenguaje, y que obligan a llamar de otra forma al trabajo que se desempeña con la intermediación de plataformas. No son llamados trabajadores, sino ‘usuarios’.

Pensemos en el trabajo de los repartidores de comida, ejercido por personas que encuentran allí su principal o única forma de sustento económico. Es un trabajo que sabemos que se presta sin garantías de estabilidad laboral, sin salarios mínimos ni formas de protección y seguridad social básica, como salud o pensión. Un trabajo expuesto al rayo del sol y el agua, y bajo pobres condiciones de seguridad vial.

Es una actividad donde los trabajadores son calificados como ‘usuarios’ de aplicaciones tecnológicas ofrecidas por plataformas digitales que les permiten utilizarlas – la mayoría de las veces cobrándoles por ello– para contactar a restaurantes con usuarios/consumidores.

Un trabajo donde los repartidores no perciben salarios sino ‘propinas’, y donde las órdenes no las dicta un jefe, sino un algoritmo exento de responsabilidad o rendición de cuentas, pero que indica el cómo y dónde de la actividad a desempeñar. 

Se trata de una forma de trabajo que las doctrinas canónicas del derecho laboral temen denominar como tal, pues no encaja en la fórmula tradicional de las relaciones laborales según la cual se denomina trabajo a toda relación de subordinación, en la que el empleador dicta las condiciones del trabajo a otro, un empleado, y vigila su cumplimiento.

Ahora ¿por qué no se denomina trabajo a la actividad desempeñada por los repartidores de comida? Porque según las plataformas de repartidores, son libres de ejercer de manera independiente su actividad.

No son trabajadores, sino ‘repartidores independientes’

Pero ¿qué libertad tienen quienes encuentran en entregar comida a otros su único o principal medio de supervivencia económica? ¿qué independencia puede ejercer la persona que se rinde al dictado del algoritmo que establece, de manera arbitraria, cuál debe ser la cantidad aceptable de domicilios diarios para asignarle los mejores pedidos? o ¿cuál debe ser el tiempo mínimo de su entrega para que el repartidor no se exponga a algún tipo de sanción como puede ser, por ejemplo, la no asignación de ningún pedido en la plataforma?

No es considerado trabajo, pese a que como en cualquier empleo, las plataformas digitales de domicilios de comida pueden sancionar a quien incumple los ‘términos y condiciones’ del servicio, a través del bloqueo de la cuenta. Un bloqueo que, más allá de poner en riesgo el sustento vital del repartidor, se efectúa la mayoría de las veces sin mediar derecho a réplica o explicación alguna.

En definitiva, un trabajo que plataformas digitales y a veces los mismos reguladores de nuestros países se abstienen de calificar como tal, pese a que, en un contexto de crisis, como la pandemia, pocos dudaron en calificar y tratar como ‘trabajo esencial’.

Los eufemismos en las Altas Cortes: el caso de Colombia

El poder que tienen los eufemismos para disfrazar la realidad de lo que no es, también radica en convencer a otros de que su tarea no es examinarlos ni desmontarlos, sino en apuntar la vista hacia otra parte.

Por ejemplo, en Colombia, la Corte Constitucional falló en febrero de este año, un caso que involucraba a un repartidor afiliado a Rappi, la empresa colombiana de entrega de domicilios más grande del país y que presta servicios en varios países de América Latina.

El caso es más bien sencillo, pero sus matices por los eufemismos en juego fueron obviados por la Corte. En la acción de amparo o tutela, un repartidor había reclamado judicialmente por la vulneración de su derecho al debido proceso, pues le había sido bloqueada su cuenta sin que mediara justificación de la empresa que, por su parte, aludió al incumplimiento de los términos y condiciones del servicio una conducta acostumbrada por Rappi al punto de que la compañía tuvo que crear, por demanda del sindicato de domiciliarios, una Defensoría del Repartidor.

El reclamo judicial fue resuelto por la Corte al decir que el debido proceso, que comprende el derecho a recibir explicaciones frente a la aplicación de sanciones entre particulares, también rige a la relación de consumo entre los repartidores y Rappi. Y, en consecuencia, ordenó a la empresa a explicar de manera fundada y suficiente los motivos de su actuar a la persona afectada.

Pero la Corte evadió cualquier consideración que permitiese dar claridad sobre la naturaleza de la relación jurídica entre repartidores independientes y la plataforma digital, tan necesaria para que, por ejemplo, estos puedan reclamar condiciones dignas para la prestación de su actividad ‘esencial’. Esta omisión no inhibió a la Corte de afirmar que el bloqueo de la cuenta había puesto en riesgo el derecho al mínimo vital del repartidor afectado, entonces ¿qué relación de ‘consumo’ es esta que, una vez interrumpida por la parte más poderosa de esa relación contractual, es capaz de poner en peligro la subsistencia económica de la otra?

Los eufemismos que contaminan el lenguaje con el que nos referimos a la relación entre los repartidores –y otro tipo de trabajadores- y las plataformas digitales ameritan ser vistas de cerca, para que no sean el instrumento con el que, en la práctica, validemos la precarización de nuevas formas de trabajo que no resultan convencionales ante viejos dogmas.

De esos análisis tendremos que ocuparnos también, en las discusiones que tengamos sobre el futuro del trabajo y de los trabajadores en nuestra región. Como la sucedida en Europa, que luego de dos años de negociaciones, se adoptaron reglas aplicables a los repartidores de comida y conductores de vehículos de alquiler –como Uber- que, a través de una Directiva reciente, los ha calificado como verdaderos trabajadores y no como simples ‘independientes’, presumiendo una relación laboral entre estos y las plataformas digitales.

Ola Bini y la criminalización del conocimiento

“El caso de Ola Bini se ha convertido en un emblema de la persecución que viven las personas expertas en seguridad digital en la región”, escribíamos hace unos meses en el marco de la presentación del libro “Colateral”, de Diego Cazar sobre el mencionado caso. Como organización que trabaja en la defensa de los Derechos Humanos en entornos digitales, hemos abordado este asunto en reiteradas oportunidades y apoyado la campaña #FreeOlaBini.

Se trata del programador sueco detenido en 2019 en Ecuador, acusado de ser cercano a Wikileaks y de participar en intentos para desestabilizar al gobierno ecuatoriano. En agosto de 2019, la fiscalía general del Estado lo acusó de acceso no consentido a un sistema informático de la Corporación Nacional de Telecomunicaciones (CNT) en el año 2015. 

Bini fue arrestado el 11 de abril de 2019 cuando pretendía viajar a Quito con destino a Japón, apenas unas horas después de que el Gobierno ecuatoriano, bajo el mandato de Lenín Moreno, pusiera fin al asilo de Julian Assange en su Embajada en Londres.

En esa ocasión, escribíamos que “no existen antecedentes suficientes ni para la inicial acusación de ser parte de una red de espionaje digital, ni de otras de ‘defraudación fiscal’ o ‘tráfico de influencias’, manteniéndose hasta hoy una investigación con características de persecución política”.

Ola Bini salió en libertad luego de 70 días mediante un recurso de hábeas corpus. El vínculo entre Bini y Assange fue utilizado en reiteradas ocasiones durante el juicio y luego de este. El 31 de enero del 2022 un tribunal ratificó, por unanimidad, la inocencia de Ola Bini.

Sin embargo, el viernes 5 de abril de 2024, más de un año después de haber declarado la inocencia de Ola, un tribunal de apelaciones revocó el fallo de inocencia dictado en 2023 y lo condenó a un año de prisión y a una multa de 1.840 dólares. El 8 de abril de este mismo año, tres días después del fallo, un tribunal de la provincia de Pichincha (Ecuador) aceptó la solicitud de suspención de la condena presentada por la defensa de Ola.  Además, estableció nuevas condiciones para el sueco que deberá “presentarse cada 15 días ante la autoridad competente, no salir del país sin autorización del juez, tener domicilio determinado, ejercer un trabajo, profesión u oficio; no ser reincidente y no ser procesado por otra causa”.

Durante estos años, la sociedad civil, y la defensa de Binihan denunciado diversas irregularidades en el proceso que deberían haberse resuelto en 2019, todo como resultado de un proceso que ha sido suspendido varias veces.

Más allá de la suspensión condicional de la pena de un año de cárcel impuesta por el delito de acceso no consentido a un sistema informático en grado de tentativa, el abogado a cargo del caso Carlos Soria Ávila, nos comentó que apelará para que en la instancia de casación los jueces de la Corte Nacional de Justicia analicen los fallos.

 Según palabras del abogado, el caso representó una “pena ambivalente”, es decir, “tiene un componente de privación de libertad en un centro de detención, un año, por haber sido un tema de tentativa, y no haberse consumado el supuesto delito”. Sin embargo “la pena fue suspendida para que pueda ser cumplida fuera de un centro carcelario, pero esto solo en caso de que perdamos la apelación y el recurso de casación”, proceso que todavía continúa.

Soria Ávila nos dijo que en su opinión “El fallo es completamente ridículo, antitécnico, antijurídico, incluso porque hacen precisiones ajenas al ordenamiento jurídico nacional, e incluso a nivel dogmático. El razonamiento de la pena es que, porque Ola tiene el conocimiento y tiene las capacidades para poder cometer un delito por su formación en este ámbito, lo hacen responsable de haber intentado cometer el delito”. Es decir, “ni siquiera es porque haya hecho algo, sino porque tiene las capacidades”. Se refiere a la pena como una “criminalización del conocimiento pura y dura, en la que se pretende generar miedo en las personas que se dedican a la seguridad y privacidad digital”. Destaca también, que “el profundo desconocimiento del tema técnico en el país es asombroso. Es preocupante, además porque se está persiguiendo a los defensores de los derechos digitales. Y esto es un aliciente perverso para el Ecuador”.

En una conferencia en 2013, Ola Bini propuso la posibilidad de transformar a Ecuador en un paraíso de la privacidad informática.  Hoy declara: “Yo pensé que en ese entonces existía la posibilidad, pero la verdad es que el panorama político ha cambiado mucho. Lamentablemente, no estoy seguro si es posible recuperar esta posibilidad ahora. Hay otras luchas más importantes, como por ejemplo reformas sobre ciberdelitos, o la figura de agente informático encubierto”.

En la condena a Bini se mencionó lo peligroso que podría ser debido a sus conocimientos técnicos. Al respecto, opina:  “Los jueces dijeron claramente que me condenan porque yo tengo la posibilidad de cometer delitos por mis conocimientos. Y claro, es muy peligroso para muchas personas en Ecuador, pero especialmente personas que trabajan con ciberseguridad”.

Asimismo, destaca que las auditorias de seguridad son medidas muy importantes para mantener la seguridad.  Sin embargo, es difícil determinar si el conocimiento adquirido podría ser suficiente para una condena.  Actualmente subraya, “sería muy peligroso estudiar estos temas. Vamos a quedar sin expertos que sepan cómo protegernos, y el resultado es que habrá más incidentes y ataques de ciberseguridad”.

La seguridad informática es un problema grave en Ecuador. En el año 2019, ocurrieron las filtraciones de Databook y Novaestrat, donde se filtraron datos personales de la población de todo el país. Estos casos marcaron el inicio de muchas filtraciones de datos y fallas de seguridad que no han parado desde entonces.

Dentro de este contexto, lo que Ecuador necesita son personas con conocimientos en seguridad digital para fortalecer los sistemas y garantizar la seguridad de los datos de la ciudadanía. En lugar de penalizar el conocimiento técnico, como si estuviéramos viviendo en la Edad Media, necesitamos fomentar un mayor conocimiento y una mayor investigación.

Es más urgente que nunca contar con conocimientos en seguridad informática que ayuden a tener sistemas más seguros.