El rol de las Big Tech en el auge del autoritarismo

La alineación de las Big Tech con tendencias autoritarias no es un fenómeno nuevo, pero los últimos acontecimientos indican una peligrosa aceleración del uso de herramientas tecnológicas para satisfacer una agenda política con tintes fascistas. Como ninguna decisión puede ser analizada aislada de su contexto, tanto el anuncio de cambios en la moderación de contenidos de Meta, como el ascenso de Elon Musk a la Casa Blanca reflejan la consolidación de una alianza público-privada que encuentra su punto común en la misoginia, el racismo y el nacionalismo; y que instrumentaliza a la desinformación tanto como estrategia de control político como base de modelos de negocios.

El cambio de administración en los EE. UU. se produce en un contexto global de retrocesos significativos en Derechos Humanos. Un reciente informe de Human Rights Watch –que analiza las prácticas de DD.HH. en 100 países– señala que en las 70 elecciones nacionales que tuvieron lugar el año pasado “los líderes autoritarios ganaron terreno empleando su retórica y políticas discriminatorias”. Esto lo podemos ver muy claramente tanto en la campaña- y en las posteriores acciones gubernamentales- estadounidense de 2024 como en la argentina de 2023:  obsesionados con impulsar el concepto de que los derechos son consecuencia de una “ideología de género”, a través de afirmaciones falsas que van desde acusaciones violentas de “trastornos mentales” de la comunidad LGBTQIA+, hasta datos incorrectos sobre femicidios. La comunidad migrante también ha sido blanco de ataques, fundamentados en estadísticas falsas sobre comisión de delitos.

Este escenario se complejiza con el rol de las Big Tech, quienes –producto de la concentración de producción de tecnología y manejo de información en espacios digitales- se han vuelto más poderosas que muchos Estados, incluso valiendo más que el PIB de muchos países.  Investigaciones realizadas por la sociedad civil denotan que las empresas priorizan sistemáticamente el beneficio económico sobre las personas, vulnerando su privacidad para obtener beneficios comerciales sin su conocimiento y consentimiento, y permitiendo  la amplificación de discursos nocivos (incluido y no limitado a violencia basada en género) por réditos económicos,  además de censurar contenido político contrario a intereses dominantes, como el genocidio en Gaza.

Con la llamada a “la recuperación de la energía masculina” de Zuckerberg, que coincide con posturas abiertamente machistas, racistas y transfóbicas de Elon Musk, los magnates de la tecnología se alinean con los líderes autoritarios no solo en pensamiento, sino en acciones. La diferencia es que ahora ya no tienen que ocultarlo. Desde cambios en moderación de contenidos en sus plataformas, hasta donaciones millonarias a la campaña presidencial, las Big Tech pasaron de influenciar el ámbito político a formar parte del Estado.

El cálculo político detrás de los cambios en las políticas de contenido de Meta: la relación directa con medidas gubernamentales

Como hemos señalado en una publicación anterior, Meta ha anunciado una serie de cambios en sus políticas -ya problemáticas- de moderación de contenido en EE.UU., incluyendo el fin del programa de verificación externa y su reemplazo por un sistema de Notas Comunitarias similar al de X. Es importante resaltar que este sistema es criticado no solo por su ineficacia para frenar la desinformación masiva, sino también por ser susceptible de ser manipulada por los usuarios que participan en ese proceso. A esto, se le suma el cese de los esfuerzos oficiales para frenar la desinformación.

Por otra parte, avanza la reducción de restricciones en temas sensibles relacionados con género y migración, que probablemente provocará un mayor daño a las comunidades en riesgo no sólo en Estados Unidos, sino en todo el mundo. Aunque estos cambios se presentan como una apuesta por la libertad de expresión, su impacto real podría traducirse en un aumento de desinformación, discursos dañinos y manipulación informativa, a la vez que amenaza paradójicamente la libertad de expresión. El debilitamiento de estas regulaciones facilita la expansión de discursos de odio y narrativas discriminatorias, los cuales han sido históricamente utilizados para excluir y silenciar a determinados grupos. Aunque no siempre constituyen conductas ilegales, su impacto puede ser profundamente perjudicial. Esto podría traducirse en un aumento de ataques digitales dirigidos a comunidades como mujeres, personas migrantes y minorías, contribuyendo a la normalización de la violencia y la perpetuación de la discriminación.

Como hemos señalado en una publicación anterior, las prácticas de violencia digital tienen repercusiones que van más allá del entorno en línea, generando serias amenazas a la seguridad y la integridad física de mujeres y personas LGBTQIA+. La violencia digital provoca daños psicológicos, afecta las relaciones sociales, fomenta la violencia sexual y física, y en casos extremos puede derivar en feminicidios. Además, actúa como una forma de censura al producir un efecto paralizante (chilling effect), que impacta tanto a nivel individual como colectivo, con consecuencias negativas para el debate público, un pilar fundamental en las sociedades democráticas.

Estos cambios, también coinciden con los temas principales de las medidas gubernamentales de Trump que atentan contra los derechos sexuales y reproductivos, los derechos de las personas trans y personas migrantes, los cuales tendrán un impacto en la manera en que Meta hace eco a ese discurso social. Es tal el compromiso del Presidente estadounidense con la agenda anti derechos, que no solo suspendió los programas de diversidad, igualdad e inclusión del gobierno federal, sino que empleados federales de distintas agencias gubernamentales recibieron correos instándolos a denunciar ante la OPM a colegas que creían que estaban trabajando en iniciativas de diversidad, equidad, inclusión y acceso (DEI).

Las puertas giratorias de Sillicon Valley al Estado

Elon Musk se ha convertido en un aliado clave de Trump. Desde haber aportado sumas millonarias que ascienden a 250 millones de dólares en los últimos meses del ciclo electoral a la campaña, hasta asumir un cargo público dentro del Estado al frente del publicitado nuevo Departamento de Eficiencia Gubernamental, su influencia ha ido incrementando a pasos agigantados.

Conforme reportan medios de comunicación, los rangos más altos de la oficina de Administración de Personal estarían siendo ocupados por personas pertenecientes a su círculo de confianza dentro de la industria tecnológica. Por ejemplo, la recientemente nombrada como jefa de personas de dicha dependencia, Amanda Scales, anteriormente trabajó en xAI, la empresa de inteligencia artificial de Musk. Otros posibles nombramientos incluyen a personas vinculadas a Tesla, Boring Company y Neuralink, todas empresas pertenecientes a Musk.

La chance de influenciar la regulación de la implementación de tecnologías, salta como un interés evidente de los señores tech, considerando que parte del éxito de sus compañías recae en la explotación sistemática de lagunas regulatorias. No obstante, expertos advierten que los mayores beneficiarios de esta fusión serían las agencias de inteligencia gubernamental al poder ampliar sus capacidades de vigilancia no solo mediante nuevas y avanzadas tecnologías, sino también a través del intercambio de información y experticia. De hecho, la directiva 406 aprobada el 16 de enero del presente por el entonces Director de Inteligencia anima a que las agencias amplíen sus asociaciones con entes no gubernamentales.

El salto de ex representantes estatales al sector tech tampoco se hizo esperar. Zuckerberg designó a grandes personalidades republicanas al interior de Meta. Algunos ejemplos incluyen a Joel Kaplan y Kevin Martin -ambos ex funcionarios de Bush- como nuevo jefe de Asuntos Globales de la empresa y vicepresidente de Política Global respectivamente. Así como también las incorporaciones de Jennifer Newstand, quien fuera funcionaria del Departamento de Estado durante el primer mandato de Trump, como asesora general de la empresa, y Dana White, parte del círculo de confianza de Trump, como integrante de la Junta de Meta.

Impactos en América Latina

Inevitablemente el panorama descripto impacta en América Latina de diversas maneras. Tomando en cuenta la predominancia de estas empresas en la región, surgen preocupaciones legítimas acerca de los derechos fundamentales en espacios digitales con potenciales afectaciones a la integridad de la información y a la protección del ejercicio de derechos de comunidades en situación de vulnerabilidad.

De hecho, Brasil -quien ha liderado esfuerzos por impulsar el cumplimiento de las Big Tech de las legislaciones locales- ha solicitado explicaciones a Meta sobre el impacto de los cambios de las políticas. Seguidamente, convocó a una audiencia pública sobre desinformación y moderación de contenido, donde las Big Tech brillaron por su ausencia. Si bien Meta había señalado que por el momento se aplicarían solo a Estados Unidos, la agencia estatal para la defensa jurídica del Estado (AGU), advirtió que los cambios “no se adecúan a la legislación brasileña” y expresó preocupación por la posibilidad de que la plataforma pueda ser “terreno fértil para la violación de (…) derechos fundamentales”.

Por otra parte, las decisiones de Trump referentes al ámbito internacional también traerán consigo repercusiones significativas, por ejemplo a partir del retiro de la Organización Mundial de la Salud y del acuerdo climático de París. Las agencias de la ONU han advertido sobre el impacto negativo de estas medidas, señalando que podrían debilitar los esfuerzos globales para combatir el cambio climático y afectar gravemente la salud pública a nivel mundial.

A su vez, al ser Estados Unidos el mayor donante individual de ayuda a nivel mundial, la suspensión de ayuda extranjera para evaluar que las iniciativas se alineen con las políticas de gobierno, afecta a comunidades enteras y a organizaciones de la sociedad civil que han trabajado sostenidamente en la defensa de los derechos humanos; además de debilitar esfuerzos para hacer frente a giros cada vez más acelerados del autoritarismo.

Desde Derechos Digitales seguiremos trabajando en exigir la responsabilidad a las plataformas y mantener una vigilancia activa sobre los impactos reales de estas decisiones en la vida de las personas.

Fuera del algoritmo: Cómo comunicar más allá de las redes sociales

Recuerdo cuando abrir una cuenta de Twitter era casi un acto revolucionario. En aquellos días, la plataforma prometía algo cercano a la igualdad: un lugar donde las ideas, más que las jerarquías, definían el alcance de tu voz. Para muchas organizaciones de la sociedad civil, Twitter, Facebook e Instagram (un poco después) fueron herramientas esenciales para denunciar injusticias, movilizar comunidades y visibilizar problemas que los medios tradicionales pasaban por alto. A lo largo de los años, lo que parecía un espacio inclusivo se fue desmoronando hasta convertirse en algo muy distinto.

Por ejemplo, desde que Elon Musk tomó las riendas de X, la antes llamada Twitter, el ambiente en la plataforma se ha vuelto insostenible. Con el discurso de odio en auge, los insultos racistas, misóginos, edadistas y homofóbicos no solo han aumentado, sino que se han normalizado. El regreso de cuentas previamente suspendidas por incitar a la violencia ha amplificado estos problemas. Lo que alguna vez fue un refugio para voces críticas ahora se siente como un espacio hostil, especialmente para quienes defienden los derechos humanos.

Meta tampoco se queda atrás. En un giro reciente, la empresa ha anunciado el fin de su programa de verificación de datos en Facebook, Instagram y Threads. La medida, presentada como un paso hacia una supuesta “libertad de expresión”, amenaza con convertir estas plataformas en un terreno aún más fértil para la desinformación. Esto ocurre justo antes del regreso de Donald Trump a la Casa Blanca, en un momento político clave que no parece una coincidencia.

Finalmente, esta medida elimina una de las pocas herramientas que intentaban, al menos en teoría, mitigar los daños del contenido falso o malintencionado. Esto no es solo preocupante, es alarmante: en una época en la que las sociedades enfrentan desafíos como la polarización y la crisis de confianza en la información, la decisión de Meta puede tener consecuencias devastadoras. Si bien un sistema de notas comunitarias podría aumentar la confianza en la verificación de hechos, también existe un riesgo de manipulación de esos sistemas.

El dilema de abandonar las redes

En este panorama, las organizaciones de la sociedad civil enfrentan un dilema. Las redes sociales, a pesar de todos sus problemas, siguen siendo el lugar donde ocurre la conversación pública, donde figuras públicas como presidentes, congresistas y periodistas intercambian información e ideas, y donde todavía se discuten noticias a medida que ocurren. Dejar de usarlas podría significar perder el alcance y la relevancia necesarios para incidir en los debates globales. Sin embargo, quedarse muchas veces implica navegar en un espacio cada vez más tóxico, donde el riesgo de ser acosado, doxeado o atacado es constante. ¿Es posible encontrar un punto medio?

The Engine Room, realizó un estudio llamado “Explorando una transición hacia plataformas alternativas de redes sociales para organizaciones de justicia social en el Sur Global”, donde señala que las redes sociales tradicionales presentan preocupaciones significativas relacionadas con la recolección intrusiva de datos, la vigilancia y la propagación de desinformación. También destacan que plataformas alternativas, como Mastodon y BlueSky, ofrecen experiencias más comunitarias y menos extractivas, permitiendo a los usuarios crear y gestionar sus propios espacios en línea. Varias organizaciones nos hemos sumado a una tendencia por relevar el rol de tecnologías que devuelven al menos algo de control a sus usuarios.

Las alternativas, aunque prometedoras, aún no están listas para reemplazar por completo a las grandes plataformas, porque su alcance sigue siendo limitado. Migrar hacia ellas implica convencer a nuestras audiencias de hacer lo mismo, algo que no es fácil en un entorno donde los “efectos de red” (o si prefieres, la inercia y la comodidad) mantienen a las personas atadas a las plataformas tradicionales. Pero estas alternativas son un recordatorio de que otras formas de comunicación digital son posibles, aunque todavía estén en construcción. The Guardian o La Vanguardia se aventuraron a cerrar para siempre las puertas en redes como X. Mucho antes, en el 2021, la marca Lush dejó de usar redes sociales, declarándose “antisocial”.

Mientras tanto, surge la pregunta: ¿es posible que las organizaciones de la sociedad civil se desvinculen de las redes sociales más populares hoy? La respuesta no es sencilla, pero es evidente que diversificar los canales de comunicación es imprescindible. No podemos depender exclusivamente de plataformas que priorizan la extracción y el lucro, persiguen objetivos políticos orientados a ganar poder, o imponen narrativas autoritarias y conservadoras sobre los derechos humanos.

Además, las organizaciones de la sociedad civil suelen publicar de manera orgánica, con poca o nula inversión en publicidad, lo que dificulta aún más que su contenido llegue a las audiencias. Por ello, los boletines por correo electrónico, las páginas web actualizadas y las colaboraciones con medios de comunicación independientes siguen siendo herramientas valiosas para alcanzar a las audiencias más allá de tuits e historias. Es también el momento de explorar nuevos formatos: podcasts, videos documentales y eventos híbridos que combinen lo digital con lo presencial. En un ambiente donde los algoritmos deciden qué contenido llega a quién, recuperar el control sobre nuestras audiencias también se convierte en un acto de resistencia.

Regulación y responsabilidad

Sin embargo, estas soluciones son insuficientes si no se aborda el problema de fondo: la falta de contrapesos efectivos al control sobre las plataformas tecnológicas. Mientras las empresas continúen operando sin rendir cuentas sobre sus decisiones y sobre su modelo de negocios, la violencia digital y la explotación de datos seguirán siendo el modelo predominante de los gigantes de internet. Aquí es donde los Estados deben intervenir, en ningún caso para censurar, sino para proteger. Necesitamos políticas públicas que garanticen entornos digitales seguros, mecanismos efectivos para denunciar el acoso y sanciones claras contra quienes promuevan el odio. Necesitamos regulación que permita de manera efectiva que, a mayor poder, exista mayor también responsabilidad.

Las plataformas tecnológicas, por su parte, tienen una deuda importante con sus usuarias y usuarios. La implementación de medidas contra el acoso, la protección de datos personales y la transparencia en la moderación de contenido no deberían ser opcionales. En lugar de priorizar el crecimiento a cualquier costo, es hora de que estas empresas asuman su responsabilidad en la creación de un ecosistema digital que no perpetúe la violencia y el abuso. Que no se escude en la seguridad para promover la censura, ni en la libertad de expresión para descuidar a sus usuarios.

Meta, por ejemplo, hace algunos meses anunció que utilizará datos personales de sus usuarios para entrenar sus sistemas de inteligencia artificial, sin ofrecer una manera clara de oponerse a esta práctica. En muchas jurisdicciones, simplemente no hay opciones para negarse a este uso de los datos personales. Sin embargo, países como Brasil y los de la Unión Europea, con legislaciones más robustas, han logrado plantear regulaciones que limitan o frenan estos abusos. Pero ¿qué ocurre en el resto del mundo, donde las protecciones legales son débiles o inexistentes?

La desigualdad en la capacidad de los Estados para hacer frente a estos problemas agrava las brechas digitales. Mientras algunos países avanzan en la defensa de los derechos digitales, otros quedan expuestos a los abusos de grandes corporaciones que operan sin restricciones.

Más allá del algoritmo

Es imprescindible repensar colectivamente el diseño y la dinámica de estas plataformas. Cada vez que el discurso de odio se normaliza o el ciberpatrullaje queda sin consecuencias, el entorno digital se deteriora aún más. Este problema no debe recaer en las usuarias y usuarios, sino en quienes tienen el poder de cambiar las reglas del juego: las plataformas tecnológicas y los Estados.

Construir un ecosistema digital ético y seguro no será rápido ni fácil. Requiere creatividad, paciencia y voluntad política, pero el esfuerzo vale la pena. Porque al final, comunicar más allá del algoritmo no es solo una cuestión de supervivencia para las organizaciones de la sociedad civil; es una apuesta por un futuro donde las voces sean amplificadas, no silenciadas, y donde la tecnología sea una herramienta de inclusión, no de exclusión.

Comunicar en un entorno hostil no es sólo un desafío técnico; es una cuestión de principios. Rechazar un modelo digital basado en el odio y la explotación abre la posibilidad de transformar cómo conectamos, construimos y luchamos en el mundo digital, creando espacios más justos y seguros para todas las personas.

Autonomía bajo control: la paradoja de la flexibilidad en el trabajo digital

La Secretaría del Trabajo de México, tras dialogar con más de 30 plataformas digitales, propuso reformar la Ley Federal del Trabajo para incluir un capítulo específico sobre las condiciones laborales en apps como Uber, Didi y Rappi. Esta reforma, inspirada en regulaciones recientes en España y Chile, busca cerrar las brechas digitales y sociales que afectan a millones de personas trabajadoras. Además, luego de que el gobierno español aplicara sucesivas multas a Glovo por el incumplimiento de la Ley Rider, la compañía decidió contratar a los repartidores. Estas iniciativas no son siempre bienvenidas entre las personas que trabajan en estas apps, lo cual lleva a preguntarnos: ¿Podemos imaginar regulaciones del trabajo digital que respeten los derechos laborales y a la vez incluyan las  necesidades de las personas  trabajadoras? 

Un contexto de desigualdad y precariedad

En América Latina, las desigualdades estructurales generan la base de la precariedad en el trabajo digital. Las brechas digitales, caracterizadas por el acceso desigual a tecnología y educación digital, excluyen a los sectores más marginados,  creando una división entre quienes pueden beneficiarse de la economía digital y quienes la experimentan desde la vulnerabilidad. 

Ante este contexto, las plataformas de trabajo localizado se presentan como una alternativa de generación de ingresos rápida y simple. Sin embargo, operan mayoritariamente sin marcos regulatorios claros, lo que deja a las personas sin acceso a protección social ni prestaciones básicas.  Estas personas deben cubrir los costos de operación y mantenimiento de sus herramientas de trabajo, pero esto no siempre es retribuido con ingresos estables. Las plataformas no solo no proveen cobertura ante accidentes y enfermedades, sino que también tienen poder unilateral de suspender o incluso bloquear a estas personas, impidiéndoles trabajar. Estas decisiones pueden estar asociadas a falta de cumplimiento de ciertas métricas, como la aceptación de cierta cantidad de pedidos o viajes. Esto demuestra un claro  desbalance que desdibuja el límite entre el servicio autónomo y la subordinación laboral.

Este panorama nos lleva a hacernos la siguiente pregunta: ¿por qué entonces la regulación no es bienvenida entre las propias personas que trabajan con estas apps? La dicotomía entre el trabajo flexible y la relación de dependencia lleva a pensar que una regulación eliminaría los principales atractivos de este trabajo, como la flexibilidad. Es importante destacar que si bien muchas personas utilizan estas apps como forma para generar ingresos extra, muchas dependen de ellas como su única fuente de ingresos, lo cual puede implicar jornadas laborales muy largas debido a que no todo el tiempo de logueo es remunerado. Según los reportes de Fairwork, que evalúan la remuneración horaria por estos trabajos, el índice de pago decente aún es muy bajo, no solo a nivel regional sino también global. Esto es especialmente grave cuando consideramos que en algunos países, por ejemplo en Argentina, se han evidenciado más de un 50% de repartidores y conductores encuestados con carga horaria semanal superior a las 45 horas. Si estos casos no cuentan con prestaciones sociales básicas, estamos hablando de vulnerabilidad laboral.

Estas problemáticas dan cuenta de la necesidad urgente de avanzar hacia marcos regulatorios que protejan a las  personas trabajadoras de plataformas y aseguren condiciones laborales dignas. No obstante, algunos países de la región han comenzado a implementar normativas en este sentido. A continuación haremos un breve diagnóstico.

Avances normativos

La región latinoamericana cuenta con distintas iniciativas y abordajes respecto a  la regulación. En Argentina, Brasil y Uruguay, el debate se centra en el reconocimiento de la relación laboral, mientras que en Costa Rica y Colombia los proyectos de ley buscan establecer contribuciones a la salud y seguridad social. Luego pueden mencionarse algunas iniciativas para las plataformas de transporte de pasajeros, como los casos de Ecuador y Bolivia, donde estas funcionan bajo un modelo de licencias de operación que permite cierta supervisión gubernamental. De todas formas, aún la mayoría de los países de la región se caracterizan por la ausencia de normativas o iniciativas vigentes en la temática. Buena parte de esta información se puede encontrar en WageIndicator, un portal que centraliza las novedades regulatorias de este tipo a nivel global.

Frente a tal escenario, sumada la presión social por mejores condiciones de trabajo, Chile ha dado un paso significativo con la Ley Nº 21.431. Implementada en 2022, esta ley reconoce derechos como la sindicalización, seguro de accidentes y el acceso a seguridad social, preservando la flexibilidad horaria. Sin embargo, según la última evaluación realizada por Fairwork en Chile, la regulación no siempre resulta efectiva. En muchos casos, las propias personas trabajadoras desconocen los derechos que les corresponden bajo estas nuevas leyes, lo que limita su capacidad para exigirlos. Asimismo, un relevamiento realizado por la OIT en Chile demuestra que el 60% de los trabajadores de plataforma continúan ejerciendo sus tareas en condiciones de informalidad. 

La combinación entre el vacío normativo y la falta de información sobre los derechos fundamentales en el ámbito laboral genera que las plataformas impongan sus propias condiciones. Fue así como en España las plataformas de reparto no respetaban las condiciones establecidas por la Ley Rider, pero luego de que el gobierno aplicara múltiples sanciones, las compañías decidieron acatar la iniciativa adoptando un modelo de contrato laboral

Las regulaciones buscan establecer límites y protecciones mínimas, que permitan a los trabajadores acceder a derechos esenciales, sin necesariamente eliminar la flexibilidad que caracteriza a estos empleos. El caso mexicano presenta una propuesta interesante debido al reconocimiento de la subordinación discontinua, permitiendo a los trabajadores conservar la flexibilidad en sus horarios, pero asegurando que el tiempo efectivamente trabajado sea respaldado mediante el otorgamiento del derecho a prestaciones sociales y la desconexión laboral. Asimismo, pretende implementar mecanismos de transparencia en los algoritmos que asignan tareas, y una perspectiva de género que aborda casos de acoso y hostigamiento.

Sin embargo, la regulación no debería entenderse como punto de llegada sino como punto de partida. Resulta indispensable que estos esfuerzos incluyan campañas de concientización a nivel regional, que informen a las personas trabajadoras sobre sus derechos, los puntos donde son vulnerados y las herramientas para hacer frente. Estas iniciativas deben asegurar que los algoritmos utilizados por las plataformas respeten la dignidad y los derechos laborales, y que existan mecanismos para supervisar, auditar y regular el uso de los datos.

El camino hacia un entorno digital más equitativo en la región requerirá esfuerzos coordinados y sostenidos que involucren a gobiernos, organizaciones de la sociedad civil, sindicatos y empresas, con el fin de garantizar que la digitalización sea una herramienta para la justicia y la inclusión, y no un reproductor de desigualdades.

CONECTIVIDAD EN AMAZONÍA: Recomendaciones para combatir la brecha digital

Derechos Digitales, en colaboración con Fundación Internet Bolivia (Bolivia), Instituto de Defensa de Consumidores (Brasil), Dejusticia (Colombia) y Fundamedios (Ecuador), ha estado explorando desde 2023 la realidad de la región amazónica en diversos países. Este diagnóstico, sumado a un proceso de talleres participativos con comunidades indígenas y rurales, ha generado un conjunto de recomendaciones para cerrar la brecha digital en la Amazonía.

La suspensión de X en Brasil, y la vigencia del Estado de Derecho

El pasado 30 de agosto, la máxima corte de justicia de Brasil, el Supremo Tribunal Federal, emitió una decisión que, entre otras cosas, ordenó la suspensión del servicio de la red social X —antes Twitter—. También decidió establecer sanciones a los usuarios y usuarias que evadieran dicha suspensión a través de distintas herramientas como las redes virtuales privadas (o VPN), e inicialmente ordenó a Apple y Google retirar de sus tiendas de aplicaciones móviles este tipo de herramientas, medida que fue revertida horas después.

La decisión de suspensión inmediata y completa del servicio, que sigue vigente a más de una semana desde su emisión, fue impuesta como resultado de que la red social incumpliera diversas órdenes judiciales dirigidas a la entrega de información de algunos usuarios y el bloqueo de ciertas cuentas y contenidos.

Antecedentes necesarios sobre el fallo 

De la lectura del fallo judicial del 30 de agosto pasado que ordena la suspensión inmediata y temporal de X, y la poca información disponible, emergen dos hechos de contexto para entender cómo y por qué la justicia emitió una de las medidas más gravosas según el Marco Civil de Internet, la normativa de Brasil aprobada hace más de 10 años atrás que regula internet.

En primer lugar, sabemos que el Supremo Tribunal Federal (STF) hace meses ordenó a X la entrega de los datos personales de ciertas personas y el bloqueo de diversas cuentas y contenidos que estaban presuntamente implicadas en actos de intimidación a agentes policiales. Estas órdenes estuvieron  enmarcadas en una investigación llevada a cabo de manera confidencial por ese máximo tribunal, y que buscaba esclarecer los hechos de intento de golpe de Estado así como atribuir las debidas sanciones a sus responsables.

En segundo lugar, sabemos que con posterioridad a la emisión de dicha orden inicial, la red social X habría apelado su contenido, pero el STF se sostuvo en su decisión, por lo que la plataforma debía cumplir el fallo aunque fuera adverso a sus pretensiones. La justicia intentó, por varios medios, amenzar a X a que cumpliera, pero en ese punto la justicia y la plataforma ya no tenían un punto de contacto local que facilitara su comunicación: la red social había suprimido su representación legal, ante la eventual sanción de prisión que podría ser impuesta a sus delegados en Brasil por los reiterados incumplimientos, a lo que se sumó también el despido del resto del equipo de X en ese país.

Por su desacato reiterado, el STF impuso multas cuantiosas a X. De igual modo, congeló los activos de la empresa Starlink, donde Elon Musk –accionista mayoritario de X– también figura como dueño. Al día de hoy, la orden judicial que inició todo este ir y venir, sigue sin ser cumplida.

Ahora bien, hay que reconocer que la decisión de suspensión inmediata y temporal del servicio de X en Brasil es, en definitiva, el desenlace de un conjunto de decisiones sobre incumplimientos judiciales, cuyos efectos fueron escalando. Para que la suspensión sea levantada y se restablezca la prestación del servicio de X en Brasil, el STF exige a la red social que nombre una representación legal en el país –para facilitar la comunicación entre ambas partes–, que cumpla con las órdenes iniciales de entrega de datos personales y eliminación de contenidos, y que pague las multas adeudadas. 

Fuera de discusión: el Estado de Derecho y las decisiones de la justicia

A quienes ejercemos abogacía se nos enseña que la vigencia del Estado de Derecho transita, entre otros, por el imperio de la ley para todas las personas y el respeto a las decisiones judiciales. Y se nos advierte que, aun cuando el contenido de los fallos pueda ser discutible, la controversia en torno a las decisiones judiciales debe transitar por las vías legalmente establecidas para ello. Hay que jugar según las reglas que se espera que se apliquen a todos por igual.

Pero eso no parece ser igualmente aceptado desde el Valle de Silicio (Silicon Valley) . Desde luego, la estrategia de evasión de la ley por parte de las Big Tech fuera de Estados Unidos no es nueva. En países de América Latina se valen de diversas estrategias para justificar por qué los ordenamientos locales no les son de aplicación. Uno de los argumentos más comunes para la elusión de las decisiones judiciales o administrativas apunta a la falta de jurisdicción: la supuesta ausencia de validez o aplicabilidad (para ellas) de la ley de los países en que no está domiciliado su centro de operaciones principal, o  el argumento según el cual la filial registrada fuera de los Estados Unidos no tiene relación alguna con la empresa principal que administra la plataforma de red social, streaming, reproducción de videos, o el servicio que sea. 

Los argumentos varían y, en ocasiones, las plataformas ni siquiera responden al pedido de las autoridades, dejándolas en visto. Pero la maniobra empleada por X en Brasil (en particular, las acciones de su CEO Elon Musk dirigidas a atacar la integridad de los jueces del caso y la justicia en general) no había sido vista de una manera tan cruda y explícita hasta ahora en nuestra región. 

Desacatar un fallo judicial de manera sistemática y cerrar las actividades de la filial de esa Big Tech haciendo imposible la actuación de la justicia, reafirma cuán fácil puede ser para estas empresas desvirtuar la eficacia jurídica y simbólica del derecho. La lógica de la suspensión temporal de un servicio según el Marco Civil de Internet, es que sea temporal en tanto que se espera que la plataforma cumpla con sus obligaciones rápidamente. Pero no parece en este momento que X vaya a cumplir con esta expectativa. ¿Qué hará la justicia ahora de cara a la decisión de bloqueo si la red social, como quedó claro, no tiene interés alguno de cumplir sus decisiones en el futuro próximo? ¿El bloqueo generalizado se mantendrá de manera indefinida?

Pese a todo, en esta tensión que emerge entre el poder de las Big Tech y el poder de los Estados, en lo que pensamos que debemos estar de acuerdo es en el imperio de la ley y en el cumplimiento de las decisiones judiciales en los países democráticos, aún cuando podamos y tengamos el derecho de cuestionar su contenido y los procedimientos aplicados en la toma de la decisión judicial.

Asimismo, vale la pena mirar con cautela el caso de Brasil que nos enseña que la relevancia económica de un mercado puede no ser suficiente garantía para incentivar el cumplimiento de la ley local. ¿Qué suerte le espera al resto de países de la región cuando tengan que lidiar con la red social X en el marco de decisiones de moderación de contenido, o acciones de lucha contra la desinformación o violencia que suceden y circulan en esa plataforma?

Un debate que no es nuevo: el bloqueo de servicios digitales

La suspensión temporal de un servicio, en el caso de Brasil, está fundamentado por el Marco Civil de Internet y en tanto que ley válida y democráticamente discutida y aprobada por el Congreso, ha de ser aplicada aun cuando entendamos hoy, de cara al estado del arte tecnológico, que es inconveniente y merece ser repensada frente a los estándares regionales sobre la licitud de las medidas restrictivas de la libertad de expresión.

La suspensión de la totalidad de un servicio puede ser desproporcionada, pues sus efectos se extienden a la generalidad de personas usuarias del servicio que no están vinculadas con la decisión judicial inicial. El fin perseguido, en el caso brasileño, que apuntaba a la entrega de datos de ciertos usuarios y bloqueo de contenidos y cuentas, no es proporcional de cara a los efectos generados para todas las personas que acceden a X en ese país. Pero la suspensión generalizada, aun cuando sea temporal, tampoco es útil si se emplea como incentivo para obligar al cumplimiento de las decisiones judiciales, como ya quedó claro con la reacción de X.

Cuando el sistema interamericano de derechos humanos se refirió en 2013 y 2016 a la medida de bloqueo –adoptada en Brasil como “suspensión temporal”-, lo hizo para referirse a un recurso extraordinario o excepcional, disponible en manos de los Estados para, entre otros, luchar contra la explotación sexual infantil, o la “piratería” en línea, y más recientemente, la desinformación. Su vocación era la de servir como recurso aplicable sobre los contenidos ilegales, y no como una medida para afectar de manera generalizada el servicio o el medio que lo difunde –salvo que el servicio sea en sí mismo ilegal–.

Para sugerir la distinción entre el contenido y el medio en materia de bloqueos, la Relatoría para la Libertad de Expresión acudió a la analogía con el cierre de un periódico o cualquier otro medio de comunicación, dejando en claro que en línea y fuera de ella, ese tipo de bloqueos –o suspensiones– erosionan el ecosistema mediático e informativo. La suspensión temporal de una plataforma como X en Brasil, aunque pueda ser legal, ¿continúa siendo una medida legítima, necesaria y proporcional en una sociedad democrática? 

Cierre: preguntas pendientes y matices necesarios

La situación de X se suscita en un contexto de restablecimiento de la democracia luego de un período de debilitamiento institucional y democrático en Brasil, donde los cuestionamientos al orden constitucional no solo provienen de actores políticos tradicionales, sino también de la instrumentalización por terceros de las plataformas digitales para propagar desinformación y erosionar la institucionalidad o el espacio público digital. Allí, los intentos de contener esa crisis han alcanzado inevitablemente la discusión sobre el rol de las plataformas tecnológicas y sus responsables.

En tal contexto, cabe preguntar por el futuro de la investigación penal en que la entrega de datos personales de los usuarios de la red social X iba a ser clave para determinar la identidad de las personas que habrían participado en eventos que amenazan el orden democrático. El cierre de las operaciones de X en Brasil significa, desde luego, un obstáculo serio para la impartición de justicia en ese caso. Sin embargo, sus consecuencias no pueden ser observadas de manera aislada o fuera de contexto.

En este caso, el desafío para la sociedad civil no radica únicamente en frenar los excesos de quienes instrumentalizan el debate público, sino también en encontrar un balance justo entre derechos fundamentales y las obligaciones de los actores que interactúan en el ecosistema digital. 

Por ahora, es necesario adoptar un enfoque que trascienda las posturas simplistas o radicales, en lugar de hacer eco de la polarización existente que no considera las complejidades socio-técnicas y jurídico-legales del problema. A medida que el caso de X en Brasil siga en desarrollo y se conozcan mayores detalles de los contenidos de las decisiones judiciales que confluyen, habrá que avocar los análisis tanto la importancia de la libertad de expresión como la responsabilidad de los actores privados en la esfera pública global, el cumplimiento de estándares internacionales de derechos humanos, la importancia de actualizarlos de cara al estado del arte tecnológico actual, y el rol de la justicia en la aplicación de la ley y los retos que enfrenta en esa tarea.

Contribución a la consulta de la Relatoría Especial para la Libertad de Expresión sobre discurso no protegido

La contribución se centra en el punto n. 13 de la consulta que preguntó a la sociedad civil y otros actores sobre cuál debería ser el rol de los actores privados de internet frente al discurso no protegido. El aporte recoge algunos de los estándares del sistema interamericano en derechos humanos en esa materia, así como el trabajo de AlSur y principios aplicables en esa materia.

Gobernanza sobre las plataformas digitales y el rol de los reguladores de medios

Recientemente, la ciudad de Dubrovnik fue sede de una conferencia para el futuro de la gobernanza de plataformas digitales a nivel global. Este evento, celebrado en junio de 2024, reunió a expertas y representantes de diversos reguladores estatales y sus redes, para discutir la implementación de sistemas de gobernanza de contenidos de manera coherente a nivel mundial, con los contenidos ilegales o potencialmente dañinos en internet como el foco de la preocupación.

La conferencia en Dubrovnik es el paso más reciente en un proceso que comenzó con la publicación de las Directrices de la Unesco sobre la gobernanza de plataformas digitales en noviembre de 2023. En febrero de 2023, la conferencia «Internet para la Confianza» buscó construir un consenso inicial sobre estas guías, sentando las bases para la discusión y el desarrollo de políticas más específicas. Entre ambos eventos, se llevaron a cabo múltiples consultas y reuniones técnicas para ajustar y afinar las estrategias regulatorias propuestas, no sin polémica.

Un largo trayecto, un hito más

Estos esfuerzos no están exentos de críticas y desafíos. La gestión de contenidos disponibles en línea debe encontrar un equilibrio entre la libertad de expresión y otros derechos potencialmente afectados. Organizaciones de la sociedad civil y expertos internacionales han señalado repetidamente que las políticas restrictivas, tanto a nivel estatal como de plataformas privadas, pueden llevar a la censura y a la limitación de la participación en el espacio cívico. Del mismo modo, la difícil armonización entre opciones regulatorias con múltiples ejemplos divergentes hace difícil pensar en soluciones únicas que sirvan a todos los intereses en juego. Incluso en la región, la Comisión Asesora contra la Desinformación en Chile subrayaba la importancia de pensar distintos esquemas de regulación, corregulación y autorregulación para combatir ciertas formas de discurso legal pero nocivo.

Una preocupación habitual en la región frente a las iniciativas por influenciar procesos regulatorios nacionales, es el riesgo de que la implementación de ejemplos comparados o de directrices internacionales sirva como excusa para implementar nuevas normas que sirvan como herramientas políticas para silenciar la disidencia política. Así ha pasado con varias otras leyes en la región, combatiendo supuestas preocupaciones como el discurso de odio, el cibercrimen o la desinformación. Todo lo cual podría socavar aún más la confianza en las plataformas digitales y fomentar la arbitrariedad en las autoridades encargadas de implementar nuevas reglas.

Organizaciones como Derechos Digitales expresaron preocupaciones afines durante la discusión de los borradores de las Directrices sobre la gobernanza de plataformas digitales de la UNESCO. También se ha señalado la falta de mecanismos claros para asegurar la participación significativa de todos los actores y se ha criticado la falta de un enfoque más inclusivo en el desarrollo de estas Directrices. Si bien el contenido de la versión final de las Directrices muestra un enfoque más equilibrado hacia la gobernanza de plataformas, con recomendaciones específicas para garantizar la transparencia, la rendición de cuentas y la protección de los derechos humanos en la regulación de contenidos en línea, persisten preocupaciones sobre la implementación efectiva de estas directrices, especialmente en contextos nacionales con marcos regulatorios débiles, instituciones poco preparadas, o tendencias autoritarias.

Competencias regulatorias bajo la lupa

La UNESCO ha promovido la creación de un Foro Global de Redes, reuniendo a su vez a distintas redes regionales de reguladores de medios, plataformas digitales y otros actores. El propósito declarado es compartir experiencias sobre mejores prácticas para implementar los principios de las Directrices a nivel nacional, regional y global. Las propias redes de reguladores (redes que en LatAm incluyen a PRAI https://prai.tv/) de medios y de seguridad en línea firmaron su compromiso con los objetivos de la UNESCO con ocasión de la conferencia de febrero de 2023, como también su voluntad de “desarrollar sistemas regulatorios coherentes” entre distintas regiones. No obstante, en el momento mismo de esos compromisos, el borrador 2.0 de las eventuales Directrices estaba siendo objeto de profunda crítica, en parte en torno a las propuestas de regulación allí contenidas.

Una cuestión crucial es el ámbito de competencia de tan distintos reguladores asociados a estas redes, y su efectiva capacidad de participación en la gobernanza de espacios digitales. Actualmente, los reguladores involucrados en estos foros internacionales tienen competencias variadas que incluyen la supervisión de la radiodifusión, la televisión, telecomunicaciones, y, en algunos casos, la regulación del comercio electrónico. Esta variedad de competencias plantea preguntas significativas sobre su capacidad para adaptarse a la regulación de plataformas digitales.

¿Tienen estos reguladores la experiencia y el conocimiento necesarios para gestionar eficazmente las plataformas digitales? ¿Es adecuado transferir las competencias regulatorias de medios tradicionales a espacios digitales dinámicos y en constante evolución? ¿Cómo se alinean en la práctica la postura de los reguladores digitales y los posicionamientos de agencias con diferentes ámbitos de acción? ¿Cómo se traducen los compromisos compartidos en acciones concretas a nivel nacional? ¿Cómo se suplen las faltas de facultades o de recursos que hagan imposible la implementación de políticas comunes entre países? Estas preguntas subrayan la necesidad de una capacitación y adaptación continua para los reguladores en todo el mundo, pero por sobre todo, ponen aún más en relieve diferencias institucionales significativas entre distintas regiones y distintas jurisdicciones. Las buenas intenciones pueden no ser suficientes para abordar los desafíos únicos del entorno digital. Menos aún si la conversación excluye a la participación multisectorial.

Reflexiones finales

Estas preocupaciones son especialmente relevantes desde la perspectiva latinoamericana. La región enfrenta desafíos críticos en términos de acceso a la tecnología, desigualdades socioeconómicas y marcos legales en desarrollo. La participación activa de la sociedad civil es crucial para asegurar que las políticas digitales no solo protejan los derechos humanos, sino que también fomenten la inclusión y el desarrollo sostenible.

La armonización de los esquemas de gobernanza de plataformas digitales a nivel global es un esfuerzo ambicioso que plantea importantes preguntas sobre jurisdicción, competencias regulatorias, derechos humanos y participación multisectorial. La UNESCO, a través de sus conferencias y redes, ha dado pasos significativos para liderar estas discusiones. Sin embargo, el éxito de las iniciativas de armonización dependerá de la capacidad de muy distintos reguladores para adaptarse a los nuevos desafíos, para la protección efectiva de los derechos humanos con inclusión de una amplia gama de actores en la toma de decisiones.

Censura Digital: ¿Protección de derechos o herramienta de silencio?

Imaginen que deciden transmitir en Youtube los cantos y arengas de una protesta que están presenciando y en la que se reivindica algún derecho. De repente, la policía aparece con altavoces reproduciendo a todo volumen canciones de Taylor Swift. Obvio, la música también es capturada en vivo y transmitida en línea para cientos de espectadores.

Y ¿la intención de la policía? Instrumentalizar la activación automática de los mecanismos de “notificación y retiro” que, en plataformas digitales como Youtube, dan de baja a los contenidos que circulan en línea presuntamente sin permiso de su titular.

Previo a una notificación muy vaga y genérica, se justifica el retiro de un contenido que, en este caso —sucedido en la vida real— no buscaba violar los derechos de una artista o perseguir el lucro, sino registrar la ocurrencia de un evento social y quizás histórico.

Notificación y retirada: viejo como la moda de andar a pie

Este mecanismo de vieja data en la historia de internet, y criticado hasta la saciedad en distintas jurisdicciones que lo han apropiado –incluido Estados Unidos donde nació en el contexto de la Digital Millenium Copyright Act DMCA—, es problemático al menos por dos razones.

Primero, por vulnerar el derecho al debido proceso de las personas usuarias de internet. Las razones del retiro, en la práctica, pueden ser muy vagas o genéricas. El retiro, es ante todo, una decisión unilateral de un privado (la plataforma de internet). Y en caso de acudir a la justicia para defender la validez de su contenido, la persona deberá demostrar que no vulnera el derecho de autor de nadie, o que actuó de buena fe. Ahora, buena suerte reclamando en la justicia de países donde las plataformas sacan con frecuencia de la manga el argumento “allá no tengo domicilio; sobre mí no tienen jurisdicción”.

En segundo lugar, por vulnerar el derecho a la libertad de expresión de las personas usuarias de internet, y en concreto, por promover la censura. En el caso de más arriba, que la obra de Taylor Swift suene de fondo en un video de una protesta, y que la intención de la transmisión en vivo no sea la de perseguir el lucro con la reproducción de la obra de la artista, debería contar en las decisiones sobre la presunta infracción del derecho de autor.

Pero para la “notificación y retirada” el contexto no suele importar mucho. Ni antes del retiro ni después de este, pues cuando la persona afectada decide reclamar ya no en la justicia sino ante la misma plataforma —lo que recibe el nombre de “contra-notificación”— la evidencia sugiere que excepcionalmente, salvo que la persona afectado tenga poder de negociación fruto de su visibilidad, estos reclamos terminan siendo atendidos.

Pese a esto, la “notificación y retirada” recibió el aval reciente de la Suprema Corte de la Justicia de la Nación en México. En un fallo, cuyo texto aun no se publica, declaró constitucional la reforma que en 2020 modificó la Ley Federal de Derechos de Autor LFDA y que introdujo dicha figura, pero ¿por qué?

Tratados multilaterales y la colonización regulatoria

En México la recepción del mecanismo de “notificación y retirada” estuvo justificada por el tratado de libre de comercio entre México-Estados Unidos-Canadá (TMEC) negociado en 2018 y en vigor desde 2020. El tratado ordena, tal y como lo prevé el capítulo sobre “Derechos de Propiedad Intelectual” (arts. 20.89 y ss) su adopción para las partes.

Que México adoptase el mecanismo de “notificación y retirada” pese a lo problemático que pueda ser, trasciende al mero cumplimiento a toda costa de un compromiso multilateral previamente suscrito. Su adopción es ante todo fruto de los mecanismos de colonización regulatoria que ejercen países del Norte Global sobre los del Sur.

Uno de los países con mayor poder de presión regulatoria luego de suscrito un tratado de libre comercio es Estados Unidos que, cada año, publica el informe “Special 301” que acusa y señala las “deficiencias regulatorias” de los países —mayoritamente del Sur Global- que tienen compromisos comerciales sin cumplir, incluido el TMEC.

La publicación pone a los países en una “lista de observación” o la “lista prioritaria de observación”, para dar un énfasis más o menos ominoso y de reprobación al conjunto de países seleccionados como incumplidores. En ellas se encuentran México (en la lista de observación) a los que sugiere endurecer mucho más la regulación de propiedad intelectual para prevenir y combatir la piratería en línea.

Este mismo mecanismo de presión, de hecho, fue uno de los que influenció en 2011 el trámite sin éxito en Colombia de una reforma que, como la aprobada en México, buscaba adoptar el mecanismo de “notificación y retirada” en la ley de derechos de autor. Pese a que organizaciones de la región que hacen seguimiento anual al Special 301 enfatizan en la necesidad de abolir dicho informe, la presión regulatoria continúa.

¿Qué esperar ahora luego del fallo?

Ahora, conviene esperar la publicación íntegra del fallo, pues en él hay un voto disidente de la Jueza Norma Lucía Piña Hernández, presidenta de la CSJN que precisamente da voz a las preocupaciones sobre el impacto que la “notificación y retirada” en la protección de la libertad de expresión de las personas. La disidencia de hoy, puede ser la voz mayoritaria del futuro.

Pero hasta entonces, veremos cómo el mecanismo de notificación y retiro es instrumentalizado para silenciar a las personas, tal y como sucedió en las recientes elecciones donde opositores políticos lo emplearon para censurarse mutuamente. Casos como el de su uso por cuerpos de policía en contextos de protesta no será de extrañar tampoco.

Hasta que la posición de la Corte pueda mutar a futuro, conviene seguir cuestionando este mecanismo que, pese a ser tan viejo, no logra probar su eficacia en la lucha contra la infracción de los derechos de autor sin sacrificar en el medio los derechos de las personas usuarias de internet.

Repartidores de aplicaciones: precarización al servicio del algoritmo

*This text is available in english here.

Poca atención hemos prestado, por ejemplo, al uso y propagación de los eufemismos que dislocan el lenguaje, y que obligan a llamar de otra forma al trabajo que se desempeña con la intermediación de plataformas. No son llamados trabajadores, sino ‘usuarios’.

Pensemos en el trabajo de los repartidores de comida, ejercido por personas que encuentran allí su principal o única forma de sustento económico. Es un trabajo que sabemos que se presta sin garantías de estabilidad laboral, sin salarios mínimos ni formas de protección y seguridad social básica, como salud o pensión. Un trabajo expuesto al rayo del sol y el agua, y bajo pobres condiciones de seguridad vial.

Es una actividad donde los trabajadores son calificados como ‘usuarios’ de aplicaciones tecnológicas ofrecidas por plataformas digitales que les permiten utilizarlas – la mayoría de las veces cobrándoles por ello– para contactar a restaurantes con usuarios/consumidores.

Un trabajo donde los repartidores no perciben salarios sino ‘propinas’, y donde las órdenes no las dicta un jefe, sino un algoritmo exento de responsabilidad o rendición de cuentas, pero que indica el cómo y dónde de la actividad a desempeñar. 

Se trata de una forma de trabajo que las doctrinas canónicas del derecho laboral temen denominar como tal, pues no encaja en la fórmula tradicional de las relaciones laborales según la cual se denomina trabajo a toda relación de subordinación, en la que el empleador dicta las condiciones del trabajo a otro, un empleado, y vigila su cumplimiento.

Ahora ¿por qué no se denomina trabajo a la actividad desempeñada por los repartidores de comida? Porque según las plataformas de repartidores, son libres de ejercer de manera independiente su actividad.

No son trabajadores, sino ‘repartidores independientes’

Pero ¿qué libertad tienen quienes encuentran en entregar comida a otros su único o principal medio de supervivencia económica? ¿qué independencia puede ejercer la persona que se rinde al dictado del algoritmo que establece, de manera arbitraria, cuál debe ser la cantidad aceptable de domicilios diarios para asignarle los mejores pedidos? o ¿cuál debe ser el tiempo mínimo de su entrega para que el repartidor no se exponga a algún tipo de sanción como puede ser, por ejemplo, la no asignación de ningún pedido en la plataforma?

No es considerado trabajo, pese a que como en cualquier empleo, las plataformas digitales de domicilios de comida pueden sancionar a quien incumple los ‘términos y condiciones’ del servicio, a través del bloqueo de la cuenta. Un bloqueo que, más allá de poner en riesgo el sustento vital del repartidor, se efectúa la mayoría de las veces sin mediar derecho a réplica o explicación alguna.

En definitiva, un trabajo que plataformas digitales y a veces los mismos reguladores de nuestros países se abstienen de calificar como tal, pese a que, en un contexto de crisis, como la pandemia, pocos dudaron en calificar y tratar como ‘trabajo esencial’.

Los eufemismos en las Altas Cortes: el caso de Colombia

El poder que tienen los eufemismos para disfrazar la realidad de lo que no es, también radica en convencer a otros de que su tarea no es examinarlos ni desmontarlos, sino en apuntar la vista hacia otra parte.

Por ejemplo, en Colombia, la Corte Constitucional falló en febrero de este año, un caso que involucraba a un repartidor afiliado a Rappi, la empresa colombiana de entrega de domicilios más grande del país y que presta servicios en varios países de América Latina.

El caso es más bien sencillo, pero sus matices por los eufemismos en juego fueron obviados por la Corte. En la acción de amparo o tutela, un repartidor había reclamado judicialmente por la vulneración de su derecho al debido proceso, pues le había sido bloqueada su cuenta sin que mediara justificación de la empresa que, por su parte, aludió al incumplimiento de los términos y condiciones del servicio una conducta acostumbrada por Rappi al punto de que la compañía tuvo que crear, por demanda del sindicato de domiciliarios, una Defensoría del Repartidor.

El reclamo judicial fue resuelto por la Corte al decir que el debido proceso, que comprende el derecho a recibir explicaciones frente a la aplicación de sanciones entre particulares, también rige a la relación de consumo entre los repartidores y Rappi. Y, en consecuencia, ordenó a la empresa a explicar de manera fundada y suficiente los motivos de su actuar a la persona afectada.

Pero la Corte evadió cualquier consideración que permitiese dar claridad sobre la naturaleza de la relación jurídica entre repartidores independientes y la plataforma digital, tan necesaria para que, por ejemplo, estos puedan reclamar condiciones dignas para la prestación de su actividad ‘esencial’. Esta omisión no inhibió a la Corte de afirmar que el bloqueo de la cuenta había puesto en riesgo el derecho al mínimo vital del repartidor afectado, entonces ¿qué relación de ‘consumo’ es esta que, una vez interrumpida por la parte más poderosa de esa relación contractual, es capaz de poner en peligro la subsistencia económica de la otra?

Los eufemismos que contaminan el lenguaje con el que nos referimos a la relación entre los repartidores –y otro tipo de trabajadores- y las plataformas digitales ameritan ser vistas de cerca, para que no sean el instrumento con el que, en la práctica, validemos la precarización de nuevas formas de trabajo que no resultan convencionales ante viejos dogmas.

De esos análisis tendremos que ocuparnos también, en las discusiones que tengamos sobre el futuro del trabajo y de los trabajadores en nuestra región. Como la sucedida en Europa, que luego de dos años de negociaciones, se adoptaron reglas aplicables a los repartidores de comida y conductores de vehículos de alquiler –como Uber- que, a través de una Directiva reciente, los ha calificado como verdaderos trabajadores y no como simples ‘independientes’, presumiendo una relación laboral entre estos y las plataformas digitales.