Donald Trump, Nayib Bukele y la moderación de contenidos en las plataformas

Hace unas semanas fuimos testigos de la suspensión de las cuentas de Twitter y Facebook del ex presidente estadounidense Donald Trump tras el asalto al Capitolio, que fue ejecutado por sus seguidores y que terminó con cinco fallecidos y decenas de heridos.

En este contexto, el argumento de las redes sociales se basó en que permitir al ex presidente usar sus plataformas representaba un riesgo mayor de incitación a la violencia. En un comienzo, el bloqueo duraría 12 horas en Twitter y 24 horas en el caso de Facebook, pero se volvió permanente.

Esta decisión reactivó el debate sobre la responsabilidad de los intermediarios y la moderación de contenidos, además de la inevitable colisión entre quienes consideran que estas acciones constituyen una suerte de censura privada y quienes defienden la implementación de estas medidas para salvaguardar la democracia.

Sin la necesidad de referirse de forma directa a estos hechos, la Comisión Interamericana de Derechos Humanos (CIDH) y su Relatoría Especial para la Libertad de Expresión, convocaron recientemente a la audiencia pública “Moderación de contenidos en internet y libertad de expresión en las Américas”, que se realizará el 25 de marzo. 

Sin embargo, en este debate también surgen otras interrogantes relacionadas a la uniformidad con la que las plataformas aplican sus términos de uso alrededor del mundo. En este escenario se sitúa el caso de Nayib Bukele, presidente de El Salvador, debido al contenido de sus redes sociales.

Bukele y el reflejo de Trump 

El presidente de El Salvador ha utilizado sus redes para atacar a sus opositores políticos, insultar a funcionarios, burlarse de la prensa –que ha revelado numerosos casos de posible corrupción de su gobierno–, hostigar a defensores de derechos humanos y, en general, a todo quien manifieste descontento con su gestión. Así, funcionarios y seguidores reproducen una narrativa de confrontación en las redes sociales, que contribuye al estado de crispación que Bukele mantiene desde el inicio de su mandato.

Esta situación ha generado importantes reacciones, tanto en el ámbito nacional e internacional, que van desde llamadas de atención por parte del Procurador para la Defensa de los Derechos Humanos y la Asamblea Legislativa, hasta el establecimiento de medidas cautelares dictadas por la CIDH, para proteger la integridad física de periodistas afectados por la narrativa de confrontación que surge desde el Estado. 

A raíz del asesinato de dos militantes del partido izquierdista de oposición Frente Farabundo Martí para la Liberación Nacional (FMLN) a fines de enero –que fue perpetrado por el Jefe de Seguridad del Ministro de Salud y afiliado al partido de Bukele, según información de la Fiscalía General de la República–, el debate se ha centrado en la influencia de la narrativa del presidente y sus funcionarios. Además de la importancia de este hecho y la vinculación con el discurso presidencial, cabe la posibilidad de que se trate de un asesinato político, como no se había visto desde la firma de los Acuerdos de Paz en 1992.

El actuar del presidente de El Salvador recuerda a las acciones ejecutadas por Trump hace algunas semanas, por la valoración de su bagaje comunicacional, que incluye expresiones ofensivas a quien le contraría y arengas directas a sus seguidores. Hace un año exacto, Bukele incitó a sus seguidores a la insurrección, el día en que invadió con fuerzas militares y policiales el recinto de la Asamblea Legislativa. Aunque este suceso no tenía sustento jurídico alguno, sus seguidores asistieron para acompañarlo en la toma de la Asamblea.  

https://twitter.com/nayibbukele/status/1225868839927402497
https://twitter.com/nayibbukele/status/1225842779475075072?s=20

Si bien en el caso de la invasión militar a la Asamblea existió una arenga explícita para realizar un acto violento contra una institución del Estado, no fue hasta el asesinato de los militantes del FMLN que algunas personas han comenzado a pedir que Twitter actúe sobre la cuenta de Bukele, motivadas por la forma en que esta red social reaccionó el 6 de enero en Estados Unidos.

De esta manera, la duda planteada en los primeros párrafos de esta columna, cobra una dimensión mayor: si Twitter y Facebook vetaron a Trump por relacionar su discurso con el asalto al Capitolio, ¿por qué a Bukele, con la toma de la Asamblea y las expresiones de violencia y degradación consiguientes, no se le han aplicado siquiera las medidas previas a la suspensión que se le aplicaron a Trump (advertencias en sus tweets o retiro de contenido específico)?

Esto no debe interpretarse como una petición de “deplatforming” contra el presidente de El Salvador. Cualquier medida de moderación que aplique alguna plataforma debe guiarse por estándares de derechos humanos, para garantizar el derecho a la libertad de expresión, evitar la censura y evitar que el contenido ilegal –o que incite a la violencia–, no sea difundido en línea. 

Lo expresado aquí sirve únicamente para ubicar en contexto la expectativa que podría estarse generando en El Salvador, considerando la forma en que podría actuar Twitter con Bukele y su discurso confrontativo, así como ocurrió en Estados Unidos. 

Hoy, a pocos días de iniciar el proceso de elecciones de alcaldes y diputados en El Salvador, y a pesar de que es probable que el partido de Bukele consiga una buena cantidad de representantes, el presidente continúa instalando una narrativa de fraude, sedición y golpe de Estado en torno a estos comicios a través de su Twitter. 

Política de inteligencia artificial: Ciudadanía al centro, no al margen

El pasado 27 de enero finalizó el plazo para participar de la consulta pública, que busca elaborar un borrador de la Política Nacional (chilena) de Inteligencia Artificial. El proceso comenzó en 2020, con una serie de encuentros que contaron la participación de diversas organizaciones públicas, académicas y de la sociedad civil, Derechos Digitales entre ellas. Habiendo tomado rol activo en el proceso, nos parece relevante establecer algunas consideraciones críticas al borrador de la política propuesta y al mecanismo elegido para llevar a cabo su discusión.

Uno de los componentes centrales para la aplicación exitosa de cualquier política pública es la legitimidad que la ciudadanía atribuye al actuar estatal. Desde ahí es posible articular una dinámica que expanda la acción estatal más allá del ámbito de la coacción y se oriente en favor de la configuración de un horizonte que movilice a diversos actores sociales hacia objetivos comunes. De este modo, tras cada política pública subyace una promesa de mejora o desarrollo. En esta línea, es esperable que exista también un diagnóstico que justifique la promesa que articula la política en cuestión. Tomando en consideración el horizonte normativo propuesto, lo razonable es que esta nueva reglamentación sea explícita respecto de los agentes, instituciones y articulaciones requeridas para conducirla en los plazos comprometidos.

En el caso de la Política de Inteligencia Artificial, no sería exagerado mencionar que gran parte de estos elementos no se pueden identificar de forma clara en el documento propuesto. Uno de los primeros problemas que se identificó contempla la dificultad para definir el propio concepto de “inteligencia artificial” (IA), así como anticipar sus eventuales ámbitos de aplicación.

Sobre la inteligencia artificial se manejan algunas cosas: que supondrá una nueva forma de establecer relaciones entre seres humanos y máquinas, entre ellas mismas y entre los propios humanos, gracias al desarrollo maquínico. Pero vaya que resulta costoso afincar el concepto en una definición funcional y que sea capaz de identificar los riesgos asociados al surgimiento de tal desarrollo tecnológico. Sabemos también que “inteligencia artificial” se asocia a eficiencia y rapidez, pero al mismo tiempo resuena en la reproducción de patrones de discriminación.

Resulta lamentable verificar que la política propuesta no descansa sobre un diagnóstico sistemático de las capacidades y articulaciones existentes en el país, además de aquellas brechas que podrían ser subsanadas mediante la aplicación de tecnologías de inteligencia artificial. La falta de un diagnóstico acucioso muestra una comprensión deficitaria de la economía política que subyace al desarrollo de estas tecnologías. En particular, respecto al desbalance existente entre el norte y el sur globales, y nuestra posición relativa como país en este contexto.

Pese a coquetear con la comprensión de la inteligencia artificial como una articulación socio-técnica, esta aproximación no articula la estructura del borrador. Así lo anticipaba la investigadora Carolina Gainza en octubre pasado, pues hasta ahora no se tiene en cuenta las implicancias de tales desarrollos, ni cuál es el rol de las humanidades y las ciencias sociales en esta discusión.

Antes bien, el borrador propuesto se plantea como una declaración bastante optimista sobre los desarrollos en inteligencia artificial y asume la permanente ampliación del ámbito de aplicación de estas tecnologías. No solo carece de una visión crítica respecto de para qué promover tales tecnologías, la mayoría de las veces menciona una perspectiva en torno a la gestión de las tecnologías desde una lógica de intervención vertical que omite futuros cambios en la estructura del Estado (cuestión que resulta relevante ante el proceso de discusión constitucional en la que se encuentra Chile).

Otro problema serio se presenta en la configuración de la estructura del documento, ordenado en torno a tres ejes: (1) factores habilitantes, (2) desarrollo y adopción y (3) ética, aspectos legales y regulatorios e impactos socioeconómicos.

El aspecto más complejo se encuentra en el tercer punto y es de articulación lógica: en el mismo eje se consideran los elementos normativos —orientaciones éticas y ordenamiento legal—, junto a los impactos previstos de la aplicación de tecnologías de inteligencia artificial. Es fundamental distinguir ambos elementos. Mientras el primero señala el marco desde el cual se desarrollarán las innovaciones tecnológicas, el segundo se refiere a sus consecuencias e incluye la variable de género. A nuestro juicio, esta mención debería ser un elemento primordial en la estructura del planteamiento de la política, así como la comprensión de estas tecnologías más allá de su estricta dimensión tecnológica.

En este sentido, cabe preguntarse, ¿qué es el orden normativo sino uno de los propios factores habilitantes para el desarrollo de cualquier tipo de empresa?

Cabe destacar que las orientaciones éticas ­—por sí solas— no serán capaces de ordenar el despliegue de este tipo de dispositivos. Es necesario contar con un marco normativo explícito, vinculante, que establezca los límites para la acción estatal y privada ante los riesgos de su implementación. Este marco normativo no parte de una hoja en blanco, si no por el contrario, es necesario tomar en cuenta las obligaciones vigentes para Chile en la promoción y protección de derechos humanos, que están igualmente vigentes con respecto a las tecnologías que el Estado y las empresas implementen.

Los riesgos no son pocos, pues hablamos de potenciales usos inadecuados de datos personales, que incluso pueden llevar a la exclusión en el acceso a bienes públicos o a discriminaciones arbitrarias en las relaciones entre privados.

La semana pasada se conmemoró el Día internacional de la protección de datos personales, una efeméride que enmarca la discusión sobre inteligencia artificial, pues los datos personales son una condición para el despliegue de la mentada inteligencia. ¡Y vaya que tenemos mucho por avanzar en esta tarea! Sobre todo, antes de abrazar el despliegue de la próxima tecnología de moda sin mediar mayor crítica.

Es por esto que es necesario revisar el mecanismo mediante el cual se ejercerá la participación pública del documento en cuestión. Así, un espacio de comentarios de tan solo 1.500 caracteres es a todas luces insuficiente, por tanto se requiere un formulario que evalúe el nivel de acuerdo con los objetivos y principios propuestos. No se está midiendo qué tan de acuerdo se puede estar entre afirmaciones polares, como si fuese una encuesta de opinión; lo que se busca es analizar de manera crítica una propuesta de política pública. Así, las potenciales bondades de la participación ciudadana se diluyen en un mecanismo de consulta mezquino, que además justifica la existencia de esta columna y los comentarios ampliados que Derechos Digitales ha enviado esta semana al Ministerio de Ciencia y Tecnología.

De todas formas, es rescatable la existencia del procedimiento de consulta pública, ya que da pie al enriquecimiento de la discusión por parte de la ciudadanía.

Es de esperar que la reflexión de la comunidad de investigadoras e investigadores —así como de activistas de distintos sectores de la sociedad civil y personas naturales—, nos permita contar con una mejor Política Nacional de Inteligencia Artificial. Una política capaz de identificar con claridad los riesgos, ámbitos de desarrollo, las instituciones y agencias responsables; las normas necesarias para su gobernanza, y los plazos de cumplimiento, habilitando el seguimiento, participación y ejecución de estas acciones por parte de la ciudadanía y con ella al centro, no al margen.

Llorar sobre la leche derramada: El problema cultural del manejo de los datos personales

Hace pocos días se hizo público que los exámenes médicos y la información de salud de miles de personas habían sido expuestos debido a fallas de seguridad de los prestadores chilenos de servicios médicos RedSalud y Bupa. Sin embargo, el manejo de la noticia vino dado con un enfoque de peso en los datos de salud de diputados, senadores y otras autoridades, como si esta información sensible fuera la que originara la gravedad del fallo. 

A principios de la pandemia mundial por COVID-19 se publicó la información georreferenciada de personas que habían dado positivo al test de diagnóstico de la enfermedad; el medio responsable señaló que no los había publicado con detalle “para evitar peleas entre vecinos o actos de discriminación”. 

Este nivel de indolencia y lassez-faire en el manejo de la información privada es endémica: basta prestar atención por cinco segundos para notar cómo en América Latina nuestros números de identificación personal (llámese cédula, RUT, carnet o como prefieran) están esparcidos por las bases de datos más diversas, públicas, privadas, gubernamentales, bancarias y de retail, que se los intercambian como fichas de bingo. En Venezuela, a más inri del sistema de vigilancia omnipresente, el propio gobierno ha inventado mecanismos de phishing para obtener datos sobre la conducta política de sus ciudadanos.

Es fácil en este punto culpar a los ciudadanos por la facilidad con la que estamos dispuestos a entregar nuestros datos a cambio de un poco de comodidad, a dar nuestro número de identificación para obtener un descuento o a iniciar sesión con nuestra cuenta de Google para evitar crear una nueva contraseña.

Lo cierto es que estamos jugando con cartas marcadas: pretender que sea el ciudadano el que cargue con el peso de la desigualdad económica y social que implica proteger sus datos. Perderse ese descuento que puede, hacer una diferencia a fin de mes; o tener el tiempo y el conocimiento necesario para comprender cuál es el trasfondo de usar una red social en lugar de otra menos privada. Eso es trasladar responsabilidades a quien menos debería acarrear con ellas.

Si nuestros propios gobiernos no son capaces de enfrentar el problema de la protección de los datos personales con la seriedad que merece, si manejan bases de datos centralizadas e inseguras que son vulnerables ante cualquier ataque y tampoco toman las medidas necesarias para sancionar a las empresas privadas que llevan a cabo las mismas prácticas, entonces de nada vale que nos pongamos el sombrero de papel aluminio y nos alejemos de la vida en sociedad. 

¿Tendrá sentido que —de aquí a una década o quizás antes— tengamos que inventar nuevos mecanismos de verificación porque los patrones de nuestras huellas digitales se han perdido en una tras otra filtración de datos y ahora se requieren para hacer trámites bancarios, para comprar cosas, para entrar a nuestra casa o para desbloquear nuestro teléfono?

¿Valdrá la pena llorar sobre la leche derramada una vez que nuestra privacidad haya sido vulnerada hasta el punto de no retorno? ¿O quienes no tienen “nada que ocultar” publicarán finalmente la contraseña de su cuenta bancaria? 

Hasta que no comprendamos la gravedad de un problema que nos afecta a todos y todas, no solo a diputados y ministros, nuestros datos personales seguirán siendo fichas de intercambio en un juego en el que la casa siempre gana.

Protección de datos personales en Ecuador: El momento es ahora

A mediados de septiembre de 2019, la prensa internacional reportaba “la mayor filtración en línea de información personal en la historia de Ecuador”, con los datos de la casi totalidad de la ciudadanía expuestos. Se trataba de 18 GB de datos distribuidos en múltiples archivos, que incluían nombres, información financiera y otra información personal de 20 millones de personas.

Al comienzo de la pandemia, la declaración de Estado de Emergencia en Ecuador dispuso que “[p]ara el cumplimiento de las restricciones del presente Decreto se podrán utilizar plataformas satelitales y de telefonía móvil para monitorear la ubicación de personas en estado de cuarentena sanitaria y/o aislamiento obligatorio, que incumplan las restricciones dispuestas, a fin de ponerlas a disposición de las autoridades judiciales y administrativas competentes”. La sociedad civil de la región reaccionó con preocupación a este anuncio, planteando que esta medida revistía gravedad en un contexto en que, a pesar de la garantía de la privacidad consagrada en la Constitución, el Ecuador carece de una normativa legal y de una autoridad técnica e independiente que permita una adecuada protección de datos personales conforme a estándares internacionales de derechos humanos.

Como vemos, Ecuador sufre de una paradoja: reconoce la protección de datos personales como derecho fundamental, basado en su Constitución, así como en tratados internacionales de derechos humanos que protegen la privacidad, pero carece de una estructura legal interna para garantizar dicha protección, lo que deja a ecuatorianas y ecuatorianos en la práctica en la indefensión, ante situaciones y medidas como las descritas.

En efecto, Ecuador es uno de los pocos países de América Latina que no cuenta con una Ley de Protección de Datos Personales, mientras otros países de la región lo hacen desde más de 20 años, o la han aprobado recientemente. Para remediarlo, el 19 de septiembre de 2019 el presidente de la República presentó ante la Asamblea Nacional el Proyecto de Ley Orgánica de Protección de Datos Personales.

La iniciativa ha concluido su primera revisión por la Comisión de Soberanía, Integración, Relaciones Internacionales y Seguridad Integral, la cual ha presentado un texto consolidado a consideración del pleno de la Asamblea Nacional.

El proyecto está actualmente en tabla para su discusión y es crucial que las ecuatorianas y ecuatorianos se mantengan atentos a este desarrollo legislativo y movilicen a sus representantes de todo el espectro político para asegurar que esta ley —esencial para la efectividad del ejercicio de los derechos fundamentales de la ciudadanía en el siglo XXI— sea aprobada.

Para entender la relevancia de esta moción para el Ecuador hoy, y por qué no puede seguir siendo postergada su discusión, es necesario comprender la transversalidad del objeto regulado por la ley de protección de datos personales. Este derecho no solo garantiza la autodeterminación informativa y la privacidad, si no que posibilita el libre ejercicio de otros derechos como la libertad de expresión, la no discriminación, la participación ciudadana, el derecho a reunión pacífica, el acceso al empleo, la salud, la educación, entre otros.

El objetivo de la ley general de protección de datos personales es establecer reglas para el desarrollo de actividades que involucren la recolección y procesamiento de datos, por parte de agentes públicos y privados. Así como prevenir injerencias arbitrarias en el normal desarrollo de la vida de los ciudadanos y ciudadanas, de donde sea que tales injerencias vengan.

En un mundo cada vez más tecnologizado, la protección de los datos personales es indispensable, en especial para grupos vulnerables o históricamente marginalizados, para prever que la utilización de tecnología basada en el uso de esos datos pueda amplificar y replicar la dicriminación tradicionalmente sufrida. Esto aplica a la hora de postular a un crédito bancario comercial, recibir beneficios sociales del Estado o entrar en relación con una aseguradora de salud.

Hoy, los datos personales —cualquier información referida a una persona identificada o identificable— se entregan en todas las interacciones sociales, ya sea con el aparato público o entes privados que operan en todos los ámbitos de la economía, el quehacer social y cultural.

Sin embargo, por esa misma frecuencia y cotidianidad con que los datos personales se tranzan, muchas veces se pierde de vista que son una puerta a nuestra vida y nuestra posibilidad de interacción social. Una regulación de protección de datos personales permite que como ciudadanas y ciudadanos podamos contar con herramientas concretas para exigir límites en el uso de la información. Ese control es esencial para garantizar nuestra libertad, autonomía y dignidad como personas, frente al Estado y las empresas, donde las desproporciones de poder y potenciales impactos en ejercicio de derechos resultan más evidentes.

Actividades tales como tomar una cita médica, comprar alimentos, visitar sitios web, realizar búsquedas en internet, monitorear nuestros hábitos de sueño con dispositivos inteligentes, entregar información para acceder de una wifi pública y caminar por calles que cuentan con cámaras de seguridad, se traducen en un rastro de datos personales que puede ser recolectado en forma constante y que permite analizar nuestros hábitos, nuestras relaciones personales, nuestros gustos y necesidades, nuestras preferencias personales o políticas. Conocer esa información otorga un poder único para tomar decisiones sobre nuestra vida: ya sea ocupar un determinado puesto de trabajo, acceder a una oportunidad de educación, ser atendido preferentemente o no en la sala de urgencias, obtener un crédito bancario, recibir un beneficio social, ser cuestionado o no por participar en una manifestación pública, etc.

Una ley de protección de datos personales es precisamente el instrumento a través del cual las sociedades democráticas, comprometidas con la protección y promoción de los derechos humanos, establecen un marco que permite delimitar aquello que puede ser legítimamente conocido, analizado y utilizado para tomar decisiones a través nuestro.

La digitalización y automatización del tratamiento de datos personales propia del siglo XXI solo vuelve más evidente el problema y la necesidad urgente de su regulación, por la mayor capacidad técnica de recoger, almacenar y analizar datos personales. Pero una ley de protección de datos personales permite proteger a las personas de todo tipo de uso de sus datos —automatizados, o no, digitales o físicos— y de donde sea que provengan las amenazas entes públicos o privados.

Es indispensable que la ley de protección de datos personales que actualmente se discute en el Ecuador contemple los derechos que componen el núcleo esencial del derecho a la autodeterminación informativa, de lo contrario tal protección será ilusoria. Para eso la ley debe referirse a qué información personal puede recogerse, cómo se autoriza esa recogida, para qué puede usarse, por cuánto tiempo, cómo se resguarda, etc. En materia de protección de datos personales estas preguntas se traducen en determinados derechos que componen el núcleo esencial del derecho a la autodeterminación informativa, los famosos derechos ARCO: acceso, rectificación, cancelación y oposición. También, en principios tales como el de juridicidad, lealtad, transparencia, finalidad, pertinencia y minimización de datos personales, proporcionalidad del tratamiento, confidencialidad, calidad y exactitud, conservación, seguridad de datos personales, responsabilidad proactiva y demostrada, aplicación favorable al titular, e independencia del control.

Aquellas personas interesadas en proteger la habilidad de empresas o del Estado de tener control sobre la vida de las y los ciudadanos, intentarán decirles que este debate excede la sofisticación tecnológica, o la realidad económica y social del Ecuador. Algunos de esos puntos fueron levantados durante el debate registrado en algunas de las mesas de trabajo abiertas por la Comisión de Soberanía, Integración, Relaciones Internacionales y Seguridad Integral.

Sin embargo, afirmaciones de ese tipo no se avienen a la realidad, en la cual las y los ecuatorianos a diario experimentan los impactos del uso de sus datos personales (Sí, estamos pensando en ese llamado que recibiste el otro día de una empresa que ni conocías, ni eres cliente, pero que de forma misteriosa sabía lo que necesitabas).

Aquí no se trata de copiar modelos foráneos o adoptar instituciones que son de naturaleza controversial en el sistema interamericano de derechos humanos —como puede ser el derecho al olvido—. Se trata de no perder la oportunidad de dotar al Ecuador de una regulación moderna, para que se actualice en cuanto a las necesidades de una economía digital al servicio de la ciudadanía y, de paso, acorte su rezago respecto de otras naciones de la región que cuentan con este tipo de regulación hace dos décadas. Como compartió la Unidad de Flujos Internacionales y Protección de Datos de la Comisión Europea en sus contribuciones durante la tramitación de la Ley Orgánica de Protección de Datos, esta debe ser concebida “para establecer un sistema moderno de protección con características propias de un régimen moderno de protección de datos”.

Al inicio del debate legislativo de Ley Orgánica de Protección de Datos, en conjunto con la Asociación para el Progreso de las Comunicaciones presentamos a la Comisión de Soberanía, Integración, Relaciones Internacionales y Seguridad Integral un documento que ahonda en aspectos que consideramos indispensables para una buena política de protección de datos personales en el Ecuador. No se trata de estándares inalcanzables, ni de quedar entrampados en tecnicismos. Ecuador necesita definiciones claras respecto a lo que constituye un dato personal y un dato sensible (de manera no taxativa) y establecer niveles de protección acorde; principios vinculantes que hagan eco de la experiencia internacional —porque está demostrado que funcionan— y permitan orientar el régimen de protección de datos personales; una lista de derechos vinculantes de los titulares de los datos para garantizar que tengan control sobre su información personal; establecer obligaciones de los responsables de bases de datos, señalando con precisión a los sujetos obligados y los estándares de cumplimiento, en particular la seguridad; establecer un régimen sancionatorio de multas que sean disuasivas. Además, la creación de una autoridad de control que tenga la independencia necesaria y los mecanismos apropiados para garantizar la aplicación de la ley a todo ente público o privado.

Las excepciones al ámbito de aplicación de la ley y al consentimiento deben ser limitadas a casos excepcionales y establecidos con claridad. Para fortalecer las oportunidades de comercio del Ecuador con el exterior, la ley debe considerar la protección a los flujos transfronterizos de los datos, mediante mecanismos sometidos a una supervisión estricta y transparente, e incluir medidas de reparación para garantizar que los derechos de los usuarios viajen junto con sus datos. Los aspectos descritos en estos últimos dos párrafos son esenciales si se quiere garantizar la protección de los datos personales y, con ello, cumplir el estándar exigido por la Unión Europea para declarar a Ecuador un país adecuado en materia de protección de datos personales, cuya protección se ha transformado en el estándar global y cuyo cumplimiento es cuestión indispensable para el comercio digital.

Limitar la aplicación de la ley al flujo transfronterizo de datos o solo al contexto de relaciones comerciales y de consumo, o flexibilizar las normas sobre intercambio de datos personales bajo la excusa de que una ley proteccionista de los derechos de las personas significaría una traba para el desarrollo comercial del país, son falsos dilemas con los que algunos participantes del debate legislativo han intentado convencer a la Asamblea Nacional. Sin embargo, retrasar la discusión no deja ni los intereses económicos del Ecuador, ni el ejercicio de los derechos de su ciudadanía en mejor posición: solo mantiene en el rezago de alcanzar los beneficios de hacer exigibles sus derechos.

La atención de la ciudadanía al debate de la Ley Orgánica de Protección de Datos que se estará produciendo en la Asamblea Nacional en las próximas semanas es esencial para que sus representantes entiendan la necesidad de que se apruebe una legislación adecuada, que permita la plena protección de los derechos de las y los ecuatorianos: el momento es ahora.

El 2021 nos presenta dos oportunidades

La exclusión definitiva de las cuentas de Donald Trump en varias plataformas digitales (o «deplatforming») era algo que muchas personas deseaban como respuesta a la retórica del presidente y a la diseminación de odio, noticias falsas y teorías conspirativas. En otras palabras, esperaban el momento en que las plataformas de difusión de contenidos le dieran el mismo tratamiento que le dan a un ciudadano o usuario común, cuando incumple políticas y términos de servicio. Esta decisión es trascendental en varios sentidos y latitudes, y genera cuestionamientos importantes como: ¿cuáles son los límites entre la libertad de expresión y la censura?

Sin embargo, este tipo de debates, inclusive intentar responder a dicha pregunta, requiere de un análisis exhaustivo, no apresurado y desde las diversas aristas que lo componen. La más importante de ellas para el trabajo de nuestra organización: el impacto en los derechos humanos en ambientes virtuales y el futuro de internet.

Sin temor a equivocarme, puedo concluir dos cosas. Lo primero dice relación sobre la vigencia y el valor que representa cada vez más la discusión sobre la moderación de contenidos en internet; así como la regulación, autorregulación o co-regulación de aquellos actores que median el intercambio de contenidos en internet: los intermediarios.

El análisis sobre la forma en que se diseñan y aplican las políticas, y términos de servicio por parte de las plataformas digitales requiere de la consideración de los principios básicos de la gobernanza de internet, los derechos humanos, y de los valores democráticos de sociedades como la nuestra. En este punto del debate sobre las decisiones de los intermediarios en internet, cobra importancia el intercambio de ideas y los acuerdos que surgen de la sociedad civil, la academia, y los múltiples actores que conforman el ecosistema abierto y democrático de la red global tal como la conocemos (y deberíamos seguir cultivando).

Si bien, las alternativas con las que los usuarios de las plataformas digitales contamos hoy en día para producir contenidos, publicarlos y difundirlos a través de un universo de plataformas digitales, son ilimitadas, se debe a la forma en que funciona internet en sociedades como la nuestra. Estamos ante una nueva oportunidad para educar, reeducarnos como ciudadanos digitales, y para promover debates puntuales sobre los límites de la libertad de expresión, censura y el acceso a la información; la diversidad y la moderación de contenidos desde una realidad global de sociedades que se van agudizando cada vez más por la polarización política, los discursos de odio y discriminatorio, y la desinformación.

La segunda conclusión es más bien una reafirmación de que el debate actual sobre este caso en concreto reaviva la necesidad de no perder de vista la importancia del cultivo de habilidades que le permitan al lector discernir entre aquella información que muchas veces suele estar contaminada por sesgos comerciales, ideológicos o sectarios. Es decir, la capacidad para juzgar críticamente la información consumida a través de plataformas digitales, aplicando criterios propios de un lector letrado, que le permita transformarla libremente en contenidos o acciones para las diferentes esferas de acción con las que dicho individuo interactúa.

Este 2021 nos presenta dos oportunidades para afinar la comprensión y participación objetiva en debates que sean exhaustivos, no sujetos a contingencias, y donde Latinoamérica se posicione (tal como ya lo ha hecho Estados Unidos y Europa) respecto al futuro de la regulación normativa para plataformas de contenido. Además de la exclusión en plataformas de difusión de contenidos y aquellas que no son de contenidos; los distintos desafíos actuales, en razón de contextos y estándares distintos, del discurso político, diseminación odio y la desinformación.

Jugando con reglas de otros nunca vamos a campeonar

El rol de las redes sociales en la planificación de la invasión del Capitolio es evidente. Los extremistas de ultraderecha, fueron celebrados por el presidente Donald Trump en Twitter, y usaron esta red social, y otras como Facebook o Parler –cuyo principal atractivo era la falta de moderación, lo que atrajo a los baneados de otros lugares con reglas más estrictas— para organizar, promocionar, y transmitir en vivo los hechos del 6 de enero.

Este episodio fue la gota que rebalsó el vaso para las principales plataformas de internet, que hasta entonces habían tolerado contenido nocivo generado por el presidente de los Estados Unidos y sus seguidores, quienes constantemente ponían a prueba los límites de los términos de uso de las redes sociales.

Como sabemos, Trump fue baneado de una multitud de redes sociales, y Parler fue retirada de las tiendas de Apple y Google, y Amazon terminó el contrato de alojamiento en la nube, argumentando que inclumplieron los términos de uso de los servicios.

El caso de la app Parler es particularmente interesante, porque no se trata de una decisión sobre contenido generado por usuarios, sino que se trató de eliminar el acceso a una aplicación completa, a un nivel superior en la infraestructura de internet. Esto forma parte del fenómeno denominado como moderación apilada (del inglés “on the stack”), en el cual proveedores de servicios que no se ofrecen directamente a usuarios, como es el caso del alojamiento, procesamiento de pagos o las tiendas de aplicaciones, son quienes toman las decisiones sobre el retiro de contenido ilícito.

Este no es un fenómeno nuevo, sino que hay casos que ocurrieron hace más de una década, como pasó con el bloqueo de las transacciones en PayPal de Wikileaks en 2010, o casos como el del proveedor de alojamiento en la nube Cloudflare, quien decidió terminar su relación contractual con el medio de comunicación neonazi The Daily Stormer, luego de la marcha de supremacistas blancos en Charlottesville en 2017, y con 8chan en 2019, luego de la masacre de El Paso, asociada a la teoría de conspiración QAnon, difundidos en gran parte en este foro.

Ahora bien, ¿cómo afectan las decisiones de moderación on the stack a las normas sobre responsabilidad de intermediarios que se han generado en Latinoamérica?

En la región, tenemos países que han establecido normas en la materia, sea a través de leyes, como Chile (con la Ley 20.435 de 2010, en materia de derechos de autor), Brasil (con el Marco Civil de Internet de 2014) o México (con la reforma a la Ley federal de derecho de autor en 2020), o de decisiones judiciales, como es el caso de Argentina (en el caso Rodríguez contra Google de 2014), o Colombia (con la Sentencia de Unificación 420/19 de 2019).

Estas normas, más allá de sus virtudes o defectos particulares, ofrecen criterios claros y estables respecto de la responsabilidad de los proveedores de servicios por el contenido ilícito de sus usuarios, y de los casos en los que se justifica el retiro de contenidos de internet, lo cual suele ir asociado a un procedimiento claro y una orden judicial. Sin embargo, estas regulaciones dejan preguntas sin resolver: Por ejemplo, ¿Qué normas se aplican a los procesadores de pagos? O ¿qué pasa respecto de las decisiones de bloqueo de toda una aplicación?

En contraste a estas normas, las decisiones de moderación apilada suelen ser tomadas de manera contingente y en reacción a hechos concretos originados fuera de internet, y se basan en el criterio de cada plataforma, conforme a los incumplimientos de los contratos que tengan con las personas o aplicaciones que usan sus servicios. Además, las decisiones de las plataformas no suelen seguir procedimientos establecidos, y carecen de transparencia.

En esta ocasión, se eliminaron cuentas y servicios que no nos gustaban mucho por su generación de mensajes odiosos que portaban, pero en el futuro puede darse un caso en que bloqueen algo útil para la sociedad, como podrían ser las aplicaciones de mensajería encriptada. Es preciso tener reglas claras antes de que se eliminen plataformas que facilitan la libertad de expresión.

Con una internet cada vez más centralizada, las personas, organizaciones y gobiernos dependen cada vez más de las decisiones tomadas por los proveedores de servicios. Considerando que las decisiones tomadas por estas plataformas tienen alcance mundial, resulta necesario abrir el debate sobre qué rol van a tener las normas creadas por países distintos a los EE.UU. La Unión Europea ya propuso el proyecto de la Digital Services Act en diciembre. Todavía falta saber que podemos hacer desde América Latina.

Bloqueos y trolls: la nueva normalidad del copyright

Para buena parte del mundo, el comienzo del año conlleva una gran razón de celebración: en varios países se celebra el Día del Dominio Público, la jornada en que una enorme cantidad de obras intelectuales dejan de hallarse restringidas por los derechos exclusivos de autor, debido al transcurso del tiempo desde la muerte de sus creadores y creadoras. Aunque esa celebración es de complejidad variable, dependiendo de cada legislación nacional, y aunque hay países que por el momento no cuentan con esta celebración, siempre es beneficioso que exista más cultura circulando de manera libre, sin ataduras legales innecesarias. Más aún en un contexto de pandemia e intercambio cultural a distancia.

Como destacamos hace apenas unas semanas, la pandemia ha dejado claro que el acceso al conocimiento y la cultura, en sus distintas instancias de ejercicio, es una parte fundamental del desarrollo humano; al mismo tiempo que se reconoce que las reglas rígidas de propiedad intelectual se erigen como un obstáculo para ese ejercicio. Aunque la realidad y el futuro nos inviten a flexibilizar, o modernizar esas reglas, la regulación y la práctica ofrecen un panorama desalentador: no hay avances para entregar mejores reglas favorables a la educación y la cultura a nivel internacional. A la vez, varios países en América Latina comienzan a importar, o mantienen algunas de las peores prácticas globales sobre derechos de autor.

La invasión de los trolls

En Brasil, a fines de noviembre de 2020 fue denunciado por Canaltech el arribo masivo de los trolls del copyright, mediante el envío de cartas a miles de personas, cobrando a cada una de ellas 3 mil reales —unos 570 dólares de EE. UU—, por haber registrado sus números de dirección IP en conexión con la descarga vía torrent de algunos títulos de películas hollywoodenses. 

La información de esas personas provino de las operadoras de telecomunicaciones en el contexto de una solicitud por vía judicial, a instancias de una empresa alemana de gestión de derechos de autor, ocurrida a mediados de 2019. Los datos personales de unos 70 mil destinatarios de esas cartas quedaron expuestos a terceros, mediante una planilla compartida. De esta manera, se creó un riesgo innecesario para decenas de miles de personas, que buscaba facilitar un cobro de dinero, basado en una reclamación de muy dudosa legalidad. El Partido Pirata brasileño, en conjunto con varias organizaciones y redes de la sociedad civil, está denunciando públicamente esta actitud matonesca y contraria a normas y principios del Marco Civil de Internet y de la nueva Ley General de Protección de Datos.

Evadiendo a los jueces

Como denuncia Hiperderecho, en Perú se ha vuelto costumbre el bloqueo de sitios en los últimos años, por orden administrativa y sin intervención judicial alguna. Allí, el Instituto Nacional de Defensa de la Competencia y de la Protección de la Propiedad Intelectual (INDECOPI), en una interpretación laxa de sus atribuciones bajo la Ley de Derecho de Autor, desde 2018 ha ordenado el bloqueo de decenas de sitios como una medida cautelar por supuesta infracción de derechos de autor en los mismos. Esta medida se adopta sin notificación ni intervención de los titulares de los sitios, sino que se ordena el bloqueo a las empresas proveedoras de internet que operan en el país. A pesar del carácter extremo de la medida, no se generan instancias para asegurar su ajuste a derecho ni las enormes afectaciones de derechos que se generan. Es decir, no hay un control de la legalidad, ni la necesidad, ni la proporcionalidad de los bloqueos, o siquiera una comprobación imparcial de las circunstancias que los justifican.

Lo lamentable es que esto no es exclusivo de Perú. En Uruguay, la ley autoriza desde 2021 el bloqueo administrativo de sitios por infracción a los derechos de autor, específicamente tratándose del streaming audiovisual no autorizado. A pesar de las fuertes críticas de la sociedad civil a la versión inicial, la Ley de Presupuesto 2020-2024, faculta a la Unidad Reguladora de Servicios de Comunicaciones (URSEC) a adoptar “medidas sancionatorias y preventivas” que incluyen el bloqueo de sitios, previa denuncia de los titulares de servicios de televisión. Tras las críticas, el lenguaje de la ley fue limitado antes de su aprobación, y aunque todavía falta la reglamentación del procedimiento por el Ejecutivo, la mala señal es clara: es posible convertir a la autoridad administrativa en brazo armado de los intereses de un puñado de industrias en desmedro de la red.

El futuro exige algo mejor

A la espera de lo que ocurra en México con la discusión sobre la inconstitucionalidad de las reformas legales en implementación del T-MEC, en el resto de la región no hay muy buenas noticias en el ámbito de la protección del acceso al conocimiento y la cultura en línea. En lugar de flexibilizar las condiciones de acceso cuando parece más crucial (sin siquiera mencionar las necesidades más profundas de países en desarrollo), continuamos observando algunas de las peores prácticas posibles ya presentes en otras latitudes. A estas alturas, sabemos que el problema no son los trolls, ni los bloqueos, ni los retiros sin orden judicial: el derecho de autor está roto. No necesita ser arreglado, sino reformulado. El presente y el futuro lo exigen.

A la mierda el algoritmo

Una de las principales razones esgrimidas para justificar la inclusión de tecnologías en procesos sociales complejos dice relación con la eficiencia y eficacia que tales soluciones podrían ofrecer. Ante realidades complejas, la promesa tecnológica se articula en torno a la oferta de soluciones simples. Sin que por ello se entienda cómo es que el dispositivo llegó a tal resolución: el ya conocido problema de las “cajas negras “algorítmicas y su opacidad ante el escrutinio público.

Así, por ejemplo, a la hora de evaluar los méritos de las y los postulantes a la educación superior, o al momento de determinar quiénes estarán primeros en la fila para recibir la vacuna contra la COVID-19, no pocos han sugerido que tales decisiones sean delegadas hacia dispositivos tecnológicos y, entre estos, la etiqueta más convencional es la de “algoritmo”.

Los algoritmos, que no son más que sets de instrucciones concatenadas entre sí para articular un resultado, son erigidos como mecanismos “científicos”, “objetivos” y “neutrales” capaces de determinar cuestiones tan relevantes como el límite entre quiénes son inmunizados, y quiénes no, en medio de la pandemia más grande de los últimos 100 años.

Entonces, ¿Cómo podemos comprender que el algoritmo implementado por el hospital universitario de Stanford (Estados Unidos) haya excluido de la inmunización a las y los médicos internos que se enfrentan día a día al COVID-19?, y más importante todavía: ¿Sobre quién recae la responsabilidad de tal decisión y sus consecuencias?

Tal como explican Eileen Guo y Karen Hao, “los algoritmos se usan comúnmente en la atención médica para clasificar a los pacientes por nivel de riesgo, en un esfuerzo por distribuir la atención y los recursos de manera más equitativa. Pero cuantas más variables se utilicen, más difícil será evaluar si los cálculos son defectuosos”. En el caso particular de Stanford, la exclusión de las internas e internos se debió al modo en que se ponderó la exposición a pacientes por COVID-19. En el esfuerzo por hacer un modelo que integrase más variables, se perdieron de vista cuestiones que, sin mediar más que el sentido común, podrían haber tenido una resolución distinta.

La respuesta de las y los trabajadores del hospital no se hizo esperar: “Fuck the algorithm!” fue una de las principales consignas.

Tal grito de protesta ya no es novedoso. Fue exactamente la misma proclama que sostuvieron las y los estudiantes ingleses ante el proceso de selección universitaria, que mediante la aplicación de un algoritmo de selección favoreció a las y los postulantes de las élites inglesas. Louise Amoore auguró con claridad que la protesta contra el algoritmo estará en el corazón de la protesta política del futuro.

Así, día a día “los algoritmos” comienzan a tener un rol significativo en el modo en que configuramos nuestras relaciones sociales y, en especial, sobre los criterios decisionales que articulan la implementación de políticas públicas. De todas formas, hemos de saber que tras cada resultado algorítmico existe una decisión humana. Y, las más de las veces, tal decisión humana es también una decisión política (esto es, con contenidos normativos tácitos o explícitos), que muchas veces es diluida por la pretensión científica del dispositivo tecnológico.

Es por ello que debemos tomar especiales precauciones a la hora de favorecer la implementación de soluciones tecnológicas ante problemas complejos. No solamente atendiendo a la capacidad de éstas para arrojar un resultado, sino considerando las implicancias que subyacen a tal aplicación: por ejemplo, la reproducción de sesgos raciales que llevó, entre otras cuestiones, a abandonar el algoritmo de admisión para las y los postulantes del doctorado en ciencias de la computación de la universidad de Austin, en Texas.

Tal como señala María Paz Canales, “necesidad, adecuación y proporcionalidad en la respuesta tecnológica es lo que separa una crisis de salud global de una renuncia de los derechos fundamentales”. Es posible extender tal juicio más allá de la crisis de salud global y situar la consideración por la necesidad, adecuación y proporcionalidad como principios rectores para la aplicación de tecnologías en el concierto de la resolución de problemáticas públicas.

Por cierto, este tipo de fenómenos no son ajenos a nuestra región. Durante el segundo semestre de 2020, Derechos Digitales junto a un equipo de investigadoras e investigadores latinoamericanos, realizó una investigación destinada a conocer las distintas formas en que se implementan este tipo de tecnologías en cuatro países de América Latina (Brasil, Chile, Colombia y Uruguay). Esperamos poder compartir los resultados de nuestra indagación durante el primer trimestre de 2021.

En el ínterin, y a modo de avance, resulta importante comprender la forma en que son promocionadas estas tecnologías versus cuáles son sus aplicaciones efectivas. Sobre todo, si de su aplicación dependerá el entrar a una bolsa de empleo o ser considerado como una persona cuyos derechos pueden ser vulnerados. Este tipo de aplicaciones tecnológicas en América Latina son crecientemente populares, es fundamental, entonces, mantener el horizonte en la evaluación crítica de su necesidad, adecuación y proporcionalidad.

Sobre la (in)violabilidad de las comunicaciones

El derecho a la inviolabilidad de las comunicaciones privadas es un derecho fundamental contemplado en las principales convenciones internacionales sobre derechos humanos. En Latinoamérica, la mayoría de sus países reconoce a nivel constitucional la inviolabilidad de las comunicaciones como un derecho fundamental y que, por tanto, solo puede ser suspendido en casos excepcionales y bajo las condiciones establecidas en una ley. O, al menos, así debería ser.

Los estudios, sin embargo, muestran que el uso de medidas investigativas intrusivas de la privacidad de las personas, entre ellas, la interceptación de las comunicaciones, es una práctica que está lejos de ser excepcional.

Interceptación de las comunicaciones

Dado su carácter de derecho fundamental, la regla general es que el derecho a la inviolabilidad de las comunicaciones solo pueda ser limitado en los casos y bajo las circunstancias establecidas expresamente por ley, lo que se da, generalmente, en el marco de investigaciones penales o por motivos de seguridad del Estado.

Adicionalmente, estas medidas intrusivas suelen ir acompañadas por algunos mecanismos de control para evitar su principal riesgo: que terminen siendo ocupadas como herramientas de vigilancia estatal, especialmente en contra de ciudadanos y disidentes del gobierno de turno. Esto no es conspiranoia, la protección de las comunicaciones privadas frente a la vigilancia estatal se remonta a varios años en el pasado, siendo uno de los primeros antecedentes el caso de Giuseppe Mazzini, activista por la unificación italiana que descubrió que agentes estatales leían sus cartas.

Mecanismos de control de la vigilancia estatal

El principal mecanismo de control es la autorización judicial previa, pero algunos países han ido un poco más allá. Por ejemplo, en el caso de Brasil, una vez realizada la diligencia de interceptación, el juez debe decidir si los resultados son relevantes para la investigación. Otro caso interesante es el de Chile, cuya legislación exige, además de la autorización judicial previa, que la medida de interceptación sea notificada al afectado con posterioridad a su realización (artículo 224 del CPP). Sin embargo, la evidencia indica que los mecanismos de control existentes no son suficientes.

En el caso chileno, el mecanismo judicial ha mostrado ser mucho menos estricto de lo que debiera. De acuerdo a números recientes, se realizan alrededor de 66 interceptaciones diarias, por lo que es difícil que jueces estén analizando el mérito de las solicitudes. Estas  solo debieran ser autorizadas bajo sospechas fundadas, basadas en hechos determinados, y para persecución de delitos que merezcan pena de crimen). En cuanto a la notificación del artículo 224, tampoco se cumple.

Actualmente el único mecanismo fiable de control que existe para comprobar cómo funcionan las interceptaciones del CPP es la entrega voluntaria que las principales empresas de telecomunicaciones realizan de datos anonimizados, lo que ha permitido evidenciar los problemas del sistema.

Pero el proyecto de ley sobre delitos informáticos pondría en riesgo este último mecanismo, al aumentar la sanción que arriesgan las empresas en caso de incumplir el deber secreto respecto de los requerimientos de interceptación que reciben. Con las nuevas reglas, bajo la amenaza de una sanción penal – hoy, multa administrativa-, difícilmente las empresas querrán colaborar con instancias de control ciudadano, como la encuesta Quién Defiende Tus Datos.

Una explicación posible para la falta de cumplimiento de esta obligación legal es la falta de capacidades técnicas para realizar las notificaciones exigidas por la ley. De ser este el caso, la dificultad podría ser fácilmente solucionada con la ayuda de las mismas empresas de telecomunicaciones que reciben las órdenes de interceptación.

Estas empresas fácilmente podrían comunicar a sus usuarios el hecho de haber sido objeto de escuchas telefónicas, una vez terminado el plazo de la investigación. Pero actualmente están impedidas de hacerlo. Esto, porque mientras no se formalice la investigación en su contra, el usuario afectado por una escucha telefónica no tiene calidad de interviniente en el proceso penal y, por tanto, el deber de secreto que pesa sobre las empresas de telecomunicaciones alcanza al propio usuario afectado. Esto último, por aplicación del secreto relativo del proceso penal chileno: las investigaciones del Ministerio Público sólo pueden ser conocidas por los intervinientes del proceso (artículo 182 CPP), es decir, fiscal, imputado, defensor, víctima y querellante (artículo 12 CPP).

¿Significa esto que las personas afectadas por interceptaciones no tienen derecho a saberlo? En ningún caso. El artículo 224 establece el deber de notificar al “afectado”, no al “interviniente”. Pero la falta de mecanismos de control eficaces y el desconocimiento de los afectados por esta clase de medidas permite que las mismas sean abusadas, llegando a usarse incluso para la creación de pruebas. Lo anterior es particularmente grave, considerando que ni siquiera el Congreso ha logrado que el Ministerio Público informe sobre el cumplimiento de sus obligaciones legales.

La solución

Dado que el Ministerio Público no está cumpliendo con el deber de notificación del artículo 224, y que se niega a entregar información al respecto, en una sesión reciente de la Cámara de Diputados de Chile, donde se discute el proyecto de ley sobre delitos informáticos, se propuso un mecanismo de control que pareciera ser una solución eficaz y eficiente: que sean las telcos las que cumplan con el referido deber de notificación.

Sin embargo, tanto los representantes del Ministerio del Interior y Seguridad Pública como del Ministerio Público se opusieron a la medida, sin ofrecer una alternativa, aún cuando durante la misma sesión admitieron no estar cumpliendo con la obligación legal de notificar al afectado.

Ante la falta de soluciones alternativas, lo razonable sería que se volviera a discutir la que, hasta ahora, pareciera ser la única solución efectiva.

Ni conspiranoia ni exageración. No necesitamos viajar cientos de años en el tiempo, recordando a Mazzini para justificar nuestra preocupación. Basta pensar en Edward Snowden, cuyo caso – lejos de ser el único- permitió develar la extensión de la vigilancia estatal.

La invasión de los dispositivos usurpadores de cuerpos

Tu smartphone sabe cuántas horas duermes, en qué plataformas de redes sociales pierdes tu tiempo y qué sitios visitas. Hay refrigeradores que no solo saben qué contienen, sino que son capaces de hacer la lista de compra por ti. Si tomas clases o exámenes a distancia debido a la pandemia, puede que la plataforma que tu escuela o universidad ha decidido usar quiera saber cuántas veces mueves los ojos y si los tienes fijos en la pantalla durante toda la clase. La nueva pulsera de Amazon no solo registra tu ejercicio o tus horas de sueño, sino que también tiene opiniones sobre tu voz, tu cuerpo y tu estilo de vida.

Parece que hace ya largo rato que, como sociedad, decidimos dar por superada la falsa dicotomía entre privacidad: hemos decidido que, mientras más datos tengan los dispositivos, aplicaciones y plataformas sobre nosotros, más fácil nos será hacer las compras, sincronizar todas las cosas y tomar la menor cantidad de decisiones posible.

Esta característica —que se denomina “function creep” y describe el hecho de que un determinado sistema sea usado para una finalidad distinta a aquella para la cual fue diseñado originalmente— es típica de las tecnologías modernas, que al “poder” llevar a cabo ciertas funciones o recoger ciertos datos (como la ubicación de una persona, su velocidad de movimiento o incluso, en el caso del Halo, su temperatura) terminan buscando posteriormente qué nuevas funciones pueden ofrecerse con los datos recabados, y no a la inversa.

Lo más importante es que estos datos son recolectados por empresas como Amazon con el objetivo primario de “ajustar sus recomendaciones”, es decir, de venderte más cosas, puesto que su negocio se basa en la pretención de querer conocer al usuario incluso más de lo que el usuario se conoce a sí mismo.

¿No reviste gravedad acaso el hecho de que, como usuarios, no tengamos la agencia necesaria para ejercer resistencia al enfrentarnos con la implementación de tecnologías como el reconocimiento facial y el rastreo de la mirada en el sector educativo? ¿No es grave que hayamos normalizado el hecho de que una aplicación “de salud” o “de menstruación” posea información íntima sobre nuestros cuerpos y pueda venderla con fines publicitarios? La pandemia, como toda crisis, ha sido el caldo de cultivo ideal para facilitar que la sociedad acepte más rápidamente medidas de vigilancia que se le ofrecen como tablas de salvación, como las coronapps, propiciando que se instalen soluciones que hacen retroceder la línea limítrofe de la privacidad de un modo que luego será sumamente difícil restaurar.

Se hace no solo necesario, sino urgente, replantearnos el orden de prioridades que, como sociedad, hemos asignado a nuestra privacidad y a los datos que existen sobre nuestro cuerpo y nuestra actividad en línea. En la era de lo público, en la que más que nunca parecemos estar viviendo conectados a una cámara, no es cierto que la privacidad sea una cosa del pasado a la que debemos renunciar: muy por el contrario, es cada vez más indispensable que rescatemos lo privado, el espacio donde nuestra humanidad, y por ende nuestra democracia y nuestra cultura cívica, pueden florecer de manera más libre.