Neuroderechos para qué, maldita sea

El pasado 21 de abril, el Senado chileno aprobó de forma unánime el proyecto de reforma constitucional para la incorporación de los “neuroderechos”. Así, Chile está en posición de convertirse en el primer país del mundo en contar con una legislación específica que garantice el derecho a la “neuroprotección”.

Pero lo que a primera vista podría parecer una buena noticia es, en el mejor de los casos, un avance cuestionable, que poco contribuye a la consolidación del sistema universal de protección de los derechos humanos, que ha tomado 75 años construir, instalar y fortalecer.

Neuroderechos: ¿qué y para qué?

A nivel internacional, el mayor promotor de la necesidad de avanzar en la protección de los neuroderechos es Rafael Yuste, neurobiólogo español, cuya propuesta ha encontrado gran eco en Chile, particularmente en el Senador Guido Girardi, miembro de la comisión de Desafíos del Futuro, Ciencia, Tecnología e Innovación del Senado. Juntos presentaron en octubre de 2020 dos proyectos de ley: el primero, la reforma constitucional recientemente aprobada por el Senado. El segundo, un proyecto de ley “Sobre protección de los neuroderechos y la integridad mental, y el desarrollo de la investigación y las neurotecnologías”.

Pero, ¿qué son exactamente los neuroderechos y por qué requerirían protección especial? No es una pregunta fácil de responder. El proyecto original presentado por Guirardi junto a Carolina Goic, Francisco Chahuán, Alfonso de Urresti y Juan Antonio Coloma señala que la finalidad es proteger la “dignidad humana” frente al uso de nuevas tecnologías, particularmente aquellas que tienen por objeto el “cerebro humano”, que “no se agota sólo en una dimensión física, sino que más bien se expande hacia su dimensión de potencialidad mental que envuelve los misterios de la existencia humana”. En lo concreto, el proyecto alude al derecho a la privacidad de los “neurodatos”, a la identidad personal y la autodeterminación, a la igualdad frente al aumento de capacidad cerebral y al control de sesgos de los algoritmos. Dentro de las preocupaciones mencionadas como detonantes del proyecto, se señala “la posibilidad de leer la actividad neuronal” y los anuncios realizados por la empresa Neuralink de Elon Musk .

Si bien es cierto que las neurotecnologías han avanzado de forma importante durante los últimos años, particularmente en el ámbito de las interfaces cerebro-computadores, y que empresas como Neuralink han hecho una serie de anuncios rimbombantes sobre las posibilidades más inmediatas del desarrollo de sus productos, la verdad es que la tecnología se encuentra todavía en un estado embrionario y los miedos específicamente estipulados en el proyecto de ley están lejos de poder materializarse.

Pero incluso si aceptamos la posibilidad de que en el futuro la manipulación neuronal sea algo cotidiano, lo cierto es que el proyecto parte de la premisa errada de que se requiere una protección nueva y especial para los neuroderechos frente a “las nuevas amenazas que el avance científico y tecnológico envuelve”.

La Constitución Política de la República de Chile, en el número 1º de su artículo 19º, garantiza “El derecho a la vida y a la integridad física y psíquica de la persona”, redacción que incluye la protección de cualquier potencial “neurodato” y resguarda por si misma el concepto de los “neuroderechos”. Si existiera una genuina preocupación por la protección de los derechos de las personas en relación con su indemnidad física y psíquica, el texto constitucional actual ofrecía suficientes garantías.

Sin embargo, el proyecto original buscaba la modificación del articulado de la siguiente manera:

“La integridad física y psíquica permite a las personas gozar plenamente de su identidad individual y de su libertad. Ninguna autoridad o individuo podrá, por medio de cualquier mecanismo tecnológico, aumentar, disminuir o perturbar dicha integridad individual sin el debido consentimiento. Sólo la ley podrá establecer los requisitos para limitar este derecho y los que debe cumplir el consentimiento en estos casos.

El desarrollo científico y tecnológico estará al servicio de las personas y se llevará a cabo con respeto a la vida y a la integridad física y psíquica. La ley regulará los requisitos y condiciones para su utilización en las personas, debiendo propender especialmente al resguardo de la actividad cerebral, así como la información proveniente de ella”.

Así, mientras la Constitución chilena ofrece una garantía absoluta al “derecho a la vida y a la integridad física y psíquica”, la redacción propuesta debilitaba este derecho al incorporar dos excepciones: el consentimiento y la ley. Es decir, que el derecho a la indemnidad física y psíquica podría ser limitado en virtud de la voluntad del propio perjudicado o mediante una ley que estableciera los requisitos de tal limitación y del consentimiento de las personas.

Afortunadamente, gracias a la valiosa colaboración de expertos y expertas durante la discusión del proyecto, y a las indicaciones presentadas por distintos parlamentarios, el texto fue modificado. Sin embargo, se mantuvo el segundo párrafo que incorpora la noción de que “[l]a ley regulará los requisitos y condiciones para su utilización en las personas”. Por vía interpretativa, es posible argumentar que esta inclusión solo se justifica si entendemos que mediante la ley se podría limitar el derecho en cuestión. De lo contrario, bastaba con el texto actual.

Una cuestión parecida ocurre con el segundo proyecto ingresado por Guirardi, que en vez de proteger a las personas de ser objeto de intervenciones no consentidas mediante la —innecesaria— incorporación de un “nuevo” derecho, abre la discusión sobre la intervención forzosa, mediante la incorporación de una serie de excepciones.

Lejos de ser una cuestión anecdótica, los proyectos tienen un potencial de daño y erosión de los derechos fundamentales que requiere atención, así como la deficiente técnica legislativa empleada y la finalidad ambigua que persiguen. Más todavía cuando estamos ad-portas de escribir una nueva constitución; la sospecha de que se trataría de una manera de presionar por la instalación de esta discusión en la nueva Carta Magna no es injustificada.

Los intentos por introducir nuevos conceptos nacidos de la euforia que producen las tecnologías de moda son nocivos por dos razones: en primer lugar, desvían energía y recursos que serían mejor aprovechados si los invirtiéramos en garantizar una mejor protección de los derechos hasta ahora reconocidos en nuevos contextos de desarrollo científico y tecnológico. En segundo lugar, nos empujan a una espiral inflacionaria en la que cada nuevo desarrollo tiene el potencial de cuestionar la vigencia de las protecciones ofrecidas por el sistema universal de los derechos humanos.

Así, la regulación de los neuroderechos palidece en urgencia si la comparamos, por ejemplo, con la paupérrima protección de los datos personales en nuestro país, y que hoy habilita el perfilamiento y la discriminación de personas.  La postergada modificación a la ley de datos personales podría ayudar a la protección no solo de los “neurodatos”, sino de los datos personales de cualquier tipo y, sin embargo, el proyecto acumula polvo en el Congreso desde 2017. Se trata de una necesidad que ha sido señalada en múltiples ocasiones por todas las expertas y expertos en la materia, y cuyos impactos no son potenciales como los de las neurotecnologías, sino tremendamente concretos.

Rafael Yuste propone que la protección de los “neuroderechos” debiese estar al nivel de los derechos humanos. Esta afirmación debería levantar escepticismo respecto a la comprensión que tiene Yuste de la problemática a nivel de derechos y cómo abordarla, pues evidencia ignorancia respecto a los desarrollos en torno a los conceptos de autonomía, dignidad humana y autodeterminación, que han forjado el centro del sistema universal de derechos humanos.

Puede ser que la propuesta nazca de una preocupación honesta y bienintencionada, pero cuando se aborda ignorando 75 años de desarrollo de la protección de derechos humanos —como en el caso chileno— lejos de ofrecer solución a problemas inexistentes, genera riesgos reales e innecesarios.

No podemos pretender reinventar la rueda a cada rato. No es cierto que cada nuevo desafío tecnológico ponga en entredicho derechos y principios que, por su esencia, son posibles de actualización y refinación permanente. Enfoquemos nuestros esfuerzos en los problemas que enfrenta la ciudadanía hoy, con soluciones efectivas y eficientes.

Artificios “inteligentes” y la falta de inclusión en América Latina

El pasado lunes 19 de abril, Derechos Digitales presentó públicamente la iniciativa Inteligencia Artificial e Inclusión en América Latina. El proyecto incluye estudios desarrollados por especialistas en cuatro países de la región sobre la implementación de sistemas tecnológicos con aspectos de automatización a partir del sector público.

Hasta el momento, las características de este tipo de despliegue tecnológico en la región han sido escasamente documentadas. Sin embargo, más rápido que cualquier análisis, la implementación de tecnologías digitales sigue avanzando silenciosamente, con pocos espacios de debate y participación ciudadana. Así lo evidencian los casos analizados en Brasil, Chile, Colombia y Uruguay.

Es preocupante observar cómo antes de enfrentar los desafíos relacionados a la digitalización y al establecimiento de procedimientos adecuados de gobernanza de datos, los gobiernos se empeén en automatizar procesos por medio de sistemas tecnológicos que agregan nuevas capas de complejidad y opacidad. Aún más cuando pueden afectar derechos fundamentales como a la asistencia social, el empleo, la justicia o la salud; o culminar en intervenciones discriminatorias en la vida de las personas por parte del Estado.

Un nuevo fetiche

A partir de los casos analizados, una de las primeras cuestiones que llama la atención es la adopción de tecnologías que, antes de su despliegue, carecían de cualquier evidencia sobre su necesidad o utilidad. Es decir, se desarrollan e implementan “soluciones” a problemas insuficientemente descritos, pues en general no existe un diagnóstico previo que las justifique.

Esta falta de diagnóstico resulta crítica en tres aspectos: 1) a qué finalidad sirve la solución tecnológica específica (incluido el análisis de su adecuación al problema),  2) la preparación en el aparato administrativo para su implementación y 3) la capacidad de la ciudadanía de comprender los efectos de la solución tecnológica. Como consecuencia, la implementación de sistemas tecnológicos complejos resulta por sí sola problemática frente a un contexto insuficientemente preparado para su despliegue e impotente frente a su funcionamiento.

En los cuatro países analizados, la manera en que implementadas las distintas iniciativas revela una importante discrecionalidad y ausencia de planificación sobre el uso de tecnologías a nivel gubernamental. Por cierto, esta condición refleja una tendencia a nivel regional más allá de los cuatro países inicialmente considerados en nuestra investigación.

La característica común parece ser una aproximación de «solucionismo tecnológico»: la expectativa de que la tecnología digital sea solución a complejos problemas políticos y sociales. En este sentido, la enorme promoción a nivel global de tecnologías de inteligencia artificial las convierte en objeto de deseo para servidores públicos dispuestos a poner en riesgo a la ciudadanía para satisfacer la imagen de un Estado fuerte y moderno, independientemente de sus reales capacidades “inteligentes”.

Los cimientos del sistema

Si bien la innovación a nivel estatal es bienvenida y puede ser útil para lidiar con problemas de la gestión pública, es inaceptable que iniciativas que puedan implicar el acceso y procesamiento de inmensas cantidades de datos personales no pasen por discusiones previas y sin contar con un marco de legalidad adecuado. Pese a la ausencia de una discusión específica sobre la implementación de sistemas automatizados, los marcos normativos para lidiar con la protección de datos en los países analizados son todavía muy desiguales.

Como es sabido, el marco de protección de datos personales es demasiado limitado para regular sistemas de inteligencia artificial, pues apunta apenas a una arista de los mismos: la recolección y tratamiento de la información sobre personas naturales. No obstante, es ese ámbito del derecho donde, por su conexión con nuevas e intensas formas de procesamiento, se observan avances normativos, como garantías específicas para favorecer la “explicabilidad” de decisiones automatizadas o para integrar la revisión humana de esas decisiones. El intento brasileño de incorporar ambos aspectos en su normativa, detenido por veto presidencial, revela una importante falta de voluntad política por poner los intereses de la ciudadanía por encima de los imperativos de las industrias de tecnología, lo que seguramente no es exclusivo de un país.

Al mismo tiempo, la existencia de normas de protección de datos en los cuatro países analizados no han asegurado que los principios y reglas de la temática estuvieran en el centro de la atención estatal. Por el contrario, una característica común es la variación en la base legal para el tratamiento de datos, con el consentimiento como un factor a veces relevante, pero a menudo con bases de datos distintas y autorizaciones legales difusas para la inclusión de información desde diversas fuentes. Es decir, el aparato público extiende su función a partir de su legitimidad legal, sin tomar los debidos resguardos en obtener el consentimiento de las personas que se convierten en objeto de intervención estatal.

Esta es la clase de razones que explicitan la demanda no solo de una normativa para la fiscalización de los datos personales, sino de una autoridad pública de control, dedicada, especializada y con atribuciones para intervenir en la acción de otras agencias estatales si fuera necesario.

Pero como hemos dicho, la regulación de datos personales es apenas una arista. Parte importante de la acción estatal pasa por el estímulo a la inteligencia artificial, entendida como una vía de desarrollo industrial nacional. No obstante, esto tampoco es suficiente sin una visión completa sobre los distintos aspectos que confluyen en esta problemática. Si, por un lado, algunos gobiernos tratan de propagar sus principios o estrategias generales de inteligencia artificial, por otro, hay muy poca especificidad en cómo esos documentos guiarán la implementación de tecnologías desde el sector público. Por ejemplo, cuál será la importancia que darán a los derechos fundamentales y la transparencia.

Opacidad sin límites

Quizás uno de los problemas más relevantes que observamos cuando se trata de la adquisición estatal de tecnologías es la ausencia o insuficiencia de mecanismos para la integración directa de los intereses de la ciudadanía. En otras palabras: la falta de análisis conjunto con actores relevantes del sistema de forma previa a cada despliegue, la ausencia de mecanismos de control compartidos por intereses multisectoriales y la carencia de mecanismos de evaluación posterior.

Las falencias son múltiples: a la opacidad tradicionalmente asociada a sistemas de decisión automatizada, se suma la exclusión de la participación pública en el despliegue de los sistemas y la ausencia de mecanismos abiertos y transparentes de evaluación en la consecución de sus fines.

Los problemas que derivan de esa opacidad potenciada son también numerosos y conllevan, incluso, la insuficiencia de perspectivas diversas sobre los posibles impactos. La decisión pública sustentada únicamente en máquinas resulta una forma extrema de tecnocracia, que puede erosionar la legitimidad del aparato estatal y pone en discusión la real vinculación con los problemas que en teoría están destinados a abordar.

Hacia una agenda de gobernanza desde los gobernados

A partir de la recolección de datos empíricos sobre la implementación de sistemas automatizados o semi-automatizados es posible buscar factores comunes que faciliten, con base en el Sistema Interamericano de Derechos Humanos, una inminente discusión sobre el desarrollo de estándares regionales para su uso. Estos deberán orientar la producción de marcos normativos que hagan de la implementación de tecnologías, desde lo público, una expresión de las aspiraciones de la ciudadanía sobre el Estado, y no de las aspiraciones de una modernidad vacía.

Pero este es apenas un paso inicial y el desarrollo normativo está lejos de responder a los inmensos desafíos que se presentan. Derechos Digitales seguirá trabajando para generar evidencia y explorando nuevos espacios de diálogo sobre el desarrollo futuro de la tecnología en América Latina.

Revisa Inteligencia Artificial e inclusión aquí.

El proyecto de regulación de redes sociales en México: La receta para un sinsabor de la expresión

A principios de febrero, la Comisión Interamericana de Derechos Humanos (CIDH) y su Relatoría Especial para la Libertad de Expresión (RELE) deploraban el “deterioro generalizado del debate público”, atendiendo a la relación entre la violencia en línea y la violencia física, con las posibles consecuencias letales de esta misma. A la vez, desatacaban el desafío para su regulación y sus procesos políticos. Se trata de una preocupación con exceso de ejemplos a nivel regional y global. El caso mexicano es especialmente llamativo: la discusión política parece querer avanzar con una regulación simplista y sin claridades, que no se hace cargo de la complejidad de la problemática.

En enero, el presidente mexicano Andrés López expresó su crítica a las redes sociales por sus decisiones de moderación adoptadas en otras jurisdicciones en torno al deterioro del debate. Varias figuras políticas se sumaron a los comentarios, algunas de ellas anunciando proyectos de ley, incluyendo al gobierno federal, que también se sumo al impulso regulador.

Fue el senador Monreal el primero en hacer pública su iniciativa y ofrecer rápida tramitación parlamentaria, con una fuerte reacción en contra de la sociedad civil, como también de políticos de oposición y representantes de las industrias. Son varias las falencias sustantivas y procedimentales que se acusan, pero hay un punto en común entre esas visiones: aunque el proyecto se plantea como un intento por defender la libertad de expresión, sus propuestas arriesgan convertirse en mecanismos de censura y control.

A quiénes se regula cuando se regula a las redes sociales

Por décadas, activistas y académicas han desmentido que internet sea un espacio sin regulación. Por el contrario, las leyes que gobiernan la expresión fuera de la red aplican también en internet, incluyendo las que rigen sobre los contenidos: la incitación a la violencia, el acoso, o la infracción de derechos de propiedad intelectual son formas de expresión también reguladas en espacios digitales. No obstante, los mecanismos para hacer valer esas reglas —cuando existen empresas que facilitan aquellas expresiones— resultan problemáticos y difíciles de establecer de manera consistente con los estándares de derechos humanos.

El proyecto de Monreal, planteado como una modificación a la Ley Federal de Telecomunicaciones y Radiodifusión, pretende no solo definir el ámbito de ejercicio de la libertad de expresión en las redes sociales, sino dotar al Instituto Federal de Telecomunicaciones (IFT) de facultades para controlar el funcionamiento de las redes en México, supervisando el ejercicio de la moderación de contenidos.

El proyecto propone definir a sus sujetos regulados, distinguiendo entre “servicio[s] de redes sociales” y de “redes sociales relevantes”. Entre los primeros se considera como red social al servicio “ofrecido a través de Internet cuya funcionalidad principal es difundir dentro de la plataforma información generada por sus propios usuarios como texto, datos, voz, imágenes, videos, música, sonidos o combinación de las anteriores, con la finalidad de informar, entretener o educar”. En tanto, son “redes sociales relevantes” aquellas que cuenten con un millón o más de suscriptores o usuarios, y sobre las cuales pesan obligaciones especiales de conformidad con la iniciativa.

Las definiciones son, como mínimo, ambiguas y cuestionables. La definición de los servicios de redes sociales es suficientemente amplia como para abarcar demasiadas formas distintas de comunicar contenidos a través de internet. Sitios, foros y aplicaciones, abiertas al público y cerradas a sus miembros, gratuitas y pagadas, accesibles desde la web abierta o a través de software dedicado —es decir, sin pasar por un navegador—, disponibles para cualquiera o como servicios de mensajería privada cifrada, estarían igualmente cubiertas. ¿Debería cualquier operador de servicios en línea ceñirse a las reglas propuestas?

Los mayores deberes y controles se imponen sobre las “redes sociales relevantes”, las del millón o más de usuarios, y que pueden ser personas naturales o jurídicas (Art. 175 Bis).

¿Cómo se cuenta ese millón? ¿Se trata de cuentas solamente inscritas o que estén activas? ¿Cómo se consideraría entonces la actividad? ¿Se cuenta solamente a las usuarias en México o aplican las reglas también a VK y WeChat? ¿Cómo se verificaría ese número y cómo varían las obligaciones si el número fluctúa con el tiempo?

No obstante, el verdadero problema sobre este punto no radica en cómo se define aquel sujeto que se propone regular. El problema de la propuesta, en este punto y a lo largo de su articulado, es la falta de comprensión de los ecosistemas digitales de comunicación, en constante flujo, con actores que varían en distintos lugares del mundo. Aunque el poder de un puñado de empresas en la red es notorio, la experiencia en línea es mucho más rica y diversa, y quienes participan en sus distintas capas de funcionamiento son también muy distintos. Tratar a todas las plataformas por igual es errado. Pretender regularlas por igual, es peligroso. 

Si el propósito es proteger la libertad de expresión del efecto deletéreo del bloqueo en plataformas especialmente dominantes, si efectivamente la moderación conlleva un perjuicio a la libertad de expresión porque se pierden canales significativos de difusión, las herramientas legales deben apuntar a esa condición como empresas dominantes y establecer reglas que tengan suficiente flexibilidad para no dañar y, al contrario, promover modelos alternativos de moderación que hoy existen.

Licencia para funcionar

La propuesta entrega al IFT la facultad de autorizar el funcionamiento de “redes sociales relevantes” en México. El IFT debe establecer los lineamientos generales de los requisitos para cumplir la solicitud de funcionamiento. Esta autorización previa es afín al régimen de concesiones propio de los servicios de telecomunicaciones que se sirven del espectro radioeléctrico, según ordena el artículo 27 de la Constitución Federal. Pero el funcionamiento de las plataformas de internet no requiere de ese uso para existir, ni depende del espectro radioeléctrico para funcionar. El requisito constituye una barrera evidente no solo a la creación de un ecosistema digital rico y diverso, sino un freno a la innovación y la participación en la economía digital. Según la industria, es también una infracción de obligaciones comerciales internacionales, se trata del cierre administrativo de la posibilidad de ser parte de la red abierta y global desde México.

Por otra parte, la entrega de estas facultades al órgano de telecomunicaciones trastoca la función del mismo órgano y crea justificadas sospechas sobre su capacidad técnica e imparcialidad para cumplir esa función. En parte, por el hecho de que sus comisionados son funcionarios designados por el poder político, pero más aún, porque se trata de autoridades respecto de las que no se pide una formación específica asociada a las funciones que se entregan a través de la propuesta. Así, se le entrega a funcionarios propuestos por el ejecutivo, y confirmados por el legislativo, poderes de control previo sobre plataformas en que se ejercen derechos fundamentales, sin el ejercicio de ponderación propio de la potestad judicial.

Está en tela de juicio el nivel de comprensión del rol del regulador en el ecosistema de la comunicación en México. Como relata Artículo 19, hay un largo historial de iniciativas con el mismo senador como impulsor, en que se subvierte la función del Estado en el resguardo de los derechos fundamentales para garantizar el pleno ejercicio de la libertad de expresión en condiciones de pluralismo y diversidad. Equiparar a las redes digitales a otras formas de difusión de la expresión de muy distinta fisonomía, constituye un error con peligrosas consecuencias.

Moderación según indique el Estado

El permiso previo para funcionar está asociado a otros poderes de control entregados al IFT: el control del contenido, los términos y condiciones de las plataformas y el control del ejercicio del poder de moderación.

En la propuesta (Artículo 175 Ter), los términos y condiciones del servicio de redes sociales, para las relevantes, deben ser autorizados por el IFT. Las modificaciones a esos términos deben también ser aprobadas por el IFT. En cualquier caso, debe haber consistencia entre los términos y los artículos 6º y 7º de la Constitución Federal, que consagran y regulan derechos vinculados a las libertades de expresión, información y comunicación.

El contenido de esos términos y condiciones puede incluir (Artículo 175 Ter) un mecanismo de suspensión o cancelación de cuentas y de eliminación de contenidos. No obstante, se limitan las causales de procedencia para la operación de esas acciones a que se acredite que el contenido ataca la moral y el orden público, la vida privada, los derechos de terceros, o los derechos de las y los menores de edad; o bien, que se acredite la difusión de mensajes de odio o que mediante el contenido se revelen datos personales en contravención a la ley.

Se establece que el uso de herramientas automatizadas está permitido para la eliminación de contenidos y la suspensión de cuentas, pero prohibido para la cancelación definitiva de cuentas o perfiles. Cada una de las “redes sociales relevantes” debe contar con un área compuesta por personas naturales, especialistas en derechos humanos y libertad de expresión, que deben tomar la decisión respectiva.

Según la propuesta (Artículo 175 Quáter) los términos sometidos a autorización deben también contar con contenidos mínimos. Estos son: limitaciones consistentes con reglas constitucionales y el marco normativo internacional, la protección de derechos de menores de edad, la eliminación de difusión de mensajes de odio, que se evite la propagación de noticias falsas, que se protejan los datos personales y otras que establezcan lineamientos dictados por el IFT.

Finalmente, la propuesta obliga a establecer un procedimiento para la impugnación de las decisiones de moderación (Artículo 175 Quinquies), regulando su procedencia y fijando que personas naturales resuelvan las impugnaciones en un máximo de 24 horas. Contra esa decisión o en caso de no cumplirse el plazo, puede recurrirse ante el IFT (Artículo 175 Sexies).

Todo lo anterior conlleva una serie de dudas y problemas difíciles de ignorar. Por un lado, se establecen obligaciones operativas de muy difícil cumplimiento, como el reclutamiento de personas expertas o la operación de mecanismos con decisiones humanas para todas las redes sociales relevantes, desconociendo sus modelos de funcionamiento o la escala de las decisiones que podrían adoptar. Esto limitaría seriamente la operación de varios servicios en México, cuando no la impediría. Por otro lado, las exigencias están repletas de expresiones ambiguas, amplias, vagas, o sin definición normativa vinculante, como la idea de “noticias falsas” o las exigencias de acción contra “mensajes de odio”. Todo lo cual conlleva niveles crecientes de incertidumbre sobre la capacidad de operar. Todas decisiones adoptadas directamente por la plataforma y sin intervención jurisdiccional, a pesar de tener claras implicancias para el ejercicio de derechos fundamentales. La experiencia previa de imposición de obligaciones vagas a las plataformas muestra que, en general, el resultado es una más frecuente censura de contenidos, en perjuicio de la libertad de expresión y de la diversidad de voces en internet.

La propuesta también deja de lado otras dos cuestiones relevantes. Respecto de los contenidos, limita la capacidad de moderación de las plataformas que hoy operan para fijar sus propios parámetros, de una manera consistente con los intereses de las personas que son usuarias de las mismas, impidiendo que ciertos contenidos nocivos pero legales sean también parte de la moderación aceptada. A la vez, impide agregar causales de cancelación de cuentas que son relevantes para hacer factible una discusión valiosa en línea: la detección y eliminación de spam, phishing o de bots que distorsionan o interrumpen una discusión pública, que quedan fuera de lo que permite la iniciativa.

Por último, la propuesta deja de lado la existencia de distintos modelos de moderación, en especial aquellos que operan mediante la colaboración o la decisión comunitaria, como ocurre en numerosos y diversos foros populares como los que componen Reddit o con la creación colectiva en Wikipedia. Ejemplos que no solo expresan formas convenidas de decisión, sino también causales aceptadas y concordantes con los propósitos comunes de esas comunidades.

En la práctica, nos encontramos frente a una propuesta que es reactiva a casos concretos de decisiones con las que hubo algún desacuerdo, tratando de limitar las distintas facultades de las plataformas que les permitieron adoptar esas decisiones. De forma contraria a lo que se presenta en la propuesta, una regulación de la moderación respetuosa de la libertad de expresión y de los intereses de las usuarias requiere de elementos totalmente distintos que sí serían útiles para tales objetivos, tales como el vinculamiento directo de sus reglas de moderación de contenido a estándares internacionales de derechos humanos (no a un puñado como hace la propuesta); la exigencia de mecanismos específicos de rendición de cuentas de las plataformas; obligaciones de transparencia activa desagregada geográfica y sustantivamente sobre sus decisiones de remoción de contenido; obligaciones de debido proceso y mecanismos de apelación razonables que ofrezcan garantía de protección y reparación efectiva de las usuarias en caso de toma de decisiones erróneas.

Propósitos nobles, mecanismos equivocados

La paradoja de la propuesta de Monreal es que parece tener intenciones correctas, como se refleja en la larga discusión sobre libertad de expresión que antecede a la propuesta concreta de reforma legislativa. No obstante, termina limitando la libertad de expresión, estableciendo obligaciones estrictas sobre términos vagos e imprecisos. Lo que genera uno de los problemas que más se busca evitar desde la defensa de los derechos humanos: que las plataformas, en tanto intermediarios, tengan más incentivos para controlar y limitar la expresión, en lugar de favorecerla.

La seriedad de los posibles efectos de la propuesta a nivel local y su influencia en la región requiere aquello que la sociedad civil local exige: un debate serio, abierto y participativo, digno de la complejidad del problema.

Donald Trump, Nayib Bukele y la moderación de contenidos en las plataformas

Hace unas semanas fuimos testigos de la suspensión de las cuentas de Twitter y Facebook del ex presidente estadounidense Donald Trump tras el asalto al Capitolio, que fue ejecutado por sus seguidores y que terminó con cinco fallecidos y decenas de heridos.

En este contexto, el argumento de las redes sociales se basó en que permitir al ex presidente usar sus plataformas representaba un riesgo mayor de incitación a la violencia. En un comienzo, el bloqueo duraría 12 horas en Twitter y 24 horas en el caso de Facebook, pero se volvió permanente.

Esta decisión reactivó el debate sobre la responsabilidad de los intermediarios y la moderación de contenidos, además de la inevitable colisión entre quienes consideran que estas acciones constituyen una suerte de censura privada y quienes defienden la implementación de estas medidas para salvaguardar la democracia.

Sin la necesidad de referirse de forma directa a estos hechos, la Comisión Interamericana de Derechos Humanos (CIDH) y su Relatoría Especial para la Libertad de Expresión, convocaron recientemente a la audiencia pública “Moderación de contenidos en internet y libertad de expresión en las Américas”, que se realizará el 25 de marzo. 

Sin embargo, en este debate también surgen otras interrogantes relacionadas a la uniformidad con la que las plataformas aplican sus términos de uso alrededor del mundo. En este escenario se sitúa el caso de Nayib Bukele, presidente de El Salvador, debido al contenido de sus redes sociales.

Bukele y el reflejo de Trump 

El presidente de El Salvador ha utilizado sus redes para atacar a sus opositores políticos, insultar a funcionarios, burlarse de la prensa –que ha revelado numerosos casos de posible corrupción de su gobierno–, hostigar a defensores de derechos humanos y, en general, a todo quien manifieste descontento con su gestión. Así, funcionarios y seguidores reproducen una narrativa de confrontación en las redes sociales, que contribuye al estado de crispación que Bukele mantiene desde el inicio de su mandato.

Esta situación ha generado importantes reacciones, tanto en el ámbito nacional e internacional, que van desde llamadas de atención por parte del Procurador para la Defensa de los Derechos Humanos y la Asamblea Legislativa, hasta el establecimiento de medidas cautelares dictadas por la CIDH, para proteger la integridad física de periodistas afectados por la narrativa de confrontación que surge desde el Estado. 

A raíz del asesinato de dos militantes del partido izquierdista de oposición Frente Farabundo Martí para la Liberación Nacional (FMLN) a fines de enero –que fue perpetrado por el Jefe de Seguridad del Ministro de Salud y afiliado al partido de Bukele, según información de la Fiscalía General de la República–, el debate se ha centrado en la influencia de la narrativa del presidente y sus funcionarios. Además de la importancia de este hecho y la vinculación con el discurso presidencial, cabe la posibilidad de que se trate de un asesinato político, como no se había visto desde la firma de los Acuerdos de Paz en 1992.

El actuar del presidente de El Salvador recuerda a las acciones ejecutadas por Trump hace algunas semanas, por la valoración de su bagaje comunicacional, que incluye expresiones ofensivas a quien le contraría y arengas directas a sus seguidores. Hace un año exacto, Bukele incitó a sus seguidores a la insurrección, el día en que invadió con fuerzas militares y policiales el recinto de la Asamblea Legislativa. Aunque este suceso no tenía sustento jurídico alguno, sus seguidores asistieron para acompañarlo en la toma de la Asamblea.  

https://twitter.com/nayibbukele/status/1225868839927402497
https://twitter.com/nayibbukele/status/1225842779475075072?s=20

Si bien en el caso de la invasión militar a la Asamblea existió una arenga explícita para realizar un acto violento contra una institución del Estado, no fue hasta el asesinato de los militantes del FMLN que algunas personas han comenzado a pedir que Twitter actúe sobre la cuenta de Bukele, motivadas por la forma en que esta red social reaccionó el 6 de enero en Estados Unidos.

De esta manera, la duda planteada en los primeros párrafos de esta columna, cobra una dimensión mayor: si Twitter y Facebook vetaron a Trump por relacionar su discurso con el asalto al Capitolio, ¿por qué a Bukele, con la toma de la Asamblea y las expresiones de violencia y degradación consiguientes, no se le han aplicado siquiera las medidas previas a la suspensión que se le aplicaron a Trump (advertencias en sus tweets o retiro de contenido específico)?

Esto no debe interpretarse como una petición de “deplatforming” contra el presidente de El Salvador. Cualquier medida de moderación que aplique alguna plataforma debe guiarse por estándares de derechos humanos, para garantizar el derecho a la libertad de expresión, evitar la censura y evitar que el contenido ilegal –o que incite a la violencia–, no sea difundido en línea. 

Lo expresado aquí sirve únicamente para ubicar en contexto la expectativa que podría estarse generando en El Salvador, considerando la forma en que podría actuar Twitter con Bukele y su discurso confrontativo, así como ocurrió en Estados Unidos. 

Hoy, a pocos días de iniciar el proceso de elecciones de alcaldes y diputados en El Salvador, y a pesar de que es probable que el partido de Bukele consiga una buena cantidad de representantes, el presidente continúa instalando una narrativa de fraude, sedición y golpe de Estado en torno a estos comicios a través de su Twitter. 

Jugando con reglas de otros nunca vamos a campeonar

El rol de las redes sociales en la planificación de la invasión del Capitolio es evidente. Los extremistas de ultraderecha, fueron celebrados por el presidente Donald Trump en Twitter, y usaron esta red social, y otras como Facebook o Parler –cuyo principal atractivo era la falta de moderación, lo que atrajo a los baneados de otros lugares con reglas más estrictas— para organizar, promocionar, y transmitir en vivo los hechos del 6 de enero.

Este episodio fue la gota que rebalsó el vaso para las principales plataformas de internet, que hasta entonces habían tolerado contenido nocivo generado por el presidente de los Estados Unidos y sus seguidores, quienes constantemente ponían a prueba los límites de los términos de uso de las redes sociales.

Como sabemos, Trump fue baneado de una multitud de redes sociales, y Parler fue retirada de las tiendas de Apple y Google, y Amazon terminó el contrato de alojamiento en la nube, argumentando que inclumplieron los términos de uso de los servicios.

El caso de la app Parler es particularmente interesante, porque no se trata de una decisión sobre contenido generado por usuarios, sino que se trató de eliminar el acceso a una aplicación completa, a un nivel superior en la infraestructura de internet. Esto forma parte del fenómeno denominado como moderación apilada (del inglés “on the stack”), en el cual proveedores de servicios que no se ofrecen directamente a usuarios, como es el caso del alojamiento, procesamiento de pagos o las tiendas de aplicaciones, son quienes toman las decisiones sobre el retiro de contenido ilícito.

Este no es un fenómeno nuevo, sino que hay casos que ocurrieron hace más de una década, como pasó con el bloqueo de las transacciones en PayPal de Wikileaks en 2010, o casos como el del proveedor de alojamiento en la nube Cloudflare, quien decidió terminar su relación contractual con el medio de comunicación neonazi The Daily Stormer, luego de la marcha de supremacistas blancos en Charlottesville en 2017, y con 8chan en 2019, luego de la masacre de El Paso, asociada a la teoría de conspiración QAnon, difundidos en gran parte en este foro.

Ahora bien, ¿cómo afectan las decisiones de moderación on the stack a las normas sobre responsabilidad de intermediarios que se han generado en Latinoamérica?

En la región, tenemos países que han establecido normas en la materia, sea a través de leyes, como Chile (con la Ley 20.435 de 2010, en materia de derechos de autor), Brasil (con el Marco Civil de Internet de 2014) o México (con la reforma a la Ley federal de derecho de autor en 2020), o de decisiones judiciales, como es el caso de Argentina (en el caso Rodríguez contra Google de 2014), o Colombia (con la Sentencia de Unificación 420/19 de 2019).

Estas normas, más allá de sus virtudes o defectos particulares, ofrecen criterios claros y estables respecto de la responsabilidad de los proveedores de servicios por el contenido ilícito de sus usuarios, y de los casos en los que se justifica el retiro de contenidos de internet, lo cual suele ir asociado a un procedimiento claro y una orden judicial. Sin embargo, estas regulaciones dejan preguntas sin resolver: Por ejemplo, ¿Qué normas se aplican a los procesadores de pagos? O ¿qué pasa respecto de las decisiones de bloqueo de toda una aplicación?

En contraste a estas normas, las decisiones de moderación apilada suelen ser tomadas de manera contingente y en reacción a hechos concretos originados fuera de internet, y se basan en el criterio de cada plataforma, conforme a los incumplimientos de los contratos que tengan con las personas o aplicaciones que usan sus servicios. Además, las decisiones de las plataformas no suelen seguir procedimientos establecidos, y carecen de transparencia.

En esta ocasión, se eliminaron cuentas y servicios que no nos gustaban mucho por su generación de mensajes odiosos que portaban, pero en el futuro puede darse un caso en que bloqueen algo útil para la sociedad, como podrían ser las aplicaciones de mensajería encriptada. Es preciso tener reglas claras antes de que se eliminen plataformas que facilitan la libertad de expresión.

Con una internet cada vez más centralizada, las personas, organizaciones y gobiernos dependen cada vez más de las decisiones tomadas por los proveedores de servicios. Considerando que las decisiones tomadas por estas plataformas tienen alcance mundial, resulta necesario abrir el debate sobre qué rol van a tener las normas creadas por países distintos a los EE.UU. La Unión Europea ya propuso el proyecto de la Digital Services Act en diciembre. Todavía falta saber que podemos hacer desde América Latina.

La opacidad afecta la confianza en las agendas digitales

En enero de 2020, el gobierno salvadoreño presentó su Agenda Digital de País 2020-2030, en un contexto de enfrentamiento entre el presidente Nayib Bukele y la Asamblea Legislativa, a raíz de la solicitud del Ejecutivo de la aprobación de un préstamo por $109 millones para financiar la segunda etapa del denominado “Plan Control Territorial”.

La Agenda Digital de País 2020-2030 propone utilizar las tecnologías para implementar lo que denomina una “nueva gobernanza”. Esta agenda contiene 4 ejes programáticos, que básicamente se resumen en: 1. Identidad Digital; 2. Innovación, Educación y Competitividad; 3. Modernización del Estado; y 4. Gobernanza Digital.

Desde su lanzamiento, algunas dudas surgieron sobre la viabilidad de este ambicioso plan. En particular, aquellas referidas a los contrapesos y regulaciones necesarias para minimizar las afectaciones a los derechos y libertades que el uso de las tecnologías puede representar en una sociedad como la salvadoreña, en la que la conciencia de los derechos digitales y su ejercicio aún dista de ser ideal; en un país que aún no cuenta con una ley especializada en protección de datos personales y que tampoco cuenta con una política pública de ciberseguridad, entre otros riesgos.

En ese sentido, no era descabellado dudar sobre la protección y regulación en el uso de los datos que serán colectados para alimentar las soluciones tecnológicas que propondrá el gobierno, sobre quién tendrá acceso a ellos, qué destino tendrán esos datos, qué medidas de ciberseguridad se usarán para proteger los sistemas informáticos y la tecnología a implementar, cómo se evitará que las tecnologías implementadas y los datos colectados sean usados para la vigilancia indiscriminada, para la violación de los derechos o para favorecer intereses privados.

No obstante, era natural esperar que estas incertidumbres encontraran solución a medida que la actuación gubernamental pudiera ser evaluada. De ahí que el actual contexto de la pandemia de COVID-19 y la respuesta del Ejecutivo a la misma, haya servido para hacer una breve reflexión sobre estos temores.

Los temores se incrementan

En el marco de las acciones para enfrentar la pandemia de la COVID-19, el Ejecutivo salvadoreño tuvo a su disposición más de 3 mil millones de dólares, según informó el ex presidente del Banco Central de Reserva a la Comisión Especial de la Asamblea Legislativa, que investiga los gastos realizados por el gobierno de Bukele en este contexto.

Durante este mismo periodo, numerosos artículos periodísticos han revelado indicios de corrupción en los gastos realizados por el gobierno, como compras a empresas de familiares de funcionarios gubernamentales, compras a sobreprecios, compras de insumos médicos a empresas sin relación con el rubro, etc.

Ante estas revelaciones, lejos de corregir la opacidad en la rendición de cuentas, el gobierno de Bukele ha optado por obstaculizar el acceso a la información, al hacer un uso abusivo de las declaraciones de reserva contempladas en la Ley de Acceso a la Información Pública (Art. 19), sin cumplir con una adecuada fundamentación (Art. 21) para tal declaratoria.

Así, por ejemplo, el Ministerio de Agricultura y Ganadería puso en reserva la información relativa a la confección de paquetes alimenticios para ser entregados a personas en situación de vulnerabilidad, afectadas por la COVID-19, que esa cartera de Estado lideró. También, el Ministerio de Salud, uno de los que más señalamientos de compras anómalas ha recibido, declaró reservada la información contenida en memorándums y correspondencia producidos por el Laboratorio Nacional que realiza las pruebas COVID-19, así como los documentos relativos a la transición que el Centro Internacional de Ferias y Convenciones experimentó, para convertirse en el Hospital El Salvador. En ambos casos, las declaraciones de reserva fueron realizadas bajo una interpretación antojadiza de los preceptos legales que facultan esta declaratoria.

Aunque esta artimaña no es nueva, pues ya había sido utilizada para evitar rendir cuentas sobre gastos antes de la pandemia, su implementación recurrente en estas últimas semanas parece ser una pieza más de una estrategia del Ejecutivo de escapar, tanto del control de las instancias que constitucionalmente deben auditarlo, como del escrutinio de la sociedad. A esto se suma el interés del Ejecutivo por minar la independencia del Instituto de Acceso a la Información Pública –ente encargado de garantizar el acceso a la información pública y la protección de los datos personales– mediante el nombramiento de funcionarios afines a sus intereses políticos. Ese mismo interés se expresa en la flagrante desobediencia de los titulares de los ministerios señalados por indicios de corrupción a atender las demandas de explicación exigidas por la Asamblea Legislativa, y la negativa de la Policía Nacional Civil a cumplir su obligación constitucional cuando se ha requerido el apremio de los funcionarios que han ignorado estas solicitudes de la Asamblea.

Este esmero en optar por  la opacidad en la gestión del erario público, así como el proceso de desmantelamiento de la institucionalidad del Estado, reafirmado el 9 de febrero del presente año con la invasión de la Fuerza Armada al recinto Legislativo, y recrudecido con la desobediencia a las resoluciones del Órgano Judicial (incluyendo las de la Sala de lo Constitucional de la Corte Suprema de Justicia), son suficientes señales para incrementar los temores iniciales sobre la implementación de una Agenda Digital por parte del actual gobierno.

Y es que, con estos antecedentes, no puede confiarse la protección de los datos personales, de la privacidad, la libertad de expresión y la seguridad, a gobiernos capaces de ocultar sistemáticamente la información pública, de huir de la rendición de cuentas y de instrumentalizar a las fuerzas de seguridad del Estado con fines políticos. No podemos obviar el temor a que gobiernos opacos, que blanden el uso de las tecnologías como estandarte de modernidad, sientan el deseo de utilizarlas para la persecución política, la censura y el control de nuestros datos

En tal sentido, un estado de vigilancia permanente por parte de la sociedad civil nacional e internacional se vuelve necesario para prevenir el uso malicioso de las tecnologías desde el Estado, y para combatir agendas que busquen aumentar el control gubernamental sobre el despliegue de esas tecnologías. Considerando la muy probable victoria del oficialismo en las próximas elecciones de diputados, una nueva configuración del poder político podría darle un poder peligrosamente enorme a Bukele, lo cual vuelve urgente la contraloría social en el país. Esta actitud vigilante, claro está, aplica frente a cualquier mandatario o poder estatal, presente o futuro.

2020 o una oportunidad para repensar nuestras prácticas digitales

Este año ha sido particularmente significativo en la ocurrencia de acontecimientos disruptivos de nuestras prácticas cotidianas. La pandemia nos obligó a confinarnos e intentar reproducir mediante pantallas aquellas cuestiones que anteriormente resolvíamos cara a cara. En esta línea, Martín Caparrós ha puntualizado de forma correcta cómo se distingue nuestra forma de relacionarnos al estar desapegados de la profundidad del propio cuerpo.

Mientras el alcance de la pandemia fue global, en Chile a ello sumábamos el despliegue de un proceso de cambio institucional sin precedentes. Así, el domingo 25 de octubre más de siete millones de chilenas y chilenos sufragaron en favor de la discusión de una nueva Constitución, mediante una Convención Constituyente paritaria y elegida por la ciudadanía.

En principio, ambos eventos parecen no mantener un vínculo explícito. Sin embargo, pueden ser interpretados desde un concepto que le resulta particularmente valioso a la sociología. Tanto la pandemia como el proceso de discusión constitucional son instancias en las cuales se produce abiertamente un proceso de reflexivización de los vínculos e interacciones sociales. Esto es, inquirimos explícitamente porqué hacemos lo que hacemos. Por ejemplo, nos preguntamos sobre la pertinencia de las reuniones presenciales en contexto de pandemia y evaluamos la eficacia de los medios disponibles en vistas de alcanzar el fin pretendido; resolución que, como sabemos, ha significado un aumento explosivo de las videollamadas a través de plataformas digitales, como sucedáneo de los encuentros presenciales.

Son estas instancias de reflexivización las que ofrecen una oportunidad para racionalizar el mundo y (eventualmente) proveerlo de sentido ante el pavoroso desconcierto de la circunstancia.

Algo semejante ocurre con el proceso de discusión Constitucional en el caso chileno. Nos hallamos frente a la oportunidad histórica de inquirir y resolver sobre el modo en que configuramos las relaciones entre el estado y la ciudadanía. Mientras, se abre la discusión respecto de la determinación del ordenamiento institucional y sus contrapesos, así como la pregunta por qué bienes y derechos debería garantizar el nuevo acuerdo social que supone el proceso de sanción constitucional.

Todas estas cuestiones son fundamentales a la hora de abordar la relación entre derechos fundamentales y tecnologías: ¿Cuál será el estatuto de protección a los datos personales en el nuevo orden institucional y qué principios que orientarán su resguardo?, ¿Qué tipo de orientaciones es necesario establecer en vistas de la provisión de infraestructura de comunicaciones para favorecer la accesibilidad a internet?

Vistos en perspectiva, tanto la pandemia como la discusión constitucional nos ofrecen una alternativa común en aras de abordar críticamente nuestras interacciones mediadas por dispositivos digitales. Para ello, resulta fundamental partir por el reconocimiento de que no existe algo así como un salto discreto entre el denominado «mundo real u offline» y el «mundo virtual u online«. La contingencia que nos ha impuesto 2020, en el afán por buscar recrear un mundo en otro, para mantener alguna sensación de normalidad y productividad, nos han señalado que atestiguamos la consagración de un proceso de extendida y profunda mediatización de las relaciones sociales, que supone un contínuo entre las interacciones presenciales y las que se desarrollan a través de dispositivos y plataformas.

La ingenua idea de una diferencia radical entre lo «virtual» y lo «real» omite una de las consideraciones más ilustrativas del comportamiento social, aquella expuesta en el teorema de Thomas: «Si las personas definen las situaciones como reales, éstas son reales en sus consecuencias». Así, las consecuencias sociales (y políticas) de un hecho no se encuentran necesariamente determinadas por el espacio en que ocurren, sino por las condiciones que favorezcan su plausibilidad para las y los agentes involucrados. Lamentablemente, esta comprensión supone también resultados homólogos a fenómenos como el de la desinformación. Esto supone un desafío significativo al modo en que pensemos nuestro orden normativo.

De esta forma, tanto la pandemia como la discusión por el orden institucional en cualquier país de la región pueden ser vistos como puntos de inflexión, funcionales a la articulación de indagaciones críticas sobre nuestras prácticas digitales, sus efectos y el debido resguardo de nuestros derechos fundamentales involucrados. En Derechos Digitales hemos reflexionado al respecto, desde orientaciones para la realización de videollamadas hasta el análisis crítico de las tecnologías como respuesta a la pandemia. Nos resta, por cierto, proyectar este trabajo en el contexto de la discusión constitucional.

Una forma de abordar esta tarea es comenzar por plantear una conversación que indague más allá de los derechos que han de ser protegidos por la Carta Fundamental. Es también requerido articular tales orientaciones normativas con una mirada crítica de las infraestructuras existentes, el nivel de desarrollo y las capacidades de nuestras instituciones y, en especial, la necesidad de replantear el rol de la ciudadanía como un agente determinante en los procesos de diseño y evaluación de planes y políticas públicas. Todo ello en vistas de favorecer relaciones e interacciones sociales tecnológicamente mediadas que permitan disputar, y no meramente reproducir, las desigualdades sociales de base que los extraordinarios acontecimientos de este año nos han permitido evidenciar.

The Social Dilemma: una carta de amor a Silicon Valley

“¿Viste The Social Dilemma? ¿Qué te pareció el documental?”, son dos preguntas que extrañamente me ha tocado tener que responder de forma recurrente en las últimas semanas. Y en cada ocasión siento que no he sido capaz de hacerme entender tan claramente como quisiera; que el disgusto y las críticas al documental no tienen por objeto desmentir ni exculpar a las grandes compañías que manejan las distintas plataformas que usamos día a día, ni tampoco negar el hecho de que estas plataformas tienen problemas serios, que necesitan ser discutidos y enmendados. Mi problema es de enfoque. Así que decidí escribir esto, a ver si es que así es más fácil responder ambas preguntas.

Partamos por el principio: The Social Dilemma es un documental dirigido por Jeff Orlowski, distribuido por Netflix, y que desde septiembre está a disposición de las suscriptoras a la plataforma de streaming en América Latina. En poco más de hora y media de duración, el documental combina pequeños segmentos de ficción, intercalados con entrevistas a un variopinto grupo de personalidades de alto perfil en el ámbito de lo que podríamos denominar la “crítica a internet” —incluyendo a Shoshana Zuboff, Cathy O’Neil y Jaron Lanier—junto a varios arrepentidos ex empleados de Silicon Valley, explicando cómo las empresas para las que solían trabajar han arruinado el mundo. La mayor parte de los entrevistados son estadounidenses y no hay participación de ninguna de las organizaciones trabajando sobre estos temas en América Latina, África o Asia, en caso de que se lo preguntaran.

Y ese es el primer problema con The Social Dilemma: en el fondo, no es más que una declaración de amor a los genios de Silicon Valley y su capacidad para transformar, destruir y, en última instancia, salvar al mundo. Como si San Francisco, California fuese el lugar donde habita la única gente capaz de identificar, reflexionar y proponer soluciones a los problemas que genera la tecnología.

Junto con ello, el documental generaliza preocupaciones que parecieran ser muy estadounidenses —o si se quiere, muy propias de las personas que eligieron entrevistar— y las universalizan, con una mirada que no solamente es ombliguista, sino que además puede terminar siendo contraproducente para el trabajo que distintas personas realizan en otras latitudes, en la medida en que se convierte en el discurso hegemónico respecto al modo en que se debe pensar sobre estos asuntos, a pesar de que el enfoque no se traduzca de manera exacta a contextos diferentes, donde los problemas pueden ser diferentes y se pueden expresar de otros modos. No hay que olvidar que las tecnologías no funcionan en el vacío, sino que ocupan roles específicos de acuerdo al uso que personas reales les dan, en contextos particulares. De modo que no es tan sencillo asumir simplemente que el impacto de las redes sociales es el mismo en Otawa, Machala y Hanoi.

Luego están los problemas en los cuales el documental decide centrarse: adicción, manipulación del comportamiento, polarización política, depresión y suicidio adolescente. Presentados sin ningún tipo de contexto, el documental sugiere que son las redes sociales las responsables de producir estos males, como si la tecnología tuviese por si misma la capacidad de deprimir e incitar el suicidio, sin atender a las condiciones particulares y complejas —sociales, familiares, económicas, de salud, etc.— en que se desenvuelve una persona con depresión. Una suerte de tecnosolucionismo a la inversa, un «tecnoconflictivismo».  

En ningún momento el documental se detiene a reflexionar que es improbable que sociedades altamente polarizadas—donde abunda la desigualdad, la exclusión, el racismo, el odio, la misoginia y otras formas de violencia— generen usos de las tecnologías que no den cuenta de esta condición estructural. Más todavía: sorprende la falta de mención a cuestiones como el acoso y la violencia en redes sociales, particularmente respecto a personas pertenecientes a grupos no-hegemónicos, precisamente porque es donde las plataformas están más en deuda y donde más acciones concretas pueden tomar.

De la misma forma, el racismo se trata de manera somera, sin atender al hecho de que la gran mayoría de los ex empleados de Silicon Valley entrevistados son blancos.  En vez de eso, el documental prefiere hacer declaraciones hiperbólicas respecto a problemas cuya conexión a las redes sociales ha sido cuestionada, sin aportar mayor evidencia al respecto.

Igual que en The Great Hack, los documentalistas asumen que las tecnologías que están analizando funcionan a la perfección y están dotadas de todas las capacidades que sus creadores les asignan. El procesamiento de datos les darían no solamente la capacidad de conocer a alguien, sino de predecir y moldear su comportamiento, tres cuestiones altamente complejas, pero que aparentemente sería posible por medio de unos algoritmos todopoderosos. ¿Pero qué pasaría si el escenario fuese más complejo que ese? ¿Qué pasaría si el perfilamiento de datos aportara una imagen parcial de una persona, que se asume como totalidad? ¿Qué pasa cuando se confunde mapa y territorio, cuando no es posible separar la palabra de aquello que nombra? ¿Qué pasa si el perfilamiento es errado, cuando se están tomando decisiones reales que afectan a las personas? The Social Dilemma nunca se lo pregunta y presenta una imagen de tecnologías totalizantes, de las que no hay escapatoria.

Respecto a las soluciones, el documental parece proponer dos: eliminemos las redes sociales —como si eso fuese a resolver los problemas estructurales que se expresan en ellas— y agreguemos ética a la producción de tecnología, la solución favorita de Silicon Valley, porque les permite evitar un marco regulatorio que les haga responsables por sus errores y omisiones. En ese sentido, desde Derechos Digitales hemos sido claros y reiterativos respecto a la necesidad de contar con normativa basada en derechos humanos como guía para la regulación del diseño, desarrollo,  implementación y comercialización de tecnología.

Para finalizar, un recordatorio: El Mago de Oz no era más que un hombrecito detrás de una cortina, con una máquina de humo, hablando por un micrófono.