Una voz firme para poner los derechos humanos en el centro de la inteligencia artificial 

En un contexto donde la tecnología avanza a una velocidad sin precedentes, el Foro de Gobernanza de Internet de América Latina y el Caribe (LACIGF) se ha convertido en un espacio fundamental para discutir las complejas intersecciones entre innovación y derechos humanos. Este año, desde Derechos Digitales nos sumamos nuevamente al evento, reafirmando nuestro compromiso con la defensa de los derechos humanos en el entorno digital y abogando por una gobernanza de Internet inclusiva y equitativa. 

En la instancia participamos en dos sesiones clave donde abordamos temáticas sobre derechos humanos, tecnología e inteligencia artificial. Conversamos con organizaciones de la sociedad civil, junto a la comunidad técnica, la academia, representantes de gobiernos y sector privado para discutir sobre los derechos digitales en la región. Acá tuvimos la oportunidad de debatir sobre los desafíos para el acceso universal a derechos fundamentales en el entorno digital en América Latina, junto al auge de las tecnologías emergentes como la inteligencia artificial, repasando dónde está situada hoy, marcos regulatorios y sus riesgos. De hecho, presentamos estudios de caso sobre distintas implementaciones de inteligencia artificial en el sector público en algunos países latinoamericanos.

Estudios de caso en América Latina: IA como instrumento de políticas públicas

Si bien la IA tiene el “potencial” de mejorar aspectos de la vida cotidiana, su implementación en ámbitos críticos ha comenzado a exponer serias vulneraciones de derechos. En particular, el uso de IA en la implementación de políticas públicas sin garantías suficientes,  puede conllevar riesgos significativos para la privacidad, la libertad de expresión y, sobre todo, el bienestar de las personas. Desde Derechos Digitales, mediante una investigación activa desde el 2019, hemos realizado estudios de caso -seis publicados y cuatro en desarrollo-, a partir de los cuales hemos identificado preocupaciones profundas sobre la manera en que la implementación de la IA está afectando el ejercicio de  los derechos humanos en nuestra región.

Los casos que hemos analizado muestran que, en países como Brasil, Chile, Uruguay y Colombia, la IA se ha implementado en iniciativas gubernamentales que afectan de manera directa la vida de millones de personas. En Brasil, por ejemplo, el Sistema Nacional de Empleo utiliza IA para perfilar a personas desempleadas y ofrecerles posibles ofertas de trabajo. En Chile, el Sistema Alerta Niñez busca generar un “índice de riesgo” para predecir la vulneración de derechos de niñas, niños y adolescentes. En Uruguay, la aplicación móvil Coronavirus UY fue implementada para gestionar la pandemia; y en Colombia, el proyecto PretorIA se utiliza para definir la prioridad en casos de tutela judicial de derechos fundamentales en la Corte Constitucional.

Aunque estas iniciativas parecen responder a desafíos  importantes, nuestros hallazgos revelan serios riesgos. En primer lugar, la IA aplicada a estas áreas no siempre demuestra ser eficaz. En muchos casos, los resultados obtenidos no justifican la implementación de sistemas de IA. En segundo lugar, la mayoría de estas iniciativas se desarrollan sin marcos normativos adecuados o sin instituciones de supervisión fuertes que garanticen la protección de los derechos de las personas.

Resultados preliminares: ¿a qué nos enfrentamos?

Nuestros estudios, hasta la fecha, nos han llevado a identificar varios problemas recurrentes. Primero, la efectividad de los sistemas de IA para resolver los problemas de política pública es limitada. Esto resulta particularmente problemático en áreas como la seguridad, donde un mal uso de estas tecnologías puede tener consecuencias graves para la libertad y la privacidad de las personas.

Además, hemos detectado falencias en el manejo de datos personales. En muchos casos, no existe un consentimiento informado adecuado. En Brasil, por ejemplo, no se requiere consentimiento para reutilizar los datos recolectados por el Sistema Nacional de Empleo, lo que permite su tratamiento por parte de nuevos agentes privados sin el conocimiento de las personas afectadas. En Chile, el consentimiento para el uso de datos de niñas, niños y adolescentes no es claro ni explícito en el Sistema Alerta Niñez. Esta falta de transparencia y protección de los datos personales abre la puerta a prácticas de recolección y uso de datos que podrían vulnerar los derechos de las personas.

Otro problema clave es la escasa participación ciudadana en el diseño y la evaluación de esta implementación. En general, los estados de la región carecen de instancias donde la ciudadanía y las partes interesadas puedan formar parte de los procesos de regulación, reglamentación e implementación. Por eso, es fundamental destacar que la participación es un derecho humano. Diversos instrumentos en derechos humanos de alcance interamericano y universal dan cuenta de este derecho político de la ciudadanía y coinciden en apuntar a la participación como un habilitador para tener voz y voto sobre aspectos críticos que impactan a nivel individual y colectivo.

El camino hacia una IA ética y centrada en las personas

A pesar de estos desafíos, es posible construir una inteligencia artificial que respete y promueva los derechos humanos en nuestra región. Pronto lanzaremos un Latin America in a Glimpse: Reflexiones para una IA comunitaria y feminista, que explora iniciativas comunitarias apuntadas a reapropiar a la IA desde los contextos culturales y sociales de América Latina haciendo frente a modelos extractivistas y coloniales.

Este informe se basa en conversaciones con investigadoras, tecnólogas y activistas de distintos países que trabajan en enfoques alternativos para la IA desde temas como: género, territorio y educación. Un reporte que ilustra las diversas potencialidades de esta tecnología desde una mirada ética y justa que apunta al beneficio colectivo para y desde el sur global.

Nuestra labor continúa. A través de estos estudios y del nuevo informe Latin America in a Glimpse, buscamos aportar evidencias que contribuyan a generar un cambio en la forma en que los gobiernos utilizan  la inteligencia artificial, además de mostrar alternativas comunitarias para su uso. Queremos que la IA en América Latina sea una herramienta para el beneficio de las personas, y no un mecanismo que profundice las desigualdades estructurales y genere nuevas formas de exclusión. En Derechos Digitales, seguiremos trabajando para contribuir a que los derechos humanos estén al centro de las políticas relacionadas a la IA, con garantías jurídicas y procesos que prioricen la participación ciudadana y los contextos locales.

11 años después de Snowden: ¿Realmente estamos más protegidos?

Edward Snowden era un analista de inteligencia que trabajó para la CIA y la NSA. Al inicio de su carrera consideró que su trabajo correspondía al deber patriótico de defender a su país. Con el tiempo se dio cuenta que era parte de un sistema de vigilancia global secreto que era utilizado incluso para espiar dentro del país. Él consideró que la población de un país democrático debería, al menos, estar enterada de que algo así sucedía. Por este motivo filtró miles de documentos que demostraron lo que sucedía a periodistas que publicaron varios reportajes en importantes medios a nivel global.

En los mismos se pude ver las diversas formas en las que la NSA recolectaba, analizaba y luego utilizaba esta información para operaciones de espionaje alrededor del mundo. [RB1]  En una diapositiva se puede ver las capacidades recolección de información a nivel global a través de un mapa mundi dónde se explica cómo se recolectaba la información desde los cables fibra óptica, a través de embajadas, espiando comunicaciones satelitales, en colaboración con agencias de otros países o mediante ataques informáticos.

Toda esta información recolectada se almacenaba en centros de datos para luego ser accedida a través del sistema XKeyScore. Este sistema funciona de forma parecida a buscadores de internet dónde puedo realizar búsquedas. La diferencia radica en que las búsquedas se las hace sobre información privada. Los documentos muestran que se podían hacer consultas sobre como leer todos los correos electrónicos de persona X, saber quiénes usan correo cifrado en un país determinado, contraseñas de cuentas en línea, entre muchas otras. Básicamente un buscador sobre las vidas privadas de miles de millones de personas, sin ningún tipo de control.

Uno de los programas expuestos que más llamó la atención es el conocido como PRISM ya que involucra a grandes empresas de internet como Google, Facebook, Apple, Youtube, Microsoft, Yahoo, entre otras. Estas empresas tienen plataformas que funcionan como software de servicio, también conocido como “la nube”. Cuando compartes un documento con Google Drive, no solo lo compartes con tus colegas, sino también con Google. Cuando envías un correo usando Outlook, ese contenido es accedido por Microsoft. Si guardas tus fotos en la nube de Apple o de Google sucede lo mismo.

Resultaba lógico entender que estas empresas tendrían acceso a nuestra información para poder brindarnos el servicio. Algunas personas considerábamos que era probable que las empresas se aprovechen de nuestra información. Lo que la gran mayoría no imaginábamos era que además nuestras comunicaciones privadas eran vigiladas por agencias de inteligencia como la NSA. Lo que aprendimos en ese momento fue que, si no eres ciudadano de Estados Unidos y no resides en ese país, la NSA puede acceder a los datos de los servicios de estas empresas para informarse sobre ti. Estamos hablando de llamadas de voz y video, correos electrónicos, chats documentos, fotos, ubicación etcétera.

La recolección de este tipo de información sumada a la capacidad de análisis de la NSA permitieron hacer operaciones de espionaje a lideres mundiales como Angela Merkel, Enrique Peña Nieto o Dilma Rousseff. También existieron operaciones mediáticas para manipular la opinión pública como fue la operación QUITO que promovía una visión favorable para Inglaterra sobre las Islas Malvinas en América Latina.

Esto es un resumen muy superficial de lo que aprendimos hace 11 años. Es importante mirar para atrás y pensar qué cambió desde entonces. ¿Se suprimieron estos programas y ahora nuestra privacidad esta más aseguradas? Personalmente creo que algunas cosas mejoraron y otras han empeorado.

El escándalo de las revelaciones generó una discusión a nivel mundial sobre la privacidad en Internet. Una de las primeras consecuencias fue el Marco Civil de Internet en Brasil dónde se fortaleció la protección de los derechos civiles en internet y en particular la privacidad. En el caso de Europa, esto promovió la discusión de la protección de los datos que personales que en 2017 se vio reflejada en el Reglamento General de Protección de Datos Personales (RGPD). Esta legislación sirvió para que países como Ecuador tengan su ley de protección de datos personales en 2021.

Estas legislaciones son muy positivas y en el caso Europea, incluso se ha llegado a multar a empresas como Google y Meta (antes Facebook). Sin embargo, no es suficiente ya que si bien estas legislaciones buscan el consentimiento informado  para el tratamiento de datos personales, en la práctica se traduce como una incómoda ventana dónde se nos pide aceptar la política de privacidad y gestionar las configuraciones de cookies. En la práctica la mayoría de personas aceptan los términos y probablemente todas las cookies.

En lo tecnológico el cambio fue mayor. Antes de las revelaciones de Snowden la mayoría de sitios web funcionaban bajo el protocolo inseguro de HTTP.  En 2015 la EFF en colaboración con otras organizaciones y empresas lanzaron la iniciativa de Letsencrypt que hizo que la implementación de sitios web con el protocolo seguro HTTPS sea accesible para cualquier sitio o aplicación web. Gracias a esta iniciativa hoy casi todos los sitios y aplicaciones que usamos en Internet cifran la comunicación. De esta manera se puede presumir que parte importante de los programas de recolección de información de la NSA quedaran obsoletas. Esta característica no solo nos protege de la NSA, sino de cualquier actor con malas intenciones, desde un ciber criminal a Estados.

Sin duda una mejora importantísima para la seguridad de las comunicaciones de todas las personas que utilizamos internet. No obstante, esto no nos protege del espionaje de programas como PRISM, ya que la información que utilizamos en servicios en la nube generalmente es accesible por las empresas que proveen el servicio como se mencionó anteriormente. Personalmente creo que la situación ahora es peor.

Durante estos 11 años la NSA ha seguido trabajando en secreto y sus capacidades tecnológicas debieron mejorar. Pero la debilidad más fuerte es que empresas mencionadas en PRISM siguen siendo parte esencial de nuestras vidas. Nuestros teléfonos celulares si no funcionan con Android de Google, funcionan con el iOS de Apple. Los sistemas de reconocimiento de voz como Siri, Hey Google o Cortana son todos provistos por empresas PRISM. Por citar dos ejemplos. 

Otro avance importante que tenemos desde las revelaciones de Snowden es la adopción del cifrado extremo a extremo. A diferencia del cifrado de tráfico en la red, con este podemos proteger el contenido de la información incluso de la empresa que provee el servicio. Si ciframos un correo de Gmail, incluso Google no lo podría leer.

Si bien el cifrado de correo electrónico existe hace más de una década, su adopción es marginal. El caso más importante es la adopción de cifrado extremo a extremo es la de WhatsApp en 2016 que permitió a miles de millones de personas cifrar sus mensajes.

Claro que no podemos olvidar que WhatsApp es una empresa de Meta (antes Facebook), que está involucrada en el programa PRISM. La aplicación es de código propietario y no se puede saber cómo está hecha por lo que podría tener una puerta trasera. Incluso me atrevería a decir que tiene una puerta delantera cuándo en las conversaciones de la aplicación tenemos la opción de que participe la inteligencia artificial de Meta. Es una forma cool de pedirnos acceso a nuestras conversaciones.

Otro gran avance que hemos tenido es el desarrollo de aplicaciones de software libre que nos permiten controlar nuestra información.  Existen aplicaciones de chat, correo electrónico, colaboración, edición de documentos y más. En Derechos Digitales, por ejemplo, utilizamos Matrix como nuestro sistema de chat, Nextcloud para compartir documentos, OnlyOffice  para editarlos, Jitsi y BigBlueButton para video llamadas. Ninguna de estas aplicaciones es perfecta, algunas pueden llegar a ser incómodas o fallar en cuestiones que no quisiéramos, pero nos permiten tener agencia sobre nuestros datos y privacidad.

Snowden nos hizo saber que vivimos en una máquina de vigilancia y que estamos perdiendo nuestra privacidad. Ahora como sociedad debemos decidir si queremos seguir atrapados en este sistema o buscamos alternativas. En próximas columnas reflexionaré sobre algunas herramientas que usamos de forma cotidianas y las alternativas que respetan nuestra privacidad. Por lo pronto comparto columnas que escribí sobre aplicaciones de chat, teléfonos móviles, redes sociales y herramientas de video conferencia.

Starlink: tensiones frente a la promesa de conectividad

En la actualidad, cada vez más países de América Latina y el mundo reportan una presencia significativa de Starlink, la empresa de satélites de propiedad de Elon Musk que busca otorgar cobertura a internet satelital en zonas remotas. En 2023, un informe de Sumaúma afirmaba que Starlink estaba presente en el 90% de las localidades de la Amazonía brasileña. Indudablemente, este servicio llegaba para cubrir una necesidad básica y poco atendida en esta región, que había permanecido con poca o nula conectividad a internet.

La promesa del cierre de la brecha digital en zonas remotas

Sabemos que la conectividad en zonas remotas implica desafíos, como la dificultad de instalar infraestructura en donde el territorio y las condiciones climáticas deterioran los equipos. En un contexto de oferta mayormente privada de telecomunicaciones, los costos implicados en la instalación y manutención han hecho a ciertos territorios poco atractivos para las empresas del sector. Por otro lado, los Estados en la región siguen teniendo déficits importantes en cubrir esos vacíos, sea por medio de inversiones propias, o presionando por el cumplimiento de compromisos de cobertura asumidos por las empresas en los procesos de privatización. Cuando una solución como Starlink surge, parece representar una oportunidad. La reducción de costos se debe a que el internet satelital –una vez puesto a disposición por medio de la empresa SpaceX–  no requiere la instalación de infraestructura física en territorios de difícil acceso. Desde el punto de vista de las personas usuarias, todo lo que se requiere es la compra de un kit con equipo especializado, que puede ser instalado en cualquier parte del mundo. Si bien el valor del kit no es siempre accesible considerando los costos de vida en América Latina, los precios vienen bajando en los últimos años.

A seis años de finalizar el plazo para que los países alcancen el compromiso de proporcionar acceso universal y asequible a internet plasmado en la Agenda 2030, Starlink viene a llenar un importante vacío dejado por sucesivos fallos en el cumplimiento de políticas de conectividad. Parece ser que los gobiernos han encontrado en Starlink la solución para legitimarse ante la comunidad global, promoviendo el cierre de la brecha de acceso que no habían logrado a través de sus varias políticas públicas, agendas y programas digitales. Brechas que persisten a pesar de que en algunas naciones el acceso a la red se establece como un derecho a nivel constitucional.

La estrategia de los líderes nacionales se basa en generar alianzas y contratos millonarios con Starlink, para conectar zonas remotas de difícil acceso. Para ejemplificar, tenemos el caso del gobierno mexicano, quien en 2023 otorgó dos licitaciones a Starlink para proveer de internet a comunidades alejadas, así como servicio de telefonía celular hasta el año 2026, con el propósito de lograr los objetivos planteados en su programa federal “Internet para Todos”. También el de Brasil, que promovió el uso de este servicio en la Amazonía en conjunto con Musk para fines educativos. Mientras que en Argentina, el gobierno de Milei promovió un decreto que incentiva la desregularización del mercado de internet satelital, incentivando así la entrada de Starlink. 

Principales debates sobre la cobertura de Starlink

Si Starlink resuelve un problema legítimo, ¿por qué sigue preocupando su presencia? El principal argumento sobre la mesa es la idea de la generación de un monopolio de internet satelital. Pese a que existen iniciativas que intentan competir con Starlink, la empresa de Musk ha permeado a la mayoría de las regiones en el mundo, yendo a la delantera en las licitaciones y acuerdos con los gobiernos. Como ejemplo encontramos el caso mexicano en el que solo participaron dos competidores adicionales, quienes no obtuvieron la concesión debido a sus altos costos. No obstante, el modelo de negocios de Starlink ha sido cuestionado por algunos analistas, quienes se preguntan si será sostenible en el tiempo, tanto en infraestructura como en costos ofertados.

Adicionalmente, la concentración de internet satelital en un solo proveedor abre la posibilidad de desconexión de todas las personas que se sirven del mismo sin contar con alternativas. Existe un cuestionamiento fundamentado sobre qué pasaría si Starlink deja de funcionar; la primera respuesta y la más lógica es la desconexión de aquellas  usuarias y usuarios que tienen a Starlink como única fuente de acceso a internet —pensemos como ejemplo en la región amazónica brasileña—. A su vez, esto imposibilitaría también el ejercicio de otros derechos que se habilitan con internet como el acceso a la información, a la salud o la educación.

Por otra parte, las tensiones políticas que se suscitan entre los gobiernos y el entramado de empresas de Elon Musk tienen repercusiones en la continuidad del servicio de Starlink. El ejemplo más reciente y concreto es el riesgo que vivió Starlink de no continuar con sus operaciones en Brasil, luego del congelamiento de sus activos como una medida colateral de los conflictos entre la justicia brasileña y la red social X (perteneciente a Musk). Es aquí cuando salen a la luz las complicaciones políticas de fomentar un monopolio encabezado por una persona poderosa con una agenda propia.

Asimismo, existe una serie de cuestionamientos sobre la recolección de datos que obtiene Starlink a través de su servicio. A ese respecto, especialistas han realizado análisis sobre sus principales reglas en materia de privacidad, identificando la posibilidad de que esta compañía comparta los datos recogidos con terceros países que pueden contar con un marco legal de protección de datos personales endeble o para compartir esta información con instituciones gubernamentales de inteligencia y seguridad.

Las tensiones continúan cuando nos cuestionamos sobre el involucramiento de las comunidades que reciben este servicio. Sobre esto, el estudio de Sumaúma ya adelantaba una falta de debate público con las poblaciones locales, además de la ausencia de estudios que analicen los impacto sociales y ambientales de su implementación. Esto se ha derivado en otras polémicas como la basura espacial generada por la gran ocupación de satélites de órbita baja terrestre, incluso,  se ha cuestionado el efecto que estos pueden generar en áreas de estudio como la astronomía.

Desde las comunidades, si bien se reconoce el valor de finalmente tener acceso a una conectividad de calidad, existen preocupaciones respecto a los impactos de internet sobre la juventud y su relación con la preservación de las culturas indígenas. Debido a ello, las poblaciones de estas localidades han identificado la necesidad de prepararse y conocer más sobre el uso de internet y sus alcances. Estas inquietudes han sido compartidas en el ámbito de los diálogos promovidos por aliadas de Derechos Digitales en distintas regiones de la Amazonía.

Promovamos la transparencia y alternativas de conectividad

La presencia y cobertura de Starlink en América Latina es una realidad y muy probablemente nuevos servicios similares llegarán a nuestra región. Ante este escenario, consideramos fundamental tener a la vista nuestras necesidades como poblaciones usuarias. En una primera vía, identificamos que hay una urgencia por involucrar a las poblaciones en consultas y debates públicos que determinen formas de conectividad adecuadas, tomando en cuenta las culturas locales. En territorios indígenas o en zonas protegidas, el análisis previo de impacto socioambiental y las consultas previas son mecanismos clave a tomarse en cuenta al promover iniciativas de este tipo.

Tanto las compañías tecnológicas como los gobiernos deben aplicar el principio de transparencia de manera proactiva, especialmente, para comprender de qué forma se están manejando los datos personales en manos de Starlink y SpaceX. Derechos Digitales y otras organizaciones en la región han hecho un inmenso trabajo de monitoreo de políticas y prácticas de empresas de telecomunicaciones con resultados positivos en impulsar mayor responsabilidad en el sector. Garantizar que Starlink cumpla con estándares, como mínimo, equivalentes es solamente un primer paso en ese sentido. Asimismo, observamos la necesidad de una rendición de cuentas por parte de los gobiernos, en la que determinen si los programas están siendo efectivos y en concordancia con el respeto a los derechos humanos de las poblaciones.

Pero tampoco deberíamos conformarnos con explorar cómo acomodarnos a grandes empresas de conectividad satelital. Especialmente en las zonas remotas y con la llegada de Starlink, creemos que existe una clara urgencia de equilibrar las formas de conectividad, que promuevan la independencia del acceso a internet a través de la diversificación de proveedores en estas regiones, idealmente con apoyo y financiamiento público. Recordemos también, que en muchos países de América Latina las comunidades se han empoderado a través de la gestión de sus propias redes comunitarias para conectarse a internet y usar telefonía móvil, lo que no solo representa una forma de apropiación y manejo colectivo de las tecnologías, sino también una forma de defensa de su derecho a la comunicación y a su autonomía.

En un mundo donde las tecnologías digitales han evolucionado a gran escala, la conectividad a internet podría considerarse un viejo debate. Sin embargo, la superación de la brecha de acceso a la red se logrará cuando se garantice el acceso universal que, como ya ha afirmado la Relatoría Especial para la Libertad de Expresión de la

Comisión Interamericana de Derechos Humanos, debe ser equitativo, asequible y de calidad. Y aquello no debería depender del arbitrio de multimillonarios.

Ciberseguridad: más allá de la concientización

Octubre marca nuevamente el Mes de la conciencia sobre la ciberseguridad, una oportunidad anual para destacar la importancia de la seguridad digital. Pero lejos de ser un tema técnico, la ciberseguridad ha pasado a ser una prioridad social y política.

Los ataques cibernéticos cada vez más sofisticados y el creciente uso de tecnologías emergentes, como la inteligencia artificial (IA), han traído nuevas complicaciones. En un contexto global donde aparecen nuevos marcos regulatorios y estrategias, los incidentes cibernéticos en América Latina son un recordatorio constante de que la región necesita mejorar su capacidad para prevenir y mitigar ataques.

Ataques sin fin en América Latina

El último año ha dado una nueva serie de ejemplos de incidentes de alto perfil, una vez más con el ransomware como protagonista. Uno de los incidentes más devastadores ocurrió en septiembre de 2023 en Colombia, en un ataque dirigido a IFX y que afectó a decenas de entidades gubernamentales, paralizando desde procesos judiciales hasta el acceso a prestaciones de salud. El impacto de este ataque además se extendió a Argentina, Panamá y Chile. Un mes después, otro incidente afectó a órganos públicos y privados en Chile y Perú, otra vez mediante ransomware. Son noticias que seguirán repitiéndose sin nuevas medidas frente a amenazas constantes y complejas. Distintos estudios dan cuenta de la frecuencia de ataques en empresas privadas como de la limitada preparación en el sector público de la región.

Es en ese escenario que se vuelve especialmente valioso el avance de políticas nacionales sólidas, donde cabe mencionar el hito crucial de la promulgación de la Ley Marco de Ciberseguridad y Protección de Infraestructuras Críticas de Chile. Esta ley establece a la Agencia Nacional de Ciberseguridad (ANCI) como la autoridad encargada de regular y proteger los servicios esenciales frente a ciberataques. Este tipo de legislación, pionera en la región, subraya la urgencia de contar con marcos sólidos en un momento en que las amenazas no solo aumentan en número, sino también en complejidad. Pero ante amenazas que suelen ser transnacionales, es necesario no solo que existan marcos efectivos en todos los países, sino también instancias suficientes de colaboración.

Un mundo en busca de la seguridad digital

El contexto diplomático global en torno a las tecnologías ha estado marcado por el Grupo de Trabajo de Composición Abierta sobre la seguridad en el uso de las TIC (el OEWG), que en su informe anual de progreso ha puesto énfasis en las implicaciones de tecnologías avanzadas usadas contra la seguridad en el ciberespacio, incluyendo a la inteligencia artificial y la computación cuántica, en atención a su potencial para fortalecer o debilitar la ciberseguridad global. Contrastan allí los tensos debates que incluyen países en conflicto geopolítico, con la participación voluntariosa de Estados que procurará mejorar sus capacidades frente a las amenazas digitales.

En el documento de consenso entre Estados, algunos puntos clave incluyen: elementos acordados para un futuro mecanismo de diálogo tras el fin del OEWG, basado en consenso; el futuro debate de la posibilidad de un fondo voluntario para apoyar la capacitación de los Estados; la existencia de deberes de los Estados bajo normas voluntarias, derecho internacional y medidas de fomento de la confianza; y la continua operacionalización de un directorio de puntos de contacto. Por otra parte, a un año del término del OEWG, no hay consenso sobre la aplicabilidad directa al ciberespacio del derecho internacional y el derecho internacional humanitario, ni sobre la necesidad de nuevas normas no vinculantes.

No obstante, es otro suceso el que acapara hoy mayor atención. El término de las negociaciones del Tratado de Cibercrimen de la ONU, y el inicio del proceso para su votación por la Asamblea General de la ONU, constituye un suceso que parecía esquivo a inicios del año. En teoría, el propósito del tratado era el de establecer un marco global para combatir delitos cibernéticos y la cooperación en su persecución. Pero conocemos los peligros de la implementación de un tratado como este, que arriesga facilitar la criminalización de actos distintos de los ciberdelitos además de aumentar la vigilancia estatal sin salvaguardas adecuadas para los derechos fundamentales. En países con antecedentes de abusos en el uso de tecnologías de espionaje, existe el peligro de que el tratado refuerce prácticas invasivas y represivas, en lugar de fomentar la seguridad centrada en los derechos humanos. El llamado al rechazo del tratado viene no solamente desde la sociedad civil, sino también de industria y expertos de todo el mundo. Una defensa integral del ciberespacio, y de los derechos que facilita su funcionamiento seguro, puede verse mermada por iniciativas que arriesgan convertirlo en un ámbito de censura y vigilancia autorizada por ley.

Sin falsos dilemas: la seguridad es necesaria para los derechos

El 2024 ha sido un año de enormes desafíos y oportunidades en el ámbito de la ciberseguridad para América Latina. Mientras algunos países han avanzado significativamente en la implementación de marcos regulatorios, la región en su conjunto sigue siendo vulnerable. Un desafío clave es el impacto de las tecnologías emergentes y disruptivas, que fueran objeto de discusión en el X Simposio de Ciberseguridad de la OEA. La rápida adopción de tecnologías como IA en sectores críticos trae consigo riesgos importantes, especialmente en una región con limitaciones de recursos y falta de personal capacitado que permitan oportuna y efectiva respuesta a incidentes.

Por otra parte, la conclusión del Tratado de Cibercrimen de la ONU puede ser un punto de inflexión: de llegar a aprobarse y ratificarse, ¿se logrará un equilibrio entre la necesidad de seguridad y la protección de los derechos humanos? Si bien el tratado promete mejorar la cooperación internacional en la investigación de delitos cibernéticos, el riesgo de que sea mal utilizado para aumentar la vigilancia sin suficientes restricciones legales es una preocupación clave en la región.

La ciberseguridad es una condición que favorece el pleno ejercicio de los derechos humanos en el entorno digital, y por tanto es una materia en la que todas somos responsables en alguna medida. El camino hacia una mayor seguridad digital en América Latina exigirá no solo leyes más sólidas, sino también una cooperación regional más profunda, un diálogo intersectorial efectivo y un enfoque firme en la protección de los derechos fundamentales. Y esa necesidad de cooperación es parte esencial de la conciencia sobre la ciberseguridad.

Puertas cerradas y llaves seguras: Seguridad informática en infraestructura Cloud

Correo electrónico, Netflix, Google, Instagram y la mayoría de las aplicaciones más populares hoy en día tienen sus operaciones alojadas en la “nube”, una solución que vino a cambiar la forma de ver la infraestructura donde se despliegan las aplicaciones informáticas. El cloud computing es el acceso bajo demanda a recursos de computación a través de Internet con precios de pago por uso.

Considerando que, según Cloud Industry Forum (CIF), el 100% de las empresas utilizan algún tipo de servicio cloud, en sus diversos tipos, el impacto de fallos de seguridad en sus aplicaciones comprometería los servicios y los datos de sus miles de personas usuarias. Antes de ver algunos de los puntos críticos de este modelo de negocio, corresponde entender las categorías en las que se puede clasificar, mismas que se describen brevemente a continuación:

  • Infraestructura como Servicio (IaaS, siglas del inglés Infrastructure as a service): Disponibiliza recursos de infraestructura virtualizados, como almacenamiento y servidores. La seguridad en IaaS es responsabilidad directa y completa de quién instala las aplicaciones, así como la protección de los datos. Este es un modelo más autónomo y de gestión total por quien contrata el servicio.
  • Plataforma como Servicio (PaaS, siglas del inglés Platform as a service): Facilita plataformas para gestionar aplicaciones en sus diferentes niveles (desarrollo, pruebas y producción), proporcionando herramientas y servicios adicionales tales como monitoreo y logs. La seguridad de la aplicación y de los datos corresponde a quien adquiere el servicio mientras que el acceso a la plataforma y su seguridad relacionada corresponde al proveedor del servicio. Este es un modelo muy popular a nivel empresarial, y entre sus máximos representantes se encuentran AWS, Google y Azure.
  • Software como Servicio (SaaS, siglas del inglés Software as a service): Una nueva forma de hacer software y proveerlo. Estas son aplicaciones listas para usar que se ejecutan en la nube. La seguridad de los datos y el acceso son responsabilidad de quien gestiona el servicio y disponibiliza el software. Servicios como correo electrónico y redes sociales responden a este modelo de servicio. 

Ahora bien, independientemente de si se gestionan servicios en la nube a nivel corporativo o para una organización de la sociedad civil, de tipo público o privado, es importante tener presente que la seguridad siempre será un punto que cuidar, aún más considerando que el 80% de los riesgos de seguridad están presentes en entornos cloud. Desde la gestión de acceso y monitoreo hasta la mitigación de impacto de los fallos de seguridad en un entorno de producción.

Según la revista Portafolio, los errores humanos siguen siendo un punto de fallo con un 31% en las causas, junto a la explotación de vulnerabilidades conocidas que se llevan un 28% y la falla en la configuración de MFA (múltiples factores de autenticación) que tiene un 17%. A esto se suma el incremento del 27% en ataques ransomware, durante el primer semestre del 2024; este es un tipo de malware que mantiene como rehenes los datos o el dispositivo de la víctima como un modelo de extorsión que busca un “recompensa” por liberar la información o servidores comprometidos.

Entre los múltiples desafíos a enfrentar en la gestión de infraestructura cloud se puede citar el acceso no autorizado, sean cuales sean los medios que usen los atacantes para conseguir credenciales de inicio de sesión. Ante esto, Ola Bini, director técnico en el Centro de Autonomía Digital, recomienda ejecutar acciones de gestión de listas de acceso, implementación de MFA, utilizar contraseñas fuertes que sean cambiadas periódicamente y aplicación del principio de mínimo privilegio en los permisos de usuario. Por supuesto, cuidar del acceso del rol administrador y usarlo cuando las operaciones a ejecutar, así lo ameriten.

La vulneración de puertos (puertas de entrada y salida para el tráfico de red) no se queda atrás cuando se trata de ingresar a los sistemas. Profesionales del área pueden hacer un escaneo de puertos abiertos e identificar servicios que están siendo utilizados para insertar fragmentos de código que ejecuten peticiones hacia un servidor. Frente a esto, Rafael Bonifaz, líder de proyecto LAREDD en Derechos Digitales, menciona la importancia de hacer una gestión de red crítica que evalúe la necesidad de tener un puerto disponible o no, esto en base a lo que se requiera permitir acceso. Asimismo, los sistemas que sirven para que una aplicación funcione, pero que no tienen comunicación directa con el usuario final, deberían tener una configuración de red diferente a aquellos servicios que reciben peticiones desde el exterior.

¿Saber qué está pasando ayuda a atacar el problema? Sin un monitoreo adecuado, las brechas de seguridad podrían pasar sin ser notadas durante largos periodos de tiempo. Según un reporte de IBM, el tiempo promedio para detectar brechas es de 207 días y mitigarlas puede ascender a 277 días. Centralizar y analizar logs así como utilizar herramientas de monitoreo en tiempo real y automatizar el envío de alertas no se ven más como acciones opcionales, sino como necesidades persistentes.

El activo más valioso a día de hoy, los datos, son un punto atractivo hacia el cual pueden apuntar los ciberdelincuentes. En una recopilación publicada en Sealpath, se documenta que para el 2023 “más del 50% de víctimas de ransomware pagaron al menos $100000 USD”. Además, en Latinoamérica, cerca del 62% de las empresas reconoce haber sufrido filtración de datos. Muchos de los datos son almacenados en la nube tal como son recolectados, es decir, sin medidas de cifrado, lo que da como resultado una creciente necesidad por la implementación de políticas de encriptación de datos con llaves seguras, retención y eliminación de datos de forma confiable, así como una clasificación por grado de criticidad.

Con estos y muchos otros puntos críticos, las capacidades técnicas requieren cada vez más especialización, así como la implementación de normas que den lineamiento sobre las medidas de seguridad necesarias. Varias de las empresas que proveen PaaS deben alinearse al Cumpliemiento de la Nube, que son una serie de estándares internacionalmente reconocidos que intentan que los proveedores estén en la capacidad de ofrecer condiciones de seguridad.

Con esto han ido emergiendo guías y tendencias de medidas de seguridad y buenas prácticas que se ejecutan durante todas las etapas de la producción de soluciones informáticas. Un ejemplo de esto es AppSec, que se refiere al proceso de identificar y reparar vulnerabilidades en el software desde su desarrollo hasta su despliegue. DevSecOps es un proceso que une acciones de desarrollo, seguridad y operaciones a lo largo del ciclo de vida de un sistema. A esto se suman varios puntos a validar antes de lanzar un servicio SaaS, como pruebas de seguridad de aplicaciones estáticas (SAST), dinámicas (DAST) e interactivas (IAST). Incluso, algunos sistemas basan sus controles de seguridad en la recopilación de vulnerabilidades Owasp Top Ten.

El desafío de la gestión de seguridad en la infraestructura cloud aplica a todos quienes desarrollen y desplieguen sus servicios pensando en entornos virtuales. Aunque, posiblemente, el reto más grande es para quienes optan por IaaS, ya que el tipo de servicio no incluye varios de los complementos de seguridad como pasa en PaaS. El BigData y su valor en el mercado hace que sea cada vez más imperativa la necesidad de cuidar la integridad de los datos, así como cualquier posibilidad de acceso no autorizado.

La confiabilidad de un sistema o aplicación está sujeta a su disponibilidad y resiliencia ante fallos y ataques, lo que obliga a establecer medidas de mitigación de puntos de quiebre con respuesta rápida. La cifras de vulneraciones hacen que la veracidad se cuestione, sin embargo, la necesidad de soluciones con más cobertura y horas de funcionamiento hace que la tendencia a servicios basados en la nube crezca cada vez más. Es un hecho que el uso de cloud no disminuirá, por lo que resta cuidar la seguridad en estas infraestructuras, aplicando estándares y buenas prácticas.

En resumen, la seguridad en infraestructura cloud es un campo en constante evolución que requiere tanto de medidas técnicas avanzadas como de un monitoreo continuo para mitigar los riesgos inherentes. A medida que las empresas y organizaciones de todo tipo continúan migrando hacia la nube, la adopción de buenas prácticas de seguridad y el cumplimiento de estándares internacionales serán clave para garantizar la protección de los datos y la resiliencia de los sistemas frente a amenazas cada vez más sofisticadas.

Pacto Global Digital: Gobernanza tecnológica y la protección de los derechos humanos

En nuestra publicación anterior, analizamos el Pacto Global Digital (GDC), un documento clave que se centra en los desafíos digitales globales y que forma parte del Pacto para el Futuro como uno de sus anexos. A pesar de que el GDC aborda específicamente aspectos relacionados con la gobernanza digital, el Pacto por el Futuro en su conjunto también trata temas esenciales relacionados a la protección de datos, los derechos humanos, la igualdad de género, y el acceso a internet. Es fundamental que comprendamos cómo estos dos documentos se complementan y responden a los desafíos globales emergentes.

El Pacto para el Futuro fue adoptado por consenso en medio de tensiones geopolíticas – y tras varias versiones que circulaban informalmente hasta el día anterior a su adopción- el día 22 de Septiembre del corriente.

Género desde una Mirada Interseccional: Omisiones que implican retrocesos

Un aspecto esencial que sigue siendo insuficientemente tratado en el Pacto para el Futuro es la incorporación de la perspectiva de género desde una mirada interseccional. A pesar de las referencias a la brecha digital de género, no se abordan con suficiente profundidad las múltiples formas de discriminación que enfrentan las mujeres y personas de género diverso, particularmente en el contexto digital.

Aunque uno de los objetivos clave del Pacto «no dejar a nadie atrás» (leave no one behind), ninguno de los documentos menciona explícitamente a las personas LGBTQIA+ en su ámbito de protección. Esto es preocupante, dado que esta comunidad enfrenta impactos diferenciados. Un ejemplo claro es la violencia de género facilitada por la tecnología (TFGBV), que afecta tanto a mujeres cis y tránsgenero como a personas con diversas identidades de género y orientaciones sexuales. Ignorar esta realidad deja a estas comunidades expuestas a sufrir violencias en línea y explotación de sus datos, subrayando la urgencia de políticas digitales verdaderamente inclusivas.

Además, es necesario considerar otras dimensiones interseccionales, como la raza, la clase social, y la ubicación geográfica, entre otras, que agravan las formas de exclusión y vulnerabilidad que también se manifiestan en el entorno digital. Las personas que enfrentan múltiples formas de discriminación suelen ser las más afectadas por las brechas digitales y, a su vez, las más expuestas a los riesgos y abusos facilitados por la tecnología. Es crucial que cualquier enfoque sobre género en el ámbito digital no sólo contemple a las mujeres cis, sino que abarque a todas las identidades de género  e incluya a la necesidad de tomar en cuenta los contextos para asegurar una verdadera inclusión.

Inteligencia Artificial y Aplicaciones Militares y Contraterrorismo: La Falta de Salvaguardias Claras

El Pacto reconoce los riesgos y las oportunidades de las tecnologías emergentes, incluida la inteligencia artificial (IA), y subraya la importancia de la cooperación internacional para evaluar estos riesgos, especialmente en sus aplicaciones militares. Sin embargo, el Pacto no establece limitaciones explícitas ni mecanismos de supervisión independiente que aseguren que la IA sea utilizada de manera que respete los derechos humanos. En nuestras contribuciones al proceso enfatizamos la necesidad de responder a estos riesgos con un marco regulatorio que se base en recomendaciones clave, como la Resolución 48/4 del Consejo de Derechos Humanos, y el informe del Alto Comisionado de las Naciones Unidas para los Derechos Humanos, que abogan por una moratoria o incluso la prohibición de herramientas de IA que no puedan ser utilizadas en cumplimiento con el derecho internacional de derechos humanos.

Además, realizamos un llamado a que se establezcan limitaciones claras en las acciones de contraterrorismo, garantizando que las respuestas de los Estados partan desde un enfoque balanceado de derechos Esto es crucial para evitar legislaciones que puedan ser aplicadas de manera arbitraria y que arriesgue los derechos fundamentales, como la libertad de expresión y la asociación, como hemos analizado en investigaciones relacionadas. El Pacto, aunque aborda los riesgos de aplicación de tecnologías, no define estas salvaguardias, lo cual abre la puerta a posibles abusos en nombre de la seguridad.

Fortalecimiento del Modelo de Múltiples partes interesadas: Desafíos y Oportunidades en la Gobernanza Global

El Pacto reconoce la importancia de un sistema multilateral más inclusivo y efectivo, pero no detalla de manera específica cómo asegurar la representación diversa de partes interesadas del Sur Global y otros grupos históricamente subrepresentados en los procesos de toma de decisiones globales.

Uno de los ejes centrales de nuestras diversas recomendaciones fue el de enfatizar en la necesidad de que para avanzar en el cumplimiento  de un modelo de múltiples partes interesadas que tenga como base a la participación significativa que garantice inclusión. Esto incluye, por ejemplo, proporcionar avisos adecuados y sistemas de acreditación accesibles. Además, enfatizamos que la participación remota no debe ser la única opción; se deben proporcionar opciones de participación robustas, incluidas el apoyo para viajes y visados, y que los foros se realicen en lugares accesibles y en entornos que protejan las libertades fundamentales.

Esto es especialmente importante considerando que el proceso de consultas no ha garantizado la plena participación de sociedad civil conforme hemos expresado en declaraciones anteriores.

Garantías de Transparencia y Rendición de Cuentas en los Procesos ligados a Iniciativas de Desarrollo:

Uno de los aspectos clave que resaltamos en nuestras recomendaciones -y que no ha sido abordado en el pacto- es la necesidad de fortalecer los mecanismos de transparencia y rendición de cuentas en los programas de desarrollo financiados por la ONU y otros organismos internacionales. En nuestras observaciones, enfatizamos que estos programas deben someterse a evaluaciones técnicas y de derechos humanos antes de su implementación. Además, los proyectos de financiamiento deben hacerse públicos, y deben establecerse mecanismos de monitoreo y evaluación durante y después de la ejecución de dichos programas.

La falta de transparencia en el diseño y ejecución de estos programas puede facilitar la implementación de tecnologías de vigilancia que, en lugar de promover el desarrollo, ponen en riesgo las libertades individuales. Investigaciones basadas en evidencia señalan una tendencia preocupante en la que las tecnologías y metodologías utilizadas por donantes bilaterales y agencias de financiamiento internacional tienden hacia prácticas de vigilancia, a menudo a expensas de los derechos humanos, en especial el derecho a la privacidad y la protección de los datos personales.

Es fundamental que los procesos de financiamiento y desarrollo sean transparentes y que las propuestas de financiamiento sean públicas y sujetas a evaluaciones técnicas y de derechos humanos antes de su implementación. Además, se deben establecer mecanismos de monitoreo que aseguren la supervisión continua durante y después de la implementación de estas iniciativas.

Relación con otros Instrumentos Internacionales

El Pacto por el Futuro y el Global Digital Compact (GDC) destacan varios aspectos positivos relacionados con la protección de datos, subrayando la necesidad de garantizar que la tecnología se utilice de manera que respete los derechos humanos, especialmente en lo que respecta a la privacidad. Sin embargo, es crucial considerar la reciente adopción de la Convención de las Naciones Unidas contra el Cibercrimen, mencionada en el Pacto, que plantea preocupaciones significativas en este contexto.

Uno de los aspectos más alarmantes de esta Convención es el intercambio transfronterizo de datos, que se permite sin las salvaguardas adecuadas. El tratado autoriza a los países a recopilar y compartir datos a través de fronteras para una amplia gama de delitos «graves», lo que incluye la vigilancia electrónica. Aunque, no establece condiciones claras sobre proporcionalidad o estándares de derechos humanos que deban respetarse en estos procedimientos.

Es importante prestar atención a cómo dialogarán estos instrumentos y abogar por la mayor protección a partir de principios de derechos humanos del pacto aplicados a la protección de datos.

Próximos Pasos: Implementación y retos de Desigualdades Globales

Con la adopción del GDC y el Pacto por el Futuro, el reto siguiente recae en su implementación. En ese sentido, es fundamental reconocer que el Pacto no operará sobre una base homogénea. Los diferentes niveles de desigualdad global—reflejados en la falta de legislación adecuada basada en derechos humanos, la debilitación de las instituciones públicas y los retrocesos democráticos—implicarán desafíos particulares en cada contexto.

Este proceso de implementación deberá ser monitoreado muy de cerca, entendiendo que, si bien el Pacto establece principios que permiten exigir responsabilidades a los Estados, la efectividad de estos dependerá de los mecanismos que cada país adopte para llevarlos a cabo. Es necesario que los Estados avancen en mecanismos de implementación que aseguren la participación de múltiples partes interesadas, prioricen las necesidades de sus comunidades locales, y sean capaces de aplicar estos principios de acuerdo con las realidades específicas de cada contexto. Sólo a través de un enfoque flexible, contextualizado y centrado en los derechos humanos, se podrá construir un futuro digital inclusivo y equitativo.

La suspensión de X en Brasil, y la vigencia del Estado de Derecho

El pasado 30 de agosto, la máxima corte de justicia de Brasil, el Supremo Tribunal Federal, emitió una decisión que, entre otras cosas, ordenó la suspensión del servicio de la red social X —antes Twitter—. También decidió establecer sanciones a los usuarios y usuarias que evadieran dicha suspensión a través de distintas herramientas como las redes virtuales privadas (o VPN), e inicialmente ordenó a Apple y Google retirar de sus tiendas de aplicaciones móviles este tipo de herramientas, medida que fue revertida horas después.

La decisión de suspensión inmediata y completa del servicio, que sigue vigente a más de una semana desde su emisión, fue impuesta como resultado de que la red social incumpliera diversas órdenes judiciales dirigidas a la entrega de información de algunos usuarios y el bloqueo de ciertas cuentas y contenidos.

Antecedentes necesarios sobre el fallo 

De la lectura del fallo judicial del 30 de agosto pasado que ordena la suspensión inmediata y temporal de X, y la poca información disponible, emergen dos hechos de contexto para entender cómo y por qué la justicia emitió una de las medidas más gravosas según el Marco Civil de Internet, la normativa de Brasil aprobada hace más de 10 años atrás que regula internet.

En primer lugar, sabemos que el Supremo Tribunal Federal (STF) hace meses ordenó a X la entrega de los datos personales de ciertas personas y el bloqueo de diversas cuentas y contenidos que estaban presuntamente implicadas en actos de intimidación a agentes policiales. Estas órdenes estuvieron  enmarcadas en una investigación llevada a cabo de manera confidencial por ese máximo tribunal, y que buscaba esclarecer los hechos de intento de golpe de Estado así como atribuir las debidas sanciones a sus responsables.

En segundo lugar, sabemos que con posterioridad a la emisión de dicha orden inicial, la red social X habría apelado su contenido, pero el STF se sostuvo en su decisión, por lo que la plataforma debía cumplir el fallo aunque fuera adverso a sus pretensiones. La justicia intentó, por varios medios, amenzar a X a que cumpliera, pero en ese punto la justicia y la plataforma ya no tenían un punto de contacto local que facilitara su comunicación: la red social había suprimido su representación legal, ante la eventual sanción de prisión que podría ser impuesta a sus delegados en Brasil por los reiterados incumplimientos, a lo que se sumó también el despido del resto del equipo de X en ese país.

Por su desacato reiterado, el STF impuso multas cuantiosas a X. De igual modo, congeló los activos de la empresa Starlink, donde Elon Musk –accionista mayoritario de X– también figura como dueño. Al día de hoy, la orden judicial que inició todo este ir y venir, sigue sin ser cumplida.

Ahora bien, hay que reconocer que la decisión de suspensión inmediata y temporal del servicio de X en Brasil es, en definitiva, el desenlace de un conjunto de decisiones sobre incumplimientos judiciales, cuyos efectos fueron escalando. Para que la suspensión sea levantada y se restablezca la prestación del servicio de X en Brasil, el STF exige a la red social que nombre una representación legal en el país –para facilitar la comunicación entre ambas partes–, que cumpla con las órdenes iniciales de entrega de datos personales y eliminación de contenidos, y que pague las multas adeudadas. 

Fuera de discusión: el Estado de Derecho y las decisiones de la justicia

A quienes ejercemos abogacía se nos enseña que la vigencia del Estado de Derecho transita, entre otros, por el imperio de la ley para todas las personas y el respeto a las decisiones judiciales. Y se nos advierte que, aun cuando el contenido de los fallos pueda ser discutible, la controversia en torno a las decisiones judiciales debe transitar por las vías legalmente establecidas para ello. Hay que jugar según las reglas que se espera que se apliquen a todos por igual.

Pero eso no parece ser igualmente aceptado desde el Valle de Silicio (Silicon Valley) . Desde luego, la estrategia de evasión de la ley por parte de las Big Tech fuera de Estados Unidos no es nueva. En países de América Latina se valen de diversas estrategias para justificar por qué los ordenamientos locales no les son de aplicación. Uno de los argumentos más comunes para la elusión de las decisiones judiciales o administrativas apunta a la falta de jurisdicción: la supuesta ausencia de validez o aplicabilidad (para ellas) de la ley de los países en que no está domiciliado su centro de operaciones principal, o  el argumento según el cual la filial registrada fuera de los Estados Unidos no tiene relación alguna con la empresa principal que administra la plataforma de red social, streaming, reproducción de videos, o el servicio que sea. 

Los argumentos varían y, en ocasiones, las plataformas ni siquiera responden al pedido de las autoridades, dejándolas en visto. Pero la maniobra empleada por X en Brasil (en particular, las acciones de su CEO Elon Musk dirigidas a atacar la integridad de los jueces del caso y la justicia en general) no había sido vista de una manera tan cruda y explícita hasta ahora en nuestra región. 

Desacatar un fallo judicial de manera sistemática y cerrar las actividades de la filial de esa Big Tech haciendo imposible la actuación de la justicia, reafirma cuán fácil puede ser para estas empresas desvirtuar la eficacia jurídica y simbólica del derecho. La lógica de la suspensión temporal de un servicio según el Marco Civil de Internet, es que sea temporal en tanto que se espera que la plataforma cumpla con sus obligaciones rápidamente. Pero no parece en este momento que X vaya a cumplir con esta expectativa. ¿Qué hará la justicia ahora de cara a la decisión de bloqueo si la red social, como quedó claro, no tiene interés alguno de cumplir sus decisiones en el futuro próximo? ¿El bloqueo generalizado se mantendrá de manera indefinida?

Pese a todo, en esta tensión que emerge entre el poder de las Big Tech y el poder de los Estados, en lo que pensamos que debemos estar de acuerdo es en el imperio de la ley y en el cumplimiento de las decisiones judiciales en los países democráticos, aún cuando podamos y tengamos el derecho de cuestionar su contenido y los procedimientos aplicados en la toma de la decisión judicial.

Asimismo, vale la pena mirar con cautela el caso de Brasil que nos enseña que la relevancia económica de un mercado puede no ser suficiente garantía para incentivar el cumplimiento de la ley local. ¿Qué suerte le espera al resto de países de la región cuando tengan que lidiar con la red social X en el marco de decisiones de moderación de contenido, o acciones de lucha contra la desinformación o violencia que suceden y circulan en esa plataforma?

Un debate que no es nuevo: el bloqueo de servicios digitales

La suspensión temporal de un servicio, en el caso de Brasil, está fundamentado por el Marco Civil de Internet y en tanto que ley válida y democráticamente discutida y aprobada por el Congreso, ha de ser aplicada aun cuando entendamos hoy, de cara al estado del arte tecnológico, que es inconveniente y merece ser repensada frente a los estándares regionales sobre la licitud de las medidas restrictivas de la libertad de expresión.

La suspensión de la totalidad de un servicio puede ser desproporcionada, pues sus efectos se extienden a la generalidad de personas usuarias del servicio que no están vinculadas con la decisión judicial inicial. El fin perseguido, en el caso brasileño, que apuntaba a la entrega de datos de ciertos usuarios y bloqueo de contenidos y cuentas, no es proporcional de cara a los efectos generados para todas las personas que acceden a X en ese país. Pero la suspensión generalizada, aun cuando sea temporal, tampoco es útil si se emplea como incentivo para obligar al cumplimiento de las decisiones judiciales, como ya quedó claro con la reacción de X.

Cuando el sistema interamericano de derechos humanos se refirió en 2013 y 2016 a la medida de bloqueo –adoptada en Brasil como “suspensión temporal”-, lo hizo para referirse a un recurso extraordinario o excepcional, disponible en manos de los Estados para, entre otros, luchar contra la explotación sexual infantil, o la “piratería” en línea, y más recientemente, la desinformación. Su vocación era la de servir como recurso aplicable sobre los contenidos ilegales, y no como una medida para afectar de manera generalizada el servicio o el medio que lo difunde –salvo que el servicio sea en sí mismo ilegal–.

Para sugerir la distinción entre el contenido y el medio en materia de bloqueos, la Relatoría para la Libertad de Expresión acudió a la analogía con el cierre de un periódico o cualquier otro medio de comunicación, dejando en claro que en línea y fuera de ella, ese tipo de bloqueos –o suspensiones– erosionan el ecosistema mediático e informativo. La suspensión temporal de una plataforma como X en Brasil, aunque pueda ser legal, ¿continúa siendo una medida legítima, necesaria y proporcional en una sociedad democrática? 

Cierre: preguntas pendientes y matices necesarios

La situación de X se suscita en un contexto de restablecimiento de la democracia luego de un período de debilitamiento institucional y democrático en Brasil, donde los cuestionamientos al orden constitucional no solo provienen de actores políticos tradicionales, sino también de la instrumentalización por terceros de las plataformas digitales para propagar desinformación y erosionar la institucionalidad o el espacio público digital. Allí, los intentos de contener esa crisis han alcanzado inevitablemente la discusión sobre el rol de las plataformas tecnológicas y sus responsables.

En tal contexto, cabe preguntar por el futuro de la investigación penal en que la entrega de datos personales de los usuarios de la red social X iba a ser clave para determinar la identidad de las personas que habrían participado en eventos que amenazan el orden democrático. El cierre de las operaciones de X en Brasil significa, desde luego, un obstáculo serio para la impartición de justicia en ese caso. Sin embargo, sus consecuencias no pueden ser observadas de manera aislada o fuera de contexto.

En este caso, el desafío para la sociedad civil no radica únicamente en frenar los excesos de quienes instrumentalizan el debate público, sino también en encontrar un balance justo entre derechos fundamentales y las obligaciones de los actores que interactúan en el ecosistema digital. 

Por ahora, es necesario adoptar un enfoque que trascienda las posturas simplistas o radicales, en lugar de hacer eco de la polarización existente que no considera las complejidades socio-técnicas y jurídico-legales del problema. A medida que el caso de X en Brasil siga en desarrollo y se conozcan mayores detalles de los contenidos de las decisiones judiciales que confluyen, habrá que avocar los análisis tanto la importancia de la libertad de expresión como la responsabilidad de los actores privados en la esfera pública global, el cumplimiento de estándares internacionales de derechos humanos, la importancia de actualizarlos de cara al estado del arte tecnológico actual, y el rol de la justicia en la aplicación de la ley y los retos que enfrenta en esa tarea.

Informes, índices y estudios: ¿qué sabemos realmente sobre el uso de IA en América Latina?

El desarrollo de nuevas tecnologías basadas en Inteligencia Artificial muestra un avance vertiginoso en distintas partes del mundo. Solo en 2022, según el último reporte publicado por el Instituto de Inteligencia Artificial de Stanford, fueron presentadas más de 62 mil patentes a nivel global, lo que representa un incremento de 62,7% respecto de 2021.

Estas tecnologías comenzaron a ser implementadas en las redes sociales que usamos, son la base de las recomendaciones que recibimos en los servicios de streaming, e incluso comenzaron a inmiscuirse en las agendas de uno de los servicios de mensajería más utilizados en América Latina, como un nuevo contacto con el que dialogar. Pero el sector privado no es el único en implementar estas tecnologías. Desde el sector público comenzó a implementarse en áreas tan disímiles como la seguridad, la intermediación laboral, la prevención de la deserción escolar, la gestión de trámites e, incluso, las tareas de vigilancia e inteligencia a partir de fuentes abiertas. Y hemos analizado varios de esos despliegues por las autoridades.

Esta alta actividad de desarrollo derivó en iniciativas que buscaron acompañar ese proceso de distintas maneras. Desde el sector público, han surgido iniciativas como los planes o estrategias de IA, que buscan impulsar su desarrollo, principalmente desde el poder ejecutivo. En paralelo, legisladores han presentado múltiples proyectos de ley, algunos de los cuales están en tratamiento en la actualidad. Organismos internacionales como la OCDE o la UNESCO también han desarrollado directrices y recomendaciones para impulsar el uso ético de estas tecnologías, promoviendo principios para orientar políticas y proyectos de ley.

Frente a este torbellino de actividad, es propicio contar con herramientas que permitan establecer un panorama general a partir de dimensiones que contemplen una perspectiva de derechos humanos en torno al uso y regulación de la IA. Estas herramientas pueden ser de utilidad como mecanismos de monitoreo y para trazar una línea de referencia que permitan análisis futuros. A continuación, presentamos algunas de ellas.

Metodología de evaluación del estadio de preparación de la UNESCO

En el marco de la implementación de la Recomendación sobre la ética de la inteligencia artificial, la UNESCO generó la Metodología de evaluación del estadio de preparación (RAM, por sus siglas en inglés), una herramienta que, como su nombre lo indica, busca determinar la situación en la que se encuentran los países donde será implementada la Recomendación. Se trata de una iniciativa de implementación voluntaria, a pedido de los estados interesados en conocer su situación.

La metodología consta de cinco dimensiones: Jurídica/Regulatoria, Social/Cultural, Económica, Científica/Educativa y Tecnológica/de Infraestructura. Dentro de cada dimensión, las preguntas se agrupan en diferentes categorías las que, a la vez, se desglosan en indicadores y subindicadores específicos. Los indicadores incluyen índices tanto cualitativos como cuantitativos, lo que la UNESCO resalta como un factor diferenciador de la RAM respecto de otros índices.

Como resultado, la UNESCO publica un “informe país”, que proporciona un panorama detallado en función de las dimensiones analizadas. La evaluación se está aplicando en más de cincuenta países a nivel global y ya finalizó y presentó cerca de una decena de informes, como el de Chile en enero y México en julio de 2024.

Índice Global de Inteligencia Artificial Responsable

El Índice Global de Inteligencia Artificial Responsable (GIRAI, por sus siglas en inglés) es una herramienta que busca proporcionar un punto de referencia para evaluar el progreso hacia una IA “responsable” en todo el mundo. El programa parte de una definición operativa, que define a la IA responsable como el “diseño, desarrollo, despliegue y gobernanza de la IA de una manera que respete y proteja todos los derechos humanos y defienda los principios de la ética de la IA a través de cada etapa del ciclo de vida de la IA y la cadena de valor”. El desarrollo del índice fue liderado por el centro de pensamiento africano Global Center on AI Governance, con apoyo de múltiples instituciones públicas.

La metodología de índice contempla tres dimensiones en su medición. Ellas son: “Derechos humanos e IA”, que mide el grado en que los países toman medidas para proteger derechos involucrados en estas tecnologías; “Gobernanza responsable”, que mide cómo los países establecen herramientas como leyes, estándares técnicos o marcos de política pública; y “Capacidades de IA responsable”, que miden las capacidades en los países para avanzar en los compromisos y agendas de desarrollo de inteligencia artificial responsable. Derechos Digitales participó del desarrollo de esta metodología.

El índice acaba de publicar su primera versión, con datos sobre 24 países de América Latina y el Caribe. Aunque según el índice hay mucho en qué progresar, esta línea de base sirve como antecedente para los esfuerzos de incidencia por una IA responsable.

Inteligencia Artificial e Inclusión: el método deinvestigación de Derechos Digitales

Desde 2019, Derechos Digitales ha implementado su línea de trabajo en Inteligencia Artificial e Inclusión, para indagar acerca de casos de uso de tecnologías basadas en IA por parte de múltiples estados en América Latina. Para estas investigaciones, desarrollamos una metodología basada en criterios de derechos humanos, a partir de cinco dimensiones: Contexto nacional de implementación; Contexto regulatorio e institucional; Infraestructura de datos; Proceso de la toma de decisión; y Diseño tecnológico. Cada una de estas dimensiones, a la vez, es analizada según principios de efectividad y legitimidad.

Al momento, han sido publicados seis estudios de caso: dos en Brasil, sobre el Sistema Nacional de Empleo y el Auxilio de Emergencia durante la pandemia, dos en Chile, sobre el Sistema Alerta Niñez y el Sistema predictivo del delito urbano, uno en Uruguay, sobre la gestión de información de salud durante la pandemia de COVID-19, y otro en Colombia, acerca del uso de IA en la justicia constitucional con el proyecto PretorIA. Todos los casos están disponibles en el sitio de Inteligencia Artificial e Inclusión, junto con material de resumen de los hallazgos más relevantes.

Esta iniciativa continúa en Derechos Digitales, en un momento en que estas aplicaciones parecen solo expandirse en la región. Próximamente publicaremos cuatro nuevos casos, sobre experiencias en Argentina, México, Paraguay y Colombia. Con esto, daremos una importante panorámica sobre la forma en que estos despliegues son implementados en distintos niveles de gobierno, nacional o subnacional, tanto en los poderes ejecutivo como el judicial.

Trabajar en coalición: condición necesaria para desarrollar metodologías confiables

Las metodologías mencionadas derivan en distintos productos, tales como informes, índices y estudios de caso, que permiten monitorear el avance en la implementación y regulación de la IA en América Latina, además de otras partes del mundo. Esto representa un aporte para conocer el escenario global y comparado al que nos enfrentamos. Más allá de su utilidad, resaltamos la necesidad de generar no solamente metodologías de monitoreo, sino de formar coaliciones entre organizaciones de la sociedad civil y la academia, para la producción y el mejoramiento de este tipo de herramientas, como también para su uso y problematización, con el objetivo de contar con formas de medición más fiables, que contemplen componentes de derechos humanos y consideraciones sobre el rol de la sociedad en el despliegue de las tecnologías que pueden afectarle.

Además, el rol de coaliciones puede ser central a la hora de impulsar políticas de acceso a la información sobre el uso de IA por parte de los Estados y de promover mejores prácticas y estándares de transparencia y participación. Dada la opacidad con la que se implementan muchas de estas políticas, que como característica habitual presentan manejos cuestionables de datos personales y escasos espacios abiertos a la participación, es a través del trabajo conjunto desde pericias y puntos de vista diversos que podemos impulsar decisiones verdaderamente responsables sobre el uso de las tecnologías.

Violencia digital de género y discapacidad auditiva: ¿Cómo nombramos lo que no se enseña?

En la era digital, la tecnología no solo facilita nuestra vida cotidiana, sino que se ha convertido en un terreno de lucha por derechos y equidad. Como periodista e investigadora en género y tecnologías, he observado cómo las dinámicas de poder y control, basadas en estereotipos de género, se trasladan al ámbito digital, afectando de manera desproporcionada a mujeres, niñas y la comunidad LGBTIQ+.

En este escenario, la realidad para las personas con discapacidad auditiva es aún más alarmante. La violencia digital de género que enfrentan ha sido escasamente documentada y menos aún abordada de manera adecuada. La falta de investigaciones y herramientas específicas para comprender y enfrentar las violencias que viven nos lleva a un escenario donde lo invisible se vuelve aún más inalcanzable, revelando una brecha crítica en la protección y apoyo que se brinda a esta comunidad.

El estudio ¿Cómo acompañar a mujeres Sordas que atraviesan situaciones de violencia por motivos de género?, realizado por UNFPA y Management Science for Health, revela que las personas con discapacidad tienen, en promedio, tres veces más probabilidades de sufrir violencia física, sexual y psicológica que aquellas sin discapacidad. Además, entre el 40% y el 68% de las jóvenes con discapacidad sufrirán violencia sexual antes de los 18 años. Aunque no existe información estadística específica sobre cómo la violencia afecta a las mujeres Sordas, es razonable suponer que estas cifras podrían ser aún más altas debido a las barreras en el acceso a la información y la comunicación.

Experiencias desde el aula

En julio de este año, realicé varios talleres en una escuela para personas Sordas en la comuna de San Joaquín, enfocados en identificar la violencia digital y generar estrategias comunitarias para enfrentarla. Este proyecto, desarrollado junto a la Fundación Instituto de la Sordera, tiene como objetivo empoderar a las y los jóvenes para que reconozcan estas violencias y, posteriormente, lleven a cabo una campaña comunicacional para compartir herramientas de prevención y abordaje con toda la comunidad educativa.

Una de las profesoras, que participó como intérprete en las sesiones, me comentó la poca participación madres y padres en el aprendizaje de la lengua de señas chilena, a pesar de contar con talleres gratuitos para ello. Esta falta de comunicación afecta gravemente la capacidad de las familias para generar espacios de confianza con sus hijos y brindarles herramientas para identificar y denunciar posibles violencias.

Dentro de los principales hallazgos que identifiqué durante el desarrollo de los talleres, está el alto uso de internet y dispositivos digitales por parte de las y los adolescentes, quienes buscan poder comunicarse, crear comunidad, y que enfrentados a la ausencia de espacios de confianza en el hogar, trasladan sus afectos a la vida virtual, participando de videochats con desconocidos (a través de plataformas como Omegle) y compartiendo a través de lives de instagram o vídeos de tik tok con otros jóvenes.

La gran mayoría reconoce pasar muchas horas en internet, principalmente desde sus teléfonos, y haber vivido intrusiones digitales por parte de personas anónimas que se apropian de sus videollamadas con otros amigos, para exhibir contenido sexualmente agresivo, dejarles comentarios incómodos o burlarse de ellos. Las adolescentes señalaron en tanto, que ya han recibido fotografías íntimas no solicitadas por parte de desconocidos, mensajes insistentes para establecer algún tipo de contacto físico, e intentos de grooming.

La preparación de estos talleres fue un desafío, principalmente por la falta de información específica. Si bien casi no existen estudios sobre la violencia de género hacia mujeres Sordas, las herramientas para cuantificar otros tipos de violencias, como la digital, son aún más escasas. En este caso, quise compartir con las y los adolescentes el número de whatsapp que la PDI actualmente promociona para realizar consultas relacionadas a violencias digitales, sin embargo, cabe preguntarse si realmente es un canal de comunicación e información accesible para todas las personas.

Por último, nos enfrentamos a una doble barrera idiomática. ONG Amaranta, en su Guía contra la violencia de género en línea en 2022, revelaba que una de las principales dificultades para que las personas se reconozcan como víctimas de violencia digital, está relacionada con la brecha del idioma, ya que la mayoría de las definiciones oficiales, términos y condiciones, y los canales de denuncia de las plataformas están siguen en inglés. Esto agrava aún más la situación para las personas Sordas, quienes aún no manejan señas específicas para identificar algunos de estos tipos de violencia, debido a la falta de campañas y políticas públicas educativas, en materia de alfabetización digital inclusiva.

Violencia de género, tecnologías y educación sexual

Un caso emblemático es el de Camila Villavicencio, profesora, intérprete en lengua de señas y activista por la inclusión de personas Sordas, quien fue encontrada muerta en el departamento de José Pablo Peñafiel, un ex compañero de colegio. A pocas horas de su muerte, los integrantes de su familia no pudieron declarar como testigos en el caso, debido a la falta de intérpretes de lengua de señas durante el proceso policial. Camila, antes de morir, intentó comunicarse con su hermana a través de llamadas telefónicas (cuando usualmente usaba videollamadas) y envió una serie de videos cortos del lugar donde se encontraba.

El caso ha avanzado lentamente, ya que la autopsia no encontró lesiones atribuibles a terceros. Sin embargo, José Pablo Peñafiel actualmente está en prisión preventiva por otros diez ataques sexuales a mujeres Sordas, varias de ellas adolescentes. Peñafiel, también con discapacidad auditiva, asistía a fiestas de la comunidad sorda y se ofrecía a llevar a las mujeres a sus casas, desviando luego el camino hacia una imprenta donde cometía los abusos, que posteriormente subía a sitios de pornografía.

Estos hechos salieron a la luz gracias a la lucha de la familia y amigos de Camila, a través de la cuenta de Instagram @JusticiaParaCami. Sus acciones de concientización y protesta revelaron la falta de protocolos para abordar la violencia contra mujeres Sordas. Debido a ello, otras jóvenes agredidas sexualmente reconocieron a Peñafiel como su agresor y realizaron una “funa” en redes sociales. Solo tras estos testimonios se abrió la investigación que actualmente tiene a este sujeto con prisión preventiva.

Esperanzas y desafíos

La UNFPA, en el marco del proyecto Promoviendo la realización del ejercicio de la capacidad jurídica de las Personas con Discapacidad en Argentina”, señala que la mayoría de las mujeres Sordas no acuden a los servicios de atención a víctimas porque desconocen su existencia o porque sienten que no recibirán la atención adecuada. «Si acuden, es porque se encuentran en situaciones extremas o porque son acompañadas por algún familiar o persona de su entorno más cercano, con la pérdida de privacidad y autonomía que esto implica.»

Las mujeres Sordas no tienen dónde ni cómo denunciar las violencias que sufren. La ausencia de una educación sexual integral, sumada a la falta de inclusión en el abordaje de estas temáticas a nivel institucional, hace imposible nombrar y denunciar las violencias. ¿Cómo nombrar algo que no sé que existe? ¿Cómo reconocer mi cuerpo y lo que he vivido? ¿Cómo puedo acercarme a denunciar si las opciones implican un testimonio hablado o rellenar un formulario digital de la Fiscalía? ¿Cómo acceder a ese formulario si nadie me ha enseñado a usar internet?

El Ministerio de la Mujer y la Equidad de Género, junto con la Fundación Nellie Zabel, lanzaron en 2021 la Plataforma del Centro de la Mujer Sorda, un espacio digital de atención y orientación ante la violencia de género, que incluye contenidos informativos adaptados a la lengua de señas chilena y conexión permanente con los CDM del país con horas de atención de lunes a viernes.

En cuanto a las violencias digitales, la Unidad de Género y Participación Ciudadana de la Subsecretaría del Interior de Chile presentó a principios de este año los resultados de su Consulta Virtual sobre Violencia Digital. Aunque incluyó una pregunta sobre discapacidad, no profundizó en experiencias específicas de violencia digital ni se plantearon estrategias inclusivas para aplicar el instrumento estadístico. Así, se perdió la oportunidad de incorporar las vivencias de personas con discapacidad y de obtener cifras para impulsar políticas públicas más inclusivas y efectivas en materias de alfabetización digital, abordaje de violencias digitales y su relación con el género.

Conclusiones

La violencia digital y de género contra mujeres y personas sordas no es solo un problema de derechos humanos, sino una crisis agravada por la falta de acción institucional y la ausencia de educación sexual integral inclusiva. El caso de Camila Villavicencio no es un caso aislado, sino un ejemplo de cómo las instituciones fallan sistemáticamente en proteger a las personas más vulnerables.

La incapacidad del sistema para ofrecer canales de denuncia accesibles y el vacío en la creación de políticas públicas que consideren las necesidades específicas de las personas Sordas, son un reflejo del desconocimiento estructural sobre lo que implica realmente crear canales de denuncia al alcance de todas las personas, y la falta de voluntad institucional en abordar las violencias que les aquejan.

El avance tecnológico, que debería ser una oportunidad para la inclusión y el empoderamiento, se ha convertido en un terreno peligroso para las mujeres y personas con discapacidad auditiva. La falta de educación, tanto digital como sexual, limita su capacidad para reconocer y nombrar las violencias que viven. Es imprescindible que como sociedad exijamos la inclusión real en todas las esferas, comenzando por la educación y la justicia.

Como lo señala la encuesta, Violencia Digital: Experiencias virtuales de niñas y adolescentes en Chile, aplicada por ONU Mujeres, ONG Amaranta y Fundación Datos Protegidos en 2021, las niñas y adolescentes se encuentran tres veces más expuestas a vivir experiencias de violencia sexual digital, cifra que podría llegar a ser mayor en las jóvenes de la comunidad Sorda, ya que en un primer acercamiento educativo para abordar estas temáticas, surgieron testimonios de haber experimentado la recepción de fotografías íntimas por parte de desconocidos y peticiones insistentes de intento de contacto físico o sexual, reflejando la urgencia de incluir lineamientos específicos para abordar estas violencias desde el sistema educativo, y también policial para saber qué hacer frente a estas situaciones.

Necesitamos seguir promoviendo proyectos e instancias formativas que permitan que nuestro trabajo en tecnología y derechos humanos pueda llegar a comunidades diversas, para ello es fundamental que como organizaciones de la sociedad civil nos acerquemos a conocer y establecer lazos de colaboración con activistas y comunidades de otras áreas, que nos permitan generar puentes y alianzas de trabajo colaborativo.

No podemos permitir que las barreras de comunicación sigan siendo un obstáculo para la protección de los derechos humanos. La tecnología debe ser un aliado, no un arma, y para ello necesitamos una reformulación radical de las políticas públicas que asegure un acceso igualitario y seguro a los espacios digitales. Solo entonces podremos hablar de un futuro tecnológico que no perpetúe las violencias, sino que las desmantele.

La amenaza persistente de la censura en Internet y cómo evadirla

Cuándo nos conectamos a algún servicio en internet, nuestra comunicación atraviesa varias computadoras conocidas como ruteadores. El primer dispositivo al que nos conectaremos es el ruteador de internet de nuestra casa – si lo hacemos a través de internet fijo – o la antena de telefonía celular, si lo hacemos con internet móvil. Luego, la comunicación sigue a través de otros dispositivos en la red del proveedor de internet y de otros proveedores de comunicación hasta llegar al destino. En cualquiera de estos sitios se podría filtrar el contenido de nuestras comunicaciones.

Cuando un Estado quiere bloquear contenidos o aplicaciones, una posibilidad para concretarlo es obligar a los proveedores de acceso a internet – también conocidos como ISPs por sus siglas en inglés – a hacerlo en su favor. Dado que el ISP es responsable por conectar una computadora de origen a un sitio web ubicado en una computadora de destino, basta que este intermediario no efectúe la comunicación para que el sitio quede inaccesible.

Otra forma de bloqueo se da a partir de modificaciones en los registros de nombres de dominio (DNS), el que asocia dispositivos físicos a nombres y números que lo permiten ubicar en la red. Estas no son las únicas formas de operar la censura en Internet, sobre el funcionamiento técnico y las estas estrategias de bloqueo hablamos en otra columna.

El diseño de Internet implica que los proveedores de Internet sepan quién solicita el acceso a un sitio y la dirección IP de destino. Con esta información es posible operar la conexión, pero también la censura. Cuando estos registros se almacenan por periodos largos de tiempo, sea por requisitos técnicos o legales, puede facilitar prácticas de vigilancia, una vez que esos datos permiten identificar patrones de acceso por parte de usuarias específicas. Por eso, el uso de herramientas para evadir la censura en muchos casos también sirve para proteger la privacidad de las comunicaciones.

Evadir la censura

Una primera medida de protección contra la censura son las redes virtuales privadas, o VPNs. Esta tecnología permite generar un canal cifrado desde nuestros dispositivos hasta uno de los servidores de VPNs que, por su vez, nos irá dirigir al destino deseado. El ISP solo podrá ver que existen conexiones cifradas a ciertas direcciones IPs de las VPNs, pero no sabrá hacia donde esta nos está direccionando o el tipo de actividad que se está realizando. De este modo, salvo que los ISPs empiecen a bloquear las VPNs o que las mismas VPNs bloqueen determinados contenidos, no será posible impedir el acceso.

El colectivo Riseup provee desde hace mucho tiempo la VPN RiseupVPN que se puede utilizar de manera gratuita y sin entregar datos de registro. En la coyuntura actual de Venezuela proveedores de VPN como ProtonVPN y TunnelBear están ofreciendo acceso gratuito a sus servicios si la conexión proviene de Venezuela.

Si mucha gente empieza a utilizar estos servicios, entonces el Estado podría intentar bloquear las VPNs. Se podría intentar con otras que no están mencionadas acá y seguir jugando el juego del gato y el ratón. Otra opción es aprovechar el hecho de que la tecnología de VPNs se basa en estándares abiertos, lo que permite a otros proveedores implementar VPNs propias de forma autónoma con software libre. Lo que se necesita para esto es un servidor virtual (VPS) que se puede contratar por un costo bajo y alguien con conocimientos de Linux.

Outline es una solución sencilla que nos permite implementar nuestros propios servidores de VPN de manera fácil y segura. Al usar una solución como esta se tendría un servicio que sería menos visible que el servicio de VPNs conocidas pero se requieren ciertos conocimientos técnicos. Una vez implementado el servidor es fácil conectarse desde computadoras o celulares.

Otra opción para evadir la censura es la red de anonimato Tor. Para acceder a este red no es necesario pagar ni entregar datos personales. Al igual que las VPNs, Tor se puede instalar en teléfonos celulares y computadoras. La forma más común de acceder a la red es a través del navegador Tor, disponible para computadoras y celulares Android, en el caso de Iphone se puede usar el navegador Onion Browser.

Mediante este navegador se puede evadir la censura de sitios web, pero no es tan evidente su uso para evadir el bloqueo de aplicaciones como Signal o WhatsApp. En el caso de celulares, existe la aplicación Orbot que funciona de forma similar a una VPN, pero con la red Tor. En este caso se podría conectar Orbot a la red Tor y decirle que ciertas aplicaciones funcionen a través de esta aplicación. De esta manera se podría utilizar Signal, WhatsApp, X o cualquier otra aplicación.

Estas son algunas soluciones para evadir la censura en Internet, pero no son las únicas. Como documentado en años anteriores, incluso en el caso de Venezuela, es posible a los operadores bloquear incluso el acceso a la red de Tor. Así, es recomendable probar más de una opción por si el Estado llegara a bloquear una de estas, se puede usar otra.

Documentar la censura del Internet

La censura en Internet normalmente está asociada con acontecimientos que suceden en la sociedad. En el caso de Venezuela tiene que ver con las elecciones, pero se han registrado bloqueos de comunicaciones en otros países de la región durante eventos de conmoción social.

El proyecto OONI es una herramienta de software libre que se puede instalar en nuestros teléfonos o computadoras para que realice pruebas recurrentes a sitios web y aplicaciones y así identificar si estas están bloqueadas. Los datos recolectados pueden ser subidos a OONI para ser accesibles por investigadores a través de su explorador.

El uso de OONI es simple y hace unos años publicamos una guía sobre como hacerlo. Es importante tener cuidado y estar atentos a los riesgos que podemos tener al monitorear bloqueos de Internet, debido a que algunos países restringen este tipo de actividad.

En el caso de Latinoamérica hay organizaciones que utilizan OONI y herramientas similares para detectar bloqueos. Nos gustaría destacar el trabajo de organizaciones como Conexión Segura y Libre (antes Venezuela Inteligente) con su proyecto VEsinFiltro donde documentan bloqueos a Internet en este país. En Colombia se encuentra la Fundación Karisma con el Observatorio de Bloqueos de Internet en dónde han publicado una guía para investigar de bloqueos de Internet.

Internet es una herramienta esencial para poder informarnos, pero también para ejercer un conjunto de derechos fundamentales, como a la educación, la salud, entre muchos otros. La censura de sitios y aplicaciones afecta directamente el ejercicio de estos derechos, además de limitar la libre expresión y asociación en momentos de crisis política, como observamos ahora en Venezuela. Poder documentar estos casos es de suma importancia para denunciar abusos, desarrollar mejores estrategias para evadirlos y también para exigir comunicaciones libres.

La red es vulnerable a ser censurada, y necesitamos seguir presionando agentes públicos y privados a que atenten a sus obligaciones internacionales de mantener la integridad de Internet. Por otro lado, su naturaleza abierta permite que tengamos herramientas para poder evadirla. Es recomendable aprender a usar estas herramientas incluso si en nuestro país no existen bloqueos aparentes, ya que para cuando existan estaremos listas para seguir comunicándonos y accediendo a información relevante.