Cuando la estructura de las organizaciones también es parte del propósito

Este 2025 Derechos Digitales cumple oficialmente veinte años. Este aniversario representa una oportunidad para detenernos y mirar con perspectiva el camino recorrido: veinte años de desafíos, aciertos y también errores, pero por sobre todo aprendizaje. Una historia sobre adaptación constante, crecimiento sostenido y maduración organizacional.

En este hito, queremos destacar una dimensión quizás menos visible de nuestro quehacer, pero profundamente estratégica para lo que somos hoy y lo que queremos ser mañana: el trabajo del área de Operaciones y Finanzas de Derechos Digitales. Un equipo cuya función ha sido clave para sostener y proyectar nuestra misión en el tiempo.

Crecimiento interior

Como muchas organizaciones de la sociedad civil, Derechos Digitales contaba en sus inicios con un equipo polifuncional, que asumía tareas muy diversas: desde la formulación y ejecución de proyectos hasta la gestión administrativa y la relación con donantes. Esta lógica, si bien nos permitió comenzar a trabajar también implicaba una carga significativa sobre las personas encargadas de la investigación y la incidencia, dificultando la especialización y el desarrollo sostenible en un contexto de crecimiento.

Con los años, y a medida que nuestro trabajo crecía en alcance y complejidad, se hizo evidente la necesidad de consolidar un área que asumiera de forma dedicada las labores  administrativas y de soporte estratégico. La oportunidad llegó de la mano de uno de nuestros donantes históricos, Ford Foundation, a través del proyecto BUILD, una iniciativa que daba la posibilidad a diversas organizaciones de concentrar esfuerzos y recursos en el fortalecimiento institucional de largo plazo. Gracias a este apoyo, por primera vez pudimos dedicar esfuerzos a construir, desde un equipo especializado, una estructura organizativa más robusta y preparada para sostener nuestro trabajo hacia el futuro.

Los frutos de esta apuesta fueron visibles en el corto plazo. Un ejemplo de aquello fue la manera en que afrontamos la delicada situación de la pandemia por COVID-19, que trajo consigo una serie de desafíos tanto para nuestras acciones como para el bienestar de nuestros colaboradores, además de socios y pares. En un  escenario profundamente incierto, ya contábamos con una estructura operativa más fortalecida para así sostener nuestras líneas de trabajo y acompañar a otras organizaciones de la región. Además, pudimos destinar esfuerzos y recursos específicamente al acompañamiento del equipo, procurando facilitar su tránsito ante estos procesos de cambio. Este fortalecimiento interno comenzó entonces a proyectarse hacia afuera: a través de microgrants, alianzas estratégicas y una ejecución de proyectos que combinaba solidez técnica con estabilidad financiera.

Este camino no ha sido fácil de transitar. Ha implicado años de aprendizaje, de decisiones complejas y de construir capacidades en un entorno que muchas veces no está pensado para organizaciones como la nuestra. Esto se refleja en distintas formas, a menudo pasadas por alto en el día a día, pero fundamentales para entender cómo trabajamos y qué hemos logrado.

El valor de contar con un apoyo especializado

¿En qué momentos podemos ver el valor de nuestro quehacer interno? Nuestro trabajo administrativo es tan intenso como invisible. La mayor parte del tiempo transcurre detrás del telón, apreciándose con más claridad en aquellos momentos donde las cosas fallan o enfrentamos situaciones complejas. A pesar de esto, en los momentos de mayor exigencia, encontramos los signos de creciente madurez y capacidad de respuesta que hemos forjado, y seguimos consolidando, después de 20 años.

Lo primero es el enfoque en nuestra misión organizacional. Contar con personal especializado dedicado íntegramente al soporte de nuestras tareas permite que quienes diseñan, ejecutan y desarrollan nuestro trabajo sustantivo se centren al 100 % en su labor, sin distracciones burocráticas ni requerimientos administrativos de urgencia. Saber que existe un área que sostiene la estructura interna nos brinda la confianza de continuar avanzando en nuestra misión, incluso en épocas de alta presión, sin desviar esfuerzos en el levantamiento de recursos, proyecciones y reducción de costos. 

Otro de estos signos de madurez está vinculado con la gestión más eficiente de nuestros recursos. Aplicamos políticas claras de planificación y presupuesto, reducción de costos, proyecciones y monitoreo de riesgos que nos permiten no solamente enfrentar el presente, sino anticipar y navegar distintos escenarios, y así estar más preparados para momentos hostiles en términos de financiamiento. Esta capacidad de planificación integral fortalece nuestra resiliencia financiera y si bien no es una garantía, nos brinda más certezas de que las decisiones que tomamos hoy nos preparan para enfrentar los retos que vendrán, a través de diversas herramientas como reservas, inversiones y proyección a largo plazo. En este proceso, nuestras capacidades están en permanente actualización y el crecimiento es continuo: jamás dejamos de aprender y adquirir nuevas herramientas.

Por último, ya estamos en condiciones de asumir que somos un puente entre organizaciones. Nuestro desarrollo administrativo nos permite aportar a la sostenibilidad, no solo de Derechos Digitales, sino también ser un nexo para otros grupos con los que trabajamos. En tiempos de crisis, la colaboración es esencial para las organizaciones sin fines de lucro, ya que permite optimizar recursos, generar confianza social y además nos posiciona como referentes locales en términos de gestión. En Derechos Digitales no solo somos receptores de donaciones para desarrollar nuestros propios proyectos, sino que también hemos logrado convertirnos en fuente de financiamiento para otros colectivos y activistas que, por diversos motivos, no pueden acceder a ciertos tipos de respaldos monetarios, apoyándose así en nuestras capacidades instaladas.

Un claro ejemplo de lo anterior son los Fondos de Respuesta Rápida (FRR) y Fondos de Derechos Digitales (FDD), iniciativa vigente desde 2019 que permite entregar recursos para dar respuesta a emergencias en materia de derechos humanos y tecnología en la región a todo tipo de organizaciones, independientemente de su nivel de madurez. 

¿Y qué sigue?

Resulta innegable que estamos atravesando uno de los momentos más complejos para el espacio cívico y su financiamiento a nivel global. Las recientes decisiones del gobierno de Estados Unidos, no solo pausaron y cortaron recursos clave para el desarrollo mundial, sino que también sacudieron todo el ecosistema filantrópico, generando una incertidumbre sin precedentes.

Estas medidas también han tenido impacto en nuestra operación. Hemos tenido que tomar decisiones complejas que afectan nuestro funcionamiento, como la reducción de costos, congelamiento y suspensión de proyectos y contrataciones asociadas. La adopción responsable de esas medidas fue solamente posible debido a la rápida y dedicada reacción de nuestro equipo, mediante el seguimiento continuo de nuestras finanzas y la formulación de cambios profundos en las proyecciones a corto, mediano y largo plazo, que incluyó la definición de distintos escenarios posibles y la preparación de planes de acción para cada uno de ellos, activando alertas tempranas y evitando asumir la sostenibilidad como un hecho garantizado. 

Pero no basta con lo anteriormente mencionado: el trabajo colaborativo se presenta como nuestra piedra angular mientras persista este contexto de incertidumbre. Así, este fortalecimiento interno no solo beneficia a nuestro propio equipo, sino que nos posiciona como un vínculo confiable para otras organizaciones y activistas de América Latina. Un ejemplo de esto es la capacidad de acceder a fuentes de financiamiento que exigen capacidades comprobables –como auditorías anuales–, para así canalizar recursos administrativos y financieros hacia organizaciones locales.

En Derechos Digitales, resulta vital no solo preservar nuestra actividad, sino también compartir metodologías y tejer redes de articulación que amplifiquen el impacto colectivo de nuestra tarea. En un momento en que la labor de las ONGs y activistas es más necesaria que nunca, mantener la calma, tomar decisiones informadas y trabajar en alianza son las claves para enfrentar la incertidumbre presente y futura.

Es imposible predecir con certeza el futuro, pero afortunadamente sí podemos proyectar escenarios posibles y planificar cómo queremos sostener nuestra misión y mantener activo nuestro trabajo y el fruto de estos 20 años de existencia. A la luz de la historia que hemos compartido aquí, estamos convencidas de que algunas de las acciones cruciales para enfrentar lo que viene son desarrollar capacidades internas sólidas y seguir confiando plenamente en la efectividad de nuestro trabajo sustantivo, asumir definiciones con información y trabajar colaborativamente para seguir impulsando el cambio desde y para el Sur Global.

Educación y tecnologías vs. tecnologías y educación: reflexiones a partir de avances normativos recientes

En un momento de acelerados desarrollos tecnológicos y digitalización, puede parecer redundante decir que la discusión sobre la incorporación de tecnologías ha acompañado buena parte de los debates sobre reformas educativas en la historia reciente. Propuestas de incorporación del cine, radio y televisión marcaron el siglo XX, que –aunque no logró democratizar el acceso a la educación para buena parte de la población mundial– terminó con nuevas promesas de “revolución” educativa derivada exclusivamente de las tecnologías digitales. Como en momentos anteriores, fueron los más variados agentes, incluso instituciones financieras aparentemente poco vinculadas con el campo educativo, quienes vocalizaron de manera más contundente el poder transformador de lo digital para superar los problemas de esa educación “tradicional”. Sin embargo, empezar recuperando esta historia parece importante en un momento en que un nuevo ciclo de optimismos y pesimismos vuelve a instalarse en los debates sobre educación y tecnologías en América Latina.

La olla de oro al final del arcoíris

En un contexto de múltiples precariedades en los sistemas educativos, las tecnologías digitales a veces han sido presentadas como una panacea. La metáfora es de una recompensa tecnológica capaz incluso de transformar prácticas pedagógicas clasificadas de poco eficientes o atractivas para nuevas generaciones. Declaraciones de agentes externos al entorno escolar no ocultan su intento de culpabilizar a las y los docentes por todo tipo de mal relacionado con la educación.

Un extremo de este tipo de discurso se ha activado en Brasil para justificar la adopción de sistemas de reconocimiento facial para el registro de la asistencia escolar en el estado de Paraná. De acuerdo con la gestión local, basada en un documento del Banco Mundial, el método de control de presencia oral sería ineficiente, representando una pérdida de tiempo; la tecnología, por lo tanto, ofrecería la solución a partir de la automatización. Sin embargo, las promesas fueron, como mínimo, optimistas: desde la implementación del sistema, se han registrado múltiples quejas de mal funcionamiento, lo que ha generado aún más retrasos en el registro de asistencia. Ellas incluyen, por ejemplo, errores en la identificación de personas de piel negra y con discapacidad.

Aunque avance rápidamente en la región, el reconocimiento facial es ampliamente cuestionable como tecnología efectiva para la identificación y autentificación de personas. Lo mismo ocurre con los llamados sistemas de reconocimiento de emociones, también en proceso de implementación en escuelas brasileñas.

Este y otros tipos de problemas podrían ser evitados con la realización de estudios previos de impacto amplios y participativos, pero no hay referencias de que se hayan realizado en el caso de Paraná. La iniciativa –que costó más de 4 millones de reales al Estado– está actualmente bajo escrutinio judicial debido a la vulneración de la legislación brasileña de protección de datos, por ejemplo en relación con el consentimiento para la recolección de datos biométricos sensibles de niños, niñas y adolescentes. El “oro”, al final, parece haberse quedado con los proveedores de la tecnología, mientras la educación pública sigue precarizada y carente de inversiones significativas.

Transgresiones sectoriales

El concepto de transgresiones sectoriales es útil para entender algunos procesos detrás del avance de las empresas de tecnologías en la educación. Se refiere a la estrategia de empresas de tecnologías de reivindicar conocimiento y autoridad en ámbitos que van más allá de lo tecnológico. Con eso, pasan a tener un peso diferencial en decisiones estratégicas, en este caso, del ámbito educativo, que no son parte de su competencia.

Rescatar esta idea es clave mientras pensamos políticas educativas y respuestas normativas a los desafíos del avance de las empresas tecnológicas sobre la educación. Con relación a lo primero, importa recuperar el rol que ellas efectivamente cumplen a la hora de definir a quiénes involucrar en discusiones sobre políticas públicas sobre educación y tecnologías. Si bien las empresas pueden tener un espacio en las mesas de discusión, de ningún modo reemplazan la necesidad de involucrar expertas en educación y representantes del sector educativo, como docentes, estudiantes y gestión educativa.

Por otro lado, el recuerdo que trae la idea de transgresión sectorial es clave para evitar caer en trampas normativas como la de crear criterios específicos para “EdTech”. Este tipo de abordaje, explorado por órganos como Unicef, más allá de sus buenas intenciones conllevan el doble riesgo de naturalizar la voz de empresas de tecnologías para incidir en temas educativos y de fragilizar protecciones existentes al pensar criterios diferenciados para el ámbito educativo. Peor aún, puede legitimar la recolección masiva de datos de niños, niñas y adolescentes en el contexto educativo, algo cuidadosamente delimitado por distintas legislaciones alrededor del mundo, incluso en materia de protección de datos personales.

O sea: bajo la excusa de crear reglas específicas, se autoriza y legitima la explotación de datos de infancias sin un completo conocimiento de sus consecuencias. En un contexto regional de gran influencia del lobby de las empresas de tecnologías, iniciativas legislativas como éstas pueden poner en jaque las garantías duramente conquistadas en el marco de leyes generales de protección de datos.

El caso brasilero de Paraná evidencia, y siempre es bueno reiterar, que las leyes de protección de datos sí se aplican a las políticas de uso de tecnologías en educación promovidas desde el sector público. Del mismo modo, las reglas de compras públicas también se aplican a la adquisición de tecnologías por entes del Estado, aunque, como hemos demostrado en la iniciativa IA & Inclusión, ellas sean poco observadas en la región. La existencia o no de intercambio monetario involucrado en los acuerdos con empresas de tecnologías no es un limitante si el uso implica la explotación económica de datos obtenidos a partir de ellos.

Eso no significa que no haya particularidades que deban ser consideradas o que no haya utilidad en el desarrollo de normas administrativas o guías específicas para las instituciones educativas. Las autoridades de protección de datos cumplen un rol clave al proponer orientaciones ancladas en los más altos estándares de protección establecidos en las normativas de datos y de infancias. Eso es particularmente relevante en un contexto en que las grandes empresas de tecnología se acercan a las instituciones educativas para establecer alianzas directas, dificultando procesos de supervisión y fiscalización.

Tecnologías para una educación emancipadora

En un año en que vemos cómo los hombres detrás de las mayores empresas de tecnología no dudan en apoyar un gobierno de extrema derecha marcado por la discriminación, odio y la persecución a oponentes políticos, no es difícil entender por qué gana fuerza en la región una resistencia a las mismas tecnologías. En el último año tuvimos una ley federal aprobada en Brasil prohibiendo el uso de teléfonos celulares en las escuelas, discusiones similares en Argentina –con una resolución porteña sobre el mismo tema– y en lo que va de 2025 ya hubo una “huelga” de redes sociales en abril y otra está prevista para el próximo domingo (25) en Brasil. También en Brasil gana fuerza un movimiento para evitar que niños, niñas y adolescentes tengan acceso a un smartphone hasta que cumplan 14 años y a las redes sociales antes de los 16.

Son innumerables y muy legítimos los motivos que fortalecen este tipo de reacción: desde las crecientes evidencias sobre los impactos nocivos de las tecnologías a la salud, su carácter adictivo, hasta el temor a la violencia en línea en todas sus formas, pasando por el rol de los algoritmos, las exposición a los extremismos y a la desinformación –contenidos ahora menos regulados por las mismas plataformas–, entre otros. Es positivo que estas preocupaciones alcancen a la sociedad de manera más amplia y provoquen reacciones desde el poder político, históricamente sordo a las alertas sobre la necesidad de supervisar y fiscalizar procesos de digitalización del Estado.

Sin embargo, no podemos olvidar la importante historia de usos de tecnologías para la resistencia, la defensa de derechos y la democratización de la comunicación y la educación, en un continente aún marcado por desigualdades. Lejos de comprar la fantasía tecnosolucionista que equipara tecnología y eficiencia, se trata de recuperar internet más allá de las redes sociales. En el mismo sentido, cabe recordar que las tecnologías no son sinónimo de extracción y explotación de datos para la ganancia sin frenos (del mismo modo que “EdTech” no es lo mismo que tecnologías en la educación).

Limitar el acceso a las tecnologías a las niñeces o en el ámbito educativo puede ser una respuesta legítima frente al avance obsceno de los intereses comerciales por sobre cada aspecto de nuestras vidas. Pero también puede implicar restringir el contacto con otras realidades, el acceso a culturas no cubiertas por medios tradicionales, la formación de vínculos afectivos, la exploración de identidades en entornos seguros, y otras formas de conocer el mundo. Más aún: podría limitar la capacidad de las próximas generaciones para imaginar otros futuros tecnológicos. Más justos, más solidarios, más inclusivos.

Reconocer los riesgos de la digitalización en contextos educativos no implica renunciar a sus posibilidades. Más bien, urge avanzar hacia una construcción colectiva de políticas tecnológicas que pongan al centro el bienestar y los derechos de las comunidades escolares. Esto incluye fortalecer los procesos participativos, asegurar evaluaciones de impacto, garantizar el cumplimiento de las leyes de protección de datos y, sobre todo, promover un enfoque pedagógico que incorpore las tecnologías como herramientas de emancipación y no de control. La educación con tecnologías sí es posible, pero solo si se construye desde la equidad, la justicia social y la imaginación crítica.

¿Quién cuenta nuestras historias? Periodismo automatizado y derechos fundamentales

En los últimos años, las herramientas de inteligencia artificial han comenzado a ocupar un lugar cada vez más visible en las redacciones de medios de América Latina. Desde asistentes que ayudan a transcribir entrevistas hasta sistemas que generan notas automáticamente, la promesa es clara: más eficiencia, menos carga laboral, menor costo y mayor productividad. Pero en un contexto de precarización, concentración de medios y saturación de desinformación, la pregunta no puede ser solo técnica: ¿qué implica automatizar la producción de noticias? ¿Qué se pierde cuando desplazamos el criterio humano por decisiones algorítmicas? ¿Y qué derechos están en juego cuando delegamos funciones clave a tecnologías opacas, que pueden comprometer la privacidad de las personas o exponer datos sensibles sin garantías claras?

Las tecnologías no son neutras, ni inevitables. Cómo se diseñan, a quién benefician y en qué condiciones se integran son decisiones profundamente políticas. Cuando hablamos de IA en el periodismo, lo que está en juego no es solo el futuro del oficio, sino también la calidad del debate público, la diversidad de voces y el derecho a una información verificada, plural y libre.

La IA no se equivoca, simplemente inventa

Uno de los mayores peligros del uso de IA en el periodismo no radica únicamente en sus limitaciones técnicas, como su capacidad para generar contenidos falsos con un tono convincente, sino en cómo estas herramientas son incorporadas en las prácticas periodísticas sin un control adecuado. A estas falsedades se les conoce como “alucinaciones”: errores que no son simples imprecisiones, sino construcciones completamente ficticias, presentadas con seguridad estilística. El riesgo aumenta cuando estas herramientas se integran en flujos de trabajo sin revisión humana o se utilizan para cubrir temas sensibles con escasa verificación, desplazando criterios editoriales por resultados automatizados, ajenos al contexto y desvinculados de toda responsabilidad profesional.

Durante el panel internacional “Inteligencia Artificial y Periodismo: ¿Cómo los medios están cubriendo y utilizando la IA en América Latina?”, organizado por la UNESCO en el marco del Día Mundial de la Libertad de Prensa de este año, periodistas de todo el mundo, autoridades y expertas alertaron sobre este fenómeno. Se coincidió en que, lejos de reemplazar el trabajo periodístico, la IA exige una nueva capa de responsabilidad: todo contenido generado o asistido por sistemas automáticos debe ser verificado, contrastado y contextualizado. Usar estas herramientas sin revisión humana no es innovación, es una forma acelerada de erosionar la confianza pública.

Entre precariedad y automatización

La adopción de IA ocurre en un escenario de crisis estructural para el periodismo. En América Latina, muchas redacciones enfrentan recortes presupuestarios, tercerización de funciones editoriales y presión por producir más contenido en menos tiempo. En este contexto, las tecnologías generativas parecen una solución fácil: automatizar notas de economía, clima o espectáculos para ahorrar tiempo y recursos.

Pero esta lógica plantea una falsa dicotomía: ahorrar costos a cambio de debilitar el oficio. En algunos casos, ya se han documentado errores graves en medios internacionales que usaron IA sin control editorial, como la publicación de artículos fabricados o entrevistas a personas inexistentes. El impacto no es solo reputacional, también precariza aún más el trabajo de periodistas, editores y correctores, consolidando un modelo donde la automatización reemplaza capacidades humanas sin generar condiciones más dignas ni sostenibles para quienes sostienen el oficio.

En tiempos donde el periodismo atraviesa una crisis de credibilidad en muchas partes de la región, automatizar sin criterio no es una solución, sino que es una forma de agravar el problema. El periodismo no es solo producción de contenido; es ejercicio crítico, narración situada, atención al contexto y responsabilidad pública. Cuando se reemplaza por sistemas que priorizan la cantidad sobre la calidad, el resultado no es eficiencia, sino desinformación con apariencia de legitimidad, amplificada por la credibilidad institucional de los medios que la reproducen. La automatización acrítica debilita tanto la calidad como la confianza en el periodismo como herramienta democrática.

Las fuentes no son prompts

Uno de los puntos más delicados -y muchas veces invisibles- del uso de IA generativa en el periodismo tiene que ver con la protección de fuentes. Ingresar información confidencial en sistemas como ChatGPT o Gemini, por ejemplo, para redactar un borrador o resumir una entrevista, implica entregar esos datos a empresas cuyos términos de uso permiten almacenarlos, analizarlos o utilizarlos para seguir entrenando sus modelos. En la práctica, esto significa que nombres, descripciones, detalles sensibles sobre hechos o incluso fragmentos de testimonios pueden quedar registrados en servidores externos, sin garantías sobre su eliminación o uso futuro.

Esto no solo va en contra del principio básico de confidencialidad periodística. También expone a personas que entregaron testimonios bajo promesas de reserva, especialmente en contextos de riesgo como la violencia de género, la corrupción o los conflictos socioambientales, donde una filtración de información puede tener consecuencias graves. La tecnología puede facilitar tareas, pero no debe jamás poner en peligro a las fuentes, ni debilitar las condiciones bajo las que se resguarda su información.

En América Latina, con intentos regulatorios sobre la IA y nuevas reglas sobre datos personales, como la nueva Ley de Protección de Datos Personales en Chile que establece obligaciones claras sobre el consentimiento, la proporcionalidad y la finalidad del tratamiento de datos, este punto cobra aún más relevancia. Las y los periodistas tienen la responsabilidad de aplicar esos principios no solo frente a personas terceras, sino también frente a las plataformas que usan en sus procesos de trabajo, asumiendo que toda herramienta digital forma parte del entorno de riesgo que debe ser evaluado críticamente.

Principios y propuestas para un uso responsable de la IA

Frente a este panorama, no todo son alertas. Existen esfuerzos concretos para promover un uso ético de la IA en el periodismo. Uno de los más relevantes es la Carta de París sobre inteligencia artificial y periodismo elaborada por Reporteros Sin Fronteras (RSF) y publicada en 2023, que establece un decálogo de principios éticos para enfrentar los desafíos actuales.

Entre sus recomendaciones destacan la necesidad de transparencia sobre el uso de herramientas automatizadas, la trazabilidad del contenido generado por IA, la supervisión editorial humana obligatoria, la garantía de que la IA no sustituya funciones esenciales del periodismo y el compromiso con una gobernanza tecnológica centrada en derechos humanos. Esta carta no solo interpela a medios y periodistas, sino también a gobiernos, desarrolladores y plataformas tecnológicas, recordando que el ejercicio periodístico no puede depender de sistemas cuya lógica excluye la responsabilidad pública.

A nivel práctico, ya existen iniciativas que avanzan en la implementación de estos principios. Algunos medios han comenzado a etiquetar de forma explícita el contenido generado por IA, a establecer protocolos de revisión y a capacitar a sus equipos en el uso crítico de estas herramientas. También se discute la incorporación de cláusulas éticas en los contratos con proveedores tecnológicos y la creación de mecanismos colectivos de evaluación y rendición de cuentas, especialmente en redacciones independientes y comunitarias.

La tecnología puede ser aliada, pero siempre bajo marcos de transparencia, ética profesional y respeto por las personas. Eso implica comprender sus límites, evaluar críticamente cómo está diseñada y qué efectos produce, y evitar delegar en sistemas automatizados decisiones que exigen contexto, criterio editorial y responsabilidad humana. Usarla con cuidado no solo protege el ejercicio periodístico, sino que también garantiza el derecho de las audiencias a recibir información confiable, diversa y producida con estándares de integridad.

Periodismo, democracia y tecnología

La automatización en el periodismo no es un escenario neutral. Puede ayudar a abordar tareas operativas en contextos de sobrecarga, reducción de equipos o necesidad de mejorar la accesibilidad de ciertos contenidos. Pero cuando se adopta sin criterios de justicia, equidad y responsabilidad, también puede profundizar problemas ya existentes como la precarización laboral, pérdida de diversidad en las coberturas y deterioro del juicio editorial. Informar es una función pública y una responsabilidad con la sociedad, no una tarea replicable sin contexto por sistemas opacos.

En América Latina, donde el espacio cívico se reduce, donde el acceso a la información muchas veces depende de medios independientes, y donde las amenazas a periodistas se multiplican, proteger el periodismo es también proteger la democracia.

Por eso, las decisiones sobre cómo se usa la IA en la producción de noticias no pueden quedar en manos de unos pocos actores tecnológicos. Deben involucrar a periodistas, audiencias, legisladores, editores, academia, sociedad civil y defensores de derechos humanos. Porque si el periodismo se transforma, debe hacerlo sin perder la capacidad de escuchar, cuestionar y poner en el centro las historias que merecen ser contadas.

Ciberpatrullaje: cuando vigilar se justifica en nombre de la seguridad

Seguridad digital ≠ Seguridad nacional

La narrativa de seguridad ha justificado el despliegue de vigilancia digital en varios países de América Latina. En Argentina, una resolución habilitó a las fuerzas de seguridad a monitorear redes sociales y otras fuentes abiertas, incluso con inteligencia artificial, bajo criterios ambiguos que permiten investigar “cualquier delito”. En Perú, se firmaron convenios para entrenar cibersoldados, en alianza con una empresa israelí, país cuestionado por sus tecnologías de vigilancia, importando modelos de guerra digital sin debate. En Colombia, el ciberpatrullaje es una práctica oficial de la Policía Judicial para recolectar información pública, sin garantías de proporcionalidad.

Aunque se presentan como medidas para prevenir delitos, estas prácticas han sido utilizadas para vigilar, judicializar o intimidar a personas por ejercer su libertad de expresión. En Argentina, un joven fue procesado por un tuit; en Bolivia, 37 personas fueron condenadas por supuesta participación en protestas; en Brasil, una sátira sobre Bolsonaro terminó en detención; en Uruguay, un adolescente fue arrestado por error tras una confusión en redes; y en México, la Guardia Nacional usó software israelí para rastrear a críticos del ejército. Todos estos casos documentados en el informe Perfilamiento en redes sociales y ciberpatrullaje como nuevas modalidades de la vigilancia masiva desplegada por los Estados: casos relevantes en América Latina, evidencian cómo el discurso de protección ha servido para legitimar formas de vigilancia contrarias a los derechos humanos.

El caso más reciente ocurrió en Venezuela, tras las protestas por los resultados electorales, el monitoreo de redes también fue utilizado para perseguir e intimidar a manifestantes y activistas.

OSINT y ciberpatrullaje: entre la búsqueda abierta y la vigilancia encubierta

Para entender cómo se aplican hoy las prácticas de vigilancia, es necesario observar el uso de la inteligencia de fuentes abiertas (OSINT por sus siglas en inglés) y su implementación en el ciberpatrullaje. La metodología OSINT consiste en recolectar y analizar información pública, como publicaciones en redes sociales, sitios web, imágenes, videos o metadatos, con fines investigativos. Su expansión se debe a que no requiere vulnerar sistemas protegidos: todo está a la vista. Pero esa accesibilidad no implica que su uso esté libre de consecuencias.

Si bien existen usos responsables y útiles de esta herramienta como el de Trace Labs -una organización que usa OSINT en plataformas colaborativas para ayudar a encontrar personas desaparecidas bajo protocolos y fines humanitarios- este tipo de iniciativas son excepcionales.  En la mayoría de países de la región, OSINT ha sido adoptado por fuerzas de seguridad bajo el argumento de proteger a la ciudadanía o prevenir amenazas, pero en realidad se usa para vigilar y perfilar a personas críticas del poder, periodistas y activistas. El perfilamiento implica recolectar, clasificar e interpretar datos para construir hipótesis sobre una persona: qué piensa, con quién se vincula o qué podría hacer.

El ciberpatrullaje amplifica esta lógica: es la práctica estatal del monitoreo del discurso en línea (y de las personas) con técnicas OSINT, en la mayoría de las veces sin notificación, sin supervisión ni protocolos claros. Su implementación no está orientada a la identificación de personas vinculadas a causas judiciales, sino que opera de forma masiva, permitiendo el perfilamiento de individuos por sus opiniones, afiliaciones políticas o participación en espacios sociales.  Sin embargo, tanto los perfilamientos como el ciberpatrullaje pueden derivar posteriormente en la apertura de causas judiciales. En contextos de desigualdad, estas prácticas golpean con más fuerza a mujeres activistas, comunidades indígenas, personas defensoras de derechos humanos o sectores populares. ¿Qué criterios se usan?, ¿cuáles son los límites? El problema no es OSINT en sí, sino cómo, para qué y contra quién se utiliza.

El Consejo de Derechos Humanos de la ONU aprobó en 2022 el informe “Sobre el derecho a la privacidad en la era digital” que por primera vez explora las prácticas de inteligencia en redes sociales y de monitoreo del discurso en línea como nuevas modalidades de vigilancia masiva estatal. Al reconocer que son actividades que tienen serios impactos en los derechos humanos, sostiene que esta observación del espacio público es casi siempre desproporcionada. En ese sentido, recomendó a los Estados adoptar marcos legales adecuados para regular la recolección, análisis y compartición de inteligencia obtenida de redes sociales que delimite claramente los escenarios en que ésta se encuentra permitida, sus prerrequisitos, las autorizaciones y procedimientos, así como los mecanismos para garantizar su supervisión adecuada.

En la región, identificamos que es una práctica que pretende ampararse en la legalidad, pero que en realidad se despliega a partir de interpretaciones arbitrarias de ciertas facultades como la prevención del delito. Estas facultades, originalmente pensadas para otros fines, están siendo extendidas sin regulación específica al ámbito digital, incluyendo la detección temprana de delitos supuestamente vinculados a la actividad de quienes presuntamente desinforman. Este escenario genera una profunda inseguridad jurídica y un efecto amedrentador, dificultando que las personas ejerzan libremente sus derechos en línea.

¿Cómo cuidarnos frente al ciberpatrullaje?

Aunque la responsabilidad principal frente a la vigilancia digital recae tanto en los Estados como en las plataformas y empresas que permiten o ejecutan estas actividades, también es cierto que históricamente grupos de la sociedad civil hemos generado estrategias de autoprotección para sobrevivir en entornos hostiles. Protegernos significa responder con conciencia crítica y cuidado colectivo mientras exigimos marcos legales que limiten la vigilancia y garanticen nuestros derechos en línea. 

Para reducir la exposición, hay algunas acciones básicas que se pueden adoptar en las redes sociales. Por un lado, evitar el uso del nombre real completo (nombre y apellido) como nombre de usuario o nombre visible, y procurar no repetir el mismo @alias en todas las redes. También es recomendable configurar las cuentas como privadas o restringidas, de modo que solo los perfiles aprobados puedan acceder al contenido. Otra medida clave es desactivar los permisos de ubicación en los dispositivos móviles, para que las aplicaciones no puedan rastrear ni compartir los movimientos.

Cuando la idea es publicar fotos desde un lugar específico, es recomendable esperar algunas horas o días antes de subirlas, así no se revela la ubicación en tiempo real. Además, se sugiere conversar con contactos y amistades sobre la importancia de no etiquetar ni compartir datos privados sin previo consentimiento. Por otro lado, es importante considerar la selección de una foto de perfil que no sea fácilmente rastreable, ya que existen herramientas OSINT que permiten buscar imágenes en otras plataformas y vincularlas con la identidad de las personas usuarias. Por último, aceptar solo solicitudes de personas que realmente resulten conocidas, ya que muchas veces el ciberpatrullaje empieza con perfiles ficticios que buscan establecer contacto directo.

La vigilancia no es cuidar, es poner en riesgo nuestros derechos

Estas actividades se despliegan sin reglas, sin control y sin justificación pública, y eso ha permitido que se normalicen prácticas autoritarias bajo la retórica de la seguridad. En esta parte del mundo, donde muchas democracias son frágiles y la capacidad de la ciudadanía para fiscalizar al Estado es débil, el uso de estas tecnologías crece sin transparencia, sin debate público y con una preocupante opacidad.

Los Estados adquieren herramientas de monitoreo de redes sociales mientras persisten -y en algunos casos se profundizan- las barreras para acceder a información básica sobre su licitación, adquisición, funcionamiento, responsables, bases de datos involucradas y el gasto público asociado. Incluso cuando la sociedad civil ha recurrido a solicitudes de acceso a la información, muchas autoridades se amparan en argumentos de seguridad nacional para obstaculizar el escrutinio democrático.

¿Con qué criterios se decide comprar tecnologías a empresas extranjeras como las israelíes, cuestionadas internacionalmente por su papel en la vigilancia masiva?

Proteger no puede seguir siendo un argumento aceptable para la vigilancia masiva, mientras la ciudadanía, la misma a la que supuestamente se quiere cuidar, se siente más vigilada que segura. Estas prácticas suponen riesgos concretos para la libertad de expresión -especialmente en contextos de protesta social o frente a discursos críticos o incómodos- al generar estigmatización, autocensura e incluso incitación a la violencia contra quienes son catalogadas como opositoras. A la luz de los casos expuestos, queda claro que la vigilancia no es protección: es poder sin control.

Por un trabajo digno en la era de los algoritmos

El legado del primero de mayo en el entorno digital latinoamericano

Cada Primero de Mayo, el mundo conmemora la histórica lucha por los derechos laborales, recordando las demandas por derechos como una jornada justa, salarios dignos y condiciones de trabajo seguras. Esta fecha, arraigada en las movilizaciones obreras del siglo XIX, nos invita a reflexionar sobre el estado actual del mercado laboral y los desafíos que aún persisten, especialmente en un contexto global marcado por la rápida incidencia de las tecnologías digitales.

El mercado laboral latinoamericano, si bien diverso en sus matices nacionales, comparte desafíos comunes en cuanto a la protección de los derechos laborales. La persistencia de la informalidad –promediando casi la mitad de la población empleada en la región– continúa erosionando la capacidad de las personas trabajadoras para acceder a protecciones básicas como seguridad social, vacaciones pagadas y estabilidad en el empleo. En este escenario, la promesa de flexibilidad y autonomía ofrecida por las plataformas digitales de trabajo bajo demanda ha encontrado un terreno fértil para su expansión, presentando alternativas prácticas de generación de ingresos para poblaciones en situación de vulnerabilidad. Sin embargo, como exploramos en nuestra columna sobre la «paradoja de la flexibilidad», esta aparente libertad a menudo enmascara una realidad de precariedad, inestabilidad y una creciente dependencia de sistemas de gestión algorítmica opacos.

Invito a reflexionar con lo siguiente: imagine que su teléfono vibra con una notificación fría e impersonal, «Su cuenta ha sido suspendida por violar los términos y condiciones». Intenta recordar qué pudo haber hecho mal, repasa mentalmente las extensas cláusulas que quizás leyó por encima al registrarse, pero la razón específica se escurre entre la ambigüedad del mensaje. Intenta apelar, buscar una explicación humana, pero se topa con respuestas automatizadas que no llevan a ningún lado. Su fuente de ingresos se ha cortado totalmente de un momento a otro. Este escenario no es hipotético para quienes dependen de plataformas y para quienes la suspensión de una cuenta significa quedarse sin sustento. Para otras personas quizás sea una herramienta para complementar ingresos o manejar sus horarios; pero para muchas en nuestra región, especialmente para quienes encuentran en estas plataformas su única oportunidad laboral, la realidad es muy distinta. Mientras algunas personas pueden elegir cuándo y cómo trabajar, otras se ven atrapadas en la urgencia de aceptar cualquier tarea disponible –sin margen para negociar o rechazar–, en labores que exigen menor calificación. ¿Estamos hablando entonces de una fuente de trabajo flexible, o una nueva forma de vulnerabilidad laboral?

Es tiempo de ponerle reglas al algoritmo

La irrupción de tecnologías como los algoritmos, las plataformas digitales y la inteligencia artificial en el ámbito laboral plantea tanto oportunidades como desafíos sin precedentes para los derechos de las personas trabajadoras. Por un lado, se argumenta que la automatización tiene el potencial de liberar de tareas repetitivas (como la revisión de códigos) o riesgosas (como ciertos controles médicos), o que impulsará la productividad, abriendo nuevas opciones de empleo en sectores emergentes. Sin embargo, en diversos sectores desde la manufactura hasta los servicios, los algoritmos gestionan tareas, evalúan el desempeño, asignan trabajos o tarifas e incluso toman decisiones sobre la contratación y el despido.

Esto conlleva a que estas mismas tecnologías pueden exacerbar las vulnerabilidades existentes. Facilitan nuevas formas de explotación, vigilancia y control, especialmente en sectores carentes de regulación adecuada y alta informalidad como el reparto de mercaderías o el servicio doméstico. En estos rubros aquellas problemáticas pueden verse profundizadas, ya que es común ver a su fuerza de trabajo sumergida en una narrativa que ni siquiera la reconoce como persona trabajadora. Los mecanismos de vigilancia y monitoreo regidos por algoritmos a menudo carecen de transparencia y rendición de cuentas, lo cual somete a trabajadoras y trabajadores a la presión constante de aceptar cada solicitud. Incluso, les obliga a aceptar en condiciones de peligro, como cuando implica cargar mercancías pesadas que ponen en riesgo la integridad de sus vehículos o cuando han sido víctimas de maltrato por parte de locatarios o clientes. Se acepta cualquier pedido por el temor a que el incumplimiento derive en la suspensión o bloqueo de su fuente de ingresos, sin mecanismos claros para comprender la decisión o revertirla.

Las cuentas pendientes en este nuevo panorama laboral son significativas: ¿Cuántas decisiones injustas se toman hoy sin que la persona trabajadora pueda cuestionarlas o comprender sus razones? Una regulación efectiva es ineludible para que la tecnología potencie el trabajo respetando derechos, pero no basta con leyes: debe incluir la participación de personas trabajadoras en el diseño de estas herramientas. Se requiere abordar la clasificación de los vínculos entre empresas y personas en plataformas, además de garantizar transparencia y mecanismos de auditoría independiente. Se requiere rendición de cuentas ante las autoridades para evitar discriminación e injusticias, y priorizar la protección de datos personales ante la vigilancia intrusiva y la toma de decisiones automatizadas que perjudican a las personas trabajadoras. 

En este Día Internacional de las Trabajadoras y Trabajadores, el llamado a la defensa de los derechos humanos en el ámbito digital resuena con fuerza. La flexibilidad no puede venir a cualquier costo:  las promesas de progreso tecnológico no deben traducirse en un agravamiento de las condiciones de trabajo y una erosión de los derechos históricamente conquistados. Es imperativo que las tecnologías digitales se desarrollen y utilicen con un enfoque centrado en las personas, aplicando un respaldo de derechos laborales y garantizando un futuro laboral justo, equitativo y digno en América Latina. La lucha por el trabajo decente en la era digital es la continuación de la batalla histórica por la justicia social, y en este Primero de Mayo, reafirmamos nuestro compromiso con esa causa.

Del miedo al autocuidado digital: derechos digitales para niñas en las TIC

¿Alguna vez te has sentido confundida al escuchar cómo las grandes corporaciones usan nuestros datos? ¿O te ha pasado que alguien te diga “no tengo nada que ocultar, así que no me importa lo que sepan de mí”? Proteger nuestra privacidad y seguridad digital no se trata solo de ocultar información, sino más bien de ejercer el derecho a decidir qué compartimos, con quién, cuándo, dónde y para qué, conociendo los riesgos y sin tener miedo a represalias.

Hoy más que nunca, en un mundo cada vez más digitalizado, necesitamos reflexionar sobre nuestro rol como mujeres usuarias, creadoras y defensoras de un entorno virtual más seguro. Repasar nuestras trayectorias de cuando éramos más pequeñas, y ver también cómo viven hoy las infancias su vínculo con las tecnologías. Y qué mejor fecha para reflexionar al respecto que el 24 de abril: Día Internacional de las Niñas en las Tecnologías de la Información y la Comunicación (TIC). Esta efeméride, impulsada por la Unión Internacional de Telecomunicaciones (UIT) desde 2011, busca generar espacios que inspiren a niñas y adolescentes a explorar el mundo de la tecnología, no solo como consumidoras, sino como protagonistas de su transformación.

A pesar de estar viviendo en una era hiperconectada, el acceso, la participación y la representación en el ámbito digital siguen denotando profundas desigualdades de género. En el reporte de la UNESCO sobre STEM y género se menciona que solo el 35% de quienes estudian estos temas son mujeres y que menos del 30% de quienes ocupan puestos de investigación en ciencia son mujeres. Además, las mujeres ocupan apenas el 22% de los empleos en inteligencia artificial, uno de los sectores con mayor crecimiento y proyección a futuro. Según el reporte “Las mujeres en ciencias, tecnología, ingeniería y matemáticas en América Latina y el Caribe” de ONU Mujeres, esto responde a múltiples factores, como desde edades tempranas niñas y adolescentes enfrentan estereotipos de género; por ejemplo, 9 de cada 10 niñas entre 6 y 8 años asocian las matemáticas, la programación y/o la ingeniería con habilidades masculinas, lo que afecta directamente su confianza para explorar estas áreas.

Muchas mujeres hemos crecido con la sensación de que la tecnología no está hecha para nosotras y nos sentimos ajenas a un mundo dominado por figuras masculinas, lenguajes técnicos inaccesibles y espacios que rara vez se preocupan por incluir otras voces. Para mujeres, niñas y diversidades, entender cómo proteger nuestros datos, cómo navegar con conciencia y cómo evitar riesgos en línea es una forma de resistencia frente a las violencias digitales, la vigilancia y la exclusión. Estas habilidades pueden parecer pequeñas, pero marcan una gran diferencia en la forma en que habitamos lo digital. Dejar de lado el miedo paralizante y reemplazarlo por curiosidad, información y práctica, es uno de los pasos más potentes hacia una resiliencia digital.

Los riesgos digitales para niñas y mujeres jóvenes incluyen la exposición a contenidos violentos o inapropiados, que pueden afectar su salud mental y emocional; el contacto con personas peligrosas, como depredadores que se hacen pasar por amigos o pares; y la inseguridad digital, que desalienta a muchas niñas a participar activamente en tecnología y limita su desarrollo profesional. Por eso, es esencial enseñar y promover conocimientos de auto cuidado digital, como lo hace la guía de cuidados básicos Security in a Box que nos enseña a usar contraseñas seguras y distintas. Verificar siempre con quién se está hablando, utilizar herramientas de protección. La guía Mozilla Privacy not Included sobre el nivel de privacidad y seguridad de distintos dispositivos y aplicaciones del mercado también es de mucha utilidad. Y por último, y no por eso menos importante, pedir ayuda cuando algo incomoda: eso también es cuidarse.

Nunca más una tecnología sin nosotras

Incluir a niñas y mujeres jóvenes en las TIC más allá de un rol de usuarias no es solo una cuestión de números, sino de transformaciones profundas. El actual modelo de desarrollo tecnológico tiende a reproducir desigualdades, mientras no haya diversidad y perspectiva de género en las personas que diseñan estas tecnologías, corremos el riesgo de que los productos que usamos todos los días (desde apps hasta sistemas de inteligencia artificial) perpetúen sesgos, invisibilicen necesidades específicas y vulneren derechos.

La subrepresentación femenina en estos campos ha sido una de las razones por las cuales muchas no nos hemos animado a entrar en este mundo. Probablemente no conozcamos de mujeres en estos campos hasta que estamos muy dentro. Reconocer historias como las de Ada Lovelace, Reshma Saujani, María Emilia Alcalde, Yordanos Genanaw o Meredith Whittaker es fundamental para derribar el mito de que “las mujeres no son aptas para la tecnología”. Ellas son solo algunas referentas en las tecnologías, pero la lista puede ser mucho más larga. En efecto, recientemente con motivo del 8M Derechos Digitales lanzó una campaña en redes visibilizando a mujeres que han transformado el mundo digital bajo la consigna: ¡La tecnología y el espacio digital no es lo que sería hoy sin nosotras!

Y entonces asoma la pregunta que tanto incomoda, pero que nos interpela directamente: ¿qué podemos hacer todas nosotras desde donde estamos para achicar la brecha de género digital? Podemos fomentar la alfabetización digital con enfoque de género en centros educativos y comunidades. Debemos exigir políticas públicas que garanticen el acceso equitativo a internet y formación TIC. Acompañar la creación de espacios de mentoría entre mujeres que ya están en el sector y nuevas generaciones. Visibilizar referentas femeninas en tecnología desde la infancia. Y, fundamentalmente, promover leyes y marcos normativos que garanticen la seguridad digital, el derecho a la privacidad y el acceso libre y ético a la información para todas las mujeres y niñas del mundo.

Para poder acompañar ese proceso de fortalecimiento de derechos digitales en niñas y mujeres, existen herramientas útiles de organizaciones sensibles con estos temas para empezar desde temprana edad. Por ejemplo Girls Who Code y Ada’s List, colectivos que ofrecen talleres y ofertas laborales para jóvenes interesadas en informática. También contamos con varios entornos educativos online que enseñan cómo programar mediante una interfaz gráfica intuitiva. Tal es el caso de Scratch, Code.org o Alice, por nombrar algunos. Además, está disponible Raspberry Pi, un dispositivo de bajo costo que permite a las personas usuarias construir y programar su propia computadora. Por último, la reciente investigación de Derechos Digitales, en colaboración con María Lab, Taller Comunicación Mujer e Internet Bolivia, “Líneas de ayuda para atender casos de violencia de género en línea: Monitoreos y tendencias en Bolivia, Brasil y Ecuador” también ofrece herramientas de asistencia y acompañamiento para afrontar situaciones violentas en internet.

La transformación digital que necesitamos no puede darse sin justicia social, sin enfoque de género, ni tampoco sin derechos humanos. Y tampoco debe suceder dejando fuera a nuevas generaciones con el potencial de ser protagonistas del desarrollo tecnológico en nuestra región. Es hora de dejar de ver la tecnología como un fin en sí mismo, y comenzar a pensarla como una herramienta para construir sociedades más justas y equitativas, para todas las edades. Garantizar hoy el derecho de una niña a un uso consciente y seguro de la tecnología es abrirle el camino para liderar el mundo del mañana.

La IA y los nuevos riesgos para la privacidad

La inteligencia artificial (IA) es mucho más que los sistemas de chat que se popularizaron desde inicios de esta década. Si bien ahora se está viviendo el boom de esta tecnología, no hay que olvidar que la IA es una rama de las ciencias de la Computación que ha estado presente desde sus inicios. En el pasado, existieron hitos importantes en relación a esto. Por ejemplo, en el año 1997 la computadora Deep Blue, creada por IBM, fue capaz de vencer en ajedrez al entonces campeón del mundo Gary Kasparov. También, hace poco menos de 10 años, el software Alpha Go de Google logró ganarle a varios campeones internacionales del juego de estrategia Go.

El boom que se vive en la actualidad tiene que ver principalmente con los modelos grandes de lenguaje (LLM por sus siglas en inglés). Se trata de un programa de la IA que permite tener aplicaciones con las cuales nos podemos comunicar de forma natural como si estuviéramos hablando con personas. Para que estos sistemas puedan tener una conversación con humanos se los debe entrenar con cantidades extraordinarias de datos y además se requiere de mucha capacidad de cómputo.

Dime qué datos utilizas y te diré quién eres

Si se piensa en los LLM desde una perspectiva de privacidad, lo primero que nos deberíamos preguntar es ¿de dónde salen los datos que entrenan el modelo? Según OpenAI, utilizan 3 fuentes para entrenar los modelos de ChatGPT: información pública, información compartida por socios e información provista por humanos.

En la primera opción, se puede pensar en la internet pública con sitios como Wikipedia, Github, Archivo de internet y otras similares. Desde un punto de vista de privacidad, esta información está públicamente accesible y se puso a disposición con la intención de compartir conocimiento libremente. Se podría decir que entrenar LLM con esta información, haría más accesible el conocimiento a la mayoría de la gente.

Pero este no es el caso para todos los sitios web. Existen casos como las redes sociales, donde las personas -por error- pudieron haber publicado información personal sin intención y esta se hizo pública. Incluso se podría haber subido contenido con el propósito de que sea accesible para el público, pero no necesariamente para entrenar modelos de inteligencia artificial.  Evidentemente, hay problemas relacionados con derechos de autor, pero en esta columna no nos vamos a detener en esa cuestión.

En el segundo caso, no es claro cuáles son los socios que proveen información a OpenAI. En su página web mencionan una colaboración con al gobierno de Islandia para mejorar el soporte del idioma islandés, y también hablan de colaborar con la organización Free Law Project. Sin embargo, no queda claro con qué otros grupos hacen alianzas para la provisión de datos.

Desde el punto de vista económico, el principal aliado de OpenAI es Microsoft. Una empresa que en 2023 realizó un acuerdo de 10 mil millones de dólares con OpenAI por varios años, y que incluye el uso de la infraestructura Azure. Esta infraestructura es la “nube” que oferta Microsoft para que terceros puedan ejecutar sus aplicaciones. En este caso, Azure es la principal infraestructura de ChatGPT y otros productos de OpenAI.

¿Será que OpenAI utiliza información de las aplicaciones de Microsoft como Bing, Outlook, Office 360, entre otros? ¿Estará Microsoft entregando información personal de sus usuarios para entrenar al ChatGPT? No hay forma de saberlo, salvo que se haga una auditoría y se transparente la forma en la que OpenAI entrena sus modelos.

Si pensamos en las otras empresas líderes como Google con Gemini, Meta con MetaAI o X con Grok, podemos, al menos, sospechar que utilizan los datos de sus sistemas para entrenar sus modelos grandes de lenguaje. Todas estas empresas tienen algo en común, muchos datos y gran capacidad de procesamiento de información, lo que las pone en la élite de la IA.

Nube y privacidad: malos amigos

Ya se analizó la privacidad al momento de entrenar los modelos LLM. Ahora bien, ¿qué pasa con nuestra privacidad al utilizar estos chat bots? El principal problema que se presenta al utilizar estas herramientas de IA es que se encuentran en la nube, a quien le entregamos todos nuestros datos.

Si se utiliza la IA para que nos responda nuestras preguntas cotidianas, estas preguntas se asocian a nuestro perfil y sirven para perfilarnos como individuos. Si se usa la IA para que resuma una llamada de Zoom, entonces estamos entregando la transcripción de la conversación y el resumen a la plataforma. Si la utilizamos para escribir un correo electrónico, entonces el sistema que lo redacta tendrá el contenido de nuestro correo. Si le pedimos que nos sintetice un documento confidencial, le servimos en bandeja esa información. Toda esta interacción servirá para entrenar los futuros modelos de lenguaje. En teoría, gente con la capacidad de hacer las preguntas correctas a la IA podría extraer información de nuestros archivos confidenciales.

Por otra parte, el uso de IA en aplicaciones de chat cifrado también resulta un problema muy grave para la privacidad de la ciudadanía. El cifrado extremo a extremo protege nuestras comunicaciones para que nadie, excepto las personas que participan en la misma, las pueda leer. Un adversario particularmente importante del cual nos protege este tipo de cifrado es el proveedor del servicio. Si se piensa en WhatsApp, entonces su cifrado nos debe proteger para que WhatsApp no lea nuestras conversaciones. Sin embargo, desde algún tiempo atrás tenemos entre nuestros contactos al bot de @MetaAI. A este bot lo podemos invocar desde cualquier conversación para hacerle consultas. Cuando eso sucede, el cifrado extremo a extremo pierde su valor ya que Meta debe leer nuestras conversaciones para interactuar.

En general, los problemas de privacidad de la IA están asociados a la utilización de plataformas en “la nube”. En otras columnas, hemos visto algunos ejemplos del uso de infraestructura propia con software libre para poder tener una oficina virtual, sistemas de videoconferencia seguras, incluso instancias de redes sociales descentralizadas como el Fediverso.  ¿Se puede hacer lo mismo con la inteligencia artificial?

La respuesta es sí, y de hecho existen varios LLMs que se pueden utilizar sin costo y de forma local o incluso en infraestructura propia. A diferencia de sistemas como una nube propia o sistemas de chat seguro, con inteligencia artificial se va a necesitar mayor capacidad de cómputo o versiones más pequeñas de los LLM. Al usar modelos más cortos, probablemente no sirvan para preguntar cualquier cosa, pero sí podrían ser muy útiles para tener un bot con un propósito específico. Por ejemplo, para resumir documentos confidenciales o traducir textos.

IA al servicio de las personas, no de las corporaciones

En nuestros días, es común que la gente utilice IA para apoyarse en sus tareas cotidianas y, seguramente, en el futuro esta herramienta se usará aún más. Es sumamente importante que como sociedad podamos reflexionar acerca de los propósitos para los cuales se seguirá utilizando la IA y los riesgos que eso trae aparejado. No es lo mismo recurrir a ella para traducir un documento público, redactar un correo electrónico o resumir un documento confidencial. Habrá casos en los que se pueda considerar aceptable utilizar IA a cambio de sacrificar la privacidad y habrá otros en los que no.

La autonomía en la IA es algo que la sociedad debe explorar. Para tareas y actividades donde se trabaja sobre información sensible, tener un sistema tecnológico que no reporte esa información a terceros sería una herramienta muy poderosa. Incluso varias organizaciones podrían unirse entre sí para compartir infraestructura y poder ejecutar colectivamente mejores modelos de lenguaje. Las regulaciones sobre esta herramienta tecnológica deben velar por el respeto de nuestra privacidad, nuestros datos y nuestra información. Solo de esa forma podremos imaginar un futuro digital seguro para todas y todos.

“El viaje” de la creatividad en la era de la Inteligencia Artificial

Las semanas pasadas Internet se colmó de millones de imágenes generadas por IA al estilo del icónico Studio Ghibli. Las personas usuarias emplearon el último generador de imágenes de OpenAI para que sus fotografías, las de sus familiares y mascotas aparecieran, en cuestión de minutos, como personajes salidos del místico universo animado por Hayao Miyazaki, fundador del mítico Studio Ghibli.

La tendencia de la “IA Ghibli” suscitó ternura, nostalgia y diversión en las personas viralizándose con rapidez, al tiempo que despertaba múltiples debates pertinentes. En efecto, las preguntas por los derechos de autor no tardaron en revivir, las implicaciones medioambientales del uso de la IA florecieron, los pronunciamientos de artistas se reavivaron y las alertas alrededor de la protección y el uso de datos personales en la IA se encendieron con fuerza. Lejos de pretender abarcar en su totalidad o resolver estos y otros debates, en esta columna aprovecharemos el reposo de la tendencia para reflexionar sobre dos puntos: el lugar del proceso creativo humano y la sensibilidad artística a propósito de la expansión de la IA generativa de imágenes; y los riesgos hacia las personas en materia de protección de datos personales.   

¿El arte se crea o se programa?

Ya sea en la música, la ilustración o la escritura, la creatividad es un proceso complejo, multifacético, y profundamente humano. La creatividad humana requiere la interpretación de lo que otras personas han hecho, combinarlo con ideas y experiencias propias, agregarle matices y, a partir del ensayo y error, conseguir expresar la idea que gestamos por algún tiempo en nuestra imaginación. Pensemos que cada creación es como un Castillo Ambulante de Miyazaki, una suma de estilos y piezas heterogéneas que forman una estructura con vida propia.

Ahora, el presente tecnológico del arte ofrece y acerca a las personas a cientos de grandes referentes para la creatividad humana. De hecho, expresarse artísticamente a través del uso de nuevas y emergentes tecnologías, incluida la IA, nunca había sido tan fácil y accesible. La energía vital que se imprimía en componer un compás, en hacer un esbozo o en empezar de cero un escrito se transforma en la era digital que nos atraviesa. Hace días nomás, el proceso de reproducir un estilo ajeno se redujo al envío masivo de cadenas de instrucciones o “prompts” con los que la IA de OpenAI generó en segundos miles de imágenes detalladas con el estilo Ghibli. Esta tendencia “IA Ghibli” merece ser pensada desde el valor mismo de la creatividad y de los creadores en un mundo que cada vez más se inclina a la automatización prescindiendo del factor humano.

La IA habilita la producción continua e inmediata de piezas artísticas, representando tanto oportunidades para el ecosistema artístico, como riesgos para los procesos de creación tradicionales. La inteligencia artesanal de Miyazaki, por ejemplo, nos lleva a reflexionar sobre la vivencia y padecimiento del proceso creativo, sobre el tiempo que toma, los retos y las potencialidades que representa para la imaginación personal y colectiva, y la creatividad. Esto en un contexto donde el trabajo artístico suele estar mediado por condiciones precarias o poco dignas que suponen un reto y un peso adicional.  

La creatividad como proceso y como resultado es una experiencia ajena e irreproducible para la IA, una tecnología que no sueña, imagina o experimenta como lo hace la creatividad humana, y en razón a esos elementos no se avoca a la generación de estilos originales, sino a la reproducción de los estilos de otros. Para quienes crean una historia mientras la ilustran (sin cadenas de instrucciones previas), estableciendo una relación de identidad con su obra al dejar un poco de su experiencia de vida en cada detalle y trazo, la generación de imágenes con IA representa con fuerza el “insulto a la vida misma”, una afirmación del propio  Miyazaki al referirse a la generación de imágenes con IA. Para quienes apoyan la inteligencia artesanal, la tendencia de la “IA Ghibli” produjo cuestionamientos válidos sobre el sentido del arte en tiempos donde la IA cada vez ocupa más espacios que creíamos nuestros.

No obstante, en la medida que esta tecnología se instaló en el oficio creativo y fuera de él, es necesario explorar salidas que trasciendan a los marcos de transparencia en el entrenamiento de las herramientas de IA, así como concretar usos de estos sistemas alineados con una perspectiva de derechos humanos que impidan la reproducción de violencias, sesgos y formas de discriminación. Para esto, es crucial suscitar el diálogo entre empresas, personas usuarias y colectivos de artistas para precisar mecanismos de protección, reclamación y compensación que amparen a las partes más allá del terreno movedizo y desigual de los derechos de autor.

Equilibrar la creatividad humana y las formas que toma con la innovación tecnológica está en el centro de la discusión. Quizás, más allá de emprender un proceso creativo al estilo tradicional, la IA habilita nuevas forma de expresión artística donde retazos de ideas cobran vida al instante representando momentos fugaces de nuestra imaginación.

Ahora bien, el uso entusiasta de la IA no puede eclipsar la reflexión y el pensamiento crítico alrededor de las tecnologías, lo que incluye exigir responsabilidad e información pública a las empresas sobre, por ejemplo, el uso de los millones de datos personales y de terceros que alimentaron el modelo de OpenAI en las últimas semanas.

Las tendencias de la IA y los datos personales

De la mano de los riesgos para el ecosistema artístico, vale la pena destacar los riesgos para las personas que recordó el “trend” de la IA Ghibli. A saber, un asunto que sorprendió fue la conducta de entrega voluntaria, gratuita y entusiasta de datos biométricos de millones de personas a OpenAI. Por esto, apuntamos a reflexionar sobre los riesgos de entregar información personal, como los rostros propios y de terceros (como menores de edad) con ligereza a las empresas tecnológicas. Es fundamental preguntarnos por nuestra relación con la IA y cuestionar aquellos lugares donde naturalizamos la recopilación de nuestros datos a través de argumentos como “nuestra información ya está en todas partes”. Recordemos que como personas usuarias somos soberanas de nuestra información y podemos decidir sobre esta y exigir transparencia en su uso por parte de las empresas tecnológicas.

Como vemos, el debate es amplio. La naturaleza evolutiva de tecnologías como la IA, sobre todo en su dimensión generativa, refuerza la importancia de, por un lado, avanzar hacia estrategias concretas de responsabilidad para las empresas que, en su carrera global por la IA, lanzan productos con implicaciones para los derechos de las personas, impactando incluso en ámbitos que creíamos exclusivos de lo humano, como la creatividad y el proceso artístico. Y, por otro lado, es ineludible involucrar a las personas usuarias traduciendo el lenguaje del trabajo académico e intelectual acerca de las tecnologías digitales a sus realidades concretas. Sólo así, los riesgos asociados a la IA, por ejemplo, podrán entenderse como consecuencias inherentes a su uso, y no como asuntos aislados, ajenos a nuestras prácticas diarias.

El Festival Latinoamericano de Instalación de Software Libre cumple 20 años y se renuevan los desafíos

El 2005 fue un año de cambios, a solo unos meses de la primera edición del Software Freedom Day (Día de la libertad de software) y a un año y medio del primer Festival de Instalación de Software Libre Colibrí (FISLC) en Colombia, un grupo de apasionados y apasionadas por la cultura abierta celebraron el 2 de abril la primera edición del Flisol que superó las expectativas de sus impulsores. La propia imagen del Festival representó la intención de unión regional que fue, sin duda, el resultado alcanzado: se celebró en más de 100 ciudades de 13 países de forma simultánea.

A veces, pareciera que los efectos a largo plazo son los que menos se ven y aprecian. Así fue que luego de una primera edición exitosa de Flisol, con muchos países fortaleciendo comunidades tecnológicas, organizándose y encontrándose para hablar de libertad, comenzaron a gestarse cambios importantes como políticas nacionales que implementan software libre desde el Estado o la activa contribución de nuevos miembros a proyectos de código abierto.

Mandrake (que después pasó a llamarse Mandriva) fue el sistema operativo que se instaló en los inicios del festival representando grandes desafíos y requiriendo de mucho tiempo de preparación antes de tener los CDs instalables que se preparaban uno a uno. Era un momento de la historia en que “quemar” discos parecía una misión a la Luna dadas las condiciones de infraestructura tecnológica y calidad de conexión a Internet, una época en que la comunicación era mucho más lenta, los medios de difusión eran listas de correo, los mensajes de texto eran escasos, las redes sociales y el mundo del streaming que hoy conocemos no habían dado sus primeros pasos aún.

En la actualidad, el Flisol se celebra en más de 200 ciudades, lo que da cuenta de una expansión territorial importante: en relación a los inicios duplicó la cantidad de lugares donde se realiza.  Si bien en su mayoría son espacios de América Latina, poco a poco la comunidad lo va llevando a otras latitudes del mundo.

Además, este evento se ha ido adaptando a lo largo de los años. Por ejemplo en 2008, cuando la comunidad acordó el cuarto sábado de abril como la fecha oficial de este evento; hasta el desafío que representó la pandemia en 2020 y la realización del festival en modalidad virtual. Incluso la velocidad con la que la tecnología ha traído facilidades y nuevos retos, moldeando así la conferencia actual y promoviendo activamente el software libre.

Y quién diría que lo mismo que facilita el alcance y difusión del festival sería también aquello que dificulta prácticas más libres y soberanas cuando de tecnologías se trata. Desde 2013, luego de las revelaciones Snowden, el mundo quedó sacudido por la sorpresa, la incertidumbre, la duda e incluso la incredulidad frente a la vigilancia gubernamental y nuestra falta de privacidad. En los años siguientes, se daría cuenta de lo que ocurre tras bastidores en los servicios que utilizamos  en Internet, desde redes sociales hasta plataformas que facilitan miles de operaciones diarias. Ante esto, el software libre surgió como una solución a la incertidumbre, promoviendo la  soberanía tecnológica y un código abierto que cualquier persona técnica puede auditar. Un modelo que prioriza libertades fundamentales que contribuyan a la construcción de un entorno informado para la toma de decisiones y las elecciones sobre qué herramientas usar. Especialmente en América Latina, donde las libertades han costado tanto a lo largo de los siglos, este enfoquedemocrático de la tecnología se presenta cada vez más como un ideal necesario.

El Flisol pasó de ser un evento que solo aspiraba llegar a la comunidad de Software Libre a ser una convocatoria de mayor alcance, que busca atraer a nuevos públicos para interpelarlos y presentarles la filosofía de la cultura libre. Los medios digitales han facilitado la comunicación, pasando de listas de correos a publicaciones en redes sociales. Además, se han realizado aspiraciones iniciales de los promotores del Festival en 2006, con transmisiones en vivo de los eventos, permitiendo llegar a quienes no habían podido asistir de forma presencial. Estas transmisiones, utilizando herramientas libres y gestionadas por la comunidad, se convirtieron  en 2020, debido a la pandemia, en el único medio de realización y participación.

Transmisiones y publicidades digitales cumplieron el anhelo del activismo por celebrar su edición del festival en un contexto sanitario sumamente difícil. Esto sin duda tuvo un alto impacto en la logística y los componentes que caracterizaron por más de una década a los encuentros presenciales. Así, el Install Fest no se pudo realizar, y los eventos se transformaron en charlas virtuales ofrecidas por activistas, académicos y apasionados por la filosofía del Flisol.

En adelante, y considerando la facilidad con la que se instala software y sistemas operativos, se han priorizado charlas, talleres, paneles, demostraciones y otras dinámicas que buscan sembrar curiosidad en quienes asisten. La comunidad tecnológica que se reunía para organizar Flisol encontró otras formas de interacción y de fortalecer lazos a lo largo del año previo a cada edición.

Hoy, como hace 20 años, se sigue celebrando Flisol. La fecha oficial sigue siendo el cuarto sábado de abril, sin embargo la comunidad puede decidir su propia fecha en función a características propias de cada sede. Sigue existiendo una figura de Coordinación Nacional, pero cada localidad decide y gestiona detalles específicos de su evento, sin dejar de lado la práctica de compartir recursos como diseños gráficos y, por supuesto, la wiki oficial del festival que se ha mantenido desde 2006 y que aloja la historia de 20 años de organización, celebración y trabajo conjunto y comunitario.

La 21va edición del Flisol, que se celebrará el próximo sábado 26 de abril, muestra grandes cambios comparada con las ediciones del 2005 o 2011. Pero la emoción, el compromiso y la alegría siguen uniendo al creciente movimiento que retomó la presencialidad de sus eventos durante 2022. El objetivo se mantiene intacto: compartir en comunidad y hacer frente a las desigualdades y sesgos facilitados por la tecnología. Formar criterio e intercambiar experiencias entre activistas, estudiantes y todas las personas ávidas de conocimiento sobre cómo Internet y sus derivados pueden comprometer tanto la privacidad individual como la colectiva, en un ecosistema dominado por gigantes tecnológicos que aguardan por nuestras vulnerabilidades. Te invitamos a contribuir a esta importante conversación y a tomar acción para un futuro digital más libre y seguro.

La digitalización del trabajo doméstico: entre oportunidades, informalidad y vacíos regulatorios

El abanico de trabajos que se han digitalizado producto de la expansión de plataformas en América Latina es amplio y diverso. Los servicios de mensajería, los repartos de comida o el transporte privado son algunas de las labores más conocidas intermediadas por “apps”, donde los algoritmos gestionan y determinan las condiciones de las personas trabajadoras, muchas veces en detrimento de sus derechos. En este contexto, poco se dice sobre las labores domésticas, desempeñadas en su mayoría por mujeres, que también han sido insertadas en el modelo de trabajo en plataformas digitales. Según un informe de la Organización Internacional del Trabajo (OIT), la provisión de tareas domésticas y de cuidado a través de sistemas digitales se ha multiplicado en la última década, con particular rapidez en países del Sur Global. Así, ocupaciones como la limpieza, la cocina e incluso el cuidado de personas ahora se llevan a cabo mediante sistemas tecnológicos de intermediación laboral. Bajo promesas de flexibilidad, autonomía y mayores ingresos, las aplicaciones de servicio doméstico permiten que las trabajadoras asistan a varios hogares por pocas horas en el día, lo que plantea desafíos significativos en materia de derechos laborales. Para este próximo 30 de marzo, Día Internacional de las Trabajadoras del Hogar, destacamos algunas características del trabajo doméstico mediado por plataformas digitales que ponen en riesgo derechos laborales fundamentales. 

Las promesas de contratación formal y registro

El empleo doméstico es una de las ocupaciones con mayores niveles de informalidad en América Latina, afectando principalmente a mujeres que ya enfrentan condiciones estructurales de desigualdad por razones de género, muchas veces agravadas por factores de interseccionalidad como condiciones socioeconómicas y migratorias, entre otras. A pesar de los avances en la ratificación del Convenio 189 de la OIT sobre trabajo decente para las trabajadoras del hogar, la implementación efectiva de sus principios aún enfrenta barreras estructurales. Países como Argentina, Colombia y Brasil han adoptado marcos normativos que establecen derechos laborales básicos, como salario mínimo, seguridad social y jornadas reguladas. Sin embargo, en la región persisten brechas significativas en la formalización del sector, con altos porcentajes de trabajadoras domésticas aún en la informalidad, sin acceso a protección social ni mecanismos efectivos para exigir el cumplimiento de sus derechos.

En este contexto, la digitalización del sector a través de plataformas de servicio doméstico ha surgido como una alternativa para facilitar la contratación formal. Estas aplicaciones pueden actuar como intermediarias entre trabajadoras y empleadores, promoviendo el registro en esquemas de seguridad social y garantizando pagos bancarizados. En algunos casos, han implementado sistemas de registro y seguros laborales que mejoran la seguridad y previsibilidad del empleo. Esta transformación digital tiene el potencial de reducir la informalidad, al tiempo que ofrece mayor visibilidad sobre la situación de estas trabajadoras, permitiendo una mejor fiscalización del cumplimiento de sus derechos laborales. Sin embargo, este potencial no siempre se materializa de forma efectiva.

Aún existen plataformas que operan sin garantizar condiciones laborales adecuadas, trasladando toda la responsabilidad de la formalización a las trabajadoras. En algunos países, han surgido modelos de negocio diferenciados: mientras unas aplicaciones actúan como agencias de empleo, gestionando la contratación directa y asegurando la inscripción en la seguridad social, otras funcionan únicamente como intermediarias, sin asumir responsabilidad laboral sobre las condiciones de trabajo. Este contraste evidencia la necesidad de regulaciones más claras y de mayores incentivos para que las plataformas promuevan condiciones que favorezcan la formalización laboral y el acceso a derechos, en línea con la responsabilidad empresarial en el respeto y garantía de derechos laborales.  Esto es fundamental para asegurar que la digitalización no reproduzca ni agrave las desigualdades históricas que afectan a las trabajadoras del hogar.

El uso de algoritmos en el trabajo doméstico: doble vigilancia y control

Otro de los grandes desafíos de la digitalización del empleo doméstico y su intermediación por plataformas, radica en el uso de algoritmos diseñados para la geolocalización, el monitoreo y la evaluación de las trabajadoras y su desempeño. Aunque las características de estos algoritmos varían según la aplicación, determinan aspectos clave como el lugar, la forma y las condiciones en las que se prestan estos servicios. La opacidad y falta de transparencia en el uso de estos sistemas impactan directamente en la experiencia laboral de las mujeres trabajadoras. Un aspecto particularmente problemático es que estos sistemas algorítmicos suelen estar diseñados para generar confianza en los empleadores, lo que implica la recopilación de datos personales de las trabajadoras. Estos datos están a disposición de los clientes, quienes tienen la posibilidad de elegir entre una u otra empleada sin criterios claros de equidad, lo que refuerza estereotipos y relaciones asimétricas. Además, los datos personales son procesados sin supervisión adecuada y sin un principio de transparencia, lo que puede dar lugar a decisiones automatizadas que profundicen sesgos discriminatorios y afecten sus derechos laborales. Sumado a esto, estudios sobre el tema señalan que la gestión algorítmica en los trabajos del hogar fortalece  prácticas de vigilancia y control históricamente presentes en la relación entre empleadores y empleadas domésticas.

En efecto, las plataformas digitales tienden a reforzar factores culturales preexistentes en la relación entre hogares empleadores y trabajadoras domésticas, y en muchos casos, a amplificarlos. La incorporación de algoritmos en el trabajo doméstico ha profundizado y sofisticado las formas de control sobre las trabajadoras, al combinar  la supervisión directa del cliente con el monitoreo constante de la plataforma. Esta doble vigilancia consolida relaciones laborales jerárquicas ya existentes, ahora mediadas por herramientas tecnológicas que reproducen desigualdades estructurales. Aunque para muchas mujeres las aplicaciones representan una alternativa a la informalidad, su diseño y funcionamiento tiene la capacidad de exponerlas a nuevas formas de precarización y dependencia. 

Sin duda, el modelo de trabajo de plataformas digitales continúa expandiéndose a campos antes impensados, poniendo en riesgo derechos laborales fundamentales y agravando desigualdades históricas. Esta tendencia nos invita a prestar mayor atención a la mediación tecnológica de trabajos en el ámbito “de lo privado”, como las labores domésticas y de cuidado, que presentan nuevos horizontes de análisis e incidencia para la protección de los derechos laborales en entornos digitales. Así, este 30 de marzo no solo marcamos una fecha, sino que hacemos un llamado a avanzar decididamente hacia una transformación donde la dignidad y la justicia definan el futuro del trabajo.