Bots y elecciones: los nuevos influencers automatizados

A fines de julio, tras varias semanas cayendo en las encuestas, Evelyn Matthei, candidata de la derecha tradicional chilena agrupada en la coalición Chile Vamos, acusó al candidato de la derecha más extrema José Kast, del Partido Republicano, por la puesta en marcha de una campaña de desinformación en su contra a través de redes sociales. La información que se hizo circular ponía en duda la salud mental de la candidata de Chile Vamos y, por ende, su capacidad para gobernar. El hecho generó un gran revuelo, pues la coalición de Matthei y el partido de Kast se encontraban en plenas negociaciones para conformar una lista parlamentaria única.

En ese contexto, un equipo periodístico del canal Chilevisión realizó un reportaje donde investigó algunas cuentas de redes sociales que reiteradamente atacaban a las candidaturas tanto de Matthei como de Jeannette Jara, candidata única de la centro izquierda que representa al oficialismo. El informe periodístico se centró en el comportamiento de cuentas anónimas que, desde hace algunos años, vienen publicando noticias falsas en contra del actual gobierno y de las candidatas. La investigación logró dar con el nombre de dos personas que estarían detrás de las cuentas investigadas, ambas ligadas al Partido Republicano.

Otro reportaje, del medio digital Reportea junto a Vergara 240, reveló más nexos: la Asociación de Administradoras de Fondos de Pensiones (AAFP) financió secretamente a la fundación “Ciudadanos en Acción”, la cual es dirigida por Bernardo Fontaine, actual integrante del comando de Kast. La investigación develó que la AAFP costea a la fundación desde 2019, a través de la agencia Artool, con el fin de articular campañas en contra de proyectos de reformas previsionales y de determinadas candidaturas presidenciales. La estrategia consistía en generar contenido digital en base a las directrices de la AAFP y con pagos en distintas direcciones para aumentar la viralización. Por un lado, a través de publicidad paga en Meta (para Facebook e Intagram) con un monto que supera los 200 millones de pesos -USD 215.000-. Además, dinero entregado a influencers para producir mensajes en contra de las reformas. Y, por otro lado, notas pagas en medios digitales, y masificación de contenidos del medio a través de una extensa red de bots, como parte del trato. Un elemento que resulta llamativo es que las personas financiadas para defender los intereses de la Asociación, tanto a través de cuentas públicas como anónimas, son las mimas denunciadas en el reportaje de Chilevisión de atacar a las candidatas presidenciales.

Estas revelaciones resultan preocupantes para los valores democráticos, no sólo en función de poder garantizar elecciones libres y transparentes, sino también desde una perspectiva de género. De las ocho candidaturas para esta votación, las únicas que sufrieron ataques cibernéticos son “casualmente” Matthei y Jara, las dos candidatas mujeres, reflejando un claro ejemplo de violencia política de género.

En el transcurso de estos meses, se estuvo hablando del uso de “bots” para describir el comportamiento mediante el cual cuentas anónimas se coordinaban para generar campañas de desinformación. Pasado un tiempo -y junto al abordaje de más medios-, se comenzó a diversificar el vocabulario, incluyendo los términos “troll” y “hater” para explicar lo que las investigaciones han develado. El objetivo de esta columna es aproximarnos a entender el funcionamiento de los bots, pero para ello primero haremos la distinción entre estos términos.

¿Qué son los trolls y los bots?

Estos conceptos ya forman parte del lenguaje propio de internet, por ello originalmente aparecen en inglés. Se aplican a redes sociales, foros y, más en general, a cualquier tipo de plataforma digital que permita la interacción entre personas usuarias, en especial si esa interacción puede dirigirse también a figuras públicas.

El término “Trolls”, originario de la mitología escandinava, se utiliza para referirse a cuentas anónimas que generalmente publican mensajes provocadores, desinformaciones o discursos de odio con la intención de perjudicar a ciertas personas o grupos, generando daños en su imagen pública. Su comportamiento es deliberado: son conscientes de que lo publicado es falso o abusivo.

Por su parte, “Bot” es un término coloquial que resulta de la abreviación de la palabra “robot”. Los bots son cuentas que funcionan de forma automatizada, mediante programación. Su accionar buscar producir mensajes o reacciones, incluso generar mayor volumen en la difusión de un mensaje, mediante interacciones que simulan ser humanas.

Los bots y su relación con internet, un poco de historia

Los bots con parte de la historia y de la arquitectura de internet: los primeros de los que se tiene registro datan de 1988. Ese año se creó el protocolo de mensajería de texto “Internet Relay Chat” (IRC), el cual fue muy popular durante sus primeras décadas y aún sigue vigente en nuestros días. Los bots que funcionaban bajo IRC consistían en programas computacionales que automatizaban algunas tareas dentro del sistema de mensajería.

A medida que internet crecía y diversificaba sus servicios, los bots se fueron adaptando a cada uno de ellos. Uno de los usos más relevantes que han tenido consiste en formar parte de los algoritmos de búsqueda a través de bots que indexan sitios web. Es así como, en 1994, se crea el primer indexador de sitios web que, un año más tarde, sería usado por AOL. Ya en 1996, una incipiente startup que hoy conocemos como Google lanzaba su bot BackRub para indexar el contenido de internet. Si bien los bots tienen un sinfín de utilidades legítimas, también se usaron para otros fines menos amables. A lo largo de la historia de internet, se han registrado numerosos ataques, de distinta índole y envergadura, a través de mecanismos como pueden ser la “denegación de servicio” o el “ransomware”.

En el mundo de las redes sociales, los bots son programas informáticos diseñados para simular interacciones humanas de forma automática. En la actualidad, es muy recurrente que las empresas generen canales de comunicación vía mensajería para responder a preguntas frecuentes -con mayor o menor éxito- mediante el uso de estos dispositivos.

En contextos donde proliferan las narrativas basadas en discursos de odio y desinformación, los bots son la herramienta predilecta para amplificar el alcance de esos mensajes. A través de la republicación de posteos o la interacción de los “me gusta”, pueden lograr la viralización de contenidos falsos o engañosos. Un ejemplo paradigmático en nuestra región fue la campaña de desinformación masiva que llevaron adelante los opositores de Evo Morales en 2019 para lavar la imagen del golpe de Estado y sumar simpatizantes. Hay evidencias que indicaron la existencia de una maniobra coordinada en redes sociales -decenas de miles de cuentas en Twitter creadas en pocas horas- para influir en la agenda pública global. El objetivo era imponer la idea de que el golpe no había sido tal y que el expresidente Morales estaba vinculado al narcotráfico y había propiciado un fraude electoral.    

Pescando bots: ¿cómo se pueden identificar interacciones artificiales?

Si bien las interacciones de estas cuentas automatizadas pueden parecer reales, existen algunos detalles que nos pueden ayudar a identificar que son artificiales. Vamos a repasar estos elementos.

  • Cuentas falsas: sus fotos de perfil no corresponden a una persona, los nombres de usuario parecen serializados con números largos luego de algún nombre o palabra.
  • Antigüedad de las cuentas: en muchos casos son cuentas que no poseen muchos años, o bien fueron creadas en un período acotado de tiempo.
  • Tendencias no orgánicas: cuando un contenido se viraliza y se convierte en tendencia de forma natural, sucede porque muchas personas lo comparten mediante una interacción distribuida entre numerosas cuentas, de forma no jerárquica. En el caso de tendencias generadas por bots, se puede notar que existe una, o un par de cuentas centrales, desde las que se cuelgan muchas otras para compartir, lo que demuestra un comportamiento mucho más jerárquico. En general identificarlo requiere de un análisis técnico pues es complejo notarlo a simple vista.
  • Comportamiento anormal: otro factor común es que muchas de estas cuentas solo comparten contenido de ciertos “usuarios” de forma reiterada. También es posible notar que al publicar comentarios, estos suelen ser inentendibles o confusos.

Los algoritmos generativos y los nuevos desafíos

Con la irrupción del uso masivo de algoritmos generativos, también llamados “Inteligencia Artificial Generativa” (GenAI), tales como ChatGPT, Gemini o DeepSeek, surgen nuevos desafíos a la hora de determinar cuándo es un programa el que está interactuando.

En marzo de este año, un estudio realizado por la Universidad de California evidenció que el modelo GPT-4.5 logró aprobar con 73% de efectividad la prueba de Turing. Esta prueba consiste esencialmente en que personas interactúan, a través de mensajería, con otras personas y con máquinas con el objetivo de determinar cuál es cual. Si la persona no logra distinguir entre la máquina y la persona, entonces se considera que el programa o la máquina pasó la evaluación.

El avance de los modelos nos propone nuevos retos al momento de reconocer cuándo un bot es el que está interactuando en las redes sociales, por lo que la tarea de generar análisis certeros se vuelve aún más compleja. Es importante considerar que el estado de desarrollo de los algoritmos generativos, no solo permite producir textos sino que también ya genera o manipula imágenes, audios y videos. Dicha gama de recursos agrega otro grado más de complejidad en la detección.

Desde el caso Cambridge Analytica, muchas organizaciones pusieron el foco en el efecto de las redes sociales sobre procesos eleccionarios. De la misma forma, podemos pensar en la influencia que tienen sobre temas sensibles de las agendas nacionales y regionales, y cómo a través de los bots determinados grupospueden lograr invisibilizarlos o atacarlos para obtener réditos en sus posturas.

Las redes sociales son un entorno complejo, por lo que encontrar una solución real al problema de los bots y la desinformación también puede resultar dificultoso. Aún así, deben existir medidas que puedan ayudar a mitigar su impacto: regulaciones efectivas que, sin la necesidad de una censura y acorde a los estándares de derechos humanos, puedan generar transparencia sobre las acciones que se deben ejercer ante las plataformas. Asimismo, es imprescindible que las corporaciones dueñas de las redes sociales tengan la voluntad de abrir canales para la colaboración con los entes encargados de velar por el cumplimiento de esas regulaciones. Desde Derechos Digitales, esperamos que “las plataformas digitales se preparen, teniendo una amplia colaboración con las autoridades, pero también con una serie de acciones proactivas que promuevan la transparencia de sus actos ante la desinformación”, tal como lo mencionamos en una columna, en virtud de las elecciones mexicanas de 2024.

Es de suma importancia que todos los actores interesados -legisladores, empresas tecnológicas, sociedad civil y academia- puedan trabajar para la construcción de ambientes eleccionarios democráticos, justos y participativos. Procesos electorales con mecanismos claros para combatir la desinformación, que no solo consideren el marco regulatorio, sino que también apunten a otras políticas como el fomento de campañas educativas que brinden a la población habilidades y herramientas para la detección de noticias falsas.

Emergencia climática y centros de datos: el nuevo extractivismo de las Big Tech

El cambio climático es un riesgo existencial, y los Estados deben actuar con decisión. Así lo sostuvo la Corte Interamericana de Derechos Humanos (Corte IDH) en una reciente Opinión Consultiva (OC32), solicitada por Chile y Colombia con el objetivo de que ésta aclarase el alcance de las obligaciones estatales en la lucha contra la crisis climática global.

En un momento muy oportuno, la Corte declaró la existencia de una emergencia climática en la región considerando, por un lado, los efectos de catástrofes ambientales recientes, como los incendios, inundaciones y derrames de petróleo que tuvieron lugar en 2024. Por el otro, el escenario geopolítico que avanza hacia desarrollos tecnológicos -como la Inteligencia Artificial- sin debidas garantías; y facilita la expansión de las Big Tech en América Latina, sin una evaluación adecuada de su huella ecológica, ni salvaguardas en derechos de la ciudadanía. Estas empresas operan bajo lógicas extractivistas que se aprovechan de los recursos energéticos y naturales de la región para sostener sus operaciones -particularmente el entrenamiento de modelos de IA-, muchas veces a costa del equilibrio de ecosistemas frágiles y del bienestar de las comunidades locales.

Tres claves de una Opinión compleja

La Opinión Consultiva es compleja y en su extensión se afirman distintas ideas clave, de las que rescatamos al menos tres.

La primera, la necesidad de considerar responsabilidades diferenciadas en tanto no todos los Estados ni sectores de la economía contribuyen de la misma forma a la emergencia climática. Quienes más contaminan y emiten gases de efecto invernadero (GEI) deben contar con mayores compromisos en los esfuerzos dirigidos a paliar las consecuencias del cambio climático.

En segundo lugar, la interrelación estrecha entre la protección del clima, la naturaleza y el medio ambiente, y TODOSlos Derechos Humanos. Las acciones de los Estados no pueden limitarse a abstenerse de causar daño ambiental, sino que deben ser activas y progresivas en miras a la protección de derechos fundamentales.

Y en tercer lugar, la obligación estatal de regular las operaciones de las empresas que contaminan para, por un lado, obligar a que adopten medidas efectivas para mitigar el impacto de su cadena de valor en el cambio climático, y aborden sus impactos en los Derechos Humanos. Y, por otro lado, para exigir que divulguen de forma accesible las emisiones de gases de efecto invernadero de su actividad empresarial.

Los centros de datos en América Latina: las crisis por venir

Estas obligaciones deben extenderse también a las políticas digitales. Se sabe que, para que la IA siga creciendo, se necesita una base física: los centros de datos. Estos funcionan sin pausa, día y noche, y consumen enormes cantidades de electricidad, agua y aire. El agua sirve para enfriar los servidores, la electricidad mantiene todo en marcha y alimenta los sistemas de enfriamiento, y el aire ayuda a disipar el calor como recurso alternativo. No es casual que las Big Tech vean en América Latina una fuente para la explotación de esos recursos a bajo costo económico y regulatorio.

Sin embargo, las consecuencias ambientales y sociales de esta actividad son preocupantes. El agua utilizada en estos procesos ya no puede destinarse al consumo humano. La elevada demanda energética puede tensionar infraestructuras ya frágiles, poniendo en riesgo el suministro básico para la población. Además, el uso intensivo de electricidad puede derivar en mayores emisiones de carbono, afectando la calidad del aire. Se estima que para 2030 los centros de datos estarán entre las industrias más contaminantes del planeta.

Varios países han aceptado la instalación de los mismos bajo promesas que no son del todo claras. Como la de la soberanía digital, un tanto abstracta al tratarse de infraestructuras privadas para sostener sistemas de IA propios; o la promesa de generación de fuentes de empleo, que suelen ser temporales o de baja calidad, insuficientes para justificar el daño ambiental.

En México, por ejemplo, empresas como Amazon, Microsoft y Google buscan instalar centros de datos en el desierto de Querétaro. Allí, la crisis hídrica, agravada por sequías extremas del último año, ha puesto a las comunidades afectadas en una situación crítica. Estas comunidades, que rechazan la idea de estas instalaciones tecnológicas, ya han enfrentado dificultades para acceder al agua frente a su explotación por parte de empresas locales.

En Colombia, la narrativa oficial de avanzar hacia una “nube soberana” ha conducido al país a la firma de acuerdos con Emiratos Árabes Unidos para emplazar centros de datos en Santa Marta. Se trata de una zona del Caribe conocida por tener uno de los más costosos servicios de electricidad del país. Además, el agua que beben las comunidades locales ha sido motivo de advertencia de medios y organizaciones sociales que denuncian su mala calidad y la deficiente cobertura del servicio para el consumo humano.

En Chile, la instalación de estos centros se hace bajo la promesa de la generación de empleos y de inversión en la industria local. Recientemente, Microsoft abrió su centro de datos en la región Metropolitana de Santiago, una zona que sufre una megasequía de más de una década. Y Google está rediseñando el despliegue del suyo, en la Comuna de Cerrillos, luego de que un tribunal ambiental obligase a la empresa a evaluar el impacto hídrico del proyecto en una zona donde el agua es escasa.

Brasil, que junto a México es uno de los mayores emisores de gases de efecto invernadero del mundo, avanza también la acogida de centros de datos. En la población de ElDorado do Sul, afectada en 2024 por una inundación calificada por el Estado como el peor desastre ambiental reciente, se instalará la “Ciudad de la IA”, un complejo masivo de centros de datos que ocupará una de las zonas más privilegiadas de la región por su elevación, lo que la beneficiaría ante futuras inundaciones. También se instalará uno propio de Tik Tok en Ceará, que sufre una sequía extrema, y que se estima que agotará el consumo energético de 2,2 millones de brasileños a diario.

Las Big Tech colonizan nuestros recursos y no rinden cuentas

Las Big Tech operan en la región bajo lógicas coloniales ancladas en la explotación de recursos esenciales. Pese a ello, las respuestas regulatorias, cuando se trata de abordar su impacto ambiental, parecen ampliar los beneficios de los que gozan a cambio de promesas de beneficios futuros poco verificables.

En Brasil, por ejemplo, las autoridades nacionales prometen exenciones de impuestos a los centros de datos. Y la elaboración de la política nacional  sobre la materia, que excluyó de participación al Ministerio de Ambiente, propone eliminar las licencias ambientales para “desburocratizar” su instalación por, supuestamente, no tener impacto ambiental.

Las autoridades a nivel local también avanzan en esa senda. Los Concejales de Rio Grande do Sul, donde se ubicará la “Ciudad de la IA”, aprobaron en 2024 una ley que genera exenciones impositivas y flexibiliza los procesos de licenciamiento ambiental para estos centros. Como agradecimiento, las empresas beneficiarias donaron 110 notebooks repartidas en 13 colegios públicos de la región, un gesto que enmarcaron como “promoción del progreso social”.

En Chile, en el mes de junio de 2025, se habría liberado de la obligación de evaluación de impacto ambiental a las Big Tech que instalasen centros de datos en el país.

Entonces, las legislaciones ambientales se ven enflaquecidas, al tiempo que las de regulación de la IA que avanzan en esos mismos países omiten cualquier abordaje serio sobre la materia. La falta de transparencia sobre su impacto ambiental, y su progresiva proliferación en el futuro cercano supondrían una mayor asfixia a la gestión de recursos críticos de países como los nuestros.

La expectativa de que ese crecimiento es tal que, en declaraciones recientes, Sam Altman, líder de OpenAI, responsable de ChatGPT, no descartó que en un futuro cercano todo el planeta estuviese cubierto de centros de datos.

Mientras tanto, las comunidades directamente afectadas suelen tener poca o ninguna participación en las decisiones políticas que definen el destino de los recursos naturales de los que dependen para vivir. Basta ver el caso de una comunidad en Chile. Vecinos organizados y con acceso limitado al agua enfrentaron el proyecto de instalación de un centro de datos de Google. Ante la presión social, las autoridades autorizaron la operación bajo una modalidad de refrigeración por aire en lugar de agua. Pero el conflicto en verdad no se resolvió, tan solo cambió de forma.

Pese a todo, hay motivos para la esperanza

La Opinión Consultiva OC-32/23 de la Corte IDH representa un hito en la consolidación del enfoque de Derechos Humanos frente a la crisis climática. La Corte no solo reafirma que el cambio climático constituye una amenaza real y presente para el ejercicio pleno de los derechos fundamentales, sino que subraya la obligación de los Estados de actuar con urgencia, ambición y coherencia para mitigar sus efectos y proteger a las poblaciones en situación de vulnerabilidad.

Sin embargo, este pronunciamiento también deja planteada una tarea crucial que aún permanece pendiente: abordar con mayor contundencia el papel del sector privado, y en particular de las grandes corporaciones tecnológicas, en la generación y profundización de esta crisis. La responsabilidad ambiental de las Big Tech no puede seguir diluyéndose bajo el discurso de la innovación sin límites o su autorregulación.

En este contexto, los Estados deben asumir con decisión su papel de reguladores en materia ambiental considerando la declaratoria de emergencia climática de la Corte IDH. Esa función debe ser ejercida teniendo a la Opinión Consultiva como base de la discusión para fortalecer mecanismos de transparencia, auditoría de sus operaciones y participación social frente a proyectos extractivistas, como los de los centros de datos.

Por su parte, hay que advertir que la regulación ambiental y las normas sobre IA no pueden operar como marcos aislados ni contradictorios entre sí: deben integrarse en una visión común, coherente y participativa, orientada a garantizar la sostenibilidad del planeta y la dignidad de todas las personas.

Aunque el panorama parezca retador, también se abren puertas de esperanza. Recientemente, otra Opinión, de la Corte Internacional de Justicia de las Naciones Unidas, también se expresó sobre esta materia y reafirmó cómo, en omisión de sus deberes de regular al sector privado y su impacto ambiental, los Estados pueden llegar a ser demandados por otros Estados, y ser encontrados responsables por su inacción.

La tarea de quienes trabajamos en la sociedad civil, será apropiarnos de estos instrumentos legales para exigir por todas las vías posibles una mayor rendición de cuentas para enfrentar este problema de dimensiones globales que no da espera.

Inteligencia artificial y libertad de expresión: aporte a la Consulta para la Declaración Conjunta

Este documento presenta el aporte oficial de Derechos Digitales a la consulta pública organizada por los Relatores Internacionales para la Libertad de Expresión: el Relator Especial de las Naciones Unidas (ONU) sobre la Promoción y Protección del Derecho a la Libertad de Opinión y Expresión, el Representante para la Libertad de los Medios de la Organización para la Seguridad y la Cooperación en Europa (OSCE), el Relator Especial para la Libertad de Expresión de la Organización de Estados Americanos (OEA) y el Relator Especial para la Libertad de Expresión y Acceso a la Información en África de la Comisión Africana de Derechos Humanos y de los Pueblos (ACHPR).

Esta consulta, que recibió aportes hasta el 28 de julio de 2025, servirá de base para una Declaración Conjunta sobre Inteligencia Artificial y Libertad de Expresión.

Nuestro aporte se sustenta en la experiencia regional en América Latina y se centra en los impactos de la inteligencia artificial (IA) y de los sistemas de IA generativa (GenAI) sobre la libertad de expresión, el pluralismo informativo y la participación democrática.

Hacia una convención para regular el trabajo de plataformas: un avance frente a los desafíos del mercado laboral

Las Tecnologías de Propósitos Generales -o GPTs- han tenido impactos significativos en el mercado laboral durante el último siglo. Esta última ola, caracterizada por las innovaciones en algoritmos e Inteligencia Artificial (IA), ya comienza a mostrar sus primeras consecuencias en términos de empleo. En general, los estudios identifican evidencia suficiente para afirmar que la IA generativa ha perjudicado la generación de empleo y los ingresos del sector freelance. Sin embargo, esto pareciera darse más que nada en las ocupaciones de ingresos medios y bajos, y más aún en los rangos etarios inferiores.

El avance acelerado de tecnologías como la IA y los sistemas automatizados de gestión del trabajo está transformando profundamente las dinámicas laborales a nivel global. En este contexto, la necesidad de contar con un marco normativo robusto y con alcance internacional se vuelve urgente: regular el trabajo en plataformas digitales implica también establecer límites y obligaciones claras sobre el uso de tecnologías como la IA en el mundo del trabajo, garantizando justicia algorítmica, protección social y derechos laborales efectivos para todas las personas trabajadoras, sin importar su estatus contractual o la ubicación de la empresa.

Es por ello que resulta crucial el abordaje sobre el Trabajo Decente en Plataformas y la importancia de su instalación en la agenda regulatoria internacional. La 113ª Conferencia Internacional del Trabajo (CIT), celebrada en Ginebra en junio de 2025, marcó un hito en la agenda global del trabajo: por primera vez, se avanzó formalmente hacia la elaboración de un instrumento internacional para regular el trabajo en plataformas digitales. En un escenario laboral transformado por las tecnologías digitales, este paso no es menor. El mandato final fue claro: se acordó avanzar hacia la redacción de una convención vinculante, acompañada por una recomendación, como marco para garantizar derechos básicos a aquellas personas cuyo trabajo es intermediado por plataformas digitales.

¿Qué nos deja la CIT 2025?

Este avance implica el reconocimiento por parte de los Estados, empleadores y trabajadores -los tres pilares de la OIT- de que la economía de plataformas no puede continuar operando sin garantizar condiciones justas. Y sobre todo, que las reglas para el trabajo decente deben ser globales: las plataformas operan transnacionalmente y los vacíos legales que explotan hoy se convierten en nuevas formas de desprotección.

Uno de los aspectos centrales fue la definición del alcance del futuro instrumento. Se llegó a un consenso para que abarque tanto a quienes desempeñan tareas “basadas en la localización” -como reparto, transporte o cuidado- como a quienes realizan trabajo “remoto” a través de plataformas digitales. Esta concepción amplia resulta especialmente relevante para América Latina, donde la fuerza laboral en plataformas está conformada en buena medida por personas de ingresos medios y con escasa calificación requerida, involucradas tanto en actividades presenciales como en servicios digitales a distancia -como la traducción de textos o el procesamiento de datos-. Ambos sectores, como vimos anteriormente, enfrentan con especial énfasis los efectos de la innovación tecnológica y la falta de marcos regulatorios adecuados.

Desafíos persistentes

Sin embargo, la CIT también expuso las tensiones profundas que persisten sobre qué tipo de trabajo debe regularse y cómo. Los puntos más críticos donde no hubo avances sustantivos son los mismos que hoy generan disputas en nuestros países:

1- La presunción de laboralidad, es decir, reconocer como regla general que quienes trabajan para una plataforma lo hacen en relación de dependencia y no como “autónomos” ficticios.

2- La definición de una remuneración adecuada: la tecnologización aporta flexibilidad a muchas tareas e incluso impacta en la productividad. Sin embargo, esto implica en muchos casos la dedicación de jornadas largas debido a la acumulación de múltiples tareas no consideradas como remunerables. Asimismo, el debate instaura discusiones en torno al uso de indicadores para establecer estas remuneraciones: ¿qué consideramos como ingreso digno?

3- La determinación del tiempo de trabajo: una categoría básica en el derecho laboral, pero borrosa en un sistema que exige estar disponible sin garantizar ingresos mínimos.

4- Habiendo suficiente evidencia sobre los sesgos discriminatorios que reproducen los algoritmos más allá de su diseño u origen, un tema de especial relevancia fue la transparencia y auditabilidad algorítmica. Debido a la asimetría de información entre las personas trabajadoras y las plataformas, se discutió la necesidad de que las plataformas informen de forma clara y accesible cómo operan sus algoritmos de asignación de tareas, evaluación del rendimiento y determinación de ingresos. Sin embargo, aún resta brindar claridad sobre cómo regular las decisiones automatizadas y su impacto en las personas trabajadoras.

5- Y, finalmente, resta profundizar el debate sobre los mecanismos de control y la posibilidad de aplicar la legislación local para resolver conflictos, un punto clave para evitar que las plataformas operen en zonas grises de legalidad.

El caso latinoamericano es ilustrativo: la mayoría de los países no cuentan con legislación específica sobre plataformas, y muchas de las iniciativas que buscaron avanzar en esa dirección han quedado truncas o debilitadas. A la vez, las reglas existentes han mostrado limitaciones para garantizar protección efectiva a las personas trabajadoras, porque fueron desarrolladas sin tomar en cuenta estos escenarios,  o por una debilidad de las instituciones encargadas de su supervisión y aplicación. Mientras tanto, las personas trabajadoras enfrentan bloqueos de cuentas sin justificación, ingresos inestables y jornadas extenuantes.

CIT 2026, una oportunidad histórica

En este contexto, el proceso iniciado en la CIT representa una ventana de oportunidad única. El próximo año será decisivo: en la CIT 2026 se definirá la aprobación (o no) del instrumento. Para que esta instancia sea efectiva, será necesario un trabajo articulado y sostenido por parte de sindicatos, organizaciones de la sociedad civil, investigadores y gobiernos. La participación de América Latina -aunque presente en las delegaciones gubernamentales- fue aún limitada desde la sociedad civil. Fortalecer esa voz será clave para que las demandas del Sur Global tengan peso en la redacción final.

Las nuevas tendencias del mercado laboral ya son tangibles. Vemos una realidad teñida de nuevos esquemas de productividad, sectores con perfiles de mayor demanda y otros en estancamiento. Ahora llegó el momento de definir en qué condiciones seguirá esta transformación: que esta realidad garantice derechos fundamentales con mecanismos de protección será responsabilidad de quienes, desde distintos frentes, podamos incidir en esta etapa.

Las tecnologías deben mitigar el cambio climático, no profundizarlo

«Transforma esta foto como si perteneciera al universo visual de Studio Ghibli, conservando el fondo y la pose. Aplica sus rasgos característicos: colores, trazos y texturas», este es el tipo de instrucción con la que el modelo conversacional de Inteligencia Artificial “ChatGPT” generó las imágenes que, un tiempo atrás, fueron tendencia en redes sociales y que atrajo a nuevas personas usuarias a la plataforma. Medios digitales saturados de nuevas publicaciones  y servidores de alojamiento remoto trabajando para almacenar los archivos recién creados fueron servicios muy demandados durante los días que duró la fiebre Ghibli. ¿Cuál fue el impacto ambiental? El más visible, sin duda, es el consumo de agua para el enfriamiento de servidores,  con un promedio estimado de 3 litros de agua por imagen generada

Ahora imaginemos el impacto ambiental de desechar mil computadoras de uso personal por segundo. Es el equivalente para los 62 millones de toneladas de residuos electrónicos generados a nivel mundial, según se registró en el año 2022. Considerando que el número de personas usuarias de internet en el mundo alcanzó los 5560 millones a principios de 2025, la demanda de recursos, tanto en software como de hardware, solo incrementará en los próximos años, dependiendo del  tipo de tecnología que se despliegue. ¿La solución al evidente problema es detener el avance tecnológico y su uso?

La solución no puede estar más lejos de eso. Aunque los modelos de producción tecnológica se basan en una lógica extractivista, sin considerar costos sociales o ambientales, las tecnologías tienen potencial para reducir el impacto. El uso eficiente de la infraestructura tecnológica es clave para mitigar la huella ambiental. Ciertas innovaciones incluso permiten reducir el uso de recursos naturales si son desplegadas adecuadamente. Algunos ejemplos son la computación en la nube, computación grid y virtualización en centros de datos: modelos que  se comportan como si fueran infraestructuras independientes mientras comparten recursos de un mismo servidor o red de servidores.

Si pensamos en el ciclo de vida de la tecnología, podríamos resumir las fases en: diseño, desarrollo y despliegue. Esta última etapa se realiza en infraestructuras robustas y resilientes, capaces de soportar altos niveles de demanda y peticiones por segundo garantizando respuestas rápidas. La magnitud del consumo varía según el tipo de servicio. Aunque en las fases previas también se requiera infraestructura, el consumo comienza a escalar cuando llega a su etapa de producción (despliegue), aumentando la demanda de energía y sistemas de enfriamiento para los centros de datos.

Algunas acciones para mitigar el impacto

Frente a un escenario que exige día a día más recursos, una de las alternativas es avanzar hacia la descarbonización del sector energético . Se trata de sustituir fuentes fósiles como carbón, petróleo y gas natural por insumos renovables como la energía solar o eólica. Algo de esto analizamos un tiempo atrás a raíz de la crisis energética en Ecuador.

Esta alternativa consolidó una nueva carrera por la neutralidad en emisiones de carbono. Así, multinacionales del sector tecnológico aseguran haber alcanzado esta neutralidad en emisiones de carbono y sostienen compromisos por lograr que toda su cadena de suministro y productos lo sean también. Sin embargo, la veracidad de las declaraciones y los mecanismos utilizados siguen bordeando el greenwashing, una práctica que busca confundir a las personas usuarias sobre el impacto medioambiental real de una empresa o producto. Así mismo, la sustitución de materiales al momento de construir piezas electrónicas o componentes, sin sacrificar rendimiento y calidad, ofrece una oportunidad competitiva a mercados que se aventuran a revolucionar la tecnología. Por ejemplo, en China, donde luego de atravesar limitaciones para el uso de microprocesadores basados en silicio, desarrolló un chip libre de este componente y lo reemplazó por bismuto reduciendo el consumo energético en un 10% e incrementando su velocidad en un 40%.

Otro esfuerzo  es el diseño de infraestructuras para una economía circular, un modelo económico que busca minimizar el desperdicio y maximizar el valor de los recursos, productos y materiales. Desde el inicio, es importante pensar en medidas como plantas de producción modulares y que puedan ser actualizadas, reutilizadas y reciclados sus materiales, además de planificar la recuperación de productos al final de su vida útil. Esto es aún más urgente considerando que solo alrededor de la cuarta parte de la basura electrónica es reciclada correctamente, dejando toneladas de residuos sin tratamiendo adecuado y desperdiciando recursos valiosos, en su mayoría, no renovables. 

Por otro lado, los centros de datos requieren condiciones mínimas para operar adecuadamente como seguridad, capacidad de almacenamiento, transferencia de datos, refrigeración y otros. Pensando en el enfriamiento de un data center promedio, se estima que consume 25 millones de litros de agua al año, lo que equivale a 68 mil litros por día. ¿Y si sumamos el consumo de todas las grandes empresas conocidas que gestionan redes sociales, navegadores web y tiendas en línea? Este consumo puede reducirse si se despliega  en zonas con con climas fríos o cerca de aguas de mar profundas. Un esfuerzo que considera la eficiencia energética y uso de agua es Green Mark Certification for Data Centres en Singapur. 

Un compromiso compartido

La gobernanza de las infraestructuras tecnológicas debería centrarse en la justicia ambiental, respetando y promoviendo derechos y sostenibilidad. Las decisiones sobre qué tecnologías se desarrollan, cómo y para quiénes, deben incorporar una perspectiva social y ambiental en todas sus etapas. Desde la planificación de explotación de minerales necesarios para la construcción de componentes electrónicos hasta el uso de una IA para enseñar idiomas en territorios indígenas, todo debe regirse por modelos de gobernanza comunitarios y no por lógicas extractivistas.

Además, es fundamental incentivar iniciativas que potencien proyectos como redes de Internet autosustentables en comunidades, centros de datos locales y uso de tecnologías, que potencien capacidades situadas. A esto se suma la ciencia abierta, el conocimiento libre y el código abierto como componentes estratégicos para la autonomía e independencia de infraestructuras corporativas y privadas.

El equilibrio entre tecnología y medio ambiente solo será posible si transformamos  la infraestructura digital desde su origen, haciéndola parte de la solución y no del problema. Esto implica proyectar fábricas impulsadas con energía solar in situ, centros de datos enfriados con agua del mar sin riesgos ambientales, procesos de desmontaje eficientes en instalaciones de reciclaje adecuadas y redes inteligentes de distribución, como documenta Google con el proyecto IA de DeepMind, que redujo un 40% el consumo energético para refrigeración.

Pero nada de esto será suficiente sin una voluntad política y ética clara. Reconocer la interdependencia entre sostenibilidad ecológica y equidad social es solo el primer paso: lo que sigue es actuar colectivamente para transformar modelos tecnológicos actuales. Urge reducir la dependencia de sistemas corporativos opacos y avanzar, desde la sociedad civil, comunidades, gobiernos y el sector privado, en la construcción de  de políticas públicas, normativas e infraestructura que prioricen el bien común, fomenten la justicia social y ambiental, y garanticen transparencia y rendición de cuentas a toda la ciudadanía.

Hablar en clave para existir: resistencias digitales frente a la censura algorítmica

Estas frases alteradas aparecen en redes cada vez que abordamos temas que desafían las normas impuestas por el algoritmo: 4bu$o s3xual, su1c1d1o, desvivir. Se le llama “algospeak” a estas estrategias de lenguaje que buscan eludir la vigilancia de plataformas como TikTok, YouTube o Instagram a ciertos contenidos considerados inapropiados. Así se forma un código lleno de caracteres y eufemismos que no surge de la creatividad, sino de la necesidad de resistir un sistema que a menudo castiga la discusión de una realidad muchas veces incómoda mediante el silenciamiento.

La gestión algorítmica no solo limita el presente, también interviene en la posibilidad de construir futuros más justos. Al condicionar qué narrativas son visibles y cuáles no, los algoritmos afectan directamente la capacidad de articular ideas, reflexiones, desacuerdos y alternativas.

Las voces que denuncian violencias estructurales son etiquetadas como “inapropiadas” o simplemente eliminadas. De hecho, las personas defensoras de derechos humanos, activistas y periodistas son especialmente afectadas, porque sus relatos son sistemáticamente considerados como “sensibles” o “peligrosos” por sistemas que no entienden el contexto ni el propósito de las expresiones detectadas por los filtros automatizados.

Esta jerarquización automática de los discursos revela una visión del mundo profundamente sesgada. El algospeak es síntoma de un entorno que redefine lo que podemos decir, que aplica controles automáticos y reorganiza lo que consideramos importante. Pero el daño no es solo individual: afecta también lo que recordamos y cómo construimos colectivamente nuestros relatos en la defensa de los derechos humanos.

La doble vara del algoritmo

Los estándares de las plataformas no se aplican con el mismo rigor para todos los contenidos ni para todas las voces. Un ejemplo claro de este desbalance ocurrió en México, cuando publicaciones que denunciaban abusos policiales fueron eliminadas por usar música con derechos de autor. Aunque el objetivo era denunciar violencia institucional, el algoritmo priorizó la protección de propiedad intelectual por sobre el derecho a la verdad y la justicia. Al mismo tiempo, contenidos que promovían discursos misóginos o racistas se mantuvieron visibles sin consecuencias.

Esta doble vara, que castiga la denuncia y deja pasar el abuso, no es un error: es una consecuencia directa de sistemas diseñados sin contexto, sin perspectiva de derechos y sin rendición de cuentas. Se censuran las pruebas, pero no las violencias. Se penalizan las denuncias, pero no las estructuras que las provocan. Al proteger ciertas narrativas y silenciar otras, los algoritmos refuerzan el statu quo y erosionan las posibilidades de transformación social.

Además, según recoge la Red Internacional de Periodistas, este es un juego asimétrico. En ese laberinto de claves y restricciones, lo que está en riesgo no es solo el alcance inmediato; las denuncias se vuelven más difíciles de rastrear, y la información concreta de organizaciones, activistas o movimientos sociales desaparece para quienes más la necesitan.

El impacto en la acción colectiva y la memoria

El control automático que penaliza palabras sin ponerlas en contexto condiciona la forma en que narramos nuestras luchas, ya que nos obliga a moldear las palabras que usamos para nombrar nuestras realidades. En muchos casos, estas son palabras que han costado años conceptualizar y consensuar dentro de los movimientos sociales. Al no llamar las cosas por su nombre, se diluye el mensaje y se fragmenta la memoria colectiva.

Como advierte la revista Forced Migration Review, cuando comunidades en condiciones vulnerables se reapropian de términos o usan lenguajes de denuncia, los algoritmos parecen ser más efectivos para eliminar sus contenidos que para moderar discursos de odio o acoso que les atacan. Este desbalance se vuelve crítico cuando miramos quiénes quedan sistemáticamente fuera de las reglas del juego. Las experiencias de personas refugiadas y/o racializadas, por ejemplo, se vuelven aún más invisibilizadas.

Existe un desfase entre los contextos locales y las reglas impuestas globalmente por las plataformas. Muchas veces, los sistemas de moderación algorítmica no están adaptados a las realidades sociales, culturales y lingüísticas de comunidades del Sur Global, lo que intensifica la exclusión digital. Una palabra que en un idioma puede ser una forma legítima de denuncia, en otro es catalogada como violenta o riesgosa. Esta desconexión refuerza la desigualdad en el acceso a la palabra pública y subraya la necesidad de una moderación en el entorno digital que escuche y responda a las realidades plurales que habitan internet.

Quienes dominan los códigos pueden sortear la censura; quienes no, quedan afuera de la conversación. El Digital Future Society alerta que a activistas, creadores de contenido y periodistas se les exige desarrollar un lenguaje que se reinventa una y otra vez frente a la opacidad algorítmica. Pero cuando las palabras cambian constantemente para eludir la censura, se vuelve más difícil ponerlas en común y hacerlas accesibles para otras personas. Frente a estas restricciones debemos repensar cómo nos comunicamos y qué estrategias podemos adoptar.

¿Cómo resistimos?

Nombrar con claridad es un acto político. Llamar las cosas por su nombre, sin eufemismos, es también una forma de resistencia. Reapropiarse del lenguaje algorítmico no significa aceptarlo, sino visibilizarlo como síntoma de un sistema injusto. Algunas organizaciones ya crean glosarios y recursos compartidos para descifrar el algospeak, como el Algospeak Dictionary del Colectivo de Derechos Digitales para la Salud y los Derechos Sexuales y Reproductivos. Democratizar estos conocimientos es clave para que más personas puedan resistir y participar.

También necesitamos exigir mayor transparencia algorítmica. Las plataformas deben explicar cómo moderan y bajo qué criterios y con qué sesgos. Este reclamo no es técnico: es político. Implica defender la libertad de expresión, pero también proteger los temas políticos, culturales y sociales que importan y que hoy están siendo eliminados por sistemas automatizados.

Por último, urge construir y habilitar redes que no estén subordinadas a intereses corporativos. Espacios descentralizados como el fediverso, los medios comunitarios, cooperativas digitales o las alianzas entre organizaciones pueden resguardar nuestras narrativas y sostener la memoria. Resistir también es cuidar redes donde nuestras palabras no sean censuradas por algoritmos opacos.

Palabras que pesan

Las palabras tienen peso. Y cuando las escribimos completas, aunque duelan, aunque molesten, estamos recordando que hay cosas que no pueden ser contenidas, ni siquiera por un algoritmo. Recuperar el lenguaje, cuidarlo y defenderlo es una tarea urgente para quienes luchan por una internet más justa.

En tiempos de automatización y censura silenciosa, reapropiarnos del derecho a nombrar también es reapropiarnos del derecho a existir. No basta con adaptarse: necesitamos transformar el entorno digital para que nuestras palabras no tengan que esconderse.

¿Quién cuenta nuestras historias? Periodismo automatizado y derechos fundamentales

En los últimos años, las herramientas de inteligencia artificial han comenzado a ocupar un lugar cada vez más visible en las redacciones de medios de América Latina. Desde asistentes que ayudan a transcribir entrevistas hasta sistemas que generan notas automáticamente, la promesa es clara: más eficiencia, menos carga laboral, menor costo y mayor productividad. Pero en un contexto de precarización, concentración de medios y saturación de desinformación, la pregunta no puede ser solo técnica: ¿qué implica automatizar la producción de noticias? ¿Qué se pierde cuando desplazamos el criterio humano por decisiones algorítmicas? ¿Y qué derechos están en juego cuando delegamos funciones clave a tecnologías opacas, que pueden comprometer la privacidad de las personas o exponer datos sensibles sin garantías claras?

Las tecnologías no son neutras, ni inevitables. Cómo se diseñan, a quién benefician y en qué condiciones se integran son decisiones profundamente políticas. Cuando hablamos de IA en el periodismo, lo que está en juego no es solo el futuro del oficio, sino también la calidad del debate público, la diversidad de voces y el derecho a una información verificada, plural y libre.

La IA no se equivoca, simplemente inventa

Uno de los mayores peligros del uso de IA en el periodismo no radica únicamente en sus limitaciones técnicas, como su capacidad para generar contenidos falsos con un tono convincente, sino en cómo estas herramientas son incorporadas en las prácticas periodísticas sin un control adecuado. A estas falsedades se les conoce como “alucinaciones”: errores que no son simples imprecisiones, sino construcciones completamente ficticias, presentadas con seguridad estilística. El riesgo aumenta cuando estas herramientas se integran en flujos de trabajo sin revisión humana o se utilizan para cubrir temas sensibles con escasa verificación, desplazando criterios editoriales por resultados automatizados, ajenos al contexto y desvinculados de toda responsabilidad profesional.

Durante el panel internacional “Inteligencia Artificial y Periodismo: ¿Cómo los medios están cubriendo y utilizando la IA en América Latina?”, organizado por la UNESCO en el marco del Día Mundial de la Libertad de Prensa de este año, periodistas de todo el mundo, autoridades y expertas alertaron sobre este fenómeno. Se coincidió en que, lejos de reemplazar el trabajo periodístico, la IA exige una nueva capa de responsabilidad: todo contenido generado o asistido por sistemas automáticos debe ser verificado, contrastado y contextualizado. Usar estas herramientas sin revisión humana no es innovación, es una forma acelerada de erosionar la confianza pública.

Entre precariedad y automatización

La adopción de IA ocurre en un escenario de crisis estructural para el periodismo. En América Latina, muchas redacciones enfrentan recortes presupuestarios, tercerización de funciones editoriales y presión por producir más contenido en menos tiempo. En este contexto, las tecnologías generativas parecen una solución fácil: automatizar notas de economía, clima o espectáculos para ahorrar tiempo y recursos.

Pero esta lógica plantea una falsa dicotomía: ahorrar costos a cambio de debilitar el oficio. En algunos casos, ya se han documentado errores graves en medios internacionales que usaron IA sin control editorial, como la publicación de artículos fabricados o entrevistas a personas inexistentes. El impacto no es solo reputacional, también precariza aún más el trabajo de periodistas, editores y correctores, consolidando un modelo donde la automatización reemplaza capacidades humanas sin generar condiciones más dignas ni sostenibles para quienes sostienen el oficio.

En tiempos donde el periodismo atraviesa una crisis de credibilidad en muchas partes de la región, automatizar sin criterio no es una solución, sino que es una forma de agravar el problema. El periodismo no es solo producción de contenido; es ejercicio crítico, narración situada, atención al contexto y responsabilidad pública. Cuando se reemplaza por sistemas que priorizan la cantidad sobre la calidad, el resultado no es eficiencia, sino desinformación con apariencia de legitimidad, amplificada por la credibilidad institucional de los medios que la reproducen. La automatización acrítica debilita tanto la calidad como la confianza en el periodismo como herramienta democrática.

Las fuentes no son prompts

Uno de los puntos más delicados -y muchas veces invisibles- del uso de IA generativa en el periodismo tiene que ver con la protección de fuentes. Ingresar información confidencial en sistemas como ChatGPT o Gemini, por ejemplo, para redactar un borrador o resumir una entrevista, implica entregar esos datos a empresas cuyos términos de uso permiten almacenarlos, analizarlos o utilizarlos para seguir entrenando sus modelos. En la práctica, esto significa que nombres, descripciones, detalles sensibles sobre hechos o incluso fragmentos de testimonios pueden quedar registrados en servidores externos, sin garantías sobre su eliminación o uso futuro.

Esto no solo va en contra del principio básico de confidencialidad periodística. También expone a personas que entregaron testimonios bajo promesas de reserva, especialmente en contextos de riesgo como la violencia de género, la corrupción o los conflictos socioambientales, donde una filtración de información puede tener consecuencias graves. La tecnología puede facilitar tareas, pero no debe jamás poner en peligro a las fuentes, ni debilitar las condiciones bajo las que se resguarda su información.

En América Latina, con intentos regulatorios sobre la IA y nuevas reglas sobre datos personales, como la nueva Ley de Protección de Datos Personales en Chile que establece obligaciones claras sobre el consentimiento, la proporcionalidad y la finalidad del tratamiento de datos, este punto cobra aún más relevancia. Las y los periodistas tienen la responsabilidad de aplicar esos principios no solo frente a personas terceras, sino también frente a las plataformas que usan en sus procesos de trabajo, asumiendo que toda herramienta digital forma parte del entorno de riesgo que debe ser evaluado críticamente.

Principios y propuestas para un uso responsable de la IA

Frente a este panorama, no todo son alertas. Existen esfuerzos concretos para promover un uso ético de la IA en el periodismo. Uno de los más relevantes es la Carta de París sobre inteligencia artificial y periodismo elaborada por Reporteros Sin Fronteras (RSF) y publicada en 2023, que establece un decálogo de principios éticos para enfrentar los desafíos actuales.

Entre sus recomendaciones destacan la necesidad de transparencia sobre el uso de herramientas automatizadas, la trazabilidad del contenido generado por IA, la supervisión editorial humana obligatoria, la garantía de que la IA no sustituya funciones esenciales del periodismo y el compromiso con una gobernanza tecnológica centrada en derechos humanos. Esta carta no solo interpela a medios y periodistas, sino también a gobiernos, desarrolladores y plataformas tecnológicas, recordando que el ejercicio periodístico no puede depender de sistemas cuya lógica excluye la responsabilidad pública.

A nivel práctico, ya existen iniciativas que avanzan en la implementación de estos principios. Algunos medios han comenzado a etiquetar de forma explícita el contenido generado por IA, a establecer protocolos de revisión y a capacitar a sus equipos en el uso crítico de estas herramientas. También se discute la incorporación de cláusulas éticas en los contratos con proveedores tecnológicos y la creación de mecanismos colectivos de evaluación y rendición de cuentas, especialmente en redacciones independientes y comunitarias.

La tecnología puede ser aliada, pero siempre bajo marcos de transparencia, ética profesional y respeto por las personas. Eso implica comprender sus límites, evaluar críticamente cómo está diseñada y qué efectos produce, y evitar delegar en sistemas automatizados decisiones que exigen contexto, criterio editorial y responsabilidad humana. Usarla con cuidado no solo protege el ejercicio periodístico, sino que también garantiza el derecho de las audiencias a recibir información confiable, diversa y producida con estándares de integridad.

Periodismo, democracia y tecnología

La automatización en el periodismo no es un escenario neutral. Puede ayudar a abordar tareas operativas en contextos de sobrecarga, reducción de equipos o necesidad de mejorar la accesibilidad de ciertos contenidos. Pero cuando se adopta sin criterios de justicia, equidad y responsabilidad, también puede profundizar problemas ya existentes como la precarización laboral, pérdida de diversidad en las coberturas y deterioro del juicio editorial. Informar es una función pública y una responsabilidad con la sociedad, no una tarea replicable sin contexto por sistemas opacos.

En América Latina, donde el espacio cívico se reduce, donde el acceso a la información muchas veces depende de medios independientes, y donde las amenazas a periodistas se multiplican, proteger el periodismo es también proteger la democracia.

Por eso, las decisiones sobre cómo se usa la IA en la producción de noticias no pueden quedar en manos de unos pocos actores tecnológicos. Deben involucrar a periodistas, audiencias, legisladores, editores, academia, sociedad civil y defensores de derechos humanos. Porque si el periodismo se transforma, debe hacerlo sin perder la capacidad de escuchar, cuestionar y poner en el centro las historias que merecen ser contadas.

Por un trabajo digno en la era de los algoritmos

El legado del primero de mayo en el entorno digital latinoamericano

Cada Primero de Mayo, el mundo conmemora la histórica lucha por los derechos laborales, recordando las demandas por derechos como una jornada justa, salarios dignos y condiciones de trabajo seguras. Esta fecha, arraigada en las movilizaciones obreras del siglo XIX, nos invita a reflexionar sobre el estado actual del mercado laboral y los desafíos que aún persisten, especialmente en un contexto global marcado por la rápida incidencia de las tecnologías digitales.

El mercado laboral latinoamericano, si bien diverso en sus matices nacionales, comparte desafíos comunes en cuanto a la protección de los derechos laborales. La persistencia de la informalidad –promediando casi la mitad de la población empleada en la región– continúa erosionando la capacidad de las personas trabajadoras para acceder a protecciones básicas como seguridad social, vacaciones pagadas y estabilidad en el empleo. En este escenario, la promesa de flexibilidad y autonomía ofrecida por las plataformas digitales de trabajo bajo demanda ha encontrado un terreno fértil para su expansión, presentando alternativas prácticas de generación de ingresos para poblaciones en situación de vulnerabilidad. Sin embargo, como exploramos en nuestra columna sobre la «paradoja de la flexibilidad», esta aparente libertad a menudo enmascara una realidad de precariedad, inestabilidad y una creciente dependencia de sistemas de gestión algorítmica opacos.

Invito a reflexionar con lo siguiente: imagine que su teléfono vibra con una notificación fría e impersonal, «Su cuenta ha sido suspendida por violar los términos y condiciones». Intenta recordar qué pudo haber hecho mal, repasa mentalmente las extensas cláusulas que quizás leyó por encima al registrarse, pero la razón específica se escurre entre la ambigüedad del mensaje. Intenta apelar, buscar una explicación humana, pero se topa con respuestas automatizadas que no llevan a ningún lado. Su fuente de ingresos se ha cortado totalmente de un momento a otro. Este escenario no es hipotético para quienes dependen de plataformas y para quienes la suspensión de una cuenta significa quedarse sin sustento. Para otras personas quizás sea una herramienta para complementar ingresos o manejar sus horarios; pero para muchas en nuestra región, especialmente para quienes encuentran en estas plataformas su única oportunidad laboral, la realidad es muy distinta. Mientras algunas personas pueden elegir cuándo y cómo trabajar, otras se ven atrapadas en la urgencia de aceptar cualquier tarea disponible –sin margen para negociar o rechazar–, en labores que exigen menor calificación. ¿Estamos hablando entonces de una fuente de trabajo flexible, o una nueva forma de vulnerabilidad laboral?

Es tiempo de ponerle reglas al algoritmo

La irrupción de tecnologías como los algoritmos, las plataformas digitales y la inteligencia artificial en el ámbito laboral plantea tanto oportunidades como desafíos sin precedentes para los derechos de las personas trabajadoras. Por un lado, se argumenta que la automatización tiene el potencial de liberar de tareas repetitivas (como la revisión de códigos) o riesgosas (como ciertos controles médicos), o que impulsará la productividad, abriendo nuevas opciones de empleo en sectores emergentes. Sin embargo, en diversos sectores desde la manufactura hasta los servicios, los algoritmos gestionan tareas, evalúan el desempeño, asignan trabajos o tarifas e incluso toman decisiones sobre la contratación y el despido.

Esto conlleva a que estas mismas tecnologías pueden exacerbar las vulnerabilidades existentes. Facilitan nuevas formas de explotación, vigilancia y control, especialmente en sectores carentes de regulación adecuada y alta informalidad como el reparto de mercaderías o el servicio doméstico. En estos rubros aquellas problemáticas pueden verse profundizadas, ya que es común ver a su fuerza de trabajo sumergida en una narrativa que ni siquiera la reconoce como persona trabajadora. Los mecanismos de vigilancia y monitoreo regidos por algoritmos a menudo carecen de transparencia y rendición de cuentas, lo cual somete a trabajadoras y trabajadores a la presión constante de aceptar cada solicitud. Incluso, les obliga a aceptar en condiciones de peligro, como cuando implica cargar mercancías pesadas que ponen en riesgo la integridad de sus vehículos o cuando han sido víctimas de maltrato por parte de locatarios o clientes. Se acepta cualquier pedido por el temor a que el incumplimiento derive en la suspensión o bloqueo de su fuente de ingresos, sin mecanismos claros para comprender la decisión o revertirla.

Las cuentas pendientes en este nuevo panorama laboral son significativas: ¿Cuántas decisiones injustas se toman hoy sin que la persona trabajadora pueda cuestionarlas o comprender sus razones? Una regulación efectiva es ineludible para que la tecnología potencie el trabajo respetando derechos, pero no basta con leyes: debe incluir la participación de personas trabajadoras en el diseño de estas herramientas. Se requiere abordar la clasificación de los vínculos entre empresas y personas en plataformas, además de garantizar transparencia y mecanismos de auditoría independiente. Se requiere rendición de cuentas ante las autoridades para evitar discriminación e injusticias, y priorizar la protección de datos personales ante la vigilancia intrusiva y la toma de decisiones automatizadas que perjudican a las personas trabajadoras. 

En este Día Internacional de las Trabajadoras y Trabajadores, el llamado a la defensa de los derechos humanos en el ámbito digital resuena con fuerza. La flexibilidad no puede venir a cualquier costo:  las promesas de progreso tecnológico no deben traducirse en un agravamiento de las condiciones de trabajo y una erosión de los derechos históricamente conquistados. Es imperativo que las tecnologías digitales se desarrollen y utilicen con un enfoque centrado en las personas, aplicando un respaldo de derechos laborales y garantizando un futuro laboral justo, equitativo y digno en América Latina. La lucha por el trabajo decente en la era digital es la continuación de la batalla histórica por la justicia social, y en este Primero de Mayo, reafirmamos nuestro compromiso con esa causa.

La IA y los nuevos riesgos para la privacidad

La inteligencia artificial (IA) es mucho más que los sistemas de chat que se popularizaron desde inicios de esta década. Si bien ahora se está viviendo el boom de esta tecnología, no hay que olvidar que la IA es una rama de las ciencias de la Computación que ha estado presente desde sus inicios. En el pasado, existieron hitos importantes en relación a esto. Por ejemplo, en el año 1997 la computadora Deep Blue, creada por IBM, fue capaz de vencer en ajedrez al entonces campeón del mundo Gary Kasparov. También, hace poco menos de 10 años, el software Alpha Go de Google logró ganarle a varios campeones internacionales del juego de estrategia Go.

El boom que se vive en la actualidad tiene que ver principalmente con los modelos grandes de lenguaje (LLM por sus siglas en inglés). Se trata de un programa de la IA que permite tener aplicaciones con las cuales nos podemos comunicar de forma natural como si estuviéramos hablando con personas. Para que estos sistemas puedan tener una conversación con humanos se los debe entrenar con cantidades extraordinarias de datos y además se requiere de mucha capacidad de cómputo.

Dime qué datos utilizas y te diré quién eres

Si se piensa en los LLM desde una perspectiva de privacidad, lo primero que nos deberíamos preguntar es ¿de dónde salen los datos que entrenan el modelo? Según OpenAI, utilizan 3 fuentes para entrenar los modelos de ChatGPT: información pública, información compartida por socios e información provista por humanos.

En la primera opción, se puede pensar en la internet pública con sitios como Wikipedia, Github, Archivo de internet y otras similares. Desde un punto de vista de privacidad, esta información está públicamente accesible y se puso a disposición con la intención de compartir conocimiento libremente. Se podría decir que entrenar LLM con esta información, haría más accesible el conocimiento a la mayoría de la gente.

Pero este no es el caso para todos los sitios web. Existen casos como las redes sociales, donde las personas -por error- pudieron haber publicado información personal sin intención y esta se hizo pública. Incluso se podría haber subido contenido con el propósito de que sea accesible para el público, pero no necesariamente para entrenar modelos de inteligencia artificial.  Evidentemente, hay problemas relacionados con derechos de autor, pero en esta columna no nos vamos a detener en esa cuestión.

En el segundo caso, no es claro cuáles son los socios que proveen información a OpenAI. En su página web mencionan una colaboración con al gobierno de Islandia para mejorar el soporte del idioma islandés, y también hablan de colaborar con la organización Free Law Project. Sin embargo, no queda claro con qué otros grupos hacen alianzas para la provisión de datos.

Desde el punto de vista económico, el principal aliado de OpenAI es Microsoft. Una empresa que en 2023 realizó un acuerdo de 10 mil millones de dólares con OpenAI por varios años, y que incluye el uso de la infraestructura Azure. Esta infraestructura es la “nube” que oferta Microsoft para que terceros puedan ejecutar sus aplicaciones. En este caso, Azure es la principal infraestructura de ChatGPT y otros productos de OpenAI.

¿Será que OpenAI utiliza información de las aplicaciones de Microsoft como Bing, Outlook, Office 360, entre otros? ¿Estará Microsoft entregando información personal de sus usuarios para entrenar al ChatGPT? No hay forma de saberlo, salvo que se haga una auditoría y se transparente la forma en la que OpenAI entrena sus modelos.

Si pensamos en las otras empresas líderes como Google con Gemini, Meta con MetaAI o X con Grok, podemos, al menos, sospechar que utilizan los datos de sus sistemas para entrenar sus modelos grandes de lenguaje. Todas estas empresas tienen algo en común, muchos datos y gran capacidad de procesamiento de información, lo que las pone en la élite de la IA.

Nube y privacidad: malos amigos

Ya se analizó la privacidad al momento de entrenar los modelos LLM. Ahora bien, ¿qué pasa con nuestra privacidad al utilizar estos chat bots? El principal problema que se presenta al utilizar estas herramientas de IA es que se encuentran en la nube, a quien le entregamos todos nuestros datos.

Si se utiliza la IA para que nos responda nuestras preguntas cotidianas, estas preguntas se asocian a nuestro perfil y sirven para perfilarnos como individuos. Si se usa la IA para que resuma una llamada de Zoom, entonces estamos entregando la transcripción de la conversación y el resumen a la plataforma. Si la utilizamos para escribir un correo electrónico, entonces el sistema que lo redacta tendrá el contenido de nuestro correo. Si le pedimos que nos sintetice un documento confidencial, le servimos en bandeja esa información. Toda esta interacción servirá para entrenar los futuros modelos de lenguaje. En teoría, gente con la capacidad de hacer las preguntas correctas a la IA podría extraer información de nuestros archivos confidenciales.

Por otra parte, el uso de IA en aplicaciones de chat cifrado también resulta un problema muy grave para la privacidad de la ciudadanía. El cifrado extremo a extremo protege nuestras comunicaciones para que nadie, excepto las personas que participan en la misma, las pueda leer. Un adversario particularmente importante del cual nos protege este tipo de cifrado es el proveedor del servicio. Si se piensa en WhatsApp, entonces su cifrado nos debe proteger para que WhatsApp no lea nuestras conversaciones. Sin embargo, desde algún tiempo atrás tenemos entre nuestros contactos al bot de @MetaAI. A este bot lo podemos invocar desde cualquier conversación para hacerle consultas. Cuando eso sucede, el cifrado extremo a extremo pierde su valor ya que Meta debe leer nuestras conversaciones para interactuar.

En general, los problemas de privacidad de la IA están asociados a la utilización de plataformas en “la nube”. En otras columnas, hemos visto algunos ejemplos del uso de infraestructura propia con software libre para poder tener una oficina virtual, sistemas de videoconferencia seguras, incluso instancias de redes sociales descentralizadas como el Fediverso.  ¿Se puede hacer lo mismo con la inteligencia artificial?

La respuesta es sí, y de hecho existen varios LLMs que se pueden utilizar sin costo y de forma local o incluso en infraestructura propia. A diferencia de sistemas como una nube propia o sistemas de chat seguro, con inteligencia artificial se va a necesitar mayor capacidad de cómputo o versiones más pequeñas de los LLM. Al usar modelos más cortos, probablemente no sirvan para preguntar cualquier cosa, pero sí podrían ser muy útiles para tener un bot con un propósito específico. Por ejemplo, para resumir documentos confidenciales o traducir textos.

IA al servicio de las personas, no de las corporaciones

En nuestros días, es común que la gente utilice IA para apoyarse en sus tareas cotidianas y, seguramente, en el futuro esta herramienta se usará aún más. Es sumamente importante que como sociedad podamos reflexionar acerca de los propósitos para los cuales se seguirá utilizando la IA y los riesgos que eso trae aparejado. No es lo mismo recurrir a ella para traducir un documento público, redactar un correo electrónico o resumir un documento confidencial. Habrá casos en los que se pueda considerar aceptable utilizar IA a cambio de sacrificar la privacidad y habrá otros en los que no.

La autonomía en la IA es algo que la sociedad debe explorar. Para tareas y actividades donde se trabaja sobre información sensible, tener un sistema tecnológico que no reporte esa información a terceros sería una herramienta muy poderosa. Incluso varias organizaciones podrían unirse entre sí para compartir infraestructura y poder ejecutar colectivamente mejores modelos de lenguaje. Las regulaciones sobre esta herramienta tecnológica deben velar por el respeto de nuestra privacidad, nuestros datos y nuestra información. Solo de esa forma podremos imaginar un futuro digital seguro para todas y todos.

“El viaje” de la creatividad en la era de la Inteligencia Artificial

Las semanas pasadas Internet se colmó de millones de imágenes generadas por IA al estilo del icónico Studio Ghibli. Las personas usuarias emplearon el último generador de imágenes de OpenAI para que sus fotografías, las de sus familiares y mascotas aparecieran, en cuestión de minutos, como personajes salidos del místico universo animado por Hayao Miyazaki, fundador del mítico Studio Ghibli.

La tendencia de la “IA Ghibli” suscitó ternura, nostalgia y diversión en las personas viralizándose con rapidez, al tiempo que despertaba múltiples debates pertinentes. En efecto, las preguntas por los derechos de autor no tardaron en revivir, las implicaciones medioambientales del uso de la IA florecieron, los pronunciamientos de artistas se reavivaron y las alertas alrededor de la protección y el uso de datos personales en la IA se encendieron con fuerza. Lejos de pretender abarcar en su totalidad o resolver estos y otros debates, en esta columna aprovecharemos el reposo de la tendencia para reflexionar sobre dos puntos: el lugar del proceso creativo humano y la sensibilidad artística a propósito de la expansión de la IA generativa de imágenes; y los riesgos hacia las personas en materia de protección de datos personales.   

¿El arte se crea o se programa?

Ya sea en la música, la ilustración o la escritura, la creatividad es un proceso complejo, multifacético, y profundamente humano. La creatividad humana requiere la interpretación de lo que otras personas han hecho, combinarlo con ideas y experiencias propias, agregarle matices y, a partir del ensayo y error, conseguir expresar la idea que gestamos por algún tiempo en nuestra imaginación. Pensemos que cada creación es como un Castillo Ambulante de Miyazaki, una suma de estilos y piezas heterogéneas que forman una estructura con vida propia.

Ahora, el presente tecnológico del arte ofrece y acerca a las personas a cientos de grandes referentes para la creatividad humana. De hecho, expresarse artísticamente a través del uso de nuevas y emergentes tecnologías, incluida la IA, nunca había sido tan fácil y accesible. La energía vital que se imprimía en componer un compás, en hacer un esbozo o en empezar de cero un escrito se transforma en la era digital que nos atraviesa. Hace días nomás, el proceso de reproducir un estilo ajeno se redujo al envío masivo de cadenas de instrucciones o “prompts” con los que la IA de OpenAI generó en segundos miles de imágenes detalladas con el estilo Ghibli. Esta tendencia “IA Ghibli” merece ser pensada desde el valor mismo de la creatividad y de los creadores en un mundo que cada vez más se inclina a la automatización prescindiendo del factor humano.

La IA habilita la producción continua e inmediata de piezas artísticas, representando tanto oportunidades para el ecosistema artístico, como riesgos para los procesos de creación tradicionales. La inteligencia artesanal de Miyazaki, por ejemplo, nos lleva a reflexionar sobre la vivencia y padecimiento del proceso creativo, sobre el tiempo que toma, los retos y las potencialidades que representa para la imaginación personal y colectiva, y la creatividad. Esto en un contexto donde el trabajo artístico suele estar mediado por condiciones precarias o poco dignas que suponen un reto y un peso adicional.  

La creatividad como proceso y como resultado es una experiencia ajena e irreproducible para la IA, una tecnología que no sueña, imagina o experimenta como lo hace la creatividad humana, y en razón a esos elementos no se avoca a la generación de estilos originales, sino a la reproducción de los estilos de otros. Para quienes crean una historia mientras la ilustran (sin cadenas de instrucciones previas), estableciendo una relación de identidad con su obra al dejar un poco de su experiencia de vida en cada detalle y trazo, la generación de imágenes con IA representa con fuerza el “insulto a la vida misma”, una afirmación del propio  Miyazaki al referirse a la generación de imágenes con IA. Para quienes apoyan la inteligencia artesanal, la tendencia de la “IA Ghibli” produjo cuestionamientos válidos sobre el sentido del arte en tiempos donde la IA cada vez ocupa más espacios que creíamos nuestros.

No obstante, en la medida que esta tecnología se instaló en el oficio creativo y fuera de él, es necesario explorar salidas que trasciendan a los marcos de transparencia en el entrenamiento de las herramientas de IA, así como concretar usos de estos sistemas alineados con una perspectiva de derechos humanos que impidan la reproducción de violencias, sesgos y formas de discriminación. Para esto, es crucial suscitar el diálogo entre empresas, personas usuarias y colectivos de artistas para precisar mecanismos de protección, reclamación y compensación que amparen a las partes más allá del terreno movedizo y desigual de los derechos de autor.

Equilibrar la creatividad humana y las formas que toma con la innovación tecnológica está en el centro de la discusión. Quizás, más allá de emprender un proceso creativo al estilo tradicional, la IA habilita nuevas forma de expresión artística donde retazos de ideas cobran vida al instante representando momentos fugaces de nuestra imaginación.

Ahora bien, el uso entusiasta de la IA no puede eclipsar la reflexión y el pensamiento crítico alrededor de las tecnologías, lo que incluye exigir responsabilidad e información pública a las empresas sobre, por ejemplo, el uso de los millones de datos personales y de terceros que alimentaron el modelo de OpenAI en las últimas semanas.

Las tendencias de la IA y los datos personales

De la mano de los riesgos para el ecosistema artístico, vale la pena destacar los riesgos para las personas que recordó el “trend” de la IA Ghibli. A saber, un asunto que sorprendió fue la conducta de entrega voluntaria, gratuita y entusiasta de datos biométricos de millones de personas a OpenAI. Por esto, apuntamos a reflexionar sobre los riesgos de entregar información personal, como los rostros propios y de terceros (como menores de edad) con ligereza a las empresas tecnológicas. Es fundamental preguntarnos por nuestra relación con la IA y cuestionar aquellos lugares donde naturalizamos la recopilación de nuestros datos a través de argumentos como “nuestra información ya está en todas partes”. Recordemos que como personas usuarias somos soberanas de nuestra información y podemos decidir sobre esta y exigir transparencia en su uso por parte de las empresas tecnológicas.

Como vemos, el debate es amplio. La naturaleza evolutiva de tecnologías como la IA, sobre todo en su dimensión generativa, refuerza la importancia de, por un lado, avanzar hacia estrategias concretas de responsabilidad para las empresas que, en su carrera global por la IA, lanzan productos con implicaciones para los derechos de las personas, impactando incluso en ámbitos que creíamos exclusivos de lo humano, como la creatividad y el proceso artístico. Y, por otro lado, es ineludible involucrar a las personas usuarias traduciendo el lenguaje del trabajo académico e intelectual acerca de las tecnologías digitales a sus realidades concretas. Sólo así, los riesgos asociados a la IA, por ejemplo, podrán entenderse como consecuencias inherentes a su uso, y no como asuntos aislados, ajenos a nuestras prácticas diarias.