Emergencia climática y centros de datos: el nuevo extractivismo de las Big Tech

El cambio climático es un riesgo existencial, y los Estados deben actuar con decisión. Así lo sostuvo la Corte Interamericana de Derechos Humanos (Corte IDH) en una reciente Opinión Consultiva (OC32), solicitada por Chile y Colombia con el objetivo de que ésta aclarase el alcance de las obligaciones estatales en la lucha contra la crisis climática global.

En un momento muy oportuno, la Corte declaró la existencia de una emergencia climática en la región considerando, por un lado, los efectos de catástrofes ambientales recientes, como los incendios, inundaciones y derrames de petróleo que tuvieron lugar en 2024. Por el otro, el escenario geopolítico que avanza hacia desarrollos tecnológicos -como la Inteligencia Artificial- sin debidas garantías; y facilita la expansión de las Big Tech en América Latina, sin una evaluación adecuada de su huella ecológica, ni salvaguardas en derechos de la ciudadanía. Estas empresas operan bajo lógicas extractivistas que se aprovechan de los recursos energéticos y naturales de la región para sostener sus operaciones -particularmente el entrenamiento de modelos de IA-, muchas veces a costa del equilibrio de ecosistemas frágiles y del bienestar de las comunidades locales.

Tres claves de una Opinión compleja

La Opinión Consultiva es compleja y en su extensión se afirman distintas ideas clave, de las que rescatamos al menos tres.

La primera, la necesidad de considerar responsabilidades diferenciadas en tanto no todos los Estados ni sectores de la economía contribuyen de la misma forma a la emergencia climática. Quienes más contaminan y emiten gases de efecto invernadero (GEI) deben contar con mayores compromisos en los esfuerzos dirigidos a paliar las consecuencias del cambio climático.

En segundo lugar, la interrelación estrecha entre la protección del clima, la naturaleza y el medio ambiente, y TODOSlos Derechos Humanos. Las acciones de los Estados no pueden limitarse a abstenerse de causar daño ambiental, sino que deben ser activas y progresivas en miras a la protección de derechos fundamentales.

Y en tercer lugar, la obligación estatal de regular las operaciones de las empresas que contaminan para, por un lado, obligar a que adopten medidas efectivas para mitigar el impacto de su cadena de valor en el cambio climático, y aborden sus impactos en los Derechos Humanos. Y, por otro lado, para exigir que divulguen de forma accesible las emisiones de gases de efecto invernadero de su actividad empresarial.

Los centros de datos en América Latina: las crisis por venir

Estas obligaciones deben extenderse también a las políticas digitales. Se sabe que, para que la IA siga creciendo, se necesita una base física: los centros de datos. Estos funcionan sin pausa, día y noche, y consumen enormes cantidades de electricidad, agua y aire. El agua sirve para enfriar los servidores, la electricidad mantiene todo en marcha y alimenta los sistemas de enfriamiento, y el aire ayuda a disipar el calor como recurso alternativo. No es casual que las Big Tech vean en América Latina una fuente para la explotación de esos recursos a bajo costo económico y regulatorio.

Sin embargo, las consecuencias ambientales y sociales de esta actividad son preocupantes. El agua utilizada en estos procesos ya no puede destinarse al consumo humano. La elevada demanda energética puede tensionar infraestructuras ya frágiles, poniendo en riesgo el suministro básico para la población. Además, el uso intensivo de electricidad puede derivar en mayores emisiones de carbono, afectando la calidad del aire. Se estima que para 2030 los centros de datos estarán entre las industrias más contaminantes del planeta.

Varios países han aceptado la instalación de los mismos bajo promesas que no son del todo claras. Como la de la soberanía digital, un tanto abstracta al tratarse de infraestructuras privadas para sostener sistemas de IA propios; o la promesa de generación de fuentes de empleo, que suelen ser temporales o de baja calidad, insuficientes para justificar el daño ambiental.

En México, por ejemplo, empresas como Amazon, Microsoft y Google buscan instalar centros de datos en el desierto de Querétaro. Allí, la crisis hídrica, agravada por sequías extremas del último año, ha puesto a las comunidades afectadas en una situación crítica. Estas comunidades, que rechazan la idea de estas instalaciones tecnológicas, ya han enfrentado dificultades para acceder al agua frente a su explotación por parte de empresas locales.

En Colombia, la narrativa oficial de avanzar hacia una “nube soberana” ha conducido al país a la firma de acuerdos con Emiratos Árabes Unidos para emplazar centros de datos en Santa Marta. Se trata de una zona del Caribe conocida por tener uno de los más costosos servicios de electricidad del país. Además, el agua que beben las comunidades locales ha sido motivo de advertencia de medios y organizaciones sociales que denuncian su mala calidad y la deficiente cobertura del servicio para el consumo humano.

En Chile, la instalación de estos centros se hace bajo la promesa de la generación de empleos y de inversión en la industria local. Recientemente, Microsoft abrió su centro de datos en la región Metropolitana de Santiago, una zona que sufre una megasequía de más de una década. Y Google está rediseñando el despliegue del suyo, en la Comuna de Cerrillos, luego de que un tribunal ambiental obligase a la empresa a evaluar el impacto hídrico del proyecto en una zona donde el agua es escasa.

Brasil, que junto a México es uno de los mayores emisores de gases de efecto invernadero del mundo, avanza también la acogida de centros de datos. En la población de ElDorado do Sul, afectada en 2024 por una inundación calificada por el Estado como el peor desastre ambiental reciente, se instalará la “Ciudad de la IA”, un complejo masivo de centros de datos que ocupará una de las zonas más privilegiadas de la región por su elevación, lo que la beneficiaría ante futuras inundaciones. También se instalará uno propio de Tik Tok en Ceará, que sufre una sequía extrema, y que se estima que agotará el consumo energético de 2,2 millones de brasileños a diario.

Las Big Tech colonizan nuestros recursos y no rinden cuentas

Las Big Tech operan en la región bajo lógicas coloniales ancladas en la explotación de recursos esenciales. Pese a ello, las respuestas regulatorias, cuando se trata de abordar su impacto ambiental, parecen ampliar los beneficios de los que gozan a cambio de promesas de beneficios futuros poco verificables.

En Brasil, por ejemplo, las autoridades nacionales prometen exenciones de impuestos a los centros de datos. Y la elaboración de la política nacional  sobre la materia, que excluyó de participación al Ministerio de Ambiente, propone eliminar las licencias ambientales para “desburocratizar” su instalación por, supuestamente, no tener impacto ambiental.

Las autoridades a nivel local también avanzan en esa senda. Los Concejales de Rio Grande do Sul, donde se ubicará la “Ciudad de la IA”, aprobaron en 2024 una ley que genera exenciones impositivas y flexibiliza los procesos de licenciamiento ambiental para estos centros. Como agradecimiento, las empresas beneficiarias donaron 110 notebooks repartidas en 13 colegios públicos de la región, un gesto que enmarcaron como “promoción del progreso social”.

En Chile, en el mes de junio de 2025, se habría liberado de la obligación de evaluación de impacto ambiental a las Big Tech que instalasen centros de datos en el país.

Entonces, las legislaciones ambientales se ven enflaquecidas, al tiempo que las de regulación de la IA que avanzan en esos mismos países omiten cualquier abordaje serio sobre la materia. La falta de transparencia sobre su impacto ambiental, y su progresiva proliferación en el futuro cercano supondrían una mayor asfixia a la gestión de recursos críticos de países como los nuestros.

La expectativa de que ese crecimiento es tal que, en declaraciones recientes, Sam Altman, líder de OpenAI, responsable de ChatGPT, no descartó que en un futuro cercano todo el planeta estuviese cubierto de centros de datos.

Mientras tanto, las comunidades directamente afectadas suelen tener poca o ninguna participación en las decisiones políticas que definen el destino de los recursos naturales de los que dependen para vivir. Basta ver el caso de una comunidad en Chile. Vecinos organizados y con acceso limitado al agua enfrentaron el proyecto de instalación de un centro de datos de Google. Ante la presión social, las autoridades autorizaron la operación bajo una modalidad de refrigeración por aire en lugar de agua. Pero el conflicto en verdad no se resolvió, tan solo cambió de forma.

Pese a todo, hay motivos para la esperanza

La Opinión Consultiva OC-32/23 de la Corte IDH representa un hito en la consolidación del enfoque de Derechos Humanos frente a la crisis climática. La Corte no solo reafirma que el cambio climático constituye una amenaza real y presente para el ejercicio pleno de los derechos fundamentales, sino que subraya la obligación de los Estados de actuar con urgencia, ambición y coherencia para mitigar sus efectos y proteger a las poblaciones en situación de vulnerabilidad.

Sin embargo, este pronunciamiento también deja planteada una tarea crucial que aún permanece pendiente: abordar con mayor contundencia el papel del sector privado, y en particular de las grandes corporaciones tecnológicas, en la generación y profundización de esta crisis. La responsabilidad ambiental de las Big Tech no puede seguir diluyéndose bajo el discurso de la innovación sin límites o su autorregulación.

En este contexto, los Estados deben asumir con decisión su papel de reguladores en materia ambiental considerando la declaratoria de emergencia climática de la Corte IDH. Esa función debe ser ejercida teniendo a la Opinión Consultiva como base de la discusión para fortalecer mecanismos de transparencia, auditoría de sus operaciones y participación social frente a proyectos extractivistas, como los de los centros de datos.

Por su parte, hay que advertir que la regulación ambiental y las normas sobre IA no pueden operar como marcos aislados ni contradictorios entre sí: deben integrarse en una visión común, coherente y participativa, orientada a garantizar la sostenibilidad del planeta y la dignidad de todas las personas.

Aunque el panorama parezca retador, también se abren puertas de esperanza. Recientemente, otra Opinión, de la Corte Internacional de Justicia de las Naciones Unidas, también se expresó sobre esta materia y reafirmó cómo, en omisión de sus deberes de regular al sector privado y su impacto ambiental, los Estados pueden llegar a ser demandados por otros Estados, y ser encontrados responsables por su inacción.

La tarea de quienes trabajamos en la sociedad civil, será apropiarnos de estos instrumentos legales para exigir por todas las vías posibles una mayor rendición de cuentas para enfrentar este problema de dimensiones globales que no da espera.

Inteligencia artificial y libertad de expresión: aporte a la Consulta para la Declaración Conjunta

Este documento presenta el aporte oficial de Derechos Digitales a la consulta pública organizada por los Relatores Internacionales para la Libertad de Expresión: el Relator Especial de las Naciones Unidas (ONU) sobre la Promoción y Protección del Derecho a la Libertad de Opinión y Expresión, el Representante para la Libertad de los Medios de la Organización para la Seguridad y la Cooperación en Europa (OSCE), el Relator Especial para la Libertad de Expresión de la Organización de Estados Americanos (OEA) y el Relator Especial para la Libertad de Expresión y Acceso a la Información en África de la Comisión Africana de Derechos Humanos y de los Pueblos (ACHPR).

Esta consulta, que recibió aportes hasta el 28 de julio de 2025, servirá de base para una Declaración Conjunta sobre Inteligencia Artificial y Libertad de Expresión.

Nuestro aporte se sustenta en la experiencia regional en América Latina y se centra en los impactos de la inteligencia artificial (IA) y de los sistemas de IA generativa (GenAI) sobre la libertad de expresión, el pluralismo informativo y la participación democrática.

Hacia una convención para regular el trabajo de plataformas: un avance frente a los desafíos del mercado laboral

Las Tecnologías de Propósitos Generales -o GPTs- han tenido impactos significativos en el mercado laboral durante el último siglo. Esta última ola, caracterizada por las innovaciones en algoritmos e Inteligencia Artificial (IA), ya comienza a mostrar sus primeras consecuencias en términos de empleo. En general, los estudios identifican evidencia suficiente para afirmar que la IA generativa ha perjudicado la generación de empleo y los ingresos del sector freelance. Sin embargo, esto pareciera darse más que nada en las ocupaciones de ingresos medios y bajos, y más aún en los rangos etarios inferiores.

El avance acelerado de tecnologías como la IA y los sistemas automatizados de gestión del trabajo está transformando profundamente las dinámicas laborales a nivel global. En este contexto, la necesidad de contar con un marco normativo robusto y con alcance internacional se vuelve urgente: regular el trabajo en plataformas digitales implica también establecer límites y obligaciones claras sobre el uso de tecnologías como la IA en el mundo del trabajo, garantizando justicia algorítmica, protección social y derechos laborales efectivos para todas las personas trabajadoras, sin importar su estatus contractual o la ubicación de la empresa.

Es por ello que resulta crucial el abordaje sobre el Trabajo Decente en Plataformas y la importancia de su instalación en la agenda regulatoria internacional. La 113ª Conferencia Internacional del Trabajo (CIT), celebrada en Ginebra en junio de 2025, marcó un hito en la agenda global del trabajo: por primera vez, se avanzó formalmente hacia la elaboración de un instrumento internacional para regular el trabajo en plataformas digitales. En un escenario laboral transformado por las tecnologías digitales, este paso no es menor. El mandato final fue claro: se acordó avanzar hacia la redacción de una convención vinculante, acompañada por una recomendación, como marco para garantizar derechos básicos a aquellas personas cuyo trabajo es intermediado por plataformas digitales.

¿Qué nos deja la CIT 2025?

Este avance implica el reconocimiento por parte de los Estados, empleadores y trabajadores -los tres pilares de la OIT- de que la economía de plataformas no puede continuar operando sin garantizar condiciones justas. Y sobre todo, que las reglas para el trabajo decente deben ser globales: las plataformas operan transnacionalmente y los vacíos legales que explotan hoy se convierten en nuevas formas de desprotección.

Uno de los aspectos centrales fue la definición del alcance del futuro instrumento. Se llegó a un consenso para que abarque tanto a quienes desempeñan tareas “basadas en la localización” -como reparto, transporte o cuidado- como a quienes realizan trabajo “remoto” a través de plataformas digitales. Esta concepción amplia resulta especialmente relevante para América Latina, donde la fuerza laboral en plataformas está conformada en buena medida por personas de ingresos medios y con escasa calificación requerida, involucradas tanto en actividades presenciales como en servicios digitales a distancia -como la traducción de textos o el procesamiento de datos-. Ambos sectores, como vimos anteriormente, enfrentan con especial énfasis los efectos de la innovación tecnológica y la falta de marcos regulatorios adecuados.

Desafíos persistentes

Sin embargo, la CIT también expuso las tensiones profundas que persisten sobre qué tipo de trabajo debe regularse y cómo. Los puntos más críticos donde no hubo avances sustantivos son los mismos que hoy generan disputas en nuestros países:

1- La presunción de laboralidad, es decir, reconocer como regla general que quienes trabajan para una plataforma lo hacen en relación de dependencia y no como “autónomos” ficticios.

2- La definición de una remuneración adecuada: la tecnologización aporta flexibilidad a muchas tareas e incluso impacta en la productividad. Sin embargo, esto implica en muchos casos la dedicación de jornadas largas debido a la acumulación de múltiples tareas no consideradas como remunerables. Asimismo, el debate instaura discusiones en torno al uso de indicadores para establecer estas remuneraciones: ¿qué consideramos como ingreso digno?

3- La determinación del tiempo de trabajo: una categoría básica en el derecho laboral, pero borrosa en un sistema que exige estar disponible sin garantizar ingresos mínimos.

4- Habiendo suficiente evidencia sobre los sesgos discriminatorios que reproducen los algoritmos más allá de su diseño u origen, un tema de especial relevancia fue la transparencia y auditabilidad algorítmica. Debido a la asimetría de información entre las personas trabajadoras y las plataformas, se discutió la necesidad de que las plataformas informen de forma clara y accesible cómo operan sus algoritmos de asignación de tareas, evaluación del rendimiento y determinación de ingresos. Sin embargo, aún resta brindar claridad sobre cómo regular las decisiones automatizadas y su impacto en las personas trabajadoras.

5- Y, finalmente, resta profundizar el debate sobre los mecanismos de control y la posibilidad de aplicar la legislación local para resolver conflictos, un punto clave para evitar que las plataformas operen en zonas grises de legalidad.

El caso latinoamericano es ilustrativo: la mayoría de los países no cuentan con legislación específica sobre plataformas, y muchas de las iniciativas que buscaron avanzar en esa dirección han quedado truncas o debilitadas. A la vez, las reglas existentes han mostrado limitaciones para garantizar protección efectiva a las personas trabajadoras, porque fueron desarrolladas sin tomar en cuenta estos escenarios,  o por una debilidad de las instituciones encargadas de su supervisión y aplicación. Mientras tanto, las personas trabajadoras enfrentan bloqueos de cuentas sin justificación, ingresos inestables y jornadas extenuantes.

CIT 2026, una oportunidad histórica

En este contexto, el proceso iniciado en la CIT representa una ventana de oportunidad única. El próximo año será decisivo: en la CIT 2026 se definirá la aprobación (o no) del instrumento. Para que esta instancia sea efectiva, será necesario un trabajo articulado y sostenido por parte de sindicatos, organizaciones de la sociedad civil, investigadores y gobiernos. La participación de América Latina -aunque presente en las delegaciones gubernamentales- fue aún limitada desde la sociedad civil. Fortalecer esa voz será clave para que las demandas del Sur Global tengan peso en la redacción final.

Las nuevas tendencias del mercado laboral ya son tangibles. Vemos una realidad teñida de nuevos esquemas de productividad, sectores con perfiles de mayor demanda y otros en estancamiento. Ahora llegó el momento de definir en qué condiciones seguirá esta transformación: que esta realidad garantice derechos fundamentales con mecanismos de protección será responsabilidad de quienes, desde distintos frentes, podamos incidir en esta etapa.

Las tecnologías deben mitigar el cambio climático, no profundizarlo

«Transforma esta foto como si perteneciera al universo visual de Studio Ghibli, conservando el fondo y la pose. Aplica sus rasgos característicos: colores, trazos y texturas», este es el tipo de instrucción con la que el modelo conversacional de Inteligencia Artificial “ChatGPT” generó las imágenes que, un tiempo atrás, fueron tendencia en redes sociales y que atrajo a nuevas personas usuarias a la plataforma. Medios digitales saturados de nuevas publicaciones  y servidores de alojamiento remoto trabajando para almacenar los archivos recién creados fueron servicios muy demandados durante los días que duró la fiebre Ghibli. ¿Cuál fue el impacto ambiental? El más visible, sin duda, es el consumo de agua para el enfriamiento de servidores,  con un promedio estimado de 3 litros de agua por imagen generada

Ahora imaginemos el impacto ambiental de desechar mil computadoras de uso personal por segundo. Es el equivalente para los 62 millones de toneladas de residuos electrónicos generados a nivel mundial, según se registró en el año 2022. Considerando que el número de personas usuarias de internet en el mundo alcanzó los 5560 millones a principios de 2025, la demanda de recursos, tanto en software como de hardware, solo incrementará en los próximos años, dependiendo del  tipo de tecnología que se despliegue. ¿La solución al evidente problema es detener el avance tecnológico y su uso?

La solución no puede estar más lejos de eso. Aunque los modelos de producción tecnológica se basan en una lógica extractivista, sin considerar costos sociales o ambientales, las tecnologías tienen potencial para reducir el impacto. El uso eficiente de la infraestructura tecnológica es clave para mitigar la huella ambiental. Ciertas innovaciones incluso permiten reducir el uso de recursos naturales si son desplegadas adecuadamente. Algunos ejemplos son la computación en la nube, computación grid y virtualización en centros de datos: modelos que  se comportan como si fueran infraestructuras independientes mientras comparten recursos de un mismo servidor o red de servidores.

Si pensamos en el ciclo de vida de la tecnología, podríamos resumir las fases en: diseño, desarrollo y despliegue. Esta última etapa se realiza en infraestructuras robustas y resilientes, capaces de soportar altos niveles de demanda y peticiones por segundo garantizando respuestas rápidas. La magnitud del consumo varía según el tipo de servicio. Aunque en las fases previas también se requiera infraestructura, el consumo comienza a escalar cuando llega a su etapa de producción (despliegue), aumentando la demanda de energía y sistemas de enfriamiento para los centros de datos.

Algunas acciones para mitigar el impacto

Frente a un escenario que exige día a día más recursos, una de las alternativas es avanzar hacia la descarbonización del sector energético . Se trata de sustituir fuentes fósiles como carbón, petróleo y gas natural por insumos renovables como la energía solar o eólica. Algo de esto analizamos un tiempo atrás a raíz de la crisis energética en Ecuador.

Esta alternativa consolidó una nueva carrera por la neutralidad en emisiones de carbono. Así, multinacionales del sector tecnológico aseguran haber alcanzado esta neutralidad en emisiones de carbono y sostienen compromisos por lograr que toda su cadena de suministro y productos lo sean también. Sin embargo, la veracidad de las declaraciones y los mecanismos utilizados siguen bordeando el greenwashing, una práctica que busca confundir a las personas usuarias sobre el impacto medioambiental real de una empresa o producto. Así mismo, la sustitución de materiales al momento de construir piezas electrónicas o componentes, sin sacrificar rendimiento y calidad, ofrece una oportunidad competitiva a mercados que se aventuran a revolucionar la tecnología. Por ejemplo, en China, donde luego de atravesar limitaciones para el uso de microprocesadores basados en silicio, desarrolló un chip libre de este componente y lo reemplazó por bismuto reduciendo el consumo energético en un 10% e incrementando su velocidad en un 40%.

Otro esfuerzo  es el diseño de infraestructuras para una economía circular, un modelo económico que busca minimizar el desperdicio y maximizar el valor de los recursos, productos y materiales. Desde el inicio, es importante pensar en medidas como plantas de producción modulares y que puedan ser actualizadas, reutilizadas y reciclados sus materiales, además de planificar la recuperación de productos al final de su vida útil. Esto es aún más urgente considerando que solo alrededor de la cuarta parte de la basura electrónica es reciclada correctamente, dejando toneladas de residuos sin tratamiendo adecuado y desperdiciando recursos valiosos, en su mayoría, no renovables. 

Por otro lado, los centros de datos requieren condiciones mínimas para operar adecuadamente como seguridad, capacidad de almacenamiento, transferencia de datos, refrigeración y otros. Pensando en el enfriamiento de un data center promedio, se estima que consume 25 millones de litros de agua al año, lo que equivale a 68 mil litros por día. ¿Y si sumamos el consumo de todas las grandes empresas conocidas que gestionan redes sociales, navegadores web y tiendas en línea? Este consumo puede reducirse si se despliega  en zonas con con climas fríos o cerca de aguas de mar profundas. Un esfuerzo que considera la eficiencia energética y uso de agua es Green Mark Certification for Data Centres en Singapur. 

Un compromiso compartido

La gobernanza de las infraestructuras tecnológicas debería centrarse en la justicia ambiental, respetando y promoviendo derechos y sostenibilidad. Las decisiones sobre qué tecnologías se desarrollan, cómo y para quiénes, deben incorporar una perspectiva social y ambiental en todas sus etapas. Desde la planificación de explotación de minerales necesarios para la construcción de componentes electrónicos hasta el uso de una IA para enseñar idiomas en territorios indígenas, todo debe regirse por modelos de gobernanza comunitarios y no por lógicas extractivistas.

Además, es fundamental incentivar iniciativas que potencien proyectos como redes de Internet autosustentables en comunidades, centros de datos locales y uso de tecnologías, que potencien capacidades situadas. A esto se suma la ciencia abierta, el conocimiento libre y el código abierto como componentes estratégicos para la autonomía e independencia de infraestructuras corporativas y privadas.

El equilibrio entre tecnología y medio ambiente solo será posible si transformamos  la infraestructura digital desde su origen, haciéndola parte de la solución y no del problema. Esto implica proyectar fábricas impulsadas con energía solar in situ, centros de datos enfriados con agua del mar sin riesgos ambientales, procesos de desmontaje eficientes en instalaciones de reciclaje adecuadas y redes inteligentes de distribución, como documenta Google con el proyecto IA de DeepMind, que redujo un 40% el consumo energético para refrigeración.

Pero nada de esto será suficiente sin una voluntad política y ética clara. Reconocer la interdependencia entre sostenibilidad ecológica y equidad social es solo el primer paso: lo que sigue es actuar colectivamente para transformar modelos tecnológicos actuales. Urge reducir la dependencia de sistemas corporativos opacos y avanzar, desde la sociedad civil, comunidades, gobiernos y el sector privado, en la construcción de  de políticas públicas, normativas e infraestructura que prioricen el bien común, fomenten la justicia social y ambiental, y garanticen transparencia y rendición de cuentas a toda la ciudadanía.

Hablar en clave para existir: resistencias digitales frente a la censura algorítmica

Estas frases alteradas aparecen en redes cada vez que abordamos temas que desafían las normas impuestas por el algoritmo: 4bu$o s3xual, su1c1d1o, desvivir. Se le llama “algospeak” a estas estrategias de lenguaje que buscan eludir la vigilancia de plataformas como TikTok, YouTube o Instagram a ciertos contenidos considerados inapropiados. Así se forma un código lleno de caracteres y eufemismos que no surge de la creatividad, sino de la necesidad de resistir un sistema que a menudo castiga la discusión de una realidad muchas veces incómoda mediante el silenciamiento.

La gestión algorítmica no solo limita el presente, también interviene en la posibilidad de construir futuros más justos. Al condicionar qué narrativas son visibles y cuáles no, los algoritmos afectan directamente la capacidad de articular ideas, reflexiones, desacuerdos y alternativas.

Las voces que denuncian violencias estructurales son etiquetadas como “inapropiadas” o simplemente eliminadas. De hecho, las personas defensoras de derechos humanos, activistas y periodistas son especialmente afectadas, porque sus relatos son sistemáticamente considerados como “sensibles” o “peligrosos” por sistemas que no entienden el contexto ni el propósito de las expresiones detectadas por los filtros automatizados.

Esta jerarquización automática de los discursos revela una visión del mundo profundamente sesgada. El algospeak es síntoma de un entorno que redefine lo que podemos decir, que aplica controles automáticos y reorganiza lo que consideramos importante. Pero el daño no es solo individual: afecta también lo que recordamos y cómo construimos colectivamente nuestros relatos en la defensa de los derechos humanos.

La doble vara del algoritmo

Los estándares de las plataformas no se aplican con el mismo rigor para todos los contenidos ni para todas las voces. Un ejemplo claro de este desbalance ocurrió en México, cuando publicaciones que denunciaban abusos policiales fueron eliminadas por usar música con derechos de autor. Aunque el objetivo era denunciar violencia institucional, el algoritmo priorizó la protección de propiedad intelectual por sobre el derecho a la verdad y la justicia. Al mismo tiempo, contenidos que promovían discursos misóginos o racistas se mantuvieron visibles sin consecuencias.

Esta doble vara, que castiga la denuncia y deja pasar el abuso, no es un error: es una consecuencia directa de sistemas diseñados sin contexto, sin perspectiva de derechos y sin rendición de cuentas. Se censuran las pruebas, pero no las violencias. Se penalizan las denuncias, pero no las estructuras que las provocan. Al proteger ciertas narrativas y silenciar otras, los algoritmos refuerzan el statu quo y erosionan las posibilidades de transformación social.

Además, según recoge la Red Internacional de Periodistas, este es un juego asimétrico. En ese laberinto de claves y restricciones, lo que está en riesgo no es solo el alcance inmediato; las denuncias se vuelven más difíciles de rastrear, y la información concreta de organizaciones, activistas o movimientos sociales desaparece para quienes más la necesitan.

El impacto en la acción colectiva y la memoria

El control automático que penaliza palabras sin ponerlas en contexto condiciona la forma en que narramos nuestras luchas, ya que nos obliga a moldear las palabras que usamos para nombrar nuestras realidades. En muchos casos, estas son palabras que han costado años conceptualizar y consensuar dentro de los movimientos sociales. Al no llamar las cosas por su nombre, se diluye el mensaje y se fragmenta la memoria colectiva.

Como advierte la revista Forced Migration Review, cuando comunidades en condiciones vulnerables se reapropian de términos o usan lenguajes de denuncia, los algoritmos parecen ser más efectivos para eliminar sus contenidos que para moderar discursos de odio o acoso que les atacan. Este desbalance se vuelve crítico cuando miramos quiénes quedan sistemáticamente fuera de las reglas del juego. Las experiencias de personas refugiadas y/o racializadas, por ejemplo, se vuelven aún más invisibilizadas.

Existe un desfase entre los contextos locales y las reglas impuestas globalmente por las plataformas. Muchas veces, los sistemas de moderación algorítmica no están adaptados a las realidades sociales, culturales y lingüísticas de comunidades del Sur Global, lo que intensifica la exclusión digital. Una palabra que en un idioma puede ser una forma legítima de denuncia, en otro es catalogada como violenta o riesgosa. Esta desconexión refuerza la desigualdad en el acceso a la palabra pública y subraya la necesidad de una moderación en el entorno digital que escuche y responda a las realidades plurales que habitan internet.

Quienes dominan los códigos pueden sortear la censura; quienes no, quedan afuera de la conversación. El Digital Future Society alerta que a activistas, creadores de contenido y periodistas se les exige desarrollar un lenguaje que se reinventa una y otra vez frente a la opacidad algorítmica. Pero cuando las palabras cambian constantemente para eludir la censura, se vuelve más difícil ponerlas en común y hacerlas accesibles para otras personas. Frente a estas restricciones debemos repensar cómo nos comunicamos y qué estrategias podemos adoptar.

¿Cómo resistimos?

Nombrar con claridad es un acto político. Llamar las cosas por su nombre, sin eufemismos, es también una forma de resistencia. Reapropiarse del lenguaje algorítmico no significa aceptarlo, sino visibilizarlo como síntoma de un sistema injusto. Algunas organizaciones ya crean glosarios y recursos compartidos para descifrar el algospeak, como el Algospeak Dictionary del Colectivo de Derechos Digitales para la Salud y los Derechos Sexuales y Reproductivos. Democratizar estos conocimientos es clave para que más personas puedan resistir y participar.

También necesitamos exigir mayor transparencia algorítmica. Las plataformas deben explicar cómo moderan y bajo qué criterios y con qué sesgos. Este reclamo no es técnico: es político. Implica defender la libertad de expresión, pero también proteger los temas políticos, culturales y sociales que importan y que hoy están siendo eliminados por sistemas automatizados.

Por último, urge construir y habilitar redes que no estén subordinadas a intereses corporativos. Espacios descentralizados como el fediverso, los medios comunitarios, cooperativas digitales o las alianzas entre organizaciones pueden resguardar nuestras narrativas y sostener la memoria. Resistir también es cuidar redes donde nuestras palabras no sean censuradas por algoritmos opacos.

Palabras que pesan

Las palabras tienen peso. Y cuando las escribimos completas, aunque duelan, aunque molesten, estamos recordando que hay cosas que no pueden ser contenidas, ni siquiera por un algoritmo. Recuperar el lenguaje, cuidarlo y defenderlo es una tarea urgente para quienes luchan por una internet más justa.

En tiempos de automatización y censura silenciosa, reapropiarnos del derecho a nombrar también es reapropiarnos del derecho a existir. No basta con adaptarse: necesitamos transformar el entorno digital para que nuestras palabras no tengan que esconderse.

¿Quién cuenta nuestras historias? Periodismo automatizado y derechos fundamentales

En los últimos años, las herramientas de inteligencia artificial han comenzado a ocupar un lugar cada vez más visible en las redacciones de medios de América Latina. Desde asistentes que ayudan a transcribir entrevistas hasta sistemas que generan notas automáticamente, la promesa es clara: más eficiencia, menos carga laboral, menor costo y mayor productividad. Pero en un contexto de precarización, concentración de medios y saturación de desinformación, la pregunta no puede ser solo técnica: ¿qué implica automatizar la producción de noticias? ¿Qué se pierde cuando desplazamos el criterio humano por decisiones algorítmicas? ¿Y qué derechos están en juego cuando delegamos funciones clave a tecnologías opacas, que pueden comprometer la privacidad de las personas o exponer datos sensibles sin garantías claras?

Las tecnologías no son neutras, ni inevitables. Cómo se diseñan, a quién benefician y en qué condiciones se integran son decisiones profundamente políticas. Cuando hablamos de IA en el periodismo, lo que está en juego no es solo el futuro del oficio, sino también la calidad del debate público, la diversidad de voces y el derecho a una información verificada, plural y libre.

La IA no se equivoca, simplemente inventa

Uno de los mayores peligros del uso de IA en el periodismo no radica únicamente en sus limitaciones técnicas, como su capacidad para generar contenidos falsos con un tono convincente, sino en cómo estas herramientas son incorporadas en las prácticas periodísticas sin un control adecuado. A estas falsedades se les conoce como “alucinaciones”: errores que no son simples imprecisiones, sino construcciones completamente ficticias, presentadas con seguridad estilística. El riesgo aumenta cuando estas herramientas se integran en flujos de trabajo sin revisión humana o se utilizan para cubrir temas sensibles con escasa verificación, desplazando criterios editoriales por resultados automatizados, ajenos al contexto y desvinculados de toda responsabilidad profesional.

Durante el panel internacional “Inteligencia Artificial y Periodismo: ¿Cómo los medios están cubriendo y utilizando la IA en América Latina?”, organizado por la UNESCO en el marco del Día Mundial de la Libertad de Prensa de este año, periodistas de todo el mundo, autoridades y expertas alertaron sobre este fenómeno. Se coincidió en que, lejos de reemplazar el trabajo periodístico, la IA exige una nueva capa de responsabilidad: todo contenido generado o asistido por sistemas automáticos debe ser verificado, contrastado y contextualizado. Usar estas herramientas sin revisión humana no es innovación, es una forma acelerada de erosionar la confianza pública.

Entre precariedad y automatización

La adopción de IA ocurre en un escenario de crisis estructural para el periodismo. En América Latina, muchas redacciones enfrentan recortes presupuestarios, tercerización de funciones editoriales y presión por producir más contenido en menos tiempo. En este contexto, las tecnologías generativas parecen una solución fácil: automatizar notas de economía, clima o espectáculos para ahorrar tiempo y recursos.

Pero esta lógica plantea una falsa dicotomía: ahorrar costos a cambio de debilitar el oficio. En algunos casos, ya se han documentado errores graves en medios internacionales que usaron IA sin control editorial, como la publicación de artículos fabricados o entrevistas a personas inexistentes. El impacto no es solo reputacional, también precariza aún más el trabajo de periodistas, editores y correctores, consolidando un modelo donde la automatización reemplaza capacidades humanas sin generar condiciones más dignas ni sostenibles para quienes sostienen el oficio.

En tiempos donde el periodismo atraviesa una crisis de credibilidad en muchas partes de la región, automatizar sin criterio no es una solución: es una forma de agravar el problema. El periodismo no es solo producción de contenido; es ejercicio crítico, narración situada, atención al contexto y responsabilidad pública. Cuando se reemplaza por sistemas que priorizan la cantidad sobre la calidad, el resultado no es eficiencia, sino desinformación con apariencia de legitimidad, amplificada por la credibilidad institucional de los medios que la reproducen. La automatización acrítica debilita tanto la calidad como la confianza en el periodismo como herramienta democrática.

Las fuentes no son prompts

Uno de los puntos más delicados -y muchas veces invisibles- del uso de IA generativa en el periodismo tiene que ver con la protección de fuentes. Ingresar información confidencial en sistemas como ChatGPT o Gemini, por ejemplo, para redactar un borrador o resumir una entrevista, implica entregar esos datos a empresas cuyos términos de uso permiten almacenarlos, analizarlos o utilizarlos para seguir entrenando sus modelos. En la práctica, esto significa que nombres, descripciones, detalles sensibles sobre hechos o incluso fragmentos de testimonios pueden quedar registrados en servidores externos, sin garantías sobre su eliminación o uso futuro.

Esto no solo va en contra del principio básico de confidencialidad periodística. También expone a personas que entregaron testimonios bajo promesas de reserva, especialmente en contextos de riesgo como la violencia de género, la corrupción o los conflictos socioambientales, donde una filtración de información puede tener consecuencias graves. La tecnología puede facilitar tareas, pero no debe jamás poner en peligro a las fuentes, ni debilitar las condiciones bajo las que se resguarda su información.

En América Latina, con intentos regulatorios sobre la IA y nuevas reglas sobre datos personales, como la nueva Ley de Protección de Datos Personales en Chile que establece obligaciones claras sobre el consentimiento, la proporcionalidad y la finalidad del tratamiento de datos, este punto cobra aún más relevancia. Las y los periodistas tienen la responsabilidad de aplicar esos principios no solo frente a personas terceras, sino también frente a las plataformas que usan en sus procesos de trabajo, asumiendo que toda herramienta digital forma parte del entorno de riesgo que debe ser evaluado críticamente.

Principios y propuestas para un uso responsable de la IA

Frente a este panorama, no todo son alertas. Existen esfuerzos concretos para promover un uso ético de la IA en el periodismo. Uno de los más relevantes es la Carta de París sobre inteligencia artificial y periodismo elaborada por Reporteros Sin Fronteras (RSF) y publicada en 2023, que establece un decálogo de principios éticos para enfrentar los desafíos actuales.

Entre sus recomendaciones destacan la necesidad de transparencia sobre el uso de herramientas automatizadas, la trazabilidad del contenido generado por IA, la supervisión editorial humana obligatoria, la garantía de que la IA no sustituya funciones esenciales del periodismo y el compromiso con una gobernanza tecnológica centrada en derechos humanos. Esta carta no solo interpela a medios y periodistas, sino también a gobiernos, desarrolladores y plataformas tecnológicas, recordando que el ejercicio periodístico no puede depender de sistemas cuya lógica excluye la responsabilidad pública.

A nivel práctico, ya existen iniciativas que avanzan en la implementación de estos principios. Algunos medios han comenzado a etiquetar de forma explícita el contenido generado por IA, a establecer protocolos de revisión y a capacitar a sus equipos en el uso crítico de estas herramientas. También se discute la incorporación de cláusulas éticas en los contratos con proveedores tecnológicos y la creación de mecanismos colectivos de evaluación y rendición de cuentas, especialmente en redacciones independientes y comunitarias.

La tecnología puede ser aliada, pero siempre bajo marcos de transparencia, ética profesional y respeto por las personas. Eso implica comprender sus límites, evaluar críticamente cómo está diseñada y qué efectos produce, y evitar delegar en sistemas automatizados decisiones que exigen contexto, criterio editorial y responsabilidad humana. Usarla con cuidado no solo protege el ejercicio periodístico, sino que también garantiza el derecho de las audiencias a recibir información confiable, diversa y producida con estándares de integridad.

Periodismo, democracia y tecnología

La automatización en el periodismo no es un escenario neutral. Puede ayudar a abordar tareas operativas en contextos de sobrecarga, reducción de equipos o necesidad de mejorar la accesibilidad de ciertos contenidos. Pero cuando se adopta sin criterios de justicia, equidad y responsabilidad, también puede profundizar problemas ya existentes: precarización laboral, pérdida de diversidad en las coberturas y deterioro del juicio editorial. Informar es una función pública y una responsabilidad con la sociedad, no una tarea replicable sin contexto por sistemas opacos.

En América Latina, donde el espacio cívico se reduce, donde el acceso a la información muchas veces depende de medios independientes, y donde las amenazas a periodistas se multiplican, proteger el periodismo es también proteger la democracia.

Por eso, las decisiones sobre cómo se usa la IA en la producción de noticias no pueden quedar en manos de unos pocos actores tecnológicos. Deben involucrar a periodistas, audiencias, legisladores, editores, academia, sociedad civil y defensores de derechos humanos. Porque si el periodismo se transforma, debe hacerlo sin perder lo que lo vuelve esencial: su capacidad de escuchar, cuestionar y poner en el centro las historias que merecen ser contadas.

Por un trabajo digno en la era de los algoritmos

El legado del primero de mayo en el entorno digital latinoamericano

Cada Primero de Mayo, el mundo conmemora la histórica lucha por los derechos laborales, recordando las demandas por derechos como una jornada justa, salarios dignos y condiciones de trabajo seguras. Esta fecha, arraigada en las movilizaciones obreras del siglo XIX, nos invita a reflexionar sobre el estado actual del mercado laboral y los desafíos que aún persisten, especialmente en un contexto global marcado por la rápida incidencia de las tecnologías digitales.

El mercado laboral latinoamericano, si bien diverso en sus matices nacionales, comparte desafíos comunes en cuanto a la protección de los derechos laborales. La persistencia de la informalidad –promediando casi la mitad de la población empleada en la región– continúa erosionando la capacidad de las personas trabajadoras para acceder a protecciones básicas como seguridad social, vacaciones pagadas y estabilidad en el empleo. En este escenario, la promesa de flexibilidad y autonomía ofrecida por las plataformas digitales de trabajo bajo demanda ha encontrado un terreno fértil para su expansión, presentando alternativas prácticas de generación de ingresos para poblaciones en situación de vulnerabilidad. Sin embargo, como exploramos en nuestra columna sobre la «paradoja de la flexibilidad», esta aparente libertad a menudo enmascara una realidad de precariedad, inestabilidad y una creciente dependencia de sistemas de gestión algorítmica opacos.

Invito a reflexionar con lo siguiente: imagine que su teléfono vibra con una notificación fría e impersonal, «Su cuenta ha sido suspendida por violar los términos y condiciones». Intenta recordar qué pudo haber hecho mal, repasa mentalmente las extensas cláusulas que quizás leyó por encima al registrarse, pero la razón específica se escurre entre la ambigüedad del mensaje. Intenta apelar, buscar una explicación humana, pero se topa con respuestas automatizadas que no llevan a ningún lado. Su fuente de ingresos se ha cortado totalmente de un momento a otro. Este escenario no es hipotético para quienes dependen de plataformas y para quienes la suspensión de una cuenta significa quedarse sin sustento. Para otras personas quizás sea una herramienta para complementar ingresos o manejar sus horarios; pero para muchas en nuestra región, especialmente para quienes encuentran en estas plataformas su única oportunidad laboral, la realidad es muy distinta. Mientras algunas personas pueden elegir cuándo y cómo trabajar, otras se ven atrapadas en la urgencia de aceptar cualquier tarea disponible –sin margen para negociar o rechazar–, en labores que exigen menor calificación. ¿Estamos hablando entonces de una fuente de trabajo flexible, o una nueva forma de vulnerabilidad laboral?

Es tiempo de ponerle reglas al algoritmo

La irrupción de tecnologías como los algoritmos, las plataformas digitales y la inteligencia artificial en el ámbito laboral plantea tanto oportunidades como desafíos sin precedentes para los derechos de las personas trabajadoras. Por un lado, se argumenta que la automatización tiene el potencial de liberar de tareas repetitivas (como la revisión de códigos) o riesgosas (como ciertos controles médicos), o que impulsará la productividad, abriendo nuevas opciones de empleo en sectores emergentes. Sin embargo, en diversos sectores desde la manufactura hasta los servicios, los algoritmos gestionan tareas, evalúan el desempeño, asignan trabajos o tarifas e incluso toman decisiones sobre la contratación y el despido.

Esto conlleva a que estas mismas tecnologías pueden exacerbar las vulnerabilidades existentes. Facilitan nuevas formas de explotación, vigilancia y control, especialmente en sectores carentes de regulación adecuada y alta informalidad como el reparto de mercaderías o el servicio doméstico. En estos rubros aquellas problemáticas pueden verse profundizadas, ya que es común ver a su fuerza de trabajo sumergida en una narrativa que ni siquiera la reconoce como persona trabajadora. Los mecanismos de vigilancia y monitoreo regidos por algoritmos a menudo carecen de transparencia y rendición de cuentas, lo cual somete a trabajadoras y trabajadores a la presión constante de aceptar cada solicitud. Incluso, les obliga a aceptar en condiciones de peligro, como cuando implica cargar mercancías pesadas que ponen en riesgo la integridad de sus vehículos o cuando han sido víctimas de maltrato por parte de locatarios o clientes. Se acepta cualquier pedido por el temor a que el incumplimiento derive en la suspensión o bloqueo de su fuente de ingresos, sin mecanismos claros para comprender la decisión o revertirla.

Las cuentas pendientes en este nuevo panorama laboral son significativas: ¿Cuántas decisiones injustas se toman hoy sin que la persona trabajadora pueda cuestionarlas o comprender sus razones? Una regulación efectiva es ineludible para que la tecnología potencie el trabajo respetando derechos, pero no basta con leyes: debe incluir la participación de personas trabajadoras en el diseño de estas herramientas. Se requiere abordar la clasificación de los vínculos entre empresas y personas en plataformas, además de garantizar transparencia y mecanismos de auditoría independiente. Se requiere rendición de cuentas ante las autoridades para evitar discriminación e injusticias, y priorizar la protección de datos personales ante la vigilancia intrusiva y la toma de decisiones automatizadas que perjudican a las personas trabajadoras. 

En este Día Internacional de las Trabajadoras y Trabajadores, el llamado a la defensa de los derechos humanos en el ámbito digital resuena con fuerza. La flexibilidad no puede venir a cualquier costo:  las promesas de progreso tecnológico no deben traducirse en un agravamiento de las condiciones de trabajo y una erosión de los derechos históricamente conquistados. Es imperativo que las tecnologías digitales se desarrollen y utilicen con un enfoque centrado en las personas, aplicando un respaldo de derechos laborales y garantizando un futuro laboral justo, equitativo y digno en América Latina. La lucha por el trabajo decente en la era digital es la continuación de la batalla histórica por la justicia social, y en este Primero de Mayo, reafirmamos nuestro compromiso con esa causa.

La IA y los nuevos riesgos para la privacidad

La inteligencia artificial (IA) es mucho más que los sistemas de chat que se popularizaron desde inicios de esta década. Si bien ahora se está viviendo el boom de esta tecnología, no hay que olvidar que la IA es una rama de las ciencias de la Computación que ha estado presente desde sus inicios. En el pasado, existieron hitos importantes en relación a esto. Por ejemplo, en el año 1997 la computadora Deep Blue, creada por IBM, fue capaz de vencer en ajedrez al entonces campeón del mundo Gary Kasparov. También, hace poco menos de 10 años, el software Alpha Go de Google logró ganarle a varios campeones internacionales del juego de estrategia Go.

El boom que se vive en la actualidad tiene que ver principalmente con los modelos grandes de lenguaje (LLM por sus siglas en inglés). Se trata de un programa de la IA que permite tener aplicaciones con las cuales nos podemos comunicar de forma natural como si estuviéramos hablando con personas. Para que estos sistemas puedan tener una conversación con humanos se los debe entrenar con cantidades extraordinarias de datos y además se requiere de mucha capacidad de cómputo.

Dime qué datos utilizas y te diré quién eres

Si se piensa en los LLM desde una perspectiva de privacidad, lo primero que nos deberíamos preguntar es ¿de dónde salen los datos que entrenan el modelo? Según OpenAI, utilizan 3 fuentes para entrenar los modelos de ChatGPT: información pública, información compartida por socios e información provista por humanos.

En la primera opción, se puede pensar en la internet pública con sitios como Wikipedia, Github, Archivo de internet y otras similares. Desde un punto de vista de privacidad, esta información está públicamente accesible y se puso a disposición con la intención de compartir conocimiento libremente. Se podría decir que entrenar LLM con esta información, haría más accesible el conocimiento a la mayoría de la gente.

Pero este no es el caso para todos los sitios web. Existen casos como las redes sociales, donde las personas -por error- pudieron haber publicado información personal sin intención y esta se hizo pública. Incluso se podría haber subido contenido con el propósito de que sea accesible para el público, pero no necesariamente para entrenar modelos de inteligencia artificial.  Evidentemente, hay problemas relacionados con derechos de autor, pero en esta columna no nos vamos a detener en esa cuestión.

En el segundo caso, no es claro cuáles son los socios que proveen información a OpenAI. En su página web mencionan una colaboración con al gobierno de Islandia para mejorar el soporte del idioma islandés, y también hablan de colaborar con la organización Free Law Project. Sin embargo, no queda claro con qué otros grupos hacen alianzas para la provisión de datos.

Desde el punto de vista económico, el principal aliado de OpenAI es Microsoft. Una empresa que en 2023 realizó un acuerdo de 10 mil millones de dólares con OpenAI por varios años, y que incluye el uso de la infraestructura Azure. Esta infraestructura es la “nube” que oferta Microsoft para que terceros puedan ejecutar sus aplicaciones. En este caso, Azure es la principal infraestructura de ChatGPT y otros productos de OpenAI.

¿Será que OpenAI utiliza información de las aplicaciones de Microsoft como Bing, Outlook, Office 360, entre otros? ¿Estará Microsoft entregando información personal de sus usuarios para entrenar al ChatGPT? No hay forma de saberlo, salvo que se haga una auditoría y se transparente la forma en la que OpenAI entrena sus modelos.

Si pensamos en las otras empresas líderes como Google con Gemini, Meta con MetaAI o X con Grok, podemos, al menos, sospechar que utilizan los datos de sus sistemas para entrenar sus modelos grandes de lenguaje. Todas estas empresas tienen algo en común, muchos datos y gran capacidad de procesamiento de información, lo que las pone en la élite de la IA.

Nube y privacidad: malos amigos

Ya se analizó la privacidad al momento de entrenar los modelos LLM. Ahora bien, ¿qué pasa con nuestra privacidad al utilizar estos chat bots? El principal problema que se presenta al utilizar estas herramientas de IA es que se encuentran en la nube, a quien le entregamos todos nuestros datos.

Si se utiliza la IA para que nos responda nuestras preguntas cotidianas, estas preguntas se asocian a nuestro perfil y sirven para perfilarnos como individuos. Si se usa la IA para que resuma una llamada de Zoom, entonces estamos entregando la transcripción de la conversación y el resumen a la plataforma. Si la utilizamos para escribir un correo electrónico, entonces el sistema que lo redacta tendrá el contenido de nuestro correo. Si le pedimos que nos sintetice un documento confidencial, le servimos en bandeja esa información. Toda esta interacción servirá para entrenar los futuros modelos de lenguaje. En teoría, gente con la capacidad de hacer las preguntas correctas a la IA podría extraer información de nuestros archivos confidenciales.

Por otra parte, el uso de IA en aplicaciones de chat cifrado también resulta un problema muy grave para la privacidad de la ciudadanía. El cifrado extremo a extremo protege nuestras comunicaciones para que nadie, excepto las personas que participan en la misma, las pueda leer. Un adversario particularmente importante del cual nos protege este tipo de cifrado es el proveedor del servicio. Si se piensa en WhatsApp, entonces su cifrado nos debe proteger para que WhatsApp no lea nuestras conversaciones. Sin embargo, desde algún tiempo atrás tenemos entre nuestros contactos al bot de @MetaAI. A este bot lo podemos invocar desde cualquier conversación para hacerle consultas. Cuando eso sucede, el cifrado extremo a extremo pierde su valor ya que Meta debe leer nuestras conversaciones para interactuar.

En general, los problemas de privacidad de la IA están asociados a la utilización de plataformas en “la nube”. En otras columnas, hemos visto algunos ejemplos del uso de infraestructura propia con software libre para poder tener una oficina virtual, sistemas de videoconferencia seguras, incluso instancias de redes sociales descentralizadas como el Fediverso.  ¿Se puede hacer lo mismo con la inteligencia artificial?

La respuesta es sí, y de hecho existen varios LLMs que se pueden utilizar sin costo y de forma local o incluso en infraestructura propia. A diferencia de sistemas como una nube propia o sistemas de chat seguro, con inteligencia artificial se va a necesitar mayor capacidad de cómputo o versiones más pequeñas de los LLM. Al usar modelos más cortos, probablemente no sirvan para preguntar cualquier cosa, pero sí podrían ser muy útiles para tener un bot con un propósito específico. Por ejemplo, para resumir documentos confidenciales o traducir textos.

IA al servicio de las personas, no de las corporaciones

En nuestros días, es común que la gente utilice IA para apoyarse en sus tareas cotidianas y, seguramente, en el futuro esta herramienta se usará aún más. Es sumamente importante que como sociedad podamos reflexionar acerca de los propósitos para los cuales se seguirá utilizando la IA y los riesgos que eso trae aparejado. No es lo mismo recurrir a ella para traducir un documento público, redactar un correo electrónico o resumir un documento confidencial. Habrá casos en los que se pueda considerar aceptable utilizar IA a cambio de sacrificar la privacidad y habrá otros en los que no.

La autonomía en la IA es algo que la sociedad debe explorar. Para tareas y actividades donde se trabaja sobre información sensible, tener un sistema tecnológico que no reporte esa información a terceros sería una herramienta muy poderosa. Incluso varias organizaciones podrían unirse entre sí para compartir infraestructura y poder ejecutar colectivamente mejores modelos de lenguaje. Las regulaciones sobre esta herramienta tecnológica deben velar por el respeto de nuestra privacidad, nuestros datos y nuestra información. Solo de esa forma podremos imaginar un futuro digital seguro para todas y todos.

“El viaje” de la creatividad en la era de la Inteligencia Artificial

Las semanas pasadas Internet se colmó de millones de imágenes generadas por IA al estilo del icónico Studio Ghibli. Las personas usuarias emplearon el último generador de imágenes de OpenAI para que sus fotografías, las de sus familiares y mascotas aparecieran, en cuestión de minutos, como personajes salidos del místico universo animado por Hayao Miyazaki, fundador del mítico Studio Ghibli.

La tendencia de la “IA Ghibli” suscitó ternura, nostalgia y diversión en las personas viralizándose con rapidez, al tiempo que despertaba múltiples debates pertinentes. En efecto, las preguntas por los derechos de autor no tardaron en revivir, las implicaciones medioambientales del uso de la IA florecieron, los pronunciamientos de artistas se reavivaron y las alertas alrededor de la protección y el uso de datos personales en la IA se encendieron con fuerza. Lejos de pretender abarcar en su totalidad o resolver estos y otros debates, en esta columna aprovecharemos el reposo de la tendencia para reflexionar sobre dos puntos: el lugar del proceso creativo humano y la sensibilidad artística a propósito de la expansión de la IA generativa de imágenes; y los riesgos hacia las personas en materia de protección de datos personales.   

¿El arte se crea o se programa?

Ya sea en la música, la ilustración o la escritura, la creatividad es un proceso complejo, multifacético, y profundamente humano. La creatividad humana requiere la interpretación de lo que otras personas han hecho, combinarlo con ideas y experiencias propias, agregarle matices y, a partir del ensayo y error, conseguir expresar la idea que gestamos por algún tiempo en nuestra imaginación. Pensemos que cada creación es como un Castillo Ambulante de Miyazaki, una suma de estilos y piezas heterogéneas que forman una estructura con vida propia.

Ahora, el presente tecnológico del arte ofrece y acerca a las personas a cientos de grandes referentes para la creatividad humana. De hecho, expresarse artísticamente a través del uso de nuevas y emergentes tecnologías, incluida la IA, nunca había sido tan fácil y accesible. La energía vital que se imprimía en componer un compás, en hacer un esbozo o en empezar de cero un escrito se transforma en la era digital que nos atraviesa. Hace días nomás, el proceso de reproducir un estilo ajeno se redujo al envío masivo de cadenas de instrucciones o “prompts” con los que la IA de OpenAI generó en segundos miles de imágenes detalladas con el estilo Ghibli. Esta tendencia “IA Ghibli” merece ser pensada desde el valor mismo de la creatividad y de los creadores en un mundo que cada vez más se inclina a la automatización prescindiendo del factor humano.

La IA habilita la producción continua e inmediata de piezas artísticas, representando tanto oportunidades para el ecosistema artístico, como riesgos para los procesos de creación tradicionales. La inteligencia artesanal de Miyazaki, por ejemplo, nos lleva a reflexionar sobre la vivencia y padecimiento del proceso creativo, sobre el tiempo que toma, los retos y las potencialidades que representa para la imaginación personal y colectiva, y la creatividad. Esto en un contexto donde el trabajo artístico suele estar mediado por condiciones precarias o poco dignas que suponen un reto y un peso adicional.  

La creatividad como proceso y como resultado es una experiencia ajena e irreproducible para la IA, una tecnología que no sueña, imagina o experimenta como lo hace la creatividad humana, y en razón a esos elementos no se avoca a la generación de estilos originales, sino a la reproducción de los estilos de otros. Para quienes crean una historia mientras la ilustran (sin cadenas de instrucciones previas), estableciendo una relación de identidad con su obra al dejar un poco de su experiencia de vida en cada detalle y trazo, la generación de imágenes con IA representa con fuerza el “insulto a la vida misma”, una afirmación del propio  Miyazaki al referirse a la generación de imágenes con IA. Para quienes apoyan la inteligencia artesanal, la tendencia de la “IA Ghibli” produjo cuestionamientos válidos sobre el sentido del arte en tiempos donde la IA cada vez ocupa más espacios que creíamos nuestros.

No obstante, en la medida que esta tecnología se instaló en el oficio creativo y fuera de él, es necesario explorar salidas que trasciendan a los marcos de transparencia en el entrenamiento de las herramientas de IA, así como concretar usos de estos sistemas alineados con una perspectiva de derechos humanos que impidan la reproducción de violencias, sesgos y formas de discriminación. Para esto, es crucial suscitar el diálogo entre empresas, personas usuarias y colectivos de artistas para precisar mecanismos de protección, reclamación y compensación que amparen a las partes más allá del terreno movedizo y desigual de los derechos de autor.

Equilibrar la creatividad humana y las formas que toma con la innovación tecnológica está en el centro de la discusión. Quizás, más allá de emprender un proceso creativo al estilo tradicional, la IA habilita nuevas forma de expresión artística donde retazos de ideas cobran vida al instante representando momentos fugaces de nuestra imaginación.

Ahora bien, el uso entusiasta de la IA no puede eclipsar la reflexión y el pensamiento crítico alrededor de las tecnologías, lo que incluye exigir responsabilidad e información pública a las empresas sobre, por ejemplo, el uso de los millones de datos personales y de terceros que alimentaron el modelo de OpenAI en las últimas semanas.

Las tendencias de la IA y los datos personales

De la mano de los riesgos para el ecosistema artístico, vale la pena destacar los riesgos para las personas que recordó el “trend” de la IA Ghibli. A saber, un asunto que sorprendió fue la conducta de entrega voluntaria, gratuita y entusiasta de datos biométricos de millones de personas a OpenAI. Por esto, apuntamos a reflexionar sobre los riesgos de entregar información personal, como los rostros propios y de terceros (como menores de edad) con ligereza a las empresas tecnológicas. Es fundamental preguntarnos por nuestra relación con la IA y cuestionar aquellos lugares donde naturalizamos la recopilación de nuestros datos a través de argumentos como “nuestra información ya está en todas partes”. Recordemos que como personas usuarias somos soberanas de nuestra información y podemos decidir sobre esta y exigir transparencia en su uso por parte de las empresas tecnológicas.

Como vemos, el debate es amplio. La naturaleza evolutiva de tecnologías como la IA, sobre todo en su dimensión generativa, refuerza la importancia de, por un lado, avanzar hacia estrategias concretas de responsabilidad para las empresas que, en su carrera global por la IA, lanzan productos con implicaciones para los derechos de las personas, impactando incluso en ámbitos que creíamos exclusivos de lo humano, como la creatividad y el proceso artístico. Y, por otro lado, es ineludible involucrar a las personas usuarias traduciendo el lenguaje del trabajo académico e intelectual acerca de las tecnologías digitales a sus realidades concretas. Sólo así, los riesgos asociados a la IA, por ejemplo, podrán entenderse como consecuencias inherentes a su uso, y no como asuntos aislados, ajenos a nuestras prácticas diarias.

Cumbre para la Acción en IA de París: ¿qué podemos esperar para América Latina?

La Cumbre para la Acción en Inteligencia Artificial (AI Action Summit), que tuvo lugar en París a principios de la semana pasada, reunió a varios de los máximos referentes -principalmente del Norte Global- en el desarrollo de tecnologías de Inteligencia Artificial, junto con líderes de algunas de las mayores economías del mundo. Autoridades de gobiernos, liderazgos empresariales, representantes de organizaciones internacionales y referentes académicos compartieron sus perspectivas sobre los próximos pasos necesarios para acompañar el despliegue de esta tecnología. ¿De qué manera? Según el título de la declaración oficial con la que cerró el evento, con el impulso de una “Inteligencia Artificial Inclusiva y Sostenible para las Personas y el Planeta”.

La realización de esta cumbre plantea interrogantes sobre su impacto real en América Latina, una región con escasa representación entre las personas oradoras, tanto en el evento principal como en los más de cien encuentros paralelos realizados en la capital francesa. Sin embargo, las políticas, enfoques e iniciativas de las empresas presentes —las principales actoras en el desarrollo global de la IA— tienen una influencia determinante en nuestra región. La falta de un espacio para la incorporación de perspectivas latinoamericanas representa, por tanto, una oportunidad perdida. Un ejemplo de ello es el cierre del encuentro a cargo de Sundar Pichai, CEO de Google, una de las corporaciones que más invierte en centros de datos y despliegue de la IA en la región. Cabe preguntarse qué visiones estuvieron representadas y cuáles fueron las conversaciones que buscan delinear la agenda futura.

Uno de los principales temas de la Cumbre fue la ‘IA de Interés Público’, para discutir el desenvolvimiento de estas tecnologías con el ser humano en el centro. La declaración final estableció como prioridades: promover el acceso a la Inteligencia Artificial para reducir las brechas digitales; garantizar un desarrollo abierto, inclusivo, transparente, ético, seguro y confiable dentro de marcos mundiales; y crear condiciones que fomenten la innovación evitando la concentración de mercado. Se destacó la importancia de utilizar la IA para fortalecer el futuro del trabajo y el crecimiento sostenible, asegurar su desarrollo en armonía con el bienestar de las personas y el planeta, y reforzar la cooperación internacional para coordinar su gobernanza a nivel global.

Sin embargo, quedaron en evidencia diferencias profundas en los enfoques y prioridades regulatorias entre las grandes potencias. Estas discrepancias no solo quedaron en el debate, sino que también se reflejaron en las decisiones finales del evento. En lugar de lograr consensos sustantivos, la Cumbre dejó en claro que los países más influyentes siguen caminos separados, lo que puede fragmentar aún más los marcos reglamentarios internacionales y afectar la adopción de estándares en América Latina. La expectativa de un escenario global de gobernanza de IA se ve así más lejos que nunca.

La declaración final fue firmada por 60 países de todo el mundo, con dos notables abstenciones: Estados Unidos y el Reino Unido. Un vocero del país norteamericano afirmó que su abstención se debe a que el documento “no abordaba de manera suficiente las cuestiones más complejas relacionadas con la seguridad nacional”. En América Latina, la declaración fue firmada por Brasil, Chile, Colombia, México y Uruguay. Si bien la firma de un pronunciamiento de este tipo puede parecer algo lejana y simbólica, es un buen indicio para comprender la falta de perspectivas globales o caminos a seguir para nuestra región. A continuación, exploramos algunos ejes clave que podrían orientar las discusiones futuras.

Perspectivas regulatorias

La discusión sobre una IA inclusiva y sostenible para las personas y el planeta contó con escasa presencia del Sur Global. A excepción de representantes de Chile, Brasil y Costa Rica, los espacios gubernamentales y regulatorios estuvieron dominados por enviados de Europa y Norteamérica, incluido un representante del Vaticano. Esta composición sesgó inevitablemente el debate, acentuado aún más por la casi nula participación de nuestra región en paneles conformados mayormente por el sector privado y la academia. 

Este desequilibrio es clave al analizar cómo se configuran las prioridades en la agenda de regulación de la IA, en un contexto donde los foros internacionales tienden a centralizar la discusión en torno a actores con mayor poder tecnológico. Como señala el Tech Global Institute, esta exclusión es parte de un problema estructural más amplio: la gobernanza de la IA sigue orientada por los intereses de los desarrolladores, reforzando las históricas asimetrías de poder en el ámbito tecnológico. La ausencia de mecanismos que garanticen una participación equitativa de la región en la toma de decisiones perpetúa un modelo de gestión donde las prioridades del Norte Global definen el futuro de la IA para todos.

Perspectiva de derechos humanos

A pesar de la relevancia de los derechos humanos en la discusión sobre las normativas de la IA, esta perspectiva estuvo ausente como eje central en la Cumbre. Si bien la declaración final menciona la necesidad de desarrollar sistemas de Inteligencia Artificial alineados con los derechos humanos, la transparencia y la sostenibilidad ambiental, no establece medidas concretas para garantizar su cumplimiento. Esta omisión refleja una falta de voluntad política para abordar de manera efectiva las posibles violaciones de derechos derivadas del uso de la IA.

Esta falta de un enfoque explícito en derechos fundamentales contrasta con la importancia de integrar los marcos normativos internacionales y las legislaciones nacionales en los debates regulatorios, especialmente en países como Brasil y Chile, donde se discuten proyectos en la materia. La Cumbre promovió la idea de una IA de «interés público», alineada con el bienestar ciudadano, pero sin una referencia clara a los derechos como fundamento para su supervisión.

A esto se suma la falta de promoción de una visión común que al mismo tiempo sea capaz de abordar los desafíos que fueran mencionados. Así, aunque la sostenibilidad fue parte del discurso de cierre, no se discutieron medidas concretas para abordar el impacto ambiental de estas tecnologías. La creciente demanda de centros de datos y el consumo energético de los modelos de IA de última generación fueron mencionados solo de manera superficial, sin compromisos reales para mitigar sus efectos en el cambio climático. A modo de síntesis, Access Now calificó la Cumbre como “una oportunidad desaprovechada para una gobernanza de la IA centrada en los derechos humanos”.

Un diálogo con ausencias clave

La Cumbre reunió a quienes lideran y tienen mayor influencia en la discusión sobre Inteligencia Artificial. En un contexto internacional marcado por tensiones geopolíticas y económicas, el esfuerzo por alcanzar puntos en común terminó privilegiando un enfoque centrado en la aceleración de la innovación, dejando en un segundo plano debates fundamentales sobre los impactos sociales y regulatorios de esta tecnología.

Si bien la declaración final establece principios en favor de una Inteligencia Artificial Inclusiva y Sostenible para las Personas y el Planeta, persisten asimetrías de poder que afectan particularmente a América Latina. La fuerte presencia de grandes empresas tecnológicas en la conversación regulatoria, sumada a la exclusión estructural de la sociedad civil y la escasa representación del Sur Global, profundiza la concentración de poder en el desarrollo y control de estas tecnologías. A esto se suma la falta de recursos para la investigación, el desarrollo y la incidencia política en la región, lo que limita su capacidad de negociación frente a actores con mayor influencia en la gobernanza global.

Para que América Latina tenga una voz más sólida en el esquema de gestión de la IA, es necesario no solo fortalecer estándares normativos que reflejen sus intereses y diversidad cultural, sino también disputar el modelo actual de toma de decisiones, que sigue reproduciendo las desigualdades de la economía digital. Construir una agenda común regional, articulada entre gobiernos, sociedad civil y sector académico, permitiría incidir con mayor peso en estos foros y evitar que las decisiones sobre IA sigan tomándose sin representación de nuestros países. Sin una estrategia clara, América Latina corre el riesgo de ser espectadora o –peor aún– mero territorio de experimentación en un debate que definirá el nivel de su autonomía en el ecosistema tecnológico global.