Tras el telón de la Inteligencia Artificial: modelos computacionales y construcciones humanas

En el contexto del discurso público, la Inteligencia Artificial (IA) se suele presentar como si se tratara de un agente capaz de razonar con un grado elevado de complejidad y competente en la toma de decisiones autónomas, incluso cuando se habla de temas sensibles como el futuro del trabajo o la forma de vida de las personas. Sin embargo, esta visión idealista se encuentra bastante lejos de la concepción lógica propia de su construcción técnica. Esta diferencia separa la Inteligencia Artificial del razonamiento humano, del procesamiento masivo de datos, de los algoritmos y de las estructuras matemáticas diseñados previa y conscientemente por personas. En esta columna, analizamos el proceso de construcción de modelos de IA, a partir de tres etapas que determinan el comportamiento del mismo: la calidad de los modelos; los datos utilizados; y las decisiones humanas que acaban por configurarlos y guiar sus respuestas.

La IA en su estructura base 

La IA no es una mente autónoma, sino una composición de algoritmos y arquitecturas matemáticas que procesan información de formas específicas. Según la elección del modelo, se define qué tipo de relaciones pueden aprenderse y cuáles quedan por fuera de su alcance. Así, por ejemplo, los árboles de decisión organizan la información como un conjunto de reglas jerárquicas que se bifurcan en función de condiciones simples, mientras que las redes neuronales artificiales procesan datos en múltiples capas, donde cada nivel detecta patrones progresivamente más complejos. Por su parte, los modelos de lenguaje predicen la palabra más probable en una secuencia, correlacionando masivamente patrones en grandes bases de texto.

Con este antecedente, la IA debe ser entendida como una “máquina de clasificación” que opera en capas. No se trata de inteligencia en sentido humano, aunque suele ser diseñada para responder a contextos específicos. Un modelo de IA es un mecanismo que separa, ordena y categoriza información de acuerdo con los criterios que sus diseñadores establecen. Es decir, la Inteligencia Artificial no es inteligencia, sino un aparato estadístico para clasificar miles o millones de datos en tiempo récord para la capacidad humana. 

Datos, el combustible de la IA

Si los modelos conforman la arquitectura de esta tecnología, los datos se constituyen en su insumo fundamental. Mediante los datos se entiende, no solo lo que una IA puede aprender, sino también sus límites, sus sesgos y sus errores. Lejos de ser una “materia prima neutra”, los datos muestran los resultados de decisiones humanas: qué recolectar, cómo clasificar, quiénes participan en la generación y curaduría de esos datos. Cada una de estas etapas añade elecciones y valores, y es precisamente en este movimiento en el que estará la definición del comportamiento de los sistemas de IA. Por lo tanto, si esta tecnología depende de los datos que usa, ¿qué pasa si esos datos no logran reflejar una verdad universal? Por ejemplo, ChatGPT -y muchos otros proyectos de IA- son grandes modelos de lenguaje (LLM), entrenados con enormes cantidades de datos extraídos de Internet, muchos de los cuales comparten los sesgos de las personas que publican esos datos

En este sentido, la máxima técnica Garbage in, garbage out sigue vigente: si los datos de entrada están sesgados, incompletos o mal clasificados, los resultados de la IA reproducirán los mismos patrones. Existen múltiples ejemplos que ilustran este riesgo. Como  Amazon que abandonó en 2018 su sistema de reclutamiento automático al descubrir que favorecía sistemáticamente a hombres frente a mujeres, reflejando la composición histórica de su base de datos de contrataciones. En otro caso, un reportaje de DW advierte que la discriminación “viene garantizada” en muchos sistemas de IA: desde herramientas de reconocimiento facial con sesgo racial hasta algoritmos de crédito que penalizan a ciertos grupos sociales. Por su lado, ONU Mujeres subraya que la falta de diversidad en los equipos de desarrollo y en las bases de datos de entrenamiento refuerza estereotipos de género y desigualdades existentes históricamente, multiplicando sus efectos en los sistemas generativos.

Aprendizaje por refuerzo

Una vez entrenada, la IA no se detiene: en muchos casos sigue ajustándose y adaptándose a partir de la manera en que las personas la utilizan. El feedback que recibe, los ajustes de configuración y las correcciones introducidas por quienes interactúan con ella son parte de un proceso de aprendizaje continuo que modifica su desempeño con el tiempo.

Existen ejemplos que muestran hasta qué punto la intervención humana influye en los resultados. El caso de Grok, el chatbot de la empresa xAI fundada por Elon Musk, es ilustrativo: tras una actualización destinada a hacerlo más “anti-woke” y políticamente incorrecto, el sistema comenzó a producir respuestas antisemitas e incluso elogios a Hitler. Este comportamiento no surgió de un razonamiento autónomo, sino de las instrucciones y configuraciones humanas que guiaron su funcionamiento. El episodio evidencia cómo pequeñas decisiones de diseño o ajustes orientados a complacer a un público específico pueden derivar en consecuencias éticamente problemáticas, vulnerando derechos de grupos sociales y comunidades.

La IA como instrumento de lucha

Al analizar minuciosamente cómo se construyen los sistemas de IA, podemos observar que no se trata de inteligencias autónomas y racionales como lo puede ser la inteligencia humana. Aquello que llamamos IA no piensa: relaciona datos, sigue patrones y entiende que, en función de los insumos que recibe y siempre bajo instrucciones, generará unas salidas u otras. Más que inteligentes, las IA son artefactos sociotécnicos, en tanto que en ellas se entrelazan arquitecturas matemáticas, bases de datos trabajadas y realizadas por personas, y configuraciones definidas, además de la propia interacción continua que establece con las personas usuarias. Tal y como se puede ver, cada capa es el reflejo de decisiones humanas: desde la decisión sobre qué modelo escoger, hasta aquella que determina qué datos incorporar y cómo hacer las interpretaciones. Entender el carácter instrumental de la IA es fundamental para poder situarla en su debida dimensión. 

Este reconocimiento, también da paso a una agenda urgente: garantizar marcos regulatorios claros y democráticos que orienten el desarrollo de la IA a fines sociales y éticamente responsables, con pleno respeto de los derechos de las personas. Sin formas adecuadas de gobernanza, estos sistemas tendrán la capacidad de reproducir sesgos, acentuar desigualdades y fortalecer visiones tecnológicas colonialistas que implantan modelos ajenos a los contextos socioculturales locales. Además, es necesario pensar en descentralizar el desarrollo de la IA, fomentando aquellas iniciativas que puedan alimentarse de la diversidad cultural y lingüística en territorio, tal como documentamos en nuestra investigación “LatinAmerica in a Glimpse”.

En definitiva, se requiere una gobernanza de estas tecnologías en la que prevalezcan los Derechos Humanos, sustentada en la transparencia, la participación social y la justicia algorítmica. El objetivo debería ser evitar que la IA funcione como un espejo de los sesgos de siempre, y lograr que se convierta en una herramienta para sociedades más democráticas y justas.

Contribución a la consulta abierta del Grupo de Trabajo del Consejo de la UIT sobre Internet (CWG-Internet) sobre conectividad significativa en países en desarrollo sin litoral

En el marco de los procesos de consulta abierta del Grupo de Trabajo del Consejo de la UIT sobre Internet (CWG-Internet) presentamos, junto con TEDIC, esta contribución sobre conectividad significativa en países en desarrollo sin litoral. En las Américas sólo dos países responden a tal categoría, Bolivia y Paraguay. En este documento sostenemos que la conectividad significativa habilita el ejercicio de los derechos humanos, y ofrecemos un análisis contextual evaluando los desafíos y las estrategias para avanzar hacia marcos de conectividad significativa en Bolivia y Paraguay desde una perspectiva de derechos humanos e interseccional.

El desafío de construir el futuro de los derechos humanos

La historia de Derechos Digitales comenzó hace dos décadas apostando a una idea común: que las tecnologías permitirían democratizar el ejercicio de un conjunto de derechos humanos de los cuales buena parte de nuestras poblaciones se veían excluidas. En particular, los derechos a acceder y compartir libremente contenidos artísticos, culturales y científico-académicos, así como noticias y opiniones sobre una amplia variedad de temas. Iniciamos nuestro activismo luchando por garantías a estas libertades en el ámbito tecnológico: que no se impusieran barreras técnicas ni jurídicas al acceso. Al contrario, que los nuevos marcos protegieran y desarrollaran nuestros derechos digitales.

Si bien nuestros orígenes se enmarcan más de una década después de que la apertura democrática en la mayoría de los países del Cono Sur abriera espacio a las primeras iniciativas sociales similares, construimos nuestro trabajo a partir de sus luchas y logros, y de las reflexiones y avances de movimientos iniciados años antes. No partimos desde cero, sino desde un mapa que ya mostraba zonas de conflicto, alianzas posibles y caminos por ensayar.

Una historia construida sobre sueños de libertad

Nuestra relación más obvia, al haber sido responsables de la adaptación y difusión de las licencias Creative Commons a Chile, es con el movimiento de “cultura libre”: con el que compartimos la resistencia al avance desenfrenado de la propiedad intelectual como mecanismo para controlar la circulación de contenidos digitales y proteger antiguos monopolios culturales y mediáticos. Sin embargo, este también nace con fuerte inspiración en dos movimientos previos: el que se construye alrededor del software libre, y aquel que se origina de las disputas por el acceso libre al conocimiento, en particular el acceso a la literatura científica.

El primer texto de nuestra actual página web, con fecha de 5 de mayo de 2005 refleja esta vinculación fundante. Su título: “¿Qué es el software libre?”. Su conclusión:

Considerando las políticas de licenciamiento impuestas por soluciones propietarias, las que suelen socavar las libertades ciudadanas, los beneficios que reporta el trabajo colaborativo y el aliciente para el desarrollo nacional, y los costes asociados a la implementación de soluciones informáticas de código abierto, Derechos Digitales manifiesta su decidida opción por el software libre u open source”.

Otro ejemplo del mismo mes, que apunta al vínculo con movimientos más tradicionales de derechos humanos, es el texto de Daniel Álvarez Valenzuela, fundador y entonces director de Derechos Digitales. Según él, internet podría “conferir a los ciudadanos ‘de a pie’ las mismas posibilidades de ejercer su derecho a la libertad de expresión que los grandes grupos económicos”.

Así, al argumentar sobre cómo la propiedad intelectual representaba una “mordaza” a la libertad de expresión, Álvarez recupera las reivindicaciones del fuerte activismo por la libertad de expresión y el derecho a la comunicación en América Latina. Movimientos responsables por denunciar la censura estatal y cuestionar el monopolio económico de los medios de comunicación en nuestra región.

Nuestros primeros textos reflejan otras relaciones con temáticas de interés de distintos grupos: transparencia y acceso a la información, acceso a la justicia, protección de datos, entre otras. Si bien esas referencias ampliaban el marco conceptual desde el cual abordábamos lo digital, nuestras alianzas y formas de trabajo siguieron, durante bastante tiempo, ligadas sobre todo a comunidades técnicas y jurídicas. Así, por mucho tiempo nuestro trabajo se enmarcó en un nicho dentro del amplio espectro del activismo en derechos humanos.

Promesas secuestradas

En 20 años de actuación, maduramos nuestra concepción sobre estas bases, siempre buscando proteger el ejercicio de derechos facilitado por las tecnologías de intentos de captura, criminalización y vigilancia. Pero lo que antes tomaba la forma de una discusión técnica, jurídica y delimitada a un ambiente digital accesible a una pequeña élite regional, hoy está en el centro de las preocupaciones cotidianas de un sinnúmero de personas afectadas de diferentes formas por las tecnologías digitales.

Primero porque el acceso a internet se ha incrementado significativamente en la región, aunque de manera desigual y a menudo en condiciones precarias. Las brechas no son solo de infraestructura, sino también de calidad, asequibilidad y autonomía. Muchas conexiones son lentas, inestables o costosas, y buena parte del acceso ocurre exclusivamente vía móvil, con planes que restringen contenidos y vulneran el principio de neutralidad de la red. Además, persiste una desigualdad profunda en el acceso a dispositivos adecuados y en las competencias necesarias para usar internet de forma segura, crítica y orientada al ejercicio de derechos. La desconexión ya no es el único problema: también lo es una conectividad limitada, subordinada y sin garantías.

Segundo porque ya no es necesario “estar” en internet para sentir los efectos de la digitalización que –a pesar de la eterna promesa de eficiencia– parece haber traído más riesgos que ventajas. La digitalización atraviesa hoy el acceso a servicios esenciales como salud, educación o justicia, sin que existan garantías adecuadas para todas las personas. Estas transformaciones, impulsadas muchas veces por actores privados sin transparencia ni control democrático, o embelesadas por la promesa de la inteligencia artificial, terminan agravando desigualdades y generando nuevas formas de exclusión. Si antes una preocupación central era con el filtrado de datos y la ciberseguridad, a ella se suman también las consecuencias tangibles de los mismos, la violencia y la manipulación del debate público digital a nuestras vidas y sociedades. Ya no hablamos solo de acceso a información, sino de la posibilidad misma de participar en la esfera pública sin ser invisibilizadas, acosadas o manipuladas.

Tercero, porque nuestros cuerpos son capturados y transformados en rastros digitales explotables para distintos fines ajenos a nuestra voluntad, a medida que las tecnologías digitales se aplican para mediar nuestro acceso a espacios y derechos. La expansión de sistemas de identificación biométrica, el monitoreo de actividades y el análisis predictivo han convertido nuestra vida en datos a explotar y nuestras huellas digitales en materia prima para el control social, la discriminación automatizada y la extracción de valor. Lo que alguna vez se entendió como mediación tecnológica, hoy opera como filtro, barrera o condición de acceso a la vida en sociedad.

Las promesas de apertura, descentralización y acceso que inspiraron el nacimiento del campo han sido sistemáticamente desplazadas por dinámicas de concentración, extracción y control que definen las infraestructuras digitales contemporáneas.

En estas condiciones, el entorno digital ya no parece un espacio naturalmente propicio para el ejercicio de derechos. Lo que comenzó como un terreno fértil para imaginar nuevas libertades, hoy plantea desafíos más urgentes, más desiguales, más difíciles de revertir. Pero si algo hemos aprendido en estos veinte años, es que el conflicto no clausura la posibilidad, sino que nos obliga a repensar nuestro trabajo.

Por el derecho a soñar

A pesar de estos patentes cambios y de un contexto geopolítico internacional refractario a las narrativas de derechos humanos, hoy más que nunca nos parece central reivindicar nuestra misión. No como una consigna repetida, sino como una tarea que se redefine constantemente frente a amenazas más sofisticadas, actores más poderosos y exclusiones más profundas. El escenario que enfrentamos es a menudo hostil, pero también más disputado: cada vez hay más fisuras que visibilizan una diversidad de voces que reclaman por justicia. Voces que requieren ambientes seguros para seguir manifestándose y entornos habilitantes, incluso a nivel digital.

A 20 años de nuestra fundación, seguimos apostando en el software libre para garantizar libertad, autonomía y protección. Mantenemos nuestra convicción en la necesidad de democratizar las comunicaciones y romper con los monopolios que se actualizan cada día a costa de la libertad de nuestras comunidades. Confiamos, más que nunca, en que los derechos humanos son una herramienta viva para enfrentar las crisis del presente y construir el futuro.

Los próximos años exigirán más que resistencia: necesitaremos nuevas alianzas, nuevas formas de incidencia y una comprensión más amplia de qué significa hoy defender derechos en entornos digitales. Necesitaremos resiliencia y solidaridad. Desde los márgenes donde trabajamos como sociedad civil latinoamericana y en toda la región, sabemos que no basta con reaccionar, sino que debemos proponer el futuro que queremos. Este seguirá siendo nuestro lugar.

Educación y tecnologías vs. tecnologías y educación: reflexiones a partir de avances normativos recientes

En un momento de acelerados desarrollos tecnológicos y digitalización, puede parecer redundante decir que la discusión sobre la incorporación de tecnologías ha acompañado buena parte de los debates sobre reformas educativas en la historia reciente. Propuestas de incorporación del cine, radio y televisión marcaron el siglo XX, que –aunque no logró democratizar el acceso a la educación para buena parte de la población mundial– terminó con nuevas promesas de “revolución” educativa derivada exclusivamente de las tecnologías digitales. Como en momentos anteriores, fueron los más variados agentes, incluso instituciones financieras aparentemente poco vinculadas con el campo educativo, quienes vocalizaron de manera más contundente el poder transformador de lo digital para superar los problemas de esa educación “tradicional”. Sin embargo, empezar recuperando esta historia parece importante en un momento en que un nuevo ciclo de optimismos y pesimismos vuelve a instalarse en los debates sobre educación y tecnologías en América Latina.

La olla de oro al final del arcoíris

En un contexto de múltiples precariedades en los sistemas educativos, las tecnologías digitales a veces han sido presentadas como una panacea. La metáfora es de una recompensa tecnológica capaz incluso de transformar prácticas pedagógicas clasificadas de poco eficientes o atractivas para nuevas generaciones. Declaraciones de agentes externos al entorno escolar no ocultan su intento de culpabilizar a las y los docentes por todo tipo de mal relacionado con la educación.

Un extremo de este tipo de discurso se ha activado en Brasil para justificar la adopción de sistemas de reconocimiento facial para el registro de la asistencia escolar en el estado de Paraná. De acuerdo con la gestión local, basada en un documento del Banco Mundial, el método de control de presencia oral sería ineficiente, representando una pérdida de tiempo; la tecnología, por lo tanto, ofrecería la solución a partir de la automatización. Sin embargo, las promesas fueron, como mínimo, optimistas: desde la implementación del sistema, se han registrado múltiples quejas de mal funcionamiento, lo que ha generado aún más retrasos en el registro de asistencia. Ellas incluyen, por ejemplo, errores en la identificación de personas de piel negra y con discapacidad.

Aunque avance rápidamente en la región, el reconocimiento facial es ampliamente cuestionable como tecnología efectiva para la identificación y autentificación de personas. Lo mismo ocurre con los llamados sistemas de reconocimiento de emociones, también en proceso de implementación en escuelas brasileñas.

Este y otros tipos de problemas podrían ser evitados con la realización de estudios previos de impacto amplios y participativos, pero no hay referencias de que se hayan realizado en el caso de Paraná. La iniciativa –que costó más de 4 millones de reales al Estado– está actualmente bajo escrutinio judicial debido a la vulneración de la legislación brasileña de protección de datos, por ejemplo en relación con el consentimiento para la recolección de datos biométricos sensibles de niños, niñas y adolescentes. El “oro”, al final, parece haberse quedado con los proveedores de la tecnología, mientras la educación pública sigue precarizada y carente de inversiones significativas.

Transgresiones sectoriales

El concepto de transgresiones sectoriales es útil para entender algunos procesos detrás del avance de las empresas de tecnologías en la educación. Se refiere a la estrategia de empresas de tecnologías de reivindicar conocimiento y autoridad en ámbitos que van más allá de lo tecnológico. Con eso, pasan a tener un peso diferencial en decisiones estratégicas, en este caso, del ámbito educativo, que no son parte de su competencia.

Rescatar esta idea es clave mientras pensamos políticas educativas y respuestas normativas a los desafíos del avance de las empresas tecnológicas sobre la educación. Con relación a lo primero, importa recuperar el rol que ellas efectivamente cumplen a la hora de definir a quiénes involucrar en discusiones sobre políticas públicas sobre educación y tecnologías. Si bien las empresas pueden tener un espacio en las mesas de discusión, de ningún modo reemplazan la necesidad de involucrar expertas en educación y representantes del sector educativo, como docentes, estudiantes y gestión educativa.

Por otro lado, el recuerdo que trae la idea de transgresión sectorial es clave para evitar caer en trampas normativas como la de crear criterios específicos para “EdTech”. Este tipo de abordaje, explorado por órganos como Unicef, más allá de sus buenas intenciones conllevan el doble riesgo de naturalizar la voz de empresas de tecnologías para incidir en temas educativos y de fragilizar protecciones existentes al pensar criterios diferenciados para el ámbito educativo. Peor aún, puede legitimar la recolección masiva de datos de niños, niñas y adolescentes en el contexto educativo, algo cuidadosamente delimitado por distintas legislaciones alrededor del mundo, incluso en materia de protección de datos personales.

O sea: bajo la excusa de crear reglas específicas, se autoriza y legitima la explotación de datos de infancias sin un completo conocimiento de sus consecuencias. En un contexto regional de gran influencia del lobby de las empresas de tecnologías, iniciativas legislativas como éstas pueden poner en jaque las garantías duramente conquistadas en el marco de leyes generales de protección de datos.

El caso brasilero de Paraná evidencia, y siempre es bueno reiterar, que las leyes de protección de datos sí se aplican a las políticas de uso de tecnologías en educación promovidas desde el sector público. Del mismo modo, las reglas de compras públicas también se aplican a la adquisición de tecnologías por entes del Estado, aunque, como hemos demostrado en la iniciativa IA & Inclusión, ellas sean poco observadas en la región. La existencia o no de intercambio monetario involucrado en los acuerdos con empresas de tecnologías no es un limitante si el uso implica la explotación económica de datos obtenidos a partir de ellos.

Eso no significa que no haya particularidades que deban ser consideradas o que no haya utilidad en el desarrollo de normas administrativas o guías específicas para las instituciones educativas. Las autoridades de protección de datos cumplen un rol clave al proponer orientaciones ancladas en los más altos estándares de protección establecidos en las normativas de datos y de infancias. Eso es particularmente relevante en un contexto en que las grandes empresas de tecnología se acercan a las instituciones educativas para establecer alianzas directas, dificultando procesos de supervisión y fiscalización.

Tecnologías para una educación emancipadora

En un año en que vemos cómo los hombres detrás de las mayores empresas de tecnología no dudan en apoyar un gobierno de extrema derecha marcado por la discriminación, odio y la persecución a oponentes políticos, no es difícil entender por qué gana fuerza en la región una resistencia a las mismas tecnologías. En el último año tuvimos una ley federal aprobada en Brasil prohibiendo el uso de teléfonos celulares en las escuelas, discusiones similares en Argentina –con una resolución porteña sobre el mismo tema– y en lo que va de 2025 ya hubo una “huelga” de redes sociales en abril y otra está prevista para el próximo domingo (25) en Brasil. También en Brasil gana fuerza un movimiento para evitar que niños, niñas y adolescentes tengan acceso a un smartphone hasta que cumplan 14 años y a las redes sociales antes de los 16.

Son innumerables y muy legítimos los motivos que fortalecen este tipo de reacción: desde las crecientes evidencias sobre los impactos nocivos de las tecnologías a la salud, su carácter adictivo, hasta el temor a la violencia en línea en todas sus formas, pasando por el rol de los algoritmos, las exposición a los extremismos y a la desinformación –contenidos ahora menos regulados por las mismas plataformas–, entre otros. Es positivo que estas preocupaciones alcancen a la sociedad de manera más amplia y provoquen reacciones desde el poder político, históricamente sordo a las alertas sobre la necesidad de supervisar y fiscalizar procesos de digitalización del Estado.

Sin embargo, no podemos olvidar la importante historia de usos de tecnologías para la resistencia, la defensa de derechos y la democratización de la comunicación y la educación, en un continente aún marcado por desigualdades. Lejos de comprar la fantasía tecnosolucionista que equipara tecnología y eficiencia, se trata de recuperar internet más allá de las redes sociales. En el mismo sentido, cabe recordar que las tecnologías no son sinónimo de extracción y explotación de datos para la ganancia sin frenos (del mismo modo que “EdTech” no es lo mismo que tecnologías en la educación).

Limitar el acceso a las tecnologías a las niñeces o en el ámbito educativo puede ser una respuesta legítima frente al avance obsceno de los intereses comerciales por sobre cada aspecto de nuestras vidas. Pero también puede implicar restringir el contacto con otras realidades, el acceso a culturas no cubiertas por medios tradicionales, la formación de vínculos afectivos, la exploración de identidades en entornos seguros, y otras formas de conocer el mundo. Más aún: podría limitar la capacidad de las próximas generaciones para imaginar otros futuros tecnológicos. Más justos, más solidarios, más inclusivos.

Reconocer los riesgos de la digitalización en contextos educativos no implica renunciar a sus posibilidades. Más bien, urge avanzar hacia una construcción colectiva de políticas tecnológicas que pongan al centro el bienestar y los derechos de las comunidades escolares. Esto incluye fortalecer los procesos participativos, asegurar evaluaciones de impacto, garantizar el cumplimiento de las leyes de protección de datos y, sobre todo, promover un enfoque pedagógico que incorpore las tecnologías como herramientas de emancipación y no de control. La educación con tecnologías sí es posible, pero solo si se construye desde la equidad, la justicia social y la imaginación crítica.

¿Quién cuenta nuestras historias? Periodismo automatizado y derechos fundamentales

En los últimos años, las herramientas de inteligencia artificial han comenzado a ocupar un lugar cada vez más visible en las redacciones de medios de América Latina. Desde asistentes que ayudan a transcribir entrevistas hasta sistemas que generan notas automáticamente, la promesa es clara: más eficiencia, menos carga laboral, menor costo y mayor productividad. Pero en un contexto de precarización, concentración de medios y saturación de desinformación, la pregunta no puede ser solo técnica: ¿qué implica automatizar la producción de noticias? ¿Qué se pierde cuando desplazamos el criterio humano por decisiones algorítmicas? ¿Y qué derechos están en juego cuando delegamos funciones clave a tecnologías opacas, que pueden comprometer la privacidad de las personas o exponer datos sensibles sin garantías claras?

Las tecnologías no son neutras, ni inevitables. Cómo se diseñan, a quién benefician y en qué condiciones se integran son decisiones profundamente políticas. Cuando hablamos de IA en el periodismo, lo que está en juego no es solo el futuro del oficio, sino también la calidad del debate público, la diversidad de voces y el derecho a una información verificada, plural y libre.

La IA no se equivoca, simplemente inventa

Uno de los mayores peligros del uso de IA en el periodismo no radica únicamente en sus limitaciones técnicas, como su capacidad para generar contenidos falsos con un tono convincente, sino en cómo estas herramientas son incorporadas en las prácticas periodísticas sin un control adecuado. A estas falsedades se les conoce como “alucinaciones”: errores que no son simples imprecisiones, sino construcciones completamente ficticias, presentadas con seguridad estilística. El riesgo aumenta cuando estas herramientas se integran en flujos de trabajo sin revisión humana o se utilizan para cubrir temas sensibles con escasa verificación, desplazando criterios editoriales por resultados automatizados, ajenos al contexto y desvinculados de toda responsabilidad profesional.

Durante el panel internacional “Inteligencia Artificial y Periodismo: ¿Cómo los medios están cubriendo y utilizando la IA en América Latina?”, organizado por la UNESCO en el marco del Día Mundial de la Libertad de Prensa de este año, periodistas de todo el mundo, autoridades y expertas alertaron sobre este fenómeno. Se coincidió en que, lejos de reemplazar el trabajo periodístico, la IA exige una nueva capa de responsabilidad: todo contenido generado o asistido por sistemas automáticos debe ser verificado, contrastado y contextualizado. Usar estas herramientas sin revisión humana no es innovación, es una forma acelerada de erosionar la confianza pública.

Entre precariedad y automatización

La adopción de IA ocurre en un escenario de crisis estructural para el periodismo. En América Latina, muchas redacciones enfrentan recortes presupuestarios, tercerización de funciones editoriales y presión por producir más contenido en menos tiempo. En este contexto, las tecnologías generativas parecen una solución fácil: automatizar notas de economía, clima o espectáculos para ahorrar tiempo y recursos.

Pero esta lógica plantea una falsa dicotomía: ahorrar costos a cambio de debilitar el oficio. En algunos casos, ya se han documentado errores graves en medios internacionales que usaron IA sin control editorial, como la publicación de artículos fabricados o entrevistas a personas inexistentes. El impacto no es solo reputacional, también precariza aún más el trabajo de periodistas, editores y correctores, consolidando un modelo donde la automatización reemplaza capacidades humanas sin generar condiciones más dignas ni sostenibles para quienes sostienen el oficio.

En tiempos donde el periodismo atraviesa una crisis de credibilidad en muchas partes de la región, automatizar sin criterio no es una solución, sino que es una forma de agravar el problema. El periodismo no es solo producción de contenido; es ejercicio crítico, narración situada, atención al contexto y responsabilidad pública. Cuando se reemplaza por sistemas que priorizan la cantidad sobre la calidad, el resultado no es eficiencia, sino desinformación con apariencia de legitimidad, amplificada por la credibilidad institucional de los medios que la reproducen. La automatización acrítica debilita tanto la calidad como la confianza en el periodismo como herramienta democrática.

Las fuentes no son prompts

Uno de los puntos más delicados -y muchas veces invisibles- del uso de IA generativa en el periodismo tiene que ver con la protección de fuentes. Ingresar información confidencial en sistemas como ChatGPT o Gemini, por ejemplo, para redactar un borrador o resumir una entrevista, implica entregar esos datos a empresas cuyos términos de uso permiten almacenarlos, analizarlos o utilizarlos para seguir entrenando sus modelos. En la práctica, esto significa que nombres, descripciones, detalles sensibles sobre hechos o incluso fragmentos de testimonios pueden quedar registrados en servidores externos, sin garantías sobre su eliminación o uso futuro.

Esto no solo va en contra del principio básico de confidencialidad periodística. También expone a personas que entregaron testimonios bajo promesas de reserva, especialmente en contextos de riesgo como la violencia de género, la corrupción o los conflictos socioambientales, donde una filtración de información puede tener consecuencias graves. La tecnología puede facilitar tareas, pero no debe jamás poner en peligro a las fuentes, ni debilitar las condiciones bajo las que se resguarda su información.

En América Latina, con intentos regulatorios sobre la IA y nuevas reglas sobre datos personales, como la nueva Ley de Protección de Datos Personales en Chile que establece obligaciones claras sobre el consentimiento, la proporcionalidad y la finalidad del tratamiento de datos, este punto cobra aún más relevancia. Las y los periodistas tienen la responsabilidad de aplicar esos principios no solo frente a personas terceras, sino también frente a las plataformas que usan en sus procesos de trabajo, asumiendo que toda herramienta digital forma parte del entorno de riesgo que debe ser evaluado críticamente.

Principios y propuestas para un uso responsable de la IA

Frente a este panorama, no todo son alertas. Existen esfuerzos concretos para promover un uso ético de la IA en el periodismo. Uno de los más relevantes es la Carta de París sobre inteligencia artificial y periodismo elaborada por Reporteros Sin Fronteras (RSF) y publicada en 2023, que establece un decálogo de principios éticos para enfrentar los desafíos actuales.

Entre sus recomendaciones destacan la necesidad de transparencia sobre el uso de herramientas automatizadas, la trazabilidad del contenido generado por IA, la supervisión editorial humana obligatoria, la garantía de que la IA no sustituya funciones esenciales del periodismo y el compromiso con una gobernanza tecnológica centrada en derechos humanos. Esta carta no solo interpela a medios y periodistas, sino también a gobiernos, desarrolladores y plataformas tecnológicas, recordando que el ejercicio periodístico no puede depender de sistemas cuya lógica excluye la responsabilidad pública.

A nivel práctico, ya existen iniciativas que avanzan en la implementación de estos principios. Algunos medios han comenzado a etiquetar de forma explícita el contenido generado por IA, a establecer protocolos de revisión y a capacitar a sus equipos en el uso crítico de estas herramientas. También se discute la incorporación de cláusulas éticas en los contratos con proveedores tecnológicos y la creación de mecanismos colectivos de evaluación y rendición de cuentas, especialmente en redacciones independientes y comunitarias.

La tecnología puede ser aliada, pero siempre bajo marcos de transparencia, ética profesional y respeto por las personas. Eso implica comprender sus límites, evaluar críticamente cómo está diseñada y qué efectos produce, y evitar delegar en sistemas automatizados decisiones que exigen contexto, criterio editorial y responsabilidad humana. Usarla con cuidado no solo protege el ejercicio periodístico, sino que también garantiza el derecho de las audiencias a recibir información confiable, diversa y producida con estándares de integridad.

Periodismo, democracia y tecnología

La automatización en el periodismo no es un escenario neutral. Puede ayudar a abordar tareas operativas en contextos de sobrecarga, reducción de equipos o necesidad de mejorar la accesibilidad de ciertos contenidos. Pero cuando se adopta sin criterios de justicia, equidad y responsabilidad, también puede profundizar problemas ya existentes como la precarización laboral, pérdida de diversidad en las coberturas y deterioro del juicio editorial. Informar es una función pública y una responsabilidad con la sociedad, no una tarea replicable sin contexto por sistemas opacos.

En América Latina, donde el espacio cívico se reduce, donde el acceso a la información muchas veces depende de medios independientes, y donde las amenazas a periodistas se multiplican, proteger el periodismo es también proteger la democracia.

Por eso, las decisiones sobre cómo se usa la IA en la producción de noticias no pueden quedar en manos de unos pocos actores tecnológicos. Deben involucrar a periodistas, audiencias, legisladores, editores, academia, sociedad civil y defensores de derechos humanos. Porque si el periodismo se transforma, debe hacerlo sin perder la capacidad de escuchar, cuestionar y poner en el centro las historias que merecen ser contadas.

“El viaje” de la creatividad en la era de la Inteligencia Artificial

Las semanas pasadas Internet se colmó de millones de imágenes generadas por IA al estilo del icónico Studio Ghibli. Las personas usuarias emplearon el último generador de imágenes de OpenAI para que sus fotografías, las de sus familiares y mascotas aparecieran, en cuestión de minutos, como personajes salidos del místico universo animado por Hayao Miyazaki, fundador del mítico Studio Ghibli.

La tendencia de la “IA Ghibli” suscitó ternura, nostalgia y diversión en las personas viralizándose con rapidez, al tiempo que despertaba múltiples debates pertinentes. En efecto, las preguntas por los derechos de autor no tardaron en revivir, las implicaciones medioambientales del uso de la IA florecieron, los pronunciamientos de artistas se reavivaron y las alertas alrededor de la protección y el uso de datos personales en la IA se encendieron con fuerza. Lejos de pretender abarcar en su totalidad o resolver estos y otros debates, en esta columna aprovecharemos el reposo de la tendencia para reflexionar sobre dos puntos: el lugar del proceso creativo humano y la sensibilidad artística a propósito de la expansión de la IA generativa de imágenes; y los riesgos hacia las personas en materia de protección de datos personales.   

¿El arte se crea o se programa?

Ya sea en la música, la ilustración o la escritura, la creatividad es un proceso complejo, multifacético, y profundamente humano. La creatividad humana requiere la interpretación de lo que otras personas han hecho, combinarlo con ideas y experiencias propias, agregarle matices y, a partir del ensayo y error, conseguir expresar la idea que gestamos por algún tiempo en nuestra imaginación. Pensemos que cada creación es como un Castillo Ambulante de Miyazaki, una suma de estilos y piezas heterogéneas que forman una estructura con vida propia.

Ahora, el presente tecnológico del arte ofrece y acerca a las personas a cientos de grandes referentes para la creatividad humana. De hecho, expresarse artísticamente a través del uso de nuevas y emergentes tecnologías, incluida la IA, nunca había sido tan fácil y accesible. La energía vital que se imprimía en componer un compás, en hacer un esbozo o en empezar de cero un escrito se transforma en la era digital que nos atraviesa. Hace días nomás, el proceso de reproducir un estilo ajeno se redujo al envío masivo de cadenas de instrucciones o “prompts” con los que la IA de OpenAI generó en segundos miles de imágenes detalladas con el estilo Ghibli. Esta tendencia “IA Ghibli” merece ser pensada desde el valor mismo de la creatividad y de los creadores en un mundo que cada vez más se inclina a la automatización prescindiendo del factor humano.

La IA habilita la producción continua e inmediata de piezas artísticas, representando tanto oportunidades para el ecosistema artístico, como riesgos para los procesos de creación tradicionales. La inteligencia artesanal de Miyazaki, por ejemplo, nos lleva a reflexionar sobre la vivencia y padecimiento del proceso creativo, sobre el tiempo que toma, los retos y las potencialidades que representa para la imaginación personal y colectiva, y la creatividad. Esto en un contexto donde el trabajo artístico suele estar mediado por condiciones precarias o poco dignas que suponen un reto y un peso adicional.  

La creatividad como proceso y como resultado es una experiencia ajena e irreproducible para la IA, una tecnología que no sueña, imagina o experimenta como lo hace la creatividad humana, y en razón a esos elementos no se avoca a la generación de estilos originales, sino a la reproducción de los estilos de otros. Para quienes crean una historia mientras la ilustran (sin cadenas de instrucciones previas), estableciendo una relación de identidad con su obra al dejar un poco de su experiencia de vida en cada detalle y trazo, la generación de imágenes con IA representa con fuerza el “insulto a la vida misma”, una afirmación del propio  Miyazaki al referirse a la generación de imágenes con IA. Para quienes apoyan la inteligencia artesanal, la tendencia de la “IA Ghibli” produjo cuestionamientos válidos sobre el sentido del arte en tiempos donde la IA cada vez ocupa más espacios que creíamos nuestros.

No obstante, en la medida que esta tecnología se instaló en el oficio creativo y fuera de él, es necesario explorar salidas que trasciendan a los marcos de transparencia en el entrenamiento de las herramientas de IA, así como concretar usos de estos sistemas alineados con una perspectiva de derechos humanos que impidan la reproducción de violencias, sesgos y formas de discriminación. Para esto, es crucial suscitar el diálogo entre empresas, personas usuarias y colectivos de artistas para precisar mecanismos de protección, reclamación y compensación que amparen a las partes más allá del terreno movedizo y desigual de los derechos de autor.

Equilibrar la creatividad humana y las formas que toma con la innovación tecnológica está en el centro de la discusión. Quizás, más allá de emprender un proceso creativo al estilo tradicional, la IA habilita nuevas forma de expresión artística donde retazos de ideas cobran vida al instante representando momentos fugaces de nuestra imaginación.

Ahora bien, el uso entusiasta de la IA no puede eclipsar la reflexión y el pensamiento crítico alrededor de las tecnologías, lo que incluye exigir responsabilidad e información pública a las empresas sobre, por ejemplo, el uso de los millones de datos personales y de terceros que alimentaron el modelo de OpenAI en las últimas semanas.

Las tendencias de la IA y los datos personales

De la mano de los riesgos para el ecosistema artístico, vale la pena destacar los riesgos para las personas que recordó el “trend” de la IA Ghibli. A saber, un asunto que sorprendió fue la conducta de entrega voluntaria, gratuita y entusiasta de datos biométricos de millones de personas a OpenAI. Por esto, apuntamos a reflexionar sobre los riesgos de entregar información personal, como los rostros propios y de terceros (como menores de edad) con ligereza a las empresas tecnológicas. Es fundamental preguntarnos por nuestra relación con la IA y cuestionar aquellos lugares donde naturalizamos la recopilación de nuestros datos a través de argumentos como “nuestra información ya está en todas partes”. Recordemos que como personas usuarias somos soberanas de nuestra información y podemos decidir sobre esta y exigir transparencia en su uso por parte de las empresas tecnológicas.

Como vemos, el debate es amplio. La naturaleza evolutiva de tecnologías como la IA, sobre todo en su dimensión generativa, refuerza la importancia de, por un lado, avanzar hacia estrategias concretas de responsabilidad para las empresas que, en su carrera global por la IA, lanzan productos con implicaciones para los derechos de las personas, impactando incluso en ámbitos que creíamos exclusivos de lo humano, como la creatividad y el proceso artístico. Y, por otro lado, es ineludible involucrar a las personas usuarias traduciendo el lenguaje del trabajo académico e intelectual acerca de las tecnologías digitales a sus realidades concretas. Sólo así, los riesgos asociados a la IA, por ejemplo, podrán entenderse como consecuencias inherentes a su uso, y no como asuntos aislados, ajenos a nuestras prácticas diarias.

Starlink: tensiones frente a la promesa de conectividad

En la actualidad, cada vez más países de América Latina y el mundo reportan una presencia significativa de Starlink, la empresa de satélites de propiedad de Elon Musk que busca otorgar cobertura a internet satelital en zonas remotas. En 2023, un informe de Sumaúma afirmaba que Starlink estaba presente en el 90% de las localidades de la Amazonía brasileña. Indudablemente, este servicio llegaba para cubrir una necesidad básica y poco atendida en esta región, que había permanecido con poca o nula conectividad a internet.

La promesa del cierre de la brecha digital en zonas remotas

Sabemos que la conectividad en zonas remotas implica desafíos, como la dificultad de instalar infraestructura en donde el territorio y las condiciones climáticas deterioran los equipos. En un contexto de oferta mayormente privada de telecomunicaciones, los costos implicados en la instalación y manutención han hecho a ciertos territorios poco atractivos para las empresas del sector. Por otro lado, los Estados en la región siguen teniendo déficits importantes en cubrir esos vacíos, sea por medio de inversiones propias, o presionando por el cumplimiento de compromisos de cobertura asumidos por las empresas en los procesos de privatización. Cuando una solución como Starlink surge, parece representar una oportunidad. La reducción de costos se debe a que el internet satelital –una vez puesto a disposición por medio de la empresa SpaceX–  no requiere la instalación de infraestructura física en territorios de difícil acceso. Desde el punto de vista de las personas usuarias, todo lo que se requiere es la compra de un kit con equipo especializado, que puede ser instalado en cualquier parte del mundo. Si bien el valor del kit no es siempre accesible considerando los costos de vida en América Latina, los precios vienen bajando en los últimos años.

A seis años de finalizar el plazo para que los países alcancen el compromiso de proporcionar acceso universal y asequible a internet plasmado en la Agenda 2030, Starlink viene a llenar un importante vacío dejado por sucesivos fallos en el cumplimiento de políticas de conectividad. Parece ser que los gobiernos han encontrado en Starlink la solución para legitimarse ante la comunidad global, promoviendo el cierre de la brecha de acceso que no habían logrado a través de sus varias políticas públicas, agendas y programas digitales. Brechas que persisten a pesar de que en algunas naciones el acceso a la red se establece como un derecho a nivel constitucional.

La estrategia de los líderes nacionales se basa en generar alianzas y contratos millonarios con Starlink, para conectar zonas remotas de difícil acceso. Para ejemplificar, tenemos el caso del gobierno mexicano, quien en 2023 otorgó dos licitaciones a Starlink para proveer de internet a comunidades alejadas, así como servicio de telefonía celular hasta el año 2026, con el propósito de lograr los objetivos planteados en su programa federal “Internet para Todos”. También el de Brasil, que promovió el uso de este servicio en la Amazonía en conjunto con Musk para fines educativos. Mientras que en Argentina, el gobierno de Milei promovió un decreto que incentiva la desregularización del mercado de internet satelital, incentivando así la entrada de Starlink. 

Principales debates sobre la cobertura de Starlink

Si Starlink resuelve un problema legítimo, ¿por qué sigue preocupando su presencia? El principal argumento sobre la mesa es la idea de la generación de un monopolio de internet satelital. Pese a que existen iniciativas que intentan competir con Starlink, la empresa de Musk ha permeado a la mayoría de las regiones en el mundo, yendo a la delantera en las licitaciones y acuerdos con los gobiernos. Como ejemplo encontramos el caso mexicano en el que solo participaron dos competidores adicionales, quienes no obtuvieron la concesión debido a sus altos costos. No obstante, el modelo de negocios de Starlink ha sido cuestionado por algunos analistas, quienes se preguntan si será sostenible en el tiempo, tanto en infraestructura como en costos ofertados.

Adicionalmente, la concentración de internet satelital en un solo proveedor abre la posibilidad de desconexión de todas las personas que se sirven del mismo sin contar con alternativas. Existe un cuestionamiento fundamentado sobre qué pasaría si Starlink deja de funcionar; la primera respuesta y la más lógica es la desconexión de aquellas  usuarias y usuarios que tienen a Starlink como única fuente de acceso a internet —pensemos como ejemplo en la región amazónica brasileña—. A su vez, esto imposibilitaría también el ejercicio de otros derechos que se habilitan con internet como el acceso a la información, a la salud o la educación.

Por otra parte, las tensiones políticas que se suscitan entre los gobiernos y el entramado de empresas de Elon Musk tienen repercusiones en la continuidad del servicio de Starlink. El ejemplo más reciente y concreto es el riesgo que vivió Starlink de no continuar con sus operaciones en Brasil, luego del congelamiento de sus activos como una medida colateral de los conflictos entre la justicia brasileña y la red social X (perteneciente a Musk). Es aquí cuando salen a la luz las complicaciones políticas de fomentar un monopolio encabezado por una persona poderosa con una agenda propia.

Asimismo, existe una serie de cuestionamientos sobre la recolección de datos que obtiene Starlink a través de su servicio. A ese respecto, especialistas han realizado análisis sobre sus principales reglas en materia de privacidad, identificando la posibilidad de que esta compañía comparta los datos recogidos con terceros países que pueden contar con un marco legal de protección de datos personales endeble o para compartir esta información con instituciones gubernamentales de inteligencia y seguridad.

Las tensiones continúan cuando nos cuestionamos sobre el involucramiento de las comunidades que reciben este servicio. Sobre esto, el estudio de Sumaúma ya adelantaba una falta de debate público con las poblaciones locales, además de la ausencia de estudios que analicen los impacto sociales y ambientales de su implementación. Esto se ha derivado en otras polémicas como la basura espacial generada por la gran ocupación de satélites de órbita baja terrestre, incluso,  se ha cuestionado el efecto que estos pueden generar en áreas de estudio como la astronomía.

Desde las comunidades, si bien se reconoce el valor de finalmente tener acceso a una conectividad de calidad, existen preocupaciones respecto a los impactos de internet sobre la juventud y su relación con la preservación de las culturas indígenas. Debido a ello, las poblaciones de estas localidades han identificado la necesidad de prepararse y conocer más sobre el uso de internet y sus alcances. Estas inquietudes han sido compartidas en el ámbito de los diálogos promovidos por aliadas de Derechos Digitales en distintas regiones de la Amazonía.

Promovamos la transparencia y alternativas de conectividad

La presencia y cobertura de Starlink en América Latina es una realidad y muy probablemente nuevos servicios similares llegarán a nuestra región. Ante este escenario, consideramos fundamental tener a la vista nuestras necesidades como poblaciones usuarias. En una primera vía, identificamos que hay una urgencia por involucrar a las poblaciones en consultas y debates públicos que determinen formas de conectividad adecuadas, tomando en cuenta las culturas locales. En territorios indígenas o en zonas protegidas, el análisis previo de impacto socioambiental y las consultas previas son mecanismos clave a tomarse en cuenta al promover iniciativas de este tipo.

Tanto las compañías tecnológicas como los gobiernos deben aplicar el principio de transparencia de manera proactiva, especialmente, para comprender de qué forma se están manejando los datos personales en manos de Starlink y SpaceX. Derechos Digitales y otras organizaciones en la región han hecho un inmenso trabajo de monitoreo de políticas y prácticas de empresas de telecomunicaciones con resultados positivos en impulsar mayor responsabilidad en el sector. Garantizar que Starlink cumpla con estándares, como mínimo, equivalentes es solamente un primer paso en ese sentido. Asimismo, observamos la necesidad de una rendición de cuentas por parte de los gobiernos, en la que determinen si los programas están siendo efectivos y en concordancia con el respeto a los derechos humanos de las poblaciones.

Pero tampoco deberíamos conformarnos con explorar cómo acomodarnos a grandes empresas de conectividad satelital. Especialmente en las zonas remotas y con la llegada de Starlink, creemos que existe una clara urgencia de equilibrar las formas de conectividad, que promuevan la independencia del acceso a internet a través de la diversificación de proveedores en estas regiones, idealmente con apoyo y financiamiento público. Recordemos también, que en muchos países de América Latina las comunidades se han empoderado a través de la gestión de sus propias redes comunitarias para conectarse a internet y usar telefonía móvil, lo que no solo representa una forma de apropiación y manejo colectivo de las tecnologías, sino también una forma de defensa de su derecho a la comunicación y a su autonomía.

En un mundo donde las tecnologías digitales han evolucionado a gran escala, la conectividad a internet podría considerarse un viejo debate. Sin embargo, la superación de la brecha de acceso a la red se logrará cuando se garantice el acceso universal que, como ya ha afirmado la Relatoría Especial para la Libertad de Expresión de la

Comisión Interamericana de Derechos Humanos, debe ser equitativo, asequible y de calidad. Y aquello no debería depender del arbitrio de multimillonarios.

La escuela de mañana, ahora

La pandemia lo cambió todo. Se sabe. Uno de los ámbitos que sufrió mayores transformaciones fue la enseñanza y así lo alertamos en su momento, desde una mirada regional. Pasar de la sala de clases, espacio físico que comporta cierta intimidad funcional al proceso de aprendizaje, a un contexto sin estas características y, peor aún, sin garantizar primero la infraestructura necesaria para la educación a distancia, provocó, de acuerdo con UNESCO en ese entonces, una tragedia.  

Salto temporal al presente y ya no es solo la brecha de conectividad, la falta, la que está impactando de manera negativa al futuro de la humanidad; también la abundancia, expresada en la masificación de las herramientas de inteligencia artificial generativa (IA), pone en peligro la integridad de los conocimientos que adquieren, en este mismo instante, niñas, niños y adolescentes (NNA) en todo el planeta.

Todo esto ocurre al mismo tiempo en que la Unión Europea investiga a Meta, compañía a cargo de Facebook e Instagram, por una posible manipulación intencional a NNA mediante los algoritmos de estas plataformas y por no proveer las garantías suficientes de privacidad, seguridad y protección de menores, contraviniendo lo estipulado en la Ley de Servicios Digitales.

¿Alguien quiere pensar en los niños?

Se entiende que las plataformas sociales, por su nivel de alcance, sean el foco permanente de acciones legales e interpelaciones para rendir cuentas. Desconocemos, sin embargo, qué está pasando en cuanto a protección de datos y seguridad digital en las plataformas educativas. El paradero de los miles de datos recopilados durante una hora pedagógica por software “de ayuda” -intervenciones de estudiantes, materiales educativos, métricas de uso, etc.- es una incógnita.

Otro estudio publicado por UNESCO en 2023 es categórico al evidenciar los efectos negativos en la relación entre el uso de smartphones y los resultados educativos, pero también concluye que “si bien la prohibición de la tecnología en las escuelas puede ser legítima en ciertos casos, también se debe considerar su integración adecuada en el aprendizaje”.

Esta ambigüedad normativa se expresa en la falta de consensos mundiales al respecto. En San Pablo, Brasil, el mes pasado se anunció el uso de la IA para mejorar el currículo escolar producido por los profesores y las críticas no se hicieron esperar: cuál es el rol de las maestras en este cambio, cuáles son las líneas éticas que determinarán su uso y qué tipo de control existe sobre posibles afirmaciones falaces emitidas por estos sistemas, por mencionar algunas de ellas.

En Suecia, mientras tanto, la apuesta es por desescalar el avance de las tecnologías al interior de la sala de clases, luego de los magros resultados obtenidos por sus estudiantes, especialmente en cuanto a capacidades lectoescritoras, en mediciones internacionales. Tales efectos también fueron advertidos en nuestra región en 2018.

Como vemos, el problema es de larga data, pasan los años y, más allá de denunciar la guerra y el hambre, e implementar medidas absolutistas tipo “todo o nada”, desconocemos el verdadero impacto, en el mediano y largo plazo, de estas acciones en el aprendizaje escolar.

Un, dos, tres: Madurez

Contrario a las numerosas de voces de alarma que a diario alertan sobre un apocalipsis pedagógico que destruye la capacidad cognitiva de las infancias alrededor del mundo, lo cierto es que la tecnología, una vez más, es el chivo expiatorio de las malas decisiones que toma seres humanos como tú y como yo, a diferencia de que bajo su cargo tienen el destino del aprendizaje de millones de niñas, niños y adolescentes.

Fuentes consultadas para este análisis -madres y padres- así lo afirman: ven en los motores de búsqueda, aplicaciones de aprendizaje y, sobre todo, los juegos una enorme ayuda en la crianza de sus hijos, al permitir delegar en estas herramientas “la parte cuantitativa” de la educación y ocuparse ellas, en cambio, de entregar aquello que no puede medirse con calificaciones.

Un estudio publicado en 2023 en España, fruto de la colaboración público-privada, adopta un enfoque propositivo sobre este tema, preguntándose por el futuro de la IA en la educación, en América Latina. Sus conclusiones son optimistas: hay tiempo, de aquí al 2030, para meditar y establecer legislaciones claras sobre su uso en las aulas, llamando a todos los sectores (gobiernos, privados, academia, sociedad civil) a colaborar en este esfuerzo conjunto. En Latinoamérica nos toca generar instrumentos en esta misma línea, desde nuestro conocimiento de la realidad local a partir de la experiencia.

En este punto de la historia, “Papel v/s Pantallas” no es más que un título sensacionalista para atraer clics que, campañas de miedo o fearmongering mediante, reduce los desafíos en torno a la educación a una mera cuestión de soporte. La realidad nos muestra que el abrupto acceso a tecnologías que no podíamos siquiera describir hace cinco años trae consigo un deber de las personas adultas que las regulan, implementan y utilizan a comportarse como tales.

Un conocido refrán africano sostiene algo similar a la idea de que “Se necesita una aldea completa para cuidar de un niño”. Llegó la hora de hacernos cargo, aldea global.

Dominio público y deberes de autor

Internet es colonial. No hay ninguna novedad en ello ni tampoco drama en decirlo: es la principal razón por la que Mickey Mouse adquirió (más) protagonismo durante los primeros días de este año que comienza. La pérdida de protección por derechos de autor de Steamboat Willie (1928) que, en la práctica, marca su llegada al dominio público es tema porque así es, en efecto, en los Estados Unidos de América.

Nuestra región, provista de sus propias legislaciones sobre derechos de autor, ofrece algunas pistas sobre cómo se percibe este hito en la Mayoría Global: en Brasil, un buen ejemplo, la primera iteración de Mickey Mouse que protagoniza esta cinta es libre desde el 1 de enero de 1999; Bolivia, Argentina y Uruguay, en tanto, podrán contar con cuantas reproducciones de este ratón permita la creatividad humana, aunque bajo la figura de dominio público pago, es decir, de todas maneras hay que pagar una comisión, solo que esta no va a las arcas de Disney, la compañía, sino que al Estado, a través de una entidad de gestión cultural.

De estos temas nos encargamos usualmente en la Alianza para el Acceso Justo al Conocimiento, en asociación con Fundación Karisma, Fundación Vía Libre, InternetLab, Hiperderecho, Red en Defensa de los Derechos Digitales, Datysoc e IBDAutoral, y cuyo fin es defender y promover el dominio público y los bienes comunes culturales en América Latina. Las últimas noticias provenientes del norte sobre Mickey Mouse, sin embargo, permiten abrir el espacio de discusión sobre autores, titulares y gestoras hacia otros ámbitos. Uno de ellos tiene que ver con el actual panorama de los famosos derechos de autor, que los devela insuficientes para los desafíos del siglo XXI.

El afortunado

Alguna vez, un joven caricaturista de Chicago llamado Walt Disney, junto con el igualmente joven animador Ub Iwerks, fueron empleados de alguien. Por encargo de sus jefes, crearon a un conejo proclive a meterse en problemas y, a la vez, salir de estos gracias a su buena suerte. Oswald, su nombre en inglés, nació en 1927 y protagonizó un par de producciones con éxito moderado. Modesto y todo, sin embargo, dicho éxito despertó la codicia de un par de ejecutivos de la compañía distribuidora, Charles B. Mintz y George Winkler, quienes —según la versión más difundida— lograron hacerse con la propiedad intelectual del conejo.

Este suceso, dicen, es la génesis del ratón animado conocido en el planeta entero y actual rostro principal de una compañía multimillonaria. Su estreno es un hito tanto en la historia de la animación como en la del cine: es el primer cortometraje animado con sonido simultáneo. Como explica en esta entrevista un no-tan-joven Walt Disney, su proceso creativo implicó la sincronía, prolijidad y voluntad de un vasto equipo de artistas; no solo de dibujantes sino también de una orquesta completa que debió ejecutar tanto la música como los efectos sonoros del corto en tiempo real.

Lo que siguió es relativamente conocido: parques de diversiones, un imperio audiovisual cuya punta de lanza, hoy en día, es su plataforma de streaming, millones y millones de dólares generados por The Walt Disney Company. No obstante, entre toda esta maraña corporativa y las diversas alusiones que se han realizado en estos días al golpe que significaría, contra la avaricia de Disney®, la liberación de Steamboat Willie hay dos temas muy importantes: el primero es que las grandes producciones animadas de la compañía están inspiradas, de hecho, en obras que habitan el dominio público: Blanca Nieves, Pinocho y El Rey León son algunos de los ejemplos más ubicuos; el segundo es que, de acuerdo con documentos oficiales, el mismísimo Walt Disney solía decir que esperaba nunca perder de vista que todo comenzó con un ratón.

La autoría es una responsabilidad

Diversas definiciones del derecho de autor suelen relevar su función social para “alimentar la rueda de la creatividad”, al otorgar protección jurídica a los autores y creadores por el solo hecho de haber creado una obra, cualquiera sea su forma de expresión, ya sea literaria o artística, esté publicada o inédita. Así, suponen redacciones como esta, el resguardo legal que tienen las y los titulares les posibilita obtener beneficios morales y patrimoniales derivados de sus creaciones. Esta justa retribución fomentaría, entonces, el surgimiento de nuevos creadores, nuevas obras, etcétera.

No obstante, Mickey Mouse nació de un movimiento opuesto y de una apuesta osada. En 1928 no había forma de prever el éxito que tuvo Steamboat Willie. Del mismo modo, es evidente el parecido que hay entre este y su antecesor: hasta se podría esbozar que el primero es un remix del segundo. Azar o no mediante, la filosofía detrás del ejercicio de los derechos de autor, esto es, la presunta promoción de la creatividad humana al garantizar compensación económica y moral de lo que resulte de ella a sus ejecutoras, no tiene mucho sentido al presumir que la autoría —el arte, inclusive— es tan solo un medio para un fin.

En esta organización se ha defendido históricamente la necesidad de más derechos para que todas puedan participar de la vida cultural y la eficacia incomprobable del derecho de autor respecto del fomento de la creatividad. En el presente, como parte de la Alianza para el Acceso Justo al Conocimiento, lanzamos un Informe sobre Políticas de Inteligencia Artificial y Derechos de Autor en América Latina que subraya la necesidad de una excepción para utilizar grandes volúmenes de libros, artículos, imágenes, bases de datos y otros materiales protegidos por derechos de autor para la investigación académica mediante recursos como minería de texto y datos, y mecanismos de aprendizaje automático.

La entrega de una obra original al acervo cultural del planeta no debería contemplar solamente protecciones para su autor sino también responsabilidades. El concepto de uso justo tiene mucho que ver con esto: en un mundo ideal, la autoría no es una cuestión de vanidad; por el contrario, debería entenderse desde la generosidad. Aun cuando cualquiera puede ser titular de derechos de autor, no cualquiera llega a ser un autor. A su vez, si bien tales derechos protegen a personas naturales o jurídicas, su concepción anglosajona no alcanza para extender dichas garantías a grupos culturales, como es el caso al que se enfrentó el pueblo maorí en relación con la “propiedad” y destino de su lengua o lo discutido en Colombia, en 2013, a partir de un proyecto de Conocimiento Tradicional y Agrobiodiversidad que visibilizó los límites de la ley occidental en cuanto a la protección de saberes ancestrales. Este tema también es trabajado por Salvador Millaleo, en Chile, en la publicación Conocimiento Mapuche y Derechos de Propiedad Intelectual.  

Dominio público para todas las personas

No es posible afirmar ni negar que Walt Disney estaría de acuerdo (en 2024, si estuviera vivo) con el ímpetu litigante que caracteriza actualmente a su compañía, asidua a retirar contenido que infringe el derecho de autor en motores de búsqueda y plataformas. No obstante, y recordando los inicios de Disney®, sí se puede sostener que es el dominio público el que de todas maneras garantiza la regeneración y reproducción de la creatividad humana. Existe antes de la invención del derecho de autor, es para todas e internet —bien lo sabemos— es crucial en el acceso a y distribución de las obras que están amparadas en esta figura.

Hasta ahora, se han anunciado películas de terror y videojuegos de acción donde el protagonista, al igual que en esta columna, es el Mickey de Steamboat Willie. Con certeza surgirán muchas obras más cuya principal razón de ser, aventuramos a decir, es la fama del personaje, pero quién sabe los rumbos que tomará la creatividad y cómo terminará por trenzarse con el uso de la inteligencia artificial en las artes. La pregunta por si lo que deriva de un prompt o comando es titular de derechos, sin embargo, es materia para una columna aparte.

Será decisión de la humanidad, entonces, determinar dónde reside el poder y la responsabilidad que viene de la mano con la capacidad de crear, sea en sus autores, como ya se entiende hasta ahora, o desde el dominio público, como se levanta sin pausa desde los activismos de la cultura libre hace mucho tiempo atrás. En cuanto a Mickey Mouse, hemos de ver cómo actuará Disney, considerando su comportamiento previo, ahora que el inspirador de su marca es patrimonio de todas y que seguramente abrirá nuevos debates en torno a la frontera entre la propiedad industrial y los derechos de autor.

Finalmente, son imperativas más instancias donde se resuelva el destino del dominio público frente a esta encrucijada: si acaso terminará siendo nada más que un repositorio para modelos de inteligencia artificial generativa o si, de una vez por todas, los Estados asumirán el deber de invertir en preservarlo y expandirlo para el bien común.