Fuera del algoritmo: Cómo comunicar más allá de las redes sociales

Recuerdo cuando abrir una cuenta de Twitter era casi un acto revolucionario. En aquellos días, la plataforma prometía algo cercano a la igualdad: un lugar donde las ideas, más que las jerarquías, definían el alcance de tu voz. Para muchas organizaciones de la sociedad civil, Twitter, Facebook e Instagram (un poco después) fueron herramientas esenciales para denunciar injusticias, movilizar comunidades y visibilizar problemas que los medios tradicionales pasaban por alto. A lo largo de los años, lo que parecía un espacio inclusivo se fue desmoronando hasta convertirse en algo muy distinto.

Por ejemplo, desde que Elon Musk tomó las riendas de X, la antes llamada Twitter, el ambiente en la plataforma se ha vuelto insostenible. Con el discurso de odio en auge, los insultos racistas, misóginos, edadistas y homofóbicos no solo han aumentado, sino que se han normalizado. El regreso de cuentas previamente suspendidas por incitar a la violencia ha amplificado estos problemas. Lo que alguna vez fue un refugio para voces críticas ahora se siente como un espacio hostil, especialmente para quienes defienden los derechos humanos.

Meta tampoco se queda atrás. En un giro reciente, la empresa ha anunciado el fin de su programa de verificación de datos en Facebook, Instagram y Threads. La medida, presentada como un paso hacia una supuesta “libertad de expresión”, amenaza con convertir estas plataformas en un terreno aún más fértil para la desinformación. Esto ocurre justo antes del regreso de Donald Trump a la Casa Blanca, en un momento político clave que no parece una coincidencia.

Finalmente, esta medida elimina una de las pocas herramientas que intentaban, al menos en teoría, mitigar los daños del contenido falso o malintencionado. Esto no es solo preocupante, es alarmante: en una época en la que las sociedades enfrentan desafíos como la polarización y la crisis de confianza en la información, la decisión de Meta puede tener consecuencias devastadoras. Si bien un sistema de notas comunitarias podría aumentar la confianza en la verificación de hechos, también existe un riesgo de manipulación de esos sistemas.

El dilema de abandonar las redes

En este panorama, las organizaciones de la sociedad civil enfrentan un dilema. Las redes sociales, a pesar de todos sus problemas, siguen siendo el lugar donde ocurre la conversación pública, donde figuras públicas como presidentes, congresistas y periodistas intercambian información e ideas, y donde todavía se discuten noticias a medida que ocurren. Dejar de usarlas podría significar perder el alcance y la relevancia necesarios para incidir en los debates globales. Sin embargo, quedarse muchas veces implica navegar en un espacio cada vez más tóxico, donde el riesgo de ser acosado, doxeado o atacado es constante. ¿Es posible encontrar un punto medio?

The Engine Room, realizó un estudio llamado “Explorando una transición hacia plataformas alternativas de redes sociales para organizaciones de justicia social en el Sur Global”, donde señala que las redes sociales tradicionales presentan preocupaciones significativas relacionadas con la recolección intrusiva de datos, la vigilancia y la propagación de desinformación. También destacan que plataformas alternativas, como Mastodon y BlueSky, ofrecen experiencias más comunitarias y menos extractivas, permitiendo a los usuarios crear y gestionar sus propios espacios en línea. Varias organizaciones nos hemos sumado a una tendencia por relevar el rol de tecnologías que devuelven al menos algo de control a sus usuarios.

Las alternativas, aunque prometedoras, aún no están listas para reemplazar por completo a las grandes plataformas, porque su alcance sigue siendo limitado. Migrar hacia ellas implica convencer a nuestras audiencias de hacer lo mismo, algo que no es fácil en un entorno donde los “efectos de red” (o si prefieres, la inercia y la comodidad) mantienen a las personas atadas a las plataformas tradicionales. Pero estas alternativas son un recordatorio de que otras formas de comunicación digital son posibles, aunque todavía estén en construcción. The Guardian o La Vanguardia se aventuraron a cerrar para siempre las puertas en redes como X. Mucho antes, en el 2021, la marca Lush dejó de usar redes sociales, declarándose “antisocial”.

Mientras tanto, surge la pregunta: ¿es posible que las organizaciones de la sociedad civil se desvinculen de las redes sociales más populares hoy? La respuesta no es sencilla, pero es evidente que diversificar los canales de comunicación es imprescindible. No podemos depender exclusivamente de plataformas que priorizan la extracción y el lucro, persiguen objetivos políticos orientados a ganar poder, o imponen narrativas autoritarias y conservadoras sobre los derechos humanos.

Además, las organizaciones de la sociedad civil suelen publicar de manera orgánica, con poca o nula inversión en publicidad, lo que dificulta aún más que su contenido llegue a las audiencias. Por ello, los boletines por correo electrónico, las páginas web actualizadas y las colaboraciones con medios de comunicación independientes siguen siendo herramientas valiosas para alcanzar a las audiencias más allá de tuits e historias. Es también el momento de explorar nuevos formatos: podcasts, videos documentales y eventos híbridos que combinen lo digital con lo presencial. En un ambiente donde los algoritmos deciden qué contenido llega a quién, recuperar el control sobre nuestras audiencias también se convierte en un acto de resistencia.

Regulación y responsabilidad

Sin embargo, estas soluciones son insuficientes si no se aborda el problema de fondo: la falta de contrapesos efectivos al control sobre las plataformas tecnológicas. Mientras las empresas continúen operando sin rendir cuentas sobre sus decisiones y sobre su modelo de negocios, la violencia digital y la explotación de datos seguirán siendo el modelo predominante de los gigantes de internet. Aquí es donde los Estados deben intervenir, en ningún caso para censurar, sino para proteger. Necesitamos políticas públicas que garanticen entornos digitales seguros, mecanismos efectivos para denunciar el acoso y sanciones claras contra quienes promuevan el odio. Necesitamos regulación que permita de manera efectiva que, a mayor poder, exista mayor también responsabilidad.

Las plataformas tecnológicas, por su parte, tienen una deuda importante con sus usuarias y usuarios. La implementación de medidas contra el acoso, la protección de datos personales y la transparencia en la moderación de contenido no deberían ser opcionales. En lugar de priorizar el crecimiento a cualquier costo, es hora de que estas empresas asuman su responsabilidad en la creación de un ecosistema digital que no perpetúe la violencia y el abuso. Que no se escude en la seguridad para promover la censura, ni en la libertad de expresión para descuidar a sus usuarios.

Meta, por ejemplo, hace algunos meses anunció que utilizará datos personales de sus usuarios para entrenar sus sistemas de inteligencia artificial, sin ofrecer una manera clara de oponerse a esta práctica. En muchas jurisdicciones, simplemente no hay opciones para negarse a este uso de los datos personales. Sin embargo, países como Brasil y los de la Unión Europea, con legislaciones más robustas, han logrado plantear regulaciones que limitan o frenan estos abusos. Pero ¿qué ocurre en el resto del mundo, donde las protecciones legales son débiles o inexistentes?

La desigualdad en la capacidad de los Estados para hacer frente a estos problemas agrava las brechas digitales. Mientras algunos países avanzan en la defensa de los derechos digitales, otros quedan expuestos a los abusos de grandes corporaciones que operan sin restricciones.

Más allá del algoritmo

Es imprescindible repensar colectivamente el diseño y la dinámica de estas plataformas. Cada vez que el discurso de odio se normaliza o el ciberpatrullaje queda sin consecuencias, el entorno digital se deteriora aún más. Este problema no debe recaer en las usuarias y usuarios, sino en quienes tienen el poder de cambiar las reglas del juego: las plataformas tecnológicas y los Estados.

Construir un ecosistema digital ético y seguro no será rápido ni fácil. Requiere creatividad, paciencia y voluntad política, pero el esfuerzo vale la pena. Porque al final, comunicar más allá del algoritmo no es solo una cuestión de supervivencia para las organizaciones de la sociedad civil; es una apuesta por un futuro donde las voces sean amplificadas, no silenciadas, y donde la tecnología sea una herramienta de inclusión, no de exclusión.

Comunicar en un entorno hostil no es sólo un desafío técnico; es una cuestión de principios. Rechazar un modelo digital basado en el odio y la explotación abre la posibilidad de transformar cómo conectamos, construimos y luchamos en el mundo digital, creando espacios más justos y seguros para todas las personas.

Reconocimiento facial

En Derechos Digitales creamos ReconocimientoFacial.info como un espacio para reunir reportes, campañas, noticias, recursos y documentos legales que visibilizan los riesgos del uso del reconocimiento facial en América Latina. Bajo la idea de que “el reconocimiento facial no nos protege, nos vulnera”, buscamos explicar por qué esta tecnología es intrusiva, poco fiable y discriminatoria, y promover el debate público y el acceso a la justicia frente a iniciativas de vigilancia que avanzan sin regulación adecuada.

11 años después de Snowden: ¿Realmente estamos más protegidos?

Edward Snowden era un analista de inteligencia que trabajó para la CIA y la NSA. Al inicio de su carrera consideró que su trabajo correspondía al deber patriótico de defender a su país. Con el tiempo se dio cuenta que era parte de un sistema de vigilancia global secreto que era utilizado incluso para espiar dentro del país. Él consideró que la población de un país democrático debería, al menos, estar enterada de que algo así sucedía. Por este motivo filtró miles de documentos que demostraron lo que sucedía a periodistas que publicaron varios reportajes en importantes medios a nivel global.

En los mismos se pude ver las diversas formas en las que la NSA recolectaba, analizaba y luego utilizaba esta información para operaciones de espionaje alrededor del mundo. [RB1]  En una diapositiva se puede ver las capacidades recolección de información a nivel global a través de un mapa mundi dónde se explica cómo se recolectaba la información desde los cables fibra óptica, a través de embajadas, espiando comunicaciones satelitales, en colaboración con agencias de otros países o mediante ataques informáticos.

Toda esta información recolectada se almacenaba en centros de datos para luego ser accedida a través del sistema XKeyScore. Este sistema funciona de forma parecida a buscadores de internet dónde puedo realizar búsquedas. La diferencia radica en que las búsquedas se las hace sobre información privada. Los documentos muestran que se podían hacer consultas sobre como leer todos los correos electrónicos de persona X, saber quiénes usan correo cifrado en un país determinado, contraseñas de cuentas en línea, entre muchas otras. Básicamente un buscador sobre las vidas privadas de miles de millones de personas, sin ningún tipo de control.

Uno de los programas expuestos que más llamó la atención es el conocido como PRISM ya que involucra a grandes empresas de internet como Google, Facebook, Apple, Youtube, Microsoft, Yahoo, entre otras. Estas empresas tienen plataformas que funcionan como software de servicio, también conocido como “la nube”. Cuando compartes un documento con Google Drive, no solo lo compartes con tus colegas, sino también con Google. Cuando envías un correo usando Outlook, ese contenido es accedido por Microsoft. Si guardas tus fotos en la nube de Apple o de Google sucede lo mismo.

Resultaba lógico entender que estas empresas tendrían acceso a nuestra información para poder brindarnos el servicio. Algunas personas considerábamos que era probable que las empresas se aprovechen de nuestra información. Lo que la gran mayoría no imaginábamos era que además nuestras comunicaciones privadas eran vigiladas por agencias de inteligencia como la NSA. Lo que aprendimos en ese momento fue que, si no eres ciudadano de Estados Unidos y no resides en ese país, la NSA puede acceder a los datos de los servicios de estas empresas para informarse sobre ti. Estamos hablando de llamadas de voz y video, correos electrónicos, chats documentos, fotos, ubicación etcétera.

La recolección de este tipo de información sumada a la capacidad de análisis de la NSA permitieron hacer operaciones de espionaje a lideres mundiales como Angela Merkel, Enrique Peña Nieto o Dilma Rousseff. También existieron operaciones mediáticas para manipular la opinión pública como fue la operación QUITO que promovía una visión favorable para Inglaterra sobre las Islas Malvinas en América Latina.

Esto es un resumen muy superficial de lo que aprendimos hace 11 años. Es importante mirar para atrás y pensar qué cambió desde entonces. ¿Se suprimieron estos programas y ahora nuestra privacidad esta más aseguradas? Personalmente creo que algunas cosas mejoraron y otras han empeorado.

El escándalo de las revelaciones generó una discusión a nivel mundial sobre la privacidad en Internet. Una de las primeras consecuencias fue el Marco Civil de Internet en Brasil dónde se fortaleció la protección de los derechos civiles en internet y en particular la privacidad. En el caso de Europa, esto promovió la discusión de la protección de los datos que personales que en 2017 se vio reflejada en el Reglamento General de Protección de Datos Personales (RGPD). Esta legislación sirvió para que países como Ecuador tengan su ley de protección de datos personales en 2021.

Estas legislaciones son muy positivas y en el caso Europea, incluso se ha llegado a multar a empresas como Google y Meta (antes Facebook). Sin embargo, no es suficiente ya que si bien estas legislaciones buscan el consentimiento informado  para el tratamiento de datos personales, en la práctica se traduce como una incómoda ventana dónde se nos pide aceptar la política de privacidad y gestionar las configuraciones de cookies. En la práctica la mayoría de personas aceptan los términos y probablemente todas las cookies.

En lo tecnológico el cambio fue mayor. Antes de las revelaciones de Snowden la mayoría de sitios web funcionaban bajo el protocolo inseguro de HTTP.  En 2015 la EFF en colaboración con otras organizaciones y empresas lanzaron la iniciativa de Letsencrypt que hizo que la implementación de sitios web con el protocolo seguro HTTPS sea accesible para cualquier sitio o aplicación web. Gracias a esta iniciativa hoy casi todos los sitios y aplicaciones que usamos en Internet cifran la comunicación. De esta manera se puede presumir que parte importante de los programas de recolección de información de la NSA quedaran obsoletas. Esta característica no solo nos protege de la NSA, sino de cualquier actor con malas intenciones, desde un ciber criminal a Estados.

Sin duda una mejora importantísima para la seguridad de las comunicaciones de todas las personas que utilizamos internet. No obstante, esto no nos protege del espionaje de programas como PRISM, ya que la información que utilizamos en servicios en la nube generalmente es accesible por las empresas que proveen el servicio como se mencionó anteriormente. Personalmente creo que la situación ahora es peor.

Durante estos 11 años la NSA ha seguido trabajando en secreto y sus capacidades tecnológicas debieron mejorar. Pero la debilidad más fuerte es que empresas mencionadas en PRISM siguen siendo parte esencial de nuestras vidas. Nuestros teléfonos celulares si no funcionan con Android de Google, funcionan con el iOS de Apple. Los sistemas de reconocimiento de voz como Siri, Hey Google o Cortana son todos provistos por empresas PRISM. Por citar dos ejemplos. 

Otro avance importante que tenemos desde las revelaciones de Snowden es la adopción del cifrado extremo a extremo. A diferencia del cifrado de tráfico en la red, con este podemos proteger el contenido de la información incluso de la empresa que provee el servicio. Si ciframos un correo de Gmail, incluso Google no lo podría leer.

Si bien el cifrado de correo electrónico existe hace más de una década, su adopción es marginal. El caso más importante es la adopción de cifrado extremo a extremo es la de WhatsApp en 2016 que permitió a miles de millones de personas cifrar sus mensajes.

Claro que no podemos olvidar que WhatsApp es una empresa de Meta (antes Facebook), que está involucrada en el programa PRISM. La aplicación es de código propietario y no se puede saber cómo está hecha por lo que podría tener una puerta trasera. Incluso me atrevería a decir que tiene una puerta delantera cuándo en las conversaciones de la aplicación tenemos la opción de que participe la inteligencia artificial de Meta. Es una forma cool de pedirnos acceso a nuestras conversaciones.

Otro gran avance que hemos tenido es el desarrollo de aplicaciones de software libre que nos permiten controlar nuestra información.  Existen aplicaciones de chat, correo electrónico, colaboración, edición de documentos y más. En Derechos Digitales, por ejemplo, utilizamos Matrix como nuestro sistema de chat, Nextcloud para compartir documentos, OnlyOffice  para editarlos, Jitsi y BigBlueButton para video llamadas. Ninguna de estas aplicaciones es perfecta, algunas pueden llegar a ser incómodas o fallar en cuestiones que no quisiéramos, pero nos permiten tener agencia sobre nuestros datos y privacidad.

Snowden nos hizo saber que vivimos en una máquina de vigilancia y que estamos perdiendo nuestra privacidad. Ahora como sociedad debemos decidir si queremos seguir atrapados en este sistema o buscamos alternativas. En próximas columnas reflexionaré sobre algunas herramientas que usamos de forma cotidianas y las alternativas que respetan nuestra privacidad. Por lo pronto comparto columnas que escribí sobre aplicaciones de chat, teléfonos móviles, redes sociales y herramientas de video conferencia.

Perfilamiento en redes sociales y ciberpatrullaje como nuevas modalidades de la vigilancia masiva desplegada por los Estados de la región: casos relevantes en América Latina.

En este informe que responde la consulta de la Relatoría Especial para la Libertad de Expresión profundizamos en el ciberpatrullaje y los perfilamientos en redes sociales empleados por los Estados de América Latina y que configuran dos nuevas modalidades de vigilancia masiva desplegada por los Estados. Llamamos la atención de la RELE para que recomiende garantías robustas de protección a derechos frente a dichas prácticas.

Histórica sentencia de la Corte Interamericana de Derechos Humanos: La protección de datos aplica en las tareas de inteligencia

El pasado 18 de marzo la Corte Interamericana de Derechos Humanos (CtIDH) emitió una sentencia histórica en el caso “Miembros de la Corporación de Abogados José Alvear Restrepo (o Cajar) vs. Colombia. La decisión es de relevancia —entre otros— porque, por primera vez en la historia de la Corte se reconoce el derecho a la autodeterminación informativa en las tareas de inteligencia de los Estados.

El caso: abuso estatal en las facultades de inteligencia

La sentencia condenó al Estado colombiano por haber sometido por más de 30 años a un colectivo de defensores de los derechos humanos y sus familias a actos de intimidación, acoso y vigilancia ilegal de manera sistemática que buscaban amedrentar, disuadir, difamar y estigmatizar su labor como defensores en un contexto de conflicto armado y paramilitarismo.

Para entonces, el Estado emprendió acciones de vigilancia ilegal sobre los miembros del CAJAR de diversas formas que incluyeron intervenciones ilegales de sus comunicaciones privadas, registro ilegal de su correspondencia, registros e intromisiones ilegales a sus domicilios, robos de información, infiltraciones de personal de inteligencia estatal en su organización y actividades, labores de inteligencia sobre sus familias —incluidos menores de edad—. Estas actividades, articuladas con amenazas y atentados a la vida de miembros del CAJAR, forzaron a muchos de sus miembros a vivir y trabajar desde el exilio.

Fruto de la impunidad de casi 4 décadas en la justicia colombiana, el caso de las personas defensoras del Colectivo de Abogados llegó en el 2020 a la CtIDH. La Corte elaboró su sentencia en 2023 y la comunicó a las víctimas el 18 de marzo pasado.

En la sentencia, la Corte declaró la responsabilidad del Estado por la violación de 14 derechos humanos, incluido el derecho a la autodeterminación informativa.

La decisión: la autodeterminación informativa también aplica a la inteligencia estatal.

La decisión de la CtIDH señaló, entre otros, que las personas objetivo de las tareas de inteligencia tienen el derecho a acceder a los archivos de inteligencia elaborado sobre ellas para solicitar que su información en manos del Estado sea revisada, corregida, actualizada, y depurada. Para entender la profundidad de esta decisión hay que considerar tres aspectos esenciales de las tareas de inteligencia.

En primer lugar, que por su naturaleza sigilosa y encubierta, la persona que está siendo objetivo de las tareas de inteligencia no consienteni suele tener conocimientode que está en la mira del Estado. Esta se entera, como suele suceder en nuestra región, por filtraciones de inteligencia que son dadas a conocer por la prensa.

En segundo lugar, que las tareas de inteligencia suelen estar exceptuadas de las regulaciones de protección de datos por razones asociadas a la seguridad nacional. Las razones de esta excepción suelen ser menos claras pero, en general, dotan a las actividades del Estado de una mayor opacidad, dificultando su escrutinio incluso por la vía judicial.

Y en tercer lugar, que en las tareas de inteligencia hay dos grandes categorías de información. La información accionable, es decir, información que fue analizada, puesta en contexto y revisada de cara a otras fuentes de información para orientar la toma actual de decisiones; y los archivos de inteligencia, la información que ya cumplió con su ciclo de vida útil y que el Estado conserva sea para su reutilización posterior u otras finalidades.

El fallo de la CtIDH se refiere precisamente a los derechos que tienen los titulares de los datos personales respecto de la información que reposa en los archivos de inteligencia.

Ahora bien, que las personas puedan, según el fallo, ejercer el control sobre la información que reposa en esos archivos, se traduce en que (i) éstas podrán ejercer escrutinio sobre las condiciones de legalidad, necesidad o razonabilidad en que se justificó el Estado entonces para recoger esa información, o para decidir sobre su conservación, y (ii) en que podrán demandar al Estado su eliminación, actualización o corrección, de ser el caso.

La Corte entendió que el ejercicio de esas facultades aplicable respecto de los archivos de inteligencia estaba amparado por el derecho a la autodeterminación informativa, es decir, el derecho a ejercer control sobre quién, cómo y bajo qué condiciones recoge y conserva nuestra información personal.

En el caso colombiano, la CtIDH llamó la atención para que ese derecho cobre vida en el marco de las acciones de depuración y desclasificación de los archivos de inteligencia, una práctica sugerida a los estados por distintos estándares en derechos humanos en materia de inteligencia que aconsejan identificar, caracterizar e inventariar la información de inteligencia que ya no se necesita pero que el Estado sigue teniendo en sus manos.

El reto a futuro: la vigilancia y sus nuevos despliegues o el “Ciberpatrullaje”

Los efectos regionales de este fallo están por ser explorados, pero sin duda que abre una puerta antes cerrada en la conversación sobre cuál, si alguno, era el control que podrían ejercer las personas sobre la información de inteligencia recogida y conservada por los Estados.

Ahora bien, este fallo seguro que tendrá incidencia en las discusiones actuales sobre actividades de inteligencia no convencional, como el Ciberpatrullaje, es decir, una modalidad nueva de la inteligencia estatal que se despliega en internet y que, bajo la excusa de la protección de la seguridad ciudadana en línea, habilita al Estado a la recolección de información asociada a las interacciones en línea de las personas que han sido declaradas como objetivo de seguimiento.

Si el fallo deja en claro que las personas tienen el derecho de acceder, solicitar la corrección, actualización y eliminación de la información personal que consta en archivos de inteligencia, aquella facultad debería poder ser exigible respecto de los archivos en que se documentan las tareas de “ciberpatrullaje”. Pero para llegar allá, hace falta recorrer un camino más largo en el que se reconozca al ciberpatrullaje como lo que es: una actividad de vigilancia.

La escuela de mañana, ahora

La pandemia lo cambió todo. Se sabe. Uno de los ámbitos que sufrió mayores transformaciones fue la enseñanza y así lo alertamos en su momento, desde una mirada regional. Pasar de la sala de clases, espacio físico que comporta cierta intimidad funcional al proceso de aprendizaje, a un contexto sin estas características y, peor aún, sin garantizar primero la infraestructura necesaria para la educación a distancia, provocó, de acuerdo con UNESCO en ese entonces, una tragedia.  

Salto temporal al presente y ya no es solo la brecha de conectividad, la falta, la que está impactando de manera negativa al futuro de la humanidad; también la abundancia, expresada en la masificación de las herramientas de inteligencia artificial generativa (IA), pone en peligro la integridad de los conocimientos que adquieren, en este mismo instante, niñas, niños y adolescentes (NNA) en todo el planeta.

Todo esto ocurre al mismo tiempo en que la Unión Europea investiga a Meta, compañía a cargo de Facebook e Instagram, por una posible manipulación intencional a NNA mediante los algoritmos de estas plataformas y por no proveer las garantías suficientes de privacidad, seguridad y protección de menores, contraviniendo lo estipulado en la Ley de Servicios Digitales.

¿Alguien quiere pensar en los niños?

Se entiende que las plataformas sociales, por su nivel de alcance, sean el foco permanente de acciones legales e interpelaciones para rendir cuentas. Desconocemos, sin embargo, qué está pasando en cuanto a protección de datos y seguridad digital en las plataformas educativas. El paradero de los miles de datos recopilados durante una hora pedagógica por software “de ayuda” -intervenciones de estudiantes, materiales educativos, métricas de uso, etc.- es una incógnita.

Otro estudio publicado por UNESCO en 2023 es categórico al evidenciar los efectos negativos en la relación entre el uso de smartphones y los resultados educativos, pero también concluye que “si bien la prohibición de la tecnología en las escuelas puede ser legítima en ciertos casos, también se debe considerar su integración adecuada en el aprendizaje”.

Esta ambigüedad normativa se expresa en la falta de consensos mundiales al respecto. En San Pablo, Brasil, el mes pasado se anunció el uso de la IA para mejorar el currículo escolar producido por los profesores y las críticas no se hicieron esperar: cuál es el rol de las maestras en este cambio, cuáles son las líneas éticas que determinarán su uso y qué tipo de control existe sobre posibles afirmaciones falaces emitidas por estos sistemas, por mencionar algunas de ellas.

En Suecia, mientras tanto, la apuesta es por desescalar el avance de las tecnologías al interior de la sala de clases, luego de los magros resultados obtenidos por sus estudiantes, especialmente en cuanto a capacidades lectoescritoras, en mediciones internacionales. Tales efectos también fueron advertidos en nuestra región en 2018.

Como vemos, el problema es de larga data, pasan los años y, más allá de denunciar la guerra y el hambre, e implementar medidas absolutistas tipo “todo o nada”, desconocemos el verdadero impacto, en el mediano y largo plazo, de estas acciones en el aprendizaje escolar.

Un, dos, tres: Madurez

Contrario a las numerosas de voces de alarma que a diario alertan sobre un apocalipsis pedagógico que destruye la capacidad cognitiva de las infancias alrededor del mundo, lo cierto es que la tecnología, una vez más, es el chivo expiatorio de las malas decisiones que toma seres humanos como tú y como yo, a diferencia de que bajo su cargo tienen el destino del aprendizaje de millones de niñas, niños y adolescentes.

Fuentes consultadas para este análisis -madres y padres- así lo afirman: ven en los motores de búsqueda, aplicaciones de aprendizaje y, sobre todo, los juegos una enorme ayuda en la crianza de sus hijos, al permitir delegar en estas herramientas “la parte cuantitativa” de la educación y ocuparse ellas, en cambio, de entregar aquello que no puede medirse con calificaciones.

Un estudio publicado en 2023 en España, fruto de la colaboración público-privada, adopta un enfoque propositivo sobre este tema, preguntándose por el futuro de la IA en la educación, en América Latina. Sus conclusiones son optimistas: hay tiempo, de aquí al 2030, para meditar y establecer legislaciones claras sobre su uso en las aulas, llamando a todos los sectores (gobiernos, privados, academia, sociedad civil) a colaborar en este esfuerzo conjunto. En Latinoamérica nos toca generar instrumentos en esta misma línea, desde nuestro conocimiento de la realidad local a partir de la experiencia.

En este punto de la historia, “Papel v/s Pantallas” no es más que un título sensacionalista para atraer clics que, campañas de miedo o fearmongering mediante, reduce los desafíos en torno a la educación a una mera cuestión de soporte. La realidad nos muestra que el abrupto acceso a tecnologías que no podíamos siquiera describir hace cinco años trae consigo un deber de las personas adultas que las regulan, implementan y utilizan a comportarse como tales.

Un conocido refrán africano sostiene algo similar a la idea de que “Se necesita una aldea completa para cuidar de un niño”. Llegó la hora de hacernos cargo, aldea global.