Inteligencia artificial más allá de la polarización

La edad avanza y llegamos a un punto en la vida en que vemos con curiosidad que las cosas se repiten. Convivimos por décadas con un tecno-optimismo que nos hizo ciegas a la complejidad implicada en el desarrollo tecnológico. Discursos sobre el potencial de internet para facilitar el acceso a todo – la cultura, el conocimiento, la información, la educación, etc. – olvidaban que esas mismas tecnologías no se diseñan, ni se implementan en el vacío. Un escándalo tras la exposición de cómo las principales potencias mundiales utilizaban la misma infraestructura de internet para meterse en las comunicaciones privadas de todo el mundo – incluidos jefes de Estado – fue necesario para traernos de vuelta a la tierra. Sí, las tecnologías digitales pueden y han generado mayor democratización en algunos ámbitos de la vida y para algunas personas. Pero no, no se trata de una panacea que nos va a salvar de todos los males del mundo. Al contrario, puede exacerbar algunos de esos males.

Entra 2024 – 11 años desde las lecciones dejadas por las revelaciones de Snowden –, pero parece que retrocediéramos en el tiempo. Se reemplaza “internet” por “IA” y nuevamente se multiplican expectativas sobre los potenciales beneficios (en este caso, rara vez comprobados) de esta innovadora tecnología. Incluso, frente a críticas sobre su implementación y crecientes evidencias de sus impactos en el ejercicio de derechos, se apuesta a cómo nos ayudará a superar problemas históricos y estructurales que van desde la crisis climática hasta el acceso a salud de calidad y la inclusión de personas con discapacidad. Hay quienes dicen, incluso, que la IA ayudará a combatir la desinformación – quizás ignorando u olvidando que las decisiones algorítmicas automatizadas por detrás de la priorización de contenidos en las plataformas de redes sociales están entre las raíces del caos informativo en la esfera pública digital.

Una “inteligencia” socialmente construida

Lo que se conoce como IA hoy se refiere, en gran medida, a un conjunto de procesos y técnicas que permiten a un sistema computacional hacer cálculos estadísticos capaces de identificar patrones y a partir de ellos, predecir comportamientos. Podría parecer obvio, pero es importante resaltar que pese a la referencia a la inteligencia humana, este tipo de sistema está lejos de tener una capacidad crítica o empática, por ejemplo.

Ellos dependen de al menos (i) la disponibilidad de bases de datos que permitan “entrenar” determinados modelos matemáticos para sacar inferencias, (ii) la existencia de masas de trabajadoras clasificando y etiquetando estas bases de datos según diferentes criterios, (iii) el desarrollo de los modelos algorítmicos responsables de los cálculos, y (iv) una interfaz para la interacción con las usuarias finales o con otros sistemas. Para que la IA exista es necesaria también una infraestructura física, compuesta por cables de telecomunicación, satélites, centros de datos, súper computadoras con extrema capacidad de procesamiento, baterías, etc.

Más allá de la idea de automatización, cada uno de esos procesos implica un conjunto de decisiones humanas influidas por aspectos culturales, éticos, históricos y sociales y, en algunos casos, afectada por factores políticos y económicos. Como en el caso de cualquier tecnología, la IA no es neutral y tampoco fruto de cualquier tipo de magia.

Como sintetiza el investigador de la Universidad de Edinburg, Ben Williamson: esos sistemas materializan formas particulares de percibir el mundo y a su vez pueden influenciar y modelar la manera como las personas actúan en el mundo. Académicas feministas hace mucho apuntan a ese aspecto. La australiana Judy Wajcman, por ejemplo, ha explorado ampliamente cómo las relaciones de género se encuentran materializadas en las tecnologías – que no solo incorporan nociones de masculinidad y femineidades socialmente construidas, sino que luego pasan a ser parte en la construcción del significado de tales conceptos. Y Ruha Benjamin, profesora en la Universidad de Princeton, a su vez, presenta la idea de diseño discriminatorio al identificar cómo las jerarquías raciales son normalizadas en la producción tecnológica.

Por otro lado, tal como el diseño y la implementación de las tecnologías y la IA son permeadas por factores culturales y sociales, también lo son sus usos. Aplicaciones y sistemas desarrollados para ciertos fines, pueden muy bien ser utilizados para otros y los ejemplos abundan. Al contrario de una idea determinista de que los sistemas producirían por sí mismos ciertos resultados – positivos o negativos – en la sociedad, se trata de pensar que los usos de las tecnologías son múltiples y que están en constante interacción con los contextos en que son implementadas.

IA: ¿para el bien, o para el mal?

No es posible, por lo tanto, hablar de una AI for good, o “IA para el bien”. Ese tipo de idea además de mostrar como los aprendizajes, aunque dolorosos, pueden no ser duraderos, refleja nociones deterministas y simplistas sobre las tecnologías que perjudican las importantes discusiones sobre su gobernanza.

El énfasis en el (supuesto) objetivo de determinado sistema – como si hubiera fines legítimos “para el bien” que justificaran el no cumplimiento de determinadas obligaciones –, opera como una cortina de humo que nos distrae de los procesos productivos por detrás de su desarrollo y despliegue. Antes de emprender la imposible tarea de enumerar despliegues positivos o negativos de IA, como si las mismas nociones de “bien” y “mal” fueran estáticas y universales, nuestros líderes deberían reforzar los principios acordados en el marco internacional de derechos humanos a todas las etapas de producción de IA.

Eso implica garantizar que las bases de entrenamiento cumplan con estándares de protección de datos; que las personas que trabajan en la cadena de producción de la IA – sea en la extracción de minerales usados para la creación de productos tecnológicos, sea en el etiquetado de datos – reciban una compensación justa por su trabajo y tengan observados sus derechos laborales; que los data centers obedezcan la legislación ambiental; que las personas indígenas sean consultadas de manera previa antes de intervenciones que puedan impactar sus derechos. Algunas de estas recomendaciones incluimos en el insumo de Derechos Digitales al reporte intermedio del Órgano Asesor sobre IA de la Organización de las Naciones Unidas.

No hay magia

Ningún “bien” puede derivar de la vulneración indebida de derechos garantizados. Adoptar una perspectiva de derechos humanos al enfrentar los desafíos de la gobernanza de IA significa avanzar en mecanismos para lidiar con situaciones complejas y concretas. Tal compromiso debe ir mucho más allá de la creación de principios éticos o declaraciones vacías, pero garantizar, por ejemplo, que las empresas y los Estados sean debidamente responsabilizados en el caso de abusos derivados del desarrollo o despliegue de IA.

El marco de legalidad, necesidad y proporcionalidad es una buena referencia tanto para la resolución de conflictos, como para guiar la digitalización de manera que dichos procesos no impliquen ni un incremento en el deterioro ambiental o reemplacen necesarias inversiones en infraestructura básica de educación, salud, entre otras. Además, resulta fundamental llevar a cabo estudios de impacto en derechos humanos con una participación amplia y diversa para guiar decisiones de diseño y despliegue.

El avance de los Objetivos de Desarrollo Sostenible, la “modernización”, “progreso” o la “participación en la economía digital” no pueden ser excusas para la promoción de tecnología de manera irresponsable. La transformación social y la superación de desigualdades siempre dependerá de compromisos sostenidos de los Estados y del apoyo y participación de las distintas partes interesadas. La realidad muestra y reitera que no existen las fórmulas mágicas.

Fiebre de vigilancia en las gradas

En toda América Latina por décadas la afición al fútbol ha sido acompañada por la crónica roja, la presencia en los estadios de barristas a favor o en contra viene marcada por hechos de violencia, desde peleas entre barras bravas en las calles hasta invasiones de campo, en ocasiones con consecuencias fatales. Ejemplos, desafortunadamente, sobran. 

Pero tal como ocurre con la conmoción social asociada a la delincuencia en los espacios públicos, junto con cada reporte de violencia dentro o alrededor de los estadios de fútbol se alzan voces que exigen mayor seguridad. Más controles en la venta de entradas, más presencia de guardias armados, más presencia policial en los alrededores de los recintos deportivos y más represión.

Y tal como ocurre con los espacios públicos, con un oportunismo y entusiasmo por una transformación digital a través de sistemas biométricos para identificar a cada hincha, se ha incluido la implementación del reconocimiento facial en los estadios de fútbol. Si bien se presenta como una medida de seguridad y control de acceso eficiente, su adopción plantea desafíos éticos y legales significativos.

Marca personal

El funcionamiento del reconocimiento facial exige por una parte la digitalización del rostro de manera automatizada, y por otra un registro biométrico preexistente con el cual cotejar. Sea para verificar que se trata de una persona específica, o para identificarla entre un universo de posibles personas. Así, la identificación de personas impedidas de ingresar a estadios podría lograrse, en principio, con ayuda de tecnologías de reconocimiento facial. 

No obstante, lo que vemos avanzar desde hace varios años son sistemas de registro ex ante de las personas asistentes a estadios, mediante sistemas como el FAN ID que circula desde la Copa del Mundo de 2018 hasta el Registro nacional de hinchas que se exige en Chile desde 2024, como métodos de fría entrega de datos como condición previa para ser parte de una pasión de multitudes.

Con diferentes  tipos de despliegue en varios países de la región se han ido incorporando tecnologías de reconocimiento facial durante los últimos años. La industria se ufanaba en Uruguay de ser pioneros en la instalación de estas tecnologías en la década pasada. También entonces en Argentina se anunciaban avances tecnológicos y pasaportes digitales, que ya tenían el antecedente de una intensa videovigilancia. En Colombia la industria promueve su tecnología tanto para el fútbol como para otros espectáculos en estadios deportivos.

En Brasil, años después de exponer a la afición de toda la región en la Copa América de 2019 las noticias declaraban uso efectivo en un estadio y sucesivos anuncios de instalación en otros.  En México se aceleró la adopción tras una escandalosa batalla campal con decenas de heridos, y si bien la autoridad de control de datos personales intervino tras la creación de nuevas formas de identificación de hinchas, el uso de identificadores o “pasaportes” digitales como el FAN ID ha extendido su uso. 

En Chile, desde 2023 se prueban estos sistemas y cada vez más estadios en todo el país anuncian su instalación. La policía en Paraguay ha anunciado este año el uso de reconocimiento facial en estadios. Y así, nuevos anuncios de intenciones o de planes aparecen con frecuencia, azuzados por sus vendedores.

Peor que el VAR

Como hemos denunciado por años, la promoción de estas tecnologías está acompañada por discursos que le atribuyen efectividad para identificar individuos y así disuadir la violencia y garantizar un ambiente seguro para hinchas y sus familias. Es un elemento crucial la percepción de seguridad asociada a la presencia de elementos de vigilancia.

Sin embargo, esta aparente solución de seguridad plantea una serie de preocupaciones éticas y legales. En primer lugar, el uso generalizado del reconocimiento facial en los estadios de fútbol conduce casi necesariamente a una vigilancia masiva de los aficionados, erosionando su privacidad y sus libertades individuales. Además, existe el riesgo de errores y sesgos inherentes a los algoritmos de reconocimiento facial, lo que podría resultar en identificaciones erróneas y la exclusión injusta de espectadores inocentes. Esto plantea interrogantes sobre la equidad y la justicia en el acceso a los eventos deportivos, especialmente en una región tan diversa como América Latina. 

Por cierto, aún si los sistemas funcionan bien y sin errores, la intensa vigilancia que conlleva la captura y el uso de datos biométricos crea nuevas instancias de vulnerabilidad sobre las personas vigiladas.

La recopilación y el almacenamiento de datos biométricos, como las imágenes faciales, plantean riesgos significativos en términos de seguridad y potencial abuso por parte de las empresas, las autoridades o de terceros malintencionados: nuevas bases de datos que pueden ser explotadas por empresas sin criterios claros, o utilizadas sin autorización por bandidos cibernéticos, comercializadas inescrupulosa o ilegalmente, o entregadas sin resguardo alguno de debido proceso a la autoridad. Ninguno de esos riesgos debería ser aceptado como condición para ser parte de espectáculos deportivos o artísticos.

Goles y autogoles

Quizás uno de los aspectos más desmoralizantes de la insistencia por la securitización mediante tecnologías digitales, es la facilidad con que las autoridades políticas hacen propio el discurso de los mercaderes de la vigilancia.

A modo de ejemplo, mientras en Chile avanza discutiendo el detalle de los últimos artículos para renovar su Ley de Datos Personales, incluyendo mejor protección en el caso de datos biométricos, una comisión de la Cámara de Diputadas y Diputados aprobó de manera expresa la exigencia del uso de biometría en los estadios de fútbol profesional. 

Excelente momento para ser vendedor de tecnologías de vigilancia, pésimo momento para ser hincha. Como reconoce Aldo Rómulo Schiappacase, “para controlar a los más violentos se aplican medidas que afectan a todos los hinchas”, en otro esquema de recolección masiva de información y control sobre la totalidad de un grupo, en atención a la incapacidad de prevenir las incivilidades de algunos de sus miembros, o peor aún, de reconocer y prevenir las causas de la violencia en los estadios. En este caso, el grupo afectado es precisamente aquel que decide acudir presencialmente a atestiguar la gloria deportiva. Cada hincha, por ser hincha, pierde en parte su presunción de inocencia, su libertad de reunión pacífica, su autonomía individual.

Quién tiene la pelota

Todo lo dicho es más que sabido. Las preocupaciones han aparecido una y otra vez, e igualmente el discurso avanza en un único sentido: cada vez más vigilancia, sin resultar en mejoras sustantivas para la seguridad y hasta alejando a la afición de los estadios.

¿Hasta qué punto estamos dispuestos a sacrificar la privacidad y libertades individuales en aras de la seguridad y el orden público? Si bien es indudable que la seguridad en los eventos deportivos es prioridad, es crucial encontrar un equilibrio entre la protección de los aficionados y el respeto a sus derechos fundamentales. Y ese equilibrio no se alcanza con medidas tan intrusivas como lo es el reconocimiento facial.

Así, al menos lo consideró este año la autoridad de control de datos personales en España, al advertir a su poderosa Liga local frente a la licitación de sistemas de reconocimiento facial, un año después de haber ordenado el cese del funcionamiento de sistemas biométricos y la eliminación de la información recabada. Más importante; sugiere la búsqueda de alternativas menos intrusivas: que a un problema identificado se le busque la solución adecuada, en vez  de inventar ajustes para una solución ya elegida.

Podemos volver a repetir la importancia de enfoques que consideren la eficacia de la tecnología y sus implicaciones éticas, legales y sociales, como también la necesidad de salvaguardias adecuadas de transparencia, auditabilidad y rendición de cuentas. O reiterar que un enfoque equilibrado debe considerar a la vez medidas tecnológicas y políticas públicas sólidas, no centradas en vigilancia y represión como en prevención e inclusión, con participación significativa de la sociedad civil para garantizar que se aborden todas las preocupaciones pertinentes. Todo eso es valioso.

No obstante, un debate serio sobre la adopción de estas tecnologías debe enfrentar también la posibilidad real de no adoptarlas. El auténtico respeto por la afición exige no vulnerar sus derechos por una falsa expectativa de seguridad.

Las múltiples caras de la violencia contra periodistas en El Salvador

Ante el profundo cierre democrático que prevalece en el Salvador, el entorno digital se ha convertido en un canal indispensable para ejercer la libertad de expresión, libertad de prensa y la defensa de los derechos humanos.

Desde Derechos Digitales hemos documentado en varias oportunidades  las situaciones de censura, violaciones al derecho de acceso a la información, y limitaciones a la libertad de expresión que se viven en El Salvador desde hace años. 

En el difícil contexto, es sumamente importante reflexionar sobre el estado de medios, periodistas y personas encargadas de mantener informada a la población.

Violencia Digital hacia periodistas en elecciones

El domingo 4 de febrero de 2024 se realizaron las elecciones presidenciales en el país. Resultó reelecto el candidato del partido Nuevas Ideas, Nayib Bukele, con el 81% de los votos tras un proceso permeado por distintos cuestionamientos. 

En el período previo a las elecciones, entre julio de 2023 y febrero de 2024, la Asociación de periodistas de El Salvador (APES) monitoreó los ataques recibidos por la prensa y los periodistas.  El informe resultante reportó 64 casos, la mayoría ocurridos en el ámbito digital. Otro reporte de APES, sobre «Vulneraciones a la prensa» indica que los tipos de ataques más comunes limitan seriamente su labor como periodistas, debido a que la censura de la que son víctimas restringe el libre ejercicio de su profesión. Declaran que sufren declaraciones estigmatizantes, acoso, difamación, amenazas legales, vigilancia y ataques vinculados al género hacia periodistas mujeres. 

La situación tuvo repercusiones en medios y organizaciones del continente y el mundo. Reporteros Sin Fronteras, en conjunto con organizaciones internacionales vinculadas a la libertad de prensa y expresión, condenaron públicamente las agresiones sufridas por la prensa en el marco de las elecciones salvadoreñas. Su llamado fue “para que se establezcan las condiciones y garantías necesarias para que las y los periodistas puedan ejercer su labor, la ciudadanía esté informada, y se reconozca el papel de los medios en el fortalecimiento de la democracia”.

Violencia de género como norma

En este contexto de violencia, agresiones, censura y silenciamiento creciente, no debería sorprendernos que el componente de género ocasione impactos diferenciados. Decisiones gubernamentales como el del Ministerio de Educación de remover todo contenido relacionado a la perspectiva de género de materiales educativos bajo la amenaza de “despedir profesores” que los difundan, reflejan la preocupante postura estatal respecto a la desigualdad de género. Conforme ha sido referido por organizaciones de la sociedad civil, la medida no solamente implica un retroceso, sino que amenaza con elevar los índices de violencia sexual. 

De hecho, cifras como las identificadas en el “Informe sobre violencia digital basada en género dirigida hacia mujeres periodistas”, publicado también por APES en enero de este año, demuestran que la violencia sexual es central en los ataques recibidos. Dicho informe, indica que durante el período de análisis, entre el 1 de octubre de 2023 hasta el 10 de enero de 2024, se registraron un total de 45.530 ataques digitales. Las mediciones señalan que el 17.5% de todos los comentarios contra mujeres periodistas son de tipología de violencia sexual. A su vez, se identifica que el 7% de los ataques dirigidos a hombres periodistas se basan en contenido transfóbico, homofóbico y misógino; lo cual denota que existe un fuerte componente de violencia basada en género incluso cuando ésta está dirigida a los hombres.

El informe puntualiza que las situaciones de violencia suceden generalmente en reacción a posturas de periodistas sobre la administración actual, especialmente en el marco de investigaciones o coberturas periodísticas en el marco del contexto electoral.

Los análisis realizados por APES concluyen que los principales agresores han sido funcionarios públicos, además de las Fuerzas Armadas, partidos políticos, instituciones públicas, entre otros. Los perfiles están compuestos tanto por influenciadores afines al gobierno, como de cuentas anónimas o automatizadas – los bots, conocidos en El Salvador como “troles”- y utilizan direcciones IP localizadas en Estados Unidos. Esto significa que se trata de cuentas que en su mayoría, son muy difíciles de rastrear.

Cabe señalar que El Salvador no cuenta con una legislación específica sobre violencia de género en línea, y a pesar de que cuentan con leyes aplicables a estos ámbitos como la ley especial integral para una vida libre sin violencia (LEIV) y la ley de Delitos Informáticos, expertas señalan que «esto no ha dado una garantía ni una mayor protección legal hacia este grupo de personas, como son las mujeres«. En ese contexto, no se puede perder de vista que al ser los responsables de las violencias ejercidas miembros estatales o afines al gobierno – como indican los informes – inevitablemente, como mínimo, se dificulta la aplicación de la legislación existente.

Violencia y vigilancia institucionalizadas

El pasado 27 de marzo, se cumplieron dos años del régimen de excepción, que implicó una serie de reformas legales en un Estado que continúa evadiendo sus obligaciones en materia de derechos humanos. En febrero de 2022, la Asamblea Legislativa de El Salvador aprobó una reforma del código penal que legitimaba el espionaje digital, como parte de la consolidación del poder de Bukele. Desde el su primer mandato, la represión hacia la prensa ha aumentado a pasos agigantados. Bukele ha atacado continuamente a los medios de comunicación, acusándolos de promover “fake news”.

Un claro ejemplo de esto es el del periódico “El Faro”, uno de los principales medios de comunicación independientes de El Salvador, cuyos miembros han sido objeto de hostigamiento, amenazas, intimidaciones y estigmatización (principalmente en espacios digitales) en base a sus labores periodísticas. Así lo ha reconocido la Comisión Interamericana de Derechos Humanos (CIDH) mediante el otorgamiento de medidas cautelares a favor de 34 miembros del periódico y su posterior resolución de seguimiento. La resolución indica que la información presentada demuestra que los derechos a la vida y a la integridad física de los miembros de «El Faro» se encontraba en situación de gravedad y urgencia. Para ello, la Comisión consideró las amenazas, el acoso y las agresiones recibidas por las periodistas mediante redes sociales, así como el seguimiento de las oficinas del periódico por determinados periodos de tiempo, presuntamente por el Organismo de Inteligencia del Estado.

Además de los ataques por múltiples medios y formatos, una investigación liderada por Citizen Lab en conjunto con organizaciones latinoamericas identificó que el software espía Pegasus había sido instalado en los teléfonos de al menos 35 periodistas y miembros de la sociedad civil. En el caso de “El Faro”, las investigaciones señalan que durante un periodo de 17 meses se tuvo acceso total a los aparatos de más de la mitad de su personal en fechas específicas que coinciden con procesos de investigación específicos llevados a cabo por el medio y con acontecimientos relevantes en la vida política o ataques gubernamentales contra el periódico. La conjunción de hechos, más el peligro diario para sus trabajadores, llevaron al medio a emigrar a Costa Rica

Estos hechos no son aislados, sino que se insertan dentro de una preocupante estructura de vigilancia que se ha ido consolidando como estrategia de gobierno. Así por ejemplo cabe recordar el préstamo multimillonario de 109 millones de dólares para la ejecución de la Fase 3 del Plan de Control Territorial aprobado forzadamente tras la toma militar del congreso. Conforme señalaron los medios de comunicación, el préstamo consolida la militarización de la seguridad pública mediante la adquisición de tecnologías de vigilancia. Entre éstas se encuentran cámaras de vigilancia con un nuevo sistema de reconocimiento facial, además de drones y diversos centros de monitoreos para la policía y el ejército.

Una respuesta urgente

La libertad de expresión y la libertad de prensa son derechos humanos. Que la prensa esté informada, pueda acceder a la información, garantir la protección de sus fuentes e informar sobre lo que sucede sin temer por su integridad física o su continuidad laboral, debería ser una prioridad ineludible en defensa del derecho al acceso universal a la información.

Nada de eso está garantizado ahora en El Salvador. En tal contexto de institucionalización creciente de la violencia y la vigilancia, incluso contra periodistas, y frente a la amenaza latente de una mayor radicalización luego de la victoria electoral, es urgente que las instituciones internacionales refuercen el monitoreo de la situación y la exigencia de medidas concretas por parte del Estado salvadoreño. Además del restablecimiento de las garantías a los derechos fundamentales, es crucial que se incrementen los mecanismos de protección a periodistas.

Conociendo la influencia que el gobierno Bukele ha tenido sobre la extrema derecha latinoamericana, una respuesta fuerte de la comunidad internacional es crucial. Desde la sociedad civil seguimos en alerta máxima para que situaciones como las registradas en El Salvador en los últimos no se sigan repitiendo en nuestra región.

Volver a lo básico: la importancia de delimitar nuestros espacios de exposición 

Se puede pensar a la privacidad como tener el control de qué parte de nuestra vida compartimos y con quién. No es lo mismo una conversación de pareja, un intercambio familiar, que el que se tiene con amigos, o con colegas de trabajo. En cada conversación nos comportamos de una forma diferente, basada en el contexto, porque entendemos muy bien con quién nos comunicamos.

En internet esto no funciona así. Si bien hay quienes creen que la comunicación es anónima, la verdad es que cuando hacemos algo cotidiano, como enviar un mensaje vía WhatsApp, esta empresa conoce al remitente, destinatario, los teléfonos que intervienen, la hora y la frecuencia en que sucede la comunicación. Una empresa de telecomunicaciones puede acceder a información muy similar cuando utilizamos nuestro teléfono móvil. Quien tenga acceso a esos datos, a su vez, puede inferir mucho sobre nuestros hábitos más íntimos. Del mismo modo: el contenido que publicamos en Facebook puede ser visto por las personas que conocemos y queremos, pero también por personas totalmente desconocidas, a depender de nuestras configuraciones de privacidad y seguridad. El contexto dirá si tal acceso puede mostrarse peligroso o no.

La parte que nos toca

Ya sabemos de la vigilancia de las grandes empresas de tecnología y su relación con agencias de inteligencia. También de los mecanismos como podemos sufrir distintos tipos de intervención en nuestras comunicaciones de manera más o menos legítima.  Sin embargo, si bien hay situaciones en que es difícil escaparse de la intrusión de agentes externos, hay mucho que podemos hacer aún para proteger nuestra privacidad en las redes sociales.

Hay momentos en los que la información que queremos compartir debería llegar a todo el mundo y otros en las que no quisiéramos que personas (organismos, o empresas) específicas se enteren.

No es lo mismo promocionar un bien o servicio en Internet, emitir una opinión política o compartir una foto familiar. La opinión política, por ejemplo, podría poner en riesgo mi trabajo o mi emprendimiento. En algunos países, si se piensa en periodistas de investigación o activistas sociales, la exposición de ciertas informaciones personales de manera pública podría poner en riesgo sus vidas e incluso las vidas de sus familias.

La inteligencia de fuentes abiertas permite averiguar mucho de una persona basada en información pública, principalmente en internet. Es lo que utilizaría un periodista para investigar el perfil de un funcionario corrupto. También es utilizada por la policía para seguir a personas sospechosas. Los gobiernos, muchas veces la utilizan para monitorear redes sociales e identificar adversarios políticos. Delincuentes comunes utilizan esta información para conocer nuestros movimientos y así poder planificar actos criminales.

Algo tan sencillo como realizar publicaciones de Instagram en tiempo real, mostrando las maravillosas vacaciones que estoy teniendo podría alertar a un ladrón que no estoy en mi casa. El riesgo de esta situación se incrementa si además comparto esta información en estados de WhatsApp.

Utilizamos a diario esta plataforma para comunicarnos con gente cercana, pero también para interactuar de manera profesional con otras personas. De esta manera, en nuestros teléfonos, tenemos contactos de restaurantes, plomeros, albañiles, médicos y un largo etcétera de profesionales con los que interactuamos de manera cotidiana.

Muchas de estas personas utilizan estados para comunicar su trabajo y los servicios que ofrecen. Sin embargo, parte importante de ellas comparten su vida privada a través de estos estados. Personalmente me he encontrado en situaciones donde observo almuerzos familiares, bautizos, fiestas infantiles y un largo etcétera de situaciones de la vida privada de otras personas con las que no soy cercano.

Soy una persona con buenas intenciones y no quiero hacerle el mal a nadie, pero esta información es accesible a gente bien y mal intencionada. Como persona que trabaja en seguridad digital reflexiono sobre los riesgos a los que nos exponemos en este tipo de situaciones. ¿Qué es lo que haría un acosador, un ladrón, pedófilo o cualquier otro actor mal intencionado con esta información? Nos hemos preguntado, ¿qué tanto conocemos a las personas que tenemos como contactos en nuestros teléfonos?

(Re)tomando las riendas de nuestra información

Las redes sociales que utilizamos a diario tienen configuraciones de privacidad que nos permiten tener mejor control sobre quién puede, o no ver lo que publicamos. Es cierto también que estas configuraciones suelen ser complicadas y sus valores predefinidos son demasiado abiertos. Esto trae como primera consecuencia que la gente publique sin tener conciencia de quién lo verá o quién lo leerá.

Los estados de WhatsApp son accesibles para todas las personas que yo tengo registradas en mi teléfono y que me tienen registrado a mí, sin embargo se puede hacer una lista corta de quién puede leer lo que publico.  Instagram o X pueden ser configurados para que solamente las personas que nos siguen puedan ver las publicaciones y el seguimiento debe ser aceptado, de manera predeterminada cualquiera puede ver nuestras publicaciones. Incluso si la cuenta es privada, pero nos siguen cientos o miles de personas ya no es tan privada.

La privacidad sí importa

Internet ha traído cambios radicales en nuestras vidas, muchos de los cuales aún estamos intentando entender. Por un lado, podemos llegar con nuestros mensajes a cientos, miles y tal vez millones de personas. Por otro, nuestras vidas privadas pueden ser expuestas a audiencias indefinidas y personas mal intencionadas que podrían hoy o en el futuro usar esta información en nuestra contra.

Es importante pensar antes de publicar y utilizar Internet de una manera en la que podamos buscar nuestro beneficio. Si queremos compartir temas familiares mejor hacerlo en grupos pequeños donde conozcamos a las personas. Si queremos vender, informar, expresar nuestras ideas, pensemos cuáles son los mejores espacios de difusión.

Delimitar nuestros espacios de exposición nos protege, nos requiere reflexionar sobre los contenidos personales que compartimos diariamente. No todo está en nuestras manos, es verdad, pero un análisis acerca de cómo usamos nuestras redes está a nuestro alcance y puede ayudarnos a la hora de cuidar nuestra privacidad y nuestra seguridad en línea y fuera de ésta. 

La cara menos visible de la batalla por derechos y soberanía digital

This text is available in English here

La 13ª Conferencia Ministerial de la OMC, celebrada en Abu Dabi hace pocas semanas, concentró una serie de discusiones clave sobre el futuro de la gobernanza digital. Los debates ocurrieron lejos del ojo público y con la sociedad civil reportando patentes vulneraciones a sus derechos durante las negociaciones. En la ocasión, se adoptaron nuevos compromisos por limitar la acción de los gobiernos en materia de regulación de tecnologías, contrariando la presión por revisar medidas que ponen en jaque la soberanía digital de los países, especialmente del Sur Global.

Un pacto de desigualdad

Mientras agencias y organizaciones internacionales discuten mecanismos para construir un futuro digital basado en derechos, algunos Estados –a menudo aliados a intereses corporativos de su industria local– utilizan la agenda de comercio internacional para limitar el alcance y las posibilidades regulatorias de otros países. Uno de los ejemplos más conocidos de este tipo de estrategia es el de la moratoria sobre derechos de aduana.

Adoptada por la OMC en 1998, la medida prohíbe que los gobiernos apliquen impuestos aduaneros a “transmisiones electrónicas”. Si bien no hay una definición de “transmisiones electrónicas”, la moratoria ha implicado en la imposibilidad de tasación del comercio electrónico transnacional de servicios y productos, lo que incluye la compra de libros, películas, etcétera.

A la vez que –en más de dos décadas desde su adopción– el volumen y valor de tales transacciones escalaron a niveles estratosféricos, la medida se tornó una limitante a la posibilidad de distribución equitativa de los beneficios de la economía digital. Según documento presentado en 2021 por los gobiernos de India y Sudáfrica, “reconsiderar la moratoria es un factor crítico para que los países en desarrollo puedan preservar un espacio para regular la importación y generar valor a partir de un instrumento simple como los impuestos aduaneros y alcanzar la industrialización digital”.

En palabras del think tank South Centre, organización de investigación en políticas públicas que reúne diversos países del Sur Global: “sin claridad sobre la definición de las transmisiones electrónicas (TE) y, por tanto, sobre el alcance de la moratoria, la continuación de la moratoria de la OMC sobre los derechos de aduana sobre las TE puede dar lugar a importantes pérdidas de ingresos arancelarios para los países en desarrollo y menos desarrollados en el futuro”.

Las expectativas por no renovación de la moratoria en la 13ª Conferencia Ministerial era altas desde que Estados Unidos revisó algunas de sus posiciones en materia de comercio electrónico. Aún así, la medida fue renovada hasta la próxima Conferencia Ministerial de OMC, o el 31 de marzo de 2024, lo que ocurra antes, dice la decisión final sobre el tema.

Mucho más allá del comercio

La moratoria para transmisiones electrónicas es solo un ejemplo de los impactos que tratados de comercio pueden tener en la autonomía de los Estados en materia de políticas de tecnologías y sus consecuencias. Sin embargo, está lejos de ser la única materia de preocupación relacionada a derechos digitales.

Otro punto de atención son las discusiones alrededor de Iniciativa Conjunta sobre comercio electrónico (JSI, por su sigla en inglés). La declaración, impulsada inicialmente por el gobierno de Estados Unidos, viene debatiéndose desde 2017 y tiene como objetivo generar una regulación más amplia sobre el comercio electrónico. La novedad es que el JSI busca tratar temas que van mucho más allá del comercio, como la transferencia internacional de datos, la localización de datos, el acceso a códigos fuente, la neutralidad de la red, entre otros.

Otro problema con el mecanismo de “iniciativas conjuntas” es que se trata de negociaciones iniciadas por un grupo de países, abierta a participación de todos, pero sin necesidad de seguir los protocolos de la OMC sobre decisiones basadas en consenso. Por ese motivo, países como India, Namibia y Sudáfrica han cuestionado su legalidad.

La decisión de Estados Unidos, en octubre de 2023, de cambiar algunas de sus posiciones en la OMC se refería precisamente a la retirada del apoyo al texto en discusión. En la ocasión el gobierno estadunidense manifestó que se encuentra en una fase de revisión a su posición sobre el tema, con el objetivo de tener más “espacio regulatorio”.En otras palabras, esperan poder regular internamente cuestiones que antes se discutían en el ámbito de las políticas exteriores y los acuerdos comerciales, a menudo con Estados Unidos empujando acuerdos globales favorables a su industria.

La decisión de Estados Unidos fue celebrada por miembros de la sociedad civil, que hace años reivindican la necesidad de discutir de manera transparente cuáles serán los impactos negativos de este texto en los países en desarrollo. Como apunta una carta firmada por más de 60 organizaciones, el gobierno estadounidense “se ha dado cuenta ahora de que estas disposiciones cierran el espacio político para una regulación esencial».

Según los facilitadores Australia, Japón y Singapur, hubo avances significativos en el JSI durante la última Conferencia Ministerial y un «acuerdo es esperado” para mediados de 2024.

¿En beneficio de quiénes?

La OMC fue fundada en 1995 y su declarado objetivo principal es “ayudar a sus Miembros a utilizar el comercio como medio para elevar los niveles de vida, crear empleos y mejorar las vidas de las personas”. Pero las discusiones sobre comercio no se toman solamente en el ámbito de la OMC. Al contrario, un sinnúmero de acuerdos regionales o bilaterales sobre comercio internacional replican y profundizan los desafíos mencionados, avanzando sobre temas cruciales en la agenda de derechos digitales.

A pesar del “slogan” de promover “la apertura del comercio en beneficio de todos”, más de dos décadas de debates sobre comercio electrónico reflejan una política que, en la práctica, prioriza el beneficio de pocos. Más bien, el beneficio de los de siempre. La estrategia de mantener dispersión de acuerdos mediante negociaciones en la OMC, foros regionales o negociaciones internacionales hace muy difícil avanzar en una agenda que resista esas barreras. En un contexto en que muchos países de América Latina buscan avanzar una agenda de soberanía digital y regular las empresas de tecnologías y la inteligencia artificial, el primer paso es poner fin a las imposiciones de los tratados de comercio.

El segundo paso, como ya apuntó el Secretario General de la ONU, es encontrar maneras de aprovechar las tecnologías digitales para el beneficio de todes. Aún en sus palabras, necesitamos impulsar “arreglos de gobernanza que impidan su mal uso” y “moldear la innovación para que refleje valores universales humanos y proteja el planeta”. A través de la cooperación internacional que va más allá del comercio, como por medio del Pacto Digital Global y otros procesos, tenemos una oportunidad única –y quizás la última– de avanzar en esa visión en los distintos frentes de debates políticas globales en curso. Para eso, es fundamental que los gobiernos latinoamericanos no solo se comprometan con tal agenda, pero aboguen, ellos mismos, por una mayor transparencia y apertura en las negociaciones de comercio, aunque empezando por discusiones a nivel nacional.

Violencia digital y desigualdad de género: un círculo vicioso

This text is available in English here

Las dinámicas de poder históricamente desequilibradas, unidas a la discriminación sistémica por razón de género, han generado cada vez más atención a nivel global.  Sin embargo, a pesar de que la igualdad de género está reconocida en muchos instrumentos internacionales y regionales de derechos humanos, la violencia de género sigue siendo uno de los problemas estructurales más persistentes que afecta a todas las culturas y países.

En respuesta a la creciente preocupación por el aumento de la violencia de género facilitada por la tecnología (TFGBV) y su impacto de largo alcance en los individuos y la sociedad, se están haciendo esfuerzos a nivel mundial, regional y nacional para establecer normas y políticas para abordar esta cuestión. Mientras tales esfuerzos son, en muchos casos, aun insuficientes, investigaciones recientes revelan importantes deficiencias en los sistemas jurídicos locales para ofrecer una protección adecuada a las mujeres y las personas LGBTQIA+.

Entre los principales desafíos, se encuentran la falta de consideración de este tipo de violencia como una violación de los derechos humanos por razón de género, la prevalencia del uso del sistema de justicia penal para abordarla (y su interpretación abusiva), la falta de equilibrio de los derechos, las barreras experimentadas por las víctimas en el sistema judicial y la impunidad. La legislación, en muchos casos, no sólo ha sido ineficaz a la hora de proteger la expresión de las mujeres y las personas LGBTQIA+, sino que además las pone en peligro.

Nuevas formas de ejercer violencia de género y sus impactos

La violencia de género digital es una problemática que se presenta a nivel global, vulnerando los derechos humanos de las personas afectadas y en la sociedad de manera general. Tiene impactos diferenciados en grupos afectados por múltiples formas de opresión como la raza, etnia, identidad de género, clase social, estatus migratorio etc, y está profundamente arraigada en sistemas y lógicas patriarcales. Su manifestación no es un fenómeno aislado sino un continuo de la violencia de género estructural al ser tanto un reflejo como una consecuencia de sistemas sociales y estatales basados en discriminación de género.

El concepto de TFGBV va más allá de la idea de violencia en línea,  en tanto se manifesta no sólo en espacios digitales, sino también a través de diferentes tecnologías. Esto incluye teléfonos, dispositivos de localización GPS, drones, dispositivos de grabación, entre muchos otros. Puede, por lo tanto, afectar a personas que están conectadas a internet, pero también las que lo están. Eso significa que para algunas personas, la experiencia de violencia facilitada por tecnologías puede incluso preceder su posibilidad de acceder y beneficiarse de ellas, especialmente en contextos de exclusión.

Como señaló Dubravka Šimonović, ex Relatora Especial de la ONU sobre la violencia contra la mujer, sus causas y consecuencias, estas formas modernas de violencia deben entenderse dentro del ámbito más amplio de la violencia de género. Esta idea de un continuo pone de relieve cómo la TFGBV no es un fenómeno nuevo y aislado. Además, implica contemplar que así como la violencia que existe fuera de línea se traslada a los espacios en línea donde se reproduce, amplifica y reinventa en numerosas formas, las prácticas de violencia que ocurren en línea tienen implicaciones más allá del entorno digital, planteando graves amenazas a la seguridad y la integridad física de las mujeres y las personas LGBTQIA+. La violencia digital genera daños psicológicos, afecta a las relaciones sociales, fomenta la violencia sexual y física e incluso puede conducir al feminicidio. A su vez es considerada una forma de censura al generar un efecto paralizante (o chilling effect) que impacta tanto en la esfera individual como social, provocando efectos negativos para el debate público, esencial en las sociedades democráticas.

El silenciamiento producido por la TFGBV  no sólo implica que el público pierde voces y puntos de vista relevantes y diversos -la libertad de los medios de comunicación se ve comprometida, los contenidos relacionados con la equidad y los derechos humanos se reducen-, atacando el pluralismo como elemento esencial de la libertad de expresión y la democracia; sino que refuerza los roles, normas y estructuras patriarcales de género, conduce a un aumento de la brecha de género y consiste en una importante barrera para la igualdad de género y el cumplimiento de los Objetivos de Desarrollo Sostenible.

El combate a la violencia desde una perspectiva de derechos humanos

Combatir la violencia de género digital no es lo mismo que combatir a las tecnologías. Políticas públicas desequilibradas en este sentido, pueden tener graves consecuencias en la garantía de los derechos de mujeres y personas LGBTQIA+ y la lucha por la equidad de género.  Las tecnologías digitales han contribuido a contrarrestar la exclusión histórica de mujeres y personas LGBTQIA+ dentro del espacio público. Han sido ampliamente utilizadas por mujeres y activistas por los derechos LGBTQIA+ para incidir en el debate público y visibilizar demandas sociales.  Los resultados han sido significativos en el reconocimiento de derechos y el desarrollo de políticas públicas.

La obligación de los Estados de garantizar la protección de los derechos en línea como fuera de línea implica entonces un enfoque equilibrado, un elemento fundamental para el Estado de Derecho. La incorporación de criterios de derechos humanos como la legalidad, la necesidad y la proporcionalidad al desarrollar políticas para combatir la TFGBV es crucial para delinear los límites de este equilibrio entre derechos igualmente fundamentales a la libertad de expresión, privacidad y a vivir una vida libre de violencia y discriminación.

Más derechos para superar cualquier forma de violencia de género

Reconocer a la TFGBV como una manifestación de problemas estructurales subyacentes implica que los marcos jurídicos que abordan esta cuestión deben formar parte de una estrategia multifacética más amplia que incluya medidas no jurídicas destinadas a eliminar las barreras sistémicas y estructurales a la igualdad de género.

La TFGBV debe reconocerse como una violación de los derechos humanos enraizada en el género, que requiere una protección integral de todos los derechos dentro de un marco legal. No hacerlo podría suponer un riesgo significativo de socavar el potencial de expresión libre y segura de los mismos grupos que la legislación pretende proteger. Las iniciativas legislativas en materia de violencia sexual y por motivos de género deben integrarse en los marcos y las políticas establecidos sobre la violencia de género. Esto garantiza la coherencia y la sinergia a la hora de abordar las diversas formas de violencia de género.

Finalmente, la TFGBV debe dar prioridad a las necesidades y perspectivas específicas de las mujeres y las personas LGTBIQA+, evitando enfoques que pueden reproducir dinámicas de poder desiguales. Esto exige una perspectiva interseccional, centrada en las víctimas y que ofrezca medidas y enfoques variados. La creación de mecanismos participativos significativos a lo largo de todo el proceso de elaboración de políticas es fundamental.

En el día que marca la lucha histórica de las mujeres por justicia de género, resaltamos que la tecnología y los espacios digitales son claves para la defensa y resistencia de todas alrededor del mundo.  A la violencia no se la combate con censura, se la combate con derechos

(*) Marina Meira es abogada y colabora con Derechos Digitales en la construcción de estándares para el combate a la violencia de género facilitada por la tecnología (TFGBV).

Cuando algoritmo rima con racismo

El racismo algorítmico es un término que se ha vuelto cada vez más relevante en la era digital. Se refiere a la forma en que los algoritmos y sistemas de inteligencia artificial (IA) pueden perpetuar o incluso exacerbar sesgos y discriminación racial. Aunque la tecnología se presenta a menudo como objetiva y neutral, la realidad es que puede reflejar y amplificar las desigualdades sociales existentes.

Un ejemplo cotidiano de esto se encuentra en las búsquedas en internet. Al buscar términos como «mujer bonita» u «hombre exitoso», los resultados tienden a mostrar imágenes de personas blancas, excluyendo la diversidad racial. Este sesgo se extiende a otras áreas, desde la selección de empleados hasta el reconocimiento facial. En este último caso, los algoritmos muestran preferencias hacia ciertos grupos raciales y discriminan a otros.

El problema radica en cómo se entrenan los algoritmos de IA. Estos sistemas aprenden a partir de grandes conjuntos de datos que, si no son lo suficientemente diversos o están sesgados, pueden llevar a conclusiones erróneas. Otro ejemplo a mano está en los algoritmos de contratación de personal. Estos tradicionalmente son entrenados con datos históricos que favorecen a los candidatos blancos, perpetuando entonces dicha tendencia.

Estereotipos racistas

Como se indicó al comienzo, un experimento revelador consiste en solicitar a un sistema de IA texto-a-imagen que genere ilustraciones de «hombres exitosos» o «mujeres exitosas». Los resultados suelen ser de personas blancas en contextos profesionales. En cambio, al pedir imágenes de “hombres pobres en Latinoamérica”, el sistema asume que son indígenas. Del mismo modo, al solicitar la creación de una imagen de «hombres negros trabajando, su representación visual es la de obreros”, mientras que para «hombres blancos trabajando» los muestra en una oficina y con trajes.

Las imágenes a continuación fueron creadas con DALL-E, incorporado en la versión 4.0 del sistema de IA ChatGPT. Haz clic en cada una de ellas para verlas en alta resolución.

“Hombre exitoso”: lo crea como un hombre alto, delgado, blanco y con barba.
“Mujer bonita”: tiene cabello claro, es blanca y con ojos claros.
“Hombres pobres de Ecuador”: asume que son indígenas.
Sucede lo mismo cuando solicitamos la una imagen de “mujeres pobres de Latinoamérica”.
“Mujeres de Latinoamérica trabajando”: son representadas, del mismo modo: como indígenas y en actividades relacionadas al campo.
“Hombres negros trabajando”: los crea como obreros…
 
pero si le pedimos que cree una imagen de “hombres blancos trabajando” los representa en una oficina.

Lo que subyace al racismo algorítmico

Entre las causas apuntadas para tales situaciones, están:

  • Datos de entrenamiento sesgados: los algoritmos de IA aprenden a partir de datos históricos. Si estos datos reflejan desigualdades raciales o no representan adecuadamente la diversidad de la población, el algoritmo puede aprender y reproducir estos sesgos. Un estudio de 2019 mostró que los sistemas de reconocimiento facial tenían tasas de error más altas para personas de piel oscura, especialmente mujeres negras, debido a la falta de representación en los conjuntos de datos de entrenamiento.
  • Diseño algorítmico: la inteligencia artificial no es magia. Quienes diseñan y desarrollan los algoritmos y sistemas de IA pueden, con o sin intencionalidad, incorporar sus propios prejuicios en la creación de algoritmos. Las decisiones sobre cuáles variables incluir, cómo ponderarlas y de qué manera interpretarlas pueden influir en los resultados finales.
  • Interpretación y uso de resultados: incluso si un algoritmo es técnicamente imparcial, la forma en que se utilizan sus resultados puede conducir a prácticas discriminatorias.

La investigación de Tarcízio Silva aborda el impacto del racismo algorítmico en la visión computacional, destacando cómo los sistemas de inteligencia artificial (IA) y aprendizaje automático pueden perpetuar y amplificar prejuicios raciales a través de sus mecanismos de reconocimiento y clasificación de imágenes. Silva examina la construcción y expresión del racismo en la infraestructura online y las interfaces digitales, argumentando que tanto los algoritmos (el «back end») como las representaciones visuales y textuales (el «front end») son materializan estereotipos invisibles que afectan a grupos racializados.

A través de un análisis fundamentado en la Teoría Racial Crítica y estudios sobre la blanquitud, Silva propone un marco para comprender y desmantelar la opresión algorítmica, subrayando la necesidad de abrir las «cajas negras» de la tecnología para revelar y confrontar los sesgos raciales inherentes en los sistemas de visión computacional. Su trabajo resalta la importancia de abordar tanto los aspectos técnicos como los culturales y sociales en la lucha contra el racismo algorítmico, instando a una mayor diversidad e inclusión en los campos de la ciencia y la tecnología. 

El racismo algorítmico es un desafío significativo en la era de la IA. Es crucial que las personas en roles de desarrollo, investigación e, incluso, las usuarias sean conscientes de estos sesgos y trabajen activamente para crear algoritmos más inclusivos y equitativos. Esto implica diversificar los conjuntos de datos, y también cuestionar y revisar constantemente los supuestos subyacentes en el desarrollo de tecnologías. El fiasco de Google Gemini, por citar un ejemplo reciente, nos enseña que no se trata de corregir el racismo con más racismo, sino de desarrollar colectivamente algoritmos igualitarios.

La lucha contra el racismo algorítmico y la creación de tecnologías más equitativas se basa en un principio clave: aprender y enseñar cómo funcionan realmente los sistemas tecnológicos por dentro. Comprender el funcionamiento interno de los algoritmos y los sistemas de IA es esencial para identificar y corregir los sesgos y prejuicios que estos pueden perpetuar. Esto requiere un enfoque educativo y formativo que no solo se centre en las habilidades técnicas —necesarias para desarrollar y programar software— sino también en la sensibilización respecto de los impactos sociales y culturales de la tecnología. En este sentido, la educación en tecnología debe incluir un currículo que aborde la ética en IA, la justicia social y los estudios sobre el racismo y la discriminación, proporcionando a los estudiantes las herramientas para construir sistemas más justos y representativos.

Desde Latinoamérica y entre los grupos minoritarios, la creación de capacidades en tecnología es especialmente crucial para desafiar y cambiar las narrativas dominantes en el campo de la IA. Al empoderar a estos grupos para que participen activamente en el desarrollo tecnológico, se abre la puerta a una diversidad de perspectivas y experiencias que pueden informar y enriquecer el proceso de diseño de algoritmos.

Fomentar la inclusión de voces marginadas en la ciencia y la tecnología contribuye a reducir los estereotipos raciales y sesgos en los sistemas de IA, y promueve la creación de soluciones innovadoras que atienden a las necesidades y desafíos de todas las personas. Por último, construir una comunidad tecnológica inclusiva y diversa, en nuestra región y más allá, es un paso fundamental hacia la eliminación de estereotipos raciales y la creación de algoritmos que sirvan equitativamente a toda la sociedad.

Solo así podremos asegurar que la IA sea un aporte al desarrollo.

Cibercrimen y castigo

En cierto clásico de la literatura universal de la segunda mitad del siglo diecinueve, deducible a partir del título de este texto, se nos presentan reiteradamente diálogos entre su protagonista, Raskólnikov, y un inspector de policía que dinamizan la historia, a la vez que permiten darle un vistazo a la realidad cultural, histórica e institucional del entonces Imperio Ruso. En uno de esos intercambios, el segundo le espeta al primero: “(…) y es que el caso general que responde a todas las formas y fórmulas jurídicas; el caso típico para el cual se han concebido y escrito las reglas, no existe, por la sencilla razón de que cada causa, cada crimen, apenas realizado, se convierte en un caso particular, ¡y cuán especial a veces!: un caso distinto a todos los otros conocidos y que, al parecer, no tiene ningún precedente”.

Esta deliberada ambigüedad con la que describo la novela tiene dos funciones: evitar spoilers e ilustrar que las definiciones en torno al crimen dependen, en gran medida, de los consensos al interior de cada grupo humano al respecto, sea este un clan, una tribu, un estado, un imperio, e incluso más allá: de acuerdo con el inspector, Porfiri Petróvich, depende de cada caso. Así, no es extraño que los procesos y mecanismos para legislar al respecto se extiendan por meses o años, sea a nivel local, regional o global.

La situación actual del Comité Ad Hoc de la Organización de las Naciones Unidas (ONU) encargado de elaborar una Convención Internacional para la Lucha contra la Ciberdelincuencia así lo evidencia, como hemos señalado desde el inicio de este Comité. La sesión supuestamente de cierre del Comité, finalizada el 9 de febrero, quedó en suspenso dada la falta de acuerdos en asuntos clave: el alcance de la convención, salvaguardas y derechos humanos, además de determinados crímenes específicos. La presidenta de la mesa determinó continuar la discusión en una sesión futura, de diez días de duración, posiblemente en julio de este año, lo que todavía debe ser aprobado y confirmado por la Asamblea General de la ONU.

El punto de partida de este curso fue una carta enviada, justamente, por la Federación Rusa al organismo internacional en 2017, que plantea la preocupación por “la gravedad de los problemas y amenazas que plantean los delitos relacionados con las tecnologías de la información y las comunicaciones (TIC)” y ofrece un texto preliminar de una convención contra la ciberdelincuencia, cuyo énfasis está en la amplia criminalización y promoción de la cooperación internacional para prevenir y combatir tales delitos.

Aunque no es la aproximación clásica para generar un instrumento internacional en instancias de las Naciones Unidas, en general dicha carta parece emanar de un genuino interés por asumir colectivamente los retos que comporta el desarrollo tecnológico. No obstante, la redacción del segundo de los tres objetivos ahí expresados, “impedir los actos contra la confidencialidad, la integridad y la accesibilidad de las TIC, y prevenir el uso indebido de las TIC” tiene la línea que más controversia ha causado en estos siete años: “(…) tipificando como delitos los actos descritos en la presente Convención” y que despierta sospechas sobre las reales intenciones de la Federación Rusa al presentar, más tarde, un borrador del tratado listo en la primera sesión, previo a cualquier discusión plenaria sobre la materia, a la par que está documentado el uso que se le da en ese Estado a tipos penales sobre cibercrimen para criminalizar de manera arbitraria a las voces críticas del actual Gobierno.

Luego, en noviembre de 2019, una resolución, patrocinada por Rusia –junto con Bielorrusia, Camboya, China, Irán, Myanmar, Nicaragua, Siria y Venezuela– para establecer un comité internacional para combatir el cibercrimen pasa en la Asamblea General de la ONU. Estados Unidos, la Unión Europea y otras naciones se opusieron a la resolución, junto con organizaciones de derechos humanos, incluidas la Asociación para el Progreso de las Comunicaciones y la EFF, las que instaron a la Asamblea General a votar en contra de la resolución, citando preocupaciones de que “podría socavar el uso de Internet para ejercer los derechos humanos y facilitar el desarrollo social y económico”. Un mes más tarde, sin embargo, la Asamblea General resuelve seguir adelante con esta iniciativa.

Un ajedrez imposible

Si las dinámicas de la política doméstica a veces pueden ser agotadoras e incomprensibles, cuando se trata de geopolítica, esto se enreda todavía más. Lograr que los 193 países que ocupan un asiento en la Asamblea General de las Naciones Unidas lleguen a consensos sobre las materias más diversas se vuelve una odisea. Hay diferencias entre países que son simplemente irreconciliables y el escenario provisto por la discusión hasta ahora de este tratado así lo demuestra.

El objetivo inicial de tipificación de delitos facilitados por TIC ha sido impugnado una y otra vez en cuanto a que no hay manera de realizar un catálogo de estos que deje contento a todo el mundo. Los Estados Miembros de este órgano internacional, al decidir sentarse en esta mesa y participar de las discusiones globales, lo hacen en conformidad con lo señalado en la Declaración Universal de los Derechos Humanos, documento rector de la Asamblea de la ONU, además de otros instrumentos similares. Sin embargo, en medio de las discusiones en esta sesión delegaciones de China, Cuba y otros Estados estimaron que el “lenguaje de derechos humanos” presente en el actual borrador es un exceso, siendo este un documento concebido nada más que como una guía en la aplicación de justicia.

Un ejemplo tiene relación con los artículos sobre explotación de menores en contextos digitales. El interés superior de las niñas, niños y adolescentes (NNA), además de la autonomía progresiva de las NNA, es una preocupación de todos los Estados, sin duda, pero las aproximaciones al resguardo de este son radicalmente opuestas entre el bloque occidental y el resto del mundo. Mientras que la UNICEF y la Oficina del Alto Comisionado de Derechos Humanos enfatizan que los adolescentes que están próximos en edad, madurez y desarrollo no deben ser criminalizados por una actividad sexual consentida y no explotadora, siempre que no exista ningún elemento de coacción, abuso de confianza o dependencia entre los adolescentes, muchas delegaciones como Egipto, Oman, Qatar, entre otras, expresaron que esta descriminalización no debería estar en la Convención.

Supongamos que un adolescente envía una nude o imagen íntima de manera voluntaria mediante una aplicación de mensajería instantánea. Según su nacionalidad, este acto puede constituir o una manifestación del libre albedrío y de la autonomía progresiva que todas las personas adquirimos conforme crecemos, o podría constituir el delito de producción de material pornográfico mediado por las tecnologías, habilitando su persecución y castigo con la ayuda de la cooperación internacional que fomenta el actual borrador del tratado.

Esto no tiene sentido para quienes habitamos el lado occidental del mapa mundial, pero ocurrió. Human Rights Watch documentó, hace un año, los casos de Yamen y Amar, dos jóvenes LGBTQAI+ de Jordania que fueron criminalizadas con base en su actividad en WhatsApp y aplicaciones de citas como Grindr. En ese país, el código penal considera a las relaciones del mismo sexo como ofensas a la moral y refleja el dilema que representa legislar con una perspectiva de derechos humanos a escala global. Los artículos 13 y 15 del borrador más reciente consolidan estas prácticas, al dejar al arbitrio de cada Estado la tipificación de delitos en este tema.

Alianzas inesperadas

No todo es tan oscuro. Esta última etapa demostró que la participación multisectorial logra resultados y, en nuestra región, podemos atribuirlos sin empacho al trabajo de incidencia que hemos realizado desde el consorcio AlSur junto con la Red en Defensa de los Derechos Digitales (R3D), el Instituto Panamericano de Derecho y Tecnologías (IPANDETEC) e Hiperderecho. Celebramos, igualmente, la articulación que se observa en el Sur Global. Una carta de la International Press Foundation recoge preocupaciones similares a las nuestras, emanadas desde la sociedad civil del continente africano. La Comisión Internacional de Juristas también puso el acento, en una declaración publicada en enero de este año, en la incorporación de principios de no discriminación, legalidad, interés legítimo, y necesidad y proporcionalidad en el texto discutido.

La mayoría de los países de América Latina se mostraron a favor de incorporar garantías de protección de derechos humanos en el borrador, y esto es el producto tanto de la incidencia presencial en las diferentes reuniones del comité como de la producción de investigaciones y relatorías que dan cuenta de la importancia de tales salvaguardas. Asimismo, la cooperación con otras partes interesadas también ha sido clave. El Manifiesto Multisectorial de 2021 fue firmado por organizaciones de la sociedad civil y representantes de la industria tecnológica, toda vez que hay preocupaciones compartidas respecto del alcance del tratado y sus posibles consecuencias en la fragmentación del ciberespacio.

Ahora durante la sesión de clausura, una carta abierta de la sociedad civil y organizaciones de la industria tecnológica puso el acento en que el primer propósito de un tratado de estas características es proteger a las víctimas de cibercrímenes, ofrecerles reparación efectiva y garantías en el resguardo de sus derechos humanos. Además, señaló que “Un nuevo tratado contra el cibercrimen no debe reducir las obligaciones existentes de los Estados en virtud del derecho internacional, especialmente el derecho internacional de los derechos humanos”. Por el contrario: lo que esperamos desde la sociedad civil es que dichas obligaciones se incrementen, en particular en lo que refiere a las consideraciones sobre género. Una victoria que podemos reconocer, en esta fase, es la incorporación de una frase sobre este tema en el preámbulo, fruto del esfuerzo sostenido y conjunto entre múltiples partes interesadas, aun cuando apuntamos a su incorporación transversal en todo el tratado.

Compañías como Microsoft, desde el primer momento, han expresado que el tratado no debe entenderse como un conjunto de tipos penales. En cambio, ha de fomentar el fortalecimiento de capacidades a escala global para combatir los delitos en entornos digitales, asegurar la consulta con expertas en la materia y poner especial cuidado en aspectos como el flujo transfronterizo de datos personales.

¿Qué hacer?

Frente al enorme poder que detentan los Estados Miembros en instancias multilaterales, cuyos consensos tienen impacto directo en las vidas de todas las personas, alianzas como las mencionadas son imperativas. Pese a que la suspensión de la sesión deja el tema en un limbo de incertidumbre, puede no ser solamente una mala noticia, por ejemplo, por los costos con este proceso. Pero cuando no hay poder suficiente para detener un proceso, demorar su cierre es una estrategia común desde las partes con menor ventaja.

Todavía queda tiempo para visibilizar los graves conflictos que podría acarrear la aprobación de este tratado y en esto la difusión y socialización de sus consecuencias cobra vital relevancia. Hemos sido testigos de cómo algunos Estados han modificado sus posiciones a partir de las conversaciones de pasillo en la ONU y la multitud de voces que han alertado sobre los aspectos más controversiales del tratado.

Desde el Sur Global, nuestra posición es clara: haremos todo lo que esté a nuestro alcance para impedir que un documento altamente punitivo, tremendamente amplio, sin limitar atribuciones estatales de vigilancia, y sin garantías efectivas de derechos humanos, tenga luz verde. En Derechos Digitales no le restamos importancia a la necesidad de regular el cibercrimen a escala internacional, pues va en la dirección correcta en el resguardo de los derechos humanos de todas las personas. Hemos señalado nuestros reparos y ponemos a disposición nuestras capacidades para seguir bregando por un documento que garantice mayor seguridad en línea a todas las personas, defendiendo y promoviendo los derechos humanos, con una perspectiva de género efectiva.

Tú también puedes colaborar. Visita el minisitio sobre este tema, comparte en tus redes, habla con tus amigas y revisa cuál es la posición de tu Gobierno al respecto. Petróvich, en otra conversación con Raskólnikov, afirma lo siguiente: “¿Qué importan estas normas, que en más de un caso resultan sencillamente absurdas? A veces, una simple charla amistosa da mejores resultados”.

Aprende Inteligencia artificial con ayuda de la Inteligencia Artificial

Inteligencia Artificial: la promesa de más ideas y menos trabajo. Desde el texto para detallar una idea, hasta los fragmentos de código que componen una gran solución informática, todo se puede consultar con algún modelo de IA. Incluso, se ha pensado como un validador de ideas, por veces como la fuente principal de consulta.

Es verdad que los modelos generativos basados en el procesamiento de miles de datos son capaces de responder a una infinidad de preguntas sin llegar a garantizar la veracidad de sus respuestas, particularmente si se ven enfrentados con interrogantes que demanden análisis.  Esto es debido a que están diseñados para relacionar información según las entradas dadas por quienes lo usan.

En el caso de las ciencias exactas, estos modelos pueden ser un poco más precisos. Eso porque la complejidad de las entradas se reduce a especificar el tipo de operación y los valores con los cuáles trabajar. Por ejemplo, las operaciones aritméticas, cálculos físicos o desarrollo de código, abriendo nuevas posibilidades para la exploración curiosa y experta.

¿Es posible aprender IA con ayuda de la IA? 

Una manera de hacer tal exploración es preguntarse como utilizar la IA para aprender sobre la misma IA. Lo primero a tener en cuenta es la necesidad de escribir prompts o preguntas que contengan la información necesaria con claridad e intentando evitar que el sistema llegue a un exceso de datos.

La información que un modelo devuelve no es más que el contenido resultante de conectar parámetros según la instrucción dada. Por ejemplo, en las próximas dos cadenas se observan énfasis que harán que una IA devuelva resultados diferentes:

  • Describe un cielo estrellado
  • Describe un cielo estrellado como lo haría un poeta

En el segundo caso, se incluye un contexto que guía el estilo de la respuesta que se debe generar.

Sabiendo que la calidad de los resultados depende de la calidad de la pregunta, se puede preguntar al mismo modelo la mejor forma de escribir un prompt.

Así, aplicando la siguiente pregunta en diferentes modelos se pueden obtener recomendaciones: ¿cómo escribir un buen prompt para pedir ayuda a la IA?
Existen diferentes (y válidas) respuestas para esa pregunta:

  • ChatGPT: Necesito ayuda para solucionar un error de sintaxis en mi código Python. Estoy intentando escribir una función que calcule la suma de una lista de números, pero estoy recibiendo un mensaje de error ‘SyntaxError: invalid syntax’. ¿Puedes ayudarme a identificar y corregir el error?
  • Gemini: Genera un código que imprima ‘Hola mundo’. Escribe un resumen de este artículo, Ayúdame a encontrar una receta para un pastel de chocolate.

Teniendo en cuenta estas recomendaciones, se puede pedir a un modelo de IA ayuda para comprender las funciones que componen un fragmento de código, un proyecto open source, un API o el ejemplo publicado en la documentación de algún método de PHP.

Desde niveles macro hasta condiciones de bajo nivel, es posible obtener de los modelos de IA generativa explicaciones, sugerencias de cambios, mejoras, refactorizar y hasta recibir soluciones a distintos problemas.

Pero, ¿puede la IA explicar un modelo de IA?

La explicación dada a un método que forma parte de un modelo de IA contendrá información de tipos de datos que ingresan, tipos de datos de salida y el proceso que hace de los mismos.

Tener un modelo funcional no es lo único que requiere una IA. Eso también depende de los datos que integran su entrenamiento, el valor de estos, diversidad y otros factores que pueden incidir en las respuestas que genere. La calidad del algoritmo y de los datos son los factores determinantes de la calidad de las respuestas.

En la práctica, se propone un ejemplo sobre el modelo de Inteligencia Artificial generativa ChatGPT. Para empezar, se puede preparar el ambiente del chat indicando el tipo de comportamiento esperado, por ejemplo: Usted es un profesional de la informática. Responda sin ambigüedades, esto da un contexto y carácter a la conversación. Siguiendo la propuesta práctica: en el sitio web de ChatGPT se encuentra la documentación técnica útil para su implementación en desarrollos propios. Se puede usar al mismo modelo de lenguaje para comprender estos fragmentos.

Al tomar un ejemplo y pedir que explique su función devolverá una explicación general al respecto.

También, se puede pedir una explicación más detallada si fuese necesario

Explique el siguiente fragmento de código:
import OpenAI from "openai"; const openai = new OpenAI(); async function main() { const completion = await openai.chat.completions.create({ messages: [{"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "Who won the world series in 2020?"}, {"role": "assistant", "content": "The Los Angeles Dodgers won the World Series in 2020."}, {"role": "user", "content": "Where was it played?"}], model: "gpt-3.5-turbo", }); console.log(completion.choices[0]); } main();
¿Podría darme más detalles?

Lo anterior funciona si lo que se busca es entender el funcionamiento de modelos desarrollados permitiendo una comprensión de los métodos disponibles y los datos de entrada para así modificar.

Si lo que se quiere es desarrollar un modelo de IA, lo mejor quizá sea revisar documentación, libros o foros. Otra forma de hacerlo es usando IA. Definiendo el objetivo, el resto puede ser guiado con un modelo generativo. Desde la selección de una base de datos (o la preparación de esta) hasta las funciones y métodos que deberían conformar el desarrollo.

Necesito desarrollar un modelo de Inteligencia Artificial para reconocimiento facial con Python.
Da recomendaciones sobre el tipo de base de datos y librerías que debo utilizar.

.

¿Ahora quién programa?

Con la cantidad de proyectos de código abierto y ejemplos disponibles, los modelos son capaces de proponer soluciones reflejadas en código que se pueden probar en cualquier editor de código o en cuadernos de trabajo como Jupyter . Por ejemplo, al digitar la siguiente instrucción en un modelo de IA, el resultado será un fragmento de código funcional: 

Ayúdame a desarrollar el modelo, desarrolla las primeras funciones para que pueda
probarlas en Jupyter. 

Si el resultado no es claro se puede pedir una explicación detallada que ayude a mejorar la prueba obteniendo información sobre cada función y cada operación a realizar.

Por favor, explícame

Al probar otros ejemplos dentro del mismo chat, también se observa como el modelo se ajusta al tipo de respuesta que se pidió con anterioridad, lo que explica cómo los modelos siguen aprendiendo y usando ese aprendizaje. Así cada vez dará respuestas más efectivas en menos pasos.

Ayúdame a desarrollar un modelo para traducir documentos
-Ahora, código para usar en Jupyter
Vamos a desarrollar un modelo para el reconocimiento de voz
Ayúdame a desarrollar la arquitectura del modelo

Enseñando la IA

Los modelos de Inteligencia Artificial pueden ser comparados con infantes en su etapa de aprendizaje y al igual que ellos requieren que la información y/o datos que alimentan su instrucción sean de calidad, reales y que no incluyan sesgos.

Al usar un modelo de IA generativa proporcionando detalles importantes respecto al tipo de respuesta requeridas se obtendrán resultados más exactos y menos ambiguos.

Y lo más importante: la creatividad y las ideas siguen siendo humanas. Usar IA, lejos de ser una amenaza laboral debería convertirse en una alianza para efectivizar el trabajo, reducir esfuerzo y tiempo. Y poder seguir creando y pensando desde nuestra inteligencia natural.


	

El riesgo constante de ser periodista en México: un caso de filtración de datos personales

A finales de enero de 2024, se dio a conocer que una base de datos personales de más de 300 periodistas estaba circulando en un foro de filtraciones. La base contenía informaciones como la Clave Única de Registro de Población (CURP), el Registro Federal de Contribuyentes (RFC), identificaciones oficiales, dirección, entre otras. Según se pudo comprobar, ésta pertenecía al Sistema de Acreditación de Prensa de Presidencia, utilizada para el registro de periodistas que desean acceder a las conferencias matutinas del presidente Andrés Manuel López Obrador.

La noticia genera alarma dados los altos registros de violencia contra periodistas en México. De acuerdo con el informe semestral de Artículo 19, entre enero y junio de 2023, la organización registró 272 agresiones en contra de periodistas y medios de comunicación, de las cuales poco más de la mitad (140) tuvieron a instituciones del Estado como perpetradoras, lo que siembra una desconfianza hacia el gobierno con énfasis en las fuerzas armadas. Mientras tanto en 2022, se registraron 696 ataques, siendo el año más violento que haya monitoreado la organización desde el 2007.

Asimismo, existe el riesgo de que la información, disponible libremente por el filtrado, sea utilizada para incrementar las amenazas y ataques sufridos por comunicadoras y comunicadores en el país. Esta situación puede exponer a periodistas que ya se encuentran bajo el Mecanismo de Protección para Personas Defensoras de Derechos Humanos y Periodistas, y que han asistido a la conferencia matutina. Es sabido que pese a formar parte de los mecanismos de protección, algunas personas no han encontrado la seguridad necesaria, como el caso de Lourdes Maldonado López, quien – incluso habiendo expresado su miedo ante el presidente en una de sus conferencias – fue asesinada en 2022.

El discurso oficial no pareció compartir las preocupaciones de gran parte de la sociedad con relación a la filtración y la situación de los y las periodistas. En un primer momento, López Obrador se refirió a la filtración como una forma de atacar a su gobierno por parte de sus adversarios, como consecuencia de una “guerra sucia”, desviando a sí mismo el centro de atención y minimizando los riesgos implicados a periodistas y sus familiares.

La explicación sobre los hechos tampoco ha sido consistente en el tiempo. Inicialmente el presidente declaró que se trataba de un hackeo para desprestigiar a su gobierno. Posteriormente, la versión oficial de la base de datos a partir de una cuenta y credenciales de un funcionario que dejó de trabajar en la Coordinación de Estrategia Digital Nacional hace dos años.

En este momento, el Instituto Nacional de Transparencia, Acceso a la Información y Protección de Datos Personales (INAI) declaró que iniciaría una investigación e incentivó a las personas afectadas a presentar las denuncias correspondientes. Fueron 23 periodistas que iniciaron una denuncia penal.

Cuando la irresponsabilidad encuentra la incompetencia

La incapacidad de respuesta y acción del Estado mexicano cuando se trata de las múltiples vulneraciones de derechos humanos sufridas por periodistas no es exclusividad de este caso. La filtración de datos personales de periodistas es un eslabón más en esta cadena.

No es una prioridad y no existe compromiso gubernamental para proteger  periodistas en el país, y este caso sirve para reafirmarlo.  Además, demuestra la poca capacidad del gobierno, especialmente de Presidencia, para implementar medidas de seguridad adecuadas para el manejo de datos personales en su poder, más allá de las obligaciones establecidas por las normativas de protección de datos nacionales. La investigación del INAI en este proceso será crucial para contar con sanciones que impulsen una mejora en la capacitación sobre protección de datos personales. Mientras tanto, la pregunta que queda abierta es la que se refiere a los protocolos de seguridad para inhabilitar cuentas de exfuncionarios públicos.

Esta no es la primera filtración que ha sufrido el Estado mexicano en tiempos recientes. De hecho, fue gracias al hackeo de un grupo autodenominado Guacamaya, en 2022, que se pudo conocer más sobre las prácticas de vigilancia contra civiles – incluso periodistas – implementadas por la Secretaría de la Defensa Nacional (Sedena). El episodio no sólo contribuye a entender la poca diligencia en materia de seguridad digital por parte del gobierno, sino que también evidencia que el Estado también es cómplice en la fragilización de la privacidad y seguridad de periodistas y sus familiares.

Mientras esto sucede, la vida de las comunicadoras y comunicadores está en riesgo todos los días. Esta filtración de información personal pone en una posición aún más vulnerable a periodistas que se encuentran en la base, en especial aquellos y aquellas que previamente han recibido algún tipo de amenaza, lo que les ha llevado a ser parte del Mecanismo de Protección a Periodistas.

Este caso pone sobre la mesa la relevancia de la protección de datos personales de periodistas, pues su difusión puede traer graves consecuencias. Es crucial realizar una investigación exhaustiva sobre lo sucedido y analizar las medidas de gestión de datos personales que están siendo realmente aplicadas por los sujetos obligados, así como los protocolos de seguridad digital existentes. Esto podría tener como consecuencia el impulso y promoción de mejores prácticas en los gobiernos. Existe también, una necesidad imperativa de reparación del daño a periodistas que vieron vulnerados sus derechos, así como la implementación de una estrategia que contribuya a disminuir los riesgos a los que se puedan enfrentar. 

Sin duda, ejercer la labor periodística en México seguirá trayendo riesgos inminentes hasta que exista un interés y una preocupación efectiva por proteger a periodistas, especialmente por parte del gobierno. Es necesario un compromiso por garantizar el ejercicio de derechos humanos como la libertad de expresión y el acceso a la información, ejes centrales del periodismo.