Hasta que la dignidad se haga costumbre para todas las mujeres y en todos los territorios

Nos acercamos al 8M, Día Internacional de la Mujer, cuando conmemoramos la lucha por nuestros derechos desde diversos frentes. Nuestro activismo se ha construido de la mano de las madres buscadoras de personas desaparecidas, de las mujeres trans que pelean por sus derechos, de la lucha de las mujeres indígenas por sus territorios, de la defensa de las mujeres negras por el reconocimiento de sus derechos, de los esfuerzos de organizaciones feministas para promover el aborto legal, entre muchas otras. A lo largo de la historia, estos procesos han logrado ganar garantías para los derechos de las mujeres, pero aún queda mucho por hacer, especialmente en países donde los discursos y las acciones de los gobiernos van en contra de cualquier avance en materia de igualdad de derechos.

Contextos políticos amenazantes, activismos vivos

La justicia en los países latinoamericanos está lejos de ser dignificadora para las mujeres, pues el camino para acceder a ella es más que complejo y la mayoría de las veces nunca llega. Esta histórica falta de justicia se refleja también en el entorno digital, donde la tecnología facilita otras formas de violencia de género. A fines del 2024, México nos recordó la incapacidad de un sistema para comprender de forma integral la violencia de género facilitada por las tecnologías (TFGBV, por sus siglas en inglés), al absolver al estudiante que realizó deepfakes de sus compañeras con inteligencia artificial, caso que comentamos previamente. Esto sucedió incluso teniendo un marco jurídico como la Ley Olimpia, que poco importó cuando el tribunal tomó la decisión.

Situaciones como esta evidencian la fragilidad de los marcos jurídicos en países donde existen normativas específicas, además de generar desesperanza en otros países donde no se cuenta con legislaciones para atender la TFGBV. El panorama se agrava allí donde los gobiernos se han tornado más agresivos ante las narrativas de igualdad y perspectiva de género. Sin embargo, cuando los entornos políticos se han vuelto tan amenazantes, violentos y opacos, la respuesta social ha sido el activismo, la protesta y la generación de información. Existen varios ejemplos de ello en América Latina, pero decidimos abordar tres casos principales en donde los conflictos internos en los países han tenido impactos graves en el ejercicio de los derechos de las mujeres: Venezuela, El Salvador y Nicaragua.

Ciudadanas, periodistas, activistas, personas de la comunidad LGBTIQA+, entre muchas otras mujeres, son afectadas por las acciones de quienes deberían trabajar por garantizar su bienestar: sus  propios gobiernos. La persecución y la criminalización del disenso se han convertido en herramientas de opresión estatal, con un impacto diferenciado en mujeres atravesadas por distintas interseccionalidades.

En el marco de las elecciones presidenciales de Venezuela en 2024, la ciudadanía vivió graves represiones por parte del Estado, que encarceló a aproximadamente 2000 personas por protestar, algunas de ellas por criticar al gobierno a través de redes sociales, por difundir fotografías sobre las manifestaciones en plataformas digitales o por compartir información a través de servicios de mensajería. La activista venezolana Martha Tineo reconoció que si bien la persecución política no está direccionada en contra de las mujeres, sí existen efectos diferenciados para ellas. Las mujeres encarceladas viven en hacinamiento y en centros de detención no adecuados a sus necesidades, incluso sin recursos básicos como el agua, lo que ha conllevado a una situación precaria de salud e higiene menstrual. Asimismo, la defensora de derechos humanos declaró que hay efectos psicológicos en las mujeres por la separación de sus hijos e hijas, y que de igual manera reciben amenazas de persecución a otros integrantes de sus familias.

Mientras tanto, en El Salvador las mujeres han tenido protagonismo en la defensa de derechos, lo que las ha puesto en riesgo de persecución, acoso y estigmatización. Encontramos así que se han sumado cada vez más mujeres activistas que buscan hacer justicia por sus familiares detenidos de forma arbitraria en el régimen de excepción, que además de asumir riesgos para ellas, implica una carga de trabajo adicional a las ya establecidas socialmente por los roles de género. Recordemos que entre marzo de 2022 y septiembre de 2023, organizaciones locales contabilizaron 5775 víctimas de violaciones de derechos humanos (mayormente detenciones arbitrarias), de las cuales 908 eran mujeres, entre ellas 21 mujeres trans, 19 lesbianas y 43 bisexuales. Con ello, las cárceles también se vuelven un entorno con condiciones sanitarias muy precarias, especialmente para las mujeres detenidas en estado de gestación, quienes no cuentan con atención ginecológica durante esta etapa y tampoco en el postparto, viéndose también gravemente afectadas las infancias.

Por otro lado, en el país centroamericano se registran en promedio 40 insultos diarios en contra de periodistas solo a través de la plataforma X. Aquellos ataques dirigidos a mujeres tienen la particularidad de contar con una carga de violencia sexual y lesbofóbica, reforzando patrones de discriminación y exclusión. Sumado a la preocupante situación de derechos humanos en El Salvador, esta realidad ha llevado a las mujeres periodistas, defensoras, e incluso a servidoras públicas (con una postura crítica del gobierno actual) al exilio y la autocensura.

Por su parte, organizaciones locales han constatado que en Nicaragua la violencia digital contra las mujeres defensoras de derechos humanos ha escalado de manera alarmante desde el 2018, año en que se desataron importantes protestas públicas en el país. El uso de la tecnología como herramienta de represión ha facilitado nuevas formas de violencia, exacerbando los riesgos para quienes denuncian violaciones de derechos humanos. Las defensoras que enfrentan estos ataques reciben constantes amenazas, insultos, y sus agresores difunden información falsa sobre ellas para descalificarlas. De acuerdo con las mujeres entrevistadas en un estudio de FUNIDES, el 32.5% de las agresiones han trascendido al espacio físico, poniendo en evidencia el vínculo directo entre la violencia digital y el hostigamiento fuera de los espacios virtuales.

Las prioridades son claras, pero deciden ignorarlas

Finalizar con la violencia en nuestros países desde una perspectiva de género es una prioridad clara que los gobiernos siguen optando por ignorar. En Nicaragua, Venezuela y El Salvador, la persecución contra defensoras de derechos humanos y periodistas, el uso del hostigamiento judicial, las detenciones arbitrarias y la militarización del espacio público han reforzado un modelo de represión que restringe aún más los derechos de quienes cuestionan el poder. En estos marcos, la violencia de género se recrudece con cada nueva política pública, con cada acción gubernamental o con cada momento electoral, convirtiéndose en una expresión de control.

Las mujeres, desde diversas trincheras, han alzado la voz para nombrar las graves consecuencias que tienen las violaciones a los derechos humanos en estos regímenes no solo a nivel individual, sino también colectivo. Si bien estas vulneraciones afectan a la toda la población, sus efectos son diferenciados cuando se analizan con un enfoque de género, reconociendo desigualdades y estructuras de opresión. A pesar de la larga historia de violencia de género que se vive en estos países, como en toda la región, las mujeres siguen resistiendo y luchando por los derechos de todas.

En este 8M algunas saldremos a las calles a marchar, tomando el espacio público para canalizar nuestras demandas, o tal vez algunas de nosotras nos manifestaremos en la individualidad de nuestros espacios. Sea en lo público o lo privado, sea cual sea la forma de nuestra protesta, lo hacemos por todas las mujeres y niñas, por las diversidades de género, por la igualdad y por la garantía efectiva de nuestros derechos. Nuestro esfuerzo es colectivo y continuaremos hasta que la dignidad se haga costumbre para todas las mujeres y en todos los territorios.  

Regulación de la IA en Brasil: media sanción para un proyecto de ley que seguirá en discusión

El Senado de Brasil dio media sanción, el pasado martes 10 de diciembre, a un proyecto de ley para regulación de la Inteligencia Artificial. Se trata del PL 2.338/23, que tiene por objetivo establecer normas generales para la “gobernanza responsable” de sistemas de Inteligencia Artificial (IA). Se trata de un proyecto que, de ser finalmente aprobado por ambas cámaras, puede sentar un antecedente determinante para la regulación de IA en otros países de la región.

Este proyecto adopta un sistema de riesgos inspirado, en parte, en la reciente Ley de Inteligencia Artificial de la Unión Europea. El proyecto fue acordado tras un extenso proceso de debates bicamerales donde la presencia y aportes de la academia, el sector privado y la sociedad civil fue clave. 

Sin ser ley aún, el caso brasileño merece ser observado de cerca en el resto de la región, en especial de cara a la influencia excesiva que ciertos actores -como el sector de las Big Tech- tuvo al modular ciertos derechos y medidas de protección de derechos que perdieron potencia en el texto aprobado en el Senado.

Pese a todo, esta media sanción es oportuna para repasar cómo fue el proceso de construcción de este proyecto que será ley, y rescatar algunas críticas emitidas desde la sociedad civil.

¿Cómo se llegó hasta aquí?

La media sanción de este proyecto de ley marca el cierre de un proceso que se extendió por casi tres años, iniciado en febrero de 2022 con la creación de la Comisión Especial para la Regulación de la IA (CJSUBIA) por parte de la presidencia del Senado. Esta comisión trabajó durante todo 2022 y emitió un dictamen basado principalmente en el proyecto de ley 2.338/23, que sirvió como insumo clave para la versión final.

En agosto de 2023, se creó la Comisión Temporal Interna sobre la IA (CTIA), donde representantes del Senado debatieron el proyecto, presentaron enmiendas y lograron consolidar una versión final. Este texto fue llevado a la sesión plenaria de la cámara alta el martes 10 de diciembre, donde fue aprobado con media sanción tras un debate que duró apenas dos horas.

Desde Derechos Digitales seguimos este proceso desde la creación del proyecto de ley unificado, en la CJSUBIA, donde presentamos nuestros aportes en audiencias públicas, en mayo de 2022. En el marco de dicho proceso generamos un análisis detallado sobre la composición sectorial, no sólo de las audiencias, sino de todos los espacios de participación de esa comisión, y detectamos una amplia representación del sector privado en todos los espacios, sea tanto a partir de los aportes enviados directamente por representantes de las empresas, como a través de las cámaras y asociaciones que las aglutinan. Si tomamos todas las participaciones como un conjunto, 31% correspondieron al sector privado, mientras que la sociedad civil apenas estuvo representada en el 19% del total. La academia fue otro de los espacios de mayor participación, con cerca del 26% del total.

Este hallazgo fue confirmado, por su cuenta, por el medio Intercept Brasil que en un reporte reciente visibilizó la desproporcionada presencia de representantes de empresas de tecnología en las listas de oradores que participaron de las audiencias de la CTIA y que asistieron “camuflados” como parte de otros sectores que no representaban esas afiliaciones. Esto pone en evidencia los esfuerzos realizados por las empresas de tecnología para influir en el desarrollo del debate de una ley crítica que sentará un antecedente determinante para otras discusiones existentes en la región, un factor que fue denunciado desde distintos espacios, no solo en cuanto al lobby poco transparente, sino también en cuanto a su incidencia intensa para dilatar la votación en el legislativo

Un vistazo a lo que sabemos que se aprobó hasta ahora 

  • Lo bueno: un modelo de gobernanza que promete

Uno de los puntos de mayor resistencia fue la propuesta de creación de una autoridad única para la IA, punto que fue finalmente eliminado del proyecto aprobado en el Senado. En su lugar, esta nueva versión establece la creación del Sistema Nacional de Regulación y Gobernanza de la Inteligencia Artificial (SIA), compuesto por múltiples dependencias de la administración pública en materia de protección de datos y organismos de regulación sectorial, siendo su coordinadora la Agencia Nacional de Protección de Datos (ANPD) de Brasil (Cap IX). 

El SIA tendría la responsabilidad de generar nuevos criterios para la clasificación de un sistema de IA como de alto riesgo (art. 15), lo novedoso es cómo, en el marco de ese trabajo, dicha autoridad deberá garantizar un proceso de participación social así como efectuar análisis previos de impacto normativo (art. 16).

Este sistema de gobernanza puede tener un rol central en la protección de derechos en tanto que, por una parte, desconcentra el rol regulatorio de una tecnología en desarrollo en distintas entidades públicas preexistentes, así como por otro lado supone el fortalecimiento de entidades como la ANPD para robustecer su papel en materia de protección de datos aplicable a los sistemas de IA.

  • Lo regular: evaluaciones de riesgos “voluntarias”

Una de las principales modificaciones en la última versión del texto es la decisión de que la “evaluación preliminar”, es decir, una autoevaluación emprendida por los “agentes de IA” –quienes desarrollan, proveen o adquieren este tipo de sistemas–, previo al despliegue de sus tecnologías de IA en el mercado, será opcional para la mayoría de los sistemas de IA, excepto los sistemas de IA generativa y de propósito general, para los que la evaluación preliminar sí será obligatoria. 

Esta autoevaluación debería apuntar a determinar el nivel de riesgo que representa el sistema de IA de cara a la protección de la seguridad de la información, la transparencia y la ética en su funcionamiento, entre otros (art. 12). Para promover su adopción por el ecosistema de la IA, el proyecto propone un incentivo para que, quienes lo realicen, puedan obtener beneficios en el caso de recibir sanciones administrativas (art. 12, núm. 1). Habrá que ver si el incentivo es suficiente para volver una medida voluntaria en una práctica corriente en el ecosistema de la IA.

  • Lo malo: derechos de las personas trabajadoras y derechos de autor debilitados

Los derechos de las personas trabajadoras de plataformas mediadas por algoritmos quedaron mermados luego de sucesivas enmiendas al texto aprobado en el Senado. El Consejo Nacional de Derechos Humanos de Brasil (CNDH) recomendó (i) que se incluyera como sistemas de IA de alto riesgo a los que distribuyen tareas y evalúan el comportamiento de los trabajadores y trabajadoras, (ii) retomar disposiciones que fomenten la creación y valoración de empleos, la capacitación continua de trabajadores y trabajadoras y (iii) la necesidad de desarrollar evaluaciones de impacto algorítmico. 

Algo de esto se incluyó, pero no todo. Por ejemplo, el art. 14 inciso III reconoce que los mecanismos de “reclutamiento, selección, filtrado, evaluación de candidatos, toma de decisiones sobre promociones o finalización de relaciones laborales, evaluación del desempeño y comportamiento de las personas afectadas en los ámbitos de empleo, gestión de trabajadores y acceso al empleo por cuenta propia” sí son sistemas de IA de alto riesgo. Y en lo relativo a los derechos laborales, se menciona la importancia de la capacitación y fomento del empleo, pero el proyecto al día de hoy no fija garantías de supervisión humana y protección y estabilidad reforzada frente a eventuales despidos motivados por la adopción de la IA en el mundo del trabajo, tal y como había sido pedido por la CNDH.

Respecto de los derechos de autor, hubo una tensión entre los reclamos impulsados principalmente por agrupaciones de artistas y las empresas tecnológicas. El conflicto se centró, principalmente, en las disposiciones del artículo 65 enfocado en la remuneración de los titulares del derecho de autor en los casos en que las empresas que desarrollen sistemas de IA utilicen contenidos que están protegidos.

Los grandes centros de datos –que tienen la materia prima para el desarrollo de sistemas de IA- pedían por su cuenta la eliminación de la remuneración en tanto que desviará recursos esenciales para el desarrollo de otros centros de datos y la inversión tecnológica en el país. Sin embargo, el artículo 65 aprobado en el Senado es un victoria a medias, pues si bien reconoce el derecho a la remuneración, pese a las objeciones del sector privado, dicho pago beneficiará en buena medida a los titulares de los derechos de autor que “tengan condiciones efectivas de negociar”, lo que beneficiará en la práctica a las grandes empresas titulares de los derechos de autor –como grandes editoriales, o empresas discográficas- más que a los titulares de pequeño tamaño y sin músculo para negociar.

Un proyecto que avanza; próximos pasos 

Durante la votación en sesión plenaria, representantes del Senado tuvieron espacio para generar declaraciones acerca del proceso y de la importancia que implica contar con una regulación sobre Inteligencia Artificial. Esta media sanción fue celebrada, por ejemplo, por la Coalición de Derechos en la Red, una agrupación que nuclea más de 50 organizaciones de activistas por los derechos digitales.

 Si bien manifestaron sus preocupaciones frente a algunos puntos, la Coalición consideró esta aprobación como una victoria “frente al lobby de las empresas de tecnología, la industria y la extrema derecha”. Por su parte, la organización Data Privacy Brasil aseguró que la sesión del Pleno del Senado “se caracterizó por la madurez democrática y la construcción de consensos para la aprobación de la legislación”.

Si bien el proyecto plantea algunos interrogantes a futuro, especialmente frente a la merma de ciertos derechos como los de las personas trabajadoras y los de las y los creadores y artistas, su media sanción da lugar a la continuidad en el debate sobre cómo regular la IA en América Latina atendiendo las visiones y necesidades del contexto local. 

En 2025 el proyecto será debatido en la Cámara de Diputados, por lo que esperamos que entonces las victorias reconocidas no sean echadas atrás, y se aproveche esa última oportunidad para desarrollar garantías asociadas a la protección del medio ambiente en tanto que la IA es una tecnología sedienta y demandante en materia de consumo eléctrico, así como la recuperación de las protecciones para los trabajadores y trabajadoras que fueron advertidas por la CNDH. 

Autonomía bajo control: la paradoja de la flexibilidad en el trabajo digital

La Secretaría del Trabajo de México, tras dialogar con más de 30 plataformas digitales, propuso reformar la Ley Federal del Trabajo para incluir un capítulo específico sobre las condiciones laborales en apps como Uber, Didi y Rappi. Esta reforma, inspirada en regulaciones recientes en España y Chile, busca cerrar las brechas digitales y sociales que afectan a millones de personas trabajadoras. Además, luego de que el gobierno español aplicara sucesivas multas a Glovo por el incumplimiento de la Ley Rider, la compañía decidió contratar a los repartidores. Estas iniciativas no son siempre bienvenidas entre las personas que trabajan en estas apps, lo cual lleva a preguntarnos: ¿Podemos imaginar regulaciones del trabajo digital que respeten los derechos laborales y a la vez incluyan las  necesidades de las personas  trabajadoras? 

Un contexto de desigualdad y precariedad

En América Latina, las desigualdades estructurales generan la base de la precariedad en el trabajo digital. Las brechas digitales, caracterizadas por el acceso desigual a tecnología y educación digital, excluyen a los sectores más marginados,  creando una división entre quienes pueden beneficiarse de la economía digital y quienes la experimentan desde la vulnerabilidad. 

Ante este contexto, las plataformas de trabajo localizado se presentan como una alternativa de generación de ingresos rápida y simple. Sin embargo, operan mayoritariamente sin marcos regulatorios claros, lo que deja a las personas sin acceso a protección social ni prestaciones básicas.  Estas personas deben cubrir los costos de operación y mantenimiento de sus herramientas de trabajo, pero esto no siempre es retribuido con ingresos estables. Las plataformas no solo no proveen cobertura ante accidentes y enfermedades, sino que también tienen poder unilateral de suspender o incluso bloquear a estas personas, impidiéndoles trabajar. Estas decisiones pueden estar asociadas a falta de cumplimiento de ciertas métricas, como la aceptación de cierta cantidad de pedidos o viajes. Esto demuestra un claro  desbalance que desdibuja el límite entre el servicio autónomo y la subordinación laboral.

Este panorama nos lleva a hacernos la siguiente pregunta: ¿por qué entonces la regulación no es bienvenida entre las propias personas que trabajan con estas apps? La dicotomía entre el trabajo flexible y la relación de dependencia lleva a pensar que una regulación eliminaría los principales atractivos de este trabajo, como la flexibilidad. Es importante destacar que si bien muchas personas utilizan estas apps como forma para generar ingresos extra, muchas dependen de ellas como su única fuente de ingresos, lo cual puede implicar jornadas laborales muy largas debido a que no todo el tiempo de logueo es remunerado. Según los reportes de Fairwork, que evalúan la remuneración horaria por estos trabajos, el índice de pago decente aún es muy bajo, no solo a nivel regional sino también global. Esto es especialmente grave cuando consideramos que en algunos países, por ejemplo en Argentina, se han evidenciado más de un 50% de repartidores y conductores encuestados con carga horaria semanal superior a las 45 horas. Si estos casos no cuentan con prestaciones sociales básicas, estamos hablando de vulnerabilidad laboral.

Estas problemáticas dan cuenta de la necesidad urgente de avanzar hacia marcos regulatorios que protejan a las  personas trabajadoras de plataformas y aseguren condiciones laborales dignas. No obstante, algunos países de la región han comenzado a implementar normativas en este sentido. A continuación haremos un breve diagnóstico.

Avances normativos

La región latinoamericana cuenta con distintas iniciativas y abordajes respecto a  la regulación. En Argentina, Brasil y Uruguay, el debate se centra en el reconocimiento de la relación laboral, mientras que en Costa Rica y Colombia los proyectos de ley buscan establecer contribuciones a la salud y seguridad social. Luego pueden mencionarse algunas iniciativas para las plataformas de transporte de pasajeros, como los casos de Ecuador y Bolivia, donde estas funcionan bajo un modelo de licencias de operación que permite cierta supervisión gubernamental. De todas formas, aún la mayoría de los países de la región se caracterizan por la ausencia de normativas o iniciativas vigentes en la temática. Buena parte de esta información se puede encontrar en WageIndicator, un portal que centraliza las novedades regulatorias de este tipo a nivel global.

Frente a tal escenario, sumada la presión social por mejores condiciones de trabajo, Chile ha dado un paso significativo con la Ley Nº 21.431. Implementada en 2022, esta ley reconoce derechos como la sindicalización, seguro de accidentes y el acceso a seguridad social, preservando la flexibilidad horaria. Sin embargo, según la última evaluación realizada por Fairwork en Chile, la regulación no siempre resulta efectiva. En muchos casos, las propias personas trabajadoras desconocen los derechos que les corresponden bajo estas nuevas leyes, lo que limita su capacidad para exigirlos. Asimismo, un relevamiento realizado por la OIT en Chile demuestra que el 60% de los trabajadores de plataforma continúan ejerciendo sus tareas en condiciones de informalidad. 

La combinación entre el vacío normativo y la falta de información sobre los derechos fundamentales en el ámbito laboral genera que las plataformas impongan sus propias condiciones. Fue así como en España las plataformas de reparto no respetaban las condiciones establecidas por la Ley Rider, pero luego de que el gobierno aplicara múltiples sanciones, las compañías decidieron acatar la iniciativa adoptando un modelo de contrato laboral

Las regulaciones buscan establecer límites y protecciones mínimas, que permitan a los trabajadores acceder a derechos esenciales, sin necesariamente eliminar la flexibilidad que caracteriza a estos empleos. El caso mexicano presenta una propuesta interesante debido al reconocimiento de la subordinación discontinua, permitiendo a los trabajadores conservar la flexibilidad en sus horarios, pero asegurando que el tiempo efectivamente trabajado sea respaldado mediante el otorgamiento del derecho a prestaciones sociales y la desconexión laboral. Asimismo, pretende implementar mecanismos de transparencia en los algoritmos que asignan tareas, y una perspectiva de género que aborda casos de acoso y hostigamiento.

Sin embargo, la regulación no debería entenderse como punto de llegada sino como punto de partida. Resulta indispensable que estos esfuerzos incluyan campañas de concientización a nivel regional, que informen a las personas trabajadoras sobre sus derechos, los puntos donde son vulnerados y las herramientas para hacer frente. Estas iniciativas deben asegurar que los algoritmos utilizados por las plataformas respeten la dignidad y los derechos laborales, y que existan mecanismos para supervisar, auditar y regular el uso de los datos.

El camino hacia un entorno digital más equitativo en la región requerirá esfuerzos coordinados y sostenidos que involucren a gobiernos, organizaciones de la sociedad civil, sindicatos y empresas, con el fin de garantizar que la digitalización sea una herramienta para la justicia y la inclusión, y no un reproductor de desigualdades.

Violencia digital de género y discapacidad auditiva: ¿Cómo nombramos lo que no se enseña?

En la era digital, la tecnología no solo facilita nuestra vida cotidiana, sino que se ha convertido en un terreno de lucha por derechos y equidad. Como periodista e investigadora en género y tecnologías, he observado cómo las dinámicas de poder y control, basadas en estereotipos de género, se trasladan al ámbito digital, afectando de manera desproporcionada a mujeres, niñas y la comunidad LGBTIQ+.

En este escenario, la realidad para las personas con discapacidad auditiva es aún más alarmante. La violencia digital de género que enfrentan ha sido escasamente documentada y menos aún abordada de manera adecuada. La falta de investigaciones y herramientas específicas para comprender y enfrentar las violencias que viven nos lleva a un escenario donde lo invisible se vuelve aún más inalcanzable, revelando una brecha crítica en la protección y apoyo que se brinda a esta comunidad.

El estudio ¿Cómo acompañar a mujeres Sordas que atraviesan situaciones de violencia por motivos de género?, realizado por UNFPA y Management Science for Health, revela que las personas con discapacidad tienen, en promedio, tres veces más probabilidades de sufrir violencia física, sexual y psicológica que aquellas sin discapacidad. Además, entre el 40% y el 68% de las jóvenes con discapacidad sufrirán violencia sexual antes de los 18 años. Aunque no existe información estadística específica sobre cómo la violencia afecta a las mujeres Sordas, es razonable suponer que estas cifras podrían ser aún más altas debido a las barreras en el acceso a la información y la comunicación.

Experiencias desde el aula

En julio de este año, realicé varios talleres en una escuela para personas Sordas en la comuna de San Joaquín, enfocados en identificar la violencia digital y generar estrategias comunitarias para enfrentarla. Este proyecto, desarrollado junto a la Fundación Instituto de la Sordera, tiene como objetivo empoderar a las y los jóvenes para que reconozcan estas violencias y, posteriormente, lleven a cabo una campaña comunicacional para compartir herramientas de prevención y abordaje con toda la comunidad educativa.

Una de las profesoras, que participó como intérprete en las sesiones, me comentó la poca participación madres y padres en el aprendizaje de la lengua de señas chilena, a pesar de contar con talleres gratuitos para ello. Esta falta de comunicación afecta gravemente la capacidad de las familias para generar espacios de confianza con sus hijos y brindarles herramientas para identificar y denunciar posibles violencias.

Dentro de los principales hallazgos que identifiqué durante el desarrollo de los talleres, está el alto uso de internet y dispositivos digitales por parte de las y los adolescentes, quienes buscan poder comunicarse, crear comunidad, y que enfrentados a la ausencia de espacios de confianza en el hogar, trasladan sus afectos a la vida virtual, participando de videochats con desconocidos (a través de plataformas como Omegle) y compartiendo a través de lives de instagram o vídeos de tik tok con otros jóvenes.

La gran mayoría reconoce pasar muchas horas en internet, principalmente desde sus teléfonos, y haber vivido intrusiones digitales por parte de personas anónimas que se apropian de sus videollamadas con otros amigos, para exhibir contenido sexualmente agresivo, dejarles comentarios incómodos o burlarse de ellos. Las adolescentes señalaron en tanto, que ya han recibido fotografías íntimas no solicitadas por parte de desconocidos, mensajes insistentes para establecer algún tipo de contacto físico, e intentos de grooming.

La preparación de estos talleres fue un desafío, principalmente por la falta de información específica. Si bien casi no existen estudios sobre la violencia de género hacia mujeres Sordas, las herramientas para cuantificar otros tipos de violencias, como la digital, son aún más escasas. En este caso, quise compartir con las y los adolescentes el número de whatsapp que la PDI actualmente promociona para realizar consultas relacionadas a violencias digitales, sin embargo, cabe preguntarse si realmente es un canal de comunicación e información accesible para todas las personas.

Por último, nos enfrentamos a una doble barrera idiomática. ONG Amaranta, en su Guía contra la violencia de género en línea en 2022, revelaba que una de las principales dificultades para que las personas se reconozcan como víctimas de violencia digital, está relacionada con la brecha del idioma, ya que la mayoría de las definiciones oficiales, términos y condiciones, y los canales de denuncia de las plataformas están siguen en inglés. Esto agrava aún más la situación para las personas Sordas, quienes aún no manejan señas específicas para identificar algunos de estos tipos de violencia, debido a la falta de campañas y políticas públicas educativas, en materia de alfabetización digital inclusiva.

Violencia de género, tecnologías y educación sexual

Un caso emblemático es el de Camila Villavicencio, profesora, intérprete en lengua de señas y activista por la inclusión de personas Sordas, quien fue encontrada muerta en el departamento de José Pablo Peñafiel, un ex compañero de colegio. A pocas horas de su muerte, los integrantes de su familia no pudieron declarar como testigos en el caso, debido a la falta de intérpretes de lengua de señas durante el proceso policial. Camila, antes de morir, intentó comunicarse con su hermana a través de llamadas telefónicas (cuando usualmente usaba videollamadas) y envió una serie de videos cortos del lugar donde se encontraba.

El caso ha avanzado lentamente, ya que la autopsia no encontró lesiones atribuibles a terceros. Sin embargo, José Pablo Peñafiel actualmente está en prisión preventiva por otros diez ataques sexuales a mujeres Sordas, varias de ellas adolescentes. Peñafiel, también con discapacidad auditiva, asistía a fiestas de la comunidad sorda y se ofrecía a llevar a las mujeres a sus casas, desviando luego el camino hacia una imprenta donde cometía los abusos, que posteriormente subía a sitios de pornografía.

Estos hechos salieron a la luz gracias a la lucha de la familia y amigos de Camila, a través de la cuenta de Instagram @JusticiaParaCami. Sus acciones de concientización y protesta revelaron la falta de protocolos para abordar la violencia contra mujeres Sordas. Debido a ello, otras jóvenes agredidas sexualmente reconocieron a Peñafiel como su agresor y realizaron una “funa” en redes sociales. Solo tras estos testimonios se abrió la investigación que actualmente tiene a este sujeto con prisión preventiva.

Esperanzas y desafíos

La UNFPA, en el marco del proyecto Promoviendo la realización del ejercicio de la capacidad jurídica de las Personas con Discapacidad en Argentina”, señala que la mayoría de las mujeres Sordas no acuden a los servicios de atención a víctimas porque desconocen su existencia o porque sienten que no recibirán la atención adecuada. «Si acuden, es porque se encuentran en situaciones extremas o porque son acompañadas por algún familiar o persona de su entorno más cercano, con la pérdida de privacidad y autonomía que esto implica.»

Las mujeres Sordas no tienen dónde ni cómo denunciar las violencias que sufren. La ausencia de una educación sexual integral, sumada a la falta de inclusión en el abordaje de estas temáticas a nivel institucional, hace imposible nombrar y denunciar las violencias. ¿Cómo nombrar algo que no sé que existe? ¿Cómo reconocer mi cuerpo y lo que he vivido? ¿Cómo puedo acercarme a denunciar si las opciones implican un testimonio hablado o rellenar un formulario digital de la Fiscalía? ¿Cómo acceder a ese formulario si nadie me ha enseñado a usar internet?

El Ministerio de la Mujer y la Equidad de Género, junto con la Fundación Nellie Zabel, lanzaron en 2021 la Plataforma del Centro de la Mujer Sorda, un espacio digital de atención y orientación ante la violencia de género, que incluye contenidos informativos adaptados a la lengua de señas chilena y conexión permanente con los CDM del país con horas de atención de lunes a viernes.

En cuanto a las violencias digitales, la Unidad de Género y Participación Ciudadana de la Subsecretaría del Interior de Chile presentó a principios de este año los resultados de su Consulta Virtual sobre Violencia Digital. Aunque incluyó una pregunta sobre discapacidad, no profundizó en experiencias específicas de violencia digital ni se plantearon estrategias inclusivas para aplicar el instrumento estadístico. Así, se perdió la oportunidad de incorporar las vivencias de personas con discapacidad y de obtener cifras para impulsar políticas públicas más inclusivas y efectivas en materias de alfabetización digital, abordaje de violencias digitales y su relación con el género.

Conclusiones

La violencia digital y de género contra mujeres y personas sordas no es solo un problema de derechos humanos, sino una crisis agravada por la falta de acción institucional y la ausencia de educación sexual integral inclusiva. El caso de Camila Villavicencio no es un caso aislado, sino un ejemplo de cómo las instituciones fallan sistemáticamente en proteger a las personas más vulnerables.

La incapacidad del sistema para ofrecer canales de denuncia accesibles y el vacío en la creación de políticas públicas que consideren las necesidades específicas de las personas Sordas, son un reflejo del desconocimiento estructural sobre lo que implica realmente crear canales de denuncia al alcance de todas las personas, y la falta de voluntad institucional en abordar las violencias que les aquejan.

El avance tecnológico, que debería ser una oportunidad para la inclusión y el empoderamiento, se ha convertido en un terreno peligroso para las mujeres y personas con discapacidad auditiva. La falta de educación, tanto digital como sexual, limita su capacidad para reconocer y nombrar las violencias que viven. Es imprescindible que como sociedad exijamos la inclusión real en todas las esferas, comenzando por la educación y la justicia.

Como lo señala la encuesta, Violencia Digital: Experiencias virtuales de niñas y adolescentes en Chile, aplicada por ONU Mujeres, ONG Amaranta y Fundación Datos Protegidos en 2021, las niñas y adolescentes se encuentran tres veces más expuestas a vivir experiencias de violencia sexual digital, cifra que podría llegar a ser mayor en las jóvenes de la comunidad Sorda, ya que en un primer acercamiento educativo para abordar estas temáticas, surgieron testimonios de haber experimentado la recepción de fotografías íntimas por parte de desconocidos y peticiones insistentes de intento de contacto físico o sexual, reflejando la urgencia de incluir lineamientos específicos para abordar estas violencias desde el sistema educativo, y también policial para saber qué hacer frente a estas situaciones.

Necesitamos seguir promoviendo proyectos e instancias formativas que permitan que nuestro trabajo en tecnología y derechos humanos pueda llegar a comunidades diversas, para ello es fundamental que como organizaciones de la sociedad civil nos acerquemos a conocer y establecer lazos de colaboración con activistas y comunidades de otras áreas, que nos permitan generar puentes y alianzas de trabajo colaborativo.

No podemos permitir que las barreras de comunicación sigan siendo un obstáculo para la protección de los derechos humanos. La tecnología debe ser un aliado, no un arma, y para ello necesitamos una reformulación radical de las políticas públicas que asegure un acceso igualitario y seguro a los espacios digitales. Solo entonces podremos hablar de un futuro tecnológico que no perpetúe las violencias, sino que las desmantele.

Examen Periódico Universal 4to ciclo, sesión 47 del Consejo de Derechos Humanos

Este informe ha sido elaborado en conjunto por el Instituto Panamericano de Derecho y Tecnología y Derechos Digitales.Se enfoca en el ejercicio de los derechos humanos en el entorno digital del Estado de Nicaragua y analiza el cumplimiento de las 11 recomendaciones aceptadas por Nicaragua que se vinculan a esta materia recibidas durante el tercer ciclo del Examen Periódico Universal (EPU) llevado a cabo en 2019

La escuela de mañana, ahora

La pandemia lo cambió todo. Se sabe. Uno de los ámbitos que sufrió mayores transformaciones fue la enseñanza y así lo alertamos en su momento, desde una mirada regional. Pasar de la sala de clases, espacio físico que comporta cierta intimidad funcional al proceso de aprendizaje, a un contexto sin estas características y, peor aún, sin garantizar primero la infraestructura necesaria para la educación a distancia, provocó, de acuerdo con UNESCO en ese entonces, una tragedia.  

Salto temporal al presente y ya no es solo la brecha de conectividad, la falta, la que está impactando de manera negativa al futuro de la humanidad; también la abundancia, expresada en la masificación de las herramientas de inteligencia artificial generativa (IA), pone en peligro la integridad de los conocimientos que adquieren, en este mismo instante, niñas, niños y adolescentes (NNA) en todo el planeta.

Todo esto ocurre al mismo tiempo en que la Unión Europea investiga a Meta, compañía a cargo de Facebook e Instagram, por una posible manipulación intencional a NNA mediante los algoritmos de estas plataformas y por no proveer las garantías suficientes de privacidad, seguridad y protección de menores, contraviniendo lo estipulado en la Ley de Servicios Digitales.

¿Alguien quiere pensar en los niños?

Se entiende que las plataformas sociales, por su nivel de alcance, sean el foco permanente de acciones legales e interpelaciones para rendir cuentas. Desconocemos, sin embargo, qué está pasando en cuanto a protección de datos y seguridad digital en las plataformas educativas. El paradero de los miles de datos recopilados durante una hora pedagógica por software “de ayuda” -intervenciones de estudiantes, materiales educativos, métricas de uso, etc.- es una incógnita.

Otro estudio publicado por UNESCO en 2023 es categórico al evidenciar los efectos negativos en la relación entre el uso de smartphones y los resultados educativos, pero también concluye que “si bien la prohibición de la tecnología en las escuelas puede ser legítima en ciertos casos, también se debe considerar su integración adecuada en el aprendizaje”.

Esta ambigüedad normativa se expresa en la falta de consensos mundiales al respecto. En San Pablo, Brasil, el mes pasado se anunció el uso de la IA para mejorar el currículo escolar producido por los profesores y las críticas no se hicieron esperar: cuál es el rol de las maestras en este cambio, cuáles son las líneas éticas que determinarán su uso y qué tipo de control existe sobre posibles afirmaciones falaces emitidas por estos sistemas, por mencionar algunas de ellas.

En Suecia, mientras tanto, la apuesta es por desescalar el avance de las tecnologías al interior de la sala de clases, luego de los magros resultados obtenidos por sus estudiantes, especialmente en cuanto a capacidades lectoescritoras, en mediciones internacionales. Tales efectos también fueron advertidos en nuestra región en 2018.

Como vemos, el problema es de larga data, pasan los años y, más allá de denunciar la guerra y el hambre, e implementar medidas absolutistas tipo “todo o nada”, desconocemos el verdadero impacto, en el mediano y largo plazo, de estas acciones en el aprendizaje escolar.

Un, dos, tres: Madurez

Contrario a las numerosas de voces de alarma que a diario alertan sobre un apocalipsis pedagógico que destruye la capacidad cognitiva de las infancias alrededor del mundo, lo cierto es que la tecnología, una vez más, es el chivo expiatorio de las malas decisiones que toma seres humanos como tú y como yo, a diferencia de que bajo su cargo tienen el destino del aprendizaje de millones de niñas, niños y adolescentes.

Fuentes consultadas para este análisis -madres y padres- así lo afirman: ven en los motores de búsqueda, aplicaciones de aprendizaje y, sobre todo, los juegos una enorme ayuda en la crianza de sus hijos, al permitir delegar en estas herramientas “la parte cuantitativa” de la educación y ocuparse ellas, en cambio, de entregar aquello que no puede medirse con calificaciones.

Un estudio publicado en 2023 en España, fruto de la colaboración público-privada, adopta un enfoque propositivo sobre este tema, preguntándose por el futuro de la IA en la educación, en América Latina. Sus conclusiones son optimistas: hay tiempo, de aquí al 2030, para meditar y establecer legislaciones claras sobre su uso en las aulas, llamando a todos los sectores (gobiernos, privados, academia, sociedad civil) a colaborar en este esfuerzo conjunto. En Latinoamérica nos toca generar instrumentos en esta misma línea, desde nuestro conocimiento de la realidad local a partir de la experiencia.

En este punto de la historia, “Papel v/s Pantallas” no es más que un título sensacionalista para atraer clics que, campañas de miedo o fearmongering mediante, reduce los desafíos en torno a la educación a una mera cuestión de soporte. La realidad nos muestra que el abrupto acceso a tecnologías que no podíamos siquiera describir hace cinco años trae consigo un deber de las personas adultas que las regulan, implementan y utilizan a comportarse como tales.

Un conocido refrán africano sostiene algo similar a la idea de que “Se necesita una aldea completa para cuidar de un niño”. Llegó la hora de hacernos cargo, aldea global.

Repartidores de aplicaciones: precarización al servicio del algoritmo

*This text is available in english here.

Poca atención hemos prestado, por ejemplo, al uso y propagación de los eufemismos que dislocan el lenguaje, y que obligan a llamar de otra forma al trabajo que se desempeña con la intermediación de plataformas. No son llamados trabajadores, sino ‘usuarios’.

Pensemos en el trabajo de los repartidores de comida, ejercido por personas que encuentran allí su principal o única forma de sustento económico. Es un trabajo que sabemos que se presta sin garantías de estabilidad laboral, sin salarios mínimos ni formas de protección y seguridad social básica, como salud o pensión. Un trabajo expuesto al rayo del sol y el agua, y bajo pobres condiciones de seguridad vial.

Es una actividad donde los trabajadores son calificados como ‘usuarios’ de aplicaciones tecnológicas ofrecidas por plataformas digitales que les permiten utilizarlas – la mayoría de las veces cobrándoles por ello– para contactar a restaurantes con usuarios/consumidores.

Un trabajo donde los repartidores no perciben salarios sino ‘propinas’, y donde las órdenes no las dicta un jefe, sino un algoritmo exento de responsabilidad o rendición de cuentas, pero que indica el cómo y dónde de la actividad a desempeñar. 

Se trata de una forma de trabajo que las doctrinas canónicas del derecho laboral temen denominar como tal, pues no encaja en la fórmula tradicional de las relaciones laborales según la cual se denomina trabajo a toda relación de subordinación, en la que el empleador dicta las condiciones del trabajo a otro, un empleado, y vigila su cumplimiento.

Ahora ¿por qué no se denomina trabajo a la actividad desempeñada por los repartidores de comida? Porque según las plataformas de repartidores, son libres de ejercer de manera independiente su actividad.

No son trabajadores, sino ‘repartidores independientes’

Pero ¿qué libertad tienen quienes encuentran en entregar comida a otros su único o principal medio de supervivencia económica? ¿qué independencia puede ejercer la persona que se rinde al dictado del algoritmo que establece, de manera arbitraria, cuál debe ser la cantidad aceptable de domicilios diarios para asignarle los mejores pedidos? o ¿cuál debe ser el tiempo mínimo de su entrega para que el repartidor no se exponga a algún tipo de sanción como puede ser, por ejemplo, la no asignación de ningún pedido en la plataforma?

No es considerado trabajo, pese a que como en cualquier empleo, las plataformas digitales de domicilios de comida pueden sancionar a quien incumple los ‘términos y condiciones’ del servicio, a través del bloqueo de la cuenta. Un bloqueo que, más allá de poner en riesgo el sustento vital del repartidor, se efectúa la mayoría de las veces sin mediar derecho a réplica o explicación alguna.

En definitiva, un trabajo que plataformas digitales y a veces los mismos reguladores de nuestros países se abstienen de calificar como tal, pese a que, en un contexto de crisis, como la pandemia, pocos dudaron en calificar y tratar como ‘trabajo esencial’.

Los eufemismos en las Altas Cortes: el caso de Colombia

El poder que tienen los eufemismos para disfrazar la realidad de lo que no es, también radica en convencer a otros de que su tarea no es examinarlos ni desmontarlos, sino en apuntar la vista hacia otra parte.

Por ejemplo, en Colombia, la Corte Constitucional falló en febrero de este año, un caso que involucraba a un repartidor afiliado a Rappi, la empresa colombiana de entrega de domicilios más grande del país y que presta servicios en varios países de América Latina.

El caso es más bien sencillo, pero sus matices por los eufemismos en juego fueron obviados por la Corte. En la acción de amparo o tutela, un repartidor había reclamado judicialmente por la vulneración de su derecho al debido proceso, pues le había sido bloqueada su cuenta sin que mediara justificación de la empresa que, por su parte, aludió al incumplimiento de los términos y condiciones del servicio una conducta acostumbrada por Rappi al punto de que la compañía tuvo que crear, por demanda del sindicato de domiciliarios, una Defensoría del Repartidor.

El reclamo judicial fue resuelto por la Corte al decir que el debido proceso, que comprende el derecho a recibir explicaciones frente a la aplicación de sanciones entre particulares, también rige a la relación de consumo entre los repartidores y Rappi. Y, en consecuencia, ordenó a la empresa a explicar de manera fundada y suficiente los motivos de su actuar a la persona afectada.

Pero la Corte evadió cualquier consideración que permitiese dar claridad sobre la naturaleza de la relación jurídica entre repartidores independientes y la plataforma digital, tan necesaria para que, por ejemplo, estos puedan reclamar condiciones dignas para la prestación de su actividad ‘esencial’. Esta omisión no inhibió a la Corte de afirmar que el bloqueo de la cuenta había puesto en riesgo el derecho al mínimo vital del repartidor afectado, entonces ¿qué relación de ‘consumo’ es esta que, una vez interrumpida por la parte más poderosa de esa relación contractual, es capaz de poner en peligro la subsistencia económica de la otra?

Los eufemismos que contaminan el lenguaje con el que nos referimos a la relación entre los repartidores –y otro tipo de trabajadores- y las plataformas digitales ameritan ser vistas de cerca, para que no sean el instrumento con el que, en la práctica, validemos la precarización de nuevas formas de trabajo que no resultan convencionales ante viejos dogmas.

De esos análisis tendremos que ocuparnos también, en las discusiones que tengamos sobre el futuro del trabajo y de los trabajadores en nuestra región. Como la sucedida en Europa, que luego de dos años de negociaciones, se adoptaron reglas aplicables a los repartidores de comida y conductores de vehículos de alquiler –como Uber- que, a través de una Directiva reciente, los ha calificado como verdaderos trabajadores y no como simples ‘independientes’, presumiendo una relación laboral entre estos y las plataformas digitales.

Cuando algoritmo rima con racismo

El racismo algorítmico es un término que se ha vuelto cada vez más relevante en la era digital. Se refiere a la forma en que los algoritmos y sistemas de inteligencia artificial (IA) pueden perpetuar o incluso exacerbar sesgos y discriminación racial. Aunque la tecnología se presenta a menudo como objetiva y neutral, la realidad es que puede reflejar y amplificar las desigualdades sociales existentes.

Un ejemplo cotidiano de esto se encuentra en las búsquedas en internet. Al buscar términos como «mujer bonita» u «hombre exitoso», los resultados tienden a mostrar imágenes de personas blancas, excluyendo la diversidad racial. Este sesgo se extiende a otras áreas, desde la selección de empleados hasta el reconocimiento facial. En este último caso, los algoritmos muestran preferencias hacia ciertos grupos raciales y discriminan a otros.

El problema radica en cómo se entrenan los algoritmos de IA. Estos sistemas aprenden a partir de grandes conjuntos de datos que, si no son lo suficientemente diversos o están sesgados, pueden llevar a conclusiones erróneas. Otro ejemplo a mano está en los algoritmos de contratación de personal. Estos tradicionalmente son entrenados con datos históricos que favorecen a los candidatos blancos, perpetuando entonces dicha tendencia.

Estereotipos racistas

Como se indicó al comienzo, un experimento revelador consiste en solicitar a un sistema de IA texto-a-imagen que genere ilustraciones de «hombres exitosos» o «mujeres exitosas». Los resultados suelen ser de personas blancas en contextos profesionales. En cambio, al pedir imágenes de “hombres pobres en Latinoamérica”, el sistema asume que son indígenas. Del mismo modo, al solicitar la creación de una imagen de «hombres negros trabajando, su representación visual es la de obreros”, mientras que para «hombres blancos trabajando» los muestra en una oficina y con trajes.

Las imágenes a continuación fueron creadas con DALL-E, incorporado en la versión 4.0 del sistema de IA ChatGPT. Haz clic en cada una de ellas para verlas en alta resolución.

“Hombre exitoso”: lo crea como un hombre alto, delgado, blanco y con barba.
“Mujer bonita”: tiene cabello claro, es blanca y con ojos claros.
“Hombres pobres de Ecuador”: asume que son indígenas.
Sucede lo mismo cuando solicitamos la una imagen de “mujeres pobres de Latinoamérica”.
“Mujeres de Latinoamérica trabajando”: son representadas, del mismo modo: como indígenas y en actividades relacionadas al campo.
“Hombres negros trabajando”: los crea como obreros…
 
pero si le pedimos que cree una imagen de “hombres blancos trabajando” los representa en una oficina.

Lo que subyace al racismo algorítmico

Entre las causas apuntadas para tales situaciones, están:

  • Datos de entrenamiento sesgados: los algoritmos de IA aprenden a partir de datos históricos. Si estos datos reflejan desigualdades raciales o no representan adecuadamente la diversidad de la población, el algoritmo puede aprender y reproducir estos sesgos. Un estudio de 2019 mostró que los sistemas de reconocimiento facial tenían tasas de error más altas para personas de piel oscura, especialmente mujeres negras, debido a la falta de representación en los conjuntos de datos de entrenamiento.
  • Diseño algorítmico: la inteligencia artificial no es magia. Quienes diseñan y desarrollan los algoritmos y sistemas de IA pueden, con o sin intencionalidad, incorporar sus propios prejuicios en la creación de algoritmos. Las decisiones sobre cuáles variables incluir, cómo ponderarlas y de qué manera interpretarlas pueden influir en los resultados finales.
  • Interpretación y uso de resultados: incluso si un algoritmo es técnicamente imparcial, la forma en que se utilizan sus resultados puede conducir a prácticas discriminatorias.

La investigación de Tarcízio Silva aborda el impacto del racismo algorítmico en la visión computacional, destacando cómo los sistemas de inteligencia artificial (IA) y aprendizaje automático pueden perpetuar y amplificar prejuicios raciales a través de sus mecanismos de reconocimiento y clasificación de imágenes. Silva examina la construcción y expresión del racismo en la infraestructura online y las interfaces digitales, argumentando que tanto los algoritmos (el «back end») como las representaciones visuales y textuales (el «front end») son materializan estereotipos invisibles que afectan a grupos racializados.

A través de un análisis fundamentado en la Teoría Racial Crítica y estudios sobre la blanquitud, Silva propone un marco para comprender y desmantelar la opresión algorítmica, subrayando la necesidad de abrir las «cajas negras» de la tecnología para revelar y confrontar los sesgos raciales inherentes en los sistemas de visión computacional. Su trabajo resalta la importancia de abordar tanto los aspectos técnicos como los culturales y sociales en la lucha contra el racismo algorítmico, instando a una mayor diversidad e inclusión en los campos de la ciencia y la tecnología. 

El racismo algorítmico es un desafío significativo en la era de la IA. Es crucial que las personas en roles de desarrollo, investigación e, incluso, las usuarias sean conscientes de estos sesgos y trabajen activamente para crear algoritmos más inclusivos y equitativos. Esto implica diversificar los conjuntos de datos, y también cuestionar y revisar constantemente los supuestos subyacentes en el desarrollo de tecnologías. El fiasco de Google Gemini, por citar un ejemplo reciente, nos enseña que no se trata de corregir el racismo con más racismo, sino de desarrollar colectivamente algoritmos igualitarios.

La lucha contra el racismo algorítmico y la creación de tecnologías más equitativas se basa en un principio clave: aprender y enseñar cómo funcionan realmente los sistemas tecnológicos por dentro. Comprender el funcionamiento interno de los algoritmos y los sistemas de IA es esencial para identificar y corregir los sesgos y prejuicios que estos pueden perpetuar. Esto requiere un enfoque educativo y formativo que no solo se centre en las habilidades técnicas —necesarias para desarrollar y programar software— sino también en la sensibilización respecto de los impactos sociales y culturales de la tecnología. En este sentido, la educación en tecnología debe incluir un currículo que aborde la ética en IA, la justicia social y los estudios sobre el racismo y la discriminación, proporcionando a los estudiantes las herramientas para construir sistemas más justos y representativos.

Desde Latinoamérica y entre los grupos minoritarios, la creación de capacidades en tecnología es especialmente crucial para desafiar y cambiar las narrativas dominantes en el campo de la IA. Al empoderar a estos grupos para que participen activamente en el desarrollo tecnológico, se abre la puerta a una diversidad de perspectivas y experiencias que pueden informar y enriquecer el proceso de diseño de algoritmos.

Fomentar la inclusión de voces marginadas en la ciencia y la tecnología contribuye a reducir los estereotipos raciales y sesgos en los sistemas de IA, y promueve la creación de soluciones innovadoras que atienden a las necesidades y desafíos de todas las personas. Por último, construir una comunidad tecnológica inclusiva y diversa, en nuestra región y más allá, es un paso fundamental hacia la eliminación de estereotipos raciales y la creación de algoritmos que sirvan equitativamente a toda la sociedad.

Solo así podremos asegurar que la IA sea un aporte al desarrollo.