Manual para Defender los Derechos de las Personas Refugiadas y Migrantes en la Era Digital

Page 1

MANUAL GENERAL:

DEFENDER LOS DERECHOS DE

LAS PERSONAS REFUGIADAS Y MIGRANTES

EN LA ERA DIGITAL

Amnistía Internacional es un movimiento integrado por 10 millones de personas que activa el sentido de humanidad dentro de cada una de ellas y que hace campaña en favor de cambios que permitan que todo el mundo disfrute de sus derechos humanos. Nuestra visión es la de un mundo donde quienes están en el poder cumplen sus promesas, respetan el derecho internacional y rinden cuentas. Somos independientes de todo gobierno, ideología política, interés económico y credo religioso, y nuestro trabajo se financia principalmente con las contribuciones de nuestra membresía y con donativos. Creemos que actuar movidos por la solidaridad y la compasión hacia nuestros semejantes en todo el mundo puede hacer mejorar nuestras sociedades.

© Amnesty International 2024

Salvo cuando se indique lo contrario, el contenido de este documento está protegido por una licencia 4.0 de Creative Commons (atribución, no comercial, sin obra derivada, internacional). https://creativecommons.org/licenses/by-nc-nd/4.0/legalcode.es

Para más información, visiten la página Permisos de nuestro sitio web: https://www.amnesty.org/es/permissions/

El material atribuido a titulares de derechos de autor distintos de Amnistía Internacional no está protegido por la licencia Creative Commons.

Publicado por primera vez en 2024.

por Amnesty International Ltd.

Peter Benenson House

1 Easton Street

London WC1X 0DW

Reino Unido

Índice: POL 40/7654/2024 Spanish

Idioma original: Inglés

amnesty.org

Ilustración de portada de Eliana Rodgers: “Un sueño desalentado”. Un inmigrante se enfrenta a la vigilancia masiva en un paso fronterizo y se le recuerda su incierto futuro. Activistas trabajan para hacer frente a estos muros y sistemas de vigilancia.

ÍNDICE

Este manual general es una introducción sobre la implantación rápida y generalizada de las tecnologías digitales en los sistemas de gestión del asilo y la migración que generan discriminación sistémica y la sostienen. Ofrece un panorama general de algunas de las principales novedades tecnológicas digitales en los sistemas de gestión del asilo y la migración, en particular los sistemas que tratan grandes cantidades de datos, y expone algunas de las preocupaciones clave de Amnistía Internacional en materia de derechos humanos. No pretende ser una descripción exhaustiva de todos los avances digitales en este campo hasta la fecha, sino un punto de partida para quienes analizan cómo defender los derechos de las personas refugiadas y migrantes en la era digital.

Nuestro especial agradecimiento a Keren Weitzberg1 y Roya Pakzad2, quienes llevaron a cabo la investigación de análisis previo e identificaron las cuestiones de derechos humanos esbozadas en el informe, y a las personas y organizaciones de base que participaron en la investigación y compartieron generosamente sus conocimientos y experiencia, entre ellas: Surveillance Resistance Lab, Derechos Digitales, Privacy International, Proyecto ChinaMade de la Universidad de Colorado, Human Rights Watch, Access Now y el Observatorio de Tecnología y Migración del Laboratorio Jurídico de Personas Refugiadas de la Universidad de York.

1. Keren Weitzberg es investigadora sobre tecnología y migración, y trabaja en la intersección de los estudios sobre ciencia y tecnología, los estudios sobre migración y los estudios críticos sobre la raza. Analiza problemáticas relacionadas con la movilidad, la identidad digital, la biometría y la tecnología financiera en África oriental y otros lugares.

2. Roya Pakzad es fundadora y directora de Taraaz, organización sin fines lucrativos dedicada a la investigación y defensa de los derechos en la intersección de la tecnología y los derechos humanos. Además es investigadora asociada del Laboratorio de Políticas del Centro para la Investigación sobre las Tecnologías de la Información en Beneficio de la Sociedad (CITRIS, por su sigla en inglés) de la Universidad de California en Berkeley (UC Berkeley).

3 MANUAL GENERAL: DEFENDER LOS DERECHOS DE LAS PERSONAS REFUGIADAS Y MIGRANTES EN LA ERA DIGITAL Amnistía Internacional
1. LA TECNOLOGÍA DIGITAL EN LOS SISTEMAS DE ASILO Y GESTIÓN DE LA MIGRACIÓN: POR QUÉ ES MOTIVO DE PREOCUPACIÓN 4 2. TERMINOLOGÍA CLAVE A-Z 6 3. LOS EFECTOS DE LA TECNOLOGÍA DIGITAL SOBRE LOS DERECHOS DE LAS PERSONAS REFUGIADAS Y MIGRANTES 9 3.1 “Alternativas a la detención” tecnológicas 9 3.2 Externalización de fronteras y tecnología 12 3.3 Software de extracción de datos 13 3.4 Biometría 15 3.5 Toma de decisiones algorítmica en los sistemas de gestión del asilo y la migración 18 3.6 Caso práctico: Aplicación móvil CBP One 21 3.7 Caso práctico: Ley de Inteligencia Artificial de la Unión Europea 22 4. CONCLUSIONES Y CAMINO A SEGUIR 23

1. LA TECNOLOGÍA DIGITAL EN LOS SISTEMAS DE ASILO Y GESTIÓN DE LA MIGRACIÓN: POR QUÉ ES MOTIVO DE PREOCUPACIÓN EN MATERIA DE DERECHOS HUMANOS

Cada vez más, las intervenciones de la tecnología digital configuran y ejecutan las políticas de asilo y gestión de la migración de los Estados. Aunque Amnistía Internacional y otras organizaciones de la sociedad civil llevan mucho tiempo documentando las violaciones graves de los derechos humanos de las personas en movimiento —incluidas las personas refugiadas y migrantes— cometidas por los Estados al disuadirlas de circular, evitar su llegada, expulsarlas sumariamente y sancionarlas,3 a estas políticas y prácticas se han superpuesto en los últimos tiempos una serie de capacidades tecnológicas digitales en rápida expansión desarrolladas por empresas tecnológicas privadas.4 La proliferación de las tecnologías digitales y la tecnología de “fronteras inteligentes” ha creado nuevas formas de alianza entre los sectores público y privado, y con ellas toda una diversidad de nuevas amenazas para los derechos humanos. Desde la vigilancia electrónica, los satélites y los drones hasta el reconocimiento facial, los “detectores de mentiras” y el escaneo del iris, existe una necesidad creciente y apremiante de investigar y conocer estas tecnologías y sus repercusiones.

Las tecnologías digitales están reforzando regímenes de gestión de las fronteras que discriminan en función de la raza, el origen étnico o nacional y la situación de ciudadanía. El racismo está profundamente arraigado en los sistemas de asilo y gestión de la migración. Estas tecnologías pueden perpetuar y ocultar los prejuicios raciales y la discriminación bajo una apariencia de neutralidad y objetividad que hunde sus raíces

3. Encontrarán todas las publicaciones de Amnistía Internacional sobre personas refugiadas y solicitantes de asilo en https://www.amnesty.org/es/search/REFUGIADOS%20REFUGIADAS/

4. Discriminación racial y xenófoba y uso de tecnologías digitales en el control de fronteras e inmigración. Informe de la Relatora Especial sobre las formas contemporáneas de racismo, discriminación racial, xenofobia y formas conexas de intolerancia, E. Tendayi Achiume, 17 de diciembre de 2021, doc. ONU A/HRC/48/76, párr. 47, https://www.ohchr.org/es/documents/thematicreports/ahrc4876-racial-and-xenophobic-discrimination-and-use-digital; Amnistía Internacional, Mandatory Use of CBP One Application Violates the Right to Seek Asylum (AMR 51/6754/2023), 7 de mayo de 2023, https://www.amnesty.org/es/documents/ amr51/6754/2023/en; Amnistía Internacional, “Las tecnologías de automatización y el futuro de la Fortaleza Europa”, 28 de marzo de 2019, https://www.amnesty.org/es/latest/news/2019/03/automated-technologies-and-the-future-of-fortress-europe

5. Discriminación racial y xenófoba y uso de tecnologías digitales en el control de fronteras e inmigración. Informe de la Relatora Especial sobre las formas contemporáneas de racismo, discriminación racial, xenofobia y formas conexas de intolerancia, E. Tendayi Achiume (citado anteriormente); Informe de la Relatora Especial sobre las formas contemporáneas de racismo, discriminación racial, xenofobia y formas conexas de intolerancia, E. Tendayi Achiume, 10 de noviembre de 2020, doc. ONU A/75/590, https://undocs.org/Home/Mobile?FinalSymbol=A%2F75%2F590&Language=E&DeviceType=Desktop&LangRequested=False

MANUAL GENERAL:

DEFENDER

4
DE
Y MIGRANTES EN LA ERA DIGITAL
LOS DERECHOS
LAS PERSONAS REFUGIADAS
Amnistía Internacional

en prácticas históricas y coloniales de exclusión racializada.5 Su uso afecta de manera desproporcionada a las personas racializadas y genera distintas formas de discriminación. Se necesitan salvaguardias mucho más firmes frente a estas tecnologías, ya que los peligros para los derechos humanos de las personas refugiadas, migrantes y solicitantes de asilo aumentan sin parar y siguen perpetuando la discriminación y la exclusión raciales.

Amnistía Internacional reconoce que la tecnología digital puede favorecer que se respeten, protejan y promuevan los derechos de las personas refugiadas y migrantes en determinadas situaciones, por ejemplo al conectar a las personas en movimiento con servicios vitales e información fiable.6 Aun así, comporta riesgos, especialmente para el derecho a la privacidad y el derecho a no sufrir discriminación. La percepción de que las personas en movimiento representan “amenazas para la seguridad” está cada vez más extendida, y continuamente se adoptan medidas de “seguridad nacional” para excluir a personas por su supuesta raza, etnia y religión, entre otros motivos. Por ejemplo, la vigilancia ilegítima y desproporcionada y otras medidas cada vez más utilizadas para la elaboración de perfiles raciales y la actuación policial generan y sostienen violaciones de derechos humanos, y también está creciendo su uso contra las personas refugiadas, migrantes y solicitantes de asilo en general. Estas medidas y usos de las tecnologías digitales abocan al debilitamiento de las protecciones fundamentales de las personas en movimiento. La combinación de intereses empresariales, falta general de respeto a los derechos de la población en movimiento y racismo y discriminación sistémicos hace que la tecnología avance más deprisa de lo que se tarda en adoptar las suficientes salvaguardias y supervisión necesarias para obligar a rendir cuentas a un sector tecnológico en constante crecimiento.

MANUAL GENERAL:

DEFENDER LOS DERECHOS DE LAS PERSONAS REFUGIADAS Y MIGRANTES EN LA ERA DIGITAL

Amnistía Internacional

5

6. Mark Latonero y Paula Kift, “On Digital Passages and Borders: Refugees and the New Infrastructure for Movement and Control”, 20 de marzo de 2018, https://journals.sagepub.com/doi/full/10.1177/2056305118764432

2. TERMINOLOGÍA CLAVE

ALGORITMOS

Un algoritmo es una lista de reglas matemáticas que resuelven un problema. Las reglas deben seguir el orden correcto, como en una receta de cocina. Los algoritmos son los ladrillos de la Inteligencia Artificial (IA) y el Aprendizaje Automático (AA). Permiten a las tecnologías de IA y AA entrenarse con datos de problemas ya resueltos para que sean capaces de resolver problemas a partir de datos nuevos.

COMPLEJO INDUSTRIAL FRONTERIZO

Este concepto —también denominado en ocasiones “industria de la vigilancia de fronteras” o “complejo industrial de la inmigración”— se refiere a las estrechas interrelaciones entre los gobiernos y el sector privado, incluidas empresas tecnológicas, en los sistemas de gestión del asilo y la migración.7

DATOS BIOMÉTRICOS

Son datos basados en características físicas o biológicas de las personas, como las huellas dactilares, las huellas del iris, imágenes faciales y otras características muy personales. Estos datos suelen recopilarse y almacenarse con fines de identificación de la persona o autenticación de su identidad.8

DISCRIMINACIÓN INTERSECCIONAL

Se produce cuando la combinación de distintos motivos de discriminación da lugar a una desventaja mayor o diferenciada. Por ejemplo, la discriminación y las violaciones de derechos humanos que sufren las personas negras o musulmanas que solicitan asilo —cuya probabilidad de ser detenidas con fines de control migratorio es mayor— se deben a una combinación de su raza, origen nacional, condición migratoria y situación de ciudadanía, reales o supuestos.

DISCRIMINACIÓN RACIAL

La Convención Internacional sobre la Eliminación de Todas las Formas de Discriminación Racial define la discriminación racial como

“toda distinción, exclusión, restricción o preferencia basada en motivos de raza, color, linaje u origen nacional o étnico que tenga por objeto o por resultado anular o menoscabar el reconocimiento, goce o ejercicio, en condiciones de igualdad, de los derechos humanos y libertades fundamentales en las esferas política, económica, social, cultural o en cualquier otra esfera de la vida pública”.9

7. Todd Miller, “Why climate action needs to target the border industrial complex”, 1 de noviembre de 2019, Al Yazira, https://www.aljazeera.com/opinions/2019/11/1/why-climate-action-needs-to-target-the-border-industrial-complex; Tanya GolashBoza, “The immigration industrial complex: why we enforce immigration policies destined to fail”, 18 de marzo de 2009, Sociology Compass, Vol. 3, Nº 2, pp. 295–309.

8. The Engine Room, Primer: Biometrics in the Humanitarian Sector, julio de 2023, https://www.theengineroom.org/wp-content/ uploads/2023/07/TER-Biometrics-Primer-2023.pdf

9. Convención Internacional sobre la Eliminación de Todas las Formas de Discriminación Racial, artículo 1, https://www.ohchr.org/es/instruments-mechanisms/instruments/international-convention-elimination-all-forms-racial

MANUAL GENERAL:

DEFENDER LOS DERECHOS DE LAS PERSONAS REFUGIADAS Y MIGRANTES EN LA ERA DIGITAL

Amnistía Internacional

6

EXTERNALIZACIÓN

Conjunto de políticas de gestión de la migración enfocadas a delegar en otros países la responsabilidad de ofrecer protección internacional a las personas refugiadas y solicitantes de asilo, o a conseguir que los países de origen o de tránsito refuercen el control de sus fronteras. Las políticas de externalización tienen el objetivo común de impedir o castigar que las personas refugiadas, migrantes y solicitantes de asilo crucen las fronteras irregularmente, a menudo movilizando y aprovechando fondos internacionales para ayuda humanitaria.

FRONTERAS “INTELIGENTES”

El uso de sistemas tecnológicos para reforzar las fronteras, como la identificación y el registro biométricos, la detección automatizada del movimiento humano y el reconocimiento de objetos, los sistemas automatizados de entrada y salida en las fronteras o las aplicaciones digitales que rigen las solicitudes de asilo, por nombrar unos cuantos.

INTELIGENCIA ARTIFICIAL (IA)

No existe un consenso general sobre la definición de IA porque el término no se refiere a una única tecnología, sino que engloba una miríada de métodos y aplicaciones tecnológicas. La mayoría de las definiciones formales se refieren a una serie de procesos basados en datos que permiten a los ordenadores ejecutar tareas muy concretas o más generales —como tomar decisiones o resolver problemas— en sustitución de las personas o para ayudarlas.

Amnistía Internacional ha adoptado a propósito una definición amplia de IA para poder analizar de forma adecuada y holística las repercusiones en materia de derechos humanos de los diversos componentes, prácticas y procesos que implican las tecnologías de IA.

En términos generales, IA es todo sistema o técnica que permite a los ordenadores imitar el comportamiento humano.

INTEROPERABILIDAD

Capacidad de un sistema o base de datos para intercambiar o buscar información con fluidez dentro de otro sistema o base de datos.

NO DEVOLUCIÓN (NON-REFOULEMENT)

Los Estados tienen la obligación jurídica de no devolver ni trasladar a ninguna persona a un lugar o jurisdicción donde corra un peligro real de sufrir persecución u otros abusos o violaciones graves de derechos humanos.

RACISMO SISTÉMICO

El Comité Asesor del Consejo de Derechos Humanos de la ONU ha señalado que el racismo es un problema sistémico que

“opera a través de una red interrelacionada o estrechamente coordinada de leyes, políticas, prácticas, actitudes, estereotipos y prejuicios. Lo sostienen un amplio abanico de agentes, entre los que se encuentran las instituciones del Estado, el sector privado y las estructuras de la sociedad en sentido amplio. Esto resulta no solo en la discriminación expresa, directa, de iure o intencionada, sino también en la discriminación, la distinción, la exclusión, la restricción o la preferencia encubiertas, indirectas, de facto o no intencionadas por motivos de raza, color, linaje u origen nacional o étnico. A menudo tiene sus raíces en el legado histórico de la esclavitud, el comercio de africanos esclavizados y el colonialismo. Esto tiende a determinar las oportunidades y los resultados de generación en generación”.10

10. Promover la justicia y la igualdad raciales erradicando el racismo sistémico. Informe del Comité Asesor del Consejo de Derechos Humanos, 8 de agosto de 2023, doc. ONU A/HRC/54/70, párr. 7, https://undocs.org/Home/ Mobile?FinalSymbol=A%2FHRC%2F54%2F70&Language=E&DeviceType=Desktop&LangRequested=False

MANUAL GENERAL:

DEFENDER LOS DERECHOS DE LAS PERSONAS REFUGIADAS Y MIGRANTES EN LA ERA DIGITAL Amnistía Internacional

7

RECONOCIMIENTO FACIAL

Técnica de visión por ordenador —es decir, un método de identificación visual de objetos, personas y terrenos en sistemas informáticos— empleada para identificar rostros de personas. Para ello se utiliza una imagen facial de referencia (por ejemplo, una fotografía obtenida de una grabación de un circuito cerrado de televisión) junto con un algoritmo previamente entrenado para mapear, identificar y comparar imágenes procedentes de otras bases de datos (como registros de permisos de conducción, perfiles de redes sociales, etc.).

La tecnología de reconocimiento facial con fines de identificación (también llamado reconocimiento facial 1:n) es por naturaleza una tecnología de vigilancia masiva y, por consiguiente, vulnera el derecho a la privacidad.

El reconocimiento facial con fines de autenticación (comúnmente llamado reconocimiento facial 1:1) emplea un proceso distinto, en el que dos imágenes se comparan directamente, y suele implicar al individuo en cuestión, por ejemplo cuando se compara la imagen de una persona con la fotografía de su pasaporte, o cuando se utiliza el propio rostro para descolgar el teléfono.

TECNOLOGÍAS GPS

Sistema de Posicionamiento Global: sistema de navegación utilizado para identificar la posición longitudinal y latitudinal de personas, objetos y lugares en todo el planeta.

TECNOSOLUCIONISMO

Se basa en la idea de que es posible superar problemas sociales, económicos y políticos complejos mediante la tecnología.

MANUAL GENERAL:

DEFENDER LOS DERECHOS DE LAS PERSONAS REFUGIADAS Y MIGRANTES EN LA ERA DIGITAL

Amnistía Internacional

8

3. LOS EFECTOS DE LA TECNOLOGÍA

DIGITAL SOBRE LOS DERECHOS DE LAS PERSONAS REFUGIADAS Y MIGRANTES

3.1 “ALTERNATIVAS A LA DETENCIÓN” TECNOLÓGICAS

La detención relacionada con la migración es con frecuencia abusiva y discriminatoria, tanto porque suele ser arbitraria y dirigirse contra las personas racializadas como porque las violaciones de derechos humanos de los Estados y los abusos de las empresas privadas a menudo suceden durante la detención con fines de control migratorio.11 La detención con fines de control migratorio conlleva el riesgo de tener efectos racialmente dispares, ya que se efectúa selectivamente en función de la raza, etnia y religión supuestas de las personas.12 Además, la detención en sí constituye una grave restricción de derechos humanos y, en concreto, una grave intromisión en el derecho a la libertad, que sólo se puede restringir en circunstancias concretas y muy excepcionales. Con arreglo al derecho internacional, el disfrute de la libertad personal debe ser la condición predeterminada de cualquier persona. La población refugiada, migrante o solicitante de asilo debe beneficiarse, como toda la demás, de la presunción legal de libertad y, en consecuencia, toda restricción de su libertad debe estar prescrita claramente en la ley y justificada rigurosamente por un fin legítimo, además de ser necesaria, proporcionada y no discriminatoria.

Varios Estados han adoptado programas de alternativas a la detención (ATD, por su sigla en inglés), supuestamente para reducir el uso de la detención con fines de control migratorio, que incluyen medidas como la libertad bajo fianza, la residencia designada, el toque de queda domiciliario, la libertad bajo supervisión comunitaria o la administración de casos.13 Algunos también han adoptado programas de medidas no privativas de libertad basados en el uso de productos electrónicos que ofrecen alternativas a la detención tecnológicas (e-ATD), como las pulseras de control telemático y las aplicaciones de

11. Amnistía Internacional, Lithuania: Forced out or locked up: refugees and migrants abused and abandoned (EUR 53/5735/2022), 27 de junio de 2022, https://www.amnesty.org/es/documents/eur53/5735/2022/en/; Latvia: Return home or never leave the woods”: Refugees and migrants arbitrarily detained, beaten and coerced into “voluntary” returns (EUR 52/5913/2022), 12 de octubre de 2022, https://www.amnesty.org/es/documents/eur52/5913/2022/en/; Libia: “Nadie va a venir a buscarte”: Devoluciones desde el mar a centros de detención abusivos en Libia (MDE 19/4439/2021), 15 de julio de 2021, https://www.amnesty.org/es/documents/ mde19/4439/2021/es. Amnistía Internacional, Canada: “I didn't feel Like a Human in There”: Immigration Detention in Canada and Its Impact on Mental Health (AMR 20/4195/2021), 17 de junio de 2021, https://www.amnesty.org/es/documents/amr20/4195/2021/en

12. Amnistía Internacional, “Américas: Los Estados deben poner fin al trato racista a la población haitiana solicitante de asilo”, 20 de junio de 2023, www.amnesty.org/es/latest/news/2023/06/end-racist-treatment-haitian-asylum-seekers; España: Parad el racismo, no a las personas. Perfiles raciales y control de la inmigración en España (EUR 41/011/2011), 14 de diciembre de 2011, https://www.amnesty.org/es/documents/eur41/011/2011/es; Libia: “Entre la vida y la muerte”: Personas refugiadas y migrantes atrapadas en la espiral de abusos de Libia (MDE 19/3084/2020), 24 de septiembre de 2020, https://www.amnesty.org/es/documents/mde19/3084/2020/es/

13. El derecho internacional de los derechos humanos restringe el uso de medidas privativas y no privativas de libertad —es decir, la detención y las medidas distintas de la detención, también llamadas “alternativas a la detención”— con fines de control migratorio. Como sucede con el uso de la detención, estas “alternativas” deben cumplir los principios de legalidad, necesidad, proporcionalidad y no discriminación.

MANUAL GENERAL:

DEFENDER LOS DERECHOS DE LAS PERSONAS REFUGIADAS Y MIGRANTES EN LA ERA DIGITAL Amnistía Internacional

9

reconocimiento facial y de voz. Por ejemplo, en 2004, el Departamento de Seguridad Nacional de Estados Unidos puso en marcha dos programas —el Programa de Comparecencia de Supervisión Intensiva (ISAP) y el Programa de Dispositivos de Vigilancia Electrónica (EMD)— para aplicar medidas no privativas de libertad a migrantes y solicitantes de asilo. Según el Servicio de Inmigración y Control de Aduanas de Estados Unidos, tenían como fin “ampliar las opciones de puesta en libertad para extranjeros adultos, ayudando a los funcionarios a vigilar de cerca a los extranjeros puestos en libertad en la comunidad”.14 El programa ISAP llegó a tener más de 350.000 personas inscritas, pero ese número ha ido descendiendo.15

Mientras estos productos proliferan, personal académico y defensores y defensoras de los derechos humanos vinculan estos programas a violaciones de derechos humanos reales y potenciales.16 Un motivo de preocupación importante es la falta de transparencia o de vigilancia en lo referente a las medidas de privacidad y seguridad que adoptan las empresas a la hora de diseñar y desarrollar herramientas e-ATD. No se trata sólo de preocupación por unas medidas blandas de ciberseguridad o por posibles filtraciones de datos. Existe el riesgo de violar el derecho a la privacidad de las personas migrantes y solicitantes de asilo —y la de sus familias en algunos casos— mediante la vigilancia constante de sus movimientos, que puede ser innecesaria o desproporcionada, o ambas cosas. Además, la opacidad de las prácticas de intercambio de datos entre empresas privadas, socios terceros y organismos gubernamentales —como los encargados de hacer cumplir la ley y las oficinas de control de fronteras— también es motivo de alarma. Por ejemplo, las asociaciones corporativas del Servicio de Inmigración y Control de Aduanas (ICE) con empresas tecnológicas como Palantir se han relacionado directamente con la capacidad del organismo de usar técnicas de vigilancia masiva de datos para buscar, detectar y detener a personas trabajadoras migrantes indocumentadas. Cerca de 700 trabajadores y trabajadoras fueron detenidos por el ICE durante el registro de una procesadora de pollo de Misisipi en 2019; múltiples medios de comunicación informaron de que se había utilizado Falcon —aplicación predictiva y de mapeo de relaciones suministrada por Palantir que utiliza la Oficina de Investigaciones de Seguridad Nacional (HSI) del ICE— para llevar a cabo la operación.17

Palantir ha negado cualquier acción ilícita a Amnistía Internacional, afirmando que “no posee ni controla datos, sino que permite a sus clientes analizar sus propios datos”.18

Además, las herramientas e-ATD, ya sean pulseras de control telemático o dispositivos de control por voz, tienden a dar falsos positivos y fallos técnicos que pueden llevar a penalizar arbitrariamente a migrantes, incluso por su acento o su manera de hablar, lo que afecta de forma desproporcionada a las personas racializadas.19

En 2016, Reino Unido aprobó el “etiquetado” obligatorio de todas las personas extranjeras en espera de expulsión con pulseras de control telemático.20 En agosto de 2021 se extendió la medida a la población inmigrante en libertad bajo fianza. En septiembre de 2022 había casi 15.000 personas inscritas en los programas de vigilancia electrónica de Reino Unido, lo que indicaba la expansión de un sistema que pone en peligro derechos humanos, entre ellos el derecho a la dignidad y el respeto, el derecho a la privacidad y el derecho a la autonomía corporal. En mayo de 2022 se presentaron planes para adoptar formas más avanzadas de estos métodos de vigilancia ya invasivos; en una evaluación del impacto sobre la protección de datos publicada a raíz de una solicitud de acceso a la información presentada por Privacy International,

14. Wesley J. Lee, director en funciones de Operaciones de Detención y Expulsión, Servicio de Inmigración y Control de Aduanas de Estados Unidos. Memorándum para los directores de las oficinas de campo. “Criterios de admisión para la inscripción en el Programa de Comparecencia de Supervisión Intensiva (ISAP) y el Programa de Dispositivos de Vigilancia Electrónica (EMD)”, 11 de mayo de 2005, disponible en https://www.scribd.com/document/24704584/ICE-Guidance-Memo-Eligibility-Criteria-for-EnrollmentInto-the-Intensive-Supervision-Appearance-Program-ISAP-and-the-Electronic-Monitoring-Device

15. TRAC, Universidad de Siracusa, “Detained Immigrant Population Grows to Nearly 40,000, the Highest Point in Nearly Four Years”, 16 de noviembre de 2023, https://trac.syr.edu/whatsnew/email.231116.html

16. Johana Bhuiyan, The Guardian, “Migrant advocates sue US government for data from surveillance program”, 14 de abril de 2022, https://www.theguardian.com/us-news/2022/apr/14/immigration-advocates-alternative-to-detention-lawsuit-ice

17. .Amnistía Internacional, USA: Failing to do right: The urgent need for Palantir to respect human rights (AMR 51/3124/2020), 28 de septiembre de 2020, https://www.amnesty.org/es/documents/amr51/3124/2020/en; Mijente, “BREAKING: Palantir’s technology used in Mississippi raids where 680 were arrested”, 4 de octubre de 2019, https://www.ohchr.org/sites/default/files/Documents/Issues/ Racism/SR/RaceBordersDigitalTechnologies/Palantirs_technology_used_in_Mississippi_raids_where_680_were_arrested.pdf

18. Encontrarán el texto íntegro de la carta de Palantir en el anexo a este informe: Amnistía Internacional, USA: Failing to do right: The urgent need for Palantir to respect human rights (AMR 51/3124/2020), 28 de septiembre de 2020, https://www.amnesty.org/es/ documents/amr51/3124/2020/en

19. Jack Karsten y Darrell M. West., “Decades later, electronic monitoring of offenders is still prone to failure”, Brookings Institute (Techtank blog), 21 de septiembre de 2017, https://www.brookings.edu/articles/decades-later-electronic-monitoring-of-offendersis-still-prone-to-failure; Bajorek, Joan Palmiter, Harvard Business Review, “Voice Recognition Still Has Significant Race and Gender Biases”, 10 de mayo de 2019, https://hbr.org/2019/05/voice-recognition-still-has-significant-race-and-gender-biases

20. Ministerio de Justicia, Electronic Monitoring Statistics Publication, England and Wales: September 2022, 20 de octubre de 2022, https://www.gov.uk/government/statistics/electronic-monitoring-statistics-publication-september-2022/electronic-monitoring-statisticspublication-england-and-wales-september-2022 (consultado el 25 de enero de 2024).

MANUAL GENERAL:

DEFENDER LOS DERECHOS DE LAS PERSONAS REFUGIADAS Y MIGRANTES EN LA ERA DIGITAL Amnistía Internacional

10

el Ministerio del Interior británico anunciaba sus planes de implementar un sistema de seguimiento mediante relojes de pulsera inteligentes para controlar diariamente a las personas solicitantes de asilo residentes en Reino Unido.21

Aunque el derecho internacional de los derechos humanos sólo permite la intromisión en el derecho a la privacidad si no es arbitraria ni ilegítima, las personas en movimiento —ya sean refugiadas, migrantes o solicitantes de asilo o tengan un estatus migratorio precario— cada vez tienen que arriesgar más sus derechos humanos a cambio de la posibilidad de cruzar.

El derecho y las normas internacionales de derechos humanos establecen tres condiciones que han de cumplirse para determinar si una injerencia en el derecho a la privacidad es legítima o constituye una violación de derechos humanos: en primer lugar, toda injerencia debe estar prescrita por ley y ajustarse a la ley (legalidad); en segundo lugar, debe perseguir un fin legítimo; y en tercer lugar, debe ser estrictamente necesaria para lograr un fin legítimo, como proteger la seguridad nacional o el orden público (necesidad) y llevarse a cabo de manera proporcionada a ese fin y no discriminatoria, lo cual significa equilibrar la naturaleza y el alcance de la injerencia con el motivo para realizarla (proporcionalidad). Las alternativas a la detención basadas en la tecnología ponen en primer plano la cuestión de si son medidas proporcionadas, sobre todo cuando implican el uso de tecnologías experimentales que repercuten de muchas formas en el derecho a la privacidad.

Otro motivo de preocupación importante en materia de derechos humanos es que el uso de estas tecnologías también potencia el uso de criterios raciales y la actuación policial racista. El racismo sistémico, además, favorece la comisión de violaciones de derechos humanos en los sistemas de asilo y gestión migratoria, también en el uso de herramientas e-ATD. El racismo intrínseco a los sistemas de aplicación de la ley y de gestión de la inmigración suele dar lugar a actuaciones selectivas contra personas y comunidades racializadas, lo que contribuye a la criminalización de las personas racializadas en movimiento.22

CUADRO 1: EMPRESAS Y DERECHOS HUMANOS

Todas las empresas tienen la responsabilidad de respetar los derechos humanos con independencia del lugar del mundo donde operen y en todas sus actividades; es un concepto establecido claramente en los Principios Rectores de la ONU sobre las Empresas y los Derechos Humanos.23 Dicha responsabilidad es independiente de las propias obligaciones que imponen los Estados en materia de derechos humanos; se trata de una responsabilidad adicional a la de cumplir las leyes y normas nacionales de protección de los derechos humanos.24

La responsabilidad de respetar los derechos humanos exige que las empresas eviten causar o contribuir a causar abusos contra estos derechos a través de sus propias actividades empresariales, y que hagan frente a las consecuencias negativas en las que tengan alguna participación, lo que incluye remediar cualquier abuso causado. Asimismo les exige tratar de prevenir o mitigar las consecuencias negativas sobre los derechos humanos directamente vinculadas a las operaciones, productos o servicios de sus relaciones comerciales, aun cuando no hayan contribuido a causarlas.25 Deben también abstenerse de presionar a los gobiernos para obtener concesiones o favores como, por ejemplo, modificaciones ventajosas de leyes o políticas con efectos perjudiciales para los derechos humanos de otras personas.

21. Nicola Kelly, The Guardian, “Facial recognition smartwatches to be used to monitor foreign offenders in UK”, 5 de agosto de 2022, https://www.theguardian.com/politics/2022/aug/05/facial-recognition-smartwatches-to-be-used-to-monitor-foreign-offenders-in-uk

22. Monish Bhatia, “Racial surveillance and the mental health impacts of electronic monitoring on migrants”, 26 de enero de 2021, Race & Class, Vol. 62, Nº 3, pp. 18-36, https://doi.org/10.1177/0306396820963485

23. Esta responsabilidad fue reconocida expresamente por el Consejo de Derechos Humanos el 16 de junio de 2011, al respaldar los Principios Rectores de la ONU sobre las Empresas y los Derechos Humanos, y el 25 de mayo de 2011, cuando los 42 Estados que se habían adherido a la Declaración sobre Inversión Internacional y Empresas Multinacionales de la OCDE suscribieron por unanimidad una versión revisada de las Líneas Directrices de la OCDE para Empresas Multinacionales. Véanse Los derechos humanos y las empresas transnacionales y otras empresas, Consejo de Derechos Humanos, Resolución 17/4, doc. ONU A/ HRC/RES/17/4, 6 de julio de 2011; Líneas Directrices de la OCDE para Empresas Multinacionales, 2011, oecd.org/daf/inv/mne/ MNEguidelinesESPANOL.pdf

24. Principios Rectores de la ONU sobre las Empresas y los Derechos Humanos, principio 11 (incluido el comentario).

25. Oficina del Alto Comisionado de la ONU para las Naciones Unidas, Principios rectores sobre las empresas y los derechos humanos: Puesta en práctica del marco de las Naciones Unidas para “proteger, respetar y remediar” (2011), doc. ONU HR/PUB/11/04, http://www.ohchr.org/Documents/Publications/GuidingPrinciplesBusinessHR_SP.pdf.

MANUAL GENERAL:

DEFENDER LOS DERECHOS DE LAS PERSONAS REFUGIADAS Y MIGRANTES EN LA ERA DIGITAL Amnistía Internacional

11

3.2 EXTERNALIZACIÓN DE FRONTERAS Y TECNOLOGÍA

Como parte de los esfuerzos para impedir la llegada irregular de personas refugiadas y migrantes, los Estados del Norte global han adoptado medidas fuera de sus propias fronteras a través de la cooperación con otros países. Estas medidas, descritas como “externalización”, extienden los controles de inmigración a lo largo de las rutas de tránsito y pueden incluir acuerdos formales o informales para destinar fondos y apoyo técnico a los organismos de control de fronteras de los países socios, incluidas herramientas operativas que facilitan la contención y las devoluciones.26

Cada vez se adoptan más políticas de externalización de fronteras a través del uso de tecnologías digitales sofisticadas e invasivas. Estas tecnologías refuerzan formas racializadas de exclusión para disuadir de circular a las personas migrantes, solicitantes de asilo y refugiadas que son negras, musulmanas y de otros grupos racializados.27 Por ejemplo, la Unión Europea (UE) ha extendido en la práctica sus fronteras hasta el Mediterráneo y las zonas de tránsito en África mediante una diversidad de tecnologías —como radares, cámaras de alta tecnología, datos de satélite, sensores electroópticos (por ejemplo, detección de movimiento), drones y sistemas biométricos— que afectan a las personas refugiadas, migrantes o solicitantes de asilo que son africanas negras.28

Estas tecnologías comportan peligros adicionales para los derechos humanos. Estados Unidos y los países de la UE han alcanzado acuerdos de externalización que implican el intercambio de datos y tecnología con países que tienen un historial de violaciones de derechos humanos graves y generalizadas contra las personas refugiadas y migrantes. Por ejemplo, a través de la provisión de recursos, formación y coordinación de la asistencia a las autoridades de Libia, la UE ha capacitado a la guardia costera libia para interceptar embarcaciones y llevar a las personas refugiadas y migrantes de regreso a ese país, donde están expuestas a sufrir detención arbitraria, tortura y otros malos tratos —incluida violencia sexual— y otros abusos y violaciones de derechos humanos.29 Este apoyo se refuerza a través de la propia vigilancia aérea en tiempo real de la UE: tanto Italia como la Agencia Europea de la Guardia de Fronteras y Costas (Frontex) operan drones y otros recursos aéreos sobre el Mediterráneo Central para detectar embarcaciones de personas refugiadas y migrantes en el mar e informar de su posición a las autoridades libias, dando pie a su intervención. Además, el sistema de vigilancia Eurosur de Frontex también recopila información a través de radares y satélites, que comparte con varios países a través de las redes “Seahorse”.30

Cada vez hay más denuncias de que el uso de la tecnología para vigilar, seguir e interceptar a personas refugiadas y migrantes en su viaje puede contribuir a su muerte, ya que optan por tomar rutas más peligrosas para eludir la vigilancia. Por ejemplo, un estudio reciente con análisis geoespacial mostraba una correlación positiva entre “las dificultades y el sufrimiento” —y por extensión, la mortalidad de las personas migrantes a lo largo de la frontera de Estados Unidos y México entre los estados de Arizona y Sonora— y la expansión de la infraestructura de vigilancia “inteligente” en la zona, que incluye sofisticadas torres de vigilancia que emplean inteligencia artificial.31 Este caso también es un ejemplo de cómo el uso de la tecnología tiene efectos racialmente dispares que perjudican a las personas y comunidades negras, latinoamericanas y a otras personas y comunidades racializadas, al aumentar el peligro de que se apliquen criterios raciales en la frontera.32

26. Amnistía Internacional, Human rights risks of external migration policies (POL 30/6200/2017), 13 de junio de 2017, https://www.amnesty.org/es/documents/pol30/6200/2017/en/

27. E. Tendayi Achiume, “Digital Racial Borders”, 11 de octubre de 2021, AJIL Unbound, vol. 115, pp. 333-38, https://doi.org/10.1017/aju.2021.52

28. Ruben Andersson, Illegality, Inc.: Clandestine Migration and the Business of Bordering Europe, University of California Press, 2014, pp. 84-7; Frontex, Artificial Intelligence-based capabilities for the European Border and Coast Guard, 17 de marzo de 2021, https://www.frontex.europa.eu/assets/Publications/Research/Frontex_AI_Research_Study_2020_executive_summary.pdf.

29. Amnistía Internacional, “Libia: Nuevas pruebas sobre personas refugiadas y migrantes atrapadas en una horrible espiral de abusos”, 24 de septiembre de 2020, https://www.amnesty.org/es/latest/press-release/2020/09/libya-new-evidence-shows-refugees-andmigrants-trapped-in-horrific-cycle-of-abuses; Libia: “Nadie va a venir a buscarte”: Devoluciones desde el mar a centros de detención abusivos en Libia (MDE 19/4439/2021), 15 de julio de 2021, https://www.amnesty.org/es/documents/mde19/4439/2021/es

30. Amnesty International, “Contribution to European Ombudsman’s Strategic Inquiry OI/3/2023/MHZ”, 31 de oc2023, https://www.amnesty.eu/news/contribution-to-european-ombudsmans-strategic-inquiry-oi-3-2023-mhz-the-role-of-the-europeanborder-and-coast-guard-agency-frontex-in-the-context-of-search-and-rescue-operations/

31. Samuel Norton Chambers, Geoffrey Alan Boyce, Sarah Launius y Alicia Dinsmore, “Mortality, surveillance and the tertiary “funnel effect” on the US-Mexico border: a geospatial modeling of the geography of deterrence”, 31 de enero de 2019, Journal of Borderlands Studies, Vol. 36, Nº 3, pp.443-468, https://www.tandfonline.com/doi/abs/10.1080/08865655.2019.1570861

32. Amnistía Internacional, EE. UU.: En terreno hostil. Las violaciones a los Derechos Humanos en la aplicación de las leyes de inmigración en el Suroeste de Estados Unidos (AMR 51/018/2012), 28 de marzo de 2012, https://www.amnesty.org/es/documents/amr51/018/2012/es

33. Amnistía Internacional, Human rights risks of external migration policies (POL 30/6200/2017), 13 de junio de 2017, https://www.amnesty.org/es/documents/pol30/6200/2017/en

MANUAL GENERAL:

DEFENDER LOS DERECHOS DE LAS PERSONAS REFUGIADAS Y MIGRANTES EN LA ERA DIGITAL

Amnistía Internacional

12

Desde la perspectiva del derecho internacional, las políticas de migración externas no son ilegítimas per se. Sin embargo, las políticas centradas en la externalización del control de las fronteras o la tramitación del asilo entrañan riesgos muy importantes en materia de derechos humanos, y su aplicación suele dar lugar a la contención de las personas refugiadas, migrantes y solicitantes de asilo en países donde corren peligro de sufrir violaciones graves de derechos humanos, o su devolución a ellos. Los derechos que peligran son, entre otros, el derecho a solicitar y recibir asilo, el derecho a no sufrir detención ni reclusión arbitraria, el derecho de protección con arreglo al principio de no devolución (non-refoulement) —que impone a los Estados la prohibición de trasladar o devolver a la persona, por el medio que sea, a un lugar donde corra peligro real de sufrir tortura u otras violaciones graves de derechos humanos33 y el derecho a no sufrir discriminación.

Además, las medidas de externalización, que descargan en terceros países la responsabilidad de ofrecer protección internacional, agravan el injusto reparto de la responsabilidad de proteger a las personas refugiadas entre los países del Norte global y los del Sur global, que acogen a la inmensa mayoría de ellas. Por último, la externalización de la protección de las personas refugiadas tampoco se atiene a los principios de solidaridad y cooperación internacional en los que se sustenta el sistema de protección internacional.

3.3 SOFTWARE DE EXTRACCIÓN DE DATOS

Existe una tendencia creciente a utilizar software de extracción de datos con fines de control migratorio. Como ha señalado la relatora especial sobre las formas contemporáneas de racismo, “se dirige únicamente a los solicitantes de asilo y está justificada por un discurso político racista y xenófobo”.34 En países como Alemania, Austria, Bélgica, Dinamarca, Noruega y Reino Unido, la legislación permite requisar el teléfono a migrantes y solicitantes de asilo y extraer datos de él para comprobar la veracidad de sus declaraciones durante la tramitación de su solicitud de asilo.35 Para ello pueden examinar las búsquedas, navegaciones y actividades en redes sociales, rastrear el historial de viaje a través de los metadatos y registros de GPS, e incluso acceder a información en la nube que la persona tal vez cree que ha borrado.36

El uso de software de extracción de datos del teléfono ha sido objeto de una demanda presentada por la ONG alemana Gesellschaft für Freiheitsrechte (GFF) en representación de tres solicitantes de asilo.37 La Oficina Federal de Migración y Refugiados de Alemania (BAMF, por su sigla en alemán) adoptó en 2017 una política que permitía a la Oficina “extraer y analizar datos de soportes de datos como el teléfono para comprobar el origen y la identidad declarados por su propietario”.38 Sólo los profesionales de la abogacía tienen acceso al sistema, que genera un informe por cada caso de extracción; las personas solicitantes no pueden acceder a él. Según se resume en un informe de GFF, el 64% de los casos no arrojan resultados útiles, el 34% confirman el origen y la identidad declarados, y sólo el 2% contradicen lo que afirman las personas solicitantes. En la demanda, los demandantes alegaban que las autoridades alemanas violaban su derecho a la privacidad al ordenarles por sistema que desbloquearan su teléfono móvil y lo entregaran para su “evaluación”.39 El tribunal resolvió que, en este caso concreto, los registros eran sistemáticamente desproporcionados ya que era posible adoptar medidas menos invasivas. Dejó sin resolver la cuestión de si la práctica podía considerarse legítima en otros casos.

34. Discriminación racial y xenófoba y uso de tecnologías digitales en el control de fronteras e inmigración. Informe de la Relatora Especial sobre las formas contemporáneas de racismo, discriminación racial, xenofobia y formas conexas de intolerancia, E. Tendayi Achiume (citado anteriormente), párr. 33.

35. Petra Molnar, Red Europea de Derechos Digitales (EDRi) y Laboratorio Jurídico de Personas Refugiadas de la Universidad de York, Technological Testing Grounds: Border Tech Is Experimenting with People’s Lives, noviembre de 2020, https://edri.org/wp-content/uploads/2020/11/Technological-Testing-Grounds.pdf, p.18.

36. Privacy International, The UK’s Privatised Migration Surveillance Regime: A rough guide for civil society, febrero de 2021, https://www.privacyinternational.org/sites/default/files/2021-01/PI-UK_Migration_Surveillance_Regime.pdf

37. TRT World, “Refugees take Germany to court over mobile phone data checks”, 6 de mayo de 2020, https://www.trtworld.com/europe/refugees-take-germany-to-court-over-mobile-phone-data-checks-36057

38. Anna Biselli y Lea Beckmann, Invading Refugees’ Phones: Digital Forms of Migration Control in Germany and Europe, febrero de 2020, https://www.ohchr.org/sites/default/files/Documents/Issues/Racism/SR/RaceBordersDigitalTechnologies/Gesellschaft_fur_ Freiheitsrechte.pdf

39. Gesellschaft für Freiheitsrechte, Invading Refugees' Phones: Digital Forms of Migration Control in Germany and Europe, diciembre de 2019, https://freiheitsrechte.org/uploads/publications/Digital/Study_Invading-Refugees-Phones_Digital-Forms-of-Migration-ControlGesellschaft_fuer_Freiheitsrechte_2019.pdf.

MANUAL GENERAL:

DEFENDER LOS DERECHOS DE LAS PERSONAS REFUGIADAS Y MIGRANTES EN LA ERA DIGITAL Amnistía Internacional

13

En marzo de 2022, el Tribunal Supremo de Reino Unido resolvió que el Ministerio del Interior había actuado ilícitamente, infringiendo la legislación sobre derechos humanos y protección de datos, al confiscar los teléfonos de al menos tres solicitantes de asilo que habían llegado en pequeñas embarcaciones y presionarlos para que revelaran sus contraseñas.40 Las opacas políticas de confiscación y retención perpetúan y refuerzan un entorno hostil e inseguro para las personas solicitantes de asilo.

La extracción de datos contra la voluntad de la persona para la tramitación de la solicitud de asilo conlleva múltiples riesgos para los derechos humanos, entre ellos el derecho a la privacidad y el derecho a solicitar asilo, y pone a la persona en peligro de ser devuelta a un país donde está expuesta a sufrir persecución y otras violaciones graves de derechos humanos. La extracción de datos puede representar una intromisión innecesaria y desproporcionada en el derecho a la privacidad de las personas refugiadas y migrantes aprovechando su situación, y suele estar basada en discriminación por motivos de raza, origen étnico o nacional, o situación de ciudadanía.41 Ahora bien, incluso aunque tales sistemas de extracción de datos incorporasen todos los datos disponibles sin discriminación —debido a las especificaciones técnicas de las herramientas empleadas—, incurrirían per se en una intromisión desproporcionada en el derecho a la privacidad. Asimismo se ha expresado preocupación respecto a la fiabilidad de los datos obtenidos mediante estos métodos invasivos y, potencialmente, la extracción de datos puede utilizarse para menoscabar el derecho a un procedimiento de asilo justo ya que permite a las autoridades llegar a conclusiones dudosas y precipitadas sobre la solicitud de la persona en cuestión.42 Además, refuerza la estigmatización y discriminación existentes contra las personas y comunidades racializadas.

CUADRO 2: INTERSECCIONALIDAD

Aunque este manual ofrece una visión general de los efectos perjudiciales en materia de derechos humanos de las tecnologías digitales en la vida de las personas refugiadas, migrantes y solicitantes de asilo, la gravedad de estos efectos puede variar significativamente en función de la edad, el género, la sexualidad, la raza, el origen étnico, la clase o casta, la discapacidad, las circunstancias socioeconómicas y otros factores. En otras palabras, todos estos factores —la edad, el género, la sexualidad, la raza, la etnia, la clase o casta, la situación de discapacidad y las circunstancias socioeconómicas— determinan los riesgos que la tecnología implica para las personas refugiadas, migrantes y solicitantes de asilo y, en algunos aspectos, los agravan. Dado que la discriminación estructural no opera de un modo aislado, una persona puede sufrir formas de discriminación adicionales o únicas debido a la combinación de las distintas formas de discriminación que sufre.

Por ejemplo, las personas refugiadas y migrantes menores de edad pueden ser más vulnerables a una vigilancia y recopilación de datos invasiva debido a su edad, a su autonomía más limitada, al desequilibrio de poder con las personas adultas encargadas de recopilar los datos, y a que su comprensión de las consecuencias a corto y largo plazo de que sus datos sean recopilados es aún más limitada. Gobiernos, empresas y agentes humanitarios deben tener en cuenta estos factores al recopilar los datos biométricos de menores.

Analizar las tecnologías desde una perspectiva de justicia racial igualmente revela graves efectos discriminatorios. La profesora Tendayi Achiume, ex relatora especial de la ONU sobre las formas contemporáneas de racismo, discriminación racial, xenofobia y formas conexas de intolerancia, ha hablado y escrito ampliamente sobre el tema. Anteriormente ha argumentado lo siguiente:

40. Sentencia judicial íntegra en: Tribunales Reales de Justicia, Asunto: CO/4793/2020, CO/577/2021, 25 de marzo de 2022, https://dpglaw.co.uk/wp-content/uploads/2022/03/MA-KH-judgment.pdf

41. Normalmente, este proceso implica una presunción de engaño y emplea variables reductoras (como el idioma del aparato telefónico, dónde se compró y el idioma de las comunicaciones realizadas con él) como indicador del país de procedencia. Gesellschaft für Freiheitsrechte, “Germany: Invading refugees’ phones – security or population control?”, 11 de marzo 2020, https://edri.org/our-work/ germany-invading-refugees-phones-security-or-population-control; Discriminación racial y xenófoba y uso de tecnologías digitales en el control de fronteras e inmigración. Informe de la Relatora Especial sobre las formas contemporáneas de racismo, discriminación racial, xenofobia y formas conexas de intolerancia, E. Tendayi Achiume (citado anteriormente).

42. Amnistía Internacional, “Open Letter to the Rapporteurs on the EU Artificial Intelligence Regulation (AI ACT) to ensure Protection of Rights of Migrants, Asylum Seekers and Refugees”, 26 de abril de 2023, https://www.amnesty.eu/wp-content/uploads/2023/04/ TIGO_IOR_10_2023_3987_Open-letter-to-the-Rapporteurs-on-the-EU-AI-Act-1.pdf

MANUAL GENERAL:

DEFENDER LOS DERECHOS DE LAS PERSONAS REFUGIADAS Y MIGRANTES EN LA ERA DIGITAL Amnistía Internacional

14

“Los ejemplos en diferentes partes del mundo ponen de manifiesto que el diseño y la utilización de las diferentes tecnologías digitales emergentes pueden combinarse de manera intencional y no intencional para generar estructuras racialmente discriminatorias que socavan de manera holística o sistemática el disfrute de los derechos humanos de determinados grupos, por motivos de raza, etnia u origen nacional, solos o en combinación con otros motivos. En otras palabras, en lugar de considerar las tecnologías digitales emergentes no solo como capaces de socavar el acceso y el disfrute de derechos humanos discretos, sino también de crear y mantener la exclusión racial y étnica en términos sistémicos o estructurales”.43

3.4 BIOMETRÍA

La biometría se encuentra entre las tecnologías de uso más extendido con fines de identificación, verificación y autenticación en las fronteras. La recopilación y el uso de datos biométricos suscitan preocupación en relación con las formas directas e indirectas de discriminación basadas en la raza, el origen étnico o nacional, la ascendencia y la religión, como el reconocimiento erróneo de personas negras por las tecnologías de reconocimiento facial o las exclusiones de facto basadas en el origen nacional. Múltiples organismos nacionales e internacionales están creando bases de datos biométricos para cotejar a las personas refugiadas y migrantes con listas de vigilancia, identificar su país de origen y los de tránsito, y verificar su identidad.44 Organizaciones humanitarias como la Agencia de la ONU para los Refugiados (ACNUR)45 y el Programa Mundial de Alimentos (WFP) han creado inmensas bases de datos de iris y huellas dactilares en un intento aparente de evitar registros múltiples y datos duplicados de personas refugiadas. Los Estados miembros de la UE se basan en gran medida en bases de datos que contienen datos biométricos, como Eurodac,46 que, entre otras funciones, ayuda a determinar el Estado responsable de tramitar una solicitud de asilo presentada en la UE.47

En octubre de 2018, la UE anunció que estaba financiando un nuevo sistema de control automatizado de fronteras que se ensayaría en Hungría, Grecia y Letonia. El proyecto, denominado iBorderCtrl, utiliza un sistema de detección de mentiras con inteligencia artificial cuya interfaz es un guardia de fronteras virtual que examina a los viajeros al cruzar la frontera mientras evalúa detalles diminutos de sus expresiones faciales (“microexpresiones”) utilizando tecnologías de reconocimiento facial y emocional. Si el sistema considera que el viajero ha contestado sinceramente a las preguntas planteadas, le proporciona un código que le permite cruzar la frontera, mientras que si no supera esta primera etapa lo transfiere a guardias de frontera reales, que completarán el interrogatorio.48

iBorderCtrl es sólo uno de los muchos proyectos que tratan de aplicar la automatización en las fronteras de la UE con el objetivo de combatir la migración irregular. Esta nueva tendencia dentro de Europa plantea graves preocupaciones de derechos humanos; entre las más importantes, que la detección de mentiras

43. La discriminación racial y las tecnologías digitales emergentes: un análisis de los derechos humanos. Informe de la Relatora Especial sobre las formas contemporáneas de racismo, discriminación racial, xenofobia y formas conexas de intolerancia, E. Tendayi Achiume, doc. ONU A/HRC/44/57, parr. 38, https://www.undocs.org/Home/ Mobile?FinalSymbol=A%2FHRC%2F44%2F57&Language=E&DeviceType=Desktop&LangRequested=False.

44. Claire Walkey, Caitlin Procter y Nora Bardelli, “Biometric refugee registration: between benefits, risks and ethics”, LSE Blog, 18 de julio de 2019, https://blogs.lse.ac.uk/internationaldevelopment/2019/07/18/biometric-refugee-registration-between-benefits-risks-andethics/

45. ACNUR, “Biometric Identity Management System: Enhancing registration and data management”, https://www.unhcr.org/media/biometric-identity-management-system

46. Irma Van der Ploeg, “The illegal body: Eurodac and the politics of biometric identification”, diciembre de 1999, Ethics and Information Technology, Vol. 1, https://doi.org/10.1023/A:1010064613240, pp. 295-302; Reglamento (UE) n° 603/2013 del Parlamento Europeo y del Consejo, de 26 de junio de 2013, relativo a la creación del sistema “Eurodac” para la comparación de las impresiones dactilares para la aplicación efectiva del Reglamento (UE) n° 604/2013, por el que se establecen los criterios y mecanismos de determinación del Estado miembro responsable del examen de una solicitud de protección internacional presentada en uno de los Estados miembros por un nacional de un tercer país o un apátrida, y a las solicitudes de comparación con los datos de Eurodac presentadas por los servicios de seguridad de los Estados miembros y Europol a efectos de aplicación de la ley, y por el que se modifica el Reglamento (UE) n° 1077/2011, por el que se crea una Agencia europea para la gestión operativa de sistemas informáticos de gran magnitud en el espacio de libertad, seguridad y justicia (refundición), https://eur-lex.europa.eu/legal-content/ES/TXT/PDF/?uri=CELEX:32013R0603

47. Reglamento (UE) n° 604/2013 del Parlamento Europeo y del Consejo, de 26 de junio de 2013, por el que se establecen los criterios y mecanismos de determinación del Estado miembro responsable del examen de una solicitud de protección internacional presentada en uno de los Estados miembros por un nacional de un tercer país o un apátrida (texto refundido), https://eur-lex.europa.eu/legal-content/ES/TXT/PDF/?uri=CELEX:32013R0603

48. Amnistía Internacional, “Las tecnologías de automatización y el futuro de la Fortaleza Europa”, 28 de marzo de 2019, https://www.amnesty.org/es/latest/news/2019/03/automated-technologies-and-the-future-of-fortress-europe

MANUAL GENERAL:

DEFENDER LOS DERECHOS DE LAS PERSONAS REFUGIADAS Y MIGRANTES EN LA ERA DIGITAL Amnistía Internacional

15

a partir de microexpresiones ha sido desacreditada por estar basada en la frenología, que tiene claros vínculos y paralelismos con el pensamiento eugenista.49 Se afirma erróneamente que las microexpresiones —mencionadas por primera vez en la obra de Paul Ekman— permiten establecer la veracidad en función de la frecuencia de pestañeo, la dirección de la mirada, el movimiento de los músculos faciales y los cambios en el tono de voz. La herramienta iBorderCTRL clasifica estos datos por niveles de engaño, sobre la base de una referencia universal de la intersección entre las expresiones faciales y la moralidad.

Sin duda, tales suposiciones refuerzan un trato indigno a las personas migrantes, cuyas intenciones no se miden en función de lo que declaran, sino a partir de la disección pseudocientífica de sus expresiones. No sólo es una práctica imprecisa e innecesaria, sino que tiene graves repercusiones para los derechos a la privacidad, a la igualdad, a no sufrir discriminación, a solicitar asilo y a la libertad de circulación. Los sistemas de vigilancia de fronteras adoptados en toda la UE son sólo una de las manifestaciones de la tendencia al tecnosolucionismo, en la que gobiernos y empresas tecnológicas por igual recurren a soluciones de alta tecnología para resolver problemas de todo tipo, desde el cambio climático a la hambruna y la migración, y a menudo se desvían de las soluciones de política estructural no técnicas que se necesitan. A la vista del volumen de inversiones en proyectos que utilizan tecnologías automatizadas con fines de control fronterizo financiadas por Horizon 2020, 50 el mayor programa de investigación e innovación que ha tenido la UE, está muy claro el interés de la UE en este ámbito.

Por ejemplo, de 2014 a 2020, Frontex invirtió 434 millones de euros en vigilancia e infraestructura de TIC, y la Comisión Europea aprobó destinar alrededor de 34.900 millones de euros al control de las fronteras en general entre 2021 y 2027.51 Esto incluye, por ejemplo, el próximo Sistema Europeo de Información y Autorización de Viajes (SEIAV). El SEIAV cruza información con fuentes abiertas en línea —incluidas las redes sociales e información médica— para evaluar la identidad digital y determinar la amenaza que un viajero puede representar para la seguridad de Europa. Esta clase de sistemas facilitan y refuerzan la exclusión racializada.52

En 2016 y 2020, la Comisión Europea propuso revisiones sucesivas del Reglamento Eurodac, que tenía como fin ampliar la base de datos biométricos de migrantes Eurodac. El 20 de diciembre de 2023, el Consejo y el Parlamento Europeo alcanzaron un acuerdo político sobre este reglamento, como parte de un paquete general de reformas. Las reformas, que se adoptarán formalmente en 2024, ampliarán las categorías de datos personales almacenados en Eurodac, para que incluya, por ejemplo, imágenes faciales; harán obligatoria la recopilación de datos biométricos de toda persona con más de 6 años de edad (en comparación con los 14 años según el reglamento actual); ampliarán el alcance personal de Eurodac, y facilitarán a las autoridades encargadas de hacer cumplir la ley el acceso a los datos.53

Los datos biométricos se consideran especialmente delicados, ya que permiten identificar a un individuo a través de un registro de características personales inmutables. La creación de registros biométricos permanentes de personas refugiadas y migrantes entraña particulares motivos de preocupación. En el caso de las personas refugiadas y solicitantes de asilo, existe el riesgo de que se comparta la información —ya sea de forma intencionada (por ejemplo, como política estatal) o inadvertida (por ejemplo, a través de filtraciones de datos o sistemas inseguros)— con las autoridades del país del que han huido, lo que aumenta las probabilidades de que sufran más abusos y persecución, tanto ellas como sus familiares.54 Otros motivos de preocupación se refieren a su posible uso con fines de vigilancia, filtración de datos, restricción de la libertad de circulación, elaboración de perfiles discriminatorios y criminalización adicional de grupos étnicos, religiosos y otros grupos racializados marginados.

49. Amnistía Internacional, “Amnesty International and more than 170 organisations call for a ban on biometric surveillance”, 7 de junio de 2021, https://www.amnesty.org/en/latest/press-release/2021/06/amnesty-international-and-more-than-170-organisations-callfor-a-ban-on-biometric-surveillance/ Catherine Stinson, “The Dark Past of Algorithms That Associate Appearance and Criminality”, January-February 2021, American Scientist, Vol. 109, Nº 1, p. 26, https://www.americanscientist.org/article/the-dark-past-ofalgorithms-that-associate-appearance-and-criminality; Javier Sánchez-Monedero y Lina Dencik, “The politics of deceptive borders: ‘biomarkers of deceit’ and the case of iBorderCtrl”, Information, Communication & Society, Vol. 25, Nº 3, https://doi.org/10.1080/1369118X.2020.1792530, pp. 413-430.

50. Comisión Europea, Horizonte 2020, https://research-and-innovation.ec.europa.eu/funding/funding-opportunities/fundingprogrammes-and-open-calls/horizon-2020_en (consultado el 25 de enero de 2024).

51. Frontex, Artificial Intelligence-based capabilities for the European Border and Coast Guard, 17 de marzo de 2021, https://www.frontex.europa.eu/assets/Publications/Research/Frontex_AI_Research_Study_2020_executive_summary.pdf.

52. E. Tendayi Achiume, “Racial Borders”, 2022, Georgetown Law Journal, Vol. 110, Nº 3, https://www.law.georgetown.edu/georgetownlaw-journal/in-print/volume-110/volume-110-issue-3-may-2022/racial-borders

53. Consejo de la Unión Europea, “El Consejo y el Parlamento Europeo logran un avance decisivo en la reforma del asilo y la migración en la UE ”, 20 de diciembre de 2023, https://www.consilium.europa.eu/es/press/press-releases/2023/12/20/the-council-and-theeuropean-parliament-reach-breakthrough-in-reform-of-eu-asylum-and-migration-system

MANUAL GENERAL:

DEFENDER LOS DERECHOS DE LAS PERSONAS REFUGIADAS Y MIGRANTES EN LA ERA DIGITAL

Amnistía Internacional

16

Fuera del contexto migratorio, la investigación de Amnistía Internacional en los Territorios Palestinos Ocupados, por ejemplo, reveló que el sistema de reconocimiento facial Red Wolf, instalado en los controles militares israelíes en Hebrón, se estaba utilizando para restringir la circulación de la población palestina en la zona. Amnistía Internacional descubrió que la restricción de la libertad de circulación posibilitada por el reconocimiento facial en los puestos de control no era temporal ni limitada sino sistemática y discriminatoria, y que el sistema usaba, en los puestos de control exclusivos para personas palestinas, bases de datos que sólo contenían información de personas palestinas, sin afectar a los colonos judíos israelíes.55

CUADRO 3 RECONOCIMIENTO FACIAL, VIGILANCIA MASIVA Y RACISMO

El uso de la tecnología de reconocimiento facial con fines de identificación viola el derecho a la privacidad porque no puede satisfacer los requisitos de necesidad y proporcionalidad que exige el derecho internacional de los derechos humanos. Conlleva el seguimiento, la recopilación, el almacenamiento, el análisis u otros usos de material, así como la recopilación de datos personales sensibles (datos biométricos), de forma generalizada y masiva. Además, los sistemas de reconocimiento facial se entrenan con algoritmos de reconocimiento de imágenes que utilizan grandes cantidades de rostros de personas como datos de entrada para mejorar su “tasa de éxito”, sin el conocimiento ni el consentimiento de las personas. Aun en el caso de que se eliminen los datos de entrada o de entrenamiento, el algoritmo del sistema ya se ha beneficiado de los rostros introducidos anteriormente en él y funciona en la práctica basándose en ellos, sin el conocimiento ni el control de las personas a quienes pertenecen. Además, el menoscabo de los derechos humanos causado por la tecnología de reconocimiento facial no lo sufren todas las personas por igual y entraña riesgos de discriminación que son bien conocidos. Por ejemplo, hay determinados grupos que pueden verse excesivamente representados en los conjuntos de datos de imágenes faciales debido a una actuación policial u otras prácticas discriminatorias. Asimismo, es un hecho generalmente reconocido que los sistemas de reconocimiento facial tienen un rendimiento desigual, dependiendo de características clave como el color de la piel, la etnia y el género. Personal experto de la ONU ha señalado tales riesgos de discriminación.56

En enero de 2021, Amnistía Internacional lanzó la campaña global “Veto al escaneo” para pedir la prohibición del uso de los sistemas de reconocimiento facial, una forma de vigilancia masiva que amplifica la actuación policial racista y amenaza el derecho de protesta. La campaña ha puesto de manifiesto que el reconocimiento facial vulnera derechos humanos en lugares tan distantes como la ciudad de Nueva York, Hyderabad, y Hebrón y Jerusalén Oriental en los Territorios Palestinos Ocupados. En particular, Amnistía Internacional sigue exponiendo todos los usos de la tecnología que discriminan a comunidades históricamente marginadas.

También existe el peligro general de desviación de uso, es decir, que el uso de una tecnología o de los datos se extienda más allá de su finalidad inicial, como, por ejemplo, que los datos recopilados por organismos humanitarios con fines de registro y acceso a servicios se utilicen para el control de la migración. La ex relatora especial de la ONU sobre las formas contemporáneas de racismo advirtió de cómo se recopilan los datos y del potencial de unos resultados discriminatorios significativos, y expresó su preocupación al respecto.57 En concreto, el uso de sistemas centralizados para almacenar datos biométricos puede facilitar la vigilancia y el uso ilícito de la información, y hacer que las filtraciones de datos sean más dañinas. En

54. Ben Hayes y Massimo Marelli, “Reflecting on the International Committee of the Red Cross’s Biometric Policy: Minimizing Centralized Databases”, en AI NOW Institute, Amba Kak (eds.), Regulating Biometrics: Global Approaches and Urgent Questions, 2020, https:// www.ainowinstitute.org/regulatingbiometrics-hayes-marelli.html

55. Amnistía Internacional, Apartheid automatizado: Cómo se fragmenta, segrega y controla a la población palestina en los TPO mediante el reconocimiento facial (MDE 15/6701/2023), 2 de mayo de 2023, https://www.amnesty.org/es/documents/mde15/6701/2023/es/ El artículo 49 del Cuarto Convenio de Ginebra establece: “La Potencia ocupante no podrá efectuar la evacuación o el traslado de una parte de la propia población civil al territorio por ella ocupado”. También prohíbe “[l]os traslados en masa o individuales, de índole forzosa, así como las deportaciones de personas protegidas del territorio ocupado”.

56. Comité para la Eliminación de la Discriminación Racial (CERD), Recomendación general núm. 36 relativa a la prevención y la lucha contra la elaboración de perfiles raciales por los agentes del orden, 17 de diciembre de 2020, párr. 23, https://www.ohchr.org/es/ documents/general-comments-and-recommendations/general-recommendation-no-36-2020-preventing-and 57. Discriminación racial y xenófoba y uso de tecnologías digitales en el control de fronteras e inmigración. Informe de la Relatora Especial sobre las formas contemporáneas de racismo, discriminación racial, xenofobia y formas conexas de intolerancia, E. Tendayi Achiume (citado anteriormente), párr. 40.

MANUAL GENERAL:

DEFENDER LOS DERECHOS DE LAS PERSONAS REFUGIADAS Y MIGRANTES EN LA ERA DIGITAL Amnistía Internacional

17

2018 salieron a la luz informes que indicaban que el gobierno de Bangladesh compartía con Myanmar el país del que la población rohinyá había salido huyendo de la violencia y la limpieza étnica— los datos biométricos de personas refugiadas rohinyás recopilados por el ACNUR.Estos informes fueron confirmados posteriormente por la organización Human Rights Watch, que acusó al ACNUR de facilitar información personal de la población refugiada al gobierno de Bangladesh.58 Los datos biométricos, inicialmente recopilados con fines de registro y acceso a servicios, se compartieron para fines de repatriación sin que existiera el consentimiento libre e informado de las personas en cuestión, lo que las puso en peligro.

Uno de los factores que favorecen estas peligrosas conexiones es el aumento de la interoperabilidad que permite el intercambio de datos entre organizaciones humanitarias, gobiernos nacionales y organismos de seguridad. Aunque resulta útil en ciertos contextos, la interoperabilidad entraña riesgos importantes en el contexto de la migración.59 A pesar de las trabas burocráticas, nacionales, empresariales y de la propiedad que dificultan la interoperabilidad, cada vez hay más acuerdos internacionales para el intercambio de datos entre organizaciones humanitarias y entre organismos de control de las fronteras o de la inmigración. En 2019 entraron en vigor dos reglamentos de la UE sobre interoperabilidad que fusionaban “seis bases de datos anteriores de la UE creadas con fines de seguridad y de gestión de las fronteras [...] en un solo sistema general de información de la UE”.60

La biometría y el intercambio de datos pueden emplearse también para determinar y negar el acceso a servicios. Aunque los gobiernos o las organizaciones humanitarias obtengan el consentimiento de las personas refugiadas y migrantes para el tratamiento de sus datos, no puede entenderse que este consentimiento siempre se da libremente, ya que normalmente la persona no puede oponerse a la recopilación de sus datos biométricos sin perder su acceso al registro y a servicios básicos.61

En su informe de 2013 a la Asamblea General, el relator especial sobre los derechos humanos de los migrantes, François Crépeau, pedía a los Estados miembros que se comprometieran a permitir el acceso de las personas migrantes en situación irregular a los servicios necesarios para el pleno disfrute de sus derechos sin miedo a sufrir detención, reclusión y expulsión. Para ello, los Estados deberían establecer “cortafuegos” entre los servicios públicos y el control de la migración, en virtud de los cuales los servicios públicos (atención de la salud, educación, vivienda, inspección laboral y policía local) tendrían orden de no solicitar información sobre la situación migratoria a menos que fuera imprescindible, y los servicios de control de la migración no tendrían acceso a la información recabada por los servicios públicos en relación con la situación migratoria.62

3.5 TOMA DE DECISIONES ALGORÍTMICA EN LOS SISTEMAS DE GESTIÓN DEL ASILO Y LA MIGRACIÓN

En un informe titulado Bots at the Gate, personal investigador de Citizen Lab, de la Universidad de Toronto, examinaba diversas herramientas de toma de decisiones algorítmica desarrolladas para el sistema de inmigración y asilo de Canadá, tanto en las fronteras como en las ciudades. El uso de algoritmos de evaluación de riesgos por los servicios de inmigración canadienses para aprobar o rechazar las solicitudes de visado y asilo era especialmente alarmante.63 Petra Molnar y Lex Gil llaman a estas iniciativas “laboratorio

58. Human Rights Watch, “UN Shared Rohingya Data Without Informed Consent”, 15 de junio de 2021, https://www.hrw.org/news/2021/06/15/un-shared-rohingya-data-without-informed-consent

59. A modo de ejemplo, véase “Weak anti-discrimination safeguards” en Statewatch y PICUM, Data Protection, Immigration Enforcement and Fundamental Rights: What the EU’s regulations on interoperability mean for people with irregular status, noviembre de 2019, https://www.statewatch.org/media/documents/analyses/Data-Protection-Immigration-Enforcement-and-Fundamental-Rights-FullReport-EN.pdf, pp. 33-34.

60. Cristina Blasi Casagran, “Fundamental Rights Implications of Interconnecting Migration and Policing Databases in the EU”, junio de 2021, Human Rights Law Review, Vol. 21, Nº 2, https://doi.org/10.1093/hrlr/ngaa057, pp. 433-457.

61. Entrevista de Amnistía Internacional a Marwa Fatafta de Access Now, 16 de marzo de 2021; Ben Hayes y Massimo Marelli, “Reflecting on the International Committee of the Red Cross’s Biometric Policy: Minimizing Centralized Databases”, en AI NOW Institute, Amba Kak (eds.), Regulating Biometrics: Global Approaches and Urgent Questions, 2020, https:// www.ainowinstitute.org/regulatingbiometrics-hayes-marelli.html

62. Informe del Relator Especial sobre los derechos humanos de los migrantes, 7 de agosto de 2013, doc. ONU A/68/283, https://www.undocs.org/Home/Mobile?FinalSymbol=A%2F68%2F283&Language=E&DeviceType=Desktop&LangRequested=False, párr. 82.

63. Petra Molnar y Lex Gil, Bots at the Gate: A Human Rights Analysis of Automated Decision-Making in Canada’s Immigration and Refugee System, 2018, https://citizenlab.ca/wp-content/uploads/2018/09/IHRP-Automated-Systems-Report-Web-V2.pdf

MANUAL GENERAL:

DEFENDER LOS DERECHOS DE LAS PERSONAS REFUGIADAS Y MIGRANTES EN LA ERA DIGITAL Amnistía Internacional

18

de experimentos de alto riesgo”, lo que suscita preocupación en cuanto a sus implicaciones en materia de derechos humanos.64

La toma de decisiones algorítmica en los sistemas de gestión del asilo y la migración puede dar lugar a decisiones arbitrarias que podrían ser imposibles de impugnar en ausencia de garantías procesales. El uso de estas herramientas —vulnerables a prejuicios, fallos del sistema y otros errores— podría tener efectos devastadores en la situación de las personas refugiadas y migrantes, como la separación familiar, la expulsión y la denegación del asilo. También puede dar lugar a la elaboración de perfiles raciales y étnicos y a la denegación discriminatoria de visado a la persona en función de su raza, origen étnico o nacional, ascendencia, religión y otras características reales o percibidas, a menudo sobre la base de la falsa suposición de que las personas con determinadas características o nacionalidad suponen un “riesgo migratorio” para el cumplimiento de las políticas de inmigración o una “amenaza” para la seguridad nacional.65 Estas suposiciones se justifican y basan en estructuras, ideologías y discursos racistas y xenófobos.

El Ministerio del Interior británico aplica métodos automatizados y de predicción de riesgos similares.66 En 2020, Foxglove, organización sin fines lucrativos que lucha por el derecho de todas las personas a una tecnología justa, y el Consejo Conjunto para el Bienestar de la Comunidad Inmigrante (JCWI, por su sigla en inglés) presionaron con éxito al Ministerio del Interior para que dejara de usar sus “algoritmos de flujo de visado”, que, según aseguraban, “perpetuaban el racismo y la parcialidad en el sistema de visado”67 mediante la asignación a determinadas nacionalidades de puntuaciones de riesgo que refuerzan la discriminación, en combinación con los problemas de retroalimentación, que utilizan los prejuicios y la discriminación del pasado como elementos de referencia para la evaluación de casos futuros.

CUADRO 4 RACISMO SISTÉMICO Y PROHIBICIÓN DE LA DISCRIMINACIÓN RACIAL

El racismo sistémico es parte integrantede las políticas y prácticas de control de las fronteras y la migración y es causante de formas directas e indirectas de discriminación racial. Los principios de la igualdad y la no discriminación están presentes a lo largo de todo el derecho y las normas internacionales de derechos humanos y persiguen la igualdad formal en la legislación y la práctica. Sin embargo, como ha señalado la ex relatora especial de la ONU sobre las formas contemporáneas de racismo, las leyes y políticas sobre inmigración no son racialmente neutrales y refuerzan las desigualdades y la discriminación basadas en la raza. De hecho, las tecnologías digitales tienen efectos racialmente discriminatorios sobre las personas refugiadas y migrantes por su raza, origen étnico o nacional, ascendencia, situación de ciudadanía y religión, entre otras características, y agravan tales efectos. Cada vez más, las tecnologías digitales se utilizan para forzar agendas, estructuras y discursos racistas y xenófobos que son contrarios a las normas internacionales de derechos humanos.

Como subrayaba la ex relatora especial de la ONU sobre las formas contemporáneas de racismo, discriminación racial, xenofobia y formas conexas de intolerancia en su informe de 2020 sobre la discriminación racial y las tecnologías digitales emergentes:

“Ya no cabe duda de que las tecnologías digitales emergentes tienen una capacidad sorprendente para reproducir, reforzar e incluso agudizar la desigualdad racial en el seno de las distintas sociedades y entre ellas. En varios estudios académicos importantes se demuestra de manera concreta que el diseño y la utilización de las tecnologías ya están teniendo este preciso efecto en diversos contextos”.

64. Petra Molnar y Lex Gil, Bots at the Gate: A Human Rights Analysis of Automated Decision-Making in Canada’s Immigration and Refugee System, 2018, https://citizenlab.ca/wp-content/uploads/2018/09/IHRP-Automated-Systems-Report-Web-V2.pdf

65. Discriminación racial y xenófoba y uso de tecnologías digitales en el control de fronteras e inmigración. Informe de la Relatora Especial sobre las formas contemporáneas de racismo, discriminación racial, xenofobia y formas conexas de intolerancia, E. Tendayi Achiume (citado anteriormente).

66. Foxglove, “Home Office says it will abandon its racist visa algorithm—after we sued them”, 4 de agosto de 2020, https://www.foxglove.org.uk/2020/08/04/home-office-says-it-will-abandon-its-racist-visa-algorithm-after-we-sued-them; Joe Tomlinson, Free Movement, “EU Settlement Scheme ushers in a new era of automated decision-making at the Home Office”, 16 de julio de 2019, https://www.freemovement.org.uk/eu-settlement-scheme-automated-decision-making.

67. Foxglove, “Home Office says it will abandon its racist visa algorithm - after we sued them”, 4 de agosto de 2020, https://www.foxglove.org.uk/2020/08/04/home-office-says-it-will-abandon-its-racist-visa-algorithm-after-we-sued-them

MANUAL GENERAL:

DEFENDER LOS DERECHOS DE LAS PERSONAS REFUGIADAS Y MIGRANTES EN LA ERA DIGITAL Amnistía Internacional

19

Además, los sistemas automatizados de evaluación de riesgos representan una amenaza para los derechos y principios de protección de datos. Aun cuando la elaboración de perfiles no se base directamente en categorías especiales de datos personales protegidos por garantías reforzadas en virtud de la legislación aplicable, como el Reglamento General de Protección de Datos de la UE, podría utilizar información que revele tales datos de forma indirecta. Por ejemplo, los datos sobre las creencias religiosas o el estado de salud de un viajero pueden inferirse a partir de sus preferencias dietéticas, lo que vulnera su derecho a la protección de datos y da lugar a la elaboración de criterios raciales. Dado el desequilibrio de poder entre las personas refugiadas y migrantes y las autoridades que gestionan el asilo y la migración, la información utilizada para los sistemas de elaboración de perfiles también pueden extraerse de forma coactiva e ilegal, sin el consentimiento libre, específico e informado de las personas al que obliga el Reglamento.68 Las herramientas de evaluación de riesgos conllevan riesgos adicionales para el derecho a la libertad y la seguridad conforme al derecho internacional de los derechos humanos. En una opinión relativa a una propuesta de acuerdo entre la UE y Canadá sobre el traspaso y procesamiento del Registro de Nombres de Pasajeros (PNR, por su sigla en inglés), el Tribunal de Justicia de la Unión Europea ha advertido de que el tratamiento automatizado del PNR puede dar lugar a decisiones vinculantes que afecten a los derechos de la persona sin ninguna prueba de que la persona representa una amenaza para la seguridad pública.69 Una herramienta de evaluación de riesgos que se modificó para que siempre se recomendara la detención con fines de control migratorio en Estados Unidos70, por ejemplo, ilustra cómo tales herramientas pueden facilitar la detención y reclusión arbitrarias, prohibidas por el derecho internacional de los derechos humanos. En este caso, el software empleado para evaluar un caso particular se alteró para eliminar la posibilidad de puesta en libertad, lo que dio lugar a un aumento de las detenciones indebidas.71

En vista de los riesgos declarados para los derechos a no sufrir discriminación, a la privacidad y a la protección de datos, y a la libertad y la seguridad, Amnistía Internacional sostiene que deben prohibirse los sistemas automatizados de evaluación de riesgos y de elaboración de perfiles en el contexto de la gestión de la migración, el asilo y el control de las fronteras.72

CUADRO 5 PRIVACIDAD

Las tecnologías de inteligencia artificial se basan en la recopilación y el tratamiento de datos. Su creciente implantación incentiva la expansión de las infraestructuras de recolección de datos, lo que a su vez requiere la ampliación de las capacidades de vigilancia.

Con arreglo al derecho internacional, los Estados deben demostrar que determinada injerencia en el derecho a la privacidad es un medio legal, necesario y proporcionado de lograr un fin legítimo, lo cual significa equilibrar la naturaleza y el alcance de la injerencia con el motivo por el que se produce esa injerencia en el derecho a la privacidad, y garantizar que la tecnología utilizada es el medio menos invasivo disponible.

El seguimiento, la recopilación, el almacenamiento, el análisis u otros usos de material, así como la recopilación de datos personales y biométricos sensibles, de forma masiva y generalizada, sin que exista sospecha razonable e individualizada de conducta delictiva, constituye vigilancia masiva indiscriminada. Amnistía Internacional cree que la vigilancia masiva indiscriminada nunca es una injerencia proporcionada en los derechos a la privacidad y a la libertad de expresión, de asociación y de reunión pacífica. Además, los sistemas de reconocimiento facial se entrenan con algoritmos de reconocimiento de imágenes que utilizan grandes cantidades de rostros de personas como datos de entrada para mejorar su

68. Amnistía Internacional, “Open Letter to the Rapporteurs on the EU Artificial Intelligence Regulation (AI ACT) to ensure Protection of Rights of Migrants, Asylum Seekers and Refugees”, 26 de abril de 2023, https://www.amnesty.eu/wp-content/uploads/2023/04/ TIGO_IOR_10_2023_3987_Open-letter-to-the-Rapporteurs-on-the-EU-AI-Act-1.pdf

69. Tribunal de Justicia de la Unión Europea, Asunto C-817/19, 21 de junio de 2022, https://curia.europa.eu/jcms/upload/docs/application/pdf/2022-06/cp220105es.pdf

70. Daniel Oberhaus, Vice, “ICE Modified its ‘Risk Assessment’ Software so it Automatically Recommends Detention”, 26 de junio de 2018, https://www.vice.com/en/article/evk3kw/ice-modified-its-risk-assessment-software-so-it-automatically-recommends-detention.

71. Mica Rosenberg y Reade Levinson, Reuters, “Trump’s catch-and-detain policy snares many who have long called U.S. home”, 20 de junio de 2018, https://www.reuters.com/investigates/special-report/usa-immigration-court

72. Amnistía Internacional, “Open Letter to the Rapporteurs on the EU Artificial Intelligence Regulation (AI ACT) to ensure Protection of Rights of Migrants, Asylum Seekers and Refugees”, 26 de abril de 2023, https://www.amnesty.eu/wp-content/uploads/2023/04/ TIGO_IOR_10_2023_3987_Open-letter-to-the-Rapporteurs-on-the-EU-AI-Act-1.pdf

MANUAL GENERAL:

DEFENDER LOS DERECHOS DE LAS PERSONAS REFUGIADAS Y MIGRANTES EN LA ERA DIGITAL Amnistía Internacional

20

“tasa de éxito”, sin el conocimiento ni el consentimiento de esas personas. Dado que tales sistemas no pueden funcionar sin esta base de datos biométricos de referencia, son incompatibles con el derecho a la privacidad por naturaleza, como ya se ha analizado en este documento.

3.6 CASO PRÁCTICO: APLICACIÓN MÓVIL CBP ONE

En mayo de 2023 entró en vigor la nueva normativa sobre migración aprobada por Estados Unidos según la cual las personas solicitantes de asilo que lleguen a la frontera sur de Estados Unidos sin autorización previa están obligadas a usar la aplicación móvil CBP One para pedir cita y presentarse en un punto de entrada al país.73 Aunque CBP One ya se había utilizado antes de mayo de 2023, la nueva normativa establecía su uso obligatorio. La aplicación requiere que la persona solicitante de asilo se encuentre físicamente en zonas específicas de México y que solicite y programe una cita para presentarse en un punto de entrada, y al mismo tiempo que facilite datos personales, incluida una fotografía facial con fines de reconocimiento.

Ya antes de su uso generalizado en mayo de 2023, Amnistía Internacional y otras organizaciones habían recibido información que señalaba multitud de problemas muy preocupantes relacionados con la aplicación CBP One, entre ellos los frecuentes bloqueos de la aplicación y los fallos en la tecnología de reconocimiento facial que afectaban de manera desproporcionada a las personas racializadas, como las de nacionalidad haitiana, cubana, nicaragüense y venezolana.74 Se obliga a la población solicitante de asilo a instalar la aplicación en su móvil, lo que permite a la Oficina de Aduanas y Protección Fronteriza recabar datos sobre su ubicación enviándole una señal de rastreo.

Entre los problemas más destacados están la falta de accesibilidad debida a las barreras de disponibilidad de idiomas o de alfabetización, la falta de acceso a teléfonos móviles o a Internet, y la indisponibilidad de citas. Y lo que es más importante, la escasez de citas significa que, mientras esperan, muchas personas solicitantes de asilo quedan atrapadas durante meses en zonas de México donde corren peligro de sufrir violaciones graves de derechos humanos, como violación o secuestro, según informan las organizaciones.75 Quienes deciden pasar a Estados Unidos sin cita previa por amenazas a su seguridad en México pueden ser consideradas presuntamente no aptas para el asilo y corren mayor peligro de ser detenidas con fines de control migratorio.76

El uso preceptivo y exclusivo de la aplicación CBP One socava el derecho de las personas que llegan a la frontera sur de Estados Unidos a solicitar asilo y puede incumplir el principio de no devolución (nonrefoulement), consagrado en el derecho internacional consuetudinario. El uso del reconocimiento facial en CBP One, que parece usar como referencia una serie de bases de datos “de descarte”, indica que existe el peligro de vigilancia masiva de comunidades precarias en movimiento, agravado por el uso de tecnologías GPS y la recopilación digital de datos de las personas solicitantes de asilo antes de su entrada en Estados Unidos. Esto suscita motivos de profunda preocupación en materia de privacidad y no discriminación.77

73. Servicios de Ciudadanía e Inmigración de Estados Unidos, Proposed Rule, Circumvention of Lawful Pathways, USCIS-2022-0016-0001, 23 de febrero de 2023, https://www.regulations.gov/document/USCIS-2022-0016-0001

74. The Guardian, “Facial recognition bias frustrates Black asylum applicants to US, advocates say”, 8 de febrero de 2023, https://www. theguardian.com/us-news/2023/feb/08/us-immigration-cbp-one-app-facial-recognition-bias. Amnistía Internacional, Mandatory Use of CBP One Application Violates the Right to Seek Asylum (AMR 51/6754/2023), 7 de mayo de 2023, https://www.amnesty.org/es/documents/amr51/6754/2023/en

75. Christina Asencio, “Asylum ban strands asylum seekers and migrants in Mexico and returns them to danger”, 28 de noviembre de 2023, https://humanrightsfirst.org/library/asylum-ban-strands-asylum-seekers-and-migrants-in-mexico-and-returns-them-to-danger.

76. Stephanie Leutert y Caitlyn Yates, Asylum Processing at the U.S.-Mexico Border: February 2023, 28 de febrero de 2023, https://www.strausscenter.org/publications/asylum-processing-at-the-u-s-mexico-border-february-2023, p. 3; Amnistía Internacional, “Amnesty International statement for hearing on Examining the Human Rights and Legal Implications of DHS’s ‘Remain in Mexico’ Policy””, 18 de noviembre de 2019, https://www.amnestyusa.org/updates/amnesty-international-statement-for-hearing-on-examiningthe-human-rights-and-legal-implications-of-dhss-remain-in-mexico-policy

77. Discriminación racial y xenófoba y uso de tecnologías digitales en el control de fronteras e inmigración. Informe de la Relatora Especial sobre las formas contemporáneas de racismo, discriminación racial, xenofobia y formas conexas de intolerancia, E. Tendayi Achiume (citado anteriormente), párr. 47.

MANUAL GENERAL:

DEFENDER LOS DERECHOS DE LAS PERSONAS REFUGIADAS Y MIGRANTES EN LA ERA DIGITAL Amnistía Internacional

21

3.7 CASO PRÁCTICO: LA LEY DE INTELIGENCIA ARTIFICIAL DE LA UNIÓN EUROPEA

Los sistemas de inteligencia artificial ya se usan ampliamente en Europa e incluyen drones, detectores de mentiras, biometría, reconocimiento facial y otras tecnologías a menudo experimentales, y forman una vasta red de vigilancia masiva en las fronteras de Europa, dentro de ellas y, en ocasiones, también fuera.78 El uso de estos sistemas “puede intensificar el racismo, la discriminación racial, la xenofobia y otras formas de exclusión”.79 En diciembre de 2023, el Parlamento Europeo, los Estados miembros y la Comisión Europea llegaron a un acuerdo sobre la regulación de su uso con una propuesta de Reglamento en materia de Inteligencia Artificial (Ley de Inteligencia Artificial).80 Aunque el texto definitivo aún está pendiente de aprobación, la propuesta supone un avance importante ya que tiene el potencial de mejorar la protección de las personas afectadas por la IA. No obstante, la sociedad civil y otros actores han expresado preocupación por algunos aspectos del borrador relativos al uso de los sistemas de IA en contextos de migración,81 ya que la propuesta no protege lo suficiente a las personas en movimiento ni a otros grupos marginados frente al racismo, la discriminación y otros muchos abusos contra los derechos humanos.82 En algunos casos existe el riesgo de que la Ley de Inteligencia Artificial no sólo no aborde el menoscabo de los derechos humanos ocasionado en el contexto de la migración sino que lo facilite, por ejemplo proporcionando una base jurídica para los sistemas de vigilancia masiva y discriminatoria, como las tecnologías de reconocimiento facial y emocional empleadas para actuar de manera desproporcionada contra las personas en movimiento, entre otras comunidades marginadas.83

La Ley de Inteligencia Artificial no previene suficientemente los riesgos y daños que pueden acarrear estas tecnologías ni prohíbe totalmente las más peligrosas, por ejemplo los sistemas de análisis predictivo utilizados para prevenir, restringir o interceptar la migración y los pseudocientíficos detectores de mentiras, como los polígrafos de IA.84 Además, Estados miembros de la UE están presionando para incorporar a la Ley de Inteligencia Artificial excepciones generales que permitan a las autoridades usar la IA con fines de “seguridad nacional”. Esto supone el riesgo de uso ilícito de la IA contra las personas en movimiento y permite exenciones por motivos de seguridad nacional respecto a las medidas de rendición de cuentas y transparencia pública sobre el uso de los sistemas de IA por parte de las autoridades migratorias, encargadas de hacer cumplir la ley y de seguridad nacional.

La Ley de Inteligencia Artificial tampoco aborda la exportación de sistemas de IA desde Europa, lo que significa que se pueden exportar tecnologías de vigilancia y otras tecnologías ilícitas prohibidas en la UE a países limítrofes para impedir la circulación de las personas antes de que lleguen a las fronteras de la UE.85 La coalición multidisciplinar #ProtegerNoVigilar86 , de la que forma parte Amnistía Internacional, ha pedido que la Ley de Inteligencia Artificial regule todos los sistemas de IA de alto riesgo utilizados en contextos de migración, prohíba los sistemas de IA que comporten riesgos inaceptables y garantice que la Ley es aplicable a las inmensas bases de datos sobre migración de la UE.87

78. Access Now, Red Europea de Derechos Digitales (EDRi), Observatorio de Tecnología sobre Migración (Universidad de York), Plataforma para la Cooperación Internacional sobre Migrantes Indocumentados (PICUM) y Statewatch, Uses of AI in migration and border control: A fundamental rights approach to the Artificial Intelligence Act, 2022, https://edri.org/wp-content/uploads/2022/05/Migration_2-pager-02052022-for-online.pdf

79. Discriminación racial y xenófoba y uso de tecnologías digitales en el control de fronteras e inmigración. Informe de la Relatora Especial sobre las formas contemporáneas de racismo, discriminación racial, xenofobia y formas conexas de intolerancia, E. Tendayi Achiume (citado anteriormente), párr. 24.

80. Comisión Europea, Propuesta de Reglamento del Parlamento y el Consejo Europeo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de inteligencia artificial) y se modifican determinados actos legislativos de la Unión, 21 de abril de 2021, https://eur-lex.europa.eu/legal-content/ES/TXT/HTML/?uri=CELEX:52021PC0206; Amnistía Internacional, “UE: La Ley de Inteligencia Artificial debe ser histórica y prohibir las tecnologías peligrosas basadas en la inteligencia artificial”, 28 de septiembre de 2023, https:// www.amnesty.org/es/latest/news/2023/09/eu-ai-act-must-ban-dangerous-ai-powered-technologies-in-historic-law/; Thierry Breton, post de Twitter: “¡Histórico! La UE se convierte en el primer continente que fija normas claras para el uso de la inteligencia artificial. La Ley de AI #AIAct es mucho más que un reglamento: es una plataforma de lanzamiento para que las empresas emergentes y los investigadores de la UE lideren la carrera mundial de la IA. ¡Lo mejor aún está por venir!”, 8 de diciembre de 2023, https://twitter.com/ThierryBreton/ status/1733256557448630344

81. Por ejemplo, véase el sitio web de #ProtegerNoVigilar: https://protectnotsurveil.eu

82. Amnistía Internacional, “The EU must respect human rights of migrants in the AI Act”, 26 de abril de 2023, https://www.amnesty.eu/news/the-eu-must-respect-human-rights-of-migrants-in-the-ai-act

83. Amnistía Internacional, “AI Act must protect all people, regardless of migration status”, 6 de diciembre de 2022, https://www.amnesty. eu/news/eu-ai-act-must-protect-all-people-regardless-of-migration-status; “UE: La decisión del bloque de no prohibir la vigilancia masiva pública en la Ley de IA sienta un precedente mundial devastador”, 9 de diciembre de 2023, https://www.amnesty.org/es/latest/ news/2023/12/eu-blocs-decision-to-not-ban-public-mass-surveillance-in-ai-act-sets-a-devastating-global-precedent; “Council risks failing human rights in the AI Act”, 29 de noviembre de 2023, https://www.amnesty.eu/news/council-risks-failing-human-rights-in-the-ai-act/.

84. EDRi, The EU’s Artificial Intelligence Act: Civil society amendments, 3 de mayo de 2022, https://edri.org/our-work/the-eus-artificial-intelligence-act-civil-society-amendments

85. Amnistía Internacional, “EU policymakers: regulate police technology”, 21 de septiembre de 2023, https://www.amnesty.eu/news/eu-policymakers-regulate-police-technology.

86. Véase https://protectnotsurveil.eu

87. Véase https://protectnotsurveil.eu/#calls

MANUAL GENERAL:

DEFENDER LOS DERECHOS DE LAS PERSONAS REFUGIADAS Y MIGRANTES EN LA ERA DIGITAL Amnistía Internacional

22

4. CONCLUSIONES Y RECOMENDACIONES

La tecnología se ha convertido en una herramienta peligrosa y omnipresente en la configuración y ejecución de las políticas de los Estados en materia de asilo y gestión de la migración. Tiene el potencial de crear y sostener la discriminación, la opresión y el racismo sistémicos, y se emplea continuamente para impulsar discursos, agendas y estructuras racistas y xenófobas. Cuando los Estados promueven una agenda contraria a sus obligaciones en materia de derechos humanos con las personas refugiadas y migrantes, estas tecnologías pueden propiciar violaciones de derechos humanos o incluso agravarlas. Las tecnologías empleadas en la gestión de la migración y el asilo también pueden ser problemáticas en sí, ya que sus sistemas son vulnerables a prejuicios y errores o dan lugar a la recopilación, almacenamiento y uso de información que pone en peligro los derechos humanos a la privacidad y a no sufrir discriminación, entre otros.

Amnistía Internacional hace las siguientes recomendaciones en lo referente a la utilización de las tecnologías digitales con uso intensivo de datos en los sistemas de gestión del asilo y la migración.

LOS ESTADOS DEBEN:

• Abordar la discriminación, la xenofobia y el racismo sistémicos y crecientes que han configurado históricamente la gestión de la migración, los sistemas de asilo y la aplicación de la ley en materia de fronteras e inmigración.

• Llevar a cabo evaluaciones de impacto en los derechos humanos y en la protección de datos de las tecnologías digitales antes de su implantación y durante todo su ciclo de vida.

• Antes de implantar cualquier sistema, evaluar y establecer la necesidad y proporcionalidad de la medida, ya que el derecho internacional de los derechos humanos establece que toda tecnología o medida de vigilancia adoptada debe ser legítima, necesaria y proporcional y perseguir un objetivo legítimo.

• Abordar el riesgo de que tales herramientas faciliten la discriminación y otras violaciones de derechos humanos de las minorías raciales, las personas que viven en la pobreza y otras poblaciones marginadas.

• Incorporar a todo uso de estas tecnologías salvaguardias de derechos humanos frente a los abusos.

• Ofrecer a la persona la oportunidad de conocer cualquier medida adoptada para recopilar, agregar, conservar y usar sus datos personales, y de dar o retirar su consentimiento para ello.

• Exigir a las empresas involucradas en el desarrollo y suministro de tecnologías en el contexto del registro de personas refugiadas y el control policial de las fronteras —como sistemas de macrodatos, inteligencia artificial y biometría— que ejerzan la diligencia debida en materia de derechos humanos, de conformidad con normas internacionales como los Principios Rectores de la ONU sobre las Empresas y los Derechos Humanos y la Guía de la OCDE de Debida Diligencia para una Conducta Empresarial Responsable.

• Obligar a las empresas tecnológicas a asumir sus responsabilidades por el menoscabo de los derechos humanos que han causado o contribuido a causar, y por no ejercer la diligencia debida en materia de derechos humanos.

MANUAL GENERAL:

DEFENDER LOS DERECHOS DE LAS PERSONAS REFUGIADAS Y MIGRANTES EN LA ERA DIGITAL

Amnistía Internacional

23

• Proteger los datos personales, lo que incluye garantizar los principios de la minimización de datos y la seguridad de todos los datos recopilados y de todos los dispositivos, aplicaciones, redes o servicios utilizados en su recopilación, transmisión, tratamiento y almacenamiento.

• Garantizar que quienes hayan sufrido violaciones de derechos humanos resultantes del uso indebido de las tecnologías tienen acceso a un recurso efectivo.

• Promulgar legislación que prohíba el uso, desarrollo, producción, venta y exportación de tecnología remota de reconocimiento biométrico con fines de vigilancia masiva y de tecnología remota de reconocimiento facial o biométrico con fines de identificación en sus propias jurisdicciones.

• Prohibir los sistemas automatizados de evaluación de riesgos y de elaboración de perfiles en el contexto del control de las fronteras y la gestión de la migración y el asilo.

• Prohibir todo uso de tecnologías predictivas que pueda amenazar indebidamente el derecho al asilo.

• Prohibir las herramientas de reconocimiento de emociones basadas en IA, especialmente en el contexto del control de las fronteras y la gestión de la migración y el asilo.

LAS ORGANIZACIONES Y LOS PROVEEDORES DE SERVICIOS QUE UTILIZAN TECNOLOGÍAS DIGITALES DEBEN:

• Llevar a cabo evaluaciones preceptivas sobre la diligencia debida en materia de derechos humanos y el impacto en la protección de los datos de las tecnologías digitales antes de su implantación y durante todo su ciclo de vida.

• Antes de implantar cualquier sistema, evaluar y establecer la necesidad y proporcionalidad de la medida, ya que el derecho internacional de los derechos humanos establece que toda tecnología o medida de vigilancia adoptada debe ser legítima, necesaria y proporcional y perseguir un objetivo legítimo.

• Abordar el riesgo de que tales herramientas faciliten la discriminación y otros abusos contra los derechos humanos de las personas y comunidades racializadas, las personas que viven en la pobreza y otras poblaciones marginadas.

• Explorar las posibles alternativas no invasivas que cubran las necesidades señaladas por los proveedores de servicios, sin comprometer indebidamente el derecho a la privacidad, la igualdad y la no discriminación, y a no sufrir vigilancia.

• Incorporar a todo uso de estas tecnologías salvaguardias frente a los abusos.

• Ofrecer a las personas la oportunidad de conocer cualquier medida adoptada para recopilar, agregar, conservar y usar sus datos personales, y de dar o retirar su consentimiento para ello.

MANUAL GENERAL:

DEFENDER LOS DERECHOS DE LAS PERSONAS REFUGIADAS Y MIGRANTES EN LA ERA DIGITAL Amnistía Internacional

24
AMNISTÍA INTERNACIONAL ES UN MOVIMIENTO GLOBAL DE DERECHOS HUMANOS. LAS INJUSTICIAS QUE AFECTAN A UNA SOLA PERSONA NOS AFECTAN A TODAS LAS DEMÁS. CONTÁCTANOS info@amnesty.org +44 (0)20 7413 5500 https://www.facebook.com/ AmnistiaAmericas/ @AmnistiaOnline ÚNETE A LA CONVERSACIÓN

MANUAL GENERAL: DEFENDER LOS DERECHOS DE LAS PERSONAS REFUGIADAS Y MIGRANTES EN LA ERA DIGITAL

Este manual es una introducción sobre la implantación rápida y generalizada de las tecnologías digitales en los sistemas de gestión del asilo y la migración en todo el mundo, incluidos Estados Unidos, Reino Unido y la Unión Europea.

Defender los derechos de las personas refugiadas y migrantes en la era digital destaca algunas de las principales novedades tecnológicas digitales en los sistemas de gestión del asilo y la migración, en particular los sistemas que tratan grandes cantidades de datos, y los problemas de derechos humanos que se derivan de su uso. Este documento introductorio tiene como fin fomentar el conocimiento colectivo de estas tecnologías emergentes, con la esperanza de contribuir a la labor más amplia de defensa de los derechos a fin de erradicar sus efectos perjudiciales.

ÍNDICE: POL 40/7654/2024

ENERO DE 2024

IDIOMA ORIGINAL: INGLÉS

amnesty.org

Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.