• Climate Strike

 

Gender, AI, and Disaster Response: Navigating the Risks of Technological Innovation Amidst Climate Breakdown


Mar 18, 2025 | Maryruth Belsey Priebe

The frequency and severity of climate-related disasters has risen alongside a growing deployment of artificial intelligence (AI) to improve disaster response and recovery operations. Disaster events generate complex humanitarian challenges that overlap with pre-existing social weaknesses. And while the benefits of AI in disaster response include faster assessment and better resource allocation, these technologies also bring risks that could harm women and marginalized groups.

AI technologies greatly can speed up humanitarian operations by enabling identification of critical needs and efficient resource distribution while coordinating complicated logistics. AI systems have the capability to analyze extensive datasets for disaster impact forecasts while tracking population movements and identifying individuals vulnerable to trafficking or exploitation. Recognizing that when discussing vulnerability in disaster contexts, women are not inherently or naturally more vulnerable, when misused or implemented poorly, AI technologies can worsen gender vulnerabilites that stems from pre-existing cultural, institutional, and structural barriers that disasters tend to amplify. 

The Sendai Framework for Disaster Risk Reduction 2015-2030, adopted by UN Member States, offers a comprehensive method for analyzing these intersecting challenges. The Sendai Framework's four main areas—understanding disaster risk, strengthening disaster risk governance, investing in disaster risk reduction, and enhancing disaster preparedness—provide a systematic way to explore the impact of AI deployment on gender inequalities in disaster scenarios. The framework enables us to pinpoint key intervention areas in AI disaster response systems to make sure technological advancements advance gender equality instead of hindering it.

As AI-assisted disaster responses become more frequent with the increasing number and severity of disasters due to climate change, we must understand these risks better. Drawing on the expertise of the author of this Spotlight, deep research into the gender-climate-security nexus and development of a framework for deploying gendered risk assessments in disaster scenarios, this discussion aims to explore the gendered ethical risks of using AI in humanitarian aid and disaster response (HA/DR) contexts. The goal is not to discourage the use of AI by disaster response organizations, but rather to ensure its deployment actively promotes rather than undermines gender equality and human rights. Several key risk areas require particular attention, including resource manipulation, stoking divisions, exploitation of the vulnerable, and increased surveillance.

Resource Manipulation

AI technologies can provide substantial benefits in disaster resource distributionm, and has the potential to lead to more effective and fair humanitarian responses. Through the use of machine learning algorithms, satellite images can be analyzed quickly to determine damage levels and determine priority areas for immediate help, thereby reducing assessment time from days to just hours. AI-driven predictive analytics enable organizations to anticipate resource shortages ahead of time which enables proactive management instead of reactive responses. Real-time analysis of social media and emergency communications enhances natural language processing capabilities to detect urgent needs as they arise. AI applications like these enable improved risk assessment and disaster preparation mechanisms which align with Sendai Framework Priority 1 and Priority 4 by transforming information gathering and response capabilities.

However, AI systems have the potential to create demographic prioritization based on biased data inputs. A UN Women interview reported that AI systems trained with biased data have the potential to worsen existing gender inequalities. Various applications can manifest this bias including disaster response systems in which algorithms distribute aid based on gender-biased historical data. For instance, when algorithms learn from data favoring as primary assistance recipients male-headed households in which only men have official documentation or bank accounts, such algorithms ignore the particular needs of women and children and can worsen resource allocation inequalities. A Berkeley Haas Center for Equity, Gender and Leadership report demonstrates how AI systems with gender biases create unfair distribution of resources and opportunities for women. Decision-making algorithms in disaster relief often place women's needs lower on priority lists due to past data showing gender-related access to resources inequalities. The Journal of Emergency Management and Disaster Communications similarly presents research findings about AI biases that can result in discriminatory or inequitable results during crises. The presence of gender bias in AI systems during disaster situations could result in critical assistance being redirected from women and children who are typically more vulnerable and require support.

Another potential risk: Criminal groups could exploit AI technologies to create fake claims for aid or resources. Unemployment insurance fraud during the COVID-19 pandemic saw criminal organizations and international fraud rings file false claims using stolen identities and fictitious employers to gain benefits which they then spent on luxury items, travel, weapons, and murder-for-hire operations. The misuse of AI will not only strip legitimate victims of necessary assistance but will also contaminate the data that informs resource allocation decisions in the future. Cybercriminals have used social engineering strategies to trick people into revealing sensitive personal information about their needs or weaknesses. Through social media analysis and AI profiling of women and marginalized groups, malicious actors can extract personal data from profiles on social media which they then use to perform financial scams or ensnare people into human trafficking. Cybercriminals can deepfake tools to create false virtual personas and audio clones which are designed to persuade workers or people to disclose confidential information.

Disinformation and Division

While resource manipulation primarily affects physical aid distribution, social manipulation through AI presents different opportunities and challenges. AI offers powerful tools that fight against disinformation during emergencies and establish information systems that ensure protection for at-risk populations. Emergency response teams can tackle misinformation effectively through the rapid detection capabilities of natural language processing algorithms which flag false narratives before they become widespread. By analyzing information patterns across multiple platforms, machine learning systems can identify coordinated disinformation campaigns that target specific communities by exploiting gender or ethnic divisions. Authorities use these technologies to build reliable information channels which deliver timely and accurate updates about disaster conditions and resources. AI capabilities help achieve Priority 2 of the Sendai Framework by preserving information integrity which allows effective coordination and decision-making during disasters.

Nevertheless, misinformation campaigns driven by AI technologies can quickly take shape during disasters and target specific demographic groups, potentially leading to increased societal tensions. For instance, AI can generate and disseminate disinformation that targets particular genders or communities, a powerful weapon in the hands of illiberal and autocratic, often male-dominated networks that create environments where corruption and the misuse of authority can thrive unchecked. According to Brookings Institution research, such groups have been known to employ disinformation to silence critics, maintain power, and suppress demands for accountability and better governance. Women’s political participation is seen as a challenge to these entrenched networks, making them targets for such disinformation campaigns. Male-dominated networks have also used disinformation to portray women solely as victims rather than active participants in recovery efforts to diminish their agency and contributions. Vulnerability narratives also make it much more difficult to change discriminatory gender norms. Both types of narratives marginalize women's voices in decision-making processes and diminish their power to influence the nature of disaster response and recovery.

AI also has the potential to hinder beneficial networks while simultaneously discrediting women leaders or depicting them as only victims and not empowered actors. The IEEE Xplore article, Harnessing The Power of Artificial Intelligence for Disaster Response and Crisis Management, explains how artificial intelligence can both support community networks in disaster response but also enable malicious actors to disrupt these networks and isolate women for exploitation. Algorithms have the potential to amplify divisive content that creates conflict between community groups based on gender or socio-economic status. The Brookings Institution report established that throughout the pandemic, gendered disinformation efforts targeted women leaders by spreading false accusations of mismanagement and crisis incompetence, which damaged their credibility and reinforced negative stereotypes. This deceptive information destroyed public trust while escalating societal conflicts and harming women who lead organizations or occupy vulnerable positions. Artificial Intelligence capabilities enable similar approaches to heighten tensions and direct violence against women.

Exploitation of Those Vulnerable to Trafficking

AI technologies provide opportunities to support vulnerable populations after disasters but they can also be manipulated by malicious actors to exploit these populations. On the one hand, AI systems provide tools for stopping malicious actors from abusing populations that are susceptible to trafficking especially amongst women. Modern AI systems are increasingly being used to enhance the identification of potential trafficking victims by examining online material and spotting trafficking indicators. AI systems analyze social media activity to detect patterns that show potential trafficking risks through unusual communication or geographic movements that match recognized trafficking paths.

Through training machine learning algorithms organizations can detect trafficking signals within online advertisements and social media posts such as those promoting prostitution or escort services. The algorithms identify advertisements displaying vulnerable people or coercive words to inform law enforcement about possible trafficking cases where traffickers peddle victims of human trafficking. Artificial intelligence can also enable law enforcement agencies to better prioritize cases and intervene more effectively by revealing hidden patterns in large datasets. The capability to identify women and children who may be separated from their families plays a crucial role because these individuals face increased exploitation risks.

However, the potential advantages of AI algorithms exist alongside their capability to empower human traffickers by examining social media patterns and geolocation data together with demographic information to locate women and children who have been separated from their families or who do not have access to essential resources. A Europol report entitled "The Challenges of Countering Human Trafficking in the Digital Era" reveals the methods traffickers employ modern communication technologies and social media to victimize people. Social media platforms serve as "virtual catalogues" which traffickers use to spot new victims and build grooming approaches.

Increased Surveillance in Disaster Zones

In the wake of a disaster, authorities generally set up surveillance systems to help manage public order while they evaluate destruction levels and organize emergency assistance operations. Disaster response efforts become significantly more effective at saving lives when AI surveillance technologies are used in an ethical manner during critical emergencies. Deep-learning computer vision systems enable rescue teams to find trapped survivors quickly so they can focus their efforts and save victims before conditions worsen. Thermal imaging-equipped drones can execute surveillance in dangerous zones to locate heat signatures of survivors within collapsed structures or flooded territories where traditional search techniques fail. Real-time monitoring of disaster conditions through satellite systems enables authorities to issue evacuation orders for communities at risk based on wildfire spread and flood water movement tracking. AI surveillance that incorporates strong ethical guidelines along with community collaboration helps protect vulnerable groups during emergencies while upholding their basic rights and dignity. The ethical implementation of surveillance technologies boosts disaster preparedness to support to the Sendai Framework's Priority 4 which requires improved early warning systems and better coordination during emergencies.

However, these technologies may produce unexpected negative outcomes. Facial recognition cameras or drones powered by AI surveillance systems can be positioned in places where displaced individuals form large groups. AI surveillance systems frequently uses training data which fails to represent diverse populations enough to produce reliable results for identifying women from minority communities. The expansion of surveillance practices establishes a policing culture that particularly targets women.

For instance, in patriarchal societies, the increased monitoring of women has been used to empower male figures—such as family members or community leaders—to exert control over women's movements and choices. This type of controlling dynamic could further entrench gender inequalities and limit women's autonomy when powered by AI. What’s more, increased scrutiny has been known to create an environment of fear and anxiety, making it difficult for women to access essential services or seek help. Such an increase in AI-driven surveillance following a disaster might also inadvertently increase the risks of gender-based violence (GBV). 

Constant monitoring can make communities distrustful of authorities and humanitarian organizations. According to Humanitarian Practice Network findings artificial intelligence systems provide support for humanitarian surveillance. The report reveals that when communities believe their privacy is compromised through extensive data collection, it damages their trust in authorities and humanitarian organizations. Women and individuals may avoid seeking essential help when they experience distrust towards authorities and humanitarian organizations. Surveillance practices have the potential to breakdown in community solidarity by creating suspicion between residents. When people feel monitored and judged for their actions they lose trust in their community which leads to weakened solidarity and creates gender-based divisions that reduce support systems for recovery efforts especially for women.

Recommendations for Ethical AI Practices Following Disasters

The following recommendations for how to address the various gendered risks and challenges associated with AI use in disaster scenarios are organized according to the Sendai Framework's four priorities:

Priority 1: Understanding Disaster Risk

  • Conduct thorough audits to review AI systems deployed for evaluating needs and allocating resources during disaster response. These audits must focus on identifying gender biases and assessing demographic representation alongside fairness metrics.
  • Establish comprehensive data collection guidelines which demand gender-separated information to analyze how disasters differently affect populations.

Priority 2: Strengthening Disaster Risk Governance

  • Create oversight panels which feature members from impacted communities along with women and underrepresented groups to examine AI-based distribution choices.
  • Develop data protection frameworks that secure information while maintaining personal privacy freedoms.
  • Create autonomous oversight entities that can perform investigations into AI abuses when responding to disasters

Priority 3: Investing in Disaster Risk Reduction for Resilience

  • Implement AI monitoring systems that include ethical protections to identify trafficking risks while maintaining privacy for vulnerable populations.
  • Require disaster response personnel to engage in training that covers ethical AI practices alongside bias detection and privacy protection methods.
  • Offer training programs for local communities, with a focus on women's groups to help them detect and report AI abuse and exploitation attempts.

Priority 4: Enhancing Disaster Preparedness

  • Create strong fact-checking systems and fast-acting response teams to combat misinformation produced by AI technologies.
  • Require social media platforms to establish procedures to detect and eliminate AI-produced content that aims to incite social division.
  • Enforce rigid access controls to surveillance systems to stop malicious actors from exploiting them.
  • Adopt AI-driven disaster response planning for environmental peacebuilding methods that address the relationship between climate stressors which increase social vulnerabilities and gender-based risks.

Conclusion

The intersection of artificial intelligence and disaster response presents both potential advancements as well as noteworthy dangers. The potential misuse of AI requires proactive measures even though AI helps improve disaster response efficiency and effectiveness. The challenges identified here demonstrate why we need a robust framework that advances technological progress while protecting human rights. The framework should integrate environmental peacebuilding measures to manage both current humanitarian requirements while building future resilience as climate change drives an increase in more frequent and severe disasters. This approach acknowledges that environmental pressures worsen gender disparities and calls for AI systems to analyze differential climate impacts on men and women in areas vulnerable to disasters.

The effective use of ethical AI systems during disasters depends on achieving a balance between technological functions and human supervision together with community participation and strong protective measures. Disaster response organizations can unlock AI's power and simultaneously protect vulnerable groups such as women and marginalized communities from exploitation and harm by following the recommendations suggested here. Such an approach ensures that technological advances in disaster response serve their intended purpose: to help affected communities recover while maintaining human dignity and working towards fair results for everyone. The adoption of AI technologies that incorporate the Sendai Framework's four priorities will maximize the benefit of technological innovation to disaster risk reduction while also focusing on gender-specific vulnerabilities and strengths.


---

Género, IA y la respuesta ante desastres: cómo afrontar los riesgos de la innovación tecnológica en tiempos de crisis climática

La frecuencia y la gravedad de los desastres relacionados con el clima ha aumentado. Al mismo tiempo, ha habido un creciente despliegue de inteligencia artificial (IA) para mejorar las operaciones de respuesta y de recuperación ante desastres. Los desastres generan complejos desafíos humanitarios que se superponen con las debilidades sociales preexistentes. Si bien los beneficios de la IA en la respuesta a desastres incluyen una evaluación más rápida y una mejor asignación de recursos, estas tecnologías también conllevan riesgos que podrían perjudicar a las mujeres y a los grupos marginados.

Las tecnologías de IA pueden agilizar considerablemente las operaciones humanitarias al permitir la identificación de necesidades críticas y la distribución eficiente de recursos, a la vez que coordinan logísticas complejas. Los sistemas de IA tienen la capacidad de analizar amplios conjuntos de datos para pronosticar el impacto de desastres, a la vez que rastrean los movimientos de población e identifican a las personas vulnerables a la trata o la explotación. Reconociendo que, al hablar de vulnerabilidad en contextos de desastre, las mujeres no son inherentemente ni naturalmente más vulnerables, cuando se utilizan incorrectamente o se implementan de forma deficiente, las tecnologías de IA pueden agravar las vulnerabilidades de género derivadas de barreras culturales, institucionales y estructurales preexistentes que los desastres tienden a amplificar.

El Marco de Sendai para la Reducción del Riesgo de Desastres 2015-2030, adoptado por los Estados Miembros de la ONU, ofrece un método integral para analizar estos desafíos interrelacionados. Sus cuatro áreas principales —comprender el riesgo de desastres, fortalecer la gobernanza del riesgo de desastres, invertir en la reducción del riesgo de desastres y mejorar la preparación para desastres— ofrecen una forma sistemática de explorar el impacto de la implementación de la IA en las desigualdades de género en escenarios de desastre. El marco nos permite identificar áreas clave de intervención en los sistemas de respuesta a desastres con IA para garantizar que los avances tecnológicos promuevan la igualdad de género en lugar de obstaculizarla.

A medida que las respuestas a desastres asistidas por IA se vuelven más frecuentes debido al aumento del número y la gravedad de los desastres por el cambio climático, es fundamental comprender mejor estos riesgos. Basándose en la experiencia de la autora de este artículo, su profunda investigación sobre el nexo entre género, clima y seguridad y el desarrollo de un marco para la implementación de evaluaciones de riesgos con perspectiva de género en escenarios de desastre, este debate busca explorar los riesgos éticos de género que conlleva el uso de la IA en contextos de ayuda humanitaria y respuesta a desastres -HA/DR- (siglas de High Availability (HA) and Disaster Recovery (DR), que en español significa Alta Disponibilidad y Recuperación de Desastres). El objetivo no es desalentar el uso de la IA por parte de las organizaciones de respuesta a desastres, sino garantizar que su implementación promueva activamente, en lugar de socavar, la igualdad de género y los derechos humanos. Varias áreas de riesgo clave requieren especial atención, como la manipulación de recursos, el fomento de divisiones, la explotación de las personas vulnerables y el aumento de la vigilancia.

Manipulación de Recursos

Las tecnologías de IA pueden brindar beneficios sustanciales en la distribución de recursos ante desastres y tienen el potencial de generar respuestas humanitarias más efectivas y justas. Mediante el uso de algoritmos de aprendizaje automático, las imágenes satelitales pueden analizarse rápidamente para determinar los niveles de daños y las áreas prioritarias para la ayuda inmediata, reduciendo así el tiempo de evaluación de días a tan solo horas. El análisis predictivo basado en IA permite a las organizaciones anticipar la escasez de recursos, lo que facilita una gestión proactiva en lugar de respuestas reactivas. El análisis en tiempo real de las redes sociales y las comunicaciones de emergencia mejora las capacidades de procesamiento del lenguaje para detectar necesidades urgentes a medida que surgen. Aplicaciones de IA como éstas permiten mejorar la evaluación de riesgos y los mecanismos de preparación ante desastres, en consonancia con las Prioridades 1 y 4 del Marco de Sendai, al transformar la recopilación de información y las capacidades de respuesta.

Sin embargo, los sistemas de IA tienen el potencial de crear priorización demográfica basada en entradas de datos sesgadas. Una entrevista de ONU Mujeres informó que los sistemas de IA entrenados con datos sesgados tienen el potencial de empeorar las desigualdades de género existentes. Varias aplicaciones pueden manifestar este sesgo, incluyendo sistemas de respuesta a desastres en los que algoritmos distribuyen ayuda basados ​​en datos históricos sesgados por género. Por ejemplo, cuando los algoritmos aprenden de los datos que favorecen como receptores principales de asistencia a los hogares encabezados por hombres en los que solo los hombres tienen documentación oficial o cuentas bancarias, dichos algoritmos ignoran las necesidades particulares de las mujeres y los niños y pueden empeorar las desigualdades en la asignación de recursos. Un informe del Centro Berkeley Haas para la Equidad, el Género y el Liderazgo demuestra cómo los sistemas de IA con sesgos de género crean una distribución injusta de recursos y oportunidades para las mujeres. Los algoritmos de toma de decisiones en el socorro en desastres a menudo colocan las necesidades de las mujeres en un lugar más bajo en las listas de prioridades debido a datos pasados ​​que muestran desigualdades de acceso a los recursos relacionadas con el género. El Journal of Emergency Management and Disaster Communications presenta de manera similar los hallazgos de investigación sobre los sesgos de IA que pueden resultar en resultados discriminatorios o inequitativos durante situaciones de crisis. La presencia de sesgo de género en los sistemas de IA durante situaciones de desastre podría dar lugar a que la asistencia crítica se redirija desde las mujeres y los niños, que suelen ser más vulnerables y requieren apoyo.

Otro riesgo potencial: Los grupos criminales podrían explotar las tecnologías de IA para crear solicitudes falsas de ayuda o recursos. El fraude al seguro de desempleo durante la pandemia de COVID-19 provocó que organizaciones criminales y redes internacionales de fraude presentaran solicitudes falsas utilizando identidades robadas y empleadores ficticios para obtener beneficios que luego gastaron en artículos de lujo, viajes, armas y operaciones de asesinato a sueldo. El uso indebido de la IA no solo privará a las víctimas legítimas de la asistencia necesaria, sino que también contaminaría los datos que fundamentan las decisiones de asignación de recursos en el futuro. Los ciber delincuentes han utilizado estrategias de ingeniería social para engañar a las personas y hacer que revelen información personal confidencial sobre sus necesidades o debilidades. Mediante el análisis de redes sociales y la elaboración de perfiles de mujeres y grupos marginados mediante IA, los actores maliciosos pueden extraer datos personales de perfiles en redes sociales que luego utilizan para realizar estafas financieras o atraer a personas a la trata de personas. Los ciber delincuentes pueden falsificar herramientas para crear personajes virtuales falsos y clones de audio diseñados para persuadir a trabajadores o personas a revelar información confidencial.

Desinformación y división

Si bien la manipulación de recursos afecta principalmente a la distribución física de ayuda, la manipulación social mediante IA presenta diferentes oportunidades y desafíos. La IA ofrece herramientas poderosas que combaten la desinformación durante emergencias y establecen sistemas de información que garantizan la protección de las poblaciones en riesgo. Los equipos de respuesta a emergencias pueden abordar la desinformación eficazmente mediante la rápida detección de algoritmos de procesamiento del lenguaje natural, que detectan las narrativas falsas antes de que se propaguen. Al analizar patrones de información en múltiples plataformas, los sistemas de aprendizaje automático pueden identificar campañas de desinformación coordinadas dirigidas a comunidades específicas aprovechando las divisiones de género o étnicas. Las autoridades utilizan estas tecnologías para crear canales de información fiables que ofrecen actualizaciones oportunas y precisas sobre las condiciones y los recursos en caso de desastre. Las capacidades de IA contribuyen a lograr la Prioridad 2 del Marco de Sendai al preservar la integridad de la información, lo que permite una coordinación y una toma de decisiones eficaces durante los desastres.

Sin embargo, las campañas de desinformación impulsadas por tecnologías de IA pueden gestarse rápidamente durante desastres y dirigirse a grupos demográficos específicos, lo que podría generar un aumento de las tensiones sociales. Por ejemplo, la IA puede generar y difundir desinformación dirigida a géneros o comunidades específicos, un arma poderosa en manos de redes antiliberales y autocráticas, a menudo dominadas por hombres, que crean entornos donde la corrupción y el abuso de autoridad pueden proliferar sin control. Según investigaciones de la Brookings Institution, se sabe que estos grupos emplean la desinformación para silenciar a las críticas, mantener el poder y reprimir las demandas de rendición de cuentas y una mejor gobernanza. La participación política de las mujeres se considera un desafío para estas redes arraigadas, lo que las convierte en blanco de estas campañas de desinformación. Las redes dominadas por hombres también han utilizado la desinformación para presentar a las mujeres únicamente como víctimas, en lugar de participantes activas en los esfuerzos de recuperación, con el fin de disminuir su capacidad de acción y sus contribuciones. Las narrativas de vulnerabilidad también dificultan considerablemente el cambio de las normas de género discriminatorias. Ambos tipos de narrativas marginan la voz de las mujeres en los procesos de toma de decisiones y reducen su poder para influir en la naturaleza de la respuesta y la recuperación ante desastres.

La IA también tiene el potencial de obstaculizar las redes beneficiosas, a la vez que desacredita a las mujeres líderes o las representa solo como víctimas y no como actores empoderados. El artículo de IEEE Xplore, "Aprovechando el poder de la inteligencia artificial para la respuesta a desastres y la gestión de crisis", explica cómo la inteligencia artificial puede apoyar a las redes comunitarias en la respuesta a desastres, pero también permitir que actores maliciosos interrumpan estas redes y aíslen a las mujeres para su explotación. Los algoritmos tienen el potencial de amplificar el contenido divisivo que crea conflictos entre grupos comunitarios en función del género o el estatus socioeconómico. El informe de Brookings Institution estableció que, a lo largo de la pandemia, los esfuerzos de desinformación con perspectiva de género se dirigieron a las mujeres líderes al difundir falsas acusaciones de mala gestión e incompetencia en situaciones de crisis, lo que dañó su credibilidad y reforzó estereotipos negativos. Esta información engañosa destruyó la confianza pública, a la vez que intensificó los conflictos sociales y perjudicó a las mujeres que lideran organizaciones u ocupan puestos vulnerables. Las capacidades de la inteligencia artificial permiten enfoques similares para aumentar las tensiones y dirigir la violencia contra las mujeres.

Explotación de Personas Vulnerables a la Trata

Las tecnologías de IA ofrecen oportunidades para apoyar a las poblaciones vulnerables tras desastres, pero también pueden ser manipuladas por actores maliciosos para explotarlas. Por un lado, los sistemas de IA proporcionan herramientas para impedir que actores maliciosos abusen de las poblaciones vulnerables a la trata de personas, especialmente a las mujeres. Los sistemas de IA modernos se utilizan cada vez más para mejorar la identificación de posibles víctimas de trata mediante el análisis de material en línea y la detección de indicadores de trata. Los sistemas de IA analizan la actividad en redes sociales para detectar patrones que muestren posibles riesgos de trata mediante comunicaciones inusuales o movimientos geográficos que coincidan con las rutas de trata reconocidas.

Mediante el entrenamiento de algoritmos de aprendizaje automático, las organizaciones pueden detectar señales de trata en anuncios en línea y publicaciones en redes sociales, como aquellos que promocionan la prostitución o los servicios de acompañantes. Los algoritmos identifican anuncios que muestran personas vulnerables o palabras coercitivas para informar a las autoridades sobre posibles casos de trata donde los traficantes venden a las víctimas. La inteligencia artificial también puede permitir a las autoridades priorizar mejor los casos e intervenir con mayor eficacia al revelar patrones ocultos en grandes conjuntos de datos. La capacidad de identificar a mujeres y a niños que podrían estar separados de sus familias desempeña un papel crucial, ya que estas personas enfrentan un mayor riesgo de explotación.

Sin embargo, las ventajas potenciales de los algoritmos de IA se suman a su capacidad para empoderar a los traficantes de personas mediante el examen de patrones en redes sociales y datos de geolocalización, junto con información demográfica, para localizar a mujeres y niños que han sido separados de sus familias o que carecen de acceso a recursos esenciales. Un informe de Europol titulado "Los desafíos de la lucha contra la trata de personas en la era digital" revela los métodos que los traficantes emplean en las tecnologías de la comunicación modernas y las redes sociales para victimizar a las personas. Las plataformas de redes sociales sirven como "catálogos virtuales" que los traficantes utilizan para detectar nuevas víctimas y desarrollar estrategias de captación.

Mayor vigilancia en zonas de desastre

Tras un desastre, las autoridades suelen implementar sistemas de vigilancia para ayudar a gestionar el orden público mientras evalúan los niveles de destrucción y organizan las operaciones de asistencia de emergencia. Los esfuerzos de respuesta ante desastres se vuelven significativamente más eficaces para salvar vidas cuando las tecnologías de vigilancia con IA se utilizan de forma ética durante emergencias críticas. Los sistemas de visión artificial con aprendizaje profundo permiten a los equipos de rescate encontrar rápidamente a los supervivientes atrapados, lo que les permite concentrar sus esfuerzos y salvar a las víctimas antes de que las condiciones empeoren. Los drones equipados con imágenes térmicas pueden realizar vigilancia en zonas peligrosas para localizar las señales de calor de los supervivientes dentro de estructuras derrumbadas o zonas inundadas donde las técnicas de búsqueda tradicionales fallan. El monitoreo en tiempo real de las condiciones del desastre mediante sistemas satelitales permite a las autoridades emitir órdenes de evacuación para las comunidades en riesgo basándose en el seguimiento de la propagación de incendios forestales y el movimiento de las aguas de las inundaciones. La vigilancia con IA, que incorpora sólidas directrices éticas y la colaboración comunitaria, ayuda a proteger a los grupos vulnerables durante las emergencias, a la vez que defiende sus derechos fundamentales y su dignidad. La implementación ética de las tecnologías de vigilancia impulsa la preparación ante desastres para apoyar la Prioridad 4 del Marco de Sendai, que requiere mejores sistemas de alerta temprana y una mejor coordinación durante las emergencias.

Sin embargo, estas tecnologías pueden producir resultados negativos inesperados. Las cámaras de reconocimiento facial o los drones con sistemas de vigilancia de IA pueden ubicarse en lugares donde las personas desplazadas forman grandes grupos. Los sistemas de vigilancia de IA suelen utilizar datos de entrenamiento que no representan la diversidad suficiente de las poblaciones para producir resultados fiables que permitan identificar a las mujeres de comunidades minoritarias. La expansión de las prácticas de vigilancia establece una cultura policial dirigida especialmente a las mujeres.

Por ejemplo, en las sociedades patriarcales, el aumento de la vigilancia de las mujeres se ha utilizado para empoderar a las figuras masculinas —como familiares o líderes comunitarios— y así ejercer control sobre los movimientos y las decisiones de las mujeres. Esta dinámica de control podría afianzar aún más las desigualdades de género y limitar la autonomía de las mujeres cuando se utiliza con IA. Además, se sabe que un mayor escrutinio crea un entorno de miedo y ansiedad, lo que dificulta que las mujeres accedan a servicios esenciales o busquen ayuda. Este aumento de la vigilancia impulsada por IA tras un desastre también podría aumentar inadvertidamente los riesgos de violencia de género (VG).

El monitoreo constante puede generar desconfianza en las comunidades hacia las autoridades y las organizaciones humanitarias. Según hallazgos de la Red de Práctica Humanitaria, los sistemas de inteligencia artificial respaldan la vigilancia humanitaria. El informe revela que cuando las comunidades creen que su privacidad está comprometida debido a la recopilación extensiva de datos, se mina su confianza en las autoridades y las organizaciones humanitarias. Las mujeres y otras personas pueden evitar buscar ayuda esencial cuando desconfían de las autoridades y las organizaciones humanitarias. Las prácticas de vigilancia pueden quebrantar la solidaridad comunitaria al generar sospechas entre los residentes. Cuando las personas se sienten monitoreadas y juzgadas por sus acciones, pierden la confianza en su comunidad, lo que debilita la solidaridad y crea divisiones de género que reducen los sistemas de apoyo para las labores de recuperación, especialmente para las mujeres.

Recomendaciones para prácticas éticas de IA tras desastres

Las siguientes recomendaciones sobre cómo abordar los diversos riesgos y desafíos de género asociados con el uso de IA en escenarios de desastre se organizan según las cuatro prioridades del Marco de Sendai:

Prioridad 1: Comprender el riesgo de desastres

  • Realizar auditorías exhaustivas para revisar los sistemas de IA implementados para evaluar las necesidades y asignar recursos durante la respuesta a desastres. Estas auditorías deben centrarse en la identificación de sesgos de género y la evaluación de la representación demográfica, junto con métricas de equidad.
  • Establecer directrices integrales de recopilación de datos que exijan información desglosada por género para analizar cómo los desastres afectan de manera diferente a las poblaciones.

Prioridad 2: Fortalecer la gobernanza del riesgo de desastres

  • Crear paneles de supervisión con miembros de las comunidades afectadas, junto con mujeres y grupos sub representados, para examinar las opciones de distribución basadas en IA.
  • Desarrollar marcos de protección de datos que protejan la información y mantengan la privacidad personal.
  • Crear entidades de supervisión autónomas que puedan investigar los abusos de la IA en la respuesta a desastres.

Prioridad 3: Invertir en la reducción del riesgo de desastres para la resiliencia

  • Implementar sistemas de monitoreo de IA que incluyan protecciones éticas para identificar riesgos de trata, preservando la privacidad de las poblaciones vulnerable.
  • Exigir que el personal de respuesta ante desastres reciba capacitación que abarque prácticas éticas de IA, así como métodos de detección de sesgos y protección de la privacidad.
  • Ofrecer programas de capacitación para las comunidades locales, con especial atención a los grupos de mujeres, para ayudarles a detectar y denunciar los intentos de abuso y explotación de la IA.

Prioridad 4: Mejorar la preparación ante desastres

  • Crear sistemas sólidos de verificación de datos y equipos de respuesta rápida para combatir la desinformación generada por las tecnologías de IA.
  • Exigir que las plataformas de redes sociales establezcan procedimientos para detectar y eliminar el contenido generado por IA que busque incitar la división social.
  • Imponer controles de acceso estrictos a los sistemas de vigilancia para evitar que actores maliciosos los exploten.
  • Adoptar una planificación de respuesta ante desastres basada en IA para métodos de consolidación de la paz ambiental que aborden la relación entre los factores de estrés climático que aumentan las vulnerabilidades sociales y los riesgos de género.

Conclusión

La intersección de la inteligencia artificial y la respuesta a desastres presenta tanto avances potenciales como peligros importantes. El posible uso indebido de la IA requiere medidas proactivas, a pesar de que esta ayuda a mejorar la eficiencia y la eficacia de la respuesta a desastres. Los desafíos identificados aquí demuestran por qué necesitamos un marco sólido que impulse el progreso tecnológico y proteja los derechos humanos. Este marco debe integrar medidas de consolidación de la paz ambiental para gestionar tanto las necesidades humanitarias actuales como la resiliencia futura, dado que el cambio climático impulsa un aumento de desastres más frecuentes y graves. Este enfoque reconoce que las presiones ambientales agravan las disparidades de género y exige que los sistemas de IA analicen los impactos climáticos diferenciales en hombres y mujeres en zonas vulnerables a desastres.

El uso eficaz de sistemas de IA éticos durante desastres depende de lograr un equilibrio entre las funciones tecnológicas y la supervisión humana, junto con la participación comunitaria y medidas de protección sólidas. Las organizaciones de respuesta a desastres pueden aprovechar el potencial de la IA y, al mismo tiempo, proteger a grupos vulnerables, como las mujeres y las comunidades marginadas, de la explotación y el daño, siguiendo las recomendaciones sugeridas aquí. Este enfoque garantiza que los avances tecnológicos en la respuesta a desastres cumplan su propósito: ayudar a las comunidades afectadas a recuperarse, preservando la dignidad humana y trabajando para obtener resultados justos para todos. La adopción de tecnologías de IA que incorporen las cuatro prioridades del Marco de Sendai maximizará el beneficio de la innovación tecnológica para la reducción del riesgo de desastres, centrándose al mismo tiempo en las vulnerabilidades y fortalezas específicas de cada género.