# Utilizando la Inteligencia Artificial Generativa (IAG) para defender los derechos humanos
**Shirin Anlen, Raquel Vásquez Llorente, 28 de junio de 2023**
Original en inglés [aquí](https://blog.witness.org/2023/06/using-generative-ai-for-human-rights-advocacy/).
## Resumen
Reflexiones sobre el uso responsable de herramientas de Inteligencia Artificial (IA) para la creación y modificación de fotografías, videos y audios.
## Notas
- La llegada de los medios de comunicación sintéticos ha hecho más fácil descartar las imágenes reales. Cuando se generen o modifiquen contenidos audiovisuales con IA, es importante pensar en el papel de las organizaciones de derechos humanos a nivel mundial al establecer estándares y utilizar herramientas de forma que no se produzcan daños colaterales a grupos locales que se enfrentan a presiones mucho más extremas.
- Recomendaciones:
- [Etiquetas](https://www.wired.com/story/the-thorny-art-of-deepfake-labeling/), marcas de agua, metadatos o huellas digitales invisibles para rastrear procedencia.
- Siempre se debe revelar el uso de IA.
- Consentimiento con excepciones (ej.: para sátira política).
- Existen [directrices](https://es.witness.org/portfolio_page/normas-eticas-como-utilizar-los-videos-de-testigos-presenciales-para-informar-y-defender-los-derechos-humanos/) sobre [consentimiento informado](https://es.witness.org/portfolio_page/obtener-consentimiento-informado/).
- Las expectativas sobre veracidad y la extensión de manipulación dependen del contexto (ej.: película v. transmisión de información).
- Consideraciones éticas de ciertos casos
- Protección de la identidad
- Pueden usarse filtros como el desenfoque (blur).
- Cuidadoso monitoreo para no reproducir prejuicios sociales, raciales y de género.
- Visualizar testimonios, reconstruir lugares y eventos
- Advertencias
- No debe usarse cuando existan grabaciones reales y puedan ser obtenidas
- Sátira y expresión política
- Etiquetado claro