# Utilizando la Inteligencia Artificial Generativa (IAG) para defender los derechos humanos **Shirin Anlen, Raquel Vásquez Llorente, 28 de junio de 2023** Original en inglés [aquí](https://blog.witness.org/2023/06/using-generative-ai-for-human-rights-advocacy/). ## Resumen Reflexiones sobre el uso responsable de herramientas de Inteligencia Artificial (IA) para la creación y modificación de fotografías, videos y audios. ## Notas - La llegada de los medios de comunicación sintéticos ha hecho más fácil descartar las imágenes reales. Cuando se generen o modifiquen contenidos audiovisuales con IA, es importante pensar en el papel de las organizaciones de derechos humanos a nivel mundial al establecer estándares y utilizar herramientas de forma que no se produzcan daños colaterales a grupos locales que se enfrentan a presiones mucho más extremas. - Recomendaciones: - [Etiquetas](https://www.wired.com/story/the-thorny-art-of-deepfake-labeling/), marcas de agua, metadatos o huellas digitales invisibles para rastrear procedencia. - Siempre se debe revelar el uso de IA. - Consentimiento con excepciones (ej.: para sátira política). - Existen [directrices](https://es.witness.org/portfolio_page/normas-eticas-como-utilizar-los-videos-de-testigos-presenciales-para-informar-y-defender-los-derechos-humanos/) sobre [consentimiento informado](https://es.witness.org/portfolio_page/obtener-consentimiento-informado/). - Las expectativas sobre veracidad y la extensión de manipulación dependen del contexto (ej.: película v. transmisión de información). - Consideraciones éticas de ciertos casos - Protección de la identidad - Pueden usarse filtros como el desenfoque (blur). - Cuidadoso monitoreo para no reproducir prejuicios sociales, raciales y de género. - Visualizar testimonios, reconstruir lugares y eventos - Advertencias - No debe usarse cuando existan grabaciones reales y puedan ser obtenidas - Sátira y expresión política - Etiquetado claro