Sesgos en la Representación de Profesionales de la Ciencia Forense en Imágenes Generadas por Inteligencia Artificial
DOI:
https://doi.org/10.22201/dgtic.26832968e.2025.12.57Palabras clave:
análisis de imágenes, auditoría de algoritmos, sesgo de género, inteligencia artificial, estereotipos en ciencia, algoritmos generativosResumen
A través de una dinámica de aula, 30 estudiantes universitarios analizaron 600 imágenes generadas por la inteligencia artificial FastFlux, representando a profesionales de 20 especialidades de las ciencias forenses. Se identificaron sesgos y estereotipos en las representaciones, resaltando los símbolos científicos, pero no los asociados a la administración de justicia. Predominaron las representaciones de hombres caucásicos de mediana edad y mayores, con barba o bigote, gafas y sosteniendo objetos vinculados a su especialidad, proyectando una apariencia ordenada y profesional. Es evidente la subrepresentación del género femenino y el color de piel oscura. A través de entrevistas previas y posteriores, se evaluó la percepción de los estudiantes sobre estos programas de generación de imágenes. Inicialmente, la mayoría de los estudiantes no reconocieron sesgos sociales y expresaron una alta confianza en la precisión de las imágenes, especialmente para el entretenimiento. Luego de la actividad, los participantes afirmaron que continuarían utilizando estas herramientas, pero con mayor conciencia crítica. La actividad es adaptable a diferentes niveles educativos y contextos y puede completarse en dos horas. Este tipo de ejercicios revela las limitaciones de los programas informáticos y permite a los usuarios obtener más claridad sobre el alcance de las herramientas de construcción de imágenes.
Descargas
Citas
[1] J. M. S.-V. L. E. Ruiz-Gutiérrez, «Elección de carrera y género,» Revista Electrónica de Investigación y Docencia, nº 19, pp. 7-20, 2018.
[2] J. Ward, R. N. Johnson y L. Wilson-Wilde, «Gender equity: how do the forensic sciences fare?,» Australian Journal of Forensic Sciences, vol. 51, nº sup1, pp. S263-S267, 2019.
[3] H. Marshall, R. Julian y L. M. Howes, «Forensic science and gendered organizations: an exploratory study of crime scene examiners,» Australian Journal of Forensic Sciences, vol. 55, nº 1, pp. 59-72, 2021.
[4] UNAM, «Evaluación diagnóstica, para la revisión del plan de estudios de la Licenciatura en Ciencia Forense,» 10 2019. [En línea]. Disponible: https://www.enacif.unam.mx/wp-content/uploads/2019/10/Diagn%C3%B3sticoInstitucionalVersi%C3%B3nP%C3%BAblica.pdf. [Accedido: 11 15 2024].
[5] G. Cooper y K. S. Tang, «Pixels and Pedagogy: Examining Science Education Imagery by Generative Artificial Intelligence,» Journal of Science Education and Technology, vol. 33, p. 556–568, 2024.
[6] F. M. y W. Holmes, Guidance for generative AI in education and research, N.Y.: UNESCO, 2023, p. 44.
[7] C. Schuhmann, R. Beaumont, R. Vencu, C. Gordon, R. Wightman, M. Cherti y J. ... Jitsev, «Laion-5b: An open large-scale dataset for training next generation image-text models,» Advances in Neural Information Processing Systems, vol. 35, pp. 25278-25294, 2022.
[8] LIAON, «LIAON,» [En línea]. Disponible: https://laion.ai/. [Accedido: 15 09 2024].
[9] C. Pérez-Granados y K. L. Schuchmann, «Monitoring the annual vocal activity of two enigmatic nocturnal Neotropical birds: the Common Potoo (Nyctibius griseus) and the Great Potoo (Nyctibius grandis),» Journal of Ornithology, vol. 161, nº 4, pp. 1129-1141, 2020.
[10] H. Vartiainen y M. Tedre, «Using artificial intelligence in craft education: crafting with text-to-image generative models,» Digital Creativity, vol. 34, nº 1, p. 1–21, 2023.
[11] B. Van Giffen, D. Herhausen y T. Fahse, «Overcoming the pitfalls and perils of algorithms: A classification of machine learning biases and mitigation methods,» Journal of Business Research, vol. 144, pp. 93-106, 2022.
[12] B. S. Guy, J. Zhang, S. Dance-Barnes, D. H. Tafari, K. Brown y C. Markert, «Digitizing the Draw-a-Scientist Test,» In 2023 IEEE Frontiers in Education Conference, pp. 1-8, 2023.
[13] J. Schummer y T. I. Spector, «The visual image of chemistry: Perspectives from the history of art and science.,» de The public image of chemistry, USA, Wiley, 2007, pp. 213-257.
[14] P. B. Jarreau, I. A. Cancellare, B. J. Carmichael, L. Porter, D. Toker y S. Z. Yammine, «Using selfies to challenge public stereotypes of scientists,» PloS one, vol. 14, nº 5, p. e0216625, 2019.
[15] P. B. Pellicer y J. M. Muñoz-Escolano, «Inteligencia artificial, dibujos animados y matemáticas: reflejos de la organización del aula en la ficción y la realidad,» Edma 0-6: Educación Matemática en la Infancia, vol. 13, nº 1, pp. 93-110, 2024.
[16] O. Endrődy y R. Bahbibi, «Stereotypical Depictions of Malaysian and Hungarian University Professors Generated by AI,» Neveléstudomány| Oktatás–Kutatás–Innováció, vol. 12, nº 1, pp. 6-17, 2024.
[17] R. Ulloa, A. C. Richter, M. Makhortykh y A. K. C. S. Urman, «Representativeness and face-ism: Gender bias in image search,» New media & society, vol. 26, nº 6, pp. 3541-3567, 2024.
[18] G. Currie, J. Currie, S. Anderson y J. Hewis, «Gender bias in generative artificial intelligence text-to-image depiction of medical students,» Health Education Journal, p. 00178969241274621, 2024.

Descargas
Publicado
Cómo citar
Número
Sección
Licencia
Derechos de autor 2025 Vicente Torres Zúñiga

Esta obra está bajo una licencia internacional Creative Commons Atribución-NoComercial 4.0.
TIES, Revista de Tecnología e Innovación en Educación Superior, es una publicación semestral de acceso abierto bajo la licencia Creative Commons Atribución-No Comercial 4.0 Internacional (CC BY-NC 4.0).
ISSN 22683-2968 • © 2025 Universidad Nacional Autónoma de México. TIES, Revista de Tecnología e Innovación en Educación Superior es editada por la Universidad Nacional Autónoma de México a través de la Dirección General de Cómputo y de Tecnologías de Información y Comunicación (DGTIC). Circuito exterior s/n, Ciudad Universitaria, Alcaldía Coyoacán, C.P. 04510, Ciudad de México, México • Reserva de Derechos de Autor otorgado por INDAUTOR: 04-2019-011816190900-203.
El contenido de los artículos es responsabilidad de los autores y no refleja el punto de vista del Comité editorial, del Editor o de la Universidad Nacional Autónoma de México. Hecho en México, 2025.