Optimización de la vigilancia volcánica: visión computacional para la detección de emisiones de ceniza del volcán Popocatépetl

Autores/as

DOI:

https://doi.org/10.22201/dgtic.26832968e.2025.13.55

Palabras clave:

inteligencia artificial, visión computacional, clasificación de imágenes, detección de objetos, monitoreo volcánico, emisión de ceniza, Popocatépetl

Resumen

El monitoreo del volcán Popocatépetl busca proporcionar herramientas a las autoridades de protección civil para mitigar los riesgos asociados con la actividad volcánica. En México, el Cenapred y la UNAM llevan a cabo esta vigilancia para reducir los riesgos asociados a las emisiones de ceniza, los cuales pueden afectar la salud de la población y causar disrupciones en los servicios de aeronavegación. El monitoreo visual se realiza mediante cámaras web que transmiten al Cenapred, donde se requiere la presencia de personal las 24 horas del día, por lo que un sistema automatizado sería crucial para optimizar los recursos humanos disponibles. Para abordar esta necesidad, se propone un modelo de visión computacional que reconozca las emisiones de ceniza. Los datos para el entrenamiento del modelo se obtuvieron gracias a la red de cámaras operadas por Cenapred y Webcams de México, y la programación del mismo se realizó con TensorFlow en equipos Atlas de Huawei. Se obtuvo una precisión de 98% en el modelo de clasificación de imágenes en dos categorías: con actividad y sin actividad; y 84% con tres categorías: sin actividad, gases y cenizas.

Descargas

Los datos de descargas todavía no están disponibles.

Citas

[1] R. Espinasa Pereña, Historia de la actividad del volcán Popocatépetl, 17 años de erupciones, 1ra ed. México, D.F.: Secretaría de Gobernación, Cenapred, 2012. [En línea]. Disponible en: https://www.cenapred.unam.mx/es/Publicaciones/archivos/225-HISTORIADELAACTIVIDADDELVOLCNPOPOCATPETL-17AOSDEERUPCIONES.PDF

[2] A. L. Martin Del Pozzo, et al., “Memoria técnica del mapa de peligros del volcán Popocatépetl, 1ra ed.” en Monografías del Instituto de Geofísica, no. 22. México, D.F.: Instituto de Geofísica, UNAM, 2017. [En línea]. Disponible en: https://www.geofisica.unam.mx/monografias/IGEF_monografias_22.pdf

[3] R. Quass Weppen y S. M. Alcocer Martínez de Castro (coords.), Las cenizas volcánicas del Popocatépetl y sus efectos para la aeronavegación e infraestructura aeroportuaria, 1era ed. México, D.F.: Secretaría de Gobernación, Cenapred, 2001. [En línea]. Disponible en: https://www.cenapred.unam.mx/es/Publicaciones/archivos/111-LASCENIZASVOLCNICASDELPOPOCATPETLYSUSEFECTOSPARALAAERONAVEGACINEINFRAESTRUCTURAAEROPORTUARIA.PDF

[4] H. U. Schmincke, Volcanism. Berlin Heidelberg: Springer Verlag, 2004.

[5] M. Rojas Ramos, H. Noa Ortega, J. Pérez Neria, y J. Villalba Caloca, “Efecto sobre la función pulmonar en personas expuestas a cenizas del volcán Popocatépetl: diciembre 1994-enero 1995”, Rev. Inst. Nac. Enfermedades Respiratorias, pp. 112–8, 1995.

[6] R. J. Clarkson, E. J. Majewicz, y P. Mack, “A re-evaluation of the 2010 quantitative understanding of the effects volcanic ash has on gas turbine engines”, Proceedings of the Institution of Mechanical Engineers, Part G: Journal of Aerospace Engineering, vol. 230, núm. 12, pp. 2274–2291, oct. 2016, doi: 10.1177/0954410015623372.

[7] Z. Fanti Gutiérrez, A. Gastelum-Strozzi, E. Hazan-Lasri, y F. Arámbula Cosío, “Aprendizaje computacional aplicado a la detección de huesos, en cirugía ortopédica asistida por computadora”, TIES, Revista de Tecnología e Innovación en Educación Superior, núm. 4, pp. 1–11, may 2021, doi: 10.22201/dgtic.26832968e.2021.4.5.

[8] J. L. Morales Reyes, H. G. Acosta Mesa, E. N. Aquino Bolaños, M. D. S. Herrera Meza, N. Cruz Ramírez, y J. L. Chávez-Servia, “Clasificación de poblaciones nativas de frijol utilizando visión artificial”, TIES, Revista de Tecnología e Innovación en Educación Superior, núm. 4, pp. 1–11, oct. 2021, doi: 10.22201/dgtic.26832968e.2021.4.2.

[9] L. Bertucco, M. Coltelli, G. Nunnari, y L. Occhipinti, “Cellular neural networks for real-time monitoring of volcanic activity”, Computers & Geosciences, vol. 25, núm. 2, pp. 101–117, mar. 1999, doi: 10.1016/S0098-3004(98)00114-9.

[10] C. D. Martínez, R. C. Uribe, C. Ospina, y R. Vargas Cañas, “Clasificación de imágenes de cámaras de vigilancia volcánica usando visión artificial”, RISTI: Revista Ibérica de Sistemas e Tecnologias de Informação, núm. Extra 38, pp. 185–198, 2020.

[11] R. Centeno, V. Gómez-Salcedo, I. Lazarte, J. Vilca-Nina, S. Osores, y E. Mayhua-Lopez, “Near-real-time multiparametric seismic and visual monitoring of explosive activity at Sabancaya volcano, Peru”, Journal of Volcanology and Geothermal Research, vol. 451, p. 108097, jul. 2024, doi: 10.1016/j.jvolgeores.2024.108097.

[12] J. F. Guerrero Tello, M. Coltelli, M. Marsella, A. Celauro, y J. A. Palenzuela Baena, “Convolutional Neural Network Algorithms for Semantic Segmentation of Volcanic Ash Plumes Using Visible Camera Imagery”, Remote Sensing, vol. 14, núm. 18, Art. núm. 18, ene. 2022, doi: 10.3390/rs14184477.

[13] S. Korolev, A. Sorokin, I. Urmanov, A. Kamaev, y O. Girina, “Classification of Video Observation Data for Volcanic Activity Monitoring Using Computer Vision and Modern Neural NetWorks (on Klyuchevskoy Volcano Example)”, Remote Sensing, vol. 13, núm. 23, Art. núm. 23, ene. 2021, doi: 10.3390/rs13234747.

[14] T. C. Wilkes, T. D. Pering, y A. J. S. McGonigle, “Semantic segmentation of explosive volcanic plumes through deep learning”, Computers & Geosciences, vol. 168, p. 105216, nov. 2022, doi: 10.1016/j.cageo.2022.105216.

[15] Volcanes, webcams en vivo, Webcams de México. Consultado: el 6 de noviembre de 2024. [En línea]. Disponible en: https://webcamsdemexico.com/webcams/volcanes/

[16] Reporte del monitoreo del Cenapred al volcán Popocatépetl, Cenapred. Consultado: el 6 de noviembre de 2024. [En línea]. Disponible en: https://www.cenapred.unam.mx/reportesVolcanesMX/

[17] Observación Volcánica. Consultado: el 6 de noviembre de 2024. [En línea]. Disponible en: https://www.facebook.com/ObervacionVolcanica

[18] S. Wang y Z. Su, “Metamorphic Testing for Object Detection Systems”, el 19 de diciembre de 2019, arXiv: arXiv:1912.12162. doi: 10.48550/arXiv.1912.12162.

[19] E. Tellez, erictellez/Popocatepetl_CV. (el 20 de septiembre de 2024). Jupyter Notebook. Consultado: el 6 de noviembre de 2024. [En línea]. Disponible en: https://github.com/erictellez/Popocatepetl_CV

[20] “¿Qué es el aprendizaje por transferencia?”, IBM, Consultado: el 7 de noviembre de 2024. [En línea]. Disponible en: https://www.ibm.com/es-es/topics/transfer-learning

[21] “Keras documentation: MobileNet, MobileNetV2, and MobileNetV3”, Keras Team, Consultado: el 7 de noviembre de 2024. [En línea]. Disponible en: https://keras.io/api/applications/mobilenet/

[22] Ringa Tech, ¿Pocos datos de entrenamiento? Prueba esta técnica, (el 30 de noviembre de 2021). Consultado: el 7 de noviembre de 2024. [Video en línea]. Disponible en: https://www.youtube.com/watch?v=9Dur_oUMGG8

[23] “¿Qué es el sobreajuste?”, IBM. Consultado: el 6 de noviembre de 2024. [En línea]. Disponible en: https://www.ibm.com/mx-es/topics/overfitting

[24] “Aumento de datos | TensorFlow Core”, TensorFlow. Consultado: el 8 de noviembre de 2024. [En línea]. Disponible en: https://www.tensorflow.org/tutorials/images/data_augmentation?hl=es-419

[25] “Recursos – Alianza”. UNAM. Consultado: el 30 de junio de 2025. [En línea]. Disponible en: https://alianza.unam.mx/recursos/

[26] “tf.keras.preprocessing.image_dataset_from_directory | TensorFlow v2.16.1”, TensorFlow. Consultado: el 8 de noviembre de 2024. [En línea]. Disponible en: https://www.tensorflow.org/api_docs/python/tf/keras/preprocessing/image_dataset_from_directory

[27] “¿Qué es la detección de objetos?”, IBM. Consultado: el 9 de noviembre de 2024. [En línea]. Disponible en: https://www.ibm.com/mx-es/topics/object-detection

[28] “IAPOPO Dataset > Overview”, Roboflow. Consultado: el 9 de noviembre de 2024. [En línea]. Disponible en: https://universe.roboflow.com/ia-popo/iapopo

[29] J. Torres, “YOLOv8 Documentation: A Deep Dive into the Documentation - YOLOv8”. Consultado: el 4 de octubre de 2024. [En línea]. Disponible en: https://yolov8.org/yolov8-documentation/

[30] J. Redmon, S. Divvala, R. Girshick, y A. Farhadi, “You Only Look Once: Unified, Real-Time Object Detection”, el 9 de mayo de 2016, arXiv: arXiv:1506.02640. doi: 10.48550/arXiv.1506.02640.

Imagen de un volcán en erupción con una gran columna de ceniza; en la esquina superior izquierda aparece un recuadro naranja con el texto ‘Ceniza 86 %’; sobre la composición se superponen círculos de colores con patrones de gráfico circular en tonos rojo, naranja y verde.

Publicado

5/09/25 (12:00)

Cómo citar

Tellez Ugalde, E. B., Vela Rosas, M. Ángel, Sánchez Tafolla, Y. E., Fernández Pineda, A., García Fierros, F. T., Abaffy Castillo, H. J., & Delgado Granados, H. (2025). Optimización de la vigilancia volcánica: visión computacional para la detección de emisiones de ceniza del volcán Popocatépetl. TIES, Revista De Tecnología E Innovación En Educación Superior, (13), 31–46. https://doi.org/10.22201/dgtic.26832968e.2025.13.55