Por favor, use este identificador para citar o enlazar este ítem: https://hdl.handle.net/20.500.12921/575
Título : The Peruvian Amazon forestry dataset: A leaf image classification corpus
Autor : Vizcarra Aguilar, Gerson
Bermejo Escobar, Danitza
Mauricio Condori, Antoni
Zárate Gómez, Ricardo
Dianderas Caut, Erwin
Palabras clave : Datos botánicos
Colección de datos
Procesamiento digital de imágenes
Clasificación de imágenes
Aplicaciones de computadoras
Identificación botánica
Árboles maderables
Amazonía
Fecha de publicación : may-2021
Editorial : Elsevier
Citación : Vizcarra, G., Bermejo, D., Mauricio, A., Gomez, R. Z., & Dianderas, E. (2021). The Peruvian Amazon forestry dataset: A leaf image classification corpus. Ecological Informatics, 62: 101268. https://doi.org/10.1016/j.ecoinf.2021.101268
Resumen : Los censos forestales permiten obtener datos precisos para la planificación de la tala y la elaboración del plan de gestión forestal. Los errores de identificación de las especies conllevan planes de gestión forestal inadecuados y altos riesgos dentro de las concesiones forestales. Por ello, un protocolo de identificación evita la explotación de especies maderables no comerciales o en peligro de extinción. La legislación peruana actual permite la incorporación de expertos no técnicos, llamados "materos", durante la identificación. Los materos utilizan nombres comunes dados por el folclore y las tradiciones de sus comunidades en lugar de los formales, lo que generalmente conduce a clasificaciones erróneas. En el mundo real, las empresas madereras contratan a materos en lugar de botánicos debido a las limitaciones de coste y tiempo. Teniendo en cuenta esta motivación, exploramos una solución de software de extremo a extremo para automatizar la identificación de especies. Este trabajo presenta el conjunto de datos forestales de la Amazonía peruana, que incluye 59.441 muestras de hojas de diez de las especies de árboles madereros más rentables y en peligro de extinción. La propuesta contempla un algoritmo de eliminación de fondo para alimentar una CNN pre-entrenada por el conjunto de datos ImageNet. Evaluamos el impacto cuantitativo (métrica de precisión) y cualitativo (interpretación visual) de cada etapa mediante experimentos de ablación. Los resultados muestran una precisión de entrenamiento del 96,64% y una precisión de prueba del 96,52% en el modelo VGG-19. Además, la interpretación visual del modelo evidencia que las venas de las hojas tienen la mayor correlación en la tarea de reconocimiento de plantas.
URI : https://hdl.handle.net/20.500.12921/575
ISSN : 1574-9541
Aparece en las colecciones: Artículos en revistas indexadas

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
vizcarra_articulo_2021.pdfTexto Completo2,89 MBAdobe PDFVista previa
Visualizar/Abrir
Compartir :


Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons Creative Commons