Zur Kurzanzeige

dc.contributor.authorSantiago-Aliste, Alberto
dc.contributor.authorSánchez Martín, Nilda 
dc.contributor.authorCharfolé de Juan, José Francisco 
dc.contributor.authorPérez Sánchez, Rodrigo 
dc.contributor.authorPlaza Martín, Javier 
dc.date.accessioned2025-11-12T08:19:23Z
dc.date.available2025-11-12T08:19:23Z
dc.date.issued2025
dc.identifier.citationPlaza, J., Sánchez, N., Santiago-Aliste, A., Charfolé, J. F., & Pérez-Sánchez, R. (2025). Deep learning and drone imagery for the automatic detection and quantification of common vole burrows in agricultural landscapes. Smart Agricultural Technology, 12(December 2025), 101529. https://doi.org/10.1016/J.ATECH.2025.101529es_ES
dc.identifier.issn2772-3755
dc.identifier.urihttp://hdl.handle.net/10366/167801
dc.description.abstract[EN] Accurate detection of vole burrows is critical for monitoring rodent outbreaks and mitigating agricultural damage. This study compared deep learning (DL) and traditional supervised classification approaches -Random Forest (RF) and Support Vector Machines (SVM)- using high-resolution UAS imagery at two flight heights (15 m and 25 m). DL, implemented via convolutional neural networks, consistently outperformed classification methods, mainly due to a drastic reduction in misclassifications. The best DL configuration achieved a precision of 0.92, recall of 0.81, and an F1 score of 0.83, reflecting strong detection capability with limited false alarms. A sensitivity analysis further indicated that reducing the object-oriented classification to two classes (burrow vs. non-burrow) improved efficiency without major performance losses compared to a four-class scheme. Higher spatial resolution (15 m flights) enhanced detection across all methods, especially benefiting DL by improving recall without sacrificing precision. The findings highlight that DL is particularly suited for detecting relatively discrete objects like burrows, offering a reliable tool for early intervention in pest control strategies. In contrast, traditional classifications processed the imagery >95 % faster than the DL workflow but were hindered by excessive misclassifications that compromised overall accuracy. This work underscores the potential of UAS-based DL detection pipelines to improve pest monitoring in agricultural ecosystems, providing a scalable and accurate solution for early warning and management programs. Future research should focus on linking burrow density to vole population estimates to further assist in plague management.es_ES
dc.description.abstract[ES] La detección precisa de madrigueras de topillos es fundamental para el seguimiento de plagas de roedores y la mitigación de daños agrícolas. Este estudio comparó el aprendizaje profundo (DL) con los métodos tradicionales de clasificación supervisada —Random Forest (RF) y Máquinas de Vectores de Soporte (SVM)— utilizando imágenes aéreas no tripuladas (UAS) de alta resolución a dos alturas de vuelo (15 m y 25 m). El DL, implementado mediante redes neuronales convolucionales, superó consistentemente a los métodos de clasificación, principalmente debido a una drástica reducción de las clasificaciones erróneas. La mejor configuración de DL alcanzó una precisión de 0,92, una exhaustividad de 0,81 y una puntuación F1 de 0,83, lo que refleja una gran capacidad de detección con un número limitado de falsos positivos. Un análisis de sensibilidad indicó además que reducir la clasificación orientada a objetos a dos clases (con madriguera frente a sin madriguera) mejoró la eficiencia sin pérdidas significativas de rendimiento en comparación con un esquema de cuatro clases. Una mayor resolución espacial (vuelos de 15 m) mejoró la detección en todos los métodos, beneficiando especialmente al aprendizaje profundo al mejorar la exhaustividad sin sacrificar la precisión. Los resultados destacan que el aprendizaje profundo (DL) es especialmente adecuado para detectar objetos relativamente discretos, como madrigueras, ofreciendo una herramienta fiable para la intervención temprana en estrategias de control de plagas. En cambio, las clasificaciones tradicionales procesaron las imágenes un 95 % más rápido que el flujo de trabajo de DL, pero se vieron perjudicadas por un número excesivo de clasificaciones erróneas que comprometieron la precisión general. Este trabajo destaca el potencial de los sistemas de detección basados ​​en aprendizaje profundo (DL) con UAS para mejorar el monitoreo de plagas en ecosistemas agrícolas, proporcionando una solución escalable y precisa para programas de alerta temprana y gestión. Las investigaciones futuras deberían centrarse en relacionar la densidad de madrigueras con las estimaciones de población de topillos para contribuir aún más al control de plagas.es
dc.language.isoenges_ES
dc.publisherElsevieres_ES
dc.rightsAttribution-NonCommercial-NoDerivatives 4.0 Internacional*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/*
dc.subjectDeep learningen
dc.subjectCommon voleen
dc.subjectUAS imageryen
dc.subjectBurrowsen
dc.subjectObject-oriented classificationsen
dc.subjectAprendizaje profundoes_ES
dc.subjectTopillo comúnes_ES
dc.subjectImágenes aéreas no tripuladases_ES
dc.subjectMadriguerases_ES
dc.subjectClasificaciones orientadas a objetoses_ES
dc.titleDeep learning and drone imagery for the automatic detection and quantification of common vole burrows in agricultural landscapeses_ES
dc.typeinfo:eu-repo/semantics/articlees_ES
dc.relation.publishversionhttps://doi.org/10.1016/j.atech.2025.101529es_ES
dc.subject.unesco1203.04 Inteligencia Artificiales_ES
dc.subject.unesco5102.01 Agriculturaes_ES
dc.subject.unesco2506.16 Teledetección (Geología)es_ES
dc.subject.unesco3308.08 Tecnología del Control de Roedoreses_ES
dc.identifier.doi10.1016/j.atech.2025.101529
dc.relation.projectIDGESINTTOPes_ES
dc.rights.accessRightsinfo:eu-repo/semantics/openAccesses_ES
dc.journal.titleSmart Agricultural Technologyes_ES
dc.volume.number12es_ES
dc.page.initial101529es_ES
dc.type.hasVersioninfo:eu-repo/semantics/publishedVersiones_ES


Dateien zu dieser Ressource

Thumbnail

Das Dokument erscheint in:

Zur Kurzanzeige

Attribution-NonCommercial-NoDerivatives 4.0 Internacional
Solange nicht anders angezeigt, wird die Lizenz wie folgt beschrieben: Attribution-NonCommercial-NoDerivatives 4.0 Internacional