2022 Ramajo Ballester Alvaro Reidentificacion de Vehiculos Mediante Tecnicas de Deep Learning
2022 Ramajo Ballester Alvaro Reidentificacion de Vehiculos Mediante Tecnicas de Deep Learning
2022 Ramajo Ballester Alvaro Reidentificacion de Vehiculos Mediante Tecnicas de Deep Learning
https://doi.org/10.17979/spudc.9788497498418.1031 1031
XLIII Jornadas de Automática Visión por computador
1032 https://doi.org/10.17979/spudc.9788497498418.1031
XLIII Jornadas de Automática Visión por computador
2 ANTECEDENTES
La clasificación y detección de objetos con deep
learning es una tarea que ha evolucionado y mejorado
claramente en los últimos años. Gracias a estas
técnicas, se puede alcanzar un nivel de precisión
relativamente alto. Otra ventaja es su versatilidad, ya
que los modelos pueden adaptarse a diferentes tareas Figura 1. Ejemplo de imágenes en [9]
modificando ligeramente la estructura de la red y los
datos de entrenamiento. En el caso de la Del mismo modo, también hay trabajos en los que se
reidentificación de vehículos, debido a la naturaleza utilizan conjuntos de datos de gran variedad y cantidad
bimodal del sistema propuesto, se han examinado dos de imágenes, como Stanford-Cars [6], VeRi-776 [14]
aspectos a la hora de confirmar la identidad del y VeRi-Wild [15]. En la Figura 2 se muestra un
vehículo. El primero es el reconocimiento automático ejemplo de las imágenes recogidas en este último.
de matrículas (ALPR), mientras que el segundo modo
trata de extraer las características visuales del coche
completo y realizar una comparación de similitud
entre el objetivo y la imagen del vehículo procesada.
https://doi.org/10.17979/spudc.9788497498418.1031 1033
XLIII Jornadas de Automática Visión por computador
YHKtFXORVVHPHGLUiHQODGLVWDQFLDHXFOtGHDHQWUH FRPRXQDYLVWDIURQWDO/D:32'1(7VHGHVDUUROOy
VXVFRUUHVSRQGLHQWHVYHFWRUHV DSDUWLUGHORVFRQRFLPLHQWRVGH<2/266' >@\
ODVUHGHVGHWUDQVIRUPDGDVHVSDFLDOHV671<2/2\
66'UHDOL]DQXQDUiSLGD GHWHFFLyQ\UHFRQRFLPLHQWR
GHP~OWLSOHVREMHWRVDODYH]SHURQRWLHQHQHQFXHQWD
ODV WUDQVIRUPDFLRQHV HVSDFLDOHV JHQHUDQGR VyOR
ERUGHV GHOLPLWDGRUHV UHFWDQJXODUHV SDUD FDGD
GHWHFFLyQ3RUHOFRQWUDULRORV671SXHGHQXWLOL]DUVH
SDUD GHWHFWDU UHJLRQHV QR UHFWDQJXODUHV SHUR QR
PDQHMDQP~OWLSOHVWUDQVIRUPDFLRQHVDOPLVPRWLHPSR
UHDOL]DQGRVyORXQD~QLFDWUDQVIRUPDFLyQHVSDFLDOHQ
WRGDODHQWUDGD
)LJXUD$UTXLWHFWXUDPXOWLUHGQHXURQDO (O SURFHVR GH GHWHFFLyQ PHGLDQWH :32'1(7 VH
PXHVWUD HQ OD )LJXUD ,QLFLDOPHQWH OD UHG HV
'(7(&&,Ï1'(9(+Ë&8/26 DOLPHQWDGD SRU OD VDOLGD UHGLPHQVLRQDGD GHO PyGXOR
GHGHWHFFLyQGHYHKtFXORV'HVSXpVGHSDVDUSRUODUHG
/DGHWHFFLyQGHODVUHJLRQHVGHLQWHUpV52,WLHQHXQD VHJHQHUDXQPDSDGHFDUDFWHUtVWLFDVGHFDQDOHVTXH
GREOH YHUWLHQWH HQ HVWH WUDEDMR (Q SULPHU OXJDU VH FRGLILFD ODV SUREDELOLGDGHV \ ORV SDUiPHWURV GH OD
WUDWDGHLQGLFDUORVIUDJPHQWRVUHFWDQJXODUHVGHQWURGH WUDQVIRUPDFLyQ DItQ $ FRQWLQXDFLyQ VH FUHD XQ
OD LPDJHQ TXH FRUUHVSRQGHQ D XQ YHKtFXOR \ HQ FXDGUDGR LPDJLQDULR GH WDPDxR ILMR DOUHGHGRU GHO
VHJXQGROXJDUGHEXVFDUHOUHFRUWHGHOYHKtFXORTXH FHQWUR GH XQD FHOGD P Q 6L OD SUREDELOLGDG GHO
FRUUHVSRQGHDVXPDWUtFXOD(QHVWHSULPHUFDVRVHKD REMHWR SDUD HVWD FHOGD HVWi SRU HQFLPD GH XQ
DERUGDGRFRQODUHG<2/2>@HQVXFXDUWDYHUVLyQ GHWHUPLQDGR XPEUDO GH GHWHFFLyQ DOJXQRV GH ORV
8QR GH ORV UHTXLVLWRV JHQHUDOHV GHO VLVWHPD HV OD SDUiPHWURV LQIHULGRV VH XWLOL]DQ SDUD FRQVWUXLU XQD
FDSDFLGDG GH VHU LPSOHPHQWDGR HQ WLHPSR UHDO &RQ PDWUL]DItQTXHWUDQVIRUPDHOFXDGUDGRILFWLFLRHQXQD
HVWD SUHPLVD VH KDFH SUiFWLFDPHQWH LPSUHVFLQGLEOH UHJLyQDOUHGHGRUGHODSODFD'HHVWHPRGRODUHJLyQ
UHGXFLUDOPi[LPRHOWLHPSRGHLQIHUHQFLDHQFDGDXQD SXHGHUHFRQYHUWLUVHIiFLOPHQWHHQXQREMHWRDOLQHDGR
GH ODV UHGHV WDQWR GH GHWHFFLyQ FRPR GH KRUL]RQWDO\YHUWLFDOPHQWH
UHFRQRFLPLHQWR(VWDHVODSULQFLSDOUD]yQSDUDHOHJLU
<2/2YIUHQWHDRWURVPRGHORVFRPR<2/2Y>@
(IILFLHQW'HW >@ $766 >@ $6)) >@ R
&HQWHU0DVN>@FRPRSXHGHYHUVHHQOD)LJXUD
)LJXUD'LDJUDPDGHRSHUDFLyQGH:32'1HW>@
/D)LJXUDPXHVWUDXQHMHPSORGHOSURFHVDPLHQWR
GHOUHFRUWHGHODUHJLyQGHODPDWUtFXOD
)LJXUD'HWHFFLyQ\UHFWLILFDFLyQGHODPDWUtFXOD
)LJXUD9HORFLGDGGHLQIHUHQFLD\DYHUDJH /DVHJPHQWDFLyQ\HOUHFRQRFLPLHQWRGHFDUDFWHUHVHQ
SUHFLVLyQHQORVPRGHORVGHGHWHFFLyQ OD UHJLyQ UHFWLILFDGD GH OD PDWUtFXOD )LJXUD VH
UHDOL]D PHGLDQWH 2&51HW >@ XQD UHG <2/2
5(&212&,0,(172'(0$75Ë&8/$ PRGLILFDGD >@ VLPLODU D OR FRPHQWDGR HQ OD
GHWHFFLyQ GHO FRQWRUQR GH OD SODFD SHUR FRQ
/DV PDWUtFXODV VXHOHQ VHU REMHWRV UHFWDQJXODUHV \ FDUDFWHUHV
SODQRV TXH VH FRORFDQ HQ ORV YHKtFXORV SDUD VX
LGHQWLILFDFLyQ 3DUD DSURYHFKDU VX IRUPD VH XWLOL]D
XQD UHG QHXURQDO FRQYROXFLRQDO OODPDGD :DUSHG
3ODQDU2EMHFW'HWHFWLRQ1HWZRUN:32'1HW>@
(O REMHWLYR HV TXH OD UHG SXHGD DSUHQGHU D GHWHFWDU .
. *
* 7
SODFDV FRQ GLIHUHQWHV SHUVSHFWLYDV LQILULHQGR ORV
FRHILFLHQWHV GH XQD WUDQVIRUPDGD DItQ TXH )LJXUD5HFRQRFLPLHQWRGHFDUDFWHUHV
UHFRPSRQHODLPDJHQHQXQDSHUVSHFWLYDUHFWDQJXODU
1034 https://doi.org/10.17979/spudc.9788497498418.1031
XLIII Jornadas de Automática Visión por computador
4 RECONOCIMIENTO VISUAL:
ENTRENAMIENTO
Para abordar esta tarea, se ha probado una
comparación entre algunos modelos del estado del arte
y varios backbone entrenados. Para la reidentificación
de vehículos, la librería FastReid [3] ofrece
arquitecturas ya preentrenadas y optimizadas.
Con el objetivo de cumplir estos estándares, se han Figura 9. Efecto del dropout y el learning rate
llevado a cabo diferentes estrategias de entrenamiento
con la familia de redes neuronales EfficientNet [23]. En este gráfico se observan dos resultados notables. El
La característica distintiva de este tipo de arquitectura primero es que las redes con un dropout de 0,7
que permite mejorar su rendimiento es la precisa generalizan ligeramente mejor que las de 0,5. A pesar
escalabilidad de las dimensiones de la red. Como se de tardar algo más en las primeras epochs, la tendencia
muestra en la Figura 8, las redes convolucionales es a favor de las primeras, ya que con 0,5 se alcanza
estándar intentan mejorar su rendimiento aumentando un máximo significativamente menor. Por otro lado,
las dimensiones del mapa de características, es decir, la tasa de aprendizaje más adecuada es 1e^(-3), ya que
su anchura (b); otras intentan aumentar el número de maximiza la precisión más rápidamente. Con esto, y
capas intermedias haciendo una red más profunda (c) varias pruebas más que evitamos incluir para no
o con imágenes de mayor resolución (d). Este tipo de extender demasiado la demostración de
modelos se ha utilizado como backbone durante el entrenamiento, probamos el rendimiento de 3
proceso de entrenamiento con capas de max pooling y versiones de la red EfficientNet: B0, B3 y B7. La
convolucionales añadidas a su salida para el ajuste salida se ha configurado utilizando un pooling global
fino. máximo para cada uno de los filtros de salida y una
capa de clasificación densa con el dropout
previamente ajustado. Los resultados se muestran en
la Figura 10.
https://doi.org/10.17979/spudc.9788497498418.1031 1035
XLIII Jornadas de Automática Visión por computador
1036 https://doi.org/10.17979/spudc.9788497498418.1031
XLIII Jornadas de Automática Visión por computador
tuning del sistema completo. En primer lugar, la tabla Tabla 3. Métrica Rank@1 y Rank@10 en datasets
1 muestra la precisión de los dos modelos entrenados propios
(EfficientNetB0) frente a los modelos FastReid
preentrenados en los conjuntos de datos públicos. Esta Rank@1 Rank@10
evaluación corresponde a la precisión de una prueba Model
Intersec. Intersec. Intersec. Intersec.
v1 v2 v1 v2
de par positivo-negativo. Cada par positivo-negativo
EfficientNetB0
se ha creado con cada imagen del conjunto de (Stanford-Cars)
42.6 % 43.1 % 73.6 % 70.6 %
evaluación, una imagen de su clase (positiva) y una EfficientNetB0
61.2 % 60.1 % 84.3 % 87.1 %
imagen aleatoria del resto de clases (negativa). (VeRi-776)
FastReid
75.4 % 90.6 % 94.0 % 99.4 %
(VeRi-776)
De estos resultados se puede extraer que el modelo FastReid
FastReid preentrenado con VeRi-Wild, que es un 75.3 % 41.3 % 87.6 % 65.2 %
(VeRi-Wild)
conjunto de datos más grande y con menos
restricciones que VeRi-776, es un mejor candidato. En cuanto al reconocimiento de matrículas, la red
utilizada alcanza una precisión del 89,33%, lo que
Tabla 1. Precisión en datasets públicos permite predecir la matrícula de los vehículos con un
alto grado de exactitud. Estos valores se han extraído
Precisión
de [21] y se muestran en la tabla 4.
Stanford- VeRi-
Modelo VeRi-776
Cars Wild
EfficientNetB0
Tabla 4. Precisión en el reconocimiento de matrícula
83.5 % 62.5 % 72.7 %
(Stanford-Cars)
EfficientNetB0 OpenALPR SSIG AOLP
59.1 % 77.2 % 79.7 %
(VeRi-776) CD-
FastReid Model EU BR Test RP
60.6 % 96.8 % 90.8 % Hard
(VeRi-776) WPOD-Net+
FastReid 93.52 % 91.23 % 88.56 % 98.36 % 75.00 %
67.6 % 90.5 % 99.5 % OCR-Net
(VeRi-Wild)
Por otro lado, en lo que respecta a la velocidad de
Sin embargo, una vez realizada la evaluación con los inferencia, los modelos FastReid están muy
conjuntos de datos propios, mucho más cercanos al optimizados, consiguiendo un tiempo de inferencia
entorno de producción real, las métricas favorecen al hasta 10 veces menor (tabla 5), lo que es ideal en el
modelo FastReid preentrenado con VeRi-776, caso de la ejecución en tiempo real.
consiguiendo los mejores resultados, como se muestra
en la tabla 2. Tabla 5. Tiempo de inferencia en reidentificación
visual
Tabla 2. Precisión en datasets propios
Model Time (ms)
Precisión
EfficientNetB0 28.76
Intersec. Intersec. Intersec. Intersec.
Model Road
v1c1 v2c1 v11 v21 EfficientNetB3 33.79
EfficientNetB0
85.1 % 73.6 % 84.1 % 62.5 % 61.9 % EfficientNetB7 46.63
(Stanford-Cars)
EfficientNetB0
96.6 % 88.2 % 91.6 % 71.5 % 78.1 %
FastReid (VeRi-776) 4.04
(VeRi-776)
FastReid
FastReid (VeRi-Wild) 3.28
97.9 % 94.0 % 96.6 % 87.8 % 91.5 %
(VeRi-776)
FastReid Como se ha comentado en la sección introductoria, el
96.7 % 90.9 % 89.7 % 78.8 % 82.5 %
(VeRi-Wild)
1
Dataset con dos cámaras de entrada reconocimiento de la matrícula sólo es posible en
determinadas condiciones favorables. Sin embargo,
Además, se ha calculado la métrica rank@n. Estos siendo conscientes de que no todas las imágenes
valores se refieren a la presencia del modelo de pueden reunir tales características, el segundo sistema
búsqueda en las n posiciones más probables según las de reconocimiento visual ofrece más flexibilidad en
predicciones del modelo. Es decir, el rank@1 se cuanto a las restricciones de funcionamiento y su
refiere a la probabilidad de que el primer resultado del versatilidad proporciona un rendimiento notable en
modelo corresponda al vehículo buscado, mientras situaciones más adversas. Al basarse en la extracción
que el rank@10 indica la probabilidad de que el de las características visuales (forma y color) de todo
vehículo se encuentre en los 10 primeros resultados. el vehículo, es menos sensible a la distancia. Por lo
tanto, cuando el reconocimiento de la matrícula es
La tabla 3 muestra, una vez más, que el modelo posible, amplía el rango de reconocimiento válido, por
FastReid VeRi-776 alcanza los mejores valores para ejemplo, de 15 a 40 metros en la vista de la cámara de
la métrica. gran ángulo de cuatro carriles. También permite el
seguimiento del vehículo para los siguientes
https://doi.org/10.17979/spudc.9788497498418.1031 1037
XLIII Jornadas de Automática Visión por computador
fotogramas de un vídeo en función de la similitud con information from the environment for future projects,
los anteriores. Esto constituye un punto distintivo such as autonomous vehicles and smart cities. One
respecto a los enfoques clásicos, proporcionando una possibility that this type of system would allow is the
solución más robusta. control and tracking of certain suspicious vehicles.
Considering the use of this technology by police, it
would facilitate the tracking of certain cars under
7 CONCLUSIÓN investigation. With this vision, the objective of this
work is the study of the current state-of-the-art of the
Una vez validado, este sistema no sólo muestra un methods and the development of a system that solves
gran rendimiento en la identificación de vehículos two tasks efficiently: the visual characterization and
objetivo, sino que además ofrece una mayor re-identification of vehicles and the license plates
flexibilidad gracias a su módulo dual (visual y OCR), segmentation and character recognition. This dual
lo que le permite operar bajo diferentes características identification can adapt to the environmental
de entorno y resoluciones de cámara. conditions, target distance and cameras capabilities
and resolution. To test and validate this system, a
Una de las posibles líneas de investigación futuras custom dataset has been created to minimize the
derivadas de este trabajo es el desarrollo de este difference between lab and real environment.
sistema como una herramienta totalmente funcional
para su uso por parte de las Fuerzas de Seguridad del Keywords: Vehicle re-identification, deep learning,
Estado. Como se ha mencionado en el apartado inicial, smart cities.
la automatización de estos procesos de visionado de
cámaras liberará una gran cantidad de horas de los
agentes dedicados a esta tarea. Asimismo, permitirá
abarcar un número mucho mayor de fuentes de Referencias
entrada, en este caso imágenes, para ampliar la
búsqueda y asegurar una mayor probabilidad de éxito. [1] Anagnostopoulos, C.N.E., Anagnostopoulos,
I.E., Loumos, V., Kayafas, E. (2006) A
license plate-recognition algorithm for
Agradecimientos intelligent transportation system applications.
IEEE Transactions on Intelligent
Subvención PID2019-104793RB-C31 y PDC2021- transportation systems 7, pp. 377–392
121517-C31 financiados por MCIN/AEI/ [2] Bochkovskiy, A., Wang, C.-Y., Liao, H.-
10.13039/501100011033 y por la Unión Europea Y.M. (2020) Yolov4: Optimal speed and
"NextGenerationEU/PRTR" y la Comunidad de accuracy of object detection. arXiv preprint
Madrid a través de SEGVAUTO-4.0-CM arXiv:200410934
(P2018/EMT-4362). Nuevo paradigma para la gestión [3] He, L., Liao, X., Liu, W., Liu, X., Cheng, P.,
de los servicios de transporte de emergencia: Mei, T. (2020) FastReID: A Pytorch Toolbox
AMBULATE-CM. Este artículo forma parte del for General Instance Re-identification. arXiv
convenio entre la Comunidad de Madrid (Consejería preprint arXiv:200602631
de Educación, Universidades, Ciencia y Portavocía) y [4] Huynh, S. v (2021) A Strong Baseline for
la UC3M para la concesión directa de ayudas para la Vehicle Re-Identification. Proceedings of the
financiación de proyectos de investigación sobre la IEEE/CVF Conference on Computer Vision
enfermedad COVID-19 financiados con los recursos and Pattern Recognition pp. 4147–4154
REACT-UE del Fondo Europeo de Desarrollo [5] Jia, W., Zhang, H., He, X., Wu, Q. (2006)
Regional A Way for Europe. Gaussian weighted histogram intersection for
license plate classification. In: Proceedings -
International Conference on Pattern
English summary Recognition. pp 574–577
[6] Krause, J., Stark, M., Deng, J., Fei-Fei, L.
(2013) 3d object representations for fine-
VEHICLE RE-IDENTIFICATION IN grained categorization. In: Proceedings of the
ROAD ENVIRONMENTS USING DEEP IEEE international conference on computer
LEARNING TECHNIQUES vision workshops. pp 554–561
[7] Laroca, R., Zanlorensi, L.A., Gonçalves,
Abstract G.R., Todt, E., Schwartz, W.R., Menotti, D.
(2019) An efficient and layout-independent
automatic license plate recognition system
The level of precision of deep neural networks in based on the YOLO detector. arXiv preprint
visual perception tasks allows to capture crucial arXiv:190901754
1038 https://doi.org/10.17979/spudc.9788497498418.1031
XLIII Jornadas de Automática Visión por computador
[8] LeCun, Y., Haffner, P., Bottou, L., Bengio, IEEE conference on computer vision and
Y. (1999) Object recognition with gradient- pattern recognition pp. 7263–7271
based learning. In: Shape, contour and [20] Redmon, J., Farhadi, A. (2018) Yolov3: An
grouping in computer vision. Springer, pp incremental improvement. arXiv preprint
319–345 arXiv:180402767
[9] Lee, H.J., Ullah, I., Wan, W., Gao, Y., Fang, [21] Shashirangana, J., Padmasiri, H., Meedeniya,
Z. (2019) Real-time vehicle make and model D., Perera, C. (2020) Automated license plate
recognition with the residual SqueezeNet recognition: a survey on methods and
architecture. Sensors 19, pp. 982 techniques. IEEE Access 9, pp. 11203–11225
[10] Lee, Y., Park, J. (2020) Centermask: Real- [22] Silva, S.M., Jung, C.R. (2018) License plate
time anchor-free instance segmentation. In: detection and recognition in unconstrained
Proceedings of the IEEE/CVF conference on scenarios. In: Proceedings of the European
computer vision and pattern recognition. pp conference on computer vision (ECCV). pp
13906–13915 580–596
[11] Li, H., Wang, P., Shen, C. (2018) Toward [23] Tan, M., Le, Q. (2019) Efficientnet:
end-to-end car license plate detection and Rethinking model scaling for convolutional
recognition with deep neural networks. IEEE neural networks. In: International Conference
Transactions on Intelligent Transportation on Machine Learning. pp 6105–6114
Systems 20, pp. 1126–1136 [24] Tan, M., Pang, R., Le, Q. v (2020)
[12] Liu, S., Huang, D., Wang, Y. (2019) Efficientdet: Scalable and efficient object
Learning spatial fusion for single-shot object detection. In: Proceedings of the IEEE/CVF
detection. arXiv preprint arXiv:191109516 conference on computer vision and pattern
[13] Liu, W., Anguelov, D., Erhan, D., Szegedy, recognition. pp 10781–10790
C., Reed, S., Fu, C.-Y., Berg, A.C. (2016) [25] Vaswani, A., Shazeer, N., Parmar, N.,
Ssd: Single shot multibox detector. In: Uszkoreit, J., Jones, L., Gomez, A.N., Kaiser,
European conference on computer vision. pp Ł., Polosukhin, I. (2017) Attention is all you
21–37 need. In: Advances in neural information
[14] Liu, X., Liu, W., Ma, H., Fu, H. (2016) processing systems. pp 5998–6008
Large-scale vehicle re-identification in urban [26] Verified Market Research (2021) AI in
surveillance videos. In: 2016 IEEE Computer Vision Market Size And Forecast.
International Conference on Multimedia and https://www.verifiedmarketresearch.com/pro
Expo (ICME). pp 1–6 duct/ai-in-computer-vision-market/
[15] Lou, Y., Bai, Y., Liu, J., Wang, S., Duan, L.- [27] Xu, Z., Yang, W., Meng, A., Lu, N., Huang,
Y. (2019) VERI-Wild: A Large Dataset and a H., Ying, C., Huang, L. (2018) Towards end-
New Method for Vehicle Re-Identification in to-end license plate detection and
the Wild. In: Proceedings of the IEEE recognition: A large dataset and baseline. In:
Conference on Computer Vision and Pattern Proceedings of the European conference on
Recognition. pp 3235–3243 computer vision (ECCV). pp 255–271
[16] Naseer, S., Shah, S., Aziz, S., Khan, M.U., [28] Zhang, S., Chi, C., Yao, Y., Lei, Z., Li, S.Z.
Iqtidar, K. (2020) Vehicle Make and Model (2020) Bridging the gap between anchor-
Recognition using Deep Transfer Learning based and anchor-free detection via adaptive
and Support Vector Machines. In: 2020 IEEE training sample selection. In: Proceedings of
23rd International Multitopic Conference the IEEE/CVF conference on computer
(INMIC). pp 1–6 vision and pattern recognition. pp 9759–9768
[17] Nukano, T., Fukumi, M., Khalid, M. (2004) [29] Zheng, D., Zhao, Y., Wang, J. (2005) An
Vehicle license plate character recognition by efficient method of license plate location.
neural networks. In: Proceedings of the Pattern Recognit Lett 26, pp. 2431–2438
International Symposium on Intelligent
Signal Processing and Communication
Systems (ISPACS). pp 771–775
[18] Rahman, C.A., Badawy, W., Radmanesh, A.
(2003) A real time vehicle’s license plate © 2022 by the authors.
recognition system. In: Proceedings of the Submitted for possible open
IEEE Conference on Advanced Video and access publication under
Signal Based Surveillance, 2003. pp 163–166 the terms and conditions of the Creative Commons
[19] Redmon, J., Farhadi, A. (2017) YOLO9000: Attribution CC-BY-NC-SA 4.0 license
better, faster, stronger. Proceedings of the (https://creativecommons.org/licenses/by-nc-
sa/4.0/deed.es).
https://doi.org/10.17979/spudc.9788497498418.1031 1039