Predicción de intenciones de conductores en rotondas no estructuradas mediante detección de vehículos con YOLO y análisis estadístico
DOI:
https://doi.org/10.30972/eitt.928238Palabras clave:
Comportamiento predictivo del conductor, Intersecciones no estructuradas, RotondasResumen
Este estudio aborda la complejidad de predecir las intenciones de los conductores en intersecciones no estructuradas, como rotondas sin señales de tráfico sin marcaciones viales. Estas situaciones presentan desafíos únicos para los sistemas avanzados de asistencia al conductor (ADAS) y los vehículos autónomos. A diferencia de autopistas con carriles y semáforos claramente definidos, las rotondas no reguladas exigen un análisis más sofisticado del comportamiento vehicular. El enfoque propuesto utiliza el modelo de detección de objetos YOLO para detectar vehículos en una rotonda y focaliza la detección en áreas específicas como las entradas y salidas, en lugar de analizar toda la escena, lo que mejora la precisión y eficiencia. Además, se aplica un sistema de seguimiento basado en centroides para evitar contar el mismo vehículo varias veces. Se definen seis zonas en la rotonda: tres para predecir el comportamiento de los conductores y tres para contar los vehículos que realmente toman una salida específica. El sistema también mide el tiempo de congestión en la rotonda cuando los vehículos permanecen inmóviles durante un tiempo determinado, proporcionando información clave para la gestión del tráfico. Los resultados muestran una tasa de acierto significativa en la predicción de las trayectorias vehiculares, aunque existen casos en los que la predicción no coincide con los movimientos reales de los vehículos, lo que sugiere la necesidad de mejoras en la precisión del algoritmo. El estudio también sugiere que la integración futura de modelos de aprendizaje automático podría mejorar notablemente el rendimiento del sistema. Finalmente, el trabajo ofrece un enfoque novedoso para mejorar la seguridad y eficiencia del tráfico en rotondas, a pesar de las limitaciones encontradas, como el ángulo de captura de video.
Descargas
Citas
Andrés Aldo, https://github.com/AldoOmarAndres/YoloTracker
Chao J, Hao Z, Yunliang Y, Xuelong H. Improved YOLOV4 based on attention mechanism and multi-feature fusion. 2022 IEEE 6th Information Technology and Mechatronics Engineering Conference. DOI:10.1109/ITOEC53115.2022.9734536
Junhyek Jang, Janghyun Baek, Kitaeg Lim, Yongcheol Ro, Sanghun Yoon,Soohyun Jang. A Study on V2I based Cooperative Autonomous Driving. 2023 International Conference on Electronics, Information, and Communication (ICEIC). DOI: 10.1109/ICEIC57457.2023.10049918
Stephan Matzka, Andrew M. Wallace, and Yvan R. Petillot. Efficient Resource Allocation for Attentive Automotive Vision Systems IEEE TRANSACTIONS ON INTELLIGENT TRANSPORTATION SYSTEMS, VOL. 13, NO. 2, JUNE 2012.
Streubel T. and K. H. Hoffmann, “Prediction of driver intended path at intersections,” in Proc. IEEE Intell. Vehicles Symp., Jun. 2014, pp. 134–139.
Yang Xing, Chien Lv and Dongpu Cao. Advanced Driver Intention Inference Theory and Design. Editorial Project Manager: Gabriela D. Capille. U.S.A 2020. Cp.1 p.3.
Descargas
Publicado
Cómo citar
Número
Sección
Licencia
Derechos de autor 2024 Damian Raimundo Vázquez, Carlos Torres, Jorge A. Mariguetti, Sergio Gramajo, Andrés Robledo Sánchez Alberto

Esta obra está bajo una licencia internacional Creative Commons Atribución 4.0.