Setembro 2025 vol. 12 num. 1 - XXXII Simpósio Internacional de Engenharia

Trabalho completo - Open Access.

Idioma principal | Segundo idioma

Detecção e Classificação de Obstáculos em Veículos Autônomos Off-Road com Fusão de Dados de Lidar e Câmera

Detection and Classification of Obstacles in Off-Road Autonomous Vehicles with Lidar and Camera Data Fusion

COURA, Ana Luiza Santos ; KITANI, Edson Kaoru ; SILVA, Antonio Marcos ; SILVA, Cirilo de Paula ; SILVA, Nouriandres Liborio ; LOPES, Renato de Avila ; CELIBERTO JUNIOR, Luiz Antonio ; ZAMPIROLLI, Francisco ; YOSHIOKA, Leopoldo ; IBUSUKI, Ugo ;

Trabalho completo:

A segurança operacional dos veículos autônomos off-road depende da alta acurácia na detecção de obstáculos para uma rápida e precisa tomada de decisão. Estudos recentes indicam que a integração de diferentes sensores aumenta essa confiabilidade. O método proposto neste trabalho agrupa os pontos de um LiDAR 2D para detectar objetos e definir zonas de risco em função da distância e posição, e classifica os obstáculos por meio do algoritmo YOLO V8. A estratégia de fusão dos dados do LiDAR 2D com a câmera usou uma matriz de ocupação, que combina as detecções de ambos os sensores, permitindo uma detecção e classificação mais precisa do que as soluções isoladas. Testes realizados no veículo off-road com objetos de diferentes dimensões, em cenários estáticos e dinâmicos, demonstraram a capacidade da proposta em identificar e classificar obstáculos em diversas distâncias e com baixa latência. Os resultados experimentais destacaram a acurácia na detecção e classificação de obstáculos, bem como uma baixa latência na resposta. A abordagem proposta otimiza a segurança ao integrar dados de diferentes sensores, reduzindo falsos positivos e permitindo decisões ágeis e corretas por parte do algoritmo de planejamento e controle do veículo off-road.

Trabalho completo:

Ensuring operational safety for off-road autonomous vehicles requires high accuracy in obstacle detection for rapid and precise decision-making. Recent studies indicate that integrating different sensors enhances this reliability. The method proposed in this work clusters 2D LiDAR points to detect objects, defines risk zones based on distance and position, and classifies obstacles using the YOLOv8 algorithm. The data fusion strategy for the 2D LiDAR and camera utilized an occupancy matrix, combining detections from both sensors to enable more accurate detection and classification than isolated solutions. Tests conducted on the off-road vehicle with objects of various dimensions in static and dynamic scenarios demonstrated the proposal's capability to identify and classify obstacles at different distances with low latency. Experimental results highlighted improvements in obstacle detection and classification accuracy, as well as low response latency. The proposed approach optimizes safety by integrating data from multiple sensors and enabling the vehicle's planning and control algorithm to make agile and accurate decisions.

Palavras-chave: -,

Palavras-chave: -,

DOI: 10.5151/simea2025-PAP89

Referências bibliográficas
  • [1] M. E. Yabroudi, K. Awedat, R. C. Chabaan, O. Abudayyeh, and I. Abdel-Qader, "Adaptive DBSCAN LiDAR Point Cloud Clustering For Autonomous Driving Applications," 2022 IEEE International Conference on Electro Information Technology (eIT), Mankato, MN, USA, 2022, pp. 221-224, doi: 10.1109/eIT53892022.9814025.
  • [2] Y. Wang, B. Wang, X. Wang, Y. Tan, J. Qi and J. Gong, "A Fusion of Dynamic Occupancy Grid Mapping and Multi-object Tracking Based on Lidar and Camera Sensors," 2020 3rd International Conference on Unmanned Systems (ICUS), Harbin, China, 2020, pp. 107-112, doi: 10.1109/ICUS50048.2020.9274841.7
  • [3] L. Zheng, P. Zhang, J. Tan and F. Li, "The Obstacle Detection Method of UAV Based on 2D Lidar," in IEEE Access, vol. 7, pp. 163437-163448, 2019, doi: 10.1109/ACCESS.2019.295217
  • [4] A. Elfes, "Sonar-based real-world mapping and navigation," in IEEE Journal on Robotics and Automation, vol. 3, no. 3, pp. 249-265, June 1987, doi: 10.1109/JRA.1987.1087096.
  • [5] A. Elfes and L. Matthies, "Sensor integration for robot navigation: Combining sonar and stereo range data in a grid-based representation," 26th IEEE Conference on Decision and Control, Los Angeles, CA, USA, 1987, pp. 1802-1807, doi: 10.1109/CDC.1987.272800.
  • [6] Sohan, M., Sai Ram, T., Rami Reddy, C.V. (2024). A Review on YOLOv8 and Its Advancements. In: Jacob, I.J., Piramuthu, S., Falkowski-Gilski, P. (eds) Data Intelligence and Cognitive Informatics. ICDICI 2023. Algorithms for Intelligent Systems. Springer, Singapore. https://doi.org/10.1007/978-981-99-7962-2_39
  • [7] LI, Yuhang; WU, Shuang; HU, Wei. A Geometry-Based Point Cloud Reduction Method for Mobile Augmented Reality System. Journal of Computer Science and Technology, 2018. DOI: 10.1007/s11390-018-1879-3
Como citar:

COURA, Ana Luiza Santos; KITANI, Edson Kaoru; SILVA, Antonio Marcos; SILVA, Cirilo de Paula; SILVA, Nouriandres Liborio; LOPES, Renato de Avila; CELIBERTO JUNIOR, Luiz Antonio; ZAMPIROLLI, Francisco; YOSHIOKA, Leopoldo; IBUSUKI, Ugo; "Detecção e Classificação de Obstáculos em Veículos Autônomos Off-Road com Fusão de Dados de Lidar e Câmera", p. 444-452 . In: Anais do XXXII Simpósio Internacional de Engenharia. São Paulo: Blucher, 2025.
ISSN 2357-7592, DOI 10.5151/simea2025-PAP89

últimos 30 dias | último ano | desde a publicação


downloads


visualizações


indexações