Real-Time Numerical/Symbolic Data Generation by Multi-Sensor Data Fusion. Génération Temps Réel de Données Numériques/Symboliques par Fusion Temporelle Multi-Capteurs

Real-Time Numerical/Symbolic Data Generation by Multi-Sensor Data Fusion

Génération Temps Réel de Données Numériques/Symboliques par Fusion Temporelle Multi-Capteurs

Michèle Rombaut

UTCIHEUDIASYC URA CNRS817 BP 649, 60206 Compiègne Cedex, France

Corresponding Author Email: 
rombaut@hds.univ-compiegne.fr
Page: 
317-326
|
Received: 
18 May 1994
| |
Accepted: 
N/A
| | Citation

OPEN ACCESS

Abstract: 

This paper presents a multi-sensor data fusion module for an intelligent vehicle. The reports come from the sensors placed on the demonstrator. The environment is dynamic that means the obstacles moves near the demonstrator. The temporal coherency of the data is verified in order to increase the reliability. Symbolic concepts are used for reasoning in the fusion module, and are transmited to the high level modules. This system has been developped to realise a driving assistance on a real vehicle named ProLab2 in the Eureka Prometheus program. 

Résumé

L'article présente un système de fusion de données multicapteurs . Ce système traite des données qui proviennent de capteurs placés sur un véhicule mobile se déplaçant dans un environnement dynamique. Cette caractéristique dynamique implique qu'il est nécessaire de vérifier la cohérence temporelle des données et donc d'en réaliser le suivi temporel. Dans le but de les fiabiliser, les données sont fusionnées en utilisant des concepts symboliques. Elles seront ensuite utilisées par un système à base de connaissances constituant la partie décision du système. Le module de fusion a été mis en oeuvre dans un système d'aide à la conduite sur véhicule réel (Peugeot605) dans le cadre de recherchesPrometheus. 

Keywords: 

Data fusion, Multi-sensor,Intelligent vehicles.

Mots clés

Fusion de données, Multi-capteurs, Véhicules intelligents.

1. Introduction
2. Le Démonstrateur Prolab 2
3. Les Objectifs de la Fusion
4. La Fusion Temporelle
5. La Fusion Numérique/Symbolique
6. Conclusion
  References

[1] S.C.A. Thomopoulos, Data Fusion System Design and Proposed Action Lines. Journée thématique«Fusiond'informations d'origine image», DGA, 9décembre 1993. 

[2] S.C.A. Thomopoulos, Sensor integration and data fusion. SPIE vol. 1 198 Sensor Fusionll : Human and Machine Strategies, 1989, pp. 178-191. 

[3] F. Nashashibi, P. Fillatreau, B. Dacre-Wright, T. Simeon 3-D Autonomous Navigation in a Natural Environment. In Procs of 1994 IEEE International Conference on Robotics and Automation, San Diego, California, May 8-13, 1994, pp. 433-439. 

[4] A. Kosaka, M.Meng,A.C. Kak,Vision-GuidedMobileRobotNavigation Using Retroactive Updating of Position Uncertainty. Robot Vision Laboratory, Perdue University. Proceeding of the 1993 IEEE International Conference on Robotics and Automation, Atlanta USA, May 1993, Vol2, pp. 1-7. 

[5] M. Mariton, Fusion de capteurs . application à la poursuite de cibles manœuvrantes. Journée thématique : Fusiond'information d'origine image. 9 décembre 1993, DGA. 

[6] Y . Pollet, Une approchepour la représentationde situations opérationnelles dans les systèmes de fusion.Quatrièmes journées nationales sur Les applicationsdes ensembles flous, Lille, octobre 1994. 

[7] D. Berschandy, Comparaison des approches classiques et neuronales dans l'architecture d'un système d'intelligence artificielle embarque.Application à ladétectiontempsréelde danger automobile.Thèse soutenue àl'Université de ParisSud, 1993. 

[8] M. Rombaut, ProLab2 :a driving assistance system.In 1993 /IEEE Tsukuba International Workshop on Advanced Robotics, Tsukuba, Japan, 8-9 november 1993, pp. 97-101. 

[9] G. Malaterre, H. Fontaineand P. Van Elslande, PROMETHEUS, analyse of driver needs using accident report and a priori evaluation of PROMETHEUS . functions. Technical report, Prometheus office, c/o Daimler-Benz, Postfach 60 02 02, D-7000 Stuttgart 60, August 1992. 

[10] F. Collange, J. Alizon, J. Gallice and L. Trassoudaine. A camera Telemeter Multisensory System for obstacle Detection and Tracking. In Intelligent Vehicle Highway systems, 25th ISATA Silver Jubile, Florence (Italy), 1-5 june, 1992. 

[11] J.C. Burie and J.G. Postaire, Linear stereovision by edge matching using dynamic programming for obstacle detection, IEEE Intelligent vehicles symposium, Tokyo, Japan, 1993. 

[12] A. Bellon, J.P. Derutin, F. Heitz, Y. Ricquebourg, Real-time collision avoidance at road-crossings on board the Prometheus-Prolab2 vehicle, IEEE Int. Symposium on Intelligent Vehicles, Paris, France, oct. 1994.

[13] X. Yu, S. Beucher and M. Bilodeau, Road Tracking, Lane Segmentation and Obstacle Recognition by Mathematical Morphology.In Proc. Intelligent Vehicles' 92 symposium, Detroit, july 1992. 

[14] Y. Bar-Shalom and T.E. Fortmann.Tracking and Data Association.Academic press, 1988. 

[15] J.J. Leonard and H. Durrant-Whyte,Applications of Multi-Target Tracking to Sonar-based Mobile Robot Navigation, Proc. ofthe 29th Conf. on Decision and Control, pp. 3118-2123. 

[16] D. Hutber and S . Moison and C. Shekhar and M. Thonnat. Perceptioninterpretation interfacing via multi-sensor data fusion and multi program supervision for the ProLab2 road vehicle, Seventh IFAC Symposium on Transportation Systems, 1994, jul, Tianjin, China . 

[17] M. Rombaut, D. Meizel.Dynamic data temporal multisensor fusion in the Prometheus ProLab2 demonstrator. 1994 IEEE International Conference on Robotics and Automation, San Diego, California, May 8-13, 1994, pp. 3676.

[18] N. Le Fort, D. Ramamonjisoa, D. Meizel. Intelligent manoeuvring and execution control, Intelligent Vehicle'92, Detroit, USA, 29 juin-1er juillet 1992.

[19] G. Bordes, G. Giraudon et O. Jamet. Interprétation d'images aériennes guidées par une base de données cartographique. Séminaire CNRS GdR134 : TDSI - GT5"Fusion", Fusion en imagerie aérienne et satellitaire,SophiaAntipolis, 22-23 février 1994.

[20] L. Hong, T. Scaggs. Real-Time Optimal Multiresolutional SensorlData Fusion, IEEE Robotics and Automation 93, Atlanta.