Absolute Localisations in Indoor Environment based on Omnidirectionnal Vision. Localisations. Absolues En Milieu Intérieur Basées sur la Vision Omnidirectionnelle

Absolute Localisations in Indoor Environment based on Omnidirectionnal Vision. Localisations

Absolues En Milieu Intérieur Basées sur la Vision Omnidirectionnelle

Cyril Cauchois Arnaud Clerentin  Laurent Delahoche  Eric Brassart  Cyril Drocourt 

CREA (Centre de Robotique, d'Electrotechnique et d'Automatique) Université de Picardie Jules Verne (UPJV) – I.U.T. Département Informatique Avenue des facultés , 80000 AMIENS, France

Page: 
183-212
|
Received: 
1 July 2002
|
Accepted: 
N/A
|
Published: 
30 June 2003
| Citation

OPEN ACCESS

Abstract: 

In this article, we present two localization methods based on the omnidirectional SYCLOP sensor. The first method is a static one and is based on a matching between one real image and a base of synthetics panoramic pictures. This base is computed with the help of a modelling and a calibration of the SYCLOP sensor. The second method is a dynamic one and is based on multi target tracking. The originality of this method is its capability to manage and propagate uncertainties during the localization process. This multi-level uncertainty propagation stage is based on the use of the Dempster-Shafer theory. In this work, SYCLOP is associated with a panoramic range finder. It enables to treat complementary and redundant data and thus to construct a robust sensorial model which integrates an important number of significant primitives. Based on this model, we treat the problem of maintaining a matching and propagating uncertainties on each matched primitive in order to obtain a global uncertainty about the robot configuration.

Résumé

Dans cet article, nous présentons deux méthodes de localisation basées sur l’utilisation du capteur omnidirectionnel SYCLOP. La première méthode, statique, consiste à rechercher la configuration du robot d’une manière absolue par la mise en correspondance d’une image réelle avec une base d’images panoramiques synthétiques. Cette base est obtenue grâce à la modélisation et la calibration du capteur SYCLOP. La deuxième méthode, dynamique, est basée sur de la poursuite multi-cibles. L’originalité de cette méthode réside dans sa capacité à gérer et propager des incertitudes durant le processus de localisation. Cette propagation multi-niveaux d’incertitudes est basée sur l’utilisation de la théorie de Dempster Shafer. Dans ce travail, SYCLOP est associé à un capteur de profondeur. Ceci permet de traiter des données à la fois complémentaires et redondantes et donc de construire un modèle sensoriel robuste intégrant un nombre important de primitives significatives. En nous appuyant sur ce modèle, nous traitons le problème de maintien d’un appariement et de la propagation d’une incertitude sur chaque primitive appariée, ceci dans le but d’obtenir une incertitude globale qui caractérise l’estimation de configuration du robot.

Keywords: 

Omnidirectional vision, localisation, calibration, matching, data fusion, mobile robots.

Mots clés 

Vision omnidirectionnelle, localisation, calibration, mise en correspondance, fusion de données, robots mobiles.

1. introduction
2. Le Capteur SYCLOP
3. Configuration et Propriétés du Capteur
4. Considérations Optiques du Miroir Conique
5. Modéliser une Caméra
6. Modélisation du Capteur de Vision Omnidirectionnelle
7. La Calibration
8. La Localisation par Base d'Images
9. De la Localisation Absolue à la poursuite Multi-Cibles
10. Le Système de Perception Utilisé dans le Cadre de la poursuite Multi-Cibles
11. Construction du Modèle Sensoriel
12. Méthode de Localisation Dynamique
13. Résultats Expérimentaux sur la Propagation des Incertitudes
14. Conclusion
  References

[1] S. Baker and S. Nayar, « A theory of catadioptric image formation », Proceeding of the 6th International Conference on Computer Vision, Bombay, India, pp. 35-42, January 1998. 

[2] H.A. Beyer, « Accurate Calibration of CCD-Cameras », Int. Conf. on Computer Vision and Pattern Recognition, Urbana-Champaign, Illinois, USA, pp. 96-101, 1992. 

[3] E. Bideaux, « STAN : Système de transport à apprentissage neuronal. Application de la vision omnidirectionnelle à la localisation d’un robot mobile autonome », Thèse de Doctorat de l’Université de Besançon, Janvier 1995. 

[4] P. Bonnifait et G. Garcia, « Design and experimental validation of an odometric and goniometric localization system for outdoor robot vehicles », IEEE Transactions on Robotics and Automation, vol. 14, #4, pp. 541-548, 1998. 

[5] J. Borenstein, « Internal correction of dead-reckoning errors with a dualdrive compliant linkage mobile robot , Journal of Robotic systems , vol. 12, #4, pp. 257-273, 1995. 

[6] C. Cauchois, « Modélisation et Calibration du capteur omnidirectionnelle SYCLOP : Application à la Localisation Absolue en milieu structuré» . Thèse de Doctorat de l’Université de Picardie Jules Verne, 2001. 

[7] F. Chenavier, « Localisation d’un robot mobile par odométrie et vision monoculaire », Thèse de Doctorat de l’université de Grenoble, Septembre 1992. 

[8] L. Cinque, D. Yasuda, L. Shapiro, S. Tanimoto, B. Allen, « Improved Algorithm for Relational Distance Graph Matching », Pattern Recognition, vol. 29, #2, pp. 349-359, 1996. 

[9] A. Clerentin, « Localisation d'un robot mobile par coopération multi-capteurs et suivi multi-cibles », Thèse de doctorat de l’Université de Picardie Jules Verne, 2001. 

[10] I.J. Cox et M.L. Miller, « On finding ranked assignments with application to multi target tracking and motion correspondence », IEEE trans. on Aerospace and Electronic Systems, vol. 32, #1, pp. 486-495. 

[11] J. Crowley, « Navigation for an intelligent mobile robot », IEEE Journal on Robotics and Automation, vol. RA-1, #1, pp. 31-41, 1985. 

[12] P. Dargenton, N. Vincent, H. Emptoz, « Appariement de Deux Graphes Structurels Quelconques pour la Reconnaissance de Lettres Manuscrites », 9ème Congrès AFCET RFIA, pp. 461-471, 1994.

[13] C. Drocourt, L. Delahoche, C. Pegard et A. Clerentin, « Mobile Robot Localization Based on an Omnidirectional Stereoscopic Vision Perception System », Proc. of the IEEE International Conference on Robotics and Automation (ICRA’99), pp. 1329-1334, 1999. 

[14] A. Ferrand, « Localisation relative des robots mobiles : conception et mise en oeuvre d’un odomètre indépendant de la structure de locomotion du robot », Revue d’Automatique et de Productique Appliquées, vol. 5, #3, pp. 89-100, 1992. 

[15] D. Gruyer, V. Berge-Cherfaoui, « Matching and decision for vehicle tracking in road situation », Proc. IEEE Int. Conf. on Intelligent Robots and Systems (IROS’99), Korea ,1999. 

[16] J. Guivant, E. Nebot, H.F. Durrant-Whyte, « Simultaneous localization and map bulding using natural features in outdoor environments », Intelligent Autonomous Systems 6 (IAS-6), vol 1, pp. 581-588, 2000. 

[17] J. Guivant, E. Nebot, S. Baiker, « Autonomous navigation and map building using laser range sensors in outdoor applications », Journal of Robotic Systems, vol. 17, #10, pp. 565-283, 2000. 

[18] J. Hollingum - « Caterpillar make the earth move : automatically », Industrial Robot, vol. 18, #2, pp. 15-18, 1991. 

[19] H. Ishiguro and S. Tsuji, « Image-based memory of environment », IEEE International Conference on Intelligent Robotics and Systems, pp. 634-639, 1996.

[20] M. Jogan and A. Leonardis, « Robust localization using the eigenspace of spinning-images », Proc. of the IEEE Workshop on Omnidirectional Vision (OMNIVIS'00), Hilton Head Island, South Carolina, USA, pp. 37-44, 2000. 

[21] M. Jogan and A. Leonardis, « Parametric Representations of Panoramic Images », Proc. of the IEEE Workshop on « Omnidirectional Vision Applied to Robotic Orientation and Nondestructive Testing (NDT) » at 10th International Conference on Advanced Robotics (ICAR'01), Budapest, Hungary, p. 31-36, 2001. 

[22] E. Krotov, « Mobile robot localization using a single image », Proc. IEEE Conference on Robotics and Automation, Scottdale, p. 978-983, 1989. 

[23] E. Lefevre, O. Colot, P. Vannoorengerghe et D. de Brucq, « A generic framework for resolving the conflict in the combination of belief structures », Proc. 3rd Intern. Conf. Information Fusion, Paris, France, 2000. 

[24] J. Leonard, H. Durrant-Whyte, « Mobile robot localization by tracking geometric beacons », IEEE Trans. on Robotics and Automation, vol. 7, #3, p. 89-97, 1991. 

[25] S.S. Lin and R. Bajcsy, « The True Single View Point (SVP) Configuration for Omni-Directional View Catadioptric System Using Cone Mirror », Proc. of International Conference on Computer Vision, Vancouver, Canada, 2001. 

[26] B. Marhic, « Localisation absolue de robots mobiles par le capteur de vision omnidirectionnelle SYCLOP », Thèse de doctorat de l’Université de Picardie Jules Verne, 1999. 

[27] El M. Mouaddib and C. Pégard, « Localisation using omnidirectional vision », In Proc. Intelligent Cooperative Autonomous Robots (ICAR), pp. 133-138, 1995. 

[28] « Numerical Recipes in C: The Art of Scientific Computing - Second Edition », Cambridge University Press, ISBN 0-521-43108-5. 

[29] A. Ohya, A. Kosaka et A. Kak, « Vision-based navigation by a mobile robot with obstacle avoidance using single camera vision and ultrasonic sensing », IEEE Transactions on Robotic and Automation, vol. 14, #6, 1998. 

[30] C. Pégard, M. Mouaddib « A mobile robot using a panoramic view » Proc. IEEE International. Conference on Robotics and Automation (ICRA), Mineapolis, Minesota, USA, p. 89-94, 1996. 

[31] P. Puget and Th. Skordas, « An Optimal Solution for Mobile Camera Calibration », Proc. on European Conference on Computer Vision, Antibes, France, p. 187-198, 1990.

[32] M. Rombaut, « Sur l'utilisation de la théorie de l'évidence pour la perception et la fusion de données », exposé de la journée GDR ISIS du 18 Janvier 2001, ENST, Paris 

[33] C. Royere, D. Gruyer, V. Cherfaoui, « Data association with believe theory », 3rd int. conf. on information fusion FUSION 2000, Paris, France, 2000 

[34] G.A. Shafer, « A mathematical theory of evidence », Princeton : university press, 1976. 

[35] K. Simsarian, T.J. Olson et N. Nandhakumar, « View invariant regions and mobile robot self-localization », IEEE Transactions on Robotics and Automation, 1996. 

[36] C.C. Slama, editor. « Manual of Photogrammetry, fourth edition ». American Society of Photogrammetry and RemoteSensing, Falls Church, Virginia, USA, 1980. 

[37] A. Stevens, H. Durrand-Whyte, « OXNAV: reliable autonomous navigation », Proc. IEEE Int. Conf. on Robotics and Automation, Nagoya, Aichi, Japan, pp. 2607-2612, 1995. 

[38] R.Y. Tsai, « A Versatile Camera Calibration Technique for High-Accuracy 3D Machine Vision Metrology Using Off-the-Shelf TV Cameras and Lenses », IEEE Journal of Robotics and Automation, vol. 3, #4, pp. 323-344, 1987. 

[39] J. Vaganay, « Conception d’un système multisensoriel de localisation dynamique 3D pour robot mobile », Thèse de doctorat, LIRMM, Montpellier, juillet 1993. 

[40] F. Wallner, B. Schiele, J.L. Crowley, « Position estimation for a mobile robot from principal components of laser range data », 5th int. Symposium on intelligent robotics systems, SIRS’97, Stockholm, Suede, pp. 215-224, 1997. 

[41] G. Weiss, C. Wetzler et  E. Von Puttkamer, « Keeping track of position and orientation of moving indoor systems by correlation of range finder scans », IEEE int. conf. on intelligent robots and systems IROS’94, Munich, Deutschland, pp. 595-601, 1994. 

[42] Y. Yagi, S. Kawato, T. Saburo, « Real-Time Omnidirectional Image Sensor (COPIS) for Vision-Guided Navigation », IEEE Transactions on Robotics and Automation, vol. 10, #1, pp. 11-22, 1994.