Détection de différence de mise au point lors des prises de vues stéréoscopiques

Détection de différence de mise au point lors des prises de vues stéréoscopiques

Sergi Pujades Frédéric Devernay 

Inria - Equipe PRIMA,Univ. Grenoble Alpes, LIG, F-38000 Grenoble, France. CNRS, LIG, F-38000 Grenoble, France

Corresponding Author Email: 
{sergi.pujades-rocamora,frederic.devernay}@inria.fr
Page: 
65-86
|
DOI: 
https://doi.org/10.3166/TS.32.65-86
Received: 
11 October 2013
| |
Accepted: 
4 April 2014
| | Citation

OPEN ACCESS

Abstract: 

Live-action stereoscopic content production requires a stereo rig with two cameras precisely matched and aligned. While most deviations from this perfect setup can be corrected either live or in post-production, a difference in the focus distance or focus range between the two cameras will lead to unrecoverable degradations of the stereoscopic footage. In this paper we detect focus mismatch between views of a stereoscopic pair in four steps. First, we compute a dense disparity map. Then, we use a measure to compare focus in both images. After this, we use robust statistics to find which images’ zones have a different focus. Finally, to give useful feedback, we show the results on the original images and give hints on how to solve the focus mismatch.

RÉSUMÉ

La production d’images stéréoscopiques nécessite un rig stéréoscopique avec deux caméras parfaitement synchronisées et alignées. La plupart des imprécisions de ce montage peuvent être corrigées en direct ou en post-production. Par contre, une différence de distance de mise au point ou de profondeur de champ entre les caméras produira des dégradations irrécupérables dans les images. Dans cet article nous détectons des différences de mise au point entre les deux vues d’une paire stéréoscopique en quatre étapes. D’abord nous calculons une carte de disparité dense. Ensuite nous mesurons la netteté dans chaque image et nous comparons ces mesures. Puis, avec des méthodes statistiques robustes, nous identifions les zones de l’image qui présentent des différences. Finalement, nous proposons une méthode de visualisation sur les images originales pour informer l’opérateur des problèmes, et lui donner des indices pour les résoudre.

Keywords: 

stereoscopic cinema, socus mismatch, depth from focus, depth from defocus

MOTS-CLÉS

cinéma stéréoscopique, flou, netteté, distance de mise au point, depth from focus, depth from defocus

1. Introduction
2. Modèle De Flou, Différence De Flou Et Le Flou Dans Les Images
3. Mesure De Différence De Mise Au Point
4. Résultats
5. Conclusions Et Perspectives
  References

Devernay F. (2014a). Office focus dataset. http://devernay.free.fr/vision/focus/office. (Accessed: 2013-09-11)

Devernay F. (2014b). Patio focus dataset. http://devernay.free.fr/vision/focus/patio. (Accessed: 2013-09-11)

FitzGerrell A. R., Dowski Jr. E. R., Cathey W. T. (1997). Defocus transfer function for circularly symmetric pupils. Applied Optics, vol. 36, no 23, p. 5796–5804.

Huang W., Jing Z. (2007). Evaluation of focus measures in multi-focus image fusion. Pattern Recognition Letters, vol. 28, no 4, p. 493–500.

Kooi F. L., Toet A. (2004). Visual comfort of binocular and 3D displays. Displays, vol. 25, no 2, p. 99–108.

Lambooij M. T. M., IJsselsteijn W. A., Heynderickx I. (2007). Visual discomfort in stereoscopic displays: a review. Proc. SPIE Stereoscopic Displays and Virtual Reality Systems XIV, vol. 6490, no 1.

Lin H.-Y., Gu K.-D. (2007). Photo-realistic depth-of-field effects synthesis based on real camera parameters. In Advances in visual computing, p. 298–309. Springer.

Mendiburu B. (2012). 3D TV and 3D cinema: tools and processes for creative stereoscopy. Focal Press.

Mennucci A., Soatto S. (1999). On observing shape from defocused images. In International conference on image analysis and processing, p. 550–555.

Nayar S. K., Nakagawa Y. (1994). Shape from focus. IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 16, no 8, p. 824–831.

Pentland A. P. (1987). A new sense for depth of field. IEEE Transactions on Pattern Analysis and Machine Intelligence, no 4, p. 523–531.

Piqueres J. V. (2003). The persistence of ignorance. http://www.ignorancia.org. (Accessed: 2013-09-11)

Rajagopalan A., Chaudhuri S., Mudenagudi U. (2004). Depth estimation and image restoration using defocused stereo pairs. IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 26, no 11, p. 1521–1525.

Schechner Y. Y., Kiryati N. (2000). Depth from defocus vs. stereo: How different really are they? International Journal of Computer Vision, vol. 39, no 2, p. 141–162.

Seuntiens P., Meesters L., Ijsselsteijn W. (2006). Perceived quality of compressed stereoscopic images: Effects of symmetric and asymmetric jpeg coding and camera separation. ACM Transactions on Applied Perception (TAP), vol. 3, no 2, p. 95–109.

Sizintsev M., Wildes R. P. (2010). Coarse-to-fine stereo vision with accurate 3d boundaries. Image and Vision Computing, vol. 28, no 3, p. 352–366.

Stelmach L. B., Tam W. J., Meegan D. V., Vincent A., Corriveau P. (2000). Human perception of mismatched stereoscopic 3D inputs. In Proceedings international conference on image processing (icip), vol. 1, p. 5–8.

Subbarao M. (1988). Parallel depth recovery by changing camera parameters. In Proceeding of the international conference on computer vision (iccv), p. 149–155.

Young C. (1992). Pov-ray - the persistence of vision raytracer. www.povray.org. (Accessed: 2013-09-11)