Summary: | This thesis presents a reverse projection model for image formation, which is particularly useful for explaining blur. The model is used to develop novel methods for two different applications: removing the effects of blurred occluding objects and recovering the 3D structure of scenes from defocused images. With respect to depth recovery, the model shows that, when out of focus, multiple pixels record light reflected from the same region of the scene, giving rise to a measurable increase in the correlation between such pixels. Having found that increase to be proportional to scene depth, correlation measurements are used to estimate the depth of objects in a scene, giving a new method for the recovery of depth from defocus. In addition, this thesis presents a method by which this and other depth from defocus methods can be made more accurate by evolving the region over which blur is measured. Using an elliptical model for the measurement region, it is shown that a straightforward algorithm can be used to produce more accurate depth estimates near discontinuities in depth and surface orientation. With respect to occluding objects, the reverse projection blur framework is used to model image formation near large discontinuities in depth. This leads to a validated model that describes the way in which light from the foreground and background objects combine on a camera's sensor, and a method for the removal of the contribution of the occluding object. In order facilitate the removal of the occluding object's intensity from single images without user intervention, a method is developed to estimate the parameters necessary to remove this contribution. === Cette thèse présente un modèle de formation d'image basé sur la projection inverse, qui est particulièrement utile pour la modélisation du flou. Ce modèle est utilisé dans le développement de nouvelles méthodes dans le cadre de deux applications différentes: l'élimination des contours de bord flous et l'estimation de la structure tridimensionnelle de scènes à partir d'images défocalisées. En ce qui a trait à l'estimation de la profondeur, le modèle démontre que lorsque défocalisés, plusieurs pixels différents enregistrent de la lumière provenant d'une même région de la scène, ce qui cause une augmentation mesurable de la corrélation entre les valeurs de ces pixels. Après avoir démontré que cette augmentation est proportionnelle à la profondeur de la région dans la scène, des mesures de corrélation sont utilisées pour estimer cette profondeur, ce qui constitue une nouvelle méthode pour l'estimation de profondeur à partir de la défocalisation de l'image. De plus, cette thèse présente une méthode avec laquelle cet algorithme (ainsi que d'autres algorithmes) d'estimation de profondeur à partir de la défocalisation peuvent être rendus plus exacts, en évoluant une région dans laquelle le flou est mesuré. En utilisant un modèle elliptique pour cette région, il est démontré qu'un algorithme simple peut être utilisé pour produire des estimations de profondeur plus exactes près des discontinuités en profondeur et en orientation de surface. En ce qui a trait aux contours de bord flous, le modèle de flou basé sur la projection inverse est utilisé dans la modélisation de la formation de l'image près d'importantes discontinuités en profondeur. Ceci mène à un modèle validé qui décrit l'intéraction de lumière provenant des objets d'avant-plan et d'arrière-plan, sur le capteur de la caméra, ce qui permet la suppression de la contribution de l'objet d'avant-plan causant le flou. Afin de faciliter cette suppressi
|