L.MOISAN PhD
Modèles continus, numériques et statistiques pour l'analyse d'images
Lionel Moisan
Mémoire d'Habilitation à Diriger des Recherches, Université Paris 11, janvier 2003.
Téléchargement :
gzip-compressed
Postscript ou PDF
Pour un exemplaire papier, me contacter
D'un point de vue physique, une image est une distribution de lumière
focalisée sur un plan. D'un point de vue numérique, c'est un tableau de
nombres. Ce fossé entre le modèle physique intuitif et la réalité
numérique peut être transcendé par les modèles mathématiques, qui
représentent les images par des objets précis et idéalisés afin d'en
mieux percer les propriétés. Dans ce mémoire, je
présente plusieurs modèles mathématiques qui ont fait leurs preuves
en analyse d'images, afin de replacer dans leur contexte mes propres
contributions. Partant du théorème de l'échantillonnage de Shannon,
peu adapté aux discontinuités naturelles des images, j'aborde ensuite le
modèle variationnel et l'utilisation fructueuse de la variation totale
comme terme de régularisation dans les problèmes mal posés comme
la déconvolution. Un glissement progressif nous amène alors
aux représentations multiéchelles des images (scale-space) décrites par des
équations aux dérivées partielles. Associées à l'invariance
par changement de contraste, proposée il y a vingt ans par la
morphologie mathématique, ces représentations multiéchelles aboutissent
aux mouvements par courbure, où des courbes (les lignes de niveau d'une image)
évoluent selon leur normale à une vitesse dépendant de leur courbure
locale. Un cas particulier, invariant affine, se révèle précieux
dans l'application à la comparaison d'images.
Dans une deuxième partie, je confronte ces modèles et les
objets mathématiques auxquels ils se réfèrent au monde numérique,
en détaillant tout particulièrement le cas des mouvements par courbure
(et notamment le cas affine) pour lesquels il existe des algorithmes
géométriques particulièrement intéressants.
Enfin, soulignant la limite de ces modèles trop locaux en vision
artificielle, j'aborde mes recherches les plus récentes en détection
statistique de primitives géométriques dans les images. Après une
discussion sur la modélisation statistique et le lien étroit entre
Maximum A Posteriori (loi de Bayes) et modèles variationnels,
j'évoque le travail des gestaltistes sur l'identification des
mécanismes fondamentaux de la vision humaine (groupements perceptifs
selon des lois géométriques appelées gestalts), avant de décrire
un modèle a contrario permettant de formaliser ces mécanismes
avec une modélisation minimale et une réduction systématique
des paramètres libres ou mesurés à un seuil absolu appelé nombre
de fausses alarmes. J'illustre ce modèle par la détection d'alignements,
de modes d'histogrammes et de bords contrastés, avant d'aborder la
question de la maximalité (détections optimales représentatives) et
de présenter
deux conjectures récentes liées à la loi Binomiale. Mon mémoire s'achève
avec quelques considérations sur la vision humaine comme modèle de
vision artificielle, sur le rôle primordial
de l'expérimentation, et par une description
rapide de mes axes de recherches actuels, notamment la détection systématique
de structures surdéterminées dans les images et les textes.