next up previous contents index
suivant: Les opérateurs de convolution monter: Traitements d'images couleur précédent: Traitements d'images couleur   Table des matières   Index


Opérateurs différentiels

Ces méthodes considèrent généralement l'image comme la discrétisation d'un signal continu 2D. On a donc :

$\displaystyle I = Q\circ f
$

$ I$ est l'image discrète, $ f$ le signal continu, et $ Q$ un opérateur d'échantillonnage. La recherche de contours dans $ I$ (donc de sauts de valeurs) se caractérise dans $ f$ par des maxima de la dérivé. On introduit donc l'opérateur différentiel $ D$. Nous verrons dans la section 6.1.5 comment l'information couleur peut être traitée par ce type d'approche. La plupart des méthodes de détection de contours étant plus spécifiquement dédiées au traitement d'images mono-dimensionnelles, nous allons dans cette section nous limiter à ce cas. Nous supposerons de plus que $ f$ appartient à $ C^2(\RRd,\RR)$, l'ensemble des fonctions continuement deux fois différentiables de dans . L'ensemble des fonctions susceptibles de donner une même discrétisation $ I$ étant important, cette dernière condition n'est pas très restrictive.

La différentielle de $ f$ peut donc s'exprimer de la façon suivante :

$\displaystyle Df(p).n = \deriv{f}{x}(p).n_x + \deriv{f}{y}(p).n_y = \lim_{h\to 0} \frac{f(p) - f(p + (hn_x,hn_y))}{h}$ (6.1)

$ Df(p).n$ est donc la dérivée de $ f$ dans la direction $ n$ (comme seule la direction de n nous intéresse, on peut prendre $ \Vert n\Vert
=1$). Si nous introduisons l'opérateur gradient défini par :

\begin{displaymath}
\grad{f} = \left (
\begin{array}{l}
\deriv{f}{x}\\
\deriv{f}{y}\\
\end{array}\right )
\end{displaymath}

l'équation 6.1 s'écrit :

$\displaystyle Df(p).n = \grad{f}(p)\bullet n$ (6.2)

$ \bullet$ désigne le produit scalaire.

On a, de plus, par l'équation 6.2 :

$\displaystyle \max_{\Vert n\Vert = 1} \vert Df(p).n \vert = \max_{\Vert n\Vert=1} \vert\grad{f}(p)\bullet n \vert
= \Vert\grad{f}(p)\Vert.
$

Donc, en tout point la norme du gradient permet de connaître la variation maximum de la différentielle. De plus, le maximum étant atteint pour $ n$ colinéaire à $ \grad{f}(p)$, la direction du gradient donne la direction de plus grande variation de la fonction $ f$.

Les directions de variation de $ f$ correspondant à des maxima de la différentielle de $ f$, on peut également chercher ces directions par les zéros de la différentielle seconde de $ f$. Si $ D_2 f$ désigne cette différentielle seconde, on a :

$\displaystyle D_2f(p).n = \derivxx{f}{x}(p).n_x.n_x + \derivxx{f}{y}(p).n_y.n_y + 2\derivxy{f}{x}{y}(p).n_xn_y$ (6.3)

La fonction $ f$ présentera une variation locale suivant une direction $ n$, si à $ n$ fixé la fonction $ Df(p).n$ présente un maximum local. Ce maximum local se traduira, toujours à $ n$ fixé, par un zéro de la fonction $ D_2f(p).n$ en ce point.

Afin d'alléger les calculs, on cherche les zéros du laplacien plutôt que les zéros de la différentielle seconde. Le laplacien de la fonction $ f$, noté f, est défini par :

$\displaystyle \laplac{f}(p) = \derivxx{f}{x}(p) + \derivxx{f}{y}(p)
$

Le laplacien étant invariant par rotation, le calcul des zéros du laplacien ne fait pas intervenir la direction $ n$ de plus grande variation de $ Df(p)$. L'utilisation du laplacien évite donc de calculer le gradient en plus de la différentielle seconde.

Les zéros du laplacien ne correspondent généralement pas aux zéros de $ D_2f(p).n$, toutefois Marr [MH80] a montré qu'il y avait coïncidence entre les zéros des deux fonctions au point $ p$ si les variations d'intensité étaient linéaires sur la ligne de passage par zéro et sur les lignes parallèles dans un voisinage de $ p$. Le laplacien peut donc être vu comme une bonne approximation de la différentielle seconde.



Sous-sections
next up previous contents index
suivant: Les opérateurs de convolution monter: Traitements d'images couleur précédent: Traitements d'images couleur   Table des matières   Index
Brun Luc 2004-03-25