Extraction des Couleurs Dominantes d’une Image · la définition du meilleur espace de...

8
Extraction des Couleurs Dominantes d’une Image M. C. MAMLOUK * , A. AÏT YOUNES ** , H. AKDAG **,*** , I. TRUCK ** * ISET Bizerte, Campus Universitaire route Menzel Abderrahmen, 7021 Bizerte, TUNISIE [email protected] ** CReSTIC-LERI, rue des Crayères, BP 1035, 51687 REIMS Cedex 2, FRANCE {amine, truck}@leri.univ-reims.fr *** LIP6, 8 rue du Capitaine Scott, 75015 PARIS, FRANCE [email protected] Résumé : Dans ce papier, nous présentons une approche originale d’extraction des couleurs dominantes d’une image dans l’objectif d’améliorer le processus d’indexation, de classification et de recherche d’images par le contenu visuel. Notre démarche utilise le concept de couleurs linguistiques, représentées par des fonctions d’appartenance floues. En clair, notre méthode consiste à sélectionner, dans un premier temps, un ensemble de couleurs statistiquement dominantes, puis d’appliquer une méthode novatrice de repêchage d’autres couleurs non majoritaires, mais suffisamment significatives. Cette procédure utilise, entre autre, un algorithme de segmentation en régions et affecte des poids aux régions en fonction de leur taille, de leur position et du contraste entre couleurs dominantes retenues au premier tour. Au final, un score est affecté aux couleurs linguistiques en fonction de leur présence dans ces zones en utilisant des opérateurs de fusion de type t-norme et t-conorme. Mots-Clés : Couleurs Linguistiques, Représentation Floue des Couleurs, Indexation d’Images, Election de Couleurs, Algorithme de Vote. Introduction Face à l’émergence des larges bases de données multimédia, le besoin de recherche et d’accès aux documents multimédia et aux images par le contenu (Content-Based Image Retrieval ou CBIR) a fortement suscité l’intérêt des chercheurs et a récemment fait l’ob- jet de nombreux travaux. Dans le domaine de l’indexation et de la recherche d’images, deux axes majeurs se sont imposés : l’in- dexation et la recherche d’images fondées sur l’anno- tation ou la description textuelle et de celui fondé sur le contenu visuel ou précisément sur certains descripteurs du contenu comme la forme, la texture ou la couleur. Lors de la phase de recherche, ces descripteurs sont spé- cifiés soit de façon explicite à travers des éléments d’in- terface appropriés, soit sur simple présentation d’une image-type (requête par l’exemple), toutes les images de la base ayant déjà été indexées au préalable. Bien que la détection de contours ait été bien étu- diée dans la littérature par l’utilisation de filtres ou par une approche morphologie mathématique, l’indexation fondée sur la forme demeure un problème difficile avec des solutions limitées aux objets bien distingués et sé- parables dans une image [Lon03]. La texture est aussi un sujet important dans l’indexation et la classification d’images. Les travaux dans ce domaine sont partagés entre deux courants : le premier fondé sur la définition de Bloch et al. [Blo04] et cherchant à isoler certaines distributions spatiales régulières des pixels et le second découlant directement de la définition d’Aslandogan et Yu et visant à détecter la présence de textures avec ré- partition aléatoire [Asl99]. L’indexation d’images fon- dée sur la couleur se heurte au premier problème qu’est la définition du meilleur espace de représentation des couleurs en concordance avec la perception visuelle hu- maine et la notion de couleurs linguistiques. Différentes approches ont été adoptées : la définition de l’espace HLS flou avec degrés d’appartenance 3D [Hil00], l’uti- lisation des histogrammes de couleurs floues [Han02] ou encore les requêtes avec définition stricte de cou- leurs [Bin94]. Dans ce travail, l’accent est mis sur l’indexation et la recherche d’images à base d’indicateurs et profils de couleurs. Ainsi, nous partons d’une représentation de couleurs notées couleurs et permettant la construction de profils. Chaque descripteur donne une indication sur le taux de présence de chaque couleur dans une image et ce, à travers des degrés d’appartenance flous. Ce- pendant, cette vision des choses ne s’intéresse qu’aux taux de présence et ignore la répartition des couleurs et surtout l’existence de zones homogènes à forte concen- tration de couleurs. Ainsi, il est judicieux de chercher -1-

Transcript of Extraction des Couleurs Dominantes d’une Image · la définition du meilleur espace de...

Page 1: Extraction des Couleurs Dominantes d’une Image · la définition du meilleur espace de représentation des couleurs en concordance avec la perception visuelle hu-maine et la notion

Extraction des Couleurs Dominantes d’une ImageM. C. MAMLOUK∗, A. AÏT YOUNES∗∗, H. AKDAG∗∗,∗∗∗, I. TRUCK∗∗

∗ISET Bizerte, Campus Universitaire route Menzel Abderrahmen, 7021 Bizerte, [email protected]

∗∗CReSTIC-LERI, rue des Crayères, BP 1035, 51687 REIMS Cedex 2, FRANCE{amine, truck}@leri.univ-reims.fr

∗∗∗LIP6, 8 rue du Capitaine Scott, 75015 PARIS, [email protected]

Résumé : Dans ce papier, nous présentons une approche originale d’extraction des couleurs dominantes d’une image dansl’objectif d’améliorer le processus d’indexation, de classification et de recherche d’images par le contenu visuel. Notredémarche utilise le concept de couleurs linguistiques, représentées par des fonctions d’appartenance floues. En clair,notre méthode consiste à sélectionner, dans un premier temps, un ensemble de couleurs statistiquement dominantes, puisd’appliquer une méthode novatrice de repêchage d’autres couleurs non majoritaires, mais suffisamment significatives.Cette procédure utilise, entre autre, un algorithme de segmentation en régions et affecte des poids aux régions en fonctionde leur taille, de leur position et du contraste entre couleurs dominantes retenues au premier tour. Au final, un score estaffecté aux couleurs linguistiques en fonction de leur présence dans ces zones en utilisant des opérateurs de fusion detype t-norme et t-conorme.

Mots-Clés : Couleurs Linguistiques, Représentation Floue des Couleurs, Indexation d’Images, Election de Couleurs,Algorithme de Vote.

IntroductionFace à l’émergence des larges bases de données

multimédia, le besoin de recherche et d’accès auxdocuments multimédia et aux images par le contenu(Content-Based Image Retrieval ou CBIR) a fortementsuscité l’intérêt des chercheurs et a récemment fait l’ob-jet de nombreux travaux.

Dans le domaine de l’indexation et de la recherched’images, deux axes majeurs se sont imposés : l’in-dexation et la recherche d’images fondées sur l’anno-tation ou la description textuelle et de celui fondé sur lecontenu visuel ou précisément sur certains descripteursdu contenu comme la forme, la texture ou la couleur.Lors de la phase de recherche, ces descripteurs sont spé-cifiés soit de façon explicite à travers des éléments d’in-terface appropriés, soit sur simple présentation d’uneimage-type (requête par l’exemple), toutes les imagesde la base ayant déjà été indexées au préalable.

Bien que la détection de contours ait été bien étu-diée dans la littérature par l’utilisation de filtres ou parune approche morphologie mathématique, l’indexationfondée sur la forme demeure un problème difficile avecdes solutions limitées aux objets bien distingués et sé-parables dans une image [Lon03]. La texture est aussiun sujet important dans l’indexation et la classificationd’images. Les travaux dans ce domaine sont partagés

entre deux courants : le premier fondé sur la définitionde Bloch et al. [Blo04] et cherchant à isoler certainesdistributions spatiales régulières des pixels et le seconddécoulant directement de la définition d’Aslandogan etYu et visant à détecter la présence de textures avec ré-partition aléatoire [Asl99]. L’indexation d’images fon-dée sur la couleur se heurte au premier problème qu’estla définition du meilleur espace de représentation descouleurs en concordance avec la perception visuelle hu-maine et la notion de couleurs linguistiques. Différentesapproches ont été adoptées : la définition de l’espaceHLS flou avec degrés d’appartenance 3D [Hil00], l’uti-lisation des histogrammes de couleurs floues [Han02]ou encore les requêtes avec définition stricte de cou-leurs [Bin94].

Dans ce travail, l’accent est mis sur l’indexation etla recherche d’images à base d’indicateurs et profils decouleurs. Ainsi, nous partons d’une représentation decouleurs notées couleurs et permettant la constructionde profils. Chaque descripteur donne une indication surle taux de présence de chaque couleur dans une imageet ce, à travers des degrés d’appartenance flous. Ce-pendant, cette vision des choses ne s’intéresse qu’auxtaux de présence et ignore la répartition des couleurs etsurtout l’existence de zones homogènes à forte concen-tration de couleurs. Ainsi, il est judicieux de chercher

-1-

Page 2: Extraction des Couleurs Dominantes d’une Image · la définition du meilleur espace de représentation des couleurs en concordance avec la perception visuelle hu-maine et la notion

SETIT2007

un affinement prenant en compte la présence de régionshomogènes (au sens couleur) en puisant dans la littéra-ture relative à la segmentation d’images et la détectionde contours et aux différents algorithmes comme ceuxde Sobel, Deriche ou encore Comaniciu et Meer avecleur algorithme de segmentation disponible en opensource et en s’inspirant des différentes approches éma-nant de la théorie du choix social afin de donner plus oumoins de poids aux zones et aux couleurs.

Cet article est organisé comme suit : dans le pa-ragraphe 1 , nous décrivons notre représentation descouleurs et les degrés d’appartenance 3D flous. Le pa-ragraphe 2 est consacré au profil et aux descripteursd’image. Quelques résultats d’exploitation de ce pro-fil dans l’extraction des couleurs représentatives d’uneimage y sont présentés. Finalement, l’affinement fondésur la segmentation, d’une part, et la théorie du choixsocial avec notre algorithme de vote, d’autre part, estexposé avec quelques résultats d’expériences.

1. Notre Représentation Floue des Cou-leurs

Communément, les espaces de couleurs utilisés pourl’indexation et la recherche d’images sont de deuxtypes : les modèles colorimétriques orientés "maté-riels" définis selon les propriétés des équipements op-tiques (RGB, YIQ, YUV, CMYK, et YCrCb) et lesmodèles colorimétriques orientés "utilisateurs" fondéssur la perception humaine de la couleur avec deux fa-milles d’espaces : les espaces de couleurs non uni-formes (HLS, HSV, HSB), intuitifs et faciles à mani-puler, et les espaces de couleurs uniformes (L*u*v*,L*a*b*, L*C*h*), davantage conformes à la percep-tion visuelle humaine. Notre choix s’est porté sur l’es-pace HLS (Teinte, Luminosité, Saturation) en raisonde sa simplicité d’utilisation. Pour palier à sa non uni-formité par rapport à la perception visuelle humaine,nous avons défini des degrés ou fonctions d’apparte-nance flou(e)s et des couleurs linguistiques rappelantles couleurs de Newton (on aurait peut être pu utiliserplus ou moins de couleurs comme le cercle chromatiqued’Itten, utile pour le calcul de certains contrastes parexemple, seuls les résultats seront juges), de la façonsuivante : neuf teintes de couleurs sont définies (fig. 1)auxquelles nous rajoutons un ensemble de neuf qualifi-catifs (fig. 3) à partir d’une combinaison de la lumino-sité et de la saturation (fig. 2). Pour plus de détails, lelecteur pourra se rapporter à [Tru01].T = {rouge, orange, jaune, vert, cyan, bleu, violet,

magenta, rose} est l’ensemble des teintes considérées.ft est la fonction d’appartenance d’un pixel à une teintet ∈ T et fq la fonction d’appartenance d’un pixel àun qualificatif q ∈ Q = {sombre, foncé, profond, gris,moyen, vif, pâle, clair, lumineux}. Les différents qualifi-catifs sont définis sur les neuf teintes de la même façonque l’exemple ci-dessous pris pour q = sombre et f sondegré d’appartenance fonction de la luminosité l et dela saturation s :

Figure 1. Représentation floue des teintes (Compo-sante H).

Figure 2. Représentation floue de la luminosité et de lasaturation (Composantes L et S).

fsombre(l, s) =

0 si s ≥ 127∨ l ≥ 127

1 si s ≤ 43∧ l ≤ 43

127−max(l, s)84

sinon

[1]

Figure 3. Qualificatifs.

-2-

Page 3: Extraction des Couleurs Dominantes d’une Image · la définition du meilleur espace de représentation des couleurs en concordance avec la perception visuelle hu-maine et la notion

SETIT2007

Le noir, le blanc et le gris sont considérés commeachromatiques et donc définis à partir de la composanteluminosité pour les deux premières et de la luminositéet la saturation pour le gris donnant lieu à trois qualifi-catifs ffonce, fmoyen et fclair (fig. 4).

Figure 4. Représentation floue du noir, gris et blanc.

2. Profil et Descripteur d’Image2.1. Notre Approche

Les couleurs linguistiques et les qualificatifs définisci-dessus permettent de caractériser chacun des pixelsd’une image I en l’affectant à une ou à plusieurs classesde teintes et qualificatifs. L’objectif étant d’attribuer àtoute l’image un profil de couleurs et un descripteur glo-bal de ses différents pixels, nous utilisons une agréga-tion des teintes et qualificatifs suivie par une moyennesimple de la façon suivante :

Soit P l’ensemble des pixels de I . Pour chaque pixelp ∈ P défini par ses coordonnées (hp, lp, sp) dans l’es-pace HLS, on calcule l’appartenance de p à chacunedes teintes t ∈ T et on la note ft(hp). De même, (pourchaque pixel p), on définit l’appartenance de p à chacundes qualificatifs q ∈ Q et on la note fq(lp, sp).

Les degrés d’appartenance Ft(I) de l’image entièreI à chacune des teintes t sont calculés en intégrant lacontribution de chacun de ses pixels de façon normali-sée :

∀t ∈ T , Ft(I) =

∑p∈P ft(hp)|P| . [2]

De même, les degrés d’appartenance Ft,q(I) del’image entière I à l’un des qualificatifs q ∈ Q pourune teinte donnée t ∈ T sont calculés en intégrant lacontribution de chacun des pixels de l’image∀(t, q) ∈ T ×Q,

Ft,q(I) =

∑p∈P fq(lp, sp)× gt(hp)

|P|où :

gt(hp) ={

0 si ft(hp) = 01 sinon [3]

A chaque image I est alors attribué un profil[Ft(I), Ft,q(I)] contenant 96 éléments (|T | + |T ×

Q| + |{noir, blanc, gris}| + |{gris} × {foncé, moyen,clair}| = 9 + 81 + 3 + 3) et représenté graphiquementci-dessous (fig. 5) avec Q1 = {foncé, moyen, clair},Q2 = Q rQ1 et NC = {noir, blanc, gris}, avec q1 ∈Q1, q2 ∈ Q2, c ∈ T ∪ {gris} et nc ∈ NC r {gris}.

Image (I)

1 2

FcouleurFgrisFnc

Figure 5. Profil d’image avec degrés d’appartenanceflous.

On note :

F ∗(I) = maxc∈T ∪{gris}

(Fc(I)) [4]

F ∗c (I) =

{maxc∈Q(Fc,q(I)) ∀c ∈ Tmaxc∈Q1(Fc,q(I)) si c = {gris} [5]

Une image peut être attribuée aux classes :

– Cc si Fc(I) ≥ F ∗(I)− λ, ∀c ∈ T ∪NC, λ étantun seuil de tolérance.

– Cc,q si Fc(I) ≥ F ∗(I)− λ et Fc,q(I) ≥ F ∗c (I)−λ,

∀(c, q) ∈ T ×Q ∪ {gris} × Q1. [6]

2.2. RésultatsCi-dessous, nous illustrons la démarche à travers

quelques copies d’écran de la première version de notrelogiciel [Ait04]. La figure 6 représente la réponse à larequête de recherche des images ayant le "bleu lumi-neux" comme couleur dominante. La figure 7 montreles images répondant le mieux à la requête composite"bleu lumineux" et "vert sombre" comme couleurs do-minantes.

ImageBank1 est la banque de données d’images surlaquelle nous avons effectué nos tests. Nous l’avonschoisie parce qu’elle associe une annotation textuellecolorimétrique aux images, ce qui permet d’établir descomparaisons.

Dans les expérimentations, nous avons effectué destests sur 1000 images. Deux types de scores ont été

1. http ://creative.gettyimages.com/imagebank/

-3-

Page 4: Extraction des Couleurs Dominantes d’une Image · la définition du meilleur espace de représentation des couleurs en concordance avec la perception visuelle hu-maine et la notion

SETIT2007

Figure 6. Requêtes uni-couleur.

Figure 7. Requêtes multi-couleurs.

générés : le premier correspondant aux images de labanque de données répondant à priori aux requêtes etfournies comme réponse du logiciel appelées "Imagesbien classées", et le second aux images ne correspon-dant pas aux requêtes mais affichées par le logicielcomme faisant partie des résultats aux requêtes et appe-lées "Images non sélectionnées". Plus le premier scoreest élevé et le second bas, meilleures sont les perfor-mances du logiciel en terme d’indexation, de classe-ment et de recherche. Le tableau 1 donne un récapitula-tif des résultats.

Nb images Nb images Nb images non“bien classées” sélectionnées

1000 897 164Taux 89.7 % 16.4 %

Tableau 1. Résultats des tests sur ImageBank.

Travaillant avec des annotations textuelles colorimé-triques émanant d’experts, ImageBank peut être à l’ori-gine des 10.3% d’erreurs sur les images pas "bien clas-sées" et des 16.4% des "images non sélectionnées"puisque la subjectivité peut prendre le dessus : il suf-fit, par exemple, qu’un expert considère une couleurcomme étant du "bleu clair" au lieu du "cyan".

Ces erreurs d’ambiguïté dans les résultats peuventêtre accentuées par le contexte ou le voisinage dechaque zone : un rouge ne sera pas perçu de la mêmefaçon dans un voisinage vert que dans un voisinageblanc. Ce problème est bien connu chez les peintreset est défini comme étant le contraste de couleurs. Parailleurs, bien que cette approche puisse servir à faire del’indexation et de la recherche d’images, il est à no-ter qu’elle pourrait être limitée par le fait d’imposerun seuil de tolérance puisqu’un tel seuil risque de ca-cher certaines couleurs "dominantes" moins présentes,au sens statistique, dans l’image mais suffisamment im-portantes, figurant dans les zones et attirant l’attentionpar leur originalité. Pour garantir une meilleure clas-sification d’images, nous proposons de rajouter au tra-vail déjà réalisé un système orienté régions et non pixelspermettant le repêchage de certaines couleurs considé-rées comme non dominantes mais suffisamment "repré-sentées" dans l’image pour être retenues comme repré-sentatives de celle-ci.

3. Nouvel Algorithme et Théorie du VoteLa nouvelle démarche nécessite l’utilisation d’un al-

gorithme de traitement d’images pour assurer la seg-mentation en zones. Deux grandes familles sont consi-dérées dans la littérature : les approches de segmen-tation orientées détection de contours comme cellesde Deriche ou Canny [Can86] et celles orientées ré-gions. Comaniciu et Meer [Com97] mettent à dis-position un algorithme de segmentation d’images ro-buste et rapide fondé sur une segmentation utilisant unemoyenne statistique "Mean Shift Segmentation". Nousprofitons de cet algorithme pour décomposer l’image enun ensemble de zones relativement homogènes ayant aumoins une couleur dominante. S’inspirant de la théoriedu choix social, un poids ou score est alors affecté àchaque zone ou région pour contribuer à un vote finalpermettant de déterminer les b meilleures couleurs re-présentatives de l’image segmentée. Ce processus estillustré dans la figure 8.

3.1. Attribution des Scores aux ZonesSuite à la démarche décrite au paragraphe 3, chaque

image se voit attribuer un profil constitué des 96 de-grés d’appartenance de l’image à chaque couleur (i.e.Fc,q(I), ∀c, q). Il est clair qu’une image ne peut être at-tribuée à une sous-classe si elle n’est déjà attribuée à laclasse mère, I ne peut être rouge sombre si elle n’estpas déjà rouge.

Ainsi, sur les degrés d’appartenance aux 12 cou-leurs (i.e. pour t ∈ T ∪NC), seules celles dépassant uncertain seuil ζ = 1/mmax sont retenues, autorisant lefiltrage des mmax couleurs dominantes. Parmi les n−m

-4-

Page 5: Extraction des Couleurs Dominantes d’une Image · la définition du meilleur espace de représentation des couleurs en concordance avec la perception visuelle hu-maine et la notion

SETIT2007

Segmentation en zones avecAu moins une dominanteCouleur

Images

Calcul des scores des zones

b dominantescouleurs

Figure 8. Nouvelle démarche.

couleurs restantes, une ou plusieurs d’entre elles serontretenues par zone en appliquant le même procédé. Unscore ou poids est attribué à chaque zone en fonctionde sa taille, position dans l’image et contraste avec lesm premières zones sélectionnées. Le tout sera agrégépour aboutir à un score final de deuxième tour de votepour repêcher p couleurs supplémentaires ce qui donneen tout m + p couleurs représentatives de l’image I .Ce processus est illustré dans la figure 9 sachant qu’unevaleur vi est une couleur et donc peut être égale à :

v =

c avec c ∈ T ∪ {noir, blanc, gris}c, q1 avec c ∈ T ∪ {gris}, q1 ∈ Q1

c, q2 avec c ∈ T , q2 ∈ Q2

[7]

3.2. Notre algorithmeLa démarche présentée ci-dessus se résume selon

l’algorithme suivant :

1) Pour toute image I , sélectionner les m ∈ [0, 3]couleurs dominantes ayant un Fc,q(I) supérieur auseuil ζ = 1/3 pour former une première liste des cou-leurs dominantes de l’image I . Si la contribution d’unecouleur est cachée par une de ses couleurs filles, celle-ci remplacera la couleur mère.

2) Segmenter l’image en zones relativement homo-gènes. Pour toute zone générée par la segmentation :

- Sélectionner m′ couleurs, parmi celles non re-tenues à l’étape 1, en appliquant le même algorithme

v0

v95

.

.

.

v0

vn-1

.

.

.

v0

vn-1

...

vm-1

vm

...

v0

vn-1

...

vm-1

vm

...

n-1

m

...

;

;

v0

vm p-1+

...

vm-1

vm

...

vm 1+

FiltrageSélection dem couleurs

Calcul des Scores(t-norme & t-conorme)

Segmentationen zones

Sélection en fonctiondes Scores

Repêchage p couleurs

( )

Figure 9. Processus de sélection des couleurs repré-sentatives d’une image.

pour les m premières couleurs mais appliqué à lazone.

- Evaluer le score (noté γ dans la figure 9) dechaque couleur dans la contribution de la zone.

- Calculer le poids de la zone par rapport àl’image I et ce, en fonction de sa taille, position etcontraste des couleurs par rapport à celles déjà retenuescomme dominantes en utilisant une t-norme.

3) Déterminer la contribution de chaque couleur(son score global) sur toute l’image I en fonction deson degré d’appartenance à chaque zone et des poidsdes zones en utilisant une t-conorme (t-conorme de Rei-chenbach).

4) Choisir un seuil tel que les contributions des cou-leurs soient fortement significatives et retenir les cou-leurs dont les contributions dépassent ce seuil.

3.3. RésultatsNous présentons dans la suite les résultats obtenus

suite à cette optimisation de l’algorithme initial. Dansnos tests, nous avons choisi arbitrairement une valeurde m = 3 . Cette valeur permet de considérer au plustrois couleurs dominantes.

Dans notre application, m est paramétrable ainsi quele seuil pour déterminer les couleurs dominantes dansune zone z.

"Dans la mesure où l’hémisphère droit a une gestionplus globale et plus rapide des formes géométriques etdans la mesure où lui sont adressées directement les in-formations provenant de l’hémichamp visuel gauche, ilpeut être judicieux de disposer certains types de figuresplutôt à gauche", disait Lambert [Lam03], nous avons

-5-

Page 6: Extraction des Couleurs Dominantes d’une Image · la définition du meilleur espace de représentation des couleurs en concordance avec la perception visuelle hu-maine et la notion

SETIT2007

choisi d’accorder plus d’importance aux éléments setrouvant dans la partie gauche de l’image en considé-rant qu’elles seront les premières à attirer l’attention etdonc le mieux mémorisées.

Pour la taille, il est clair que plus une zone contientde pixels, plus elle est importante. Toutefois, étant dansun contexte de repêchage de couleurs, il est impossibled’exiger des proportions de tailles trop importantes,ce qui nous a conduit à choisir des proportions arbi-traires (1/6, 1/3 ou davantage) avec des pondérationsconséquentes pour l’apport de la taille d’une zone dansson poids et par conséquent sa contribution sur toutel’image.

Pour l’apport du contraste entre couleurs dans lepoids d’une zone, nous nous limitons pour cette ver-sion à dire que la présence d’un contraste renforce-rait la contribution de la zone et son absence ne four-nirait aucun apport à son poids. Pour ce faire, nousnous sommes fondés sur la théorie des couleurs d’It-ten [Itt99] et avons exploité la mise en équation pro-posée par Gortais [Gor97] où des contrastes comme lecontraste de couleur en soi, par exemple, sont définisen fonction de H, L, S.

Le poids de la zone wzj est donc calculé à partird’une moyenne simple des apports de la taille, de laposition et du contraste :

wzj =Position(zj) + Taille(zj) + Contraste(zj)

8[8]

avec ∀zj ∈ I :

Position(zj) ∈ {1, 2, 3}Taille(zj) ∈ {1, 2, 3}Contraste(zj) ∈ {1, 2}

Le taux de présence de chacune des couleurs γvi(zj)est calculé à l’aide de la t-norme suivante :

γvi(zj) = wzj × Fvi(zj) [9]

Soit n le nombre de zones obtenues après segmenta-tion de l’image I . Le score global de chacune des cou-leurs dans l’image Γvi(I) est construit de façon incré-mentale sur toutes les zones zj avec j = 1 . . . n à l’aidede la t-conorme de Reichenbach :∀zj , zk ∈ I, ⊥R (zj , zk) =min[(γvi(zj) + γvi(zk))− (γvi(zj)× γvi(zk)); 1]

Γvi(I) = Γnvi

=⊥R [γvi(zn),Γn−1vi

]

avec Γ1vi

= γvi(z1) [10]

La figure 10 montre l’interface permettant le calculdu profil et l’enregistrement d’une nouvelle image dansla base.

Présenter une nouvelle image au système nécessite,la détermination des couleurs dominantes objets de lasélection au premier tour (bouton Processing) puis la

Figure 10. Interface pour le chargement et l’enregistre-ment d’une image.

segmentation en zones et le calcul des couleurs repê-chées au deuxième tour (bouton Segment). Deux pos-sibilités sont alors offertes : l’insertion de l’image dansla base (bouton Load) ou la recherche des images simi-laires ayant les mêmes couleurs représentatives (boutonFind) en tenant compte des couleurs dominantes et decelles repêchées.

La figure 11, quant à elle, montre l’interface associéeau calcul du profil de l’image.

Figure 11. Parcours de la base d’images.

Lors du balayage de la banque d’images, deux sériesd’informations sont fournies par l’application : dans lapartie de gauche, l’image d’origine avec les différentsdegrés d’appartenance de toutes les teintes et qualifica-tifs et dans la partie de droite, l’image segmentée avecles différents scores et contributions des couleurs éma-nant du deuxième tour de vote.

La recherche d’image sur spécification de couleur(s)est représentée dans la figure 12 qui montre le résultatd’une requête demandant des images contenant du vertgris. Cette couleur est dominante dans l’image du centreet retenue au repêchage pour les images de droite et degauche.

Dans les expérimentations avec ce type de requêteune amélioration limitée est constatée : en effet, l’anno-tation textuelle dans ImageBank est faite généralement

-6-

Page 7: Extraction des Couleurs Dominantes d’une Image · la définition du meilleur espace de représentation des couleurs en concordance avec la perception visuelle hu-maine et la notion

SETIT2007

Figure 12. Recherche d’images sur spécification decouleur(s).

moyennant une seule couleur. L’image résultat de la fi-gure 13, par exemple, est considérée comme étant noirepar ImageBank.

Figure 13. Annotation et Recherche d’images sur spé-cification de couleur(s).

Dans les expérimentations de recherche sur présenta-tion d’une image exemple, ou image requête, illustréesdans la figure 14 et suite à une série de tests effectuéssur 200 images, les deux types de scores, "Images bienclassées" et "Images non sélectionnées", ayant été gé-nérés donnent des performances encourageantes repré-sentées dans le tableau 2.

Des études avec analyse des résultats et comparaisonentre différentes méthodes sont en cours et feront l’ob-jet d’un prochain travail.

ConclusionDans cet article, nous avons présenté une démarche

permettant l’extraction des couleurs représentativesd’une image I à partir d’une modélisation floue. Achaque image est associé un profil de degrés d’apparte-

Figure 14. Recherche d’images sur présentationd’image exemple.

Nb images Nb images Nb images non“bien classées” sélectionnées

200 177 6Taux 88.5 % 3 %

Tableau 2. Résultats des tests sur ImageBank avecImage Requête.

nance aux différentes couleurs. Les couleurs représen-tatives sont déterminées en deux phases : dans la pre-mière, sont extraites les couleurs dominantes ayant lestaux de présence les plus élevés dépassant un certainseuil et dans la seconde, de nouvelles couleurs suffisam-ment présentes et considérées comme dominantes dansdifférentes zones de l’image sont repêchées moyennantla combinaison d’une t-norme et d’une t-conorme.

Références[Ait04] A. Aït Younes, I. Truck & H. Akdag : Color Image

Profiling Using Fuzzy Sets, Turkish Journal of Elec-trical Engineering & Computer Sciences, 13 (3),pp. 343–359, 2005.

[Asl99] Y. A. Aslandogan & C. T. Yu : Techniques and Sys-tems for Image and Video Retrieval, IEEE TKDESpecial Issue on Multimedia Retrieval, 1999.

[Bin94] E. Binaghi, I. Gagliardi & R. Shettini : Image retrie-val using fuzzy evaluation of color similarity, Pat-tern recognition and artificial intelligence, vol. 8,pp. 945-968, 1994.

[Blo04] I. Bloch, Y. Gousseau, H. Maître, D. Matignon, B.Pesquet-Popescu, F. Schmitt, M. Sigelle & F. Tu-pin : Le traitement des images, Polycopié du coursANIM, TSI - Télécom - Paris, version 5.0, 2004.

[Can86] J. Canny : A Computational Approach to Edge De-tection, IEEE Transactions on Pattern Analysis andMachine Intelligence, 8 (6), 1986.

[Com97] D. Comaniciu & P. Meer : Robust Analysis ofFeature Spaces : Color Image Segmentation, IEEEConf. Computer Vision and Pattern Recognition(CVPR’97), San Juan, Puerto Rico, 750-755, 1997.

[Der87] R. Deriche : Optimal edge detection using recursivefiltering, Proc. of 1st International Conference onComputer Vision, pp. 501–505, London, 1987.

[Far01] D. Farrell : Electoral Systems : A Comparative In-troduction, New York : St. Martin’s Press, ISBN0333801628, 2001.

-7-

Page 8: Extraction des Couleurs Dominantes d’une Image · la définition du meilleur espace de représentation des couleurs en concordance avec la perception visuelle hu-maine et la notion

SETIT2007

[Gor97] B. Gortais : Le Jardin des Hasards, Journées Fran-cophones d’Intelligence Artificielle Distribuée etSystèmes Multi-Agents, Sophia Antipolis, 1997.

[Han02] J. Han & K.K. Ma : Fuzzy color histogram and itsuse in color image retrieval, IEEE Transactions onImage Processing, Vol. 11 (8), pp. 944-952, 2002.

[Hil00] L. Hildebrand & B. Reusch : Fuzzy Color Proces-sing, in : Book Kerre, E. ; Nachtegael, M. ; (Editors)Fuzzy Techniques in Image Processing, Studies inFuziness and Soft Computing, Vol. 52, Physica-Verlag, Heidelberg, 2000.

[Itt99] J. Itten : Art de la Couleur, Dessain Tolra, 1999.[Lam03] J.-F. Lambert : Approche Psycho-physiologique des

Interactions Homme-Machine, Journée d’Etude dulaboratoire Paragraphe, Université Paris 8, 18 juin2003.

[Lon03] F. Long, H. Zhang & D. Dagan Feng : Fundamen-tals of Content-Based Image Retrieval, MicrosoftResearch Report, 2003.

[Sta01] P. L. Stanchev : Content-Based Image RetrievalSystems, Proceedings of CompSysTech’2001, Sofia,Bulgaria, 2001.

[Tru01] I. Truck, H. Akdag & A. Borgi : A Symbolic Ap-proach for Colorimetric Alterations, Proceedings ofEUSFLAT 2001, pp. 105–108, Leicester, England,September 2001.

[Wys00] G. Wyszecki & W. S. Stiles : Color Science :Concepts and Methods, Quantitative Data and For-mulae, New York, 2nd edition.

-8-