Institut National des Sciences Appliquées de Strasbourg
Mémoire de soutenance de Diplôme d’Ingénieur INSA
Spécialité TOPOGRAPHIE
Représentation 3D d'un site archéologique par photomodélisation,
application au monastère de Saint-Hilarion, Palestine.
Présenté le 18 Juin 2013 par Nolwenn Quéré
Organisme d’accueil : Ecole Biblique et Archéologique
Française de Jérusalem Nablus Road POB 19053
91190 Jérusalem
Projet réalisé au sein du Laboratoire : ICUBE – Equipe TRIO/INSA 24 Boulevard de la Victoire
67000 Strasbourg
Directeur de PFE : M. René Elter Correcteur : M. Emmanuel Alby
R e m e r c i e m e n t s
Nolwenn Quéré - INSA de Strasbourg - 2013 i
R e m e r c i e m e n t s
En préambule à ce mémoire, je souhaitais adresser mes remerciements les plus sincères aux personnes qui ont contribué à l’élaboration de ce mémoire ainsi qu’à la réussite de ce Projet de Fin d’Etude (PFE).
Je tiens à remercier René ELTER, mon directeur de PFE, pour son aide et son
soutien et pour le partage de ses connaissances en archéologie, Emmanuel ALBY, mon
encadrant au sein du laboratoire, pour son suivi et toute l’aide qu’il a pu m’apporter. Je suis
reconnaissante à Marcel SIGRIST, directeur de l'EBAF (Ecole Biblique et Archéologique
Française de Jérusalem) pour m'avoir permis de réaliser ce projet.
Je remercie également Pierre GRUSSENMEYER pour m’avoir accueillie au sein du
laboratoire ainsi que l’ensemble du groupe PAGE (Photogrammétrie Architecturale et
GEomatique), Tania LANDES, pour sa disponibilité, Samuel GUILLEMIN, technicien de
recherches, et Bernard GRANDMOUGIN, technicien informatique, pour leur aide précieuse
et leur bonne humeur.
Merci à Selma BIDINO, Paul CHAVANT, Dorian KLINGHAMMER, Hélène MACHER,
Bertrand OUVRARD, Johann TONNERIEUX, Geoffrey VINCENT, qui ont également réalisé
leur stage au sein du laboratoire, pour leur soutien et pour les moments partagés.
Je remercie Caroline RIPOCHE, qui a débuté ce projet en 2012 et m'a encouragée à
le poursuivre, Emmanuel MOISAN pour le temps qu'il m'a consacré et son aide précieuse,
Pierre ASSALI et Jean-François HULLO pour leur disponibilité et leurs conseils avisés.
Pour l’ensemble de ma formation à l’INSA de Strasbourg, je remercie les professeurs
de Topographie, ainsi que tous mes camarades de promotion.
Enfin, Je souhaite remercier mes parents pour leur soutien tout au long de mes
études.
A v a n t - p r o p o s
Nolwenn Quéré - INSA de Strasbourg - 2013 ii
A v a n t - p r o p o s
L'accès à la Palestine est très limité, compte tenu du contexte géopolitique, rendant
difficile l’accès aux hommes et parfois aux savoirs. De par sa situation, la bande de Gaza est
particulièrement touchée par cette limitation. L'état d'Israël contrôle le transit des étrangers
par le biais de check points. Toute mission en Palestine doit donc être soigneusement
préparée auprès de différentes administrations françaises et israéliennes. L'accès à Gaza
depuis Israël est assuré par le Ministère des Affaires Etrangères français et l'UNESCO, qui
gèrent ensuite la sécurité des intervenants. Un programme de collaboration entre la France
et la Palestine, nommé Al-Maqdisi1, a été créé afin de faciliter ces échanges.
Le programme Al-Maqdisi vise à renforcer les échanges scientifiques et universitaires
entre laboratoires de recherche français et palestiniens. Il est mis en œuvre en Palestine et
en France par les Ministères des Affaires Etrangères (MAE) et de l’Enseignement Supérieur
et de la Recherche (MESR). C'est dans le cadre de ce programme qu'Emmanuel Alby et
Ahmed Muhaisen, respectivement membre de l’équipe PAGE, et architecte enseignant à
l’Université Islamique de Gaza, ont mit en place le projet intitulé "Photogrammétrie et
Archéologie : mémoriser le patrimoine pour mieux le gérer", qui a reçu un avis positif suite à
l’appel d’offre lancé en 2011. La collaboration entre l'Université Islamique de Gaza et
l'équipe de recherche PAGE a ainsi débuté en février 2012 avec le PFE de Caroline
Ripoche, étudiante en topographie à l'INSA de Strasbourg, "Contribution à l'élaboration de
méthodes de restitution archéologique par photogrammétrie". Ce PFE a été suivi en
septembre 2012 par un Projet de Recherche Technique (PRT) relatif à la modélisation 3D de
plusieurs couches stratigraphiques d'une partie du monastère de Saint-Hilarion.
ICUBE est un laboratoire multi-tutelle entre l'Université de Strasbourg, le CNRS
(Instituts INSIS et INS2I), l'ENGEES (Ecole Nationale du Génie de l'Eau et de
l'Environnement de Strasbourg) et l'INSA de Strasbourg. Il est divisé en quatre départements
: "Informatique Recherche", "Imagerie, Robotique, Télédétection et Santé", "Electronique du
Solide, Systèmes et Photonique" et "Mécanique". L'équipe TRIO (Télédétection, Radiométrie
et Imagerie Optique) fait partie des 6 équipes accueillant des enseignants-chercheurs de
l'INSA de Strasbourg parmi les 14 équipes d'ICUBE. Ses "champs de recherche [...]
concernent la physique de la mesure associée à des données de type "image", et les thèmes
[...] [développés] sont l’imagerie optique, l’observation de la terre, l’environnement en milieu
urbain et la numérisation du patrimoine." (site de TRIO 2 ). Le groupe PAGE (Equipe
Photogrammétrie Architecturale et GEomatique, établie à l’INSA de Strasbourg) a pour
principale mission la numérisation du patrimoine par photogrammétrie et lasergrammétrie.
Les fouilles du monastère de Saint-Hilarion, situées à 10 km au sud de Gaza, sont
gérées par l'Ecole Biblique et Archéologique Française de Jérusalem (EBAF), qui en a confié
la direction depuis 2001 à l'archéologue René Elter. Depuis 4 ans, il collabore avec le groupe
PAGE, sur plusieurs projets bi-disciplinaires entre l'archéologie et la topographie. Cette
1 plus d'informations sur http://www.campusfrance.org/fr/al-maqdisi
2 http://icube-trio.unistra.fr/fr/index.php/Accueil
A v a n t - p r o p o s
Nolwenn Quéré - INSA de Strasbourg - 2013 iii
collaboration est à l'origine de nombreux projets faisant intervenir des étudiants en
topographie de l'INSA de Strasbourg et a déjà généré plusieurs PFE.
Le suivi et la conduite du chantier sont mis à mal par la difficulté d'accès à la bande
de gaza. L'archéologue, résidant en France, ne peut se rendre sur place que pour de courtes
durées. En 2007, les fouilles ont été suspendues pendant plusieurs semaines. A cela
s'ajoutent les moyens financiers réduits alloués au chantier d'Umm el-'Amr. Face à ces
difficultés, le gain de temps offert par les techniques photogrammétriques est un atout
majeur. Ces techniques représentent un faible coût matériel (un appareil photographique et
une mire de trois mètres sont nécessaires) et la possibilité de traiter les données plus tard,
en dehors du pays. Dans cette optique d'économie, le choix a été fait d'utiliser des logiciels
gratuits, disponibles sur internet. Néanmoins, une attention particulière a été portée à ce que
les photographies ne soient accessibles que par un nombre restreint de personnes et leur
accès sécurisé.
L'utilisation de modèles numériques comme outils de restitution archéologique est en
plein développement. Ce projet s'inscrit dans cette dynamique et a pour but non seulement
de modéliser les vestiges du monastère de Saint-Hilarion en 3D, mais également
d'encourager l'utilisation de la photogrammétrie au service de l'archéologie. Pour qualifier la
méthode de reconstruction 3D employée pour ce projet, on parlera de photomodélisation, en
raison des logiciels utilisés.
"la photomodélisation fait exclusivement référence à l'utilisation de photographies
pour conduire le reconstruction tridimensionnelle d'objets réels. La photomodélisation
introduit en effet un environnement de travail permettant la restitution tridimensionnelle
d'édifices en s'appuyant sur l'intégration globale et cohérente des phases de relevé, de
modélisation et de représentation." (De Luca [2009]).
Un relevé topographique du monastère a été réalisé en 2002 et 2003, afin de
produire des plans, nécessaires à l'étude du site. Lors du début de l'intervention du groupe
PAGE sur le monastère, aucune autre donnée n'était disponible. Durant son PFE, Caroline
Ripoche a travaillé sur l'élaboration d'une méthode de levé photogrammétrique ainsi que
l'exploitation des données dans le but de générer des modèles 3D des fouilles à différentes
échelles. Une mission de reconnaissance, incluant le relevé photogrammétrique d'une
grande partie des fouilles, notamment du secteur 2 (cf. § 1.1.1.) au complet, par Emmanuel
Alby en mai 2012, a servi de base aux travaux suivants. Une seconde mission, initialement
prévue en juin 2013, comprenant l'implantation d'un canevas de précision et le complément
des données photographiques a été annulée faute d'autorisation d'accès au territoire
palestinien.
S o m m a i r e
Nolwenn Quéré - INSA de Strasbourg - 2013 iv
S o m m a i r e
Introduction ..........................................................................................................................1
I. Etat de l'art .........................................................................................................................3
1.1. Archéologie et restitution archéologique .................................................................3
1.1.1. Fouilles stratigraphiques et organisation des fouilles d'Umm el-'Amr .....................3
1.1.2. Traitements archéologiques ..................................................................................4
1.1.3. Restitution archéologique ......................................................................................5
1.1.3.1. Procédure de validation de la restitution et définitions .....................................5
1.1.3.2. Modèles de restitution archéologique ..............................................................6
1.1.3.3. Modèles architecturaux 3D..............................................................................7
1.2. Photomodélisation et vision par ordinateur.............................................................8
1.2.1. Orientation automatique d'images .........................................................................9
1.2.1.1. Des images 2D aux points 3D .........................................................................9
1.2.1.2. Logiciels de photomodélisation .......................................................................9
1.2.2. Détecteurs de régions d'intérêt ............................................................................10
1.2.2.1. Détecteur de Harris .......................................................................................11
1.2.2.2. SIFT ..............................................................................................................11
1.2.2.3. SURF ............................................................................................................12
1.2.2.4. Comparaison des détecteurs ........................................................................12
1.2.3. Corrections et filtrage ..........................................................................................12
1.2.3.1. Algorithme de RANSAC ................................................................................12
1.2.3.2. Calcul de la matrice fondamentale ................................................................13
1.2.3.3. Compensation des paramètres de caméra ....................................................13
1.2.4. Corrélation dense ................................................................................................14
1.2.4.1. Principe de la Corrélation Epipolaire Dense ..................................................14
1.2.4.2. MVS ..............................................................................................................15
1.2.4.3. CMVS ...........................................................................................................15
1.2.4.4. PMVS2..........................................................................................................17
1.3. Construction d'un modèle 3D .................................................................................18
1.3.1. Consolidation et algorithme ICP ..........................................................................18
1.3.2. Reconstruction tridimensionnelle : maillage .........................................................19
1.3.3. Restitution de l'apparence visuelle .......................................................................20
1.3.3.1. Portion de Ciel Visible ...................................................................................20
S o m m a i r e
Nolwenn Quéré - INSA de Strasbourg - 2013 v
1.3.3.2. Eye Dome Lighting ........................................................................................21
1.3.3.3. Texture..........................................................................................................21
1.4. Synthèse du processus de reconstruction 3D .......................................................22
II. Elaboration de la méthode de reconstruction 3D .........................................................24
2.1. Conditions expérimentales .....................................................................................25
2.1.1. Matériel et logiciels ..............................................................................................25
2.1.2. Données disponibles et critères d'évaluation .......................................................25
2.2. Préparation d'un projet ............................................................................................26
2.2.1. Nombre de photographies par projet ...................................................................26
2.2.2. Ordre des photographies .....................................................................................27
2.2.3. Recouvrement des photographies .......................................................................28
2.3. Corrections géométriques.......................................................................................29
2.3.1 Proportions du capteur .........................................................................................29
2.3.2. Calibration ...........................................................................................................29
2.3.3. Bundle adjustment ...............................................................................................30
2.4. Densification ............................................................................................................31
2.4.1. Nombre de photographies par cluster ..................................................................31
2.4.2. Densité ................................................................................................................32
2.5. Mise à l'échelle .........................................................................................................33
2.6. Post-traitement et rendu ..........................................................................................34
2.6.1. Filtrage ................................................................................................................34
2.6.2. Rééchantillonnage des nuages de points 3D .......................................................36
2.6.3. Recalage .............................................................................................................37
2.6.4. Maillage ...............................................................................................................38
2.6.5. Texturage, rendu .................................................................................................39
2.6.5.1. Outils de rendu CloudCompare .....................................................................39
2.6.5.2. Texturage ......................................................................................................41
2.7. Synthèse ...................................................................................................................43
III. Application aux données du site et analyse des résultats .........................................45
3.1. Présentation du site .................................................................................................45
3.1.1. Contexte géographique et historique ...................................................................45
3.1.2. Saint-Hilarion .......................................................................................................46
3.1.3. Histoire du monastère .........................................................................................46
S o m m a i r e
Nolwenn Quéré - INSA de Strasbourg - 2013 vi
3.1.4. Découpage des fouilles .......................................................................................47
3.2. Modélisation 3D du secteur 2 ..................................................................................48
3.2.1. Niveau 1 : objet ...................................................................................................48
3.2.2. Niveau 2 : unité stratigraphique ...........................................................................48
3.2.3. Niveau 3 : locus ...................................................................................................49
3.2.4. Niveau 4 : secteur................................................................................................50
3.2.4.1. Mise en place d'une boucle ...........................................................................50
3.2.4.2. Résultats .......................................................................................................52
3.3. Bilan des erreurs ......................................................................................................54
3.3.1. Erreurs liées aux conditions de prises de vue ......................................................54
3.3.2. Erreurs liées au système d'acquisition .................................................................54
3.3.3. Erreurs liées au traitement des données .............................................................55
3.3.4. Erreurs liées à l'utilisateur ....................................................................................56
3.3.5. Précision relative et absolue ................................................................................56
3.4. Conclusion et perspectives .....................................................................................56
Conclusion ..........................................................................................................................58
Glossaire .............................................................................................................................60
Table des illustrations ........................................................................................................63
Bibliographie ......................................................................................................................66
Sommaire des annexes ......................................................................................................70
I n t r o d u c t i o n
Nolwenn Quéré - INSA de Strasbourg - 2013 1
I n t r o d u c t i o n
Le site archéologique d'Umm el-‘Amr s’étend sur le territoire de la municipalité de
Nuseïrat, à une dizaine de kilomètres au sud-ouest de la ville de Gaza. L'ensemble des
vestiges couvre près de 1,5 ha sur les dunes littorales, à 300 m de la mer.
L'occupation du monastère est datée de la fin du III° siècle au VII° siècle. Les
vestiges se divisent en deux ensembles architecturaux : un pôle ecclésiastique au sud et un
établissement de bains et une hôtellerie au nord. Un puits et son système d'adduction d'eau
créent une séparation d'ouest en est. L'ensemble est fermé par une enceinte de blocs de
pierres. La surface couverte par les bains et l'hôtellerie est de 6 250 m² (78 m par 80 m). Le
complexe ecclésiastique est un quadrilatère de 7 200 m² (80 m par 90 m), comprenant les
églises, la crypte, l'atrium et ses portiques, les baptistères, une chapelle, les cellules, le
réfectoire, une rue intérieure et des annexes (greniers, cuisine, latrines, etc.).
Depuis 2012, René Elter travaille en collaboration avec le groupe PAGE (laboratoire
TRIO), par le biais d'Emmanuel Alby, afin d'étudier les vestiges en vue de leur étude et
restitution 3D. De cette collaboration sont nés plusieurs projets, faisant intervenir des
étudiants en topographie. La mise en commun des différents domaines de compétence
permet d'assurer une conduite cohérente du programme de mise en valeur du site, ainsi que
l'évolution de l'utilisation de la topographie dans l'archéologie.
Ce PFE s'inscrit dans ce projet de collaboration et reprend les résultats du PFE de
Caroline Ripoche (Ripoche [2012]). Une méthode d'acquisition et de gestion a été établie et
transmise aux étudiants de l'Université Islamique sur le site et des modèles 3D de quelques
zones ont été réalisés. Il s'agit à présent de continuer ces travaux de recherche en
approfondissant les méthodes de reconstruction 3D et en étendant leur utilisation à des
zones de très grandes dimensions, afin d'être capable de modéliser les fouilles dans leur
totalité.
Le site du monastère de Saint-Hilarion est divisé en 7 secteurs de plusieurs ares
chacun. L'objectif de cette étude est la modélisation 3D du secteur 2 à partir des
photographies acquises en mai 2012. La base de données comprend plus de 3 000
photographies terrestres du secteur étudié et plus de 3 000 photographies aériennes, prises
depuis une nacelle. Le secteur est composé de plus de 40 loci (s. locus, cf. glossaire) et
s'étend sur une superficie de plus de 2 000 m².
L'archéologue désire pouvoir exploiter ce modèle à plusieurs fins : promotion
culturelle du site archéologique, conservation du patrimoine, comme outil de base pour
différentes applications futures telles que le dessin de plans ou la restitution archéologique
du monastère sous forme de maquettes 3D.
I n t r o d u c t i o n
Nolwenn Quéré - INSA de Strasbourg - 2013 2
Les objectifs de ce PFE sont :
la mise en place d'une méthode automatisée permettant la modélisation 3D de
secteurs de fouille complets et exploitables par les archéologues;
la mise à jour de la méthode de restitution établie en 2012 et une veille technologique
des logiciels de traitement d'images;
la reconstruction 3D à partir des photographies existantes et de logiciels gratuits du
secteur de fouilles 2 et la création d'un modèle maillé et texturé;
la création d'un modèle 3D à plus petite échelle (4 loci) maillé et texturé faisant
apparaître les détails architecturaux.
Les solutions envisagées sont l'utilisation de logiciels gratuits disponibles sur internet
comme VisualSFM ou Photosynth pour l'orientation automatique des images, CMVS/PMVS2
(cf glossaire) pour la densification et CloudCompare ou 3DReshaper pour le recalage.
Ce mémoire se décompose en trois chapitres, suivis d'annexes.
Le premier chapitre constitue l'état de l'art de l'étude. La première partie expose des
notions d'archéologie et de restitution archéologique. La seconde partie présente la vision
par ordinateur, ses récentes évolutions et la chaîne de traitement aboutissant à la génération
d'un nuage de points dense. La troisième partie introduit différents traitements de ces
nuages pour reconstruire un modèle 3D.
Le deuxième chapitre présente les différentes étapes de la chaîne de traitement
établie et les tests relatifs à ces calculs. Pour chaque traitement, on cherche à optimiser les
paramètres afin d'obtenir les meilleurs résultats possibles avec un minimum de ressources.
A partir de ces nuages de points denses, une méthode est proposée pour recaler les nuages
entre eux et créer un unique modèle 3D.
Le troisième et dernier chapitre, après une description du contexte historique et
géographique du monastère, propose des applications des méthodes établies dans le
chapitre II. aux données du site afin d'aboutir à la reconstruction 3D du secteur 2. Enfin, un
bilan des erreurs est développé, permettant d'évaluer la précision que l'on peut attendre d'un
tel modèle.
E t a t d e l ' a r t
Nolwenn Quéré - INSA de Strasbourg - 2013 3
I . E t a t d e l ' a r t
1.1. Archéologie et restitution archéologique .................................................................3
1.1.1. Fouilles stratigraphiques et organisation des fouilles d'Umm el-'Amr .....................3
1.1.2. Traitements archéologiques ..................................................................................4
1.1.3. Restitution archéologique ......................................................................................5
1.2. Photomodélisation et vision par ordinateur.............................................................8
1.2.1. Orientation automatique d'images .........................................................................9
1.2.2. Détecteurs de régions d'intérêt ............................................................................10
1.2.3. Corrections et filtrage ..........................................................................................12
1.2.4. Corrélation dense ................................................................................................14
1.3. Construction d'un modèle 3D .................................................................................18
1.3.1. Consolidation et algorithme ICP ..........................................................................18
1.3.2. Reconstruction tridimensionnelle : maillage .........................................................19
1.3.3. Restitution de l'apparence visuelle .......................................................................20
1.4. Synthèse du processus de reconstruction 3D .......................................................22
1.1. Archéologie et restitution archéologique
La restitution archéologique est "la figuration d'un monument ou d'un ouvrage, par
des dessins ou des maquettes, tel qu'il existait à son origine" (définition du grand
dictionnaire). Ce type de restitution ne doit pas être confondu avec la restitution
photogrammétrique, qui désigne la représentation à trois dimensions d'un objet.
Dans un premier temps, les grands principes qui régissent les fouilles archéologiques
et les différents modes de restitution et de représentation des vestiges seront passé en
revue.
1.1.1. Fouilles stratigraphiques et organisation des fouilles d'Umm el-'Amr
La stratigraphie est la science qui étudie la succession des dépôts sédimentaires,
généralement arrangés en couches (ou strates). Elle permet de dater et d’organiser les
fouilles. Les principes de la stratigraphie en archéologie sont les suivants (archéologie et
patrimoine3) :
- le dépôt naturel des couches se fait horizontalement;
- deux strates accolées entretiennent une relation temporelle ou ont été rapprochées
par un évènement commun;
- une couche a le même âge en tout point;
- la position d'une strate par rapport à la strate supérieure et la strate inférieure
détermine sa période;
3 http://www.archeologie-et-patrimoine.com/
E t a t d e l ' a r t
Nolwenn Quéré - INSA de Strasbourg - 2013 4
- une couche est postérieure à la fabrication de l'objet le plus récent trouvé dans la
couche inférieure ou elle-même et antérieure à la fabrication de l’objet le plus ancien de la
couche supérieure;
- l'ordre spatial des couches est le même que l’ordre temporel (la couche inférieure
est la plus ancienne et la couche supérieure la plus récente).
Pour faciliter l'étude du monastère de Saint-Hilarion, l'archéologue a défini une
hiérarchie avec six niveaux de restitution, repris par Caroline Ripoche (cf. annexe A).
L'ensemble des objets présents sur le site sert à la datation des couches
stratigraphiques. Les objets ne présentant pas d'indice de datation sont d'une valeur moindre
aux yeux de l'archéologue. (niveau 1).
Une unité stratigraphique est une strate regroupant des traces matérielles de
chaque action de l'homme (construction d’un mur, d’une route ou le remblai d’une fosse) ou
naturelle (éruption d’un volcan ou tremblement de terre). (niveau 2).
Un locus est une pièce (Pluriel : Loci). Il comprend plusieurs unités stratigraphiques.
(niveau 3).
Le site est divisé en secteurs afin d'organiser les fouilles. Un secteur est composé
d'un ensemble de loci. (niveau 4).
Les niveaux de restitution 5 et 6 sont respectivement le plan masse et le modèle de
situation. Ces échelles ne sont pas traitées dans cette étude.
1.1.2. Traitements archéologiques
A partir d'un site archéologique, les archéologues disposent de plusieurs types de
traitements possibles. Golvin [2011] les définit de la manière suivante :
La restitution est l’image qu’un édifice pourrait nous donner si l’on pouvait le revoir
tel qu’il était à l’origine (ou à une période donnée de son histoire).
La reconstitution idéale consiste en un remontage complet d’un édifice à partir de
ses blocs.
L'anastylose est l’art de repositionner les blocs épars, de les replacer dans le bon
ordre par rapport aux structures restées en place permettant la reconstitution partielle des
parties d'un édifie dont les fragments ont été retrouvés.
L'évocation est l’image d’un édifice ou d’un site auquel on ferait simplement allusion,
sans souci d’exactitude scientifique.
La simulation est la reproduction d'un phénomène ou une action, ou encore leur
préfiguration de façon expérimentale.
E t a t d e l ' a r t
Nolwenn Quéré - INSA de Strasbourg - 2013 5
La restauration désigne une action faite en faveur de l’amélioration de l’état
physique de l’œuvre. Elle consiste à réparer ses parties dégradées.
Lorsqu’un objet a entièrement disparu et que sa forme n’est plus connue que par des
images, il faut procéder à la reconstruction d’une image théorique complète de l’édifice. C'est
la recréation.
Figure 1 - Différents types de traitements archéologiques. a) restauration d'unités d'habitation (M-E. Bellet), b) reconstitution de fourneaux (M. Le Clainche), c) restitution d'un temple au I° siècle av. J-C (P. André), d) reconstruction d'un poste de commerce (John & Jameson). (Bellet et al. [2005]).
1.1.3. Restitution archéologique
1.1.3.1. Procédure de validation de la restitution et définitions
La restitution d’un site archéologique est un travail d’équipe, combinant plusieurs
domaines de compétences. Des connaissances archéologiques et historiques sont
nécessaires à la compréhension du site, aussi bien que la connaissance du site en lui-même
par sa topographie ou les matériaux présents par exemple. L’enjeu de ce type de projet est
de parvenir à faire dialoguer les différentes spécialités entre elles afin de tirer le meilleur parti
des possibilités qu’elles offrent en termes de restitution. C’est notamment dans cette optique
que le modèle 3D est utile. En effet le modèle 3D permet une vision claire du site; c'est une
base de travail pour tous et un objet de communication particulièrement efficace.
A partir de ce modèle tel que saisi, les archéologues mettent en place un processus
de trois étapes pour la restitution virtuelle de l’édifice, décrit sur le site de mainecrea4. Dans
un premier temps, une ébauche de restitution est réalisée à partir des éléments existants et
des hypothèses éventuelles. Parallèlement à cette étape, une base documentaire rassemble
tous les éléments nécessaires à la compréhension du site. Les données sont réparties entre
4 http://www.mainecrea.com/3D/index.php
E t a t d e l ' a r t
Nolwenn Quéré - INSA de Strasbourg - 2013 6
les catégories suivantes : données "in situ", données "éparses", données "iconographiques",
données "textuelles", relevés sur site, hypothèses antérieures de restitution, documents
complémentaires. Des séminaires regroupant des experts scientifiques sont organisés
autour de ces hypothèses. La présence des scènes 3D manipulables facilite le dialogue et
permet de faire évoluer les modèles vers un état final, validé par l’ensemble des membres du
projet.
Une restitution est composée de trois types d'éléments (Golvin [2011]) : la partie
connue, ce qui subsiste de l'édifice; la partie reconstituée, ce qui a été rétabli grâce à
l'anastylose; la partie complétée, ce qu'il a fallu ajouter, en se fondant sur une étude
comparative et des hypothèses, afin de parvenir à une image complète et cohérente de
l'édifice.
Trois types de données sont utiles à la restitution d'un site :
- les données connues correspondent à tout ce qui a été retrouvé concernant le site
(les murs, les blocs et fragments, les couches stratigraphiques, les relevés, les textes
anciens, les inscriptions et tous les documents d'archive);
- les données cachées sont celles qui existent encore mais qui restent à découvrir. Il
s’agit des vestiges enfouis, des inscriptions et des archives non découvertes ou non
exploitées;
- les données détruites, sont des murs arrachés, des blocs pillés et réutilisés ailleurs
sans que l’on sache où, des blocs broyés ou brûlés, anéantis dans des fours à chaux, etc.
Enfin, les objets peuvent être classés selon trois catégories :
- un élément est une partie d'un monument nommable en tant qu'entité de
composition architecturale (colonnes, entablements, arcs, voûtes, etc.);
- une pièce est une partie composant un élément d'architecture (briques composant
un chapiteau, tambours d'un fût, voussoirs d'un arc, etc.);
- un fragment est ce qui subsiste d'une pièce ou d'un élément unitaire qui a été brisé.
1.1.3.2. Modèles de restitution archéologique
Il existe plusieurs modèles de restitution archéologique, présentés dans l'article de
Bellet et al. [2005].
La restitution du monument sur place consiste à reconstituer le monument sur les
vestiges en utilisant les matériaux et les techniques d’origine afin de donner au bâtiment un
aspect proche de son état d'origine.
La restitution de volumes consiste à reconstruire les volumes sur les vestiges en
utilisant des matériaux très différents de ceux d’origine afin de distinguer clairement le neuf
de l’ancien.
Le modèle de transfert consiste à déplacer le site ou une partie du site à un
emplacement différent de celui d’origine. C’est le cas du parc de Skansen à Stockholm,
regroupant des habitations du XIX° siècle, typiques de chaque région du Suède.
E t a t d e l ' a r t
Nolwenn Quéré - INSA de Strasbourg - 2013 7
Le modèle réplique est la restitution partielle ou complète d’un site sur un espace
séparé où il n’y a pas de vestiges archéologiques. Celle-ci est la plupart du temps située à
côté des vestiges.
Le modèle conservationniste implique une intervention minimale sur le site dont le
seul but est de conserver les vestiges, par exemple en consolidant les fondations.
Le modèle virtuel est la restitution du site sans matérialisation physique. Celle-ci
peut se matérialiser sous forme de restitution numérique en 3D, comme par l’emploi de
dessins ou d’autres types de documents.
Toute restitution matérielle a pour but principal la conservation des vestiges.
Cependant, elle peut avoir d’autres utilités, comme l’enseignement ou le tourisme.
Figure 2 - Exemples des différents types de restitution. a) Restitution du monument sur place. fresque à Herculanum, Itlaie.theudericus.free.fr, b) Restitution de volumes. Piazza Armerina en Sicile. paris-photo.net, c) Modèle de transfert. Parc de Skansen, Suède. willgoto.com, d) Modèle de réplique. grottes de Lascaux. hominides.com, e) Modèle conservationniste. monastère de Saint-Hilarion, (Elter [2012]) f) Modèle virtuel d'un château médiéval. Guédelon. France. (Renucci [2005]).
1.1.3.3. Modèles architecturaux 3D
Les modèles architecturaux 3D sont une forme de modèle virtuel de plus en plus
répandue. Il existe trois grands types de modèles architecturaux 3D (Fuchs [2006]) :
E t a t d e l ' a r t
Nolwenn Quéré - INSA de Strasbourg - 2013 8
Modèle "de restitution" : utilisé pour représenter des reconstitutions de vestiges en
état fragmentaire. Ce type de modèle nécessite l'expertise de spécialistes par domaine tels
que des archéologues ou des architectes afin de valider les hypothèses de la modélisation.
Modèle "tel que construit" : réalisé à partir des mesures effectuées sans
extrapolation. On l'utilise pour retrouver l'état d'origine d'un élément relevé par exemple en
masquant l'érosion. Ce type de modélisation représente un état géométrique idéal.
Modèle "tel que saisi" : représente l'objet tel qu'il a été relevé. La pertinence du
modèle dépend alors uniquement de la qualité des mesures et du processus de
modélisation.
Figure 3 - Les différents modèles architecturaux 3D. a) Objet réel, b) Modèle tel que saisi, c) Modèle tel que construit (Queste [2006]).
1.2. Photomodélisation et vision par ordinateur
" La photogrammétrie – l’utilisation de photographies à des fins de mesure – n’est pas
une science nouvelle. Ce qui est nouveau, c’est qu’elle soit accessible au plus grand
nombre. Les perspectives ouvertes par l’intégration de cette technologie dans l’éventail des
outils numériques sont vertigineuses [...]. [Livio De Luca] décrit les outils les plus récents
que les architectes avides de nouvelles technologies ont commencé à adopter, et qui seront
très certainement utilisés au quotidien par la majorité d’entre eux d’ici quelques années :
tout est question de temps et de facilité d’utilisation. Les progrès fulgurants de la vision par
ordinateur ces deux dernières décennies, aidés en cela par l’augmentation de la puissance
de calcul des ordinateurs, vont faciliter cette transition, en automatisant toujours plus les
processus mis en jeu dans la photomodélisation, abaissant ainsi les quelques barrières
techniques qui pourraient effrayer les moins audacieux." (Luc Robert, préface de De Luca
[2009].
Comme le présente l'extrait précédent, la vision par ordinateur (cf. glossaire) est en
pleine évolution et avec elle les méthodes d'orientation automatique d'images, qui tendent à
se démocratiser. Le processus d'élaboration d'une maquette 3D peut se résumer par les
trois phases suivantes : "l'acquisition des coordonnées spatiales [ou orientation des images],
la reconstruction tridimensionnelle [maillage] et la restitution de l'apparence visuelle." (De
Luca [2009]). Ces étapes sont détaillées par la suite.
E t a t d e l ' a r t
Nolwenn Quéré - INSA de Strasbourg - 2013 9
1.2.1. Orientation automatique d'images
1.2.1.1. Des images 2D aux points 3D
L'IBM, Image-Based Modeling (cf. glossaire), est un système passif incluant trois
principales méthodes (Yang et al. [2012]) :
- une approche basée sur les cartes de profondeur;
- une approche basée sur les volumes;
- une approche basée sur les surfaces.
La méthode SFM, Structure from Motion (cf. glossaire), est fondée sur l'approche par
les surfaces pour obtenir une structure 3D en état de mouvement. Le principe de la SFM est
d'établir la relation entre les différentes images en analysant les positions relative et absolue
de chaque image. Une fois les paramètres externes de caméra déterminés, les coordonnées
3D des caméras et des points du nuage sont calculées.
Les trois tâches principales de la SFM sont :
- l'analyse des mouvements de caméra et de la scène;
- le recouvrement des déplacements de caméra;
- la construction de la scène en 3D.
Une première image est appariée à une seconde et cet appariement est étendu à tout
le jeu d'images. Les erreurs d'appariement sont ensuite supprimées pour obtenir les
positions relatives des caméras.
1.2.1.2. Logiciels de photomodélisation
Il existe un grand nombre de logiciels d'orientation automatique d'images et de
modélisation disponibles gratuitement ou pour un faible coût sur internet. Les paragraphes
suivants en présentent une liste non exhaustive.
Autodesk 123D Catch Beta : issu du projet Photofly lancé par Autodesk en 2010
permettant de créer un modèle 3D maillé et texturé à partir d’au moins 5 photographies se
recoupant.
AgisoftPhotoScan : solution commerciale à bas prix développée par Agisoft LLC à
Saint-Pétersbourg. Comme 123D Catch, il permet de construire automatiquement un modèle
3D maillé et texturé.
Apero (MicMac) : logiciel open-source développé par le laboratoire Matis de l'IGN
(Institut Géographique National).
Bundler : développé par l'université de Washington et Microsoft dans le langage C et
C++. Il a été conçu pour le projet Microsoft Photo Tourism et fonctionne sur la base de la
SFM. Le logiciel utilise l'algorithme SIFT, permet l'utilisation de paramètres de calibration, et
calcule l'orientation des images ainsi qu'une légère densification à la suite du bundle block
adjustment. Les résultats de Bundler peuvent ensuite être utilisés dans PMVS2.
E t a t d e l ' a r t
Nolwenn Quéré - INSA de Strasbourg - 2013 10
Photosynth : version améliorée de Bundler en web-service par Microsoft.
Photosynth Toolkit : logiciel open-source, développé par Henri Astre, permettant de
densifier un nuage de points avec PMVS2 (cf. § 1.2.4.4) depuis les paramètres d'orientation
de Photosynth.
VisualSFM: logiciel open-source développée par Changchang Wu à l'université de
Washington, avec Google Inc. (Wu et al. [2011]). C'est une application GUI (cf. glossaire)
d'un logiciel SFM adapté pour permettre de travailler avec une architecture multicore sur le
GPU, Graphics Processing Unit (cf. glossaire).
De nombreux articles proposent une comparaison de plusieurs de ces solutions.
Parmi eux, les articles de Remondino et al. [2012] et Kersten & Lindstaedt [2012], comparent
respectivement AgisoftPhotoScan, Apero, Bundler, Photosynth et VisualSFM et Bundler,
VisualSFM, 123DCatch et AgisoftPhotoScan.
Dans Remondino et al. [2012], des jeux de photographies recouvrant de larges
scènes telles que la piazza Navona à Rome ont été orientés avec 5 logiciels afin d'en
comparer les résultats. Les scènes sont géoréférencées par des GCP, Ground Control Point
(cf. glossaire), et les caméras sont calibrées. A l'issue de cette étude, les logiciels SFM
apparaissent comme les moins adaptés à ce type de séquence linéaire de photographies et
fournissent des résultats aberrants. Cela peut s'expliquer par le fait que pour chaque image,
des paramètres internes de caméra sont déterminés, indépendamment des autres images.
En revanche, un jeu de données plus robuste (comportant des prises de vue dans
différentes directions) permet de contrebalancer ce défaut. Enfin l'auteur déplore le manque
d'informations permettant d'apprécier la précision de l'orientation fournie par les logiciels
grand public, qui fonctionnent comme des boîtes noires.
Selon les tests de Kersten & Lindstaedt [2012], les nuages de points 3D, dont les
résultats géométriques sont les plus justes, sont Bundler et VisualSFM. De plus, le résultat
de 123D Catch, bien que très attractif, est difficilement exploitable car il ne permet pas
d'extraire de nuage de points. De plus, VisualSFM, utilisé avec la carte graphique NVidia est
30 fois plus rapide que Bundler associé à PMVS2. Les deux articles arrivent à la conclusion
que les systèmes IBM ont pour avantage leur simplicité d'utilisation, leur rapidité, leur
flexibilité et leur faible coût.
Une étude comparative des logiciels PhotoModeler Scanner (PMS), Photosynth
Toolkit, PhotoCloud, VisualSFM, OSM Bundler, SFM Toolkit, 123DCatch, ARC3D et My 3D
scanner est présentée dans Ripoche [2012]. Lors des projets précédents sur le site du
monastère de Saint Hilarion, le choix du logiciel s'est porté sur VisualSFM pour sa rapidité de
calcul et ses capacités en terme de gestion de mémoire.
1.2.2. Détecteurs de régions d'intérêt
La plupart des logiciels de vision par ordinateur reposent sur l’extraction de points
d’intérêt, nécessaires à l’orientation d’images, la reconstruction 3D, etc. Les positions de
caméra pouvant être variables, cette extraction doit être possible indépendamment de toute
E t a t d e l ' a r t
Nolwenn Quéré - INSA de Strasbourg - 2013 11
transformation. Un point d'intérêt se caractérise par son invariance aux distorsions, sa
stabilité contre le bruit, son unicité, sa capacité à se distinguer de son environnement et à
être interprété.
Figure 4 - Exemple de points d'intérêt. J-F. Hullo, cours de vision par ordinateur 2012.
Les détecteurs sont des opérateurs de recherche 2D de points ou de régions
d'intérêt au sein d’une image, géométriquement stables et contenant un haut niveau
d’information.
La première étape de l’extraction de zones d’intérêt est la détection de points
distincts, localisables de façon fiable sous certaines conditions, indépendamment des
changements de point de vue (rotations, translations) et de la présence de bruit. Ces
conditions ne sont pas respectées pour tous les points d’une image. Grauman &
Leibe [2011] l’illustre par une tache au milieu d’une zone uniforme ou le long d’une ligne :
bien que la tache soit facilement identifiable, elle ne peut pas être localisée de façon précise
à cause de son voisinage.
Un descripteur fournit une analyse d’un point d’intérêt donné, un vecteur 2D
d’information pixellaire. Ces informations peuvent être utilisées pour classer les points
extraits ou dans le calcul de correspondances.
1.2.2.1. Détecteur de Harris
A la différence des détecteurs SIFT ou SURF, le détecteur de Harris (Harris &
Stephens [1988]) ne fait que détecter des points d’intérêt et non pas des descripteurs. Il
s’agit d’une amélioration du détecteur de Moravec (Moravec [1979]), qui a introduit pour la
première fois la notion de point d’intérêt. Celui-ci détecte les plus grandes variations
d’intensité au voisinage d’un pixel. L’algorithme de Harris reprend ce procédé pour détecter
les coins. Il est invariant aux rotations mais pas aux changements d’échelle. Plusieurs
améliorations ont été apportées au détecteur de Harris par la suite (Mikolajczyk & Schmid
[2001]) afin de le rendre notamment invariant aux changements d’échelle.
1.2.2.2. SIFT
SIFT, Scale Invariant FeatureTransform (Lowe [2004]), est un détecteur de points
d'intérêt et descripteurs utilisant le détecteur DoG, Difference of Gaussian, (cf. glossaire),
(Grauman & Leibe [2011]) . L'identification des descripteurs est indépendante des questions de
changement d'échelle, de rotation, de différence d'illumination, de point de vue ou de bruit.
La détection se fait à partir d'une représentation échelonnée spatialement de l'image. Les
points d'intérêt sont localisés par DoG et par interpolation. Chaque point est ensuite assigné
E t a t d e l ' a r t
Nolwenn Quéré - INSA de Strasbourg - 2013 12
et orienté. Les descripteurs sont calculés à partir de l'orientation locale et des magnitudes
autour du point (Bauer et al. [2007]).
1.2.2.3. SURF
SURF, Speeded Up Robust Features (Bay et al. [2006]), comme SIFT, est un
détecteur de points d'intérêt et descripteurs. Il est également indépendant des changements
d'échelle, de rotation, de différence d'illumination, de point de vue et de bruit. Les points
d'intérêt sont trouvés par le Fast-Hessian Detector (Grauman & Leibe [2011]) .
1.2.2.4. Comparaison des détecteurs
Selon Mikolajczyk & Schmid [2005], SIFT est plus efficace en terme d'invariance,
tandis que SURF est plus rapide. Une étude comparative de différents algorithmes de
détection de points, réalisée par Bauer et al. [2007] met en évidence les différences des
algorithmes Harris, SIFT, SURF et leurs dérivés. SIFT et SIFT++ détectent un grand nombre
de points, les qualités d'assignement de SIFT, SIFT++, SURF et SURF-d sont égales tandis
qu'ils comportent des erreurs avec LTI-lib SIFT. Enfin, l'algorithme Harris est moins
performant que ceux cités précédemment.
VisualSFM utilise une version SIFT implémentée pour GPU, SiftGPU 5 , plus
performant en terme de vitesse. Il traite les pixels en parallèle pour construire des pyramides
de Gauss et utilise une méthode combinée de GPU et CPU, Central Processing Unit (cf.
glossaire), pour créer une liste des points d'intérêt, qui sont traités en parallèle pour obtenir
leurs orientations et descripteurs. SiftGPU inclut également le SIFT matcher SiftMatchGPU,
qui multiplie la matrice de descripteurs et trouve les correspondances les plus proches sur
GPU. Les filtres de Harris et DoG permettent de retrouver les points d'intérêt d'une image et
de calculer la relation avec les points d'intérêt d'une autre image.
1.2.3. Corrections et filtrage
1.2.3.1. Algorithme de RANSAC
Le paradigme de RANSAC, RANdom SAmple Consensus (cf. glossaire), présenté
dans Schnabel et al. [2007], extrait des formes en en dessinant aléatoirement des portions
minimales à partir des points et en construisant les formes primitives correspondantes. Une
portion minimale correspond au plus petit nombre de points nécessaires à la définition d'une
primitive géométrique d'un type donné. Les formes résultantes sont testées par rapport à
tous les points du jeu de données afin de déterminer combien de points correspondent à la
primitive. Au bout d'un certain nombre d'essais, la forme correspondant au plus grand
5 http://www.cs.unc.edu/~ccwu/siftgpu/
E t a t d e l ' a r t
Nolwenn Quéré - INSA de Strasbourg - 2013 13
nombre de points est extraite et l'algorithme continue sur les données restantes. Les points
isolés de ces formes théoriques sont ensuite éliminés.
Figure 5 - Schéma d'explication du principe de l'algorithme de RANSAC. Document personnel.
1.2.3.2. Calcul de la matrice fondamentale
Le fichier EXIF, Exchangeable Image File Format (cf. glossaire), des images sert de
valeurs approchées pour calculer la configuration possible de deux caméras et leur
géométrie épipolaire correspondante. La géométrie épipolaire d'une paire d'images peut être
exprimée par une matrice 3 x 3 appelée matrice fondamentale. Elle décrit les positions et
orientations relatives des deux caméras ainsi que leurs paramètres internes. La matrice
fondamentale contient donc les matrices intrinsèque et extrinsèque. VisualSFM utilise
RANSAC pour déterminer la matrice fondamentale pour chaque paire d'images.
1.2.3.3. Compensation des paramètres de caméra
La méthode du bundle adjustment, existant depuis les années 1950, est devenue
prédominante dans les années 1980 dans le domaine de la reconstruction 3D, notamment
par informatique. Le bundle adjustment est l'optimisation de la recherche des paramètres de
caméra (externes et éventuellement internes), afin d'améliorer la reconstruction 3D sous
certaines hypothèses : si l'erreur de mesure d'une image est gaussienne et centrée en 0,
alors le bundle adjustment est l'estimateur du maximum de vraisemblance. On considère une
fonction quantifiant l'erreur du modèle et estimant les coordonnées 3D des objets 2D ainsi
que les paramètres de caméras. L'estimation optimale du bundle adjustment est trouvée en
minimisant cette fonction par le principe des moindres carrés. Les méthodes les plus
couramment utilisées sont Levenberg-Maquardt, Gauss-Newton, Gauss-Markov (Remondino
et al. [2012]).
Il existe trois types de contraintes principales :
- les contraintes internes;
- les contraintes minimales;
- les contraintes maximales.
E t a t d e l ' a r t
Nolwenn Quéré - INSA de Strasbourg - 2013 14
Les contraintes internes imposent qu'il n'y ait pas de changement de translation, de
rotation ou d'échelle depuis les paramètres approchés. La solution est obtenue quand la
matrice de covariance des paramètres estimés est minimale. La solution n'étant pas
influencée par des facteurs externes, ce type de contrainte permet d'identifier les erreurs
systématiques. La mise à l'échelle se fait obligatoirement après le bundle adjustment.
Les contraintes minimales introduisent des informations externes dans les
paramètres estimés du bundle adjustment. La définition du système de coordonnées
nécessite au moins 7 paramètres, avec 3 GCP (deux points en XYZ et un point en Z).
Si plus de 7 paramètres sont introduits, des distorsions apparaissent nécessairement
dans les paramètres estimés. On parle alors de contraintes maximales.
Pour procéder à un bundle adjustment, les deux principales approches sont donc les
suivantes :
- Importer au moins 3 GCP considérés comme des observations pondérées dans le
calcul des moindres carrés. Cette approche est la plus rigoureuse car elle minimise les
déformations et les erreurs systématiques éventuelles.
- Ne pas introduire de données externes avant le calcul du bundle adjustment et ne
procéder à une transformation de similitude que postérieurement. Cette approche a pour
défaut de ne pas s'appuyer sur des données fiables et suppose que les valeurs approchées
de départ soient justes.
VisualSFM utilise un bundle adjustment multicore combinant l'algorithme Levenberg-
Marquardt et l'algorithme preconditioned conjugate gradients (Remondino et al. [2012]). La
résolution du problème par les moindres carrés est non linéaire et permet d'estimer 8
paramètres de caméra (3 translations, 3 rotations, une longueur focale et un paramètre de
distorsion radiale). VisualSFM calcule des paramètres internes différents pour chaque
image. Depuis la version v0.5.21, le bundle adjustment permet de fixer une longueur focale
unique pour toutes les images issues de la même caméra.
1.2.4. Corrélation dense
1.2.4.1. Principe de la Corrélation Epipolaire Dense
"La corrélation épipolaire dense (CED) est un principe fondamental de la
stéréoscopie qui consiste à reconstituer, par pointé commun sur deux photographies, un
objet en 3 dimensions, sans aucune autre information sur l'objet que les photographies. C'est
donc une technique dite passive. Le but de la CED est de déterminer pour chaque région
(pixel ou groupe de pixels) d'une image la position du même objet dans l'autre image. A
partir de là, une triangulation permet de reconstituer les coordonnées 3D de chaque point."
(Hullo [2009]).
Deux points de deux images sont appariés selon un ou plusieurs critères de
ressemblance. Deux points distincts peuvent avoir la même valeur radiométrique sur deux
images distinctes. De même, un même point visible sur deux images peut ne pas avoir la
même valeur radiométrique. Si on teste tous les pixels de chaque image, le nombre de tests
E t a t d e l ' a r t
Nolwenn Quéré - INSA de Strasbourg - 2013 15
à effectuer est infini. Il faut donc imposer des contraintes supplémentaires pour réduire le
domaine des solutions possibles. L'intégration du voisinage par une fenêtre centrée sur le
point d'analyse permet de caractériser la texture locale du point, et non plus seulement le
point lui-même.
Le niveau de ressemblance est quantifié à l'aide d'indicateurs. Les fonctions de
ressemblance les plus utilisées sont la différence des moindres carrés et le produit scalaire.
La géométrie épipolaire permet de réduire les dimensions du problème. Tous les
appariements possibles de P1 dans l'image 2 sont situés sur une ligne E, dite épipolaire. Dès
que la géométrie épipolaire est connue, le problème d'appariement devient donc un
problème linéaire (1D) de mise en correspondance, plus facile à traiter, plus rapide et moins
ambigu.
Figure 6 - La contrainte épipolaire. (Hullo [2010]).
1.2.4.2. MVS
MVS, Multi View Stereo (cf. glossaire), est une méthode produisant un nuage de
points 3D dense à partir d'images et de leurs paramètres de caméra. La plupart des
algorithmes MVS reconstruisent un modèle 3D global à partir de toutes les images
simultanément. Cette méthode est limitée par le nombre de photographies et ne peut, bien
souvent, pas être appliquée pour les scènes larges comprenant un important volume de
données. C'est pourquoi il est nécessaire de sélectionner un sous-ensemble de
photographies et de les regrouper.
Certains algorithmes utilisent une carte de profondeur (cf glossaire) pour chaque
image. Chaque carte de profondeur peut être calculée indépendamment et en parallèle.
Cependant, le risque de redondance et de bruit est important. Ces algorithmes nécessitent
donc des post-traitements afin de nettoyer et de rassembler les cartes de profondeur.
Jancosek et al. [2011] pallie ce souci grâce à un algorithme utilisant l'approche globale mais
permettant d'économiser les ressources grâce à la technologie out-of-core (cf. glossaire).
1.2.4.3. CMVS
CMVS, Clustering Views for Multi-viewStereo, a été développé par Yasutaka
Furukawa (Furukawa et al. [2010]) à l'université de Washington. Avec pour données d'entrée
E t a t d e l ' a r t
Nolwenn Quéré - INSA de Strasbourg - 2013 16
les résultats de VisualSFM, CMVS décompose les images d'entrée en un ensemble de
groupes d'images (clusters). Ces clusters sont ensuite traités par PMVS2, logiciel intégré
dans VisualSFM.
L'algorithme SFM fournit les paramètres de caméra et un nuage de points 3D.
Chaque point est visible depuis un certain nombre d'images. Ces points sont considérés
comme un échantillon de nuage de points dense. C'est à partir de la correspondance entre
les points et les images que sont générés les clusters. Le but de l'algorithme est de trouver
des groupes d'images se chevauchant de manière à ce qu'ils soient de taille équivalente,
dont le maximum est fixé par l'utilisateur; chaque point SFM devant être reconstruit
précisément par au moins un des clusters.
Les contraintes de l'algorithme sont les suivantes :
- Compacité : les images redondantes sont exclues d'un même cluster.
- Contrainte de taille : chaque cluster doit être de taille inférieure à celle fixée.
- Recouvrement : la perte de détail par rapport à une approche globale doit être
minimale.
Le déroulement du calcul se décompose en 4 étapes :
1. Filtrage et fusion des points SFM. Les points visibles dans un même voisinage sont
agglomérés en un seul point afin d'augmenter la précision et limiter les erreurs en leur
appliquant une pondération. La position de ce nouveau point est la moyenne des positions
de ses voisins. Cette étape permet également de réduire le nombre de points SFM, et donc
le temps de traitement. A chaque fois qu'un point est fusionné avec ses voisins, il est
supprimé. L'étape est terminée lorsqu'il n'y a plus de points d'entrée.
Figure 7 - Visualisation de l'étape de fusion des points SFM pour la génération de clusters, CMVS. (Furukawa et al. [2010]) modifié.
2. Sélection d'images, élimination des images redondantes. Chaque image est testée
et retirée du cluster si la condition de recouvrement est respectée sans elle. Ce test est
réalisé pour toutes les images par ordre croissant de nombre de pixels. Les images écartées
ne seront plus utilisées par l'algorithme.
3. Division en clusters, application de la contrainte de taille. La contrainte de taille est
respectée en divisant les clusters sans considération de recouvrement. Le recouvrement de
deux photographies d'une paire est pondéré par une contribution MVS. Les couples dont la
contribution est élevée seront moins probablement séparés. La division d'un cluster se
répète jusqu'à ce que sa taille satisfasse à la contrainte fixée.
4. Ajout d'images, application de la contrainte de recouvrement. La contrainte de
recouvrement ayant été mise de côté dans l'étape précédente, des images sont rajoutées
E t a t d e l ' a r t
Nolwenn Quéré - INSA de Strasbourg - 2013 17
aux clusters afin d'augmenter le nombre de points SFM. Une liste d'actions est établie, où
chaque action estime le gain engendré par l'ajout d'une image en matière de recouvrement.
Ces actions sont listées par ordre décroissant d'efficacité. Pour limiter les temps de
traitement, la liste n'est pas recalculée à chaque action réalisée: toutes les actions dont le
score est supérieur à 0.7 fois le score maximal sont réalisées simultanément. Ensuite
seulement, la liste est recalculée. Pour chaque action, toutes celles qui entrent en conflit
avec elle sont retirées de la liste. Cette étape est répétée jusqu'à ce que la condition de
recouvrement soit respectée.
Figure 8 - Etapes de génération d'un cluster, CMVS. (Furukawa et al. [2010]) modifié.
Le logiciel applique ensuite deux algorithmes de filtrage :
1. Un filtre de qualité. Une même zone peut être reconstruite dans différents clusters
avec une qualité variable. En effet, si les points proches sont calculés précisément, ceux
plus lointains risquent d'être bruités. Les points MVS et leur information de visibilité sont,
dans un premier temps, collectés. Pour chaque cluster, un histogramme des précisions est
généré. Le cluster le plus dense et le plus précis aura les valeurs maximales. Les autres
clusters seront filtrés si la valeur de l'histogramme correspondant est inférieure à la moitié de
ce maximum.
2. Un filtre de visibilité. Pour chaque point MVS, l'algorithme compte le nombre de fois
où il entre en conflit avec sa reconstruction depuis un autre cluster. Le point est filtré si le
nombre de conflits dépasse 3. Pour cela, on considère un cluster de référence. Des cartes
de profondeur sont calculées pour chaque image. Ces cartes de profondeur contiennent les
points MVS et leurs précisions. Le nombre de conflits pour chaque point est déduit des
cartes de profondeur des autres clusters en contradiction avec celles de référence. Les
clusters sont tour à tour considérés comme référent. A la fin du traitement, le nombre total de
conflits par point est sommé et testé à la condition (inférieur à 3).
1.2.4.4. PMVS2
PMVS2, Patch-based Multi-view Stereo, a été développé par Yasutaka Furukawa
(Furukawa et al. [2007]) à l'université d'Illinois. Le logiciel reconstruit les objets 3D visibles
E t a t d e l ' a r t
Nolwenn Quéré - INSA de Strasbourg - 2013 18
depuis les images, en utilisant leurs paramètres de caméra. Seule la structure rigide est
reconstruite (objets immobiles). Le résultat de PMVS2 est un nuage de points colorisé, en
coordonnées 3D, dont les normales aux surfaces ont été estimées.
L’algorithme fonctionne en trois étapes :
1. Correspondance. Dans un premier temps, chaque image est recouverte d'une grille
régulière. L'algorithme détecte les coins de chaque cellule à l'aide des opérateurs de Harris
et DoG et retourne le maximum local des deux opérateurs dont la réponse est la plus forte.
Pour chaque point d'intérêt, son correspondant est ensuite recherché le long des lignes
épipolaires à plus ou moins 2 pixels. Les appariements permettent de reconstruire un
ensemble peu dense de surfaces de reconstruction (patchs), stockées dans une grille.
2. Expansion. De nouveaux voisins sont ajoutés itérativement aux patchs jusqu'à ce
que la surface totale de la scène soit couverte. Deux surfaces sont considérées comme
voisines lorsqu'elles sont stockées dans des cellules adjacentes d'une même image et que
leurs plans tangents sont proches.
3. Filtrage. Deux filtres sont utilisés pour renforcer la cohérence et éliminer les
correspondances erronées. Le premier filtre retire les éléments isolés des surfaces réelles.
Le second filtre retire les éléments aberrants dans la surface elle même. Enfin, pour chaque
patch, les patchs des cellules adjacentes sont collectés dans chaque image. Si le nombre de
patchs voisins est inférieur à un certain seuil, il est retiré. Ce processus est réitéré plusieurs
fois.
Figure 9 - Etapes de reconstruction dense par PMVS2. De gauche à droite : image d'entrée, points d'intérêt détectés, patchs reconstruits après le premier appariement, patchs finaux après expansion et filtrage, surface polygonale étendue depuis les patchs reconstruits. (Furukawa [2007]).
Enfin, pour des questions de rendu, à chaque point est associée la couleur moyenne
des pixels correspondants.
1.3. Construction d'un modèle 3D
1.3.1. Consolidation et algorithme ICP
L'ICP, Iterative Closest Point (Besl & McKay [1992]), est un algorithme de recalage
de deux objets, basé sur le principe des moindres carrés. On considère un objet surfacique
E t a t d e l ' a r t
Nolwenn Quéré - INSA de Strasbourg - 2013 19
en référence et un nuage de points en donnée d'entrée. Avant d'utiliser l'algorithme, le nuage
de points et l'objet surfacique doivent être manuellement alignés afin de constituer les
valeurs approchées du premier calcul. Dans la première étape de chaque itération, chaque
point du nuage est assigné au point le plus proche de l'objet surfacique. Un indice identique
est donné à chaque point d'une paire. La deuxième étape de chaque itération consiste à
calculer par la méthode des moindres carrés le déplacement des points du nuage afin qu'ils
soient le plus proche de leur point de correspondance. A l'issue de cette seconde étape, les
positions des points du nuage sont mises à jour et les étapes 1 et 2 peuvent être répétées
jusqu'à ce que l'erreur des moindres carrés passe en dessous d'un seuil fixé. L'algorithme
converge ainsi monotonement vers un minimum local.
Figure 10 - Recherche de points homologues sur deux courbes à recaler, à partir d'un algorithme ICP. Document personnel.
Il existe deux restrictions majeures à l'ICP. La première est le fait qu'un des deux
objets est implicitement considéré comme le sous ensemble de l'autre. La présence de
points du nuage n'ayant pas de correspondant dans l'objet surfacique conduit à des erreurs
d'assignement. La deuxième est l'accumulation des erreurs lors de l'alignement successif par
paires d'objets. En effet l'algorithme ICP est une approche de recalage entre deux éléments
et on ne peut pas directement étendre son application à un jeu de données multiples.
(Pottmann et al. [2002]).
1.3.2. Reconstruction tridimensionnelle : maillage
Fuchs distingue 3 étapes dans la constitution d’un maillage (Fuchs [2006]) :
1. Le prétraitement des nuages, par filtrage manuel ou automatique du bruit.
2. Le maillage, la liaison des sommets de points par des polygones, le plus souvent
des triangles. L’algorithme calcule des facettes reliant les points du nuage par triangulation
et par un calcul des moindres carrés.
3. L’optimisation du maillage, suppression des irrégularités du maillage en post-
traitement. Ces opérations peuvent se faire manuellement et en partie automatiquement. La
suppression de sommets, le lissage ou le rebouchage de trous sont des améliorations
principalement esthétiques. D’autres traitements comme le déplacement de sommets ou la
simplification du maillage en vue de l’alléger ont un intérêt beaucoup plus pratique.
E t a t d e l ' a r t
Nolwenn Quéré - INSA de Strasbourg - 2013 20
Le logiciel choisi pour tous les traitements postérieurs à l’orientation absolue des
nuages de points est 3DReshaper. En effet, il regroupe les algorithmes de recalage, de
traitement de nuages de points, de maillage et de texturage nécessaires à la production d’un
modèle 3D.
D’après Assali [2010], deux critères de sélection de points à mailler existent : un
critère géométrique et un critère de qualité.
Le critère géométrique correspond au calcul de l’erreur de corde, distance de la
surface théorique à la surface maillée. Le filtrage des points se fait par rapport à un seuil de
tolérance sur cette distance, fixée par l’utilisateur.
Figure 11 - Illustration de l'erreur de corde (déviation). (3DReshaper@[2013]) modifié.
Le critère de qualité est la réduction du bruit de mesure. Les points situés devant ou
derrière la surface de référence ne sont pas pris en compte dans le maillage.
1.3.3. Restitution de l'apparence visuelle
1.3.3.1. Portion de Ciel Visible
L'outil PCV, Portion de Ciel Visible, introduit dans Duguet & Girardeau-Montaut
[2004], "permet de calculer rapidement l’illumination des points d’un nuage ou des sommets
d’un maillage par détermination de la Portion de Ciel Visible" (documentation
CloudCompare). On considère le nuage de points éclairé uniformément par une lumière
zénithale. La couleur d'un point correspond au nombre de rayons lumineux reçus. L'échelle
de couleur permet de mettre en évidence le relief entre les points de l'objet. L'algorithme
utilisé est équivalent à ShadeVis.
Les principaux paramètres sont le nombre de rayons lumineux et la résolution du
tampon de profondeur (buffer) de rendu. Pour chaque direction, l'algorithme identifie tous les
points que le rayon atteint. Plus le nombre de rayons lumineux est grand, plus la nuance de
luminosité d'un point à un autre sera fine, et plus le temps de calcul sera long. La projection
des rayons ne se fait pas point par point mais dans un buffer vidéo dont la résolution est
paramétrable. Plus la résolution est grande, plus les points sont dissociés et plus le résultat
est fin. De même que pour le nombre de rayons lumineux, en augmentant la valeur on
augmente le temps de calcul. Si la résolution choisie est trop grande par rapport à la densité
du nuage de points, les rayons risquent de ne pas toujours rencontrer un point dans chaque
buffer et la lumière passera donc au travers du nuage (ce n'est pas le cas pour un maillage).
E t a t d e l ' a r t
Nolwenn Quéré - INSA de Strasbourg - 2013 21
En 2D, depuis le point d'intérêt duquel on veut calculer la portion de ciel visible,
l'algorithme calcule la position de la ligne d'horizon. Le dernier rayon atteignant un point
permet de déterminer l'angle zénithal minimum. Cet angle correspond à la portion de ciel
visible.
Figure 12 - Schéma d'explication du calcul de PCV en 2D. (Bunnell [2005]) modifié.
En 3D le problème est plus complexe. L'algorithme part donc d'un point du ciel pour
déterminer les points visibles selon chaque direction de la lumière.
La lumière peut provenir soit de l'hémisphère des Z positifs, soit du globe complet (à
360°). Le résultat le plus réaliste est fourni par la lumière zénithale, qui nécessite au
préalable que le nuage de points (ou le maillage) soit orienté avec l'axe des z positifs vers le
haut.
1.3.3.2. Eye Dome Lighting
Développé par Christian Boucheny (Boucheny [2009]), l'EDL, Eye Dome Lighting, est
un système d'éclairage basé sur les cartes de profondeur. Il fonctionne comme un filtre,
calculant le rendu en temps réel et ne nécessite aucune information géométrique (pas de
normales aux surfaces). L'objectif de ce système est de mettre en valeur la différence de
profondeur des objets et de faciliter la perception des orientations et des courbures. Comme
l'outil PCV, il est utilisable sur un nuage de points comme sur un maillage.
1.3.3.3. Texture
L'application de texture est le meilleur moyen d'obtenir un rendu réaliste. On dispose
pour cela de deux méthodes principales : l'extraction de la colorisation des points du nuage
ou le plaquage de photographies, qui seront présentées plus en détail dans la partie III.
La première méthode est la plus directe. Lors de la génération d'un nuage de points
dense, un attribut de colorimétrie est calculé pour chaque point à partir de la valeur de
l'intensité du pixel correspondant sur chaque photo. Dans 3DReshaper, l'outil "mise à jour
des couleurs" associe à chaque sommet du maillage la couleur du point le plus proche du
nuage de points. L'inconvénient de cette méthode est que la qualité de la texture dépend de
E t a t d e l ' a r t
Nolwenn Quéré - INSA de Strasbourg - 2013 22
la densité du nuage et de celle du maillage. Moins le maillage est dense et plus la différence
de colorimétrie entre les points d'une même facette sera grande, générant des dégradés de
couleur peu réalistes, voire grossiers.
La deuxième méthode, plus fastidieuse permet la plupart du temps un résultat plus fin
et un apport de détails supplémentaires. Le plaquage de photographies peut se faire, soit
manuellement en piquant des points de correspondance, soit automatiquement à partir des
paramètres d'orientation externe et interne de chaque caméra. Ces paramètres peuvent être
renseignés manuellement ou à partir de fichiers respectifs .excam et .incam. Pierre Assali a
écrit en 2010 une fonction Matlab afin de créer ces fichiers à partir des paramètres
d'orientation de PhotoModeler Scanner. Cette fonction a été améliorée en 2012 par
Emmanuel Moisan, qui a également écrit son équivalent sur R à partir des paramètres
d'orientation de Photosynth et de VisualSFM (cf. annexe E).
Figure 13 - Projection de texture sous 3DReshaper
1.4. Synthèse du processus de reconstruction 3D
Face au large choix de logiciels gratuits disponibles, il s'agit de définir ses besoins
pour sélectionner l'outil le plus adéquat. Dans le cadre de ce projet, le choix s'est porté sur
VisualSFM pour sa rapidité, sa gestion de la mémoire et son intégration de CMVS/PMVS2.
Contrairement à des logiciels de photogrammétrie comme PhotoModeler Scanner,
VisualSFM fonctionne comme une boîte noire, aucun ou peu de critères d'évaluation sont
disponibles. L'enjeu est donc de tirer parti de ses grandes capacités de calcul tout en ne
perdant pas de vue les notions de qualité exigées par la discipline de topographie.
La figure 14 présente le processus de génération d'un modèle 3D depuis l'acquisition
des photographies jusqu'au texturage de la surface, avec pour chaque étape le logiciel
envisagé pour réaliser les traitements correspondants.
E t a t d e l ' a r t
Nolwenn Quéré - INSA de Strasbourg - 2013 23
Figure 14 - Processus de génération d'un modèle 3D maillé et texturé à partir de photographies. document personnel.
M é t h o d e
Nolwenn Quéré - INSA de Strasbourg - 2013 24
I I . E l a b o r a t i o n d e l a m é t h o d e d e
r e c o n s t r u c t i o n 3 D
2.1. Conditions expérimentales .....................................................................................25
2.1.1. Matériel et logiciels ..............................................................................................25
2.1.2. Données disponibles et critères d'évaluation .......................................................25
2.2. Préparation d'un projet ............................................................................................26
2.2.1. Nombre de photographies par projet ...................................................................26
2.2.2. Ordre des photographies .....................................................................................27
2.2.3. Recouvrement des photographies .......................................................................28
2.3. Corrections géométriques.......................................................................................29
2.3.1 Proportions du capteur .........................................................................................29
2.3.2. Calibration ...........................................................................................................29
2.3.3. Bundle adjustment ...............................................................................................30
2.4. Densification ............................................................................................................31
2.4.1. Nombre de photographies par cluster ..................................................................31
2.4.2. Densité ................................................................................................................32
2.5. Mise à l'échelle .........................................................................................................33
2.6. Post-traitement et rendu ..........................................................................................34
2.6.1. Filtrage ................................................................................................................34
2.6.2. Rééchantillonnage des nuages de points 3D .......................................................36
2.6.3. Recalage .............................................................................................................37
2.6.4. Maillage ...............................................................................................................38
2.6.5. Texturage, rendu .................................................................................................39
2.7. Synthèse ...................................................................................................................43
Comme beaucoup d'autres domaines, l'archéologie s'intéresse de près aux
techniques telles que la photomodélisation, en constante évolution grâce aux avancées de la
vision par ordinateur. Ces techniques sont de plus en plus automatiques et de plus en plus
démocratisées. Il ne faut cependant pas négliger l'importance de l'élaboration d'une méthode
de modélisation 3D fiable afin de tirer le meilleur parti de ces nouveaux outils. L'enjeu de ce
PFE est de trouver un compromis entre différents critères de qualité tels que la rapidité de
traitement, l'économie de ressources, la précision, la simplicité d'exploitation des modèles et
leur maniabilité.
Ce chapitre propose une étude des différents outils et logiciels choisis grâce aux
projets précédents. La méthode dégagée de cette étude devra être applicable aux autres
secteurs de fouille du monastère de Saint-Hilarion et généralisable à d'autres fouilles
archéologiques.
Dans la suite de ce rapport, on appellera "projet" un groupe de photographies
orientées les unes par rapport aux autres à partir desquelles on obtient un nuage de points
dense.
M é t h o d e
Nolwenn Quéré - INSA de Strasbourg - 2013 25
2.1. Conditions expérimentales
L'acquisition photogrammétrique nécessite un protocole opératoire rigoureux, qui ne
sera pas détaillé dans ce mémoire. Ce protocole est détaillé dans le travail de Caroline
Ripoche (Ripoche [2012]). En phase de post traitement, les conditions de prises de vue
telles que l'appareil utilisé, les paramètres de fond de chambre, la luminosité, etc. ont un
impact important sur la qualité des résultats. De même, le choix des logiciels et les capacités
du poste de travail détermineront le type de méthode à appliquer.
2.1.1. Matériel et logiciels
Appareil Taille du capteur
Sensibilité Utilisation Longueur focale
Ouverture de diaphragme
Canon EOS 5D Mark II
21 Megapixels
ISO100 Terrestre Depuis une nacelle de 20 à 27 m de haut
24 mm 24 mm 105 mm
De f/18 à f/22 De f/8 à f/22 De f/14 à f/22
Canon EOS Kiss Digital
6.3 Megapixels
ISO200 Embarqué sur un cerf-volant
18 mm De f/7 à f/11
Tableau 1 - Tableau récapitulatif des appareils et objectifs utilisés lors de l'acquisition.
Le poste de travail sur lequel tous les tests et modélisations ont été réalisés est un
mac pro, de 12 cœurs, 48 Go de RAM et 64 bits.
Le choix des logiciels a été guidé par les tests présentés dans Ripoche [2012]. La
figure 14 (p 23) présente les logiciels choisis pour chaque étape de la reconstruction 3D.
D'autres logiciels disponibles sur internet ont été testés comme Photosynth Toolkit,
123DCatch, CloudCompare; ainsi que les logiciels de photogrammétrie et de
lasergrammétrie, PhotoModeler Scanner et Trimble Realworks, disponibles au laboratoire de
photogrammétrie.
2.1.2. Données disponibles et critères d'évaluation
Une campagne de levé photogrammétrique a été réalisée en mai 2012, à l'issue de
laquelle plus de 15 000 photographies du site ont été acquises. La majorité des
photographies ont été prises du sol selon une méthode adaptée à la modélisation 3D et à
l'utilisation de logiciels tels que VisualSFM ou Photosynth. Sur ces photographies figurent
des mires de 3 mètres régulièrement espacées, qui serviront à la mise à l'échelle des
modèles. Plus de 3 000 photographies ont également été prises depuis une nacelle, tout
autour du site.
Dans la suite de ce mémoire, l'étude de la précision se fera selon la méthode
énoncée ci-dessous :
M é t h o d e
Nolwenn Quéré - INSA de Strasbourg - 2013 26
La précision d'un objet se fait par rapport à un objet de référence. La position des
points du nuage choisi comme référence est la valeur la plus probable. Les écarts d'un objet
à l'autre sont les écarts apparents. Ces écarts sont mesurés par la distance :
D'un nuage de points à un autre par CloudCompare pour les objets avec un
recouvrement total. La moyenne correspond dans ce logiciel à la distance moyenne
en valeur absolue entre deux points proches de chacun des nuages. L'écart-type
qualifie la précision du nuage par rapport au nuage de référence.
D'un maillage à un autre par 3DReshaper pour les objets avec un recouvrement
partiel. La moyenne des valeurs, si elle est différente de zéro, correspond au
systématisme de la modélisation. Si elle est égale à zéro, il y a absence de
systématisme. L'écart-type qualifie la précision du maillage par rapport au maillage
de référence.
Figure 15 - Répartition gaussienne des écarts. Document personnel.
La précision d'une mesure est sa qualité d'exécution. Elle ne doit pas être confondue
avec son exactitude. Pour calculer l'exactitude, il faudrait connaître les valeurs vraies
(coordonnées GPS, mesures au tachéomètre).
2.2. Préparation d'un projet
2.2.1. Nombre de photographies par projet
Le nombre de photographies n'est pas limité par l'applicatif mais par les capacités de
l'ordinateur. VisualSFM cesse d'afficher les pixels des images lorsque leur nombre dépasse
500 pour économiser de la mémoire graphique. Mais cela n'empêche pas leur prise en
compte dans le calcul d'orientation.
La courbe ci-dessous présente l'influence du nombre de photographies sur les temps
de traitement. Plus le nombre de photographie est important, plus les temps de traitement
sont longs, on essaiera donc de se limiter à 500 photographies par projet.
M é t h o d e
Nolwenn Quéré - INSA de Strasbourg - 2013 27
Figure 16 - Courbe de l'évolution des temps de traitement en fonction du nombre de photographies. C1, L1
correspondent aux valeurs de csize et de level (cf. § 2.4.2.).
2.2.2. Ordre des photographies
Selon l'ordre dans lequel les images sont lues par VisualSFM, le résultat de
l'orientation varie. Lorsque la continuité de la scène d'une photographie à l'autre est perdue,
le logiciel oriente un nouveau bloc de photographies indépendamment. Pour éviter la
prolifération de blocs et orienter toutes les photographies voulues ensemble, il peut être
nécessaire de les renommer afin qu'elles suivent une progression logique. Compte tenu du
nombre très important de photographies par projet, il est nécessaire d'automatiser le
processus.
La nomenclature définie dans Ripoche [2012] a été utilisée pour tester l'intérêt d'une
telle étape. Elle se présente sous la forme L###-#####-00000n, comprenant successivement
le numéro du locus, le numéro de l'unité stratigraphique et le numéro de la photographie. Par
exemple : L200-20000-000001 correspond à la photographie n°1 de l'unité stratigraphique
20000 du locus 200. Les images d'une même scène ont donc des noms similaires et sont
regroupées en fonction des lieux. L'utilisation du logiciel XnView a facilité la modification des
noms puisqu'une fois les photographies triées, elles sont renommées automatiquement
selon la forme choisie par l'utilisateur.
Le calcul de l'orientation d'un même jeu de données a été lancé à partir des noms
originaux et de ceux modifiés. Sur un jeu de 265 photographies, 249 sont orientées avec
leurs noms originaux et 251 lorsqu'elles sont renommées, soit 2 photographies de plus
uniquement. Bien qu'automatique, ce traitement nécessite le classement manuel
particulièrement chronophage de toutes les images. De plus, les photographies ont été
acquises de façon logique, leur enchaînement est donc la plupart du temps continu
spatialement. L'apport de cette étape en comparaison du temps passé n'étant pas rentable,
les photographies ne seront pas renommées pour la modélisation 3D du secteur complet.
0,00
2,00
4,00
6,00
8,00
10,00
12,00
14,00
0 200 400 600 800 1000
Temps de traitement (en
heures)
Nombre de photographies
Orientation relative (VisualSfM)
Densification (CMVS/PMVS2, C2, L1)
M é t h o d e
Nolwenn Quéré - INSA de Strasbourg - 2013 28
2.2.3. Recouvrement des photographies
De la même manière que pour l'orientation de photographies entre elles, on cherche
à définir un pourcentage de recouvrement minimum entre les nuages de points pour assurer
leur recalage.
Pour cela, un test a été réalisé à l'échelle du locus. On considère un nuage de points
du locus 218 (comprenant une majorité de photographies dirigées vers le locus 217) comme
la référence. Plusieurs projets du locus 216 sont préparés en rajoutant progressivement des
images du locus 217, jusqu'au 218 (projets de 1 à 4 sur la figure 17).
Figure 17 - Plan et schéma illustrant le test d'évaluation de l'influence du recouvrement photographique entre les projets. Document personnel.
Nombre d'images orientées
Nombre d'images en
commun avec la
référence
Images en commun avec la
référence (%)
Points de recouvrement avec le nuage de référence
(%)
Moyenne des écarts par
rapport à la référence
(mm)
Ecart-type de l'erreur de
recalage par rapport à la
référence (mm)
Référence 22
1 15 0 0 12 0 50
2 20 5 25 15 0 50
3 40 15 37 37 0 47
4 43 29 68 34 0 47
Tableau 2 - Tableau comparatif de la précision de recalage de nuages de points en fonction de leur recouvrement. Moyennes et écarts-types des écarts du maillage concerné au maillage de référence sous 3DReshaper.
3 m
M é t h o d e
Nolwenn Quéré - INSA de Strasbourg - 2013 29
Les résultats vont dans le sens attendu qui est que plus les projets auront de points
3D en commun, plus ils se recouvreront et meilleur sera le recalage. Le pourcentage de
recouvrement ne dépend pas directement des photographies elles-mêmes mais de leur
champ de vision, c'est à dire que deux jeux d'images différents peuvent générer deux
nuages de points très similaires d'une même zone.
2.3. Corrections géométriques
2.3.1 Proportions du capteur
Par défaut, VisualSFM prend en compte uniquement les informations contenues dans
le fichier EXIF des images. Sur la base de ces valeurs, le logiciel recalcule des paramètres
d'orientation interne approchés pour chaque image. Il utilise pour cela le ratio largeur/hauteur
du capteur. Celui-ci est fixé par défaut à 1,2. Le capteur utilisé lors de l'acquisition est de 5
616 x 3 744 pixels, soit un ratio de 1,5. En modifiant cette valeur, VisualSFM parvient à
orienter un plus grand nombre d'images et les paramètres internes de caméra sont plus
justement déterminés.
2.3.2. Calibration
VisualSFM permet d'utiliser des photographies issues de différentes caméras. Cela a
pour conséquence que pour chaque caméra, des paramètres internes indépendants seront
calculés. Ainsi, pour un jeu de photographies issues de la même caméra, les paramètres
internes fournis peuvent être très variables. Afin de pallier ce défaut, il existe deux solutions :
- appliquer des paramètres de calibration calculés au préalable;
- fixer une longueur focale identique à toutes les caméras lors du bundle adjustment
(cf. § 2.3.3.).
En revanche, l'emploi de ces deux méthodes limite l'orientation à des photographies
prises exclusivement avec la même caméra. Avec le mode de calibration fixe, les
paramètres utilisés par VisualSFM sont les suivants :
(fx, cx, fy, cy)
où (cx, cy) sont les coordonnées en pixel du point principal de l'image
(fx, fy) sont les rapports de la focale sur la taille du pixel respectivement en x et en y
L'appareil utilisé a été calibré au laboratoire avec le logiciel PhotoModeler Scanner.
Longueur focale = 24,358 1 mm
Taille du capteur = 35,964 x 24,000 mm²
Taille de l'image = 5 616 x 3 744 pixels
Coordonnées du point principal = (X, Y) = (18,114 3; 12,000 0) mm
Coefficients de distorsion radiale :
K1 = 2,174.10-4
K2 = -1,518.10-7
D'où
Taille d'un pixel = 6,4 x 6,4 µm²
Les paramètres de calibration de VisualSFM sont donc :
(3 803,667 27; 2 828,659 46; 3 799,863 6; 1 872)
M é t h o d e
Nolwenn Quéré - INSA de Strasbourg - 2013 30
Figure 18 - Vue du dessus des maillages de 4 nuages de points d'un mur rectiligne, reconstruit à partir de18 photographies consécutives.
Le long du mur d'une quinzaine de mètres de long, un jeu linéaire de photographies
prises à une faible distance de l'objet induit des dérives. Ces dérives proviennent de
l'estimation approximative des paramètres internes de caméra.
D'après la figure 18, la calibration de VisualSFM ne corrige pas correctement ces
dérives. Ce phénomène peut s'expliquer par l'absence de prise en compte des distorsions de
l'objectif dans la calibration. Les distorsions calculées par PhotoModeler Scanner sont
cependant trop faibles pour être les seules causes de cette erreur. L'algorithme de calcul des
paramètres de caméra à partir des informations de calibration présente donc un défaut et ne
peut pas être utilisé pour ce type d'objet.
2.3.3. Bundle adjustment
En n'utilisant pas de calibration, mais en indiquant que la longueur focale est
identique pour toutes les caméras (sans pour autant renseigner sa valeur), le logiciel
recalcule une moyenne des focales lors du bundle adjustment.
Figure 19 - Courbe de répartition des écarts du maillage du nuage de points VisualSFM (avec bundle adjustment, focale unique) au maillage du nuage de points PMS (avec un fichier de calibration). 3DReshaper. Distances en mm.
Ecarts du maillage du mur par VisualSFM avec bundle adjustment par rapport au maillage
PMS avec le fichier de calibration :
Moyenne des écarts = 0 mm
Ecart-type = 30 mm
Les distorsions du nuage de points 3D sont corrigées et l'alignement du mur se
confond visuellement avec celui reconstruit par PMS.
1 m
1 m
M é t h o d e
Nolwenn Quéré - INSA de Strasbourg - 2013 31
Il est aussi possible de calculer un bundle adjustment sans ajouter de contraintes
préalables. Le calcule consiste alors en une optimisation des paramètres internes et
externes de caméra.
La figure 20 met en évidence l'absence de correction du bundle adjustment. Les
déformations du sol ne sont pas corrigées et sont dans le cas présent amplifiées.
Pour un jeu de photographies issues d'une même caméra (mêmes paramètres
internes), il est conseillé de d'utiliser l'outil de bundle adjustment pour assurer la cohérence
de l'orientation. En revanche, dans le cas contraire, il ne semble pas encore optimisé et il
n'est donc pas nécessaire de prolonger les temps de calcul (de plus de 30 minutes) pour un
résultat aussi incertain.
2.4. Densification
A l'issue de l'étape précédente, les paramètres d'orientations interne et externe des
caméras sont calculés. Le nuage de points 3D en sortie est de faible densité. Pour
reconstruire un modèle 3D réaliste, un nuage de points dense est nécessaire. VisualSFM
intègre les logiciels CMVS et PMVS2, respectivement pour partitionner le jeux de
photographies et pour en extraire un grand nombre de points 3D.
2.4.1. Nombre de photographies par cluster
L’utilisateur fixe un nombre maximum de photographies par cluster en fonction des
capacités de l’ordinateur. Plus ce nombre est grand, plus le traitement consomme de la
mémoire. Afin de mettre en évidence l’influence du nombre de photographies par cluster sur
le temps de calcul, plusieurs calculs de densification à partir d'un même jeu de données de
53 images ont été lancés en faisant varier le nombre de photographies par cluster. Il en
ressort que plus le nombre de photographies par cluster est petit, plus les clusters sont
traités rapidement individuellement, mais plus ils sont nombreux au sein d’un même projet et
donc plus les traitements globaux sont longs.
Figure 20 - Coupe nord-sud des loci L.230 et L.231. En vert nuage de points non corrigé, en bleu nuage de points corrigé par un bundle adjustment sans contraintes supplémentaires. Trimble realworks.
10 m 3 m
M é t h o d e
Nolwenn Quéré - INSA de Strasbourg - 2013 32
Nombre de photographies par
cluster
Nombre de
clusters
Temps de traitement
(min)
Nombre de points
(million)
Taille des résultats (Mo)
10 9 51 4,5 131,7
20 3 45 2,6 76,7
30 2 40 2,4 72,4
40 1 38 2,3 68,2
50 1 35 2,3 68,4 Tableau 3 - Tableau comparatif de l'influence du nombre de photographies par cluster.
De plus, au sein d’un cluster, l’algorithme CMVS assure la cohérence des points par
plusieurs filtrages; en revanche, lors de la fusion des nuages de points denses, on s’aperçoit
qu’il peut y avoir des incohérences d’un cluster à l’autre comme des décalages de plans. En
réduisant le nombre de clusters, on augmente donc la robustesse de la reconstruction 3D.
2.4.2. Densité
Une fois le jeu d'images utilisées pour la densification partitionné par CMVS, PMVS2
densifie le nuage de points indépendamment dans chaque cluster. Les paramètres de
PMVS2 sont explicités en annexe C. La densité de la reconstruction de PMVS2 dépend
principalement des paramètres csize et level.
Le paramètre csize contrôle la densité de la reconstruction. Sa valeur définit la taille
d’une région de pixels (csize x csize), sur les images utilisées pour la densification, au sein
de laquelle au moins une correspondance de détecteurs doit exister. Plus le csize est grand,
plus la reconstruction est éparse. Sa valeur par défaut est 2 (un point tous les carrés de 2 x 2
pixels).
Le logiciel reconstruit des images pyramidales. La valeur de level indique le niveau
de pyramides de l’image utilisées dans le calcul. Sa valeur peut être 0, 1 ou 2. 0 signifie que
la résolution entière de l’image est utilisée. 1 signifie que 1/4 des pixels de l’image sont
utilisés, c'est la valeur par défaut. 2 signifie que 1/16 des pixels de l’image sont utilisés.
La densité dépend donc des paramètres mais aussi et surtout de la qualité de la
texture (les critères de qualité d'une photographie sont présentés dans Ripoche [2012]). Une
texture de bonne qualité permet une densification élevée. Une texture de mauvaise qualité
n'est pas densifiable, quels que soient les paramètres. Le résultat de la densification avec les
paramètres csize = 2 et level = 1 fournit un nuage très dense (1 point tous les 0,5 mm) et les
temps de traitement sont largement inférieurs aux autres configurations (cf. tableau4). Ces
paramètres conviennent donc à la génération de nuages de points utiles au modèle. On
pourra augmenter la densité pour des éléments isolés présentant un intérêt particulier.
M é t h o d e
Nolwenn Quéré - INSA de Strasbourg - 2013 33
Csize = 1 Level = 16
Csize = 2 Level = 1
Csize = 2 Level = 0
Csize = 1 Level = 1
Csize = 1 Level = 0
Nombre de points (millions)
5,2 8,6 12,2 37,6 0
Densité moyenne (mm)
0,5 0,5 0,1 0,05 0
Temps de calcul (heures)
24 3 35 35 48
Taille des données (Mo)
334,4 487,0 774,0 2352,7 0
Aperçu
Tableau 4 - Tableau comparatif des différents niveaux de densité de PMVS2. Echelle approximative.
2.5. Mise à l'échelle
VisualSFM propose un outil de géoréférencement GCP à partir du nuage de points
dense ou des photographies orientées. Des coordonnées XYZ sont assignées par
l'opérateur à chaque point 3D piqué. Ce mode de géoréférencement ne convient cependant
pas à l'étude car on ne dispose que de mires et non pas de points de référence connus en
coordonnées.
SFM-Georef est une application Matlab développée par Mike James, de l'université
de Lancaster (James & Robson [2012]). Il permet, à partir d'un projet VisualSFM, d'exporter
les images et leurs paramètres d'orientation pour le géoréférencer sur la base de points
piqués sur les photographies. Il est possible d'utiliser les coordonnées des points, ou dans le
cadre de cette étude, les distances entre les points.
Figure 21 - Maillage de l'objet sur site, entouré de mires, utilisé pour tester les mises à l'échelle.
6 Densification faite à partir de Photosynth Toolkit, sans CMVS, les images sont rééchantillonnées
pour gagner de la mémoire. Ici elles ont été rééchantillonnées à 60 %.
Comparaison de la mise à l'échelle par VisualSFM au
nuage de référence de PMS (CloudCompare) :
Moyenne des écarts en valeur absolue = 7 mm
Ecart-type = 8 mm
Comparaison de la mise à l'échelle par SFM-Georef au
nuage de référence de PMS (CloudCompare) :
Moyenne des écarts en valeur absolue = 9 mm
Ecart-type = 14 mm
M é t h o d e
Nolwenn Quéré - INSA de Strasbourg - 2013 34
Ces tests permettent de valider la mise à l'échelle par SFM-Georef pour des objets de
moins de 2 mètres. Pour des objets de taille supérieure, on se réfèrera au § 3.2.3. Plus on
s'éloigne des mires, plus les écarts de distance entre les nuages de points, quel que soit le
logiciel utilisé, sont grands. On veillera donc à piquer le plus grand nombre de mires
possibles, réparties uniformément sur le nuage points, notamment aux extrémités.
2.6. Post-traitement et rendu
Un nuage de points très dense suffit parfois à représenter des objets de manière
réaliste. En revanche, en zoomant, on arrive toujours à un seuil où les écarts entre les points
apparaissent. Les objets modélisés sont des objets surfaciques; leur représentation par une
surface (un maillage), renforce donc le réalisme de la modélisation.
2.6.1. Filtrage
Les outils de nettoyage de 3DReshaper permettent un découpage manuel, une
réduction du bruit et un rééchantillonnage régulier d'un nuage de points.
Lors d'un levé topographique classique, on favorise les visées orthogonales aux
visées rasantes, dont l'intersection peu favorable introduit une incertitude sur la mesure. De
la même manière, les points issus d'images orthogonales sont jugés plus fiables que ceux
obtenus à partir de visées rasantes.
Figure 22 - Schéma des angles à partir desquels les points sont filtrés. Document personnel.
Un filtre en fonction de l'angle de prise de vue a été réalisé afin de mettre en
évidence l'influence de ces points sur le recalage des nuages. Le résultat de la densification
par PMVS2 est donné dans un fichier .ply (X, Y, Z, R, V, B, normale en X, normale en Y,
normale en Z). En créant un cluster contenant uniquement deux photographies
préalablement sélectionnées, il est possible de calculer la position moyenne de la caméra
M é t h o d e
Nolwenn Quéré - INSA de Strasbourg - 2013 35
générant le nuage de points dense. Dans Microsoft Access, avec une requête SQL,
Structured Query Language (cf. glossaire), tous les points dont l'angle entre la normale à la
surface et la direction moyenne de prise de vue (θ) excède 30° sont supprimés (cf. figure
22). La méthode d'application du filtre est décrite dans l'annexe D.
Figure 23 - Portion du locus 236 densifié avec deux photographies. A gauche sans filtre (53 858 points), à droite avec le filtre basé sur les normales (11 156 points).
Comme on le voit sur la figure 23, la majorité des points filtrés sont ceux du sol, dont
la direction de prise de vue est rasante. Ces deux nuages de points sont recalés par rapport
à un maillage du locus.
Figure 24 - Courbe de répartition des écarts du nuage de points densifié par deux photographies, non filtré selon les normales, au nuage de référence. CloudCompare. Distances en mm.
Figure 25 - Courbe de répartition des écarts du nuage de points densifié par deux photographies, filtré selon les normales, au nuage de référence. CloudCompare. Distances en mm.
D'après les courbes précédentes, la suppression de points selon leur normale réduit
la précision de recalage du nuage. En effet, le filtre divise par 5 le nombre de points du
nuage. La faible densité donne plus de poids aux points restants lors du recalage, sans
minimiser les points isolés. De plus, après filtrage, des points acquis par visées rasantes
restent (points du sol). L'attribut de normale d'un point n'est donc pas un critère de filtrage
fiable.
Recalage du nuage non filtré :
Moyenne des écarts en valeur
absolue = 12 mm
Ecart-type = 9 mm
Recalage du nuage filtré :
Moyenne des écarts en valeur
absolue = 17 mm
Ecart-type = 13 mm
1 m
M é t h o d e
Nolwenn Quéré - INSA de Strasbourg - 2013 36
2.6.2. Rééchantillonnage des nuages de points 3D
Les nuages de points bruts comportent du bruit, des points résiduels et ont une
densité variable selon la texture des objets. Avant de consolider les nuages de points d'un
secteur, ils doivent être chacun traités selon ces deux étapes :
1. Découpage manuel (segmentation). Le test précédent (filtrage par angle de prise
de vue) a conduit à se poser la question de l'influence des points selon les photographies
dont ils sont issus. Trois nuages de points de quelques loci chacun ont été reconstruits. Ces
trois nuages de points peuvent être recalés les uns à la suite des autres et forment une
boucle. Deux recalages ont été effectués :
- un à partir des nuages de points dont on n'a supprimé que les points aberrants
(boucle 1);
- un à partir des nuages de points dont on a supprimé tous les points extérieurs à un
périmètre d'une dizaine de mètres autour du centre (boucle 2).
On compare les fermetures des boucles selon les deux configurations (courbes des
écarts de distance du premier maillage au troisième maillage).
Figure 26 - Courbe de répartition des écarts du dernier nuage de points de la boucle (nuages non filtrés), au premier nuage de la boucle. CloudCompare. Distances en mm.
Figure 27 - Courbe de répartition des écarts du dernier nuage de points de la boucle (nuages filtrés), au premier nuage de la boucle. CloudCompare. Distances en mm.
Les écarts montrent que l'élimination des points éloignés améliore la qualité du
recalage.
2. Rééchantillonnage. Plus la zone à représenter est grande, plus le nombre de
points est important. Le volume de données maximal que peut gérer 3DReshaper dépend
des capacités de l'ordinateur. Sur l'ordinateur de travail, la valeur maximale est d'environ 200
Boucle 1 :
Moyenne des écarts en valeur
absolue = 36 mm
Ecart-type = 58 mm
Boucle 2 :
Moyenne des écarts en valeur
absolue = 16 mm
Ecart-type = 19 mm
M é t h o d e
Nolwenn Quéré - INSA de Strasbourg - 2013 37
millions de points. Un nuage brut contient en moyenne entre 10 et 50 millions de points. Il est
donc nécessaire de les rééchantillonner pour réduire le volume des données et supprimer
les redondances.
Il existe deux grands types de rééchantillonnage :
- le rééchantillonnage aléatoire, par nombre de points ou pourcentage du nuage
d'origine.
- Le rééchantillonnage spatial, par distance moyenne entre les points. Il a l'avantage
d'uniformiser la densité et de conserver les points des zones peu denses. C'est le type de
rééchantillonnage qui a été choisi pour la suite.
2.6.3. Recalage
Le recalage peut se faire de nuage de points à nuage de points, de nuage de points à
surface maillée ou de surface maillée à surface maillée. Afin d'évaluer ces trois modes de
recalage automatique, une boucle de six nuages de points consécutifs avec un
recouvrement moyen de 30 % entre chacun, a été recalée selon chacun des 3 modes de
consolidation. Les courbes ci-dessous présentent les répartitions des écarts entre le premier
et le dernier élément de la boucle.
Figure 28 - Courbe de répartition des écarts du dernier élément d'une boucle de six par rapport au premier élément. De haut en bas : recalage maillage-maillage (maillages rééchantillonnés à 5 cm); recalage maillage-nuage (maillage rééchantillonné à 5 cm, nuage de 2 cm de densité moyenne); recalage nuage-nuage (nuages de 2 cm de densité moyenne). 3DReshaper. Distances en mm.
Seule la fermeture du recalage maillage-nuage est répartie de façon gaussienne. Ce
phénomène peut s'expliquer de différentes manières. La densité irrégulière des nuages de
points engendre l'appariement de points distincts, source d'erreur. Les irrégularités des
maillages peuvent également être source d'erreur, en effet lors du recalage de maillage à
nuage, seuls les points proches du maillage sont pris en compte. En revanche lors du
recalage de maillage à maillage, les surfaces fausses ou déformées par le bruit risquent de
biaiser la mesure. Ce résultat est à considérer avec prudence car il peut s'agir d'un cas isolé
dû à des fautes et non d'une généralité.
La consolidation de nuage de points à maillage permet de mettre en place une
routine dont le résultat est un ensemble de nuages de points entièrement recalés et leurs
maillages correspondants.
M é t h o d e
Nolwenn Quéré - INSA de Strasbourg - 2013 38
Le premier nuage de points est considéré comme celui de référence. Il ne sera à
aucun moment déplacé. Il est donc judicieux de choisir un nuage ayant un maximum de
recouvrement avec les autres nuages (position centrale) et dont la mise à l'échelle est fiable
(grand nombre de mires) et précis (résidus faibles).
Le processus de recalage des nuages de points est le suivant :
1. maillage du premier nuage de points;
2. recalage manuel du second nuage de points par rapport au premier maillage;
3. recalage automatique du second nuage de points par rapport au premier maillage;
4. maillage du second nuage de points;
5. groupement du premier et du deuxième maillage en un seul maillage;
6. recalage manuel du troisième nuage de points par rapport au maillage groupé,
etc.
Figure 29 - Méthode de recalage des nuages de points entre eux par recalage maillage-nuage. Document personnel.
2.6.4. Maillage
Dans le cadre de la photomodélisation, la reconstruction des surfaces peut se faire
par simplification des volumes ou par maillage du nuage de points. La solution choisie est le
maillage. Les nuages de points nettoyés sont triangulés par la méthode de Delauney. La
surface obtenue est composée de triangles dont les sommets sont des points existants ou
nouveaux du nuage de points.
La méthode de maillage par 3DReshaper est détaillée dans Assali [2010]. Une
nouvelle réduction du bruit peut être réalisée de trois manières différentes :
- par rééchantillonnage régulier avec une distance moyenne entre les points;
- par filtrage par erreur de corde (cf. § 1.3.2.);
- par combinaison des deux précédentes.
L'échantillonnage choisi détermine le niveau de détail du maillage. Plus la distance
est grande, plus le maillage sera simplifié. Plus elle est courte, plus le nombre de points
considérés pour le maillage est important. Choisir une valeur de rééchantillonnage trop faible
risque d'engendrer du bruit, voire des trous, là où la densité du nuage n'est pas suffisante.
Là où le nuage de points est très peu dense, la distance d'un point à un autre est trop
importante pour mailler, conduisant à la formation de trous. Avec l'outil de réduction de trous,
en augmentant la taille des triangles, tous les trous dont la taille est inférieure au seuil fixé
seront comblés.
L'affinage à erreur de corde peut se faire :
- par interpolation de nouveaux points : des points sont créés le long de la surface
théorique pour conserver le niveau d'échantillonnage;
M é t h o d e
Nolwenn Quéré - INSA de Strasbourg - 2013 39
- par les points déjà existants du nuage. La distance de l'erreur de corde indique la
distance du nuage de points au maillage. Pour obtenir un maillage le plus proche possible du
nuage de points, il est recommandé de faire diminuer progressivement cette valeur jusqu'au
résultat souhaité.
Figure 30 - Maillage d'un locus avec 3DReshaper. De droite à gauche : nuage de points dense; maillage avec un rééchantillonnage à 5cm et des triangles de moins de 80cm, affinage à erreur de corde à 1cm; élimination des pics et irrégularités, bouchage des trous. Echelle en mm.
Malgré le nettoyage des nuages de points et le rééchantillonnage du maillage, des
erreurs persistent. Des outils automatiques comme la réduction des pics ou le bouchage de
trous permettent de supprimer une partie de ces déformations mais des traitements manuels
sont souvent nécessaires. Selon la densité du maillage, lorsque l'on zoome sur les facettes,
les surfaces laissent apparaître les arrêtes des triangles les uns par rapport aux autres. Les
paramètres d'affinage de corde, de rééchantillonnage ou de lissage permettent de diminuer
cet effet, cependant, il faut veiller à ne pas se laisser tenter par une simplification trop
importante donnant un rendu esthétique mais éloigné du nuage de points d'origine.
2.6.5. Texturage, rendu
Un nuage de points très dense peut donner, à une certaine échelle, l'impression
d'être une surface continue, voire même une photographie. Lorsque c'est le cas, il n'est pas
toujours nécessaire de le mailler. On peut cependant utiliser des outils de rendu comme PCV
pour mettre en valeur un aspect de l'objet plutôt qu'un autre (profondeur, couleur, etc.).
Un maillage, par défaut sous 3DReshaper, est représenté par deux couleurs unies,
une pour le côté face, l'autre pour le coté dos. Si ce mode de représentation peut suffire pour
suggérer les volumes, il ne permet pas de distinguer les différences de matériaux, ni de
mettre en avant les écarts de profondeur. Le paragraphe suivant présente quelques outils
de rendu, utiles à la restitution archéologique.
2.6.5.1. Outils de rendu CloudCompare
CloudCompare dispose de plusieurs outils de rendu principalement adaptés aux
nuages de points denses.
L'outil de PCV (cf. § 1.3.3.1.), avec son rendu dégradé est non seulement esthétique,
mais met également en évidence la profondeur et les reliefs. C'est donc une option
intéressante pour l'exploitation par l'archéologue du modèle 3D, par exemple pour visualiser
la profondeur sur un mur vu en plan.
M é t h o d e
Nolwenn Quéré - INSA de Strasbourg - 2013 40
Figure 31 - Vue du dessus du maillage de secteur 2, au dessus de l'atrium. Rendu PCV.
Figure 32 - Visualisation PCV des loci 218-219-220-221. A gauche sur le nuage de points, à droite sur le maillage. Echelle en mm.
Ce type de rendu s'obtient très rapidement. En revanche, il dépend de la qualité du
maillage et de son niveau d'échantillonnage. Les volumes et la profondeur sont mis en valeur
mais ne permettent pas de restituer des zones à une échelle inférieure à celle contrainte par
le maillage.
L'outil EDL (cf. § 1.3.3.2.) est un filtre qui calcule en temps réel les cartes de
profondeur des points pour mettre en valeur le relief. Sa particularité est de faire apparaître
les volumes sans utiliser les normales du maillage. Sur la figure ci-dessous, l'image de
gauche représente un maillage 3D sans ses normales. Seuls les contours du maillage sont
visibles. Sur la partie de droite, le même maillage est vu à travers le filtre EDL, faisant
apparaître le relief par différentes nuances de gris.
2 m
M é t h o d e
Nolwenn Quéré - INSA de Strasbourg - 2013 41
Figure 33 - Visualisation EDL des loci 218-219-220-221. A gauche le maillage sans les normales, à droite avec le filtre EDL. Echelle en mm.
Les avantages de ces techniques sont la rapidité de traitement et le peu
d'informations nécessaires, n'augmentant donc pas le volume des données, souvent déjà
très important.
2.6.5.2. Texturage
Le rendu le plus réaliste est probablement celui obtenu par la projection de
photographies sur le maillage (cf. § 1.3.3.3.).
Le choix des photographies est important car il détermine la qualité de la texture. On
veillera donc à choisir des photographies nettes et bien exposées mais surtout dont la
direction de prise de vue est perpendiculaire à l'objet à texture. En effet, les photographies
dont la prise de vue est rasante vont contenir peu de pixels pour une large surface
puisqu'elle est vue de biais; la texture sera donc déformée et le rendu peu réaliste.
Les paramètres de caméra de VisualSFM sont disponibles dans un fichier texte sous
trois formes différentes : trois vecteurs rotation (ω, φ, χ), quatre quaternions (a, b, c, d) (cf.
glossaire) et la matrice de rotation R.
Les équations suivantes définissent les relations entre ces différents paramètres. Les
équations (1) et (2) donnent la relation entre les vecteurs rotation et les quaternions; les
équations suivantes sont deux expressions de la matrice de rotation, en fonction des
quaternions (3) et en fonction des vecteurs de rotation (4).
k = 𝜔² × 𝜑² × 𝜒²
𝑙 =𝑘
2
𝑠 = sin1
𝑘
( 1 )
M é t h o d e
Nolwenn Quéré - INSA de Strasbourg - 2013 42
𝑎 = cos 𝑙𝑏 = 𝑠 × 𝜔𝑐 = 𝑠 × 𝜑𝑑 = 𝑠 × 𝜒
( 2 )
𝑅𝑎 ,𝑏 ,𝑐,𝑑 = 1 − 2𝑐² − 2𝑑² −2𝑏𝑐 + 2𝑎𝑑 −2𝑏𝑑 − 2𝑎𝑐
2𝑏𝑐 + 2𝑎𝑑 2𝑏² + 2𝑑²− 1 2𝑎𝑏 − 2𝑐𝑑2𝑏𝑑 − 2𝑎𝑐 −2𝑐𝑑 − 2𝑎𝑏 2𝑏² + 2𝑐²− 1
( 3 )
𝑅𝜔 ,𝜑 ,𝜒 = cos𝜑 cos 𝜒 − cos𝜑 sin𝜒 sin𝜑
cos𝜔 sin𝜒+ sin𝜔 sin𝜑 cos 𝜒 cos𝜔 cos 𝜒 − sin𝜔 sin𝜑 sin𝜒 − sin𝜔 cos𝜑sin𝜔 sin𝜒 − cos𝜔 sin𝜑 cos 𝜒 sin𝜔 cos 𝜒+ cos𝜔 sin𝜑 sin𝜒 cos𝜔 cos𝜑
( 4 )
Il est possible de plaquer plusieurs photographies sur un même maillage, mais les
différences de radiométrie entre les photographies crée des discontinuités et nuit au réalisme
du rendu. Pour pallier ce défaut, le logiciel propose d'assigner manuellement une photo
plutôt qu'une autre pour chaque facette du maillage, lorsqu'elles se superposent, afin de
placer les transitions astucieusement. Une autre possibilité est d'extraire la texture du
modèle par une orthophotographie de l'objet dans sa totalité, de retoucher l'image, et de la
plaquer à nouveau sur le modèle. Emmanuel Moisan a créé une fonction sous R permettant
de récupérer les paramètres d'orientation des orthophotographies crées sous 3DRespaher.
Enfin, le nombre de photographies que l'on peut projeter est limité et dépend des
capacités de l'ordinateur. Cette limite a été atteinte avec la projection de 34 photographies.
Le fichier 3DReshaper a alors une taille de 336 Mo, ce qui est inférieur à la taille maximale
admise sur cet ordinateur (1,4 Go). La limite dépend donc du nombre et de la taille des
images, plus que de la taille du fichier. On peut dans ce cas envisager de rééchantillonner
les images ou de procéder par étape en n'enregistrant que le maillage et sa texture, sans les
photographies d'origine.
La seconde méthode de texturage est la colorisation du maillage par la projection
des couleurs du nuage de points. La qualité de la texture dépend de deux grands facteurs :
- la densité du nuage de points. Là où il n'y a pas de points, si la distance du point le
plus proche au sommet du maillage dépasse 1 % de la taille du maillage, il n'aura pas de
couleur.
- la densité du maillage. Elle dépend du nuage de points mais aussi du niveau de
rééchantillonnage lors du maillage 3D. Selon l'échelle de représentation, le maillage sera
plus ou moins détaillé. Lorsque les triangles sont trop grands, le saut de couleur entre les
sommets est important et les couleurs des facettes peu réalistes.
M é t h o d e
Nolwenn Quéré - INSA de Strasbourg - 2013 43
Figure 34 - Comparaison des modes de texturage. a) maillage rééchantillonné à 5 cm, colorisé par les points du nuage, b) maillage rééchantillonné à 1 cm, colorisé par les points du nuage, c) maillage rééchantillonné à 5 cm, texturé par une photographie.
Compte tenu des contraintes de densité de ce type de texturage, il ne pourra être
choisi que pour des objets destinés à être exploités à très grande échelle ou des objets de
petite taille, donc peu gourmands en mémoire, pouvant être maillés avec un très faible
niveau de rééchantillonnage. L'avantage majeur de cette méthode est son rendu réaliste en
un temps très réduit. Ce type de rendu, principalement esthétique, peut être utilisé à des fins
illustratives ou pédagogiques.
2.7. Synthèse
Bien que largement automatisés, les traitements des différents logiciels utilisés
permettent d'adapter la méthode aux résultats voulus, selon les paramètres exposés tout au
long de cette partie.
La figure 35 reprend les étapes de reconstruction 3D présentées dans l'état de l'art
(cf. figure 14, p 24), avec pour chaque étape une synthèse des conclusions tirées des tests
réalisés. Elle peut servir de fiche d'aide à la reconstruction 3D à partir de photographies, par
exemple pour les secteurs de fouille restant à modéliser.
M é t h o d e
Nolwenn Quéré - INSA de Strasbourg - 2013 44
Figure 35 - Chaîne de traitement paramétrée de génération d'un modèle 3D maillé et texturé à partir de photographies. Document personnel.
A p p l i c a t i o n a u x d o n n é e s d u s i t e
Nolwenn Quéré - INSA de Strasbourg - 2013 45
I I I . A p p l i c a t i o n a u x d o n n é e s d u s i t e
e t a n a l y s e d e s r é s u l t a t s
3.1. Présentation du site .................................................................................................45
3.1.1. Contexte géographique et historique ...................................................................45
3.1.2. Saint-Hilarion .......................................................................................................46
3.1.3. Histoire du monastère .........................................................................................46
3.1.4. Découpage des fouilles .......................................................................................47
3.2. Modélisation 3D du secteur 2 ..................................................................................48
3.2.1. Niveau 1 : objet ...................................................................................................48
3.2.2. Niveau 2 : unité stratigraphique ...........................................................................48
3.2.3. Niveau 3 : locus ...................................................................................................49
3.2.4. Niveau 4 : secteur................................................................................................50
3.3. Bilan des erreurs ......................................................................................................54
3.3.1. Erreurs liées aux conditions de prises de vue ......................................................54
3.3.2. Erreurs liées au système d'acquisition .................................................................54
3.3.3. Erreurs liées au traitement des données .............................................................55
3.3.4. Erreurs liées à l'utilisateur ....................................................................................56
3.3.5. Précision relative et absolue ................................................................................56
3.4. Conclusion et perspectives .....................................................................................56
3.1. Présentation du site
3.1.1. Contexte géographique et historique
Le monastère de Saint-Hilarion se situe
sur les dunes littorales de la municipalité de
Nuseïrat, à une dizaine de kilomètres au sud-
ouest de Gaza.
Figure 36 - Cartes de situation de Umm el 'Amr. (Ripoche [2012]).
A p p l i c a t i o n a u x d o n n é e s d u s i t e
Nolwenn Quéré - INSA de Strasbourg - 2013 46
Les premières fouilles du site sont faites suite à la mise en chantier d'un projet de
lotissement sur la dune côtière en 1997, entrainant une fouille systématique de sauvegarde
par le service des Antiquités de Gaza. On distingue alors deux ensembles architecturaux :
un monastère d'époque byzantine et un établissement de bains de vapeur. Dans le cadre de
la mission de coopération franco-palestinienne, les fouilles sont confiées en 2001 à l'Ecole
Biblique et Archéologique Française de Jérusalem (EBAF). L'archéologue René Elter est
alors chargé de l'étude complète des vestiges avec pour objectif leur restauration et leur
mise en valeur touristique.
3.1.2. Saint-Hilarion
Hilarion naît vers 291 ap. J-C à Thauatha (au sud de Gaza). Il se convertit au
christianisme au cours de sa scolarité en Egypte et décide de devenir ermite à la suite de sa
rencontre avec Saint-Antoine. Il retourne vers 310 en Palestine et installe son ermitage à
Umm el-'Amr. Il y reste jusqu'en 361, les persécutions de Julien l'Apostat le poussant à fuir
successivement en Egypte, en Lybie, en Sicile, en Dalmatie et enfin à Chypre, où il décède
en 371 à l'âge de 80 ans. Un de ses disciples rapporte sa dépouille au monastère en 373,
qui deviendra plus tard un important lieu de pèlerinage. (vie de Saint Hilarion, écrite par Saint
Jérôme).
3.1.3. Histoire du monastère
Les vestiges se divisent en deux ensembles architecturaux : un pôle ecclésiastique
au sud et un établissement de bains et une hôtellerie au nord (cf. avant-propos).
L'archéologie a identifié 8 états successifs d'occupation, de la fin du III° siècle au VIII°
siècle. La première construction est un ermitage en terre crue, construit au IV° siècle à
l'arrivée de Hilarion. Au retour de la dépouille du Saint, une église est fondée à même les
murs en terre pour accueillir les reliques. Quelques décennies plus tard, une deuxième
église, plus grande, est édifiée sur l'emplacement de la précédente, ainsi qu'une crypte, un
baptistère, les premiers bains et l'hôtellerie. Au VI° siècle, le sanctuaire est agrandi et la
géométrie de l'église redéfinie. L'hôtellerie est étendue vers le nord. L'expansion du
monastère cesse en 637 avec la conquête de Gaza par les arabo-musulmans. L'activité
touristique perdurant, les bains et l'hôtellerie sont encore agrandis. L'activité du monastère
décline jusqu'à la fin du VII° siècle ou elle cesse complètement. L'abandon des bâtiments, le
glissement de la dune entraînant l'éboulement de murs, l'effondrement de toitures, l'activité
sismique, et les vents de sable effacent peu à peu les traces du site, jusqu'à sa disparition
totale.
A p p l i c a t i o n a u x d o n n é e s d u s i t e
Nolwenn Quéré - INSA de Strasbourg - 2013 47
Figure 37 - Chronologie de l'occupation du site du monastère de Saint-Hilarion. Document personnel.
3.1.4. Découpage des fouilles
Le site est découpé en 7 secteurs, chacun ayant une fonction principale : 1) bains et
hôtellerie, 2) zone tampon entre les secteurs 1 et 4, 3) lieux de vie, 4) sanctuaire, 5) crypte,
6) extérieur sud-est, 7) extérieur sud-ouest. Le secteur 2 se situe à l'ouest et est constitué de
cellules de moines, de l'atrium du monastère, du réfectoire et de locaux techniques. L'atrium
est une cour carrée de 20,8 m de côté, accolée à l'ouest de l'église. Trois portiques et des
colonnes de granit le délimitaient sur les côtés nord, sud et ouest. L'atrium est dallé de
calcaire et comporte une fontaine, alimentée par une conduite enterrée depuis un bassin
proche du puits. En façade du sanctuaire, un narthex pavé de mosaïques aux motifs
géométriques précède l'église. Des sépultures chrétiennes sont installées plus tardivement
dans l'atrium et dans l'église comme en attestent les arrachements des pavements.
Figure 38 - Plan du monastère et son découpage par secteurs. nord approximatif. R. Elter, modifié.
310ap J-C installation de l'ermirage de Saint-Hilarion à Umm el-'Amr
373ap J-C
retour de la dépouille du Saint au monsatère,
construction de la première église
V° siècle construction de la deuxième église, premiers bains et hôtellerie
VI° siècle construction de la troisème église
637
conquête de Gaza par les arabo-musulmans
Secteur 2
A p p l i c a t i o n a u x d o n n é e s d u s i t e
Nolwenn Quéré - INSA de Strasbourg - 2013 48
3.2. Modélisation 3D du secteur 2
Le secteur 2 a été découpé en dix zones, appelées "projets" dont les photographies
ont été orientées indépendamment. Les dix nuages de points denses résultants ont ensuite
été recalés ensemble sous 3DReshaper. Chaque projet est numéroté de 1 à 10 et comporte
de 250 à 550 photographies sélectionnées parmi les 6 000 du secteur selon leur angle de
prise de vue, leur qualité (netteté, luminosité) et leur intérêt pour l'orientation (élimination des
redondances, photographies de transition).
3.2.1. Niveau 1 : objet
Les objets sont de taille réduite et peuvent être représentés jusqu'au 1/10. On peut
envisager de les intégrer au modèle général du secteur, qui sert de base et de référence aux
éléments qu'on lui adjoint.
Figure 39 - Nuage de points dense de la colonne L-234-3, à gauche, seul, à droite, intégré au maillage du locus.
Un objet (de type colonne ou chapiteau) est couvert en moyenne par une
vingtaine de photographies avec une distance moyenne à l'objet de 1 à 2 mètres. La taille
d'un pixel objet est donc de 0,5 mm. La densité moyenne du nuage de points est de 1 point
tous les 0,5 mm.
3.2.2. Niveau 2 : unité stratigraphique
Dans le cadre de cette étude, les unités stratigraphiques ont été modélisées avec les
loci. Leur niveau de détail n'est donc pas supérieur à celui du niveau 3. On peut cependant
envisager de les dissocier. Il faudra alors veiller à calculer un bundle adjustment en fixant les
longueurs focales à une valeur unique pour corriger les déformations du modèle, inhérentes
à la linéarité des murs notamment.
1 m 50 cm
A p p l i c a t i o n a u x d o n n é e s d u s i t e
Nolwenn Quéré - INSA de Strasbourg - 2013 49
Figure 40 - Modèle 3D maillé et texturé à partir de photographies du mur nord du locus 219 (22126).
3.2.3. Niveau 3 : locus
Le niveau de détail idéalement souhaité pour le modèle 3D du secteur complet étant
trop élevé, une modèle au niveau du locus a été réalisé à plus petite échelle. Le paragraphe
suivant détaille l'étude de l'évaluation de la précision du modèle 3D des loci 218, 219, 220,
221. On suppose les résultats équivalents pour les autres loci du secteur.
Afin d'évaluer la reconstruction 3D de VisualSFM et ne disposant pas des
informations nécessaires avec le logiciel, les même photographies ont été orientées avec
PhotoModeler Scanner (75 sur 265 seulement ont pu être orientées). Le nuage de points
créé par PMS est considéré comme la référence.
Précision du nuage de référence (PMS) :
Précision en planimétrie = 8 mm
Précision en altimétrie = 10 mm
Précision du nuage de points de VisualSFM :
Précision de la reconstruction du nuage de points : inconnue
Résidu moyen sur les points par SFM-Georef = 4 mm
Cette erreur est négligeable par rapport à la précision des points du nuage de référence.
Figure 41 - Courbe de répartition des écarts du nuage de points VisualSFM au nuage de référence PMS. CloudCompare. Distances en mm.
Comparaison des nuages de points
VisualSFM et PMS :
Moyenne des écarts en valeur
absolue = 18 mm
Ecart-type = 29 mm
A p p l i c a t i o n a u x d o n n é e s d u s i t e
Nolwenn Quéré - INSA de Strasbourg - 2013 50
Figure 42 - Loci 219-220-221 maillé, texturé par photographies projetées.
Si on considère les images dont la distance à l'objet est comprise entre 5 et 20 m, la
taille des pixels objets varie de 1 à 5 mm. Le maillage figure 42 est rééchantillonné à 5 cm.
3.2.4. Niveau 4 : secteur
3.2.4.1. Mise en place d'une boucle
Le secteur 2 recouvre une surface approximative de 2 000 m², avec une largeur de
39m sur une longueur de 72 m. La zone est couverte par plus de 3 000 photographies
terrestres et de 3 000 photographies aériennes (depuis la nacelle). Il est donc impossible
d'orienter toutes les photographies entre elles en un projet unique. Il s'agit d'établir un
compromis afin d'utiliser un plus grand nombre de photographies possible en un minimum
d'étapes.
Dans un levé topographique classique, on réalise un cheminement polygonal fermé
donc l'écart de fermeture permet de connaître la précision du levé. Dans le cas de la
photomodélisation, on ne dispose pas de stations. Le principe de la polygonation a été
reproduit par la formation d'une boucle de projets recalés les uns à la suite des autres.
L'écart du premier au dernier nuage de points donne la précision du recalage. Six nuages de
points successifs ont été recalés, chacun uniquement à partir du précédent (cf. figure 43). La
boucle ainsi formée a une longueur approximative de 110 m.
Le recouvrement d'un nuage de points à un autre étant partiel, le calcul des écarts a
été réalisé à partir des maillages sous 3DReshaper. Une erreur supplémentaire a donc été
introduite dans le résultat.
1 m
A p p l i c a t i o n a u x d o n n é e s d u s i t e
Nolwenn Quéré - INSA de Strasbourg - 2013 51
Figure 43 - Vue du dessus des nuages de points du secteur 2 et représentation de la boucle utilisée pour évaluer la précision de recalage.
Figure 44 - Courbe de répartition des écarts du dernier maillage (7) au premier maillage (1) de la boucle. 3DReshaper. Distances en mm.
Fermeture de la boucle, comparaison du maillage 7 au maillage 1 :
Systématisme = 175 mm
Ecart-type = 165 mm
On cherche à répartir cette erreur sur les différents recalages. 3DReshaper ne permet
pas de paramétrer les recalages automatiques, la répartition doit donc se faire de façon plus
intuitive en orientant les nuages de manière stratégique.
Le maillage de référence choisi est le maillage 5. Pour chaque recalage, seuls deux
éléments sont pris en compte : une référence et un objet à recaler. Les maillages recalés ont
donc été agglomérés pour ne plus former qu'un maillage, servant de référence aux suivants
afin d'assurer une cohérence globale dans l'orientation des nuages de points. L'ordre de
recalage est décrit dans la figure 45.
A p p l i c a t i o n a u x d o n n é e s d u s i t e
Nolwenn Quéré - INSA de Strasbourg - 2013 52
Figure 45 - Ordre de recalage des projets selon leur numéro (voir figure 43) .
5 4 3 2 1 7 6 8 9 10 Moyenne
Moyenne -3 0 0 0 -10 -4 0 -5 0 -2 Ecart-type 43 29 48 39 35 60 29 45 45 41
Tableau 5 - Tableau des écarts entre les différents maillages recalés selon la figure 45. Valeurs en mm, mesurées à partir de la distance du maillage du projet concerné au maillage composé de tous les précédents.
3.2.4.2. Résultats
Les photographies utilisées pour la modélisation des loci sont les mêmes que celles
utilisées pour la modélisation du secteur complet. A ces photographies se rajoutent les
photographies aériennes depuis la nacelle et le cerf-volant. Les nuages de points recalés
sont fusionnés, maillés et texturés.
Au vu de l'étendue du secteur, le maillage a dû être rééchantillonné à 10 cm pour
réduire les temps de traitement et le volume de stockage. De la même manière, la texture
est obtenue par projection des points colorisés sur le maillage. La projection de
photographies terrestre nécessiterait un trop grand nombre d'images, dépassant les
capacités de mémoire de l'ordinateur. On peut en revanche envisager de projeter des
images aériennes comme celles prises par le cerf-volant au-dessus du secteur 2.
Projet Surface (m²)
Nombre de photographies
Temps de traitement
(heures)
Nombre de points (millions)
Taille du fichier (Mo)
1 324 421 16 26 1198 2 216 328 15 21 938 3 228 268 7 18 831 4 162 346 7 10 890 5 624 549 23 32 1475 6 300 245 9 13 595 7 486 334 12 15 700 8 360 339 8 18 805 9 550 389 16 23 1055
10 324 355 13 18 798 Total 3574 3574 128 194 9285 Moyenne 357 357 13 19 929
Tableau 6 - Tableau récapitulatif du calcul des 10 nuages de points.
5 +4 +3 +2 +1 +7 +6 +8 +9 +10
A p p l i c a t i o n a u x d o n n é e s d u s i t e
Nolwenn Quéré - INSA de Strasbourg - 2013 53
Figure 46 - Modèle 3D maillé et colorisé par le nuage de points du secteur 2 complet.
Figure 47 - Modèle 3D maillé du nuage de points du secteur 2 complet avec rendu PCV.
A p p l i c a t i o n a u x d o n n é e s d u s i t e
Nolwenn Quéré - INSA de Strasbourg - 2013 54
3.3. Bilan des erreurs
On peut décomposer les sources d'erreur en quatre catégories :
les erreurs liées aux conditions de prises de vue;
les erreurs liées au système d'acquisition;
les erreurs liées au traitement des données;
les erreurs liées à l'utilisateur.
3.3.1. Erreurs liées aux conditions de prises de vue
Erreurs liées aux propriétés de l'objet :
- rugosité de la surface de l'objet (qualité de la texture);
- réflectivité de la surface de l'objet (présence de reflets selon l'angle de prise de vue);
- uniformité de la texture (distinction des points sur la surface les uns par rapport aux
autres);
- présence de masques (personnes, rampes, sacs de sable, etc.);
- immobilité de l'objet (photographies acquises à différentes périodes, glissement de
terrain, affaissement des murs, etc.).
Erreurs liées aux conditions météorologiques :
- luminosité de la scène (surexposition, ombres);
- température (ondulation de l'atmosphère, dilatation de la mire).
Calcul de l'erreur de dilatation de la mire :
L'erreur de dilatation εt est donnée par :
𝜀𝑡 = 𝑙 × 𝜆(𝑡 − 𝑡0)
λ = 0,5.10-5 par degré pour une mire en bois
Si la mire est calibrée à 20°C et qu'on suppose la température à 40°C au soleil : εt = 0,3 mm
3.3.2. Erreurs liées au système d'acquisition
Erreurs liées à la méthode d'acquisition et aux types prises de vue :
- visées rasantes (phénomène de réfraction);
- stabilité de prise de vue (temps d'exposition);
- netteté des photographies (ouverture de diaphragme);
- distance à l'objet.
Calcul de la taille du pixel objet :
Figure 48 - Rapport du pixel image au pixel objet. Document personnel.
𝑝𝑖𝑥𝑒𝑙 𝑜𝑏𝑗𝑒𝑡 =𝑝𝑖𝑥𝑒𝑙 𝑖𝑚𝑎𝑔𝑒
𝑙𝑜𝑛𝑔𝑢𝑒𝑢𝑟 𝑓𝑜𝑐𝑎𝑙𝑒× 𝑑𝑖𝑠𝑡𝑎𝑛𝑐𝑒 à 𝑙′𝑜𝑏𝑗𝑒𝑡
La taille du pixel objet est définie de la façon suivante:
avec : taille du pixel objet = 6,4 µm
longueur focale = 24 mm
Si on considère des visées de 1 m à 20 m, la taille du
pixel objet varie entre 0,3 mm et 5 mm.
A p p l i c a t i o n a u x d o n n é e s d u s i t e
Nolwenn Quéré - INSA de Strasbourg - 2013 55
Erreurs liées aux paramètres de l'appareil photographique :
- variation de la longueur focale en cours d'acquisition;
- variation d'ouverture de diaphragme d'une photographie à une autre;
- sensibilité ISO (niveau de détail, lissage à l'origine du bruit);
- distorsions radiales et tangentielles de l'optique de l'appareil;
- calibration de l'appareil (incertitude sur la valeur de la focale, des distorsions, etc.).
Erreurs liées à la mire et à la méthode d'acquisition :
- défaut de longueur (calibration de la mire);
- défaut de linéarité (mire courbe);
- nombre de mires;
- répartition des mires.
3.3.3. Erreurs liées au traitement des données
Erreurs liées à l'orientation automatique des images par VisualSFM et la densification par
CMVS/PMVS2 :
- faute d'appariement des points d'intérêt;
- nombre de points de correspondance;
- robustesse du jeu de données (images orientées les unes à la suite des autres sans
consolidation par des visées obliques);
- distance à l'objet (incertitude sur les points éloignés);
- erreur de correction par RANSAC (mauvaise simplification du nuage);
- erreur de calibration (estimation de la longueur focale par VisualSFM);
- erreur d'estimation des paramètres internes de caméra (focale);
- erreur d'orientation relative des caméras (paramètres de rotation et de translation);
- erreur du filtre de qualité entre les différents clusters (choix des meilleures
photographies pour la densification, CMVS);
- erreur de correspondance entre les patchs (PMVS);
- erreur d'expansion (ajout de points non correspondants, PMVS);
- erreur de filtrage (retrait des points isolés, retrait des éléments aberrants, PMVS).
Erreurs liées au nettoyage des nuages de points et à la création des maillages :
- erreur de détection du bruit, niveau de rééchantillonnage des nuages de points;
- rééchantillonnage du maillage;
- pics, trous et irrégularités du maillage;
- distance de l'erreur de corde;
Erreurs liées à l'algorithme de recalage :
- atteinte d'un minimum local lors de la minimisation des paramètres;
- différence de densité des nuages de points;
- calcul de distance entre des points non correspondants;
- interpolation du maillage.
Erreurs liées au plaquage de la texture :
- erreur de recalage de la texture (paramètres d'orientations interne et externe);
A p p l i c a t i o n a u x d o n n é e s d u s i t e
Nolwenn Quéré - INSA de Strasbourg - 2013 56
- distorsions de l'image;
- erreur d'interpolation de la couleur des points sur le maillage.
3.3.4. Erreurs liées à l'utilisateur
La chaîne de traitement utilisée est presque entièrement automatisée. La majorité
des erreurs liées à l'utilisateur ont lieu lors de l'acquisition. Deux étapes du calcul nécessitent
l'intervention d'un opérateur : le pointé des points sur les mires lors de la mise à l'échelle et
le plaquage de photographies pour texturer.
Erreurs liées à la mise à l'échelle manuelle avec SFM-Georef :
- faute de pointé (points non correspondants);
- faute de distance;
- erreur de pointé (1/3 pixels);
- erreur de lecture sur la mire.
Erreurs liées au plaquage de photographies :
- faute d'image (non correspondance entre l'image et les paramètres de caméra);
- faute dans le calcul des paramètres (focale mise à l'échelle, rotation dans le
référentiel juste).
3.3.5. Précision relative et absolue
La précision relative constitue une estimation théorique (précision à priori) que l'on
peut espérer atteindre sur le résultat. La précision absolue (précision effective) est calculée
en s'appuyant sur les observations, compensées sur la base de données de référence.
Pour parler de précision absolue, il faut pouvoir comparer les données à des données
de référence, acquises par une méthode plus précise, par exemple des points relevés sur le
terrain au tachéomètre. Ici on ne dispose d'aucune donnée de référence permettant de
valider la précision du modèle 3D. On évalue donc la précision relative à partir des données
fournies par les logiciels et par comparaison relative des modèles 3D entre eux.
3.4. Conclusion et perspectives
Les niveaux de représentation sur lesquels l'étude s'est principalement portée sont le
locus et le secteur (3 et 4). Les niveaux inférieurs, objet et unité stratigraphique (1 et 2), déjà
traités dans les travaux de Caroline Ripoche ont été succinctement abordés. Les méthodes
établies tout au long de ce projet ont pour vocation d'être appliquées aux autres secteurs de
fouilles du monastère de Saint-Hilarion. Lorsque tous les secteurs seront modélisés en 3D,
on pourra envisager de les recaler à leur tour les uns par rapport aux autres.
En passant à l'échelle inférieure, les questions de géoréférencement devront être
abordées. Si pour la mise à l'échelle d'un secteur, le pointé de mires peut suffire, il n'est pas
A p p l i c a t i o n a u x d o n n é e s d u s i t e
Nolwenn Quéré - INSA de Strasbourg - 2013 57
suffisant pour assurer l'exactitude de la reconstruction 3D d'un secteur de fouilles et encore
moins pour les fouilles dans leur totalité. Quelles que soient les méthodes utilisées, la
consolidation des nuages introduit une erreur, qui se cumule proportionnellement au nombre
de recalages effectués. Si cette erreur peut être minimisée à l'échelle du secteur, elle risque
d'être trop importante au niveau du site complet.
C o n c l u s i o n
Nolwenn Quéré - INSA de Strasbourg - 2013 58
C o n c l u s i o n
Un modèle 3D ambivalent et performant pour toutes les utilisations n'existe pas. C'est
pourquoi il est indispensable de connaître et de comprendre les besoins de l'archéologue. Il
résulte de ce PFE que la question de l'échelle est déterminante lors de la construction d'un
modèle 3D. Selon le niveau de détail et l'étendue de la zone à modéliser, les choix en
matière de distance à l'objet des prises de vue, de densité de points, de maillage et de type
de texture seront très différents. C'est dans cette optique que deux modélisations ont été
produites : une à l'échelle du locus pour mettre en avant les détails et le réalisme, et une
allégée à l'échelle du secteur.
De nombreux documents sur le site existent déjà, comme les plans réalisés à la suite
du levé topographique de 2002, des orthophotographies créées par redressement d'images,
des modèles 3D de la crypte et d'une partie de l'église, ainsi que des documents produits
avec les méthodes classiques de relevés archéologiques. Le projet de fin d'études de
Caroline Ripoche a servi de base aux études suivantes en établissant une chaîne de
traitement, de l'acquisition photogrammétrique à la modélisation 3D. Le présent projet
s'inscrit dans cette démarche en apportant les améliorations permises par les avancées
technologiques. Une dimension nouvelle a également été apportée en abordant une échelle
plus large en soulevant les questions de consolidation et de référencement. Ce travail veut
aussi constituer un support de discussion sur les apports futurs de la topographie et de la
vision par ordinateur à l'archéologique.
Après avoir été triées et sélectionnées manuellement par l'opérateur, les
photographies sont regroupées par zone géographique. Chaque groupe de photographies
est orienté automatiquement et densifié avec VisulaSFM. Les nuages de points denses sont
mis à l'échelle avec SFM-Georef. Ils sont ensuite nettoyés et rééchantillonnés, afin de
réduire le bruit et uniformiser la répartition des points, sous 3DReshaper, puis recalés les
uns par rapport aux autres par un algorithme ICP. Une fois recalés, les nuages sont
regroupés et maillés comme un seul objet. Enfin, l'aspect visuel du maillage est produit par
un texturage, choisi parmi plusieurs types de rendus en fonction de son utilité.
Tout au long de ce projet, l'absence de points topographiques a constitué un manque.
L'utilisation seule de mire est suffisante pour la mise à l'échelle mais ne permet pas de
géoréférencer le modèle. Le recalage des nuages ne peut ainsi se faire qu'à partir de leur
géométrie. La mission prévue en juin 2013 avait pour objectif la mise en place d'un canevas
de points placés en fonction de la méthode de modélisation. La principale source d'erreur
provenant de la mise à l'échelle et du recalage des nuages, le géoréférencement par des
points de référence judicieusement placés devrait diminuer largement les erreurs observées.
La méthode mise en place pourra être facilement adaptée pour intégrer ces points de
référence dans la chaîne de traitement. La question de la texture représente également une
difficulté. Pour chaque logiciel d'orientation automatique d'images (PhotoModeler Scanner,
Photosynth, VisualSFM), les paramètres d'orientation de caméra sont exprimés sous une
forme différente. L'extraction et la mise en forme de ces paramètres pour le plaquage de la
texture sous 3DReshaper est à refaire à chaque nouveau logiciel utilisé. Il n'existe à ce jour
pas de solution pour pallier ce problème, mais de nouvelles solutions de texturage via des
C o n c l u s i o n
Nolwenn Quéré - INSA de Strasbourg - 2013 59
logiciels gratuits sont en train de voir le jour et s'adaptent progressivement aux logiciels tels
que VisualSFM.
Grâce à la méthode mise en place au cours de ces deux dernières années, la totalité
du site pourra être modélisée. Une amélioration de l'automatisation des traitements pourrait
être envisagée, et une veille technologique régulière s'impose en raison de la rapidité
d'évolutions des outils et logiciels. On peut également envisager d'élaborer des protocoles
utilisables par les archéologues, pour leur permettre de s'approprier les modèles 3D créés.
G l o s s a i r e
Nolwenn Quéré - INSA de Strasbourg - 2013 60
G l o s s a i r e
ASCII* : American Standard Code for Information Interchange. Littéralement "code standard
américain pour l'inter-échange d'information". Code normalisé de représentation des
caractères en langage binaire, facilitant les transferts entre logiciels et systèmes différents.
Best-Fit : Fonction de 3DReshaper. Algorithme de recalage de nuages de points par ICP.
CPU** : Central Processing Unit. Littéralement "unité centrale de traitement". Matériel au
sein de l'ordinateur prenant en charge les instructions d'un programme en utilisant les
opérations arithmétiques de base du système.
Descripteur** : Informations numériques dérivées de l'analyse locale d'une image, qui
caractérisent le contenu visuel de cette image de la façon la plus indépendante possible de
l'échelle ("zoom" et résolution du capteur), du cadrage, de l'angle d'observation et de
l'exposition (luminosité).
Détecteur** : Opérateur servant à la détection d’une zone d’intérêt d’une image numérique.
Carte de profondeur : Image 2D dans laquelle chaque pixel est coloré en fonction de la
distance entre un plan de référence (le plan de l’image) et la surface décrite par ce pixel. Le
plus souvent la palette de couleurs utilisée est une échelle de gris. Assali [2010]
CMVS : Clustering Views for Multi-View Stereo. Littéralement "regroupement de vues pour la
reconstruction multi-vues"
DoG** : Difference of Gaussians. Littéralement "différence de valeurs gaussiennes". Cet
acronyme désigne le traitement appliqué à une image en niveaux de gris, qui consiste à des
soustractions successives de versions floutées d’une même image afin d’en détecter les
bords.
EBAF : Ecole Biblique et Archéologique Française de Jérusalem
EXIF** : Exchangeable Image File Format. Littéralement "Format d'échange de fichiers
image". Les données EXIF contiennent les paramètres de prises de vue tels que l'ouverture,
le temps de pause, la sensibilité ISO.
GCP : Control Ground Point. Littéralement "point de contrôle terrestre".
GPU : Graphics Processing Unit. Littéralement "unité de calcul graphique". Circuit
électronique permettant de manipuler rapidement la mémoire pour accélérer la construction
d'images dans un frame buffer. Exemple : Nvidia.
GUI : Graphical User Interface. Littéralement "interface utilisateur graphique". Type
d'interface utilisateur permettant d'interagir avec les éléments électroniques avec une
interface graphique.
IBM : Image Based Modeling. Littéralement "modélisation basée sur les images".
G l o s s a i r e
Nolwenn Quéré - INSA de Strasbourg - 2013 61
ICP : Iterative Closest Point . Littéralement, "point le plus proche itérativement".
Locus : Lieu de fouilles délimitant des zones d'occupation humaine (Pluriel : Loci).
MVS** : Multi-view Stereo. Littéralement "Reconstruction multi-vues". Construction de
modèles entiers d’objets 3D à partir de collections d’images dont on connaît les positions et
orientations des caméras.
Out-of-core : Méthodes permettant de traiter des jeux de données dont la taille est
supérieure à la mémoire de l'ordinateur. Il s'agit de déporter une partie de la mémoire sur le
disque dur de l'ordinateur.
PCV : Portion de ciel visible. Fonction de CloudCompare.
PLY : Polygon File Format. Littéralement "Format de fichier polygonal".
Point d'intérêt : Image d'un point de l'objet représentant une partie clairement distincte des
pixels voisins.
Point homologue* : Image d'un même point de l'objet sur deux images représentant une
même partie de cet objet, mais pris de points de vue différents.
Quaternion* : Système dans lequel chaque nombre correspond à un ensemble de quatre
nombres réels.
Photogrammétrie** : Technique permettant, à partir d'un couple stéréoscopique de
photographies, d'étudier et de définir avec précision les formes, les dimensions et la position
dans l'espace d'un phénomène quelconque.
PMS : PhotoModeler Scanner. Logiciel de photogrammétrie.
PMVS : Patch-based Multi-view Stereo Software. Littéralement "Logiciel de reconstruction
multi-vues basé sur la méthode des patchs".
RANSAC : RANdomSample Consensus. Littéralement "Consensus échantillon aléatoire".
Secteur : Regroupement de loci et découpage d'une fouille.
SIFT : Scale Invariant Feature Transform. Littéralement "transformation de caractéristiques
visuelles invariante à l'échelle".
Stratigraphie* : Science qui étudie la succession des dépôts sédimentaires, généralement
arrangés en couches (ou strates).
Structure from motion** : Processus permettant la reconstruction en trois dimensions de la
géométrie d’une scène à partir d’une collection d’images désordonnée.
SQL : Structured Query Language. Littéralement "langage de requête structurée".
SURF : Speeded Up Robust Features. Littéralement "caractéristiques robustes accélérées".
G l o s s a i r e
Nolwenn Quéré - INSA de Strasbourg - 2013 62
Unité stratigraphique** : Une strate qui regroupe des traces matérielles d'une action
anthropique (construction d’un mur, d’une route ou le remblai d’une fosse) ou naturelle
(éruption d’un volcan ou tremblement de terre). Il s'agit de l'unité de base d'une fouille, d'un
site, la plus petite entité.
* Définition du grand dictionnaire. http://gdt.oqlf.gouv.qc.ca/
** Définition issue de (Ripoche [2012])
T a b l e d e s i l l u s t r a t i o n s
Nolwenn Quéré - INSA de Strasbourg - 2013 63
T a b l e d e s i l l u s t r a t i o n s
Figures
Figure 1 - Différents types de traitements archéologiques. a) restauration d'unités
d'habitation (M-E. Bellet), b) reconstitution de fourneaux (M. Le Clainche), c) restitution d'un
temple au I° siècle av. J-C (P. André), d) reconstruction d'un poste de commerce (John &
Jameson). (Bellet et al. [2005]). ..............................................................................................5
Figure 2 - Exemples des différents types de restitution. a) Restitution du monument sur
place. fresque à Herculanum, Itlaie.theudericus.free.fr, b) Restitution de volumes. Piazza
Armerina en Sicile. paris-photo.net, c) Modèle de transfert. Parc de Skansen, Suède.
willgoto.com, d) Modèle de réplique. grottes de Lascaux. hominides.com, e) Modèle
conservationniste. monastère de Saint-Hilarion, (Elter [2012]) f) Modèle virtuel d'un château
médiéval. Guédelon. France. (Renucci [2005]). ......................................................................7
Figure 3 - Les différents modèles architecturaux 3D. a) Objet réel, b) Modèle tel que saisi, c)
Modèle tel que construit (Queste [2006]). ...............................................................................8
Figure 4 - Exemple de points d'intérêt. J-F. Hullo, cours de vision par ordinateur 2012. .......11
Figure 5 - Schéma d'explication du principe de l'algorithme de RANSAC. Document
personnel. ............................................................................................................................13
Figure 6 - La contrainte épipolaire. (Hullo [2010]). ................................................................15
Figure 7 - Visualisation de l'étape de fusion des points SFM pour la génération de clusters,
CMVS. (Furukawa et al. [2010]) modifié. ..............................................................................16
Figure 8 - Etapes de génération d'un cluster, CMVS. (Furukawa et al. [2010]) modifié. ........17
Figure 9 - Etapes de reconstruction dense par PMVS2. De gauche à droite : image d'entrée,
points d'intérêt détectés, patchs reconstruits après le premier appariement, patchs finaux
après expansion et filtrage, surface polygonale étendue depuis les patchs reconstruits.
(Furukawa [2007]). ...............................................................................................................18
Figure 10 - Recherche de points homologues sur deux courbes à recaler, à partir d'un
algorithme ICP. Document personnel. ..................................................................................19
Figure 11 - Illustration de l'erreur de corde (déviation). (3DReshaper@[2013]) modifié. .......20
Figure 12 - Schéma d'explication du calcul de PCV en 2D. (Bunnell [2005]) modifié. ...........21
Figure 13 - Projection de texture sous 3DReshaper .............................................................22
Figure 14 - Processus de génération d'un modèle 3D maillé et texturé à partir de
photographies. document personnel. ....................................................................................23
Figure 15 - Répartition gaussienne des écarts. Document personnel. ..................................26
Figure 16 - Courbe de l'évolution des temps de traitement en fonction du nombre de
photographies. C1, L1 correspondent aux valeurs de csize et de level (cf. § 2.4.2.). ............27
Figure 17 - Plan et schéma illustrant le test d'évaluation de l'influence du recouvrement
photographique entre les projets. Document personnel. .......................................................28
Figure 18 - Vue du dessus des maillages de 4 nuages de points d'un mur rectiligne,
reconstruit à partir de18 photographies consécutives. ..........................................................30
Figure 19 - Courbe de répartition des écarts du maillage du nuage de points VisualSFM
(avec bundle adjustment, focale unique) au maillage du nuage de points PMS (avec un
fichier de calibration). 3DReshaper. Distances en mm. ........................................................30
T a b l e d e s i l l u s t r a t i o n s
Nolwenn Quéré - INSA de Strasbourg - 2013 64
Figure 20 - Coupe nord-sud des loci L.230 et L.231. En vert nuage de points non corrigé, en
bleu nuage de points corrigé par un bundle adjustment sans contraintes supplémentaires.
Trimble realworks. ................................................................................................................31
Figure 21 - Maillage de l'objet sur site, .................................................................................33
Figure 22 - Schéma des angles à partir desquels les points sont filtrés. Document personnel.
.............................................................................................................................................34
Figure 23 - Portion du locus 236 densifié avec deux photographies. A gauche sans filtre (53
858 points), à droite avec le filtre basé sur les normales (11 156 points). .............................35
Figure 24 - Courbe de répartition des écarts du nuage de points densifié par deux
photographies, non filtré selon les normales, au nuage de référence. CloudCompare.
Distances en mm. .................................................................................................................35
Figure 25 - Courbe de répartition des écarts du nuage de points densifié par deux
photographies, filtré selon les normales, au nuage de référence. CloudCompare. Distances
en mm. .................................................................................................................................35
Figure 26 - Courbe de répartition des écarts du dernier nuage de points de la boucle (nuages
non filtrés), au premier nuage de la boucle. CloudCompare. Distances en mm. ..................36
Figure 27 - Courbe de répartition des écarts du dernier nuage de points de la boucle (nuages
filtrés), au premier nuage de la boucle. CloudCompare. Distances en mm. ..........................36
Figure 28 - Courbe de répartition des écarts du dernier élément d'une boucle de six par
rapport au premier élément. De haut en bas : recalage maillage-maillage (maillages
rééchantillonnés à 5 cm); recalage maillage-nuage (maillage rééchantillonné à 5 cm, nuage
de 2 cm de densité moyenne); recalage nuage-nuage (nuages de 2 cm de densité
moyenne). 3DReshaper. Distances en mm. .........................................................................37
Figure 29 - Méthode de recalage des nuages de points entre eux par recalage maillage-
nuage. Document personnel. ................................................................................................38
Figure 30 - Maillage d'un locus avec 3DReshaper. De droite à gauche : nuage de points
dense; maillage avec un rééchantillonnage à 5cm et des triangles de moins de 80cm,
affinage à erreur de corde à 1cm; élimination des pics et irrégularités, bouchage des trous.
Echelle en mm......................................................................................................................39
Figure 31 - Vue du dessus du maillage de secteur 2, au dessus de l'atrium. Rendu PCV. ..40
Figure 32 - Visualisation PCV des loci 218-219-220-221. A gauche sur le nuage de points, à
droite sur le maillage. Echelle en mm. ..................................................................................40
Figure 33 - Visualisation EDL des loci 218-219-220-221. A gauche le maillage sans les
normales, à droite avec le filtre EDL. Echelle en mm. ...........................................................41
Figure 34 - Comparaison des modes de texturage. a) maillage rééchantillonné à 5 cm,
colorisé par les points du nuage, b) maillage rééchantillonné à 1 cm, colorisé par les points
du nuage, c) maillage rééchantillonné à 5 cm, texturé par une photographie........................43
Figure 35 - Chaîne de traitement paramétrée de génération d'un modèle 3D maillé et texturé
à partir de photographies. Document personnel. ..................................................................44
Figure 36 - Cartes de situation de Umm el 'Amr. (Ripoche [2012]). ......................................45
Figure 37 - Chronologie de l'occupation du site du monastère de Saint-Hilarion. Document
personnel. ............................................................................................................................47
Figure 38 - Plan du monastère et son découpage par secteurs. nord approximatif. R. Elter,
modifié..................................................................................................................................47
Figure 39 - Nuage de points dense de la colonne L-234-3, à gauche, seul, à droite, intégré
au maillage du locus. ............................................................................................................48
Figure 40 - Modèle 3D maillé et texturé à partir de photographies du mur nord du locus 219
(22126). ................................................................................................................................49
T a b l e d e s i l l u s t r a t i o n s
Nolwenn Quéré - INSA de Strasbourg - 2013 65
Figure 41 - Courbe de répartition des écarts du nuage de points VisualSFM au nuage de
référence PMS. CloudCompare. Distances en mm. .............................................................49
Figure 42 - Loci 219-220-221 maillé, texturé par photographies projetées. ...........................50
Figure 43 - Vue du dessus des nuages de points du secteur 2 et représentation de la boucle
utilisée pour évaluer la précision de recalage. ......................................................................51
Figure 44 - Courbe de répartition des écarts du dernier maillage (7) au premier maillage (1)
de la boucle. 3DReshaper. Distances en mm. ......................................................................51
Figure 45 - Ordre de recalage des projets selon leur numéro (voir figure 43) . .....................52
Figure 46 - Modèle 3D maillé et colorisé par le nuage de points du secteur 2 complet. ........53
Figure 47 - Modèle 3D maillé du nuage de points du secteur 2 complet avec rendu PCV. ...53
Figure 48 - Rapport du pixel image au pixel objet. Document personnel. .............................54
Tableaux
Tableau 1 - Tableau récapitulatif des appareils et objectifs utilisés lors de l'acquisition. .......25
Tableau 2 - Tableau comparatif de la précision de recalage de nuages de points en fonction
de leur recouvrement. Moyennes et écarts-types des écarts du maillage concerné au
maillage de référence sous 3DReshaper. .............................................................................28
Tableau 3 - Tableau comparatif de l'influence du nombre de photographies par cluster. ......32
Tableau 4 - Tableau comparatif des différents niveaux de densité de PMVS2. Echelle
approximative. ......................................................................................................................33
Tableau 5 - Tableau des écarts entre les différents maillages recalés selon la figure 45.
Valeurs en mm, mesurées à partir de la distance du maillage du projet concerné au maillage
composé de tous les précédents. .........................................................................................52
Tableau 6 - Tableau récapitulatif du calcul des 10 nuages de points. ...................................52
S o m m a i r e d e s a n n e x e s
Nolwenn Quéré - INSA de Strasbourg - 2013 66
B i b l i o g r a p h i e
3DReshaper@[avril 2013].
URL http://www.technodigit.com/fr1/Fr_3dreshaper.htm/.
Assali, P. [2010], Mise en valeur numérique et reconstruction 3D du théâtre gallo-romain de
Mandeure, Mémoire d'ingénieur de l'INSA de Strasbourg, spécialité Topographie, 68 p.
Autodesk@[2013], 123D Catch.
URL http://www.123dapp.com:80/catch/
Bauer, J., Sunderhauf, N. et Protzel, P. [2007], Comparing several implementations of two recently
published feature detectors. International Conference on Intelligent and Autonomous Systems, vol. 6,
No. pt 1.
Bay, H., Tuytelaars, T. et Van Gool, L. [2006], Surf: Speeded up robust features. Computer Vision–
ECCV 2006, Springer Berlin Heidelberg, pp. 404-417.
Bellet, M-E., Chazelles, C-A., Carme Belarte, M., Santacana, J., Golvin, J-C., Braun, J-P., Petit, J-P.,
André, P., Le Clainche, M., Jameson, J. H., ... [2005], De la restitution en archéologie. Idées et débats.
Editions du patrimoine.
Besl, P. J., et McKay, N. D. [1992], A method for registration of 3-D shapes. Conférence IEEE
Transactions on pattern analysis and machine intelligence, 14(2), pp. 239-256.
Boucheny, C., Bonneau, G. P., Droulez, J., Thibault, G. et Ploix, S. [2009], A perceptive evaluation of
volume rendering techniques. ACM Transactions on Applied Perception (TAP), 5(4), 23.
Bunnell, M. [2005], Dynamic ambient occlusion and indirect lighting. Gpugems, 2(2), pp. 223-233.
Daniel, G M [2012], CloudCompare.
URL http://www.danielgm.net/cc/
De Luca, L. [2009], La photomodélisation architecturale. Relevé, modélisation et représentation
d’édifices à partir de photographies, Editions Eyrolles. 263p.
Delaunay, J. [2011], Archeologie 3D.
URL http://archeologie3d.blogspot.com/
Duguet, F. et Girardeau-Montaut, D. [2004], Rendu en portion de ciel visible de gros nuages de points
3d. Actes des journees de l'AFIG.
Elter, R. et Hassoune, A. [2004], Le monastère de Saint-Hilarion à Tell Umm el-’Amr (bande de
gaza)(note d’information). Comptes-rendus des séances de l’Académie des Inscriptions et des Belles-
Lettres, 148è année, N.1,. pp. 359-382.
Elter, R. et Hassoune, A. [2007], Un exemple de continuité entre les IVe et VIIIe siècles : Le cas du
monastère de Saint-Hilarion à Tell Umm el-’Amr. Colloque international, Projet ANR "De l’Antiquité
tardive à l’Islam". pp. 187-204.
S o m m a i r e d e s a n n e x e s
Nolwenn Quéré - INSA de Strasbourg - 2013 67
Elter, R. et Hassoune, A. [2008], Le complexe du bain du monastère de Saint-Hilarion à Tell Umm el-
’Amr , première synthèse architecturale. Syria. 85, pp. 129–144.
Fuchs, A. [2006]. Outils numériques pour le relevé architectural et la restitution archéologique.
Mémoire de thèse, Université Henri Poincaré-Nancy I.
Furukawa, Y. et Ponce, J. [2007], Accurate, dense, and robust multi-view stereopsis. Acte de
conférence IEEE, Computer Vision and Pattern Recognition (CVPR).
Furukawa, Y., Curless, B., Seitz, S. M., et Szeliski, R. [2010], Towards internet-scale multi-view
stereo. Acte de conférence IEEE, Computer Vision and Pattern Recognition (CVPR).
Furukawa, Y. [2010a] Documentation on Clustering Views for Multi-View Stereo (CMVS).
URL http://grail.cs.washington.edu/software/cmvs/documentation.html
Furukawa, Y. et Ponce, J. [2010b] Documentation on Patchbased Multi-View Stereo Software (PMVS
- Version 2).
URL http://grail.cs.washington.edu/software/pmvs/documentation.html
Golvin, J-C. [2011], L’image de restitution et la restitution de l’image, vol1. Cours de Tunis.
Grauman, K. et Leibe, B. [2011], Visual object recognition. Vol. 11. Edition Morgan & Claypool
Publishers.
Harris, C. et Stephens M. [1988], A combined corner and edge detector. Alvey vision conference.Vol.
15.
Hullo, J.-F. [2009], Etude de la technique de corrélation épipolaire dense, application au chantier
archéologique de Kilwa, Arabie Saoudite, Mémoire d'ingénieur de l'INSA de Strasbourg, spécialité
Topographie, 50 p.
James, M. R. et Robson, S. [2012], Straightforward reconstruction of 3D surfaces and topography with
a camera: Accuracy and geoscience application. Journal of Geophysical Research: Earth Surface
117.F3.
Jancosek, M. et Pajdla, T. [2011], Multi-view reconstruction preserving weakly-supported surfaces.
Acte de conférence IEEE, Computer Vision and Pattern Recognition (CVPR).
Kersten, T. et Lindstaedt, M. [2012], Image-Based low-cost systems for automatic 3d recording and
modelling of archaeological finds and objects. Progress in Cultural Heritage Preservation, pp. 1-10.
Landes, T. [2010], Topométrie, G3, S6, Cours à l'Ecole Nationale Supérieure des Arts
et Industries de Strasbourg, spécialité Topographie.
Lowe, D G. [2004], Distinctive Image Features from Scale-Invariant Keypoints. IJCV, 60(2). pp. 91–
110.
Microsoft@[9 mai 2013], The Photosynth Photography Guid.
URL http://photosynth.net/
Mikolajczyk, K. et Schmid, C. [2001], Indexing based on scale invariant interest points. Acte de
conférence IEEE. Vol. 1. Computer Vision. ICCV.
S o m m a i r e d e s a n n e x e s
Nolwenn Quéré - INSA de Strasbourg - 2013 68
Mikolajczyk, K. et Schmid, C. [2005], A comparison of affine region detectors. International journal of
computer vision, 65.1-2. pp. 43-72.
Moisan, E. [2012], Numérisation 3D de la grotte ornée des Fraux : approche multiscalaire, Mémoire
d'ingénieur de l'INSA de Strasbourg, spécialité Topographie, 59 p.
Pollefeys, M., Koch, R., Vergauwen, M., et Van Gool, L. [1999], An automatic method for acquiring 3D
models from photographs: Applications to an archaeological site. ISPRS International Workshop on
Photogrammetric Measurements, Object Modeling and Documentation in Architecture and Industry.
Pottmann, H.,Leopoldseder, S. et Hoferl, M. [2002], Simultaneous registration of multiple views of a
3D object. International archives of photogrammetry remote sensing and spatial information
sciences 34.3/A. pp. 265-270.
Prudhomme, N. [9 septembre 2012], Stratigraphie.
URL http://www.archeologie-et-patrimoine.com/?p=87
Queste, D. [2006], Vers un processus automatique de modélisation du patrimoine architectural au
moyen de données lasergrammétriques - Le savoir architectural comme principale source
d’information. Mémoire de D.E.A., Ecole Nationale Supérieure d’Architecture de Nancy, Université
Henri Poincaré.
Ripoche, C. [2012], Contribution à l’élaboration de méthodes de restitution archéologique par
photogrammétrie - Application au monastère de Saint-Hilarion, Gaza, Mémoire d'ingénieur de l'INSA
de Strasbourg, spécialité Topographie, 64 p.
Remondino, F., Del Pizzo, S., Kersten, T. P., et Troisi, S. [2012], Low-Cost and Open-Source
Solutions for Automated Image Orientation – A Critical Overview. Progress in Cultural Heritage
Preservation, Springer Berlin Heidelberg, pp. 40-54.
SchnabeL, R., Wahl, R. et Klein, R. [2007], Efficient RANSAC for Point‐Cloud Shape Detection.
Computer Graphics Forum. Vol. 26. No. 2. BlackwellPublishing Ltd.
VisualSFM@[20 mai 2013].
URL https://groups.google.com/forum/?fromgroups#!forum/vSFM/
Wu, C., Agarwal, S., Curless, B., et Seitz, S. M. [2011], Multicore bundle adjustment. Acte de
conférence IEEE, Computer Vision and Pattern Recognition (CVPR).
Wu, C. [19 février 2013], Visual SFM.
URL http://www.cs.washington.edu/homes/ccwu/vSFM/
Yang, M. D., Chao, C. F., Huang, K. S., Lu, L. Y., et Chen, Y. P. [2012], Image-based 3D scene
reconstruction and exploration in augmented reality. Automation in Construction.
Références non citées
Al-Kheder, S., Al-Shawabkeh, Y. et HAala, N. [2009], Developing a documentation system for desert
palaces in Jordan using 3D laser scanning and digital photogrammetry. Journal of Archaeological
Science 36.2. pp. 537-546.
S o m m a i r e d e s a n n e x e s
Nolwenn Quéré - INSA de Strasbourg - 2013 69
Barazzetti, L. [2011], A trip to Rome: physical replicas of historical objects created in a fully automated
way from photos. Human-Computer Interaction, Tourism and Cultural Heritage.Springer Berlin
Heidelberg, pp. 63-72.
Baumberg, A. [2002], Blending images for texturing 3d models. Proceedings of the British Machine
Vision Conference.
Bitelli, G., Girelli, V. A., Remondino, F., et Vittuari, L. [2006), Surface modelling of complex
archaelogical structures by digital close-range photogrammetry. Bar international series, 1568, 321.
Chua, C. S. et Jarvis, R. [1996], 3D free-form surface registration and object recognition. International
journal of computer vision, 17(1), pp. 77-99.
De Reu, J., Plets, G., Verhoeven, G., De Smedt, P., Bats, M., Cherretté, B., De Clercq, W. [2012],
Towards a three-dimensional cost-effective registration of the archaeological heritage. Journal of
Archaeological Science.
Elter R. [2012], Gaza, le plus ancien monastère de Terre Sainte. Archéologia (n°505), pp. 34-51.
Falkingham, P. L. [2012], Acquisition of high resolution three-dimensional models using free, open-
source, photogrammetric software. Palaeontologia Electronica15.1.
Gal, R., Wexler, Y., Ofek, E., Hoppe, H., et Cohen‐Or, D. [2010], Seamless montage for texturing
models. Computer Graphics Forum.Vol. 29. No. 2. BlackwellPublishing Ltd.
Grussenmeyer, P. [2002], Photogrammétrie architecturale et modélisation 3D du patrimoine. Revue de
l'Association Française de Topographie, (95), pp. 30-36.
Juan, L. et Gwun, O. [2009], A comparison of sift, pca-sift and surf. International Journal of Image
Processing (IJIP), 3(4), pp. 143-152.
Pollefeys, M., Van Gool, L., Vergauwen, M., Cornelis, K., Verbiest, F., et Tops, J. [2001], Image-based
3D acquisition of archaeological heritage and applications. conference on Virtual reality, archeology,
and cultural heritage, pp. 255-262, ACM.
Pollefeys, M., Frahm, J. M., Fraundorfer, F., Zach, C., Wu, C., Clipp, B., et Gallup, D. [2011],
Challenges in Wide-area Structure-from-motion. Information and Media Technologies, 6(1), pp. 64-79.
Remondino, F. [2006], Detectors and descriptors for photogrammetric applications. International
Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences 36.3. pp. 49-54.
Zitnick, C. L. et Kang, S. B. [2007], Stereo for image-based rendering using image over-
segmentation. International Journal of Computer Vision, 75(1), pp. 49-65.
S o m m a i r e d e s a n n e x e s
Nolwenn Quéré - INSA de Strasbourg - 2013 70
S o m m a i r e d e s a n n e x e s
A - Niveaux de restitution........................................................................................................71
B - Préparation de la mission topographique..........................................................................73
C - Paramètres de PMVS2.....................................................................................................74
D - Filtre des nuages de points selon les normales................................................................76
A n n e x e A
Nolwenn Quéré - INSA de Strasbourg - 2013 71
A n n e x e A - Niveaux de restitution, Ripoche [2010]
Niveau 6 Le modèle de situation cherche à représenter le site archéologique dans son environnement proche et dans le territoire dans lequel il s’inscrit. Il s’agit d’un plan de situation en 3D qui permettra par exemple de décrire les déplacements autour du site en
analysant son implantation par rapport aux grands axes routiers, aux reliefs ou aux autres sites retrouvés dans les environs et datant de la même époque. Le but est donc de montrer toutes les interconnexions pouvant exister entre le site et les populations environnantes ou au commerce extérieur, par exemple. Niveau 5 Le niveau 5 possède les mêmes fonctions qu’un plan masse adapté pour permettre une
modalisation en 3D. Il permet une lecture rapide du lieu en mettant en avant l’organisation générale du site, le positionnement relatif des bâtiments et l’emplacement des entrées principales. Niveau 4 Le secteur est un ensemble de loci ou pièces ayant une même fonction. On peut citer par
exemple le sanctuaire ou la crypte. Le modèle d’un secteur permet d’étudier les techniques de construction, l’architecture du lieu, et d’analyser l’organisation au sein d’un même ensemble fonctionnel. Niveau 3 Le locus (pluriel : loci) est un lieu particulier, un emplacement décrit couramment comme
une pièce. Sa représentation permet de recréer l’environnement dans lequel les moines évoluaient, avec l’intégration de décors (ex. : enduits peints, mosaïques), de mobilier, d’objets relevés au cours des fouilles et modélisés. Niveau 2 L’unité stratigraphique est la plus petite entité d’une fouille archéologique. Elle peut être un mur, un sol, une couche de terre ou un objet. L’objectif de leur modélisation en 3D est de comprendre le « comment » de leur stratification et de le contextualiser par rapport à une période. Niveau 1
Les objets se divisent en plusieurs catégories : objets en lapidaire architectural (ex. :
colonnes, chapiteau), objets en terre cuite (ex. : lampe à huile, amphore) et objets
métalliques (ex. : monnaie, clou, épingle). L’objectif associé à leur modélisation en 3D est de
présenter leur intérêt, leur singularité, mais aussi d’utiliser des répliques lors d’une
restitution.
A n n e x e A
Nolwenn Quéré - INSA de Strasbourg - 2013 72
Désignation Besoins de représentation Objectifs Exemples Échelle de
représentation*
Précision du modèle a
priori ** 6 Modèle de
situation
Site dans son environnement proche et dans le territoire
Mettre en avant les interconnexions existant entre le site et le territoire dans lequel il est inséré
Position du site par rapport aux reliefs, axes routiers et autres éléments structurants
1/2000 au 1/1000
10 à 20 cm
5 Plan masse en 3D
Organisation générale du site, positionnement relatif des différents secteurs et bâtiments
Permettre une lecture rapide du site
Identification des secteurs, entrées, axes principaux
1/500 5 cm
4 Secteur Organisation interne du lieu, distribution des pièces, représentation architecturale
Préciser la lecture du lieu, étudier son évolution au cours du temps
Crypte, Sanctuaire
1/200 2 cm
3 Locus Environnement proche, lieux de vie avec décors, fonction, mobilier
Décrire les scènes de la vie quotidienne
Atrium 1/100 au 1/50
0,5 à 1 cm
2 Unité stratigraphique
Étude plus approfondie par des spécialistes de la mosaïque, des murs, définition des couches stratigraphiques, autres études
Aider le relevé pierre à pierre, analyser des techniques de construction au fil des siècles, définir les phases de construction du site
Mur, pavement, couches de terre
1/50 au 1/10 1 à 5 mm
1 Objet Représentation d'un objet d'intérêt
Montrer l'objet, ses caractéristiques, son intérêt, sa singularité
Colonne, Chapiteau Poterie Monnaie
1/10 ½ ou 1 x2 voire x5
1 mm 0,2 à 0,1 mm 0,05 à 0,02 mm
* On note que l'échelle de représentation associée aux différents niveaux de représentation est donnée à titre indicatif et qu'elle est susceptible d'évoluer suivant l'étendue du site / taille de l'objet considérée et les besoins de l'archéologue ** Précision déduite de l'échelle de représentation associée, en considérant une lecture à 50 cm (pouvoir séparateur de l'œil = 1/60°)
A n n e x e B
Nolwenn Quéré - INSA de Strasbourg - 2013 73
A n n e x e B - Préparation de la mission topographique
Récapitulatif des projets
Projet Surface (m²)
Nombre de photos utilisées
Nombre de Loci Nom des loci
1 324 421 6 218, 219, 220, 221, 230, 231
2 216 328 3 230, 231, 232
3 228 268 5 235, 236, 237, 238, 239
4 162 346 4 239, 240, 241, 313
5 624 549 2 240, 228
6 300 245 4 226, 241, 313, 405
7 486 334 11 213, 214, 215, 216, 217, 222, 223, 224, 225, 229, 227
8 360 339 6 210, 211, 212, 213, 214, 406
9 550 389 11 202, 203, 204, 205, 206, 207, 208, 209, 210, 409, 407
10 324 355 4 202, 203, 204, cour
Total 3574 3574
Moyenne 357 357
Photographies à compléter
Maillage du secteur 2
Liste des images manques du secteur 2
L.208
L.222 : mur nord-ouest (22086)
L.222 (murs 22079 et 22084), L.223, L.224, L.225
L.227 : mur de séparation avec les L.222, L.223, L.224
L.229 : mur nord-ouest (22093), partie ombragée sur les photos
L.235, L.237, L.238, L.239 : photographies de liaison entre le mur extérieur et le dessus du
mur. + photographies du dessus du mur
Cour est : mur extérieur (partie intérieure et extérieure et photographies de liaison)
A n n e x e C
Nolwenn Quéré - INSA de Strasbourg - 2013 74
A n n e x e C - Paramètres de PMVS2
Nom Valeur par défaut
Explication
timages Déterminée par CMVS
Target images. Ce sont les images utilisées pour la densification. La projection des points 3D doit couvrir entièrement (en dehors des masques) les target images.
Leur spécification peut être faite de deux manières : Par énumération : Le premier entier indique le nombre d’images et les suivants les indices des images. Par exemple, timages 3 1 6 8 signifie qu’il y a 3 images, les images 1, 6 et 8. Par intervalle : Le premier entier est -1 pour indiquer qu’il ne s’agit pas d’une énumération et les suivants la borne inférieure (inclue) et la borne supérieure (exclue) de l’intervalle. Par exemple : timages -1 0 6 désigne les images
0, 1, 2, 3, 4 et 5. oimages Déterminée
par CMVS Other images. Ces images sont également utilisées pour la reconstruction mais à la différence des timages, ne
nécessitent pas d’être entièrement couvertes ; elles ne servent qu’à augmenter la précision de la reconstruction. Elles sont spécifiées de la même manière que les timages.
level 1 Le logiciel reconstruit des images pyramidales. La valeur du level indique le niveau de l’image pyramidale utilisée dans le calcul. La valeur du level peut être 0, 1 ou 2. 0 signifie que la résolution entière de l’image est utilisée. 1 signifie que 1/4 des pixels de l’image sont utilisés. 2 signifie que 1/16 des pixels l’image sont utilisés.
csize 2 Cell size. Ce paramètre contrôle la densité de la reconstruction. La valeur de csize définit la taille d’une région de pixels (des images timages) au sein de laquelle au moins une correspondance de détecteurs doit exister. Plus le csize est grand, plus la reconstruction est éparse.
threshold 0,7 Seuil au-dessus duquel doit se trouver la mesure de cohérence photométrique pour que la reconstruction soit validée. Les valeurs de cohérence de la plus mauvaise à la meilleure vont de -1 à 1. Le logiciel répète trois itérations en diminuant pour chaque itération la valeur du threshold de 0,05.
wsize 7 Définit le rééchantillonnage des couleurs de pixels de chaque image. Plus le wsize augmente, plus les cellules seront
petites (donc plus il y aura de couleurs), plus la reconstruction sera stable (mais le temps de calcul augmente).
minImageNum 3 Nombre minimum d’images desquelles chaque point 3D est visible. La valeur minimale théorique est 2, mais la qualité de la texture peut engendrer des erreurs. C’est pourquoi il est conseillé d’augmenter la robustesse de la reconstruction en fixant ce paramètre à 3. Plus la texture est de mauvaise qualité, plus il est intéressant d’augmenter ce nombre.
CPU Selon l’ordinateur
Nombre de CPU virtuels de l’ordinateur. Il est conseillé d’utiliser tous les CPU disponibles pour augmenter la rapidité du calcul.
useVisData 0 Combiné avec un logiciel SFM, avec lequel on connait les
A n n e x e C
Nolwenn Quéré - INSA de Strasbourg - 2013 75
paramètres de caméra estimés, ce paramètre permet de choisir les images à apparier en créant un fichier vis.dat. Ce fichier est modifiable par l’utilisateur et lui permet de choisir manuellement les images utiles à la reconstruction 3D.
sequence -1 Indique le nombre d’images avant et après une image à utiliser. Par exemple pour une séquence de 3, l’image 5 peut être utilisée avec les images 2, 3, 4, 6, 7 et 8.
quad 2,5 Seuil de filtrage des points 3D. Plus cette valeur est grande, plus le nuage de points 3D risque de comporter du bruit.
maxAngle 10 Angle maximal en degré entre la direction du point 3D à 2 caméras le voyant. Si on augmente cet angle, la reconstruction des scènes éloignées des caméras est possible, en revanche elle risque d’être bruitée.
A n n e x e D
Nolwenn Quéré - INSA de Strasbourg - 2013 76
A n n e x e D - Filtre des nuages de points selon les normales
Supprimer l'en tête du fichier .ply et l'enregistrer au format .txt
ACCESS
IMPORT
Données externes > importer > fichier texte
Sélection du fichier .txt
Importer les données sources dans une nouvelle table de la base de données active
délimité>espace>aucun délimiteur
type de données : réel double (champs 1 à 6)
pas de clé primaire
FILTRE
Créer>autre>création de requête
sélection de la table
requête SQL:
SELECT *
FROM 230
WHERE ((SQR(((Champ1+Champ4)-Champ1)^2+((Champ2+Champ5)-
Champ2)^2+((Champ3+Champ6)-Champ3)^2)^2+SQR((Champ1-(-8.645945))^2+(Champ2-
(-0.145035))^2+(Champ3-(-12.691525))^2)^2-SQR(((-8.645945)-(Champ1+Champ4))^2+((-
0.145035)-(Champ2+Champ5))^2+((-12.691525)-
(Champ3+Champ6))^2)^2)/2/(SQR(((Champ1+Champ4)-Champ1)^2+((Champ2+Champ5)-
Champ2)^2+((Champ3+Champ6)-Champ3)^2)*SQR((Champ1-(-8.645945))^2+(Champ2-(-
0.145035))^2+(Champ3-(-12.691525))^2)))>0.8660253;
exécuter
EXPORT
Données externes>exporter>fichier texte
Sélection du fichier .txt de destination
délimité> espace>aucun délimiteur
Ouvrir le fichier texte et coller l'en tête d'un fichier .ply. en changeant le nombre de vertex
enregistrer au format .ply
Top Related