cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop....
Transcript of cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop....
![Page 1: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/1.jpg)
UE SPM-PHY-S07-101Outils mathematiques et numeriques pour la
physique
N. Fressengeas
Laboratoire Materiaux Optiques, Photonique et SystemesUnite de Recherche commune a l’Universite Paul Verlaine Metz et a Supelec
Document a telecharger sur http://moodle.univ-metz.fr/
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 1
![Page 2: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/2.jpg)
Quelques ouvrages. . .[GJP05, Pie01, Bis04]
Christopher M. Bishop.Neural Networks for Pattern Recognition, chapter7 :Parameter Optimization Algorithms.Oxford University Press, 2004.
2005 Grivet Jean-Philippe.Analyse numerique pour les sciences physiques.Association Libre Cours, 2005.
Nougier Jean Pierre.Methodes de calcul numerique.Hermes Sciences, 2001.
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 2
![Page 3: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/3.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Partie I
Formats numeriques et codage
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 3
![Page 4: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/4.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
I Formats numeriques et codage
1 Necessite d’un format de donneesFonctionnement d’un ordinateurStockage des donnees en memoireUn format, obligatoirement
2 Formats binairesFormats binaires simplesFormats binaires complexes
3 Formats ASCIILe code ASCIIFormats ASCII simplesFormats ASCII complexes
4 Formats d’imageAnalyse d’une image numeriqueVectoriel ou BitMap ?Formats comprimes avec ou sans perte ?Formats video N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 4
![Page 5: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/5.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Fonctionnement d’un ordinateurStockage des donnees en memoireUn format, obligatoirement
I Formats numeriques et codage1 Necessite d’un format de donnees
Fonctionnement d’un ordinateurStockage des donnees en memoireUn format, obligatoirement
2 Formats binairesFormats binaires simplesFormats binaires complexes
3 Formats ASCIILe code ASCIIFormats ASCII simplesFormats ASCII complexes
4 Formats d’imageAnalyse d’une image numeriqueVectoriel ou BitMap ?Formats comprimes avec ou sans perte ?Formats video
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 5
![Page 6: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/6.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Fonctionnement d’un ordinateurStockage des donnees en memoireUn format, obligatoirement
Fonctionnement elementaire d’un ordinateurCourte introduction pour ceux qui ne sauraient pas
Un ordinateur est un outil pour le traitement des donnees
Il utilise des donnees d’entree
Effectue dessus un traitement programmme
Fournit des donnees en sortie
Et c’est tout !
Les programmes les plus complexes se resument a ca
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 5
![Page 7: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/7.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Fonctionnement d’un ordinateurStockage des donnees en memoireUn format, obligatoirement
Fonctionnement elementaire d’un ordinateurCourte introduction pour ceux qui ne sauraient pas
Un ordinateur est un outil pour le traitement des donnees
Il utilise des donnees d’entree
Effectue dessus un traitement programmme
Fournit des donnees en sortie
Et c’est tout !
Les programmes les plus complexes se resument a ca
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 5
![Page 8: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/8.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Fonctionnement d’un ordinateurStockage des donnees en memoireUn format, obligatoirement
3 composants principaux
Le(s) microprocesseur(s) CPU
Effectue(nt) toutes1les taches de traitement
C’est un circuit electronique
Les informations sont transmises sur des bus : ensembles defils electriques
La memoire
Stockage des donnees d’entree et de sortie
Stockage des resultats intermediaires
Stockage des programmes de traitement
Les peripheriques
Sans eux, ni entree, ni sortie de donnee1Certaines taches de traitement, comme la gestion de l’affichage, peuvent
etre sous-traitees a des cartes specialiseesN. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 6
![Page 9: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/9.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Fonctionnement d’un ordinateurStockage des donnees en memoireUn format, obligatoirement
3 composants principaux
Le(s) microprocesseur(s) CPU
Effectue(nt) toutes1les taches de traitement
C’est un circuit electronique
Les informations sont transmises sur des bus : ensembles defils electriques
La memoire
Stockage des donnees d’entree et de sortie
Stockage des resultats intermediaires
Stockage des programmes de traitement
Les peripheriques
Sans eux, ni entree, ni sortie de donnee1Certaines taches de traitement, comme la gestion de l’affichage, peuvent
etre sous-traitees a des cartes specialiseesN. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 6
![Page 10: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/10.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Fonctionnement d’un ordinateurStockage des donnees en memoireUn format, obligatoirement
3 composants principaux
Le(s) microprocesseur(s) CPU
Effectue(nt) toutes1les taches de traitement
C’est un circuit electronique
Les informations sont transmises sur des bus : ensembles defils electriques
La memoire
Stockage des donnees d’entree et de sortie
Stockage des resultats intermediaires
Stockage des programmes de traitement
Les peripheriques
Sans eux, ni entree, ni sortie de donnee1Certaines taches de traitement, comme la gestion de l’affichage, peuvent
etre sous-traitees a des cartes specialiseesN. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 6
![Page 11: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/11.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Fonctionnement d’un ordinateurStockage des donnees en memoireUn format, obligatoirement
La memoire2 grands types de memoire
La memoire vive RAM
Tres rapide (ns)
Capacitee limitee a quelques Giga Octets
Sert au stockage temporaire des donnees
Le Disque Dur HDD
103 a 106 fois plus lent que la RAM
Grandes capacites (Tera Octet)
Stockage permanent
Emulation de la RAM (swap) si elle vient a manquer
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 7
![Page 12: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/12.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Fonctionnement d’un ordinateurStockage des donnees en memoireUn format, obligatoirement
La memoire2 grands types de memoire
La memoire vive RAM
Tres rapide (ns)
Capacitee limitee a quelques Giga Octets
Sert au stockage temporaire des donnees
Le Disque Dur HDD
103 a 106 fois plus lent que la RAM
Grandes capacites (Tera Octet)
Stockage permanent
Emulation de la RAM (swap) si elle vient a manquer
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 7
![Page 13: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/13.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Fonctionnement d’un ordinateurStockage des donnees en memoireUn format, obligatoirement
I Formats numeriques et codage1 Necessite d’un format de donnees
Fonctionnement d’un ordinateurStockage des donnees en memoireUn format, obligatoirement
2 Formats binairesFormats binaires simplesFormats binaires complexes
3 Formats ASCIILe code ASCIIFormats ASCII simplesFormats ASCII complexes
4 Formats d’imageAnalyse d’une image numeriqueVectoriel ou BitMap ?Formats comprimes avec ou sans perte ?Formats video
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 8
![Page 14: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/14.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Fonctionnement d’un ordinateurStockage des donnees en memoireUn format, obligatoirement
Cellule (BIT) de RAM
Un simple condensateur BIT
charge/non charge : 1/0
Tres volatile
Rafraichissement regulier (ms)
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 8
![Page 15: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/15.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Fonctionnement d’un ordinateurStockage des donnees en memoireUn format, obligatoirement
Organisation et traitement de la memoire
BITs regroupes en Octets
1 octet : 8 BITS a 0 ou 1
1 octet ! entier de 0 a 28 − 1 = 255
Traitement des octets par le microprocesseur
Un par un pour les microprocesseurs 8 bits Z81,6809
2 par 2 pour les microprocesseurs 16 bits Motorola,68000
Quatre a la fois pour les 32 bits Intel
8 a la fois pour les 64 bits AMD/Intel
Octets organise en un tableau unique
Chacun porte un numero : son adresse
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 9
![Page 16: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/16.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Fonctionnement d’un ordinateurStockage des donnees en memoireUn format, obligatoirement
Organisation et traitement de la memoire
BITs regroupes en Octets
1 octet : 8 BITS a 0 ou 1
1 octet ! entier de 0 a 28 − 1 = 255
Traitement des octets par le microprocesseur
Un par un pour les microprocesseurs 8 bits Z81,6809
2 par 2 pour les microprocesseurs 16 bits Motorola,68000
Quatre a la fois pour les 32 bits Intel
8 a la fois pour les 64 bits AMD/Intel
Octets organise en un tableau unique
Chacun porte un numero : son adresse
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 9
![Page 17: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/17.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Fonctionnement d’un ordinateurStockage des donnees en memoireUn format, obligatoirement
Organisation et traitement de la memoire
BITs regroupes en Octets
1 octet : 8 BITS a 0 ou 1
1 octet ! entier de 0 a 28 − 1 = 255
Traitement des octets par le microprocesseur
Un par un pour les microprocesseurs 8 bits Z81,6809
2 par 2 pour les microprocesseurs 16 bits Motorola,68000
Quatre a la fois pour les 32 bits Intel
8 a la fois pour les 64 bits AMD/Intel
Octets organise en un tableau unique
Chacun porte un numero : son adresse
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 9
![Page 18: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/18.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Fonctionnement d’un ordinateurStockage des donnees en memoireUn format, obligatoirement
I Formats numeriques et codage1 Necessite d’un format de donnees
Fonctionnement d’un ordinateurStockage des donnees en memoireUn format, obligatoirement
2 Formats binairesFormats binaires simplesFormats binaires complexes
3 Formats ASCIILe code ASCIIFormats ASCII simplesFormats ASCII complexes
4 Formats d’imageAnalyse d’une image numeriqueVectoriel ou BitMap ?Formats comprimes avec ou sans perte ?Formats video
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 10
![Page 19: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/19.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Fonctionnement d’un ordinateurStockage des donnees en memoireUn format, obligatoirement
Prenons un exempleComment stocker les entiers negatifs ou superieurs a 255 ?
Stockage des grands entiers
8 bits ne suffisent pas : prenons 2 octets
2 octets : entiers de 0 a 216 − 1 = 65535
b1111 1111 1111 1110 vaut donc 65534
Nombre negatifs
Prenons la convention du complement2a 2 :
Si le premier BIT est 1, le nombre represente est l’oppose ducomplement a 2 des autres bits
b1111 1111 1111 1110 vaut −b000 0000 0000 0001 donc −1
2Cette convention est commode car, grace a elle, l’addition relative estcompatible avec les additionneur binaires de nombres entiers naturels
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 10
![Page 20: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/20.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Fonctionnement d’un ordinateurStockage des donnees en memoireUn format, obligatoirement
Prenons un exempleComment stocker les entiers negatifs ou superieurs a 255 ?
Stockage des grands entiers
8 bits ne suffisent pas : prenons 2 octets
2 octets : entiers de 0 a 216 − 1 = 65535
b1111 1111 1111 1110 vaut donc 65534
Nombre negatifs
Prenons la convention du complement2a 2 :
Si le premier BIT est 1, le nombre represente est l’oppose ducomplement a 2 des autres bits
b1111 1111 1111 1110 vaut −b000 0000 0000 0001 donc −1
2Cette convention est commode car, grace a elle, l’addition relative estcompatible avec les additionneur binaires de nombres entiers naturels
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 10
![Page 21: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/21.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Fonctionnement d’un ordinateurStockage des donnees en memoireUn format, obligatoirement
Un format pour les entiers
b1111 1111 1111 1110 65534 ou −1 ?
Stocke-t-on des entiers relatif (ou non) ?
Il faut le definir a priori
C’est le format de ces 2 octets
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 11
![Page 22: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/22.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Fonctionnement d’un ordinateurStockage des donnees en memoireUn format, obligatoirement
Meme les entiers naturels posent probleme
Big Endian Little Endian
Prenons b1000 0000 0000 0000, entier naturel sur 2 octets
Stockons l’octet de poids fort (b1000 0000) dans l’adresse laplus basse
Puis l’octet de poids faible (b0000 0000) dans l’adresse la plushaute
C’est le format Big Endian
On aurait pu faire le contraire
Definition prealable du format
Un entier naturel : 2 octets et un format
Si on se trompe de format 215 = 32768 devient 27 = 128
Chaque processeur sa convention
(Intel :Little Endian, Motorola,SUN :Big Endian)N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 12
![Page 23: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/23.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Fonctionnement d’un ordinateurStockage des donnees en memoireUn format, obligatoirement
Meme les entiers naturels posent probleme
Big Endian Little Endian
Prenons b1000 0000 0000 0000, entier naturel sur 2 octets
Stockons l’octet de poids fort (b1000 0000) dans l’adresse laplus basse
Puis l’octet de poids faible (b0000 0000) dans l’adresse la plushaute
C’est le format Big Endian
On aurait pu faire le contraire
Definition prealable du format
Un entier naturel : 2 octets et un format
Si on se trompe de format 215 = 32768 devient 27 = 128
Chaque processeur sa convention
(Intel :Little Endian, Motorola,SUN :Big Endian)N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 12
![Page 24: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/24.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Fonctionnement d’un ordinateurStockage des donnees en memoireUn format, obligatoirement
Meme les entiers naturels posent probleme
Big Endian Little Endian
Prenons b1000 0000 0000 0000, entier naturel sur 2 octets
Stockons l’octet de poids fort (b1000 0000) dans l’adresse laplus basse
Puis l’octet de poids faible (b0000 0000) dans l’adresse la plushaute
C’est le format Big Endian
On aurait pu faire le contraire
Definition prealable du format
Un entier naturel : 2 octets et un format
Si on se trompe de format 215 = 32768 devient 27 = 128
Chaque processeur sa convention
(Intel :Little Endian, Motorola,SUN :Big Endian)N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 12
![Page 25: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/25.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Formats binaires simplesFormats binaires complexes
I Formats numeriques et codage1 Necessite d’un format de donnees
Fonctionnement d’un ordinateurStockage des donnees en memoireUn format, obligatoirement
2 Formats binairesFormats binaires simplesFormats binaires complexes
3 Formats ASCIILe code ASCIIFormats ASCII simplesFormats ASCII complexes
4 Formats d’imageAnalyse d’une image numeriqueVectoriel ou BitMap ?Formats comprimes avec ou sans perte ?Formats video
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 13
![Page 26: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/26.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Formats binaires simplesFormats binaires complexes
Comment enregistrer la memoire sur le disque ?C’est simple, BIT a BIT, non ?
Format binaire brut
Ecriture de la memoire telle quelle sur le disque (BIT a BIT)
Rapide, simple et econome
Exemple en C : le fonction write
Inconvenients majeurs
Ne peut etre relu QUE sur une machine du meme type3
Souvent uniquement par le meme programme
3La convention BigEndian/LittleEndian doit par exemple rester inchangeeN. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 13
![Page 27: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/27.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Formats binaires simplesFormats binaires complexes
Comment enregistrer la memoire sur le disque ?C’est simple, BIT a BIT, non ?
Format binaire brut
Ecriture de la memoire telle quelle sur le disque (BIT a BIT)
Rapide, simple et econome
Exemple en C : le fonction write
Inconvenients majeurs
Ne peut etre relu QUE sur une machine du meme type3
Souvent uniquement par le meme programme
3La convention BigEndian/LittleEndian doit par exemple rester inchangeeN. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 13
![Page 28: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/28.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Formats binaires simplesFormats binaires complexes
Exemple de format binaire simple bien connu*.EXE,*.DLL sous WindowsTM
Les fichiers executables
Ils doivent etre transcrits tel quels en memoire
Pour y etre executes
Ils contiennent des codes d’iunstructions du microprocesseur
Corrolaire
Ne sont lisible que sur le type de machine qui l’a ecrit
Souvent avec le meme systeme d’exploitation uniquement
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 14
![Page 29: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/29.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Formats binaires simplesFormats binaires complexes
Exemple de format binaire simple bien connu*.EXE,*.DLL sous WindowsTM
Les fichiers executables
Ils doivent etre transcrits tel quels en memoire
Pour y etre executes
Ils contiennent des codes d’iunstructions du microprocesseur
Corrolaire
Ne sont lisible que sur le type de machine qui l’a ecrit
Souvent avec le meme systeme d’exploitation uniquement
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 14
![Page 30: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/30.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Formats binaires simplesFormats binaires complexes
I Formats numeriques et codage1 Necessite d’un format de donnees
Fonctionnement d’un ordinateurStockage des donnees en memoireUn format, obligatoirement
2 Formats binairesFormats binaires simplesFormats binaires complexes
3 Formats ASCIILe code ASCIIFormats ASCII simplesFormats ASCII complexes
4 Formats d’imageAnalyse d’une image numeriqueVectoriel ou BitMap ?Formats comprimes avec ou sans perte ?Formats video
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 15
![Page 31: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/31.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Formats binaires simplesFormats binaires complexes
Lorsque la simple copie de memoire ne suffit plusIl faut complexifier les formats binaires
Stocher des documents complexes
Necessite de stocker des informations de structure en plus descopies memoire
Exemples de formats binaires complexes
Fichiers Microsoft Office (avant 2007) : *.DOC. . .
Format HDF (Hierarchical Data File)
Format Origin. . .
Inconvenients majeurs
Formats proprietaires, structure inconnue
Interoperabilite nulle
Sauf quand le format est publie (HDF)
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 15
![Page 32: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/32.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Formats binaires simplesFormats binaires complexes
Lorsque la simple copie de memoire ne suffit plusIl faut complexifier les formats binaires
Stocher des documents complexes
Necessite de stocker des informations de structure en plus descopies memoire
Exemples de formats binaires complexes
Fichiers Microsoft Office (avant 2007) : *.DOC. . .
Format HDF (Hierarchical Data File)
Format Origin. . .
Inconvenients majeurs
Formats proprietaires, structure inconnue
Interoperabilite nulle
Sauf quand le format est publie (HDF)
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 15
![Page 33: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/33.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Formats binaires simplesFormats binaires complexes
Lorsque la simple copie de memoire ne suffit plusIl faut complexifier les formats binaires
Stocher des documents complexes
Necessite de stocker des informations de structure en plus descopies memoire
Exemples de formats binaires complexes
Fichiers Microsoft Office (avant 2007) : *.DOC. . .
Format HDF (Hierarchical Data File)
Format Origin. . .
Inconvenients majeurs
Formats proprietaires, structure inconnue
Interoperabilite nulle
Sauf quand le format est publie (HDF)
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 15
![Page 34: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/34.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Le code ASCIIFormats ASCII simplesFormats ASCII complexes
I Formats numeriques et codage1 Necessite d’un format de donnees
Fonctionnement d’un ordinateurStockage des donnees en memoireUn format, obligatoirement
2 Formats binairesFormats binaires simplesFormats binaires complexes
3 Formats ASCIILe code ASCIIFormats ASCII simplesFormats ASCII complexes
4 Formats d’imageAnalyse d’une image numeriqueVectoriel ou BitMap ?Formats comprimes avec ou sans perte ?Formats video
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 16
![Page 35: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/35.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Le code ASCIIFormats ASCII simplesFormats ASCII complexes
Le code ASCIIAmerican Standard Code for Information Interchange
Un code standard pour coder les caracteres
Standardise dans les annees 60
Un octet = un caracteres
Caracteres de controle 0 a 31
7 : beep
10 : Line Feed
13 : Carriage Return
Exemples
48 a 57 : les chiffres
65 a 90 : les majuscules
97 a 122 : les minuscules4
4Entre A et a : modification du BIT 6N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 16
![Page 36: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/36.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Le code ASCIIFormats ASCII simplesFormats ASCII complexes
Le code ASCIIAmerican Standard Code for Information Interchange
Un code standard pour coder les caracteres
Standardise dans les annees 60
Un octet = un caracteres
Caracteres de controle 0 a 31
7 : beep
10 : Line Feed
13 : Carriage Return
Exemples
48 a 57 : les chiffres
65 a 90 : les majuscules
97 a 122 : les minuscules4
4Entre A et a : modification du BIT 6N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 16
![Page 37: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/37.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Le code ASCIIFormats ASCII simplesFormats ASCII complexes
Code ASCII. . . encore un probleme de format
Pour aller a la ligne avec une vieille machine a ecrire
Retour charriot CR
Descente d’une ligne LF
Codage du retour a la ligne
WindowsTM : CR+LF
MacOS : CR
Unix/Linux : LF
Conversion de format texte entre plateforme
Soit faite par le logiciel de transfert e.g. ftp en mode texte
Soit a faire a posteriori
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 17
![Page 38: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/38.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Le code ASCIIFormats ASCII simplesFormats ASCII complexes
Code ASCII. . . encore un probleme de format
Pour aller a la ligne avec une vieille machine a ecrire
Retour charriot CR
Descente d’une ligne LF
Codage du retour a la ligne
WindowsTM : CR+LF
MacOS : CR
Unix/Linux : LF
Conversion de format texte entre plateforme
Soit faite par le logiciel de transfert e.g. ftp en mode texte
Soit a faire a posteriori
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 17
![Page 39: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/39.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Le code ASCIIFormats ASCII simplesFormats ASCII complexes
Code ASCII. . . encore un probleme de format
Pour aller a la ligne avec une vieille machine a ecrire
Retour charriot CR
Descente d’une ligne LF
Codage du retour a la ligne
WindowsTM : CR+LF
MacOS : CR
Unix/Linux : LF
Conversion de format texte entre plateforme
Soit faite par le logiciel de transfert e.g. ftp en mode texte
Soit a faire a posteriori
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 17
![Page 40: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/40.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Le code ASCIIFormats ASCII simplesFormats ASCII complexes
Notion d’encodageCodage des accents et autres cedilles
Le code ASCII definit 7 bits de 0 a 127
Les codes de 128 a 255 sont disponibles
Il faut en definir le format
C’est l’encodage
Format d’encodage
Les formats d’encodage sont tres variables
D’une plateforme a une autre
D’un pays a un autre
Peu de normalisation. . .
e.g. UTF-8, Latin1 (ISO 8859-1). . .
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 18
![Page 41: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/41.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Le code ASCIIFormats ASCII simplesFormats ASCII complexes
Notion d’encodageCodage des accents et autres cedilles
Le code ASCII definit 7 bits de 0 a 127
Les codes de 128 a 255 sont disponibles
Il faut en definir le format
C’est l’encodage
Format d’encodage
Les formats d’encodage sont tres variables
D’une plateforme a une autre
D’un pays a un autre
Peu de normalisation. . .
e.g. UTF-8, Latin1 (ISO 8859-1). . .
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 18
![Page 42: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/42.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Le code ASCIIFormats ASCII simplesFormats ASCII complexes
I Formats numeriques et codage1 Necessite d’un format de donnees
Fonctionnement d’un ordinateurStockage des donnees en memoireUn format, obligatoirement
2 Formats binairesFormats binaires simplesFormats binaires complexes
3 Formats ASCIILe code ASCIIFormats ASCII simplesFormats ASCII complexes
4 Formats d’imageAnalyse d’une image numeriqueVectoriel ou BitMap ?Formats comprimes avec ou sans perte ?Formats video
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 19
![Page 43: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/43.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Le code ASCIIFormats ASCII simplesFormats ASCII complexes
Formats ASCII simplesLA solution a l’interoperabilite
Utilisation du codage ASCII de preference sans encodage
Interoperabilite maximum
Lisible par la plupart des ordinateurs et logiciels
e.g. : stockage des nombres par leur ecriture decimale
Utilisation tres repandue
Tous les fichiers de configuration de Linux
Format Comma5Separated Value
Et bien d’autres. . .
Un inconvenient
Taille des fichiers beaucoup plus importante qu’en binaire
Solution : la compression5La Comma du format est une virgule qui peut etre remplacee par autre
chose N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 19
![Page 44: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/44.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Le code ASCIIFormats ASCII simplesFormats ASCII complexes
Formats ASCII simplesLA solution a l’interoperabilite
Utilisation du codage ASCII de preference sans encodage
Interoperabilite maximum
Lisible par la plupart des ordinateurs et logiciels
e.g. : stockage des nombres par leur ecriture decimale
Utilisation tres repandue
Tous les fichiers de configuration de Linux
Format Comma5Separated Value
Et bien d’autres. . .
Un inconvenient
Taille des fichiers beaucoup plus importante qu’en binaire
Solution : la compression5La Comma du format est une virgule qui peut etre remplacee par autre
chose N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 19
![Page 45: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/45.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Le code ASCIIFormats ASCII simplesFormats ASCII complexes
Formats ASCII simplesLA solution a l’interoperabilite
Utilisation du codage ASCII de preference sans encodage
Interoperabilite maximum
Lisible par la plupart des ordinateurs et logiciels
e.g. : stockage des nombres par leur ecriture decimale
Utilisation tres repandue
Tous les fichiers de configuration de Linux
Format Comma5Separated Value
Et bien d’autres. . .
Un inconvenient
Taille des fichiers beaucoup plus importante qu’en binaire
Solution : la compression5La Comma du format est une virgule qui peut etre remplacee par autre
chose N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 19
![Page 46: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/46.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Le code ASCIIFormats ASCII simplesFormats ASCII complexes
I Formats numeriques et codage1 Necessite d’un format de donnees
Fonctionnement d’un ordinateurStockage des donnees en memoireUn format, obligatoirement
2 Formats binairesFormats binaires simplesFormats binaires complexes
3 Formats ASCIILe code ASCIIFormats ASCII simplesFormats ASCII complexes
4 Formats d’imageAnalyse d’une image numeriqueVectoriel ou BitMap ?Formats comprimes avec ou sans perte ?Formats video
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 20
![Page 47: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/47.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Le code ASCIIFormats ASCII simplesFormats ASCII complexes
Les formats ASCII complexesDes formats simples qui se sont complexifies peu a peu
Des formats polyvalents
Interoperabilite des formats ASCII
Flexibilite des formats complexes
Permettent de decrire a peu pres tout
Normalisation des formats complexes : la norme XML
Formats tres repandus
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 20
![Page 48: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/48.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Le code ASCIIFormats ASCII simplesFormats ASCII complexes
Exemples de formats ASCII complexes
Formats repondant a la norme XML
HTML Protocole WWW
Open Document1 OpenOffice *.odt,*.ods...
OpenXML1 MS Office *.docx,*.xlsx...
. . .
Autres formats ASCII complexes
LATEX
PostScript, PortableDocumentFormat
. . .
1Si vous tentez d’ouvrir ces fichiers avec un editeur de texte simple, vousaurez l’impression que c’est un format binaire. Il s’agit cependant d’une simplecompression (ZIP) de fichiers ASCII.
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 21
![Page 49: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/49.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Le code ASCIIFormats ASCII simplesFormats ASCII complexes
Exemples de formats ASCII complexes
Formats repondant a la norme XML
HTML Protocole WWW
Open Document1 OpenOffice *.odt,*.ods...
OpenXML1 MS Office *.docx,*.xlsx...
. . .
Autres formats ASCII complexes
LATEX
PostScript, PortableDocumentFormat
. . .
1Si vous tentez d’ouvrir ces fichiers avec un editeur de texte simple, vousaurez l’impression que c’est un format binaire. Il s’agit cependant d’une simplecompression (ZIP) de fichiers ASCII.
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 21
![Page 50: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/50.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Analyse d’une image numeriqueVectoriel ou BitMap ?Formats comprimes avec ou sans perte ?Formats video
I Formats numeriques et codage1 Necessite d’un format de donnees
Fonctionnement d’un ordinateurStockage des donnees en memoireUn format, obligatoirement
2 Formats binairesFormats binaires simplesFormats binaires complexes
3 Formats ASCIILe code ASCIIFormats ASCII simplesFormats ASCII complexes
4 Formats d’imageAnalyse d’une image numeriqueVectoriel ou BitMap ?Formats comprimes avec ou sans perte ?Formats video
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 22
![Page 51: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/51.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Analyse d’une image numeriqueVectoriel ou BitMap ?Formats comprimes avec ou sans perte ?Formats video
Caracteristiques d’une image numerique
Une image analogique echantillonnee Pas toujours
Ensemble fini de points
Echantillonage 2D : un pas en x , un autre en y
Un codage de couleur en chaque point
Caracteristiques d’une image numerique
Sa resolution, eventuellement differente en x et y
Resolution = Nombre de pointsTaille
Sa profondeur de couleur
Nombre de BITs utilises pour le codage des couleurs
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 22
![Page 52: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/52.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Analyse d’une image numeriqueVectoriel ou BitMap ?Formats comprimes avec ou sans perte ?Formats video
Caracteristiques d’une image numerique
Une image analogique echantillonnee Pas toujours
Ensemble fini de points
Echantillonage 2D : un pas en x , un autre en y
Un codage de couleur en chaque point
Caracteristiques d’une image numerique
Sa resolution, eventuellement differente en x et y
Resolution = Nombre de pointsTaille
Sa profondeur de couleur
Nombre de BITs utilises pour le codage des couleurs
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 22
![Page 53: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/53.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Analyse d’une image numeriqueVectoriel ou BitMap ?Formats comprimes avec ou sans perte ?Formats video
Caracteristiques d’une image numerique
Une image analogique echantillonnee Pas toujours
Ensemble fini de points
Echantillonage 2D : un pas en x , un autre en y
Un codage de couleur en chaque point
Caracteristiques d’une image numerique
Sa resolution, eventuellement differente en x et y
Resolution = Nombre de pointsTaille
Sa profondeur de couleur
Nombre de BITs utilises pour le codage des couleurs
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 22
![Page 54: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/54.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Analyse d’une image numeriqueVectoriel ou BitMap ?Formats comprimes avec ou sans perte ?Formats video
Prenons un exemplePrise de vue avec un appareil numerique conventionnel 5Mpixels
Caracteritiques de l’image
Nombre de points : 1944 ∗ 2592 = 5 038 848
Profondeur de couleur : 3 ∗ 8 = 24 BITs
256 niveaux pour chaque couleur primaire
soit 224 = 16 777 216 couleurs
Memoire totale utilisee :
3 ∗ 5 038 848 = 15 116 544 octets ≈15Mo.
Sa resolution depend de la taille physique souhaitee e.g. 30*40cm
194430 = 64, 8 ≈ 2592
40 = 64, 9points/cm ≈ 165DotPerInch
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 23
![Page 55: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/55.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Analyse d’une image numeriqueVectoriel ou BitMap ?Formats comprimes avec ou sans perte ?Formats video
Prenons un exemplePrise de vue avec un appareil numerique conventionnel 5Mpixels
Caracteritiques de l’image
Nombre de points : 1944 ∗ 2592 = 5 038 848
Profondeur de couleur : 3 ∗ 8 = 24 BITs
256 niveaux pour chaque couleur primaire
soit 224 = 16 777 216 couleurs
Memoire totale utilisee :
3 ∗ 5 038 848 = 15 116 544 octets ≈15Mo.
Sa resolution depend de la taille physique souhaitee e.g. 30*40cm
194430 = 64, 8 ≈ 2592
40 = 64, 9points/cm ≈ 165DotPerInch
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 23
![Page 56: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/56.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Analyse d’une image numeriqueVectoriel ou BitMap ?Formats comprimes avec ou sans perte ?Formats video
Prenons un exemplePrise de vue avec un appareil numerique conventionnel 5Mpixels
Caracteritiques de l’image
Nombre de points : 1944 ∗ 2592 = 5 038 848
Profondeur de couleur : 3 ∗ 8 = 24 BITs
256 niveaux pour chaque couleur primaire
soit 224 = 16 777 216 couleurs
Memoire totale utilisee :
3 ∗ 5 038 848 = 15 116 544 octets ≈15Mo.
Sa resolution depend de la taille physique souhaitee e.g. 30*40cm
194430 = 64, 8 ≈ 2592
40 = 64, 9points/cm ≈ 165DotPerInch
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 23
![Page 57: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/57.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Analyse d’une image numeriqueVectoriel ou BitMap ?Formats comprimes avec ou sans perte ?Formats video
I Formats numeriques et codage1 Necessite d’un format de donnees
Fonctionnement d’un ordinateurStockage des donnees en memoireUn format, obligatoirement
2 Formats binairesFormats binaires simplesFormats binaires complexes
3 Formats ASCIILe code ASCIIFormats ASCII simplesFormats ASCII complexes
4 Formats d’imageAnalyse d’une image numeriqueVectoriel ou BitMap ?Formats comprimes avec ou sans perte ?Formats video
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 24
![Page 58: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/58.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Analyse d’une image numeriqueVectoriel ou BitMap ?Formats comprimes avec ou sans perte ?Formats video
Format BitMap vs. format vectoriel
Codage BitMap
1 1 1 0 0 01 1 1 0 0 01 1 1 0 0 00 0 0 0 0 00 0 0 0 0 00 0 0 0 0 0
Codage vectoriel
Un carre rouge (x1, y1)
Un carre vert (x2, y2)
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 24
![Page 59: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/59.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Analyse d’une image numeriqueVectoriel ou BitMap ?Formats comprimes avec ou sans perte ?Formats video
Format BitMap vs. format vectoriel
Codage BitMap
1 1 1 0 0 01 1 1 0 0 01 1 1 0 0 00 0 0 0 0 00 0 0 0 0 00 0 0 0 0 0
Codage vectoriel
Un carre rouge (x1, y1)
Un carre vert (x2, y2)
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 24
![Page 60: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/60.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Analyse d’une image numeriqueVectoriel ou BitMap ?Formats comprimes avec ou sans perte ?Formats video
Les formats vectorielsPour la description des figures geometriques
Avantages
Tres faible encombrement memoire
Description independante de la resolution
Resolution virtuellement infinie
Inconvenients
IL n’y en a pas pour les objets geometriques
A part (peut etre) le manque d’outils populaires pour lesmanipuler6
Encombrement memoire enorme pour une image echantillonee
Sauf ci celle-ci est consideree comme un objet BitMap
6Citons Inkscape, excellent logiciel libre qui manipule la plupart desformats vectoriels
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 25
![Page 61: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/61.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Analyse d’une image numeriqueVectoriel ou BitMap ?Formats comprimes avec ou sans perte ?Formats video
Les formats vectorielsPour la description des figures geometriques
Avantages
Tres faible encombrement memoire
Description independante de la resolution
Resolution virtuellement infinie
Inconvenients
IL n’y en a pas pour les objets geometriques
A part (peut etre) le manque d’outils populaires pour lesmanipuler6
Encombrement memoire enorme pour une image echantillonee
Sauf ci celle-ci est consideree comme un objet BitMap
6Citons Inkscape, excellent logiciel libre qui manipule la plupart desformats vectoriels
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 25
![Page 62: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/62.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Analyse d’une image numeriqueVectoriel ou BitMap ?Formats comprimes avec ou sans perte ?Formats video
Les formats vectorielsPour la description des figures geometriques
Avantages
Tres faible encombrement memoire
Description independante de la resolution
Resolution virtuellement infinie
Inconvenients
IL n’y en a pas pour les objets geometriques
A part (peut etre) le manque d’outils populaires pour lesmanipuler6
Encombrement memoire enorme pour une image echantillonee
Sauf ci celle-ci est consideree comme un objet BitMap
6Citons Inkscape, excellent logiciel libre qui manipule la plupart desformats vectoriels
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 25
![Page 63: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/63.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Analyse d’une image numeriqueVectoriel ou BitMap ?Formats comprimes avec ou sans perte ?Formats video
Formats combines
Insertion d’une BitMap dans un format vectoriel
La plupart des formats vecoriels permettent d’inserer des objetsBitMap en tant qu’objets vecoriels
Fig.: Insertion d’une image BitMap dans cette presentation vectorielle
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 26
![Page 64: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/64.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Analyse d’une image numeriqueVectoriel ou BitMap ?Formats comprimes avec ou sans perte ?Formats video
En pratique
Choix d’un format BitMap
Photos
Images analogiques numerisees
Choix d’un format vectoriel
Diagrammes
Schemas
Images geometriques
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 27
![Page 65: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/65.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Analyse d’une image numeriqueVectoriel ou BitMap ?Formats comprimes avec ou sans perte ?Formats video
En pratique
Choix d’un format BitMap
Photos
Images analogiques numerisees
Taille du fichier
Enorme
Recours a la compression
Choix d’un format vectoriel
Diagrammes
Schemas
Images geometriques
Taille du fichier
Tout petit
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 27
![Page 66: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/66.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Analyse d’une image numeriqueVectoriel ou BitMap ?Formats comprimes avec ou sans perte ?Formats video
En pratique
Choix d’un format BitMap
Photos
Images analogiques numerisees
Taille du fichier
Enorme
Recours a la compression
Formats utilises
Graphics Interchange Format
Joint Photographic ExpertsGroup
Portable Network Graphics
Tagged Image File Format
Choix d’un format vectoriel
Diagrammes
Schemas
Images geometriques
Taille du fichier
Tout petit
Formats utilises
PostScript
Portable Document Format
Scalable Vector Graphics
Windows Meta File
Enhanced Meta FileN. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 27
![Page 67: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/67.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Analyse d’une image numeriqueVectoriel ou BitMap ?Formats comprimes avec ou sans perte ?Formats video
I Formats numeriques et codage1 Necessite d’un format de donnees
Fonctionnement d’un ordinateurStockage des donnees en memoireUn format, obligatoirement
2 Formats binairesFormats binaires simplesFormats binaires complexes
3 Formats ASCIILe code ASCIIFormats ASCII simplesFormats ASCII complexes
4 Formats d’imageAnalyse d’une image numeriqueVectoriel ou BitMap ?Formats comprimes avec ou sans perte ?Formats video
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 28
![Page 68: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/68.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Analyse d’une image numeriqueVectoriel ou BitMap ?Formats comprimes avec ou sans perte ?Formats video
Formats comprimes sans perte PNG,GIF...
Principe : elimination de la redondance
1 1 1 0 0 01 1 1 0 0 01 1 1 0 0 00 0 0 0 0 00 0 0 0 0 00 0 0 0 0 0
⇒
3 1 3 036 03
Meme principe que la compression ZIP standard
Fonctionne tres mal avec des photos
A reserver aux images geometriques que l’on ne peut avoir enformat vectoriel
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 28
![Page 69: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/69.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Analyse d’une image numeriqueVectoriel ou BitMap ?Formats comprimes avec ou sans perte ?Formats video
Formats comprimes sans perte PNG,GIF...
Principe : elimination de la redondance
1 1 1 0 0 01 1 1 0 0 01 1 1 0 0 00 0 0 0 0 00 0 0 0 0 00 0 0 0 0 0
⇒
3 1 3 036 03
Meme principe que la compression ZIP standard
Fonctionne tres mal avec des photos
A reserver aux images geometriques que l’on ne peut avoir enformat vectoriel
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 28
![Page 70: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/70.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Analyse d’une image numeriqueVectoriel ou BitMap ?Formats comprimes avec ou sans perte ?Formats video
Formats comprimes avec pertePrise en compte des performances limitees de l’œil humain
Les performances de l’œil – et du cerveau – humain
Vision Noir & Blanc detaillee et peripheriques
Gestion des couleurs centrale et peu resolue
Consequences pour le codage des images
La luminance doit etre bien resolue
Les couleurs – la chrominance – peuvent l’etre moins
Et donc. . . le codage JPEG
Decomposition Luminance-Chrominance
Transformee de Fourier spatiale 2D
Suppression des hautes frequences spatiales invisibles
Compression jusqu’a un facteur 25 sans perte apparente dequalite
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 29
![Page 71: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/71.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Analyse d’une image numeriqueVectoriel ou BitMap ?Formats comprimes avec ou sans perte ?Formats video
Formats comprimes avec pertePrise en compte des performances limitees de l’œil humain
Les performances de l’œil – et du cerveau – humain
Vision Noir & Blanc detaillee et peripheriques
Gestion des couleurs centrale et peu resolue
Consequences pour le codage des images
La luminance doit etre bien resolue
Les couleurs – la chrominance – peuvent l’etre moins
Et donc. . . le codage JPEG
Decomposition Luminance-Chrominance
Transformee de Fourier spatiale 2D
Suppression des hautes frequences spatiales invisibles
Compression jusqu’a un facteur 25 sans perte apparente dequalite
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 29
![Page 72: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/72.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Analyse d’une image numeriqueVectoriel ou BitMap ?Formats comprimes avec ou sans perte ?Formats video
Formats comprimes avec pertePrise en compte des performances limitees de l’œil humain
Les performances de l’œil – et du cerveau – humain
Vision Noir & Blanc detaillee et peripheriques
Gestion des couleurs centrale et peu resolue
Consequences pour le codage des images
La luminance doit etre bien resolue
Les couleurs – la chrominance – peuvent l’etre moins
Et donc. . . le codage JPEG
Decomposition Luminance-Chrominance
Transformee de Fourier spatiale 2D
Suppression des hautes frequences spatiales invisibles
Compression jusqu’a un facteur 25 sans perte apparente dequalite
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 29
![Page 73: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/73.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Analyse d’une image numeriqueVectoriel ou BitMap ?Formats comprimes avec ou sans perte ?Formats video
Formats comprimes avec pertePrise en compte des performances limitees de l’œil humain
Les performances de l’œil – et du cerveau – humain
Vision Noir & Blanc detaillee et peripheriques
Gestion des couleurs centrale et peu resolue
Consequences pour le codage des images
La luminance doit etre bien resolue
Les couleurs – la chrominance – peuvent l’etre moins
Et donc. . . le codage JPEG
Decomposition Luminance-Chrominance
Transformee de Fourier spatiale 2D
Suppression des hautes frequences spatiales invisibles
Compression jusqu’a un facteur 25 sans perte apparente dequalite
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 29
![Page 74: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/74.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Analyse d’une image numeriqueVectoriel ou BitMap ?Formats comprimes avec ou sans perte ?Formats video
JPEG : attention aux schemas et graphiquesLes codages avec perte sont concus pour coder les images analogiques numerisees
Ca bave. . .
Schemas et graphiques : hautes frequences spatiales
Codage JPEG adapte aux image analogiques numerisees
Resultat peu convaincant. . .
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 30
![Page 75: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/75.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Analyse d’une image numeriqueVectoriel ou BitMap ?Formats comprimes avec ou sans perte ?Formats video
I Formats numeriques et codage1 Necessite d’un format de donnees
Fonctionnement d’un ordinateurStockage des donnees en memoireUn format, obligatoirement
2 Formats binairesFormats binaires simplesFormats binaires complexes
3 Formats ASCIILe code ASCIIFormats ASCII simplesFormats ASCII complexes
4 Formats d’imageAnalyse d’une image numeriqueVectoriel ou BitMap ?Formats comprimes avec ou sans perte ?Formats video
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 31
![Page 76: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/76.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Analyse d’une image numeriqueVectoriel ou BitMap ?Formats comprimes avec ou sans perte ?Formats video
Les formats video MPEGDu fait de l’enorme taille des fichiers, les formats video sont des formats de codage
Codage JPEG image par image
Norme MJPEG. . . abandonnee
Exploitation de la redondance temporelle
On ne code que les changements
MPEG 1/2 ou 4
Trois normes qui different par le taux de compression
Utilisation
MPEG 1 : abandonnee
MPEG 2 : DVD / TNT Gratuite
MPEG 4 : TNT payante / television sur IP
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 31
![Page 77: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/77.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Analyse d’une image numeriqueVectoriel ou BitMap ?Formats comprimes avec ou sans perte ?Formats video
Les formats video MPEGDu fait de l’enorme taille des fichiers, les formats video sont des formats de codage
Codage JPEG image par image
Norme MJPEG. . . abandonnee
Exploitation de la redondance temporelle
On ne code que les changements
MPEG 1/2 ou 4
Trois normes qui different par le taux de compression
Utilisation
MPEG 1 : abandonnee
MPEG 2 : DVD / TNT Gratuite
MPEG 4 : TNT payante / television sur IP
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 31
![Page 78: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/78.jpg)
Necessite d’un format de donneesFormats binaires
Formats ASCIIFormats d’image
Analyse d’une image numeriqueVectoriel ou BitMap ?Formats comprimes avec ou sans perte ?Formats video
Les formats video MPEGDu fait de l’enorme taille des fichiers, les formats video sont des formats de codage
Codage JPEG image par image
Norme MJPEG. . . abandonnee
Exploitation de la redondance temporelle
On ne code que les changements
MPEG 1/2 ou 4
Trois normes qui different par le taux de compression
Utilisation
MPEG 1 : abandonnee
MPEG 2 : DVD / TNT Gratuite
MPEG 4 : TNT payante / television sur IP
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 31
![Page 79: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/79.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Partie II
Resolution numerique des systemes lineaires
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 32
![Page 80: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/80.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
II Resolution numerique des systemes lineaires
5 Methodes directesLe pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
6 Conditionnement d’un systeme lineaireNotion de conditionnementAttitude a adopter face a un systeme mal conditionneNotion de pre-conditionnement
7 Methodes iterativesMethodes iteratives et matrices creusesPrincipes generauxQuelques methodes classiques
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 33
![Page 81: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/81.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
Resoudre des systemes lineaires, pourquoi ?Et pourquoi faire un cours la-dessus, vous l’avez appris au lycee !
On en trouve partout
Physique, Chimie, Mecanique. . .
Generalement issus de la resolution des EquationsDifferentielles (ED)
Pas si faciles a resoudre
Pour les systemes lineaires simples : substitution, addition. . .
Les ED generent de grands systemes : 1000 inconnues ou plus
Necessite d’une methode systematique programmable
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 34
![Page 82: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/82.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
Resoudre des systemes lineaires, pourquoi ?Et pourquoi faire un cours la-dessus, vous l’avez appris au lycee !
On en trouve partout
Physique, Chimie, Mecanique. . .
Generalement issus de la resolution des EquationsDifferentielles (ED)
Pas si faciles a resoudre
Pour les systemes lineaires simples : substitution, addition. . .
Les ED generent de grands systemes : 1000 inconnues ou plus
Necessite d’une methode systematique programmable
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 34
![Page 83: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/83.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
Resoudre des systemes lineaires, pourquoi ?Et pourquoi faire un cours la-dessus, vous l’avez appris au lycee !
On en trouve partout
Physique, Chimie, Mecanique. . .
Generalement issus de la resolution des EquationsDifferentielles (ED)
Pas si faciles a resoudre
Pour les systemes lineaires simples : substitution, addition. . .
Les ED generent de grands systemes : 1000 inconnues ou plus
Necessite d’une methode systematique programmable
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 34
![Page 84: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/84.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
Methodes systematiques de resolutionDeux grandes classes
Les methode directes
Le pivot de Gauss en est le meilleur representant
Elles donnent un resultat exact aux erreurs d’arrondi pres
Les methode indirectes
Ce sont des methodes iteratives
On construit une suite convergent vers la solution
La solution trouvee est toujours approchee
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 35
![Page 85: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/85.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
Methodes systematiques de resolutionDeux grandes classes
Les methode directes
Le pivot de Gauss en est le meilleur representant
Elles donnent un resultat exact aux erreurs d’arrondi pres
Les methode indirectes
Ce sont des methodes iteratives
On construit une suite convergent vers la solution
La solution trouvee est toujours approchee
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 35
![Page 86: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/86.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
II Resolution numerique des systemes lineaires
5 Methodes directesLe pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
6 Conditionnement d’un systeme lineaireNotion de conditionnementAttitude a adopter face a un systeme mal conditionneNotion de pre-conditionnement
7 Methodes iterativesMethodes iteratives et matrices creusesPrincipes generauxQuelques methodes classiques
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 36
![Page 87: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/87.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
La methode du Pivot de GaussC’est la methode reine, toutes les autres en decoule
Principe
Objectif : transformer un systeme lineaire en un systeme dutype Rx = c
avec R triangulaire superieure R =
r11 · · · r1n
. . ....
0 rnn
La solution d’un systeme triangulaire est directe
Par substitution a partir de la derniere ligne
On peut le resoudre formellement
∀i : rii 6= 0⇒ xi =1
rii
(ci −
n∑k=i+1
rikxk
)
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 36
![Page 88: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/88.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
La methode du Pivot de GaussC’est la methode reine, toutes les autres en decoule
Principe
Objectif : transformer un systeme lineaire en un systeme dutype Rx = c
avec R triangulaire superieure R =
r11 · · · r1n
. . ....
0 rnn
La solution d’un systeme triangulaire est directe
Par substitution a partir de la derniere ligne
On peut le resoudre formellement
∀i : rii 6= 0⇒ xi =1
rii
(ci −
n∑k=i+1
rikxk
)
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 36
![Page 89: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/89.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
Description formelle de la methode du pivot de Gauss
Systeme a resoudre Ax = b
A =
a11 · · · a1n...
...an1 · · · ann
b =
b1...
bn
Pour mettre des 0 sur la premiere colonne de la ligne k
Si L1 est la premiere ligne
Soustraire ak1a11
L1 a la ligne k
a11 est appele le pivot
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 37
![Page 90: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/90.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
Description formelle de la methode du pivot de Gauss
Systeme a resoudre Ax = b
A =
a11 · · · a1n...
...an1 · · · ann
b =
b1...
bn
Pour mettre des 0 sur la premiere colonne de la ligne k
Si L1 est la premiere ligne
Soustraire ak1a11
L1 a la ligne k
a11 est appele le pivot
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 37
![Page 91: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/91.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
Apres la premiere etape
Un nouveau systeme a resoudre A′x = b′
A =
a11 a12 · · · a1n
0 a′22 · · · a′1n...
......
0 a′n2 · · · a′nn
b =
b1
b′2...
b′n
Et on recommence sur la sous matrice. . .
Quelques remarques. . .
La premiere ligne est inchangee
le second membre b doit subir les meme modifications
Ceci n’est possible que si tous les aii sont non nuls
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 38
![Page 92: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/92.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
Apres la premiere etape
Un nouveau systeme a resoudre A′x = b′
A =
a11 a12 · · · a1n
0 a′22 · · · a′1n...
......
0 a′n2 · · · a′nn
b =
b1
b′2...
b′n
Et on recommence sur la sous matrice. . .
Quelques remarques. . .
La premiere ligne est inchangee
le second membre b doit subir les meme modifications
Ceci n’est possible que si tous les aii sont non nuls
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 38
![Page 93: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/93.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
Choix du pivot Ax = bQue faire si le pivot est nul ou trop petit ?
Si le pivot est nul
Une permutation de lignes ou de colonnes resout le probleme
Lignes permutees ? Elements de b aussi !
Colonnes permutees ? x doit l’etre aussi !
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 39
![Page 94: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/94.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
Un pivot trop petit ?Un pivot trop petit induit des erreurs d’arrondi
L’ordinateur n’aime pas diviser par de petits nombres
Si δ est connu a ε pres, comme dans tout ordinateur
Comparez l’erreur relative obtenue sur le calcul de 1/δ
Pour δ = 2εPour δ = 106ε
Un bon pivot doit etre grand . . . voire le plus grand possible
Methode du pivot partiel : permuter les lignes pour obtenir leplus grand pivot
Methode du pivot total : permuter lignes et colonnes
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 40
![Page 95: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/95.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
Un pivot trop petit ?Un pivot trop petit induit des erreurs d’arrondi
L’ordinateur n’aime pas diviser par de petits nombres
Si δ est connu a ε pres, comme dans tout ordinateur
Comparez l’erreur relative obtenue sur le calcul de 1/δ
Pour δ = 2εPour δ = 106ε
Un bon pivot doit etre grand . . . voire le plus grand possible
Methode du pivot partiel : permuter les lignes pour obtenir leplus grand pivot
Methode du pivot total : permuter lignes et colonnes
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 40
![Page 96: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/96.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
Et si, malgre tout le pivot est nulDe l’inconvenient d’avoir un petit pivot
Tous les pivots possibles sont nuls
A un pas de la methode, impossibilite de trouver un pivot nonnuls
Cela signifie qu’une des inconnues a toujours un coefficient nul
Le systeme n’est pas solvable : il est dit singulier
Il possede une infinite de solution ou pas du tout
Si le pivot est trop petit
Le systeme est surement mal conditionne (presque singulier)
On en parle a la fin de cette partie
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 41
![Page 97: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/97.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
Et si, malgre tout le pivot est nulDe l’inconvenient d’avoir un petit pivot
Tous les pivots possibles sont nuls
A un pas de la methode, impossibilite de trouver un pivot nonnuls
Cela signifie qu’une des inconnues a toujours un coefficient nul
Le systeme n’est pas solvable : il est dit singulier
Il possede une infinite de solution ou pas du tout
Si le pivot est trop petit
Le systeme est surement mal conditionne (presque singulier)
On en parle a la fin de cette partie
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 41
![Page 98: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/98.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
Algorithme du Pivot de Gauss Ax = bResume
1 Determiner (r , s) tel que |ars | = maxi ,j|ai ,j |
2 Si |ars | = 0 alors STOP, le systeme est singulier
3 Sinon echanger lignes (et colonnes) pour obtenir le systemeAx = b
4 Pour i > 1 :
Si L1 est la premiere ligneSoustraire ai1
a11∗ L1 a la ligne i
Pour obtenir le nouveau systeme A′ ∗ x ′ = b′
5 Recommencer en (1) avec la sous-matrice A′ de A privee despremieres ligne et colonne
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 42
![Page 99: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/99.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
Algorithme du Pivot de Gauss Ax = bResume
1 Determiner (r , s) tel que |ars | = maxi ,j|ai ,j |
2 Si |ars | = 0 alors STOP, le systeme est singulier
3 Sinon echanger lignes (et colonnes) pour obtenir le systemeAx = b
4 Pour i > 1 :
Si L1 est la premiere ligneSoustraire ai1
a11∗ L1 a la ligne i
Pour obtenir le nouveau systeme A′ ∗ x ′ = b′
5 Recommencer en (1) avec la sous-matrice A′ de A privee despremieres ligne et colonne
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 42
![Page 100: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/100.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
Algorithme du Pivot de Gauss Ax = bResume
1 Determiner (r , s) tel que |ars | = maxi ,j|ai ,j |
2 Si |ars | = 0 alors STOP, le systeme est singulier
3 Sinon echanger lignes (et colonnes) pour obtenir le systemeAx = b
4 Pour i > 1 :
Si L1 est la premiere ligneSoustraire ai1
a11∗ L1 a la ligne i
Pour obtenir le nouveau systeme A′ ∗ x ′ = b′
5 Recommencer en (1) avec la sous-matrice A′ de A privee despremieres ligne et colonne
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 42
![Page 101: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/101.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
Algorithme du Pivot de Gauss Ax = bResume
1 Determiner (r , s) tel que |ars | = maxi ,j|ai ,j |
2 Si |ars | = 0 alors STOP, le systeme est singulier
3 Sinon echanger lignes (et colonnes) pour obtenir le systemeAx = b
4 Pour i > 1 :
Si L1 est la premiere ligneSoustraire ai1
a11∗ L1 a la ligne i
Pour obtenir le nouveau systeme A′ ∗ x ′ = b′
5 Recommencer en (1) avec la sous-matrice A′ de A privee despremieres ligne et colonne
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 42
![Page 102: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/102.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
Algorithme du Pivot de Gauss Ax = bResume
1 Determiner (r , s) tel que |ars | = maxi ,j|ai ,j |
2 Si |ars | = 0 alors STOP, le systeme est singulier
3 Sinon echanger lignes (et colonnes) pour obtenir le systemeAx = b
4 Pour i > 1 :
Si L1 est la premiere ligneSoustraire ai1
a11∗ L1 a la ligne i
Pour obtenir le nouveau systeme A′ ∗ x ′ = b′
5 Recommencer en (1) avec la sous-matrice A′ de A privee despremieres ligne et colonne
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 42
![Page 103: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/103.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
II Resolution numerique des systemes lineaires
5 Methodes directesLe pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
6 Conditionnement d’un systeme lineaireNotion de conditionnementAttitude a adopter face a un systeme mal conditionneNotion de pre-conditionnement
7 Methodes iterativesMethodes iteratives et matrices creusesPrincipes generauxQuelques methodes classiques
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 43
![Page 104: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/104.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
Notations matricielles des permutations
Permutation des lignes i et j A = Pij ∗ A
Pij =
11
0 · · · 1...
. . ....
1 · · · 01
Matrice identite dont les elements (i , i) et (j , j) sont permutesavec (i , j) et (j , i)
Multiplication a gauche : permutation des lignes
A droite : permutation des colonnes
Remarque : Pij−1 = Pij
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 43
![Page 105: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/105.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
Notation matricielle de l’operation PivotComment mettre des 0 dans une colonnes a l’aide d’un produit matriciel
Soustraire Soustraire ai1a11∗ L1 a la ligne i A′ = GA
G =
1 0 · · · · · · · · · 0
−a21a11
1. . .
...
−a31a11
0. . .
. . ....
......
. . .. . .
. . ....
......
. . . 1 0
−an1a11
0 · · · · · · 0 1
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 44
![Page 106: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/106.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
Remarque sur l’inverse de G
Il est facile a trouver7
G−1 =
1 0 · · · · · · · · · 0
+a21a11
1. . .
...
+a31a11
0. . .
. . ....
......
. . .. . .
. . ....
......
. . . 1 0
+an1a11
0 · · · · · · 0 1
7Chercher une demonstration sans calculN. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 45
![Page 107: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/107.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
Notation matricielle de la methode de Gauss
Chaque etape conduit a produire des 0 sur la colonne suivante
A→ A[1] → A[2] → · · · → A[j] → · · · → R
b → b[1] → b[2] → · · · → b[j] → · · · → c
Forme de A[j]
A[j] =
∗ · · · ∗. . .
...0 ∗
(jj)
∗
0 ∗
avec A[j] = G[j]P[j]A[j−1] et b[j] = G[j]P[j]b[j−1]
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 46
![Page 108: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/108.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
Notation matricielle de la methode de Gauss
Chaque etape conduit a produire des 0 sur la colonne suivante
A→ A[1] → A[2] → · · · → A[j] → · · · → R
b → b[1] → b[2] → · · · → b[j] → · · · → c
Forme de A[j]
A[j] =
∗ · · · ∗. . .
...0 ∗
(jj)
∗
0 ∗
avec A[j] = G[j]P[j]A[j−1] et b[j] = G[j]P[j]b[j−1]
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 46
![Page 109: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/109.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
Expression matricielle de la matrice triangulaire R
Rappel
A[j] = G[j]P[j]A[j−1]
b[j] = G[j]P[j]b[j−1]
On en deduit
R =
(1∏
k=n−1
G[k]P[k]
)A
c =
(1∏
k=n−1
G[k]P[k]
)b
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 47
![Page 110: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/110.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
Decomposition8L.R : produit de deux matrices triangulairesDans le cas particulier ou aucune permutation n’est requise
Si aucune permutation n’est necessaire
Si ∀k,P [k] = I alors R =
(1∏
k=n−1
G[k]
)A
Donc A =
(k=n−1∏
1
G[k]−1
)︸ ︷︷ ︸Triangulaire inferieure
× R = L.R
7On parle aussi de decomposition L.U. (Lower.Upper)N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 48
![Page 111: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/111.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
Decomposition LR dans le cas general
La permutation de A est parfois necessaire
Pour eviter les pivots non nuls
Mais aussi pour choisir les meilleurs pivots
Decomposition LR conventionnelle
A = PLR ou P est une matrice de permutation
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 49
![Page 112: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/112.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
Decomposition LR dans le cas general
La permutation de A est parfois necessaire
Pour eviter les pivots non nuls
Mais aussi pour choisir les meilleurs pivots
Decomposition LR conventionnelle
A = PLR ou P est une matrice de permutation
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 49
![Page 113: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/113.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
De l’utilite de la decomposition LR
Resolution de systemes lineaires pour divers seconds membres
Supposons A = PLR
A resoudre : Ax = bi pour divers i
PL (Rx) = bi{Rx = yPLy = bi
Ce sont deux systemes triangulaires9simples a resoudre
Utiliser la decomposition LR formellement revient a utiliser lamethode de Gauss
Autres utilisations
Inversion matricielle
Calcul de determinant9Le deuxieme systeme est triangulaire a une permutation pres, ce qui ne
change pas la complexite de sa resolution.N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 50
![Page 114: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/114.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
De l’utilite de la decomposition LR
Resolution de systemes lineaires pour divers seconds membres
Supposons A = PLR
A resoudre : Ax = bi pour divers i
PL (Rx) = bi{Rx = yPLy = bi
Ce sont deux systemes triangulaires9simples a resoudre
Utiliser la decomposition LR formellement revient a utiliser lamethode de Gauss
Autres utilisations
Inversion matricielle
Calcul de determinant9Le deuxieme systeme est triangulaire a une permutation pres, ce qui ne
change pas la complexite de sa resolution.N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 50
![Page 115: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/115.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
De l’utilite de la decomposition LR
Resolution de systemes lineaires pour divers seconds membres
Supposons A = PLR
A resoudre : Ax = bi pour divers i
PL (Rx) = bi{Rx = yPLy = bi
Ce sont deux systemes triangulaires9simples a resoudre
Utiliser la decomposition LR formellement revient a utiliser lamethode de Gauss
Autres utilisations
Inversion matricielle
Calcul de determinant9Le deuxieme systeme est triangulaire a une permutation pres, ce qui ne
change pas la complexite de sa resolution.N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 50
![Page 116: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/116.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
De l’utilite de la decomposition LR
Resolution de systemes lineaires pour divers seconds membres
Supposons A = PLR
A resoudre : Ax = bi pour divers i
PL (Rx) = bi{Rx = yPLy = bi
Ce sont deux systemes triangulaires9simples a resoudre
Utiliser la decomposition LR formellement revient a utiliser lamethode de Gauss
Autres utilisations
Inversion matricielle
Calcul de determinant9Le deuxieme systeme est triangulaire a une permutation pres, ce qui ne
change pas la complexite de sa resolution.N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 50
![Page 117: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/117.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
De l’utilite de la decomposition LR
Resolution de systemes lineaires pour divers seconds membres
Supposons A = PLR
A resoudre : Ax = bi pour divers i
PL (Rx) = bi{Rx = yPLy = bi
Ce sont deux systemes triangulaires9simples a resoudre
Utiliser la decomposition LR formellement revient a utiliser lamethode de Gauss
Autres utilisations
Inversion matricielle
Calcul de determinant9Le deuxieme systeme est triangulaire a une permutation pres, ce qui ne
change pas la complexite de sa resolution.N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 50
![Page 118: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/118.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
De la superiorite numerique de la methode de GaussTous les logiciels de calcul utilisent la methode de Gauss pour le calcul de determinant,l’inversion. . .
Pivot de Gauss ou calcul de l’inverse ?
Ax = b pourrait se resoudre par le calcul de l’inverse :x = A−1b
Le calcul de l’inverse pourrait etre fait par une autremethode10
La methode du Pivot est la plus rapide (complexite en n3/2)
10e.g. en utilisant A× tcommA = det A× IN. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 51
![Page 119: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/119.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
De la superiorite numerique de la methode de GaussTous les logiciels de calcul utilisent la methode de Gauss pour le calcul de determinant,l’inversion. . .
Pivot de Gauss ou calcul de l’inverse ?
Ax = b pourrait se resoudre par le calcul de l’inverse :x = A−1b
Le calcul de l’inverse pourrait etre fait par une autremethode10
La methode du Pivot est la plus rapide (complexite en n3/2)
10e.g. en utilisant A× tcommA = det A× IN. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 51
![Page 120: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/120.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
II Resolution numerique des systemes lineaires
5 Methodes directesLe pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
6 Conditionnement d’un systeme lineaireNotion de conditionnementAttitude a adopter face a un systeme mal conditionneNotion de pre-conditionnement
7 Methodes iterativesMethodes iteratives et matrices creusesPrincipes generauxQuelques methodes classiques
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 52
![Page 121: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/121.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
Elimination de Gauss-JordanUne autre presentation de la methode de Gauss
Resolution d’un systeme Ax = b
([A] [b]
)⇒
∗ · · · · · · ∗
0. . .
......
. . .. . .
...0 · · · 0 ∗
[c]
Systeme triangulaire resolu a l’aide de formules directes
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 52
![Page 122: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/122.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
Elimination de Gauss-JordanUne autre presentation de la methode de Gauss
Resolution d’un systeme Ax = b
([A] [b]
)⇒
∗ · · · · · · ∗
0. . .
......
. . .. . .
...0 · · · 0 ∗
[c]
⇒
1 0 · · · 0
0. . .
. . ....
.... . .
. . . 00 · · · 0 1
[x ]
Systeme triangulaire resolu a l’aide du Pivot de Gauss (inverse)
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 52
![Page 123: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/123.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
Elimination de Gauss-JordanUne autre presentation de la methode de Gauss
Resolution d’un systeme Ax = b
([A] [b]
)⇒
∗ · · · · · · ∗
0. . .
......
. . .. . .
...0 · · · 0 ∗
[c]
⇒
1 0 · · · 0
0. . .
. . ....
.... . .
. . . 00 · · · 0 1
[x ]
Systeme triangulaire resolu a l’aide du Pivot de Gauss (inverse)
Remarque sur le Pivot Total
Si le Pivot Total est utilise, la permutation des colonnespermute le vecteur solution [x ]
La remontee ne peut faire l’objet de recherche de pivot
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 52
![Page 124: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/124.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
Elimination de Gauss-JordanApplication au calcul de l’inverse matriciel
Determiner l’inverse de A, c’est resoudre des systemes
Chaque colonne de l’inverse est solution d’un systeme :
dont la matrice est Ale second membre est un vecteur de base
Proposition : les resoudre tous en meme temps
Le calcul de l’inverse le plus rapide qui soit
[A]
1 0 · · · 0
0. . .
. . ....
.... . .
. . . 00 · · · 0 1
=⇒
1 0 · · · 0
0. . .
. . ....
.... . .
. . . 00 · · · 0 1
[A−1
]
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 53
![Page 125: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/125.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
Elimination de Gauss-JordanApplication au calcul de l’inverse matriciel
Determiner l’inverse de A, c’est resoudre des systemes
Chaque colonne de l’inverse est solution d’un systeme :
dont la matrice est Ale second membre est un vecteur de base
Proposition : les resoudre tous en meme temps
Le calcul de l’inverse le plus rapide qui soit
[A]
1 0 · · · 0
0. . .
. . ....
.... . .
. . . 00 · · · 0 1
=⇒
1 0 · · · 0
0. . .
. . ....
.... . .
. . . 00 · · · 0 1
[A−1
]
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 53
![Page 126: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/126.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Le pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
Elimination de Gauss-JordanApplication au calcul de l’inverse matriciel
Determiner l’inverse de A, c’est resoudre des systemes
Chaque colonne de l’inverse est solution d’un systeme :
dont la matrice est Ale second membre est un vecteur de base
Proposition : les resoudre tous en meme temps
Le calcul de l’inverse le plus rapide qui soit
[A]
1 0 · · · 0
0. . .
. . ....
.... . .
. . . 00 · · · 0 1
=⇒
1 0 · · · 0
0. . .
. . ....
.... . .
. . . 00 · · · 0 1
[A−1
]
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 53
![Page 127: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/127.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Notion de conditionnementAttitude a adopter face a un systeme mal conditionneNotion de pre-conditionnement
II Resolution numerique des systemes lineaires
5 Methodes directesLe pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
6 Conditionnement d’un systeme lineaireNotion de conditionnementAttitude a adopter face a un systeme mal conditionneNotion de pre-conditionnement
7 Methodes iterativesMethodes iteratives et matrices creusesPrincipes generauxQuelques methodes classiques
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 54
![Page 128: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/128.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Notion de conditionnementAttitude a adopter face a un systeme mal conditionneNotion de pre-conditionnement
Un systeme mal conditionne ?Prenons un exemple
Systeme A{x1 − x2 = 1
1, 002x1 − x2 = 1
Systeme B{x1 − x2 = 1, 001
1, 002x1 − x2 = 1
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 54
![Page 129: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/129.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Notion de conditionnementAttitude a adopter face a un systeme mal conditionneNotion de pre-conditionnement
Un systeme mal conditionne ?Prenons un exemple
Systeme A{x1 − x2 = 1
1, 002x1 − x2 = 1
Solution{x1 = 0x2 = −1
Systeme B{x1 − x2 = 1, 001
1, 002x1 − x2 = 1
Solution{x1 = 0, 5x2 = −0, 5
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 54
![Page 130: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/130.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Notion de conditionnementAttitude a adopter face a un systeme mal conditionneNotion de pre-conditionnement
Un systeme mal conditionne ?Prenons un exemple
Systeme A{x1 − x2 = 1
1, 002x1 − x2 = 1
Solution{x1 = 0x2 = −1
Systeme B{x1 − x2 = 1, 001
1, 002x1 − x2 = 1
Solution{x1 = 0, 5x2 = −0, 5
Deux systemes quasi identiques
Ils ne different que de 0, 1%
Leurs solutions sont tres differentes
Ils sont dits mal conditionnes
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 54
![Page 131: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/131.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Notion de conditionnementAttitude a adopter face a un systeme mal conditionneNotion de pre-conditionnement
Systemes mal conditionnesInterpretation graphique pour un systeme a 2 inconnues
Droites quasi-paralleles
Une variation infime de l’ordonneea l’origine ou de la pente modifiele point d’intersection substantielle-ment
x1
x2
AB
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 55
![Page 132: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/132.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Notion de conditionnementAttitude a adopter face a un systeme mal conditionneNotion de pre-conditionnement
De l’importance du conditionnement d’un systeme lineaire
Sources d’erreur
Analyse numerique toujours faite par ordinateur
Le stockage en memoire cree des erreurs d’arrondi
Si je resous un systeme mal conditionne
Les coefficients sont entaches d’erreurs
Le resultat n’a aucune signification
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 56
![Page 133: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/133.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Notion de conditionnementAttitude a adopter face a un systeme mal conditionneNotion de pre-conditionnement
De l’importance du conditionnement d’un systeme lineaire
Sources d’erreur
Analyse numerique toujours faite par ordinateur
Le stockage en memoire cree des erreurs d’arrondi
Si je resous un systeme mal conditionne
Les coefficients sont entaches d’erreurs
Le resultat n’a aucune signification
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 56
![Page 134: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/134.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Notion de conditionnementAttitude a adopter face a un systeme mal conditionneNotion de pre-conditionnement
Definition quantitative du conditionnementEn anglais, le Condition Number
Conditionnement de Ax = b
cond (A) = ‖A‖.‖A−1‖
Cette definition est valide quelle que soit la norme matricielle choisie
Erreur sur le second membre
‖Mx‖‖x‖
≤ cond (A)‖Mb‖‖b‖
Erreur sur la matrice
‖Mx‖‖x+ Mx‖
≤ cond (A)‖MA‖‖A‖
Un bon conditionnement est petit
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 57
![Page 135: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/135.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Notion de conditionnementAttitude a adopter face a un systeme mal conditionneNotion de pre-conditionnement
Definition quantitative du conditionnementEn anglais, le Condition Number
Conditionnement de Ax = b
cond (A) = ‖A‖.‖A−1‖
Cette definition est valide quelle que soit la norme matricielle choisie
Erreur sur le second membre
‖Mx‖‖x‖
≤ cond (A)‖Mb‖‖b‖
Erreur sur la matrice
‖Mx‖‖x+ Mx‖
≤ cond (A)‖MA‖‖A‖
Un bon conditionnement est petit
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 57
![Page 136: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/136.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Notion de conditionnementAttitude a adopter face a un systeme mal conditionneNotion de pre-conditionnement
Definition quantitative du conditionnementEn anglais, le Condition Number
Conditionnement de Ax = b
cond (A) = ‖A‖.‖A−1‖
Cette definition est valide quelle que soit la norme matricielle choisie
Erreur sur le second membre
‖Mx‖‖x‖
≤ cond (A)‖Mb‖‖b‖
Erreur sur la matrice
‖Mx‖‖x+ Mx‖
≤ cond (A)‖MA‖‖A‖
Un bon conditionnement est petit
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 57
![Page 137: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/137.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Notion de conditionnementAttitude a adopter face a un systeme mal conditionneNotion de pre-conditionnement
II Resolution numerique des systemes lineaires
5 Methodes directesLe pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
6 Conditionnement d’un systeme lineaireNotion de conditionnementAttitude a adopter face a un systeme mal conditionneNotion de pre-conditionnement
7 Methodes iterativesMethodes iteratives et matrices creusesPrincipes generauxQuelques methodes classiques
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 58
![Page 138: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/138.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Notion de conditionnementAttitude a adopter face a un systeme mal conditionneNotion de pre-conditionnement
Un systeme mal conditionne est un probleme mal pose
Quand le systeme n’est pas inversible
Un systeme non inversible est un systeme qui n’a pas desolution (ou une infinite)
Chercher une solution a ce systeme n’a pas de sens
Quand il est mal conditionne
Systeme non inversible + erreurs ?
Chercher une solution n’a pas de sens
Probleme mal pose
Ne demande qu’a devenir non inversible
Premier reflexe : reconsiderer le probleme pose
Ne suis je pas en train de chercher a resoudre un probleme qui n’apas de solution ?
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 58
![Page 139: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/139.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Notion de conditionnementAttitude a adopter face a un systeme mal conditionneNotion de pre-conditionnement
Un systeme mal conditionne est un probleme mal pose
Quand le systeme n’est pas inversible
Un systeme non inversible est un systeme qui n’a pas desolution (ou une infinite)
Chercher une solution a ce systeme n’a pas de sens
Quand il est mal conditionne
Systeme non inversible + erreurs ?
Chercher une solution n’a pas de sens
Probleme mal pose
Ne demande qu’a devenir non inversible
Premier reflexe : reconsiderer le probleme pose
Ne suis je pas en train de chercher a resoudre un probleme qui n’apas de solution ?
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 58
![Page 140: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/140.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Notion de conditionnementAttitude a adopter face a un systeme mal conditionneNotion de pre-conditionnement
Un systeme mal conditionne est un probleme mal pose
Quand le systeme n’est pas inversible
Un systeme non inversible est un systeme qui n’a pas desolution (ou une infinite)
Chercher une solution a ce systeme n’a pas de sens
Quand il est mal conditionne
Systeme non inversible + erreurs ?
Chercher une solution n’a pas de sens
Probleme mal pose
Ne demande qu’a devenir non inversible
Premier reflexe : reconsiderer le probleme pose
Ne suis je pas en train de chercher a resoudre un probleme qui n’apas de solution ?
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 58
![Page 141: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/141.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Notion de conditionnementAttitude a adopter face a un systeme mal conditionneNotion de pre-conditionnement
Un systeme mal conditionne est un probleme mal pose
Quand le systeme n’est pas inversible
Un systeme non inversible est un systeme qui n’a pas desolution (ou une infinite)
Chercher une solution a ce systeme n’a pas de sens
Quand il est mal conditionne
Systeme non inversible + erreurs ?
Chercher une solution n’a pas de sens
Probleme mal pose
Ne demande qu’a devenir non inversible
Premier reflexe : reconsiderer le probleme pose
Ne suis je pas en train de chercher a resoudre un probleme qui n’apas de solution ?
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 58
![Page 142: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/142.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Notion de conditionnementAttitude a adopter face a un systeme mal conditionneNotion de pre-conditionnement
Methode de resolution d’un systeme mal conditionneMethode de resolution d’un probleme mal pose. . . donc faillible Ax = b
Idee : considerer que la solution du systeme n’est qu’approchee
x∗ solution approchee de Ax = b
x∗ n’est pas solution donc Ax∗ = b∗
Par difference : A (x − x∗) = (b − b∗)
On retrouve le meme systemea : A Mx =Mb
Dont la solution approchee est Mx∗
aSeul le second membre variant, penser a la decomposition LR
Solution obtenue en iterant le processus
x∗+ Mx∗+ MMx∗+ MMMx∗ + . . .
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 59
![Page 143: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/143.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Notion de conditionnementAttitude a adopter face a un systeme mal conditionneNotion de pre-conditionnement
Methode de resolution d’un systeme mal conditionneMethode de resolution d’un probleme mal pose. . . donc faillible Ax = b
Idee : considerer que la solution du systeme n’est qu’approchee
x∗ solution approchee de Ax = b
x∗ n’est pas solution donc Ax∗ = b∗
Par difference : A (x − x∗) = (b − b∗)
On retrouve le meme systemea : A Mx =Mb
Dont la solution approchee est Mx∗
aSeul le second membre variant, penser a la decomposition LR
Solution obtenue en iterant le processus
x∗+ Mx∗+ MMx∗+ MMMx∗ + . . .
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 59
![Page 144: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/144.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Notion de conditionnementAttitude a adopter face a un systeme mal conditionneNotion de pre-conditionnement
Methode de resolution d’un systeme mal conditionneMethode de resolution d’un probleme mal pose. . . donc faillible Ax = b
Idee : considerer que la solution du systeme n’est qu’approchee
x∗ solution approchee de Ax = b
x∗ n’est pas solution donc Ax∗ = b∗
Par difference : A (x − x∗) = (b − b∗)
On retrouve le meme systemea : A Mx =Mb
Dont la solution approchee est Mx∗
aSeul le second membre variant, penser a la decomposition LR
Solution obtenue en iterant le processus
x∗+ Mx∗+ MMx∗+ MMMx∗ + . . .
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 59
![Page 145: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/145.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Notion de conditionnementAttitude a adopter face a un systeme mal conditionneNotion de pre-conditionnement
Methode de resolution d’un systeme mal conditionneMethode de resolution d’un probleme mal pose. . . donc faillible Ax = b
Idee : considerer que la solution du systeme n’est qu’approchee
x∗ solution approchee de Ax = b
x∗ n’est pas solution donc Ax∗ = b∗
Par difference : A (x − x∗) = (b − b∗)
On retrouve le meme systemea : A Mx =Mb
Dont la solution approchee est Mx∗
aSeul le second membre variant, penser a la decomposition LR
Solution obtenue en iterant le processus
x∗+ Mx∗+ MMx∗+ MMMx∗ + . . .
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 59
![Page 146: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/146.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Notion de conditionnementAttitude a adopter face a un systeme mal conditionneNotion de pre-conditionnement
Methode de resolution d’un systeme mal conditionneMethode de resolution d’un probleme mal pose. . . donc faillible Ax = b
Idee : considerer que la solution du systeme n’est qu’approchee
x∗ solution approchee de Ax = b
x∗ n’est pas solution donc Ax∗ = b∗
Par difference : A (x − x∗) = (b − b∗)
On retrouve le meme systemea : A Mx =Mb
Dont la solution approchee est Mx∗
aSeul le second membre variant, penser a la decomposition LR
Solution obtenue en iterant le processus
x∗+ Mx∗+ MMx∗+ MMMx∗ + . . .
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 59
![Page 147: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/147.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Notion de conditionnementAttitude a adopter face a un systeme mal conditionneNotion de pre-conditionnement
Methode de resolution d’un systeme mal conditionneMethode de resolution d’un probleme mal pose. . . donc faillible Ax = b
Idee : considerer que la solution du systeme n’est qu’approchee
x∗ solution approchee de Ax = b
x∗ n’est pas solution donc Ax∗ = b∗
Par difference : A (x − x∗) = (b − b∗)
On retrouve le meme systemea : A Mx =Mb
Dont la solution approchee est Mx∗
aSeul le second membre variant, penser a la decomposition LR
Solution obtenue en iterant le processus
x∗+ Mx∗+ MMx∗+ MMMx∗ + . . .
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 59
![Page 148: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/148.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Notion de conditionnementAttitude a adopter face a un systeme mal conditionneNotion de pre-conditionnement
II Resolution numerique des systemes lineaires
5 Methodes directesLe pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
6 Conditionnement d’un systeme lineaireNotion de conditionnementAttitude a adopter face a un systeme mal conditionneNotion de pre-conditionnement
7 Methodes iterativesMethodes iteratives et matrices creusesPrincipes generauxQuelques methodes classiques
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 60
![Page 149: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/149.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Notion de conditionnementAttitude a adopter face a un systeme mal conditionneNotion de pre-conditionnement
Le pre-conditionnementUne attitude alternative face a un mauvais conditionnement
Definition
P est appele pre-conditionneur de A si cond(P−1A
)< cond (A)
Principe
Resoudre(P−1A
)x =
(P−1b
)au lieu de Ax = b
Determination de P
P n’est en general pas calculee directement
Elle est souvent issue d’un algorithme derive de la methode deGauss
Utilisation de pre-conditionnement
En general peu d’interet pour les methodes directes
Peut presenter un interet pour les methodes iteratives
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 60
![Page 150: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/150.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Notion de conditionnementAttitude a adopter face a un systeme mal conditionneNotion de pre-conditionnement
Le pre-conditionnementUne attitude alternative face a un mauvais conditionnement
Definition
P est appele pre-conditionneur de A si cond(P−1A
)< cond (A)
Principe
Resoudre(P−1A
)x =
(P−1b
)au lieu de Ax = b
Determination de P
P n’est en general pas calculee directement
Elle est souvent issue d’un algorithme derive de la methode deGauss
Utilisation de pre-conditionnement
En general peu d’interet pour les methodes directes
Peut presenter un interet pour les methodes iteratives
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 60
![Page 151: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/151.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Notion de conditionnementAttitude a adopter face a un systeme mal conditionneNotion de pre-conditionnement
Le pre-conditionnementUne attitude alternative face a un mauvais conditionnement
Definition
P est appele pre-conditionneur de A si cond(P−1A
)< cond (A)
Principe
Resoudre(P−1A
)x =
(P−1b
)au lieu de Ax = b
Determination de P
P n’est en general pas calculee directement
Elle est souvent issue d’un algorithme derive de la methode deGauss
Utilisation de pre-conditionnement
En general peu d’interet pour les methodes directes
Peut presenter un interet pour les methodes iteratives
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 60
![Page 152: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/152.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Notion de conditionnementAttitude a adopter face a un systeme mal conditionneNotion de pre-conditionnement
Le pre-conditionnementUne attitude alternative face a un mauvais conditionnement
Definition
P est appele pre-conditionneur de A si cond(P−1A
)< cond (A)
Principe
Resoudre(P−1A
)x =
(P−1b
)au lieu de Ax = b
Determination de P
P n’est en general pas calculee directement
Elle est souvent issue d’un algorithme derive de la methode deGauss
Utilisation de pre-conditionnement
En general peu d’interet pour les methodes directes
Peut presenter un interet pour les methodes iteratives
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 60
![Page 153: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/153.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Methodes iteratives et matrices creusesPrincipes generauxQuelques methodes classiques
II Resolution numerique des systemes lineaires
5 Methodes directesLe pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
6 Conditionnement d’un systeme lineaireNotion de conditionnementAttitude a adopter face a un systeme mal conditionneNotion de pre-conditionnement
7 Methodes iterativesMethodes iteratives et matrices creusesPrincipes generauxQuelques methodes classiques
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 61
![Page 154: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/154.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Methodes iteratives et matrices creusesPrincipes generauxQuelques methodes classiques
Pourquoi resoudre des systemes lineaires ?
Resolution Numerique des Equations Differentielles
De grands systemes : autant d’inconnues que de points dediscretisation
Des systemes dits creux11 : avec beaucoup de 0
Problemes poses :
Grands systemes : beaucoup de memoire utilisee
Temps de calcul important
parfois impraticable meme sur les ordinateurs actuels
Solution proposee : ne pas stocker les 0
Il faut utiliser des algorithmes de calcul qui travaillent avecdes matrices creuses
Ce n’est pas le cas du Pivot de Gauss11Creux en anglais : sparse
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 61
![Page 155: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/155.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Methodes iteratives et matrices creusesPrincipes generauxQuelques methodes classiques
Pourquoi resoudre des systemes lineaires ?
Resolution Numerique des Equations Differentielles
De grands systemes : autant d’inconnues que de points dediscretisation
Des systemes dits creux11 : avec beaucoup de 0
Problemes poses :
Grands systemes : beaucoup de memoire utilisee
Temps de calcul important
parfois impraticable meme sur les ordinateurs actuels
Solution proposee : ne pas stocker les 0
Il faut utiliser des algorithmes de calcul qui travaillent avecdes matrices creuses
Ce n’est pas le cas du Pivot de Gauss11Creux en anglais : sparse
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 61
![Page 156: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/156.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Methodes iteratives et matrices creusesPrincipes generauxQuelques methodes classiques
Pourquoi resoudre des systemes lineaires ?
Resolution Numerique des Equations Differentielles
De grands systemes : autant d’inconnues que de points dediscretisation
Des systemes dits creux11 : avec beaucoup de 0
Problemes poses :
Grands systemes : beaucoup de memoire utilisee
Temps de calcul important
parfois impraticable meme sur les ordinateurs actuels
Solution proposee : ne pas stocker les 0
Il faut utiliser des algorithmes de calcul qui travaillent avecdes matrices creuses
Ce n’est pas le cas du Pivot de Gauss11Creux en anglais : sparse
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 61
![Page 157: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/157.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Methodes iteratives et matrices creusesPrincipes generauxQuelques methodes classiques
Comment conserver des systemes creux ?
Les matrices creuses
Elles sont issues de relations differentielles
Qui impliquent en general les points voisins
Les elements non nuls sont donc proches de la diagonale
On parle de matrices multidiagonales
Proposition de methode iterative
Construction d’une suite n’impliquant que des matrices creuses
Definie par une relation de recurrence
Son point fixe est la solution du systeme
La suite converge vers la solution12
12Une suite definie par une relation de recurrence ne peut que converger versson point fixe, si elle converge
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 62
![Page 158: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/158.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Methodes iteratives et matrices creusesPrincipes generauxQuelques methodes classiques
Comment conserver des systemes creux ?
Les matrices creuses
Elles sont issues de relations differentielles
Qui impliquent en general les points voisins
Les elements non nuls sont donc proches de la diagonale
On parle de matrices multidiagonales
Proposition de methode iterative
Construction d’une suite n’impliquant que des matrices creuses
Definie par une relation de recurrence
Son point fixe est la solution du systeme
La suite converge vers la solution12
12Une suite definie par une relation de recurrence ne peut que converger versson point fixe, si elle converge
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 62
![Page 159: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/159.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Methodes iteratives et matrices creusesPrincipes generauxQuelques methodes classiques
Comment conserver des systemes creux ?
Les matrices creuses
Elles sont issues de relations differentielles
Qui impliquent en general les points voisins
Les elements non nuls sont donc proches de la diagonale
On parle de matrices multidiagonales
Proposition de methode iterative
Construction d’une suite n’impliquant que des matrices creuses
Definie par une relation de recurrence
Son point fixe est la solution du systeme
La suite converge vers la solution12
12Une suite definie par une relation de recurrence ne peut que converger versson point fixe, si elle converge
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 62
![Page 160: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/160.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Methodes iteratives et matrices creusesPrincipes generauxQuelques methodes classiques
Methodes iteratives : des suites vectoriellesAvantages et inconvenients
Avantages des methodes iteratives
Limiter les besoins en memoire vive
Et donc limiter le temps de calcul
Inconvenients
Convergence en general assez lente
Solution necessairement approchee
Quel type de methode choisir ?
Pour les petits systemes (creux ou denses) : Gauss
Pour les grands systemes creux : methode iteratives
Pour les grands systemes denses : Gauss (mais ce sera difficile)
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 63
![Page 161: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/161.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Methodes iteratives et matrices creusesPrincipes generauxQuelques methodes classiques
Methodes iteratives : des suites vectoriellesAvantages et inconvenients
Avantages des methodes iteratives
Limiter les besoins en memoire vive
Et donc limiter le temps de calcul
Inconvenients
Convergence en general assez lente
Solution necessairement approchee
Quel type de methode choisir ?
Pour les petits systemes (creux ou denses) : Gauss
Pour les grands systemes creux : methode iteratives
Pour les grands systemes denses : Gauss (mais ce sera difficile)
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 63
![Page 162: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/162.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Methodes iteratives et matrices creusesPrincipes generauxQuelques methodes classiques
Methodes iteratives : des suites vectoriellesAvantages et inconvenients
Avantages des methodes iteratives
Limiter les besoins en memoire vive
Et donc limiter le temps de calcul
Inconvenients
Convergence en general assez lente
Solution necessairement approchee
Quel type de methode choisir ?
Pour les petits systemes (creux ou denses) : Gauss
Pour les grands systemes creux : methode iteratives
Pour les grands systemes denses : Gauss (mais ce sera difficile)
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 63
![Page 163: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/163.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Methodes iteratives et matrices creusesPrincipes generauxQuelques methodes classiques
Methodes iteratives : des suites vectoriellesAvantages et inconvenients
Avantages des methodes iteratives
Limiter les besoins en memoire vive
Et donc limiter le temps de calcul
Inconvenients
Convergence en general assez lente
Solution necessairement approchee
Quel type de methode choisir ?
Pour les petits systemes (creux ou denses) : Gauss
Pour les grands systemes creux : methode iteratives
Pour les grands systemes denses : Gauss (mais ce sera difficile)
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 63
![Page 164: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/164.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Methodes iteratives et matrices creusesPrincipes generauxQuelques methodes classiques
II Resolution numerique des systemes lineaires
5 Methodes directesLe pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
6 Conditionnement d’un systeme lineaireNotion de conditionnementAttitude a adopter face a un systeme mal conditionneNotion de pre-conditionnement
7 Methodes iterativesMethodes iteratives et matrices creusesPrincipes generauxQuelques methodes classiques
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 64
![Page 165: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/165.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Methodes iteratives et matrices creusesPrincipes generauxQuelques methodes classiques
Construction de la suite vectorielle Ax = bUne matrice arbitraire B permet de faire apparaıtre la solution x comme point fixe
Introduction d’une matrice arbitraire B
Ax = b ⇔ Bx + (A− B)x = b
Construction de la suite vectorielle
Bxi+1 + (A− B) xi = b
xi+1 = xi − B−1 (Axi − b)
xi+1 =(I − B−1A
)xi + B−1b
xi+1 = Mxi + p
Jacobi, Gauss-Seidel. . . Le choix d’un pre-conditionnement
Le choix de B correspond au choix d’une methode
La vitesse de convergence en dependra
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 64
![Page 166: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/166.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Methodes iteratives et matrices creusesPrincipes generauxQuelques methodes classiques
Construction de la suite vectorielle Ax = bUne matrice arbitraire B permet de faire apparaıtre la solution x comme point fixe
Introduction d’une matrice arbitraire B
Ax = b ⇔ Bx + (A− B)x = b
Construction de la suite vectorielle
Bxi+1 + (A− B) xi = b
xi+1 = xi − B−1 (Axi − b)
xi+1 =(I − B−1A
)xi + B−1b
xi+1 = Mxi + p
Jacobi, Gauss-Seidel. . . Le choix d’un pre-conditionnement
Le choix de B correspond au choix d’une methode
La vitesse de convergence en dependra
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 64
![Page 167: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/167.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Methodes iteratives et matrices creusesPrincipes generauxQuelques methodes classiques
Construction de la suite vectorielle Ax = bUne matrice arbitraire B permet de faire apparaıtre la solution x comme point fixe
Introduction d’une matrice arbitraire B
Ax = b ⇔ Bx + (A− B)x = b
Construction de la suite vectorielle
Bxi+1 + (A− B) xi = b
xi+1 = xi − B−1 (Axi − b)
xi+1 =(I − B−1A
)xi + B−1b
xi+1 = Mxi + p
Jacobi, Gauss-Seidel. . . Le choix d’un pre-conditionnement
Le choix de B correspond au choix d’une methode
La vitesse de convergence en dependra
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 64
![Page 168: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/168.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Methodes iteratives et matrices creusesPrincipes generauxQuelques methodes classiques
Construction de la suite vectorielle Ax = bUne matrice arbitraire B permet de faire apparaıtre la solution x comme point fixe
Introduction d’une matrice arbitraire B
Ax = b ⇔ Bx + (A− B)x = b
Construction de la suite vectorielle
Bxi+1 + (A− B) xi = b
xi+1 = xi − B−1 (Axi − b)
xi+1 =(I − B−1A
)xi + B−1b
xi+1 = Mxi + p
Jacobi, Gauss-Seidel. . . Le choix d’un pre-conditionnement
Le choix de B correspond au choix d’une methode
La vitesse de convergence en dependra
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 64
![Page 169: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/169.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Methodes iteratives et matrices creusesPrincipes generauxQuelques methodes classiques
Construction de la suite vectorielle Ax = bUne matrice arbitraire B permet de faire apparaıtre la solution x comme point fixe
Introduction d’une matrice arbitraire B
Ax = b ⇔ Bx + (A− B)x = b
Construction de la suite vectorielle
Bxi+1 + (A− B) xi = b
xi+1 = xi − B−1 (Axi − b)
xi+1 =(I − B−1A
)xi + B−1b
xi+1 = Mxi + p
Jacobi, Gauss-Seidel. . . Le choix d’un pre-conditionnement
Le choix de B correspond au choix d’une methode
La vitesse de convergence en dependra
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 64
![Page 170: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/170.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Methodes iteratives et matrices creusesPrincipes generauxQuelques methodes classiques
Construction de la suite vectorielle Ax = bUne matrice arbitraire B permet de faire apparaıtre la solution x comme point fixe
Introduction d’une matrice arbitraire B
Ax = b ⇔ Bx + (A− B)x = b
Construction de la suite vectorielle
Bxi+1 + (A− B) xi = b
xi+1 = xi − B−1 (Axi − b)
xi+1 =(I − B−1A
)xi + B−1b
xi+1 = Mxi + p
Jacobi, Gauss-Seidel. . . Le choix d’un pre-conditionnement
Le choix de B correspond au choix d’une methode
La vitesse de convergence en dependra
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 64
![Page 171: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/171.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Methodes iteratives et matrices creusesPrincipes generauxQuelques methodes classiques
Convergence, valeurs propres et choix de B
Convergence de la suite xi+1 = Mxi + p
Elle converge13si ρ (M) < 1
ρ (M) est le rayon spectral de M
ρ (M) = maxi |λi |, si les λi sont les valeurs propres de M
Le choix de B est donc guide par
ρ(I − B−1A
)< 1 et le plus petit possible
Bxi+1 + (A− B) xi = b aisement inversible
13Une demonstration elementaire de cette propriete pour la suite xi+1 = Mxi
peut etre faite en se placant dans la base des vecteurs propres.N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 65
![Page 172: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/172.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Methodes iteratives et matrices creusesPrincipes generauxQuelques methodes classiques
Convergence, valeurs propres et choix de B
Convergence de la suite xi+1 = Mxi + p
Elle converge13si ρ (M) < 1
ρ (M) est le rayon spectral de M
ρ (M) = maxi |λi |, si les λi sont les valeurs propres de M
Le choix de B est donc guide par
ρ(I − B−1A
)< 1 et le plus petit possible
Bxi+1 + (A− B) xi = b aisement inversible
13Une demonstration elementaire de cette propriete pour la suite xi+1 = Mxi
peut etre faite en se placant dans la base des vecteurs propres.N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 65
![Page 173: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/173.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Methodes iteratives et matrices creusesPrincipes generauxQuelques methodes classiques
II Resolution numerique des systemes lineaires
5 Methodes directesLe pivot de GaussLe pivot de Gauss : notation matricielleAutres methodes directes
6 Conditionnement d’un systeme lineaireNotion de conditionnementAttitude a adopter face a un systeme mal conditionneNotion de pre-conditionnement
7 Methodes iterativesMethodes iteratives et matrices creusesPrincipes generauxQuelques methodes classiques
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 66
![Page 174: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/174.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Methodes iteratives et matrices creusesPrincipes generauxQuelques methodes classiques
Quelques matrices auxiliaires Ax = bDecomposition de A en matrice diagonale (D) et deux matrices triangulaires (E et F )
A = D − E − F
D =
a11 0. . .
0 ann
E = −
0 · · · · · · 0
a21. . .
......
. . .. . .
...an1 · · · an,n−1 0
L = D−1EU = D−1FJ = L + U
H = (I − L)−1U
F = −
0 a12 · · · a1n...
. . .. . .
......
. . . an−1,n
0 · · · · · · 0
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 66
![Page 175: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/175.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Methodes iteratives et matrices creusesPrincipes generauxQuelques methodes classiques
Methode de Jacobi B = DAussi connue sous le nom de methode du pas total
B = D M =(I − B−1A
)= J
x [i+1] = Mx [i ] + B−1b
xj[i+1] =
1
ajj
bj −∑k 6=j
ajkxk[i ]
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 67
![Page 176: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/176.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Methodes iteratives et matrices creusesPrincipes generauxQuelques methodes classiques
Methode de Gauss-SeidelAussi connue sous le nom de methode du pas unique
B = D − E M =(I − B−1A
)= (I − L)−1U = H
x [i+1] = Mx [i ] + B−1b
B etant triangulaire, la determination de M se fait par resolutiond’un systeme triangulaire14
∀i ,∑k<j
ajkxk[i+1] + ajjxj
[i+1] +∑k>j
ajkxk[i ] = bj
14On rappelle qu’en analyse numerique, il est absolument proscrit de calculerun inverse autrement que par la methode de Gauss ou via une methodeiterative. Dans ce cas ci, l’application de la formule pour i croissant a partir de1 suffit.
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 68
![Page 177: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/177.jpg)
Methodes directesConditionnement d’un systeme lineaire
Methodes iteratives
Methodes iteratives et matrices creusesPrincipes generauxQuelques methodes classiques
Relaxation de Gauss SeidelGeneralisation de la methode de Gauss-Seidel
Parametre de relaxation : ω ∈ R
B (ω) =1
ωD(I − ωL)
ω = 1 :Gauss-Seidel
ω < 1 : sous-relaxation
ω > 1 : sur-relaxation
Le choix de ω est un point difficile hors du perimetre de cecours
Permet cependant d’ajuster le rayon spectral
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 69
![Page 178: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/178.jpg)
Equivalence Resolution – OptimisationMethodes iterative de resolution
Application a l’optimisation
Partie III
Optimisation et systemes non lineaires
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 70
![Page 179: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/179.jpg)
Equivalence Resolution – OptimisationMethodes iterative de resolution
Application a l’optimisation
III Optimisation et systemes non lineaires
8 Equivalence Resolution – OptimisationPar le truchement d’une deriveeDimensions de l’espace d’arrivee
9 Methodes iterative de resolutionResolution dans RResolution dans Rn
10 Application a l’optimisationOptimisation dans ROptimisation dans Rn
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 71
![Page 180: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/180.jpg)
Equivalence Resolution – OptimisationMethodes iterative de resolution
Application a l’optimisation
Par le truchement d’une deriveeDimensions de l’espace d’arrivee
III Optimisation et systemes non lineaires
8 Equivalence Resolution – OptimisationPar le truchement d’une deriveeDimensions de l’espace d’arrivee
9 Methodes iterative de resolutionResolution dans RResolution dans Rn
10 Application a l’optimisationOptimisation dans ROptimisation dans Rn
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 72
![Page 181: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/181.jpg)
Equivalence Resolution – OptimisationMethodes iterative de resolution
Application a l’optimisation
Par le truchement d’une deriveeDimensions de l’espace d’arrivee
Equivalence entre Resolution et Optimisation
Optimisation
L’optimisation est la determination du parametre qui permetde maximiser ou de minimiser une fonction
Se traduit par l’annulation de derivee : f (x)maxmin ⇔ f ′ (x) = 0
Ou de gradient : f
x1...
xn
max
min
⇒ ∀i , ∂f∂xi
= 0
Equivalence
Equivalence entre resolution et optimisation
Moyennant une derivee
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 72
![Page 182: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/182.jpg)
Equivalence Resolution – OptimisationMethodes iterative de resolution
Application a l’optimisation
Par le truchement d’une deriveeDimensions de l’espace d’arrivee
Equivalence entre Resolution et Optimisation
Optimisation
L’optimisation est la determination du parametre qui permetde maximiser ou de minimiser une fonction
Se traduit par l’annulation de derivee : f (x)maxmin ⇔ f ′ (x) = 0
Ou de gradient : f
x1...
xn
max
min
⇒ ∀i , ∂f∂xi
= 0
Equivalence
Equivalence entre resolution et optimisation
Moyennant une derivee
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 72
![Page 183: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/183.jpg)
Equivalence Resolution – OptimisationMethodes iterative de resolution
Application a l’optimisation
Par le truchement d’une deriveeDimensions de l’espace d’arrivee
Equivalence entre Resolution et Optimisation
Optimisation
L’optimisation est la determination du parametre qui permetde maximiser ou de minimiser une fonction
Se traduit par l’annulation de derivee : f (x)maxmin ⇔ f ′ (x) = 0
Ou de gradient : f
x1...
xn
max
min
⇒ ∀i , ∂f∂xi
= 0
Equivalence
Equivalence entre resolution et optimisation
Moyennant une derivee
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 72
![Page 184: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/184.jpg)
Equivalence Resolution – OptimisationMethodes iterative de resolution
Application a l’optimisation
Par le truchement d’une deriveeDimensions de l’espace d’arrivee
III Optimisation et systemes non lineaires
8 Equivalence Resolution – OptimisationPar le truchement d’une deriveeDimensions de l’espace d’arrivee
9 Methodes iterative de resolutionResolution dans RResolution dans Rn
10 Application a l’optimisationOptimisation dans ROptimisation dans Rn
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 73
![Page 185: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/185.jpg)
Equivalence Resolution – OptimisationMethodes iterative de resolution
Application a l’optimisation
Par le truchement d’une deriveeDimensions de l’espace d’arrivee
Problemes des dimensions de l’espace d’arriveef : E 7→ F avec E = Rn et F = Rm
Fonctions a valeurs reelles F = RPeut etre optimisee
Peut servir dans une resolution
Quelle que soit la dimension n de l’espace de depart
Fonctions a valeurs vectorielles m > 1
Ne peut pas etre optimisee : Rm n’est pas muni d’une relationd’ordre
Peut servir dans une resolution : correspond alors a mproblemes reels
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 73
![Page 186: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/186.jpg)
Equivalence Resolution – OptimisationMethodes iterative de resolution
Application a l’optimisation
Par le truchement d’une deriveeDimensions de l’espace d’arrivee
Problemes des dimensions de l’espace d’arriveef : E 7→ F avec E = Rn et F = Rm
Fonctions a valeurs reelles F = RPeut etre optimisee
Peut servir dans une resolution
Quelle que soit la dimension n de l’espace de depart
Fonctions a valeurs vectorielles m > 1
Ne peut pas etre optimisee : Rm n’est pas muni d’une relationd’ordre
Peut servir dans une resolution : correspond alors a mproblemes reels
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 73
![Page 187: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/187.jpg)
Equivalence Resolution – OptimisationMethodes iterative de resolution
Application a l’optimisation
Resolution dans RResolution dans Rn
III Optimisation et systemes non lineaires
8 Equivalence Resolution – OptimisationPar le truchement d’une deriveeDimensions de l’espace d’arrivee
9 Methodes iterative de resolutionResolution dans RResolution dans Rn
10 Application a l’optimisationOptimisation dans ROptimisation dans Rn
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 74
![Page 188: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/188.jpg)
Equivalence Resolution – OptimisationMethodes iterative de resolution
Application a l’optimisation
Resolution dans RResolution dans Rn
Methodes iteratives : construction f (x) = 0
Principe
Construction d’une suite convergent vers la solution
Definie par une relation de recurrence Φ : E 7→ EPoint fixe ξ solution : Φ (ξ) = ξ ⇔ f (ξ) = 0
Construction de Φ
Elle peut etre evidente
A resoudre x = cos (x)⇒ f (x) = x − cos (x)Φ = cos
Si elle n’est pas evidente
Un developpement limite peut aider
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 74
![Page 189: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/189.jpg)
Equivalence Resolution – OptimisationMethodes iterative de resolution
Application a l’optimisation
Resolution dans RResolution dans Rn
Methodes iteratives : construction f (x) = 0
Principe
Construction d’une suite convergent vers la solution
Definie par une relation de recurrence Φ : E 7→ EPoint fixe ξ solution : Φ (ξ) = ξ ⇔ f (ξ) = 0
Construction de Φ
Elle peut etre evidente
A resoudre x = cos (x)⇒ f (x) = x − cos (x)Φ = cos
Si elle n’est pas evidente
Un developpement limite peut aider
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 74
![Page 190: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/190.jpg)
Equivalence Resolution – OptimisationMethodes iterative de resolution
Application a l’optimisation
Resolution dans RResolution dans Rn
Methodes iteratives : construction f (x) = 0
Principe
Construction d’une suite convergent vers la solution
Definie par une relation de recurrence Φ : E 7→ EPoint fixe ξ solution : Φ (ξ) = ξ ⇔ f (ξ) = 0
Construction de Φ
Elle peut etre evidente
A resoudre x = cos (x)⇒ f (x) = x − cos (x)Φ = cos
Si elle n’est pas evidente
Un developpement limite peut aider
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 74
![Page 191: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/191.jpg)
Equivalence Resolution – OptimisationMethodes iterative de resolution
Application a l’optimisation
Resolution dans RResolution dans Rn
La methode de NewtonUne construction de Φ sur la base d’un developpement limite
Developpement de f (x) = 0
Soit x : f (x) = 0
ξ au voisinage de x
f (x) =+∞∑n=0
(x − ξ)n
n!f (n) (ξ)
f (x) = 0 Troncature ordre 1 ou 2
x∗ = ξ − f (ξ)f ′(ξ) x∗ = ξ − f ′(ξ)±
√f ′(ξ)2−2f (ξ)f ′′(ξ)
f ′′(ξ)
ξ donne, x∗ approche x a l’ordre idoine
x∗ peut servir de nouveau ξ : Φ naturellement definie
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 75
![Page 192: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/192.jpg)
Equivalence Resolution – OptimisationMethodes iterative de resolution
Application a l’optimisation
Resolution dans RResolution dans Rn
La methode de NewtonUne construction de Φ sur la base d’un developpement limite
Developpement de f (x) = 0
Soit x : f (x) = 0
ξ au voisinage de x
f (x) =+∞∑n=0
(x − ξ)n
n!f (n) (ξ)
f (x) = 0 Troncature ordre 1 ou 2
x∗ = ξ − f (ξ)f ′(ξ) x∗ = ξ − f ′(ξ)±
√f ′(ξ)2−2f (ξ)f ′′(ξ)
f ′′(ξ)
ξ donne, x∗ approche x a l’ordre idoine
x∗ peut servir de nouveau ξ : Φ naturellement definie
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 75
![Page 193: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/193.jpg)
Equivalence Resolution – OptimisationMethodes iterative de resolution
Application a l’optimisation
Resolution dans RResolution dans Rn
La methode de NewtonUne construction de Φ sur la base d’un developpement limite
Developpement de f (x) = 0
Soit x : f (x) = 0
ξ au voisinage de x
f (x) =+∞∑n=0
(x − ξ)n
n!f (n) (ξ)
f (x) = 0 Troncature ordre 1 ou 2
x∗ = ξ − f (ξ)f ′(ξ) x∗ = ξ − f ′(ξ)±
√f ′(ξ)2−2f (ξ)f ′′(ξ)
f ′′(ξ)
ξ donne, x∗ approche x a l’ordre idoine
x∗ peut servir de nouveau ξ : Φ naturellement definie
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 75
![Page 194: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/194.jpg)
Equivalence Resolution – OptimisationMethodes iterative de resolution
Application a l’optimisation
Resolution dans RResolution dans Rn
La methode de NewtonUne construction de Φ sur la base d’un developpement limite
Developpement de f (x) = 0
Soit x : f (x) = 0
ξ au voisinage de x
f (x) =+∞∑n=0
(x − ξ)n
n!f (n) (ξ)
f (x) = 0 Troncature ordre 1 ou 2
x∗ = ξ − f (ξ)f ′(ξ) x∗ = ξ − f ′(ξ)±
√f ′(ξ)2−2f (ξ)f ′′(ξ)
f ′′(ξ)
ξ donne, x∗ approche x a l’ordre idoine
x∗ peut servir de nouveau ξ : Φ naturellement definie
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 75
![Page 195: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/195.jpg)
Equivalence Resolution – OptimisationMethodes iterative de resolution
Application a l’optimisation
Resolution dans RResolution dans Rn
La methode de NewtonFormulation formelle et interpretation graphique
Relation de recurrence ordre 1
Φ (x) = x − f (x)f ′(x)
-1 1 2 3 4
-12.5
-10
-7.5
-5
-2.5
2.5
5
7.5
10
12.5
15
17.5
ξ
xx*
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 76
![Page 196: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/196.jpg)
Equivalence Resolution – OptimisationMethodes iterative de resolution
Application a l’optimisation
Resolution dans RResolution dans Rn
La methode de NewtonFormulation formelle et interpretation graphique
Relation de recurrence ordre 1
Φ (x) = x − f (x)f ′(x)
-1 1 2 3 4
-12.5
-10
-7.5
-5
-2.5
2.5
5
7.5
10
12.5
15
17.5
ξ
xx*
Relation de recurrence ordre 2
Φ (x) = x − f ′(x)±√
f ′(x)2−2f (x)f ′′(x)f ′′(x)
-1 1 2 3 4
-5
-2.5
2.5
5
7.5
10
12.5
15
17.5
x*x
ξ
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 76
![Page 197: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/197.jpg)
Equivalence Resolution – OptimisationMethodes iterative de resolution
Application a l’optimisation
Resolution dans RResolution dans Rn
La methode de NewtonFormulation formelle et interpretation graphique
Relation de recurrence ordre 1
Φ (x) = x − f (x)f ′(x)
-1 1 2 3 4
-12.5
-10
-7.5
-5
-2.5
2.5
5
7.5
10
12.5
15
17.5
ξ
xx*
Relation de recurrence ordre 2
Φ (x) = x − f ′(x)±√
f ′(x)2−2f (x)f ′′(x)f ′′(x)
-1 1 2 3 4
-5
-2.5
2.5
5
7.5
10
12.5
15
17.5
x*x
ξ
Newton⇔Approximation par un polynome
f est approchee par un polynome d’ordre N
Une des racines est prise comme solution approcheeN. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 76
![Page 198: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/198.jpg)
Equivalence Resolution – OptimisationMethodes iterative de resolution
Application a l’optimisation
Resolution dans RResolution dans Rn
Methode de la fausse positionAussi connue sous le nom de Regula falsi ou methode de la secante
Principe
Derivee de la methode Newton
Quand la derivee n’est pas calculable
Approximation de la derivee par une secante
f ′ (x) = limx→x0
f (x)− f (x0)
x − x0⇒ f ′ (x) ≈ f (x)− f (x0)
x − x0
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 77
![Page 199: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/199.jpg)
Equivalence Resolution – OptimisationMethodes iterative de resolution
Application a l’optimisation
Resolution dans RResolution dans Rn
Methode de la fausse positionAussi connue sous le nom de Regula falsi ou methode de la secante
Principe
Derivee de la methode Newton
Quand la derivee n’est pas calculable
Approximation de la derivee par une secante
f ′ (x) = limx→x0
f (x)− f (x0)
x − x0⇒ f ′ (x) ≈ f (x)− f (x0)
x − x0
-1 1 2 3 4
-2.5
2.5
5
7.5
10
12.5
15
17.5
x x x x01 2
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 77
![Page 200: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/200.jpg)
Equivalence Resolution – OptimisationMethodes iterative de resolution
Application a l’optimisation
Resolution dans RResolution dans Rn
Methode de la fausse positionAussi connue sous le nom de Regula falsi ou methode de la secante
Principe
Derivee de la methode Newton
Quand la derivee n’est pas calculable
Approximation de la derivee par une secante
f ′ (x) = limx→x0
f (x)− f (x0)
x − x0⇒ f ′ (x) ≈ f (x)− f (x0)
x − x0
Recurrence
xn+1 = xn − f (xn) xn−xn−1
f (xn)−f (xn−1)
-1 1 2 3 4
-2.5
2.5
5
7.5
10
12.5
15
17.5
x x x x01 2
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 77
![Page 201: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/201.jpg)
Equivalence Resolution – OptimisationMethodes iterative de resolution
Application a l’optimisation
Resolution dans RResolution dans Rn
Methode de la fausse positionAussi connue sous le nom de Regula falsi ou methode de la secante
Principe
Derivee de la methode Newton
Quand la derivee n’est pas calculable
Approximation de la derivee par une secante
f ′ (x) = limx→x0
f (x)− f (x0)
x − x0⇒ f ′ (x) ≈ f (x)− f (x0)
x − x0
Recurrence
xn+1 = xn − f (xn) xn−xn−1
f (xn)−f (xn−1)
Application aux equations differentielles
-1 1 2 3 4
-2.5
2.5
5
7.5
10
12.5
15
17.5
x x x x01 2
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 77
![Page 202: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/202.jpg)
Equivalence Resolution – OptimisationMethodes iterative de resolution
Application a l’optimisation
Resolution dans RResolution dans Rn
III Optimisation et systemes non lineaires
8 Equivalence Resolution – OptimisationPar le truchement d’une deriveeDimensions de l’espace d’arrivee
9 Methodes iterative de resolutionResolution dans RResolution dans Rn
10 Application a l’optimisationOptimisation dans ROptimisation dans Rn
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 78
![Page 203: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/203.jpg)
Equivalence Resolution – OptimisationMethodes iterative de resolution
Application a l’optimisation
Resolution dans RResolution dans Rn
Methode de Newton multidimensionnelle
Equation dans Rn f : Rn 7→ Rn
f (x) = 0⇔
f1 (x1, . . . , xn)...
fn (x1, . . . , xn)
= 0
Developpement limite a l’ordre 1
f (x) ≈ f (ξ) + D fξ .(x − ξ)
La Jacobienne
D fx =
∂f1∂x1
· · · ∂f1∂xn
......
∂fn∂x1
· · · ∂fn∂xn
La relation de recurrence
Si D est inversible
Φ (x) = x −(D f
x
)−1f (x)
Application aux Equations Differentielles
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 78
![Page 204: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/204.jpg)
Equivalence Resolution – OptimisationMethodes iterative de resolution
Application a l’optimisation
Resolution dans RResolution dans Rn
Methode de Newton multidimensionnelle
Equation dans Rn f : Rn 7→ Rn
f (x) = 0⇔
f1 (x1, . . . , xn)...
fn (x1, . . . , xn)
= 0
Developpement limite a l’ordre 1
f (x) ≈ f (ξ) + D fξ .(x − ξ)
La Jacobienne
D fx =
∂f1∂x1
· · · ∂f1∂xn
......
∂fn∂x1
· · · ∂fn∂xn
La relation de recurrence
Si D est inversible
Φ (x) = x −(D f
x
)−1f (x)
Application aux Equations Differentielles
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 78
![Page 205: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/205.jpg)
Equivalence Resolution – OptimisationMethodes iterative de resolution
Application a l’optimisation
Resolution dans RResolution dans Rn
Methode de Newton multidimensionnelle
Equation dans Rn f : Rn 7→ Rn
f (x) = 0⇔
f1 (x1, . . . , xn)...
fn (x1, . . . , xn)
= 0
Developpement limite a l’ordre 1
f (x) ≈ f (ξ) + D fξ .(x − ξ)
La Jacobienne
D fx =
∂f1∂x1
· · · ∂f1∂xn
......
∂fn∂x1
· · · ∂fn∂xn
La relation de recurrence
Si D est inversible
Φ (x) = x −(D f
x
)−1f (x)
Application aux Equations Differentielles
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 78
![Page 206: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/206.jpg)
Equivalence Resolution – OptimisationMethodes iterative de resolution
Application a l’optimisation
Resolution dans RResolution dans Rn
Methode de Newton multidimensionnelle
Equation dans Rn f : Rn 7→ Rn
f (x) = 0⇔
f1 (x1, . . . , xn)...
fn (x1, . . . , xn)
= 0
Developpement limite a l’ordre 1
f (x) ≈ f (ξ) + D fξ .(x − ξ)
La Jacobienne
D fx =
∂f1∂x1
· · · ∂f1∂xn
......
∂fn∂x1
· · · ∂fn∂xn
La relation de recurrence
Si D est inversible
Φ (x) = x −(D f
x
)−1f (x)
Application aux Equations Differentielles
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 78
![Page 207: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/207.jpg)
Equivalence Resolution – OptimisationMethodes iterative de resolution
Application a l’optimisation
Resolution dans RResolution dans Rn
Methode de Newton multidimensionnelle
Equation dans Rn f : Rn 7→ Rn
f (x) = 0⇔
f1 (x1, . . . , xn)...
fn (x1, . . . , xn)
= 0
Developpement limite a l’ordre 1
f (x) ≈ f (ξ) + D fξ .(x − ξ)
La Jacobienne
D fx =
∂f1∂x1
· · · ∂f1∂xn
......
∂fn∂x1
· · · ∂fn∂xn
La relation de recurrence
Si D est inversible
Φ (x) = x −(D f
x
)−1f (x)
Application aux Equations Differentielles
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 78
![Page 208: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/208.jpg)
Equivalence Resolution – OptimisationMethodes iterative de resolution
Application a l’optimisation
Optimisation dans ROptimisation dans Rn
III Optimisation et systemes non lineaires
8 Equivalence Resolution – OptimisationPar le truchement d’une deriveeDimensions de l’espace d’arrivee
9 Methodes iterative de resolutionResolution dans RResolution dans Rn
10 Application a l’optimisationOptimisation dans ROptimisation dans Rn
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 79
![Page 209: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/209.jpg)
Equivalence Resolution – OptimisationMethodes iterative de resolution
Application a l’optimisation
Optimisation dans ROptimisation dans Rn
Optimisation dans R
Recherche d’extrema dans RAnnulation de la derivee
Recherche de racine de la derivee
Methodes de resolution
Exemples avec la methode Newton
ordre 1 : Φ (x) = x − f ′(x)f ′′(x)
ordre 2 : Φ (x) = x − f ′′(x)±√
f ′′(x)2−2f ′(x)f ′′′(x)f ′′′(x)
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 79
![Page 210: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/210.jpg)
Equivalence Resolution – OptimisationMethodes iterative de resolution
Application a l’optimisation
Optimisation dans ROptimisation dans Rn
Optimisation dans R
Recherche d’extrema dans RAnnulation de la derivee
Recherche de racine de la derivee
Methodes de resolution
Exemples avec la methode Newton
ordre 1 : Φ (x) = x − f ′(x)f ′′(x)
ordre 2 : Φ (x) = x − f ′′(x)±√
f ′′(x)2−2f ′(x)f ′′′(x)f ′′′(x)
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 79
![Page 211: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/211.jpg)
Equivalence Resolution – OptimisationMethodes iterative de resolution
Application a l’optimisation
Optimisation dans ROptimisation dans Rn
III Optimisation et systemes non lineaires
8 Equivalence Resolution – OptimisationPar le truchement d’une deriveeDimensions de l’espace d’arrivee
9 Methodes iterative de resolutionResolution dans RResolution dans Rn
10 Application a l’optimisationOptimisation dans ROptimisation dans Rn
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 80
![Page 212: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/212.jpg)
Equivalence Resolution – OptimisationMethodes iterative de resolution
Application a l’optimisation
Optimisation dans ROptimisation dans Rn
Exemple dans R2 f : R2 7→ R
Le skieur minimise son altitude f
Methode de la plus grandepente
Φ (x) = x − gradx (f )
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 80
![Page 213: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/213.jpg)
Equivalence Resolution – OptimisationMethodes iterative de resolution
Application a l’optimisation
Optimisation dans ROptimisation dans Rn
Exemple dans R2 f : R2 7→ R
Le skieur minimise son altitude f
Methode de la plus grandepente
Φ (x) = x − gradx (f )
Plusieurs strategies sont possibles
Facteur correctif matriciel η
Φ (x) = x − η.gradx (f )
Choix de η : choix de lamethode15
15Methode de la plus grande pente : η constantN. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 80
![Page 214: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/214.jpg)
Equivalence Resolution – OptimisationMethodes iterative de resolution
Application a l’optimisation
Optimisation dans ROptimisation dans Rn
Choix de la methode de descente
Inconvenient de la plus grande pente
La convergence peut etre lente
Comment y remedier ?
Par le choix correct du facteur correctif η
Il existe beaucoup de propositions pour η
Presentons quelques unes d’entre elles : :
La methode de Newton et ses derivees
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 81
![Page 215: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/215.jpg)
Equivalence Resolution – OptimisationMethodes iterative de resolution
Application a l’optimisation
Optimisation dans ROptimisation dans Rn
Choix de la methode de descente
Inconvenient de la plus grande pente
La convergence peut etre lente
Comment y remedier ?
Par le choix correct du facteur correctif η
Il existe beaucoup de propositions pour η
Presentons quelques unes d’entre elles : :
La methode de Newton et ses derivees
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 81
![Page 216: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/216.jpg)
Equivalence Resolution – OptimisationMethodes iterative de resolution
Application a l’optimisation
Optimisation dans ROptimisation dans Rn
Choix de la methode de descente
Inconvenient de la plus grande pente
La convergence peut etre lente
Comment y remedier ?
Par le choix correct du facteur correctif η
Il existe beaucoup de propositions pour η
Presentons quelques unes d’entre elles : :
La methode de Newton et ses derivees
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 81
![Page 217: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/217.jpg)
Equivalence Resolution – OptimisationMethodes iterative de resolution
Application a l’optimisation
Optimisation dans ROptimisation dans Rn
Methode de Newton η = H−1
Methode derivee du developpement limite multidimensionnel a l’ordre 2
Relation de recurrence
Φ (x) = x −(H f
x
)−1.gradx (f )
La Hessienne
H fx =
∂2f
∂x1∂x1· · · ∂2f
∂x1∂xn...
...∂2f
∂x1∂xn· · · ∂2f
∂xn∂xn
Methodes derivees
N’est pas sans rappeler la methode dans RD’autres methodes consistent a approcher H
Remplacer H par sa diagonale pour mieux l’inverserRemplacer H par H + λI
intermediaire entre Newton et plus grande pentereglable par λ
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 82
![Page 218: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/218.jpg)
Equivalence Resolution – OptimisationMethodes iterative de resolution
Application a l’optimisation
Optimisation dans ROptimisation dans Rn
Methode de Newton η = H−1
Methode derivee du developpement limite multidimensionnel a l’ordre 2
Relation de recurrence
Φ (x) = x −(H f
x
)−1.gradx (f )
La Hessienne
H fx =
∂2f
∂x1∂x1· · · ∂2f
∂x1∂xn...
...∂2f
∂x1∂xn· · · ∂2f
∂xn∂xn
Methodes derivees
N’est pas sans rappeler la methode dans RD’autres methodes consistent a approcher H
Remplacer H par sa diagonale pour mieux l’inverserRemplacer H par H + λI
intermediaire entre Newton et plus grande pentereglable par λ
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 82
![Page 219: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/219.jpg)
Equivalence Resolution – OptimisationMethodes iterative de resolution
Application a l’optimisation
Optimisation dans ROptimisation dans Rn
Methode de Newton η = H−1
Methode derivee du developpement limite multidimensionnel a l’ordre 2
Relation de recurrence
Φ (x) = x −(H f
x
)−1.gradx (f )
La Hessienne
H fx =
∂2f
∂x1∂x1· · · ∂2f
∂x1∂xn...
...∂2f
∂x1∂xn· · · ∂2f
∂xn∂xn
Methodes derivees
N’est pas sans rappeler la methode dans RD’autres methodes consistent a approcher H
Remplacer H par sa diagonale pour mieux l’inverserRemplacer H par H + λI
intermediaire entre Newton et plus grande pentereglable par λ
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 82
![Page 220: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/220.jpg)
InterpolationDerivation numeriqueIntegration numerique
Partie IV
Interpolation, derivation et integration
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 83
![Page 221: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/221.jpg)
InterpolationDerivation numeriqueIntegration numerique
IV Interpolation, derivation et integration
11 InterpolationPolynomes de LagrangeAutre formes d’interpolations polynomialesInterpolation par splines
12 Derivation numeriqueDerivation numerique d’une fonction analytiqueDerivation numerique d’une fonction numerique
13 Integration numeriqueLes methodes de Newton-CotesIntegration de Gauss
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 84
![Page 222: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/222.jpg)
InterpolationDerivation numeriqueIntegration numerique
Polynomes de LagrangeAutre formes d’interpolations polynomialesInterpolation par splines
IV Interpolation, derivation et integration
11 InterpolationPolynomes de LagrangeAutre formes d’interpolations polynomialesInterpolation par splines
12 Derivation numeriqueDerivation numerique d’une fonction analytiqueDerivation numerique d’une fonction numerique
13 Integration numeriqueLes methodes de Newton-CotesIntegration de Gauss
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 85
![Page 223: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/223.jpg)
InterpolationDerivation numeriqueIntegration numerique
Polynomes de LagrangeAutre formes d’interpolations polynomialesInterpolation par splines
L’interpolation
Pourquoi interpoler ?
Obtenir une valeur approchee la ou il n’y a pas de valeurexacte
Deriver une fonction numerique
Integrer numeriquement avec d’avantage de precision
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 85
![Page 224: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/224.jpg)
InterpolationDerivation numeriqueIntegration numerique
Polynomes de LagrangeAutre formes d’interpolations polynomialesInterpolation par splines
IV Interpolation, derivation et integration
11 InterpolationPolynomes de LagrangeAutre formes d’interpolations polynomialesInterpolation par splines
12 Derivation numeriqueDerivation numerique d’une fonction analytiqueDerivation numerique d’une fonction numerique
13 Integration numeriqueLes methodes de Newton-CotesIntegration de Gauss
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 86
![Page 225: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/225.jpg)
InterpolationDerivation numeriqueIntegration numerique
Polynomes de LagrangeAutre formes d’interpolations polynomialesInterpolation par splines
Interpolation par les polynomes de LagrangeFaire passer un polynome de degre n − 1 par n points
n points a interpoler
∀i ∈ [1, n] , (xi , yi )
Polynome de degre n − 1
p (x) =n∑
i=1
yiLi (x)
Polynome de Lagrange associe aux n points 〈xi 〉 〈Li 〉Degre n − 1
Li (xk) = δik : 1 pour i = k, 0 sinon.
Expression du polynome de Lagrange
Annulation pour i 6= k
Normalisation a 1
Li
Li (x) =
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 86
![Page 226: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/226.jpg)
InterpolationDerivation numeriqueIntegration numerique
Polynomes de LagrangeAutre formes d’interpolations polynomialesInterpolation par splines
Interpolation par les polynomes de LagrangeFaire passer un polynome de degre n − 1 par n points
n points a interpoler
∀i ∈ [1, n] , (xi , yi )
Polynome de degre n − 1
p (x) =n∑
i=1
yiLi (x)
Polynome de Lagrange associe aux n points 〈xi 〉 〈Li 〉Degre n − 1
Li (xk) = δik : 1 pour i = k, 0 sinon.
Expression du polynome de Lagrange
Annulation pour i 6= k
Normalisation a 1
Li
Li (x) =
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 86
![Page 227: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/227.jpg)
InterpolationDerivation numeriqueIntegration numerique
Polynomes de LagrangeAutre formes d’interpolations polynomialesInterpolation par splines
Interpolation par les polynomes de LagrangeFaire passer un polynome de degre n − 1 par n points
n points a interpoler
∀i ∈ [1, n] , (xi , yi )
Polynome de degre n − 1
p (x) =n∑
i=1
yiLi (x)
Polynome de Lagrange associe aux n points 〈xi 〉 〈Li 〉Degre n − 1
Li (xk) = δik : 1 pour i = k, 0 sinon.
Expression du polynome de Lagrange
Annulation pour i 6= k
Normalisation a 1
Li
Li (x) =n∏
k=1,k 6=i
(x − xk)
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 86
![Page 228: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/228.jpg)
InterpolationDerivation numeriqueIntegration numerique
Polynomes de LagrangeAutre formes d’interpolations polynomialesInterpolation par splines
Interpolation par les polynomes de LagrangeFaire passer un polynome de degre n − 1 par n points
n points a interpoler
∀i ∈ [1, n] , (xi , yi )
Polynome de degre n − 1
p (x) =n∑
i=1
yiLi (x)
Polynome de Lagrange associe aux n points 〈xi 〉 〈Li 〉Degre n − 1
Li (xk) = δik : 1 pour i = k, 0 sinon.
Expression du polynome de Lagrange
Annulation pour i 6= k
Normalisation a 1
Li
Li (x) =n∏
k=1,k 6=i
x − xk
xi − xk
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 86
![Page 229: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/229.jpg)
InterpolationDerivation numeriqueIntegration numerique
Polynomes de LagrangeAutre formes d’interpolations polynomialesInterpolation par splines
IV Interpolation, derivation et integration
11 InterpolationPolynomes de LagrangeAutre formes d’interpolations polynomialesInterpolation par splines
12 Derivation numeriqueDerivation numerique d’une fonction analytiqueDerivation numerique d’une fonction numerique
13 Integration numeriqueLes methodes de Newton-CotesIntegration de Gauss
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 87
![Page 230: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/230.jpg)
InterpolationDerivation numeriqueIntegration numerique
Polynomes de LagrangeAutre formes d’interpolations polynomialesInterpolation par splines
Autre formes d’interpolation polynomiale
Polynome de Newton
Meme degre que le polynome d’interpolation de Lagrange
Passe par les meme points
C’est le meme
Juste une autre facon de calculer
Interpolation de Hermite p (x) =n∑
i=1
yiHi (x) +n∑
i=1
y ′i Hi (x)
Les Hi interpollent y , les Hi interpolent y ′
n contraintes supplementaires : degre 2n − 1
Hi (x) = (1− 2(x − xi )L′i (xi )) [Li (x)]2
Hi (x) = [Li (x)]2 (x − xi )
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 87
![Page 231: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/231.jpg)
InterpolationDerivation numeriqueIntegration numerique
Polynomes de LagrangeAutre formes d’interpolations polynomialesInterpolation par splines
Autre formes d’interpolation polynomiale
Polynome de Newton
Meme degre que le polynome d’interpolation de Lagrange
Passe par les meme points
C’est le meme
Juste une autre facon de calculer
Interpolation de Hermite p (x) =n∑
i=1
yiHi (x) +n∑
i=1
y ′i Hi (x)
Les Hi interpollent y , les Hi interpolent y ′
n contraintes supplementaires : degre 2n − 1
Hi (x) = (1− 2(x − xi )L′i (xi )) [Li (x)]2
Hi (x) = [Li (x)]2 (x − xi )
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 87
![Page 232: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/232.jpg)
InterpolationDerivation numeriqueIntegration numerique
Polynomes de LagrangeAutre formes d’interpolations polynomialesInterpolation par splines
Autre formes d’interpolation polynomiale
Polynome de Newton
Meme degre que le polynome d’interpolation de Lagrange
Passe par les meme points
C’est le meme
Juste une autre facon de calculer
Interpolation de Hermite p (x) =n∑
i=1
yiHi (x) +n∑
i=1
y ′i Hi (x)
Les Hi interpollent y , les Hi interpolent y ′
n contraintes supplementaires : degre 2n − 1
Hi (x) = (1− 2(x − xi )L′i (xi )) [Li (x)]2
Hi (x) = [Li (x)]2 (x − xi )
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 87
![Page 233: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/233.jpg)
InterpolationDerivation numeriqueIntegration numerique
Polynomes de LagrangeAutre formes d’interpolations polynomialesInterpolation par splines
Autre formes d’interpolation polynomiale
Polynome de Newton
Meme degre que le polynome d’interpolation de Lagrange
Passe par les meme points
C’est le meme
Juste une autre facon de calculer
Interpolation de Hermite p (x) =n∑
i=1
yiHi (x) +n∑
i=1
y ′i Hi (x)
Les Hi interpollent y , les Hi interpolent y ′
n contraintes supplementaires : degre 2n − 1
Hi (x) = (1− 2(x − xi )L′i (xi )) [Li (x)]2
Hi (x) = [Li (x)]2 (x − xi )
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 87
![Page 234: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/234.jpg)
InterpolationDerivation numeriqueIntegration numerique
Polynomes de LagrangeAutre formes d’interpolations polynomialesInterpolation par splines
IV Interpolation, derivation et integration
11 InterpolationPolynomes de LagrangeAutre formes d’interpolations polynomialesInterpolation par splines
12 Derivation numeriqueDerivation numerique d’une fonction analytiqueDerivation numerique d’une fonction numerique
13 Integration numeriqueLes methodes de Newton-CotesIntegration de Gauss
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 88
![Page 235: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/235.jpg)
InterpolationDerivation numeriqueIntegration numerique
Polynomes de LagrangeAutre formes d’interpolations polynomialesInterpolation par splines
Principe de de l’interpolation par splinesL’interpolation par des regles de caoutchouc ou de contreplaque
Principe
Fonctions d’interpolation definie par morceaux
Continument derivable 2 fois
A interpoler ∀i ∈ [1, n] , (xi , yi )
n points, n − 1 splines s (x) a calculer
s (x) = ai + bix + cix2 + dix
3
4(n − 1) inconnues
Interpolation par f , n contraintes : ∀i ∈ [1, n] , f (xi ) = yi
Continuite de f ,f ′ et f ′′ aux frontieres des intervalles :3 ∗ (n − 2) contraintes
3 ∗ (n − 2) + n = 4n − 6 : il en manque 2, a inventer
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 88
![Page 236: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/236.jpg)
InterpolationDerivation numeriqueIntegration numerique
Polynomes de LagrangeAutre formes d’interpolations polynomialesInterpolation par splines
Principe de de l’interpolation par splinesL’interpolation par des regles de caoutchouc ou de contreplaque
Principe
Fonctions d’interpolation definie par morceaux
Continument derivable 2 fois
A interpoler ∀i ∈ [1, n] , (xi , yi )
n points, n − 1 splines s (x) a calculer
s (x) = ai + bix + cix2 + dix
3
4(n − 1) inconnues
Interpolation par f , n contraintes : ∀i ∈ [1, n] , f (xi ) = yi
Continuite de f ,f ′ et f ′′ aux frontieres des intervalles :3 ∗ (n − 2) contraintes
3 ∗ (n − 2) + n = 4n − 6 : il en manque 2, a inventer
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 88
![Page 237: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/237.jpg)
InterpolationDerivation numeriqueIntegration numerique
Polynomes de LagrangeAutre formes d’interpolations polynomialesInterpolation par splines
Principe de de l’interpolation par splinesL’interpolation par des regles de caoutchouc ou de contreplaque
Principe
Fonctions d’interpolation definie par morceaux
Continument derivable 2 fois
A interpoler ∀i ∈ [1, n] , (xi , yi )
n points, n − 1 splines s (x) a calculer
s (x) = ai + bix + cix2 + dix
3
4(n − 1) inconnues
Interpolation par f , n contraintes : ∀i ∈ [1, n] , f (xi ) = yi
Continuite de f ,f ′ et f ′′ aux frontieres des intervalles :3 ∗ (n − 2) contraintes
3 ∗ (n − 2) + n = 4n − 6 : il en manque 2, a inventer
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 88
![Page 238: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/238.jpg)
InterpolationDerivation numeriqueIntegration numerique
Polynomes de LagrangeAutre formes d’interpolations polynomialesInterpolation par splines
Principe de de l’interpolation par splinesL’interpolation par des regles de caoutchouc ou de contreplaque
Principe
Fonctions d’interpolation definie par morceaux
Continument derivable 2 fois
A interpoler ∀i ∈ [1, n] , (xi , yi )
n points, n − 1 splines s (x) a calculer
s (x) = ai + bix + cix2 + dix
3
4(n − 1) inconnues
Interpolation par f , n contraintes : ∀i ∈ [1, n] , f (xi ) = yi
Continuite de f ,f ′ et f ′′ aux frontieres des intervalles :3 ∗ (n − 2) contraintes
3 ∗ (n − 2) + n = 4n − 6 : il en manque 2, a inventer
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 88
![Page 239: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/239.jpg)
InterpolationDerivation numeriqueIntegration numerique
Polynomes de LagrangeAutre formes d’interpolations polynomialesInterpolation par splines
Principe de de l’interpolation par splinesL’interpolation par des regles de caoutchouc ou de contreplaque
Principe
Fonctions d’interpolation definie par morceaux
Continument derivable 2 fois
A interpoler ∀i ∈ [1, n] , (xi , yi )
n points, n − 1 splines s (x) a calculer
s (x) = ai + bix + cix2 + dix
3
4(n − 1) inconnues
Interpolation par f , n contraintes : ∀i ∈ [1, n] , f (xi ) = yi
Continuite de f ,f ′ et f ′′ aux frontieres des intervalles :3 ∗ (n − 2) contraintes
3 ∗ (n − 2) + n = 4n − 6 : il en manque 2, a inventer
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 88
![Page 240: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/240.jpg)
InterpolationDerivation numeriqueIntegration numerique
Polynomes de LagrangeAutre formes d’interpolations polynomialesInterpolation par splines
Principe de de l’interpolation par splinesL’interpolation par des regles de caoutchouc ou de contreplaque
Principe
Fonctions d’interpolation definie par morceaux
Continument derivable 2 fois
A interpoler ∀i ∈ [1, n] , (xi , yi )
n points, n − 1 splines s (x) a calculer
s (x) = ai + bix + cix2 + dix
3
4(n − 1) inconnues
Interpolation par f , n contraintes : ∀i ∈ [1, n] , f (xi ) = yi
Continuite de f ,f ′ et f ′′ aux frontieres des intervalles :3 ∗ (n − 2) contraintes
3 ∗ (n − 2) + n = 4n − 6 : il en manque 2, a inventer
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 88
![Page 241: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/241.jpg)
InterpolationDerivation numeriqueIntegration numerique
Derivation numerique d’une fonction analytiqueDerivation numerique d’une fonction numerique
IV Interpolation, derivation et integration
11 InterpolationPolynomes de LagrangeAutre formes d’interpolations polynomialesInterpolation par splines
12 Derivation numeriqueDerivation numerique d’une fonction analytiqueDerivation numerique d’une fonction numerique
13 Integration numeriqueLes methodes de Newton-CotesIntegration de Gauss
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 89
![Page 242: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/242.jpg)
InterpolationDerivation numeriqueIntegration numerique
Derivation numerique d’une fonction analytiqueDerivation numerique d’une fonction numerique
Fonction analytique ou fonction numerique ?
Deux grands classes de fonctions a distinguer
Celles qui sont definies analytiquement
Celles qui sont connues uniquement en certains points
Deux grandes classes de methodes
Les methode de derivations et d’integration numeriques peuventetre differentes dans les deux cas.
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 89
![Page 243: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/243.jpg)
InterpolationDerivation numeriqueIntegration numerique
Derivation numerique d’une fonction analytiqueDerivation numerique d’une fonction numerique
Fonction analytique ou fonction numerique ?
Deux grands classes de fonctions a distinguer
Celles qui sont definies analytiquement
Celles qui sont connues uniquement en certains points
Deux grandes classes de methodes
Les methode de derivations et d’integration numeriques peuventetre differentes dans les deux cas.
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 89
![Page 244: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/244.jpg)
InterpolationDerivation numeriqueIntegration numerique
Derivation numerique d’une fonction analytiqueDerivation numerique d’une fonction numerique
IV Interpolation, derivation et integration
11 InterpolationPolynomes de LagrangeAutre formes d’interpolations polynomialesInterpolation par splines
12 Derivation numeriqueDerivation numerique d’une fonction analytiqueDerivation numerique d’une fonction numerique
13 Integration numeriqueLes methodes de Newton-CotesIntegration de Gauss
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 90
![Page 245: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/245.jpg)
InterpolationDerivation numeriqueIntegration numerique
Derivation numerique d’une fonction analytiqueDerivation numerique d’une fonction numerique
Differences finies via le theoreme de TaylorL’application du developpement limite au calcul de la derivee
Theoreme de Taylor ordre 1
f ′ (x) = f (x+h)−f (x)h + o(1)
Quelle valeur pour le pas h ?
Pas trop petit
Division par zeroTroncature numerique
Pas trop grand
Troncature du DL
Estimation de l’erreur de troncature
Deuxieme terme du developpementh2 f ′′ (x + θh) : 0 ≤ θ ≤ 1
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 90
![Page 246: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/246.jpg)
InterpolationDerivation numeriqueIntegration numerique
Derivation numerique d’une fonction analytiqueDerivation numerique d’une fonction numerique
Differences finies via le theoreme de TaylorL’application du developpement limite au calcul de la derivee
Theoreme de Taylor ordre 1
f ′ (x) = f (x+h)−f (x)h + o(1)
Quelle valeur pour le pas h ?
Pas trop petit
Division par zeroTroncature numerique
Pas trop grand
Troncature du DL
Estimation de l’erreur de troncature
Deuxieme terme du developpementh2 f ′′ (x + θh) : 0 ≤ θ ≤ 1
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 90
![Page 247: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/247.jpg)
InterpolationDerivation numeriqueIntegration numerique
Derivation numerique d’une fonction analytiqueDerivation numerique d’une fonction numerique
Differences finies via le theoreme de TaylorL’application du developpement limite au calcul de la derivee
Theoreme de Taylor ordre 1
f ′ (x) = f (x+h)−f (x)h + o(1)
Quelle valeur pour le pas h ?
Pas trop petit
Division par zeroTroncature numerique
Pas trop grand
Troncature du DL
Estimation de l’erreur de troncature
Deuxieme terme du developpementh2 f ′′ (x + θh) : 0 ≤ θ ≤ 1
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 90
![Page 248: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/248.jpg)
InterpolationDerivation numeriqueIntegration numerique
Derivation numerique d’une fonction analytiqueDerivation numerique d’une fonction numerique
Differences finies via le theoreme de TaylorL’application du developpement limite au calcul de la derivee
Theoreme de Taylor ordre 1
f ′ (x) = f (x+h)−f (x)h + o(1)
Quelle valeur pour le pas h ?
Pas trop petit
Division par zeroTroncature numerique
Pas trop grand
Troncature du DL
Estimation de l’erreur de troncature
Deuxieme terme du developpementh2 f ′′ (x + θh) : 0 ≤ θ ≤ 1
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 90
![Page 249: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/249.jpg)
InterpolationDerivation numeriqueIntegration numerique
Derivation numerique d’une fonction analytiqueDerivation numerique d’une fonction numerique
Differences finies : les trois formules
Reduction de l’erreur de troncature
f (x + h) = f (x) + hf ′ (x) + h2
2 f ′′ (x) + o(h2)
f (x − h) = f (x)− hf ′ (x) + h2
2 f ′′ (x) + o(h2)
f ′ (x) = f (x+h)−f (x−h)2h + o(h)
Les trois formules16
A droite : f ′ (x) = f (x+h)−f (x)h + o(1)
A gauche : f ′ (x) = f (x)−f (x−h)h + o(1)
Centree : f ′ (x) = f (x+h)−f (x−h)2h + o(h)
16Il y en a d’autres : imaginez une formule en cinq points pour prendre encompte un terme de plus du DL.
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 91
![Page 250: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/250.jpg)
InterpolationDerivation numeriqueIntegration numerique
Derivation numerique d’une fonction analytiqueDerivation numerique d’une fonction numerique
Differences finies : les trois formules
Reduction de l’erreur de troncature
f (x + h) = f (x) + hf ′ (x) + h2
2 f ′′ (x) + o(h2)
f (x − h) = f (x)− hf ′ (x) + h2
2 f ′′ (x) + o(h2)
f ′ (x) = f (x+h)−f (x−h)2h + o(h)
Les trois formules16
A droite : f ′ (x) = f (x+h)−f (x)h + o(1)
A gauche : f ′ (x) = f (x)−f (x−h)h + o(1)
Centree : f ′ (x) = f (x+h)−f (x−h)2h + o(h)
16Il y en a d’autres : imaginez une formule en cinq points pour prendre encompte un terme de plus du DL.
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 91
![Page 251: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/251.jpg)
InterpolationDerivation numeriqueIntegration numerique
Derivation numerique d’une fonction analytiqueDerivation numerique d’une fonction numerique
Differences finies : les trois formules
Reduction de l’erreur de troncature
f (x + h) = f (x) + hf ′ (x) + h2
2 f ′′ (x) + o(h2)
f (x − h) = f (x)− hf ′ (x) + h2
2 f ′′ (x) + o(h2)
f ′ (x) = f (x+h)−f (x−h)2h + o(h)
Les trois formules16
A droite : f ′ (x) = f (x+h)−f (x)h + o(1)
A gauche : f ′ (x) = f (x)−f (x−h)h + o(1)
Centree : f ′ (x) = f (x+h)−f (x−h)2h + o(h)
16Il y en a d’autres : imaginez une formule en cinq points pour prendre encompte un terme de plus du DL.
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 91
![Page 252: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/252.jpg)
InterpolationDerivation numeriqueIntegration numerique
Derivation numerique d’une fonction analytiqueDerivation numerique d’une fonction numerique
Differences finies : pour aller plus loin
Derivee premiere : un ordre de plus dans le DL
Derivee centree avec deux pas differents (e.g. doubles)
Differenciation ponderee
. . .
Derivee seconde : une formule centree ?
Derivee a droite
Derivee a gauche
f ′′ (x) = f (x+h)+f (x−h)−2f (x)h2 + o(1)
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 92
![Page 253: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/253.jpg)
InterpolationDerivation numeriqueIntegration numerique
Derivation numerique d’une fonction analytiqueDerivation numerique d’une fonction numerique
Differences finies : pour aller plus loin
Derivee premiere : un ordre de plus dans le DL
Derivee centree avec deux pas differents (e.g. doubles)
Differenciation ponderee
. . .
Derivee seconde : une formule centree ?
Derivee a droite
Derivee a gauche
f ′′ (x) = f (x+h)+f (x−h)−2f (x)h2 + o(1)
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 92
![Page 254: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/254.jpg)
InterpolationDerivation numeriqueIntegration numerique
Derivation numerique d’une fonction analytiqueDerivation numerique d’une fonction numerique
Methode des coefficients indeterminesOu comment produire des formules aux differences finies pour une approximation a unordre arbitraire
Exemple au premier ordre coefficients inconnus : a0, a− et a+
Supposons une approximation de la derivee
f ′ (x) ≈ a+f (x + h) + a0f (x) + a−f (x − h)
Supposons la relation verifiee exactement lorsque f est unpolynome
Trois inconnues, trois polynomes : 1,x et x2
a0 = 0a+ = −a− = 1
2h
Aller plus loin ?
Plus d’inconnues
Plus de polynomes
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 93
![Page 255: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/255.jpg)
InterpolationDerivation numeriqueIntegration numerique
Derivation numerique d’une fonction analytiqueDerivation numerique d’une fonction numerique
Methode des coefficients indeterminesOu comment produire des formules aux differences finies pour une approximation a unordre arbitraire
Exemple au premier ordre coefficients inconnus : a0, a− et a+
Supposons une approximation de la derivee
f ′ (x) ≈ a+f (x + h) + a0f (x) + a−f (x − h)
Supposons la relation verifiee exactement lorsque f est unpolynome
Trois inconnues, trois polynomes : 1,x et x2
a0 = 0a+ = −a− = 1
2h
Aller plus loin ?
Plus d’inconnues
Plus de polynomes
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 93
![Page 256: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/256.jpg)
InterpolationDerivation numeriqueIntegration numerique
Derivation numerique d’une fonction analytiqueDerivation numerique d’une fonction numerique
Methode des coefficients indeterminesOu comment produire des formules aux differences finies pour une approximation a unordre arbitraire
Exemple au premier ordre coefficients inconnus : a0, a− et a+
Supposons une approximation de la derivee
f ′ (x) ≈ a+f (x + h) + a0f (x) + a−f (x − h)
Supposons la relation verifiee exactement lorsque f est unpolynome
Trois inconnues, trois polynomes : 1,x et x2
a0 = 0a+ = −a− = 1
2h
Aller plus loin ?
Plus d’inconnues
Plus de polynomes
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 93
![Page 257: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/257.jpg)
InterpolationDerivation numeriqueIntegration numerique
Derivation numerique d’une fonction analytiqueDerivation numerique d’une fonction numerique
Methode des coefficients indeterminesOu comment produire des formules aux differences finies pour une approximation a unordre arbitraire
Exemple au premier ordre coefficients inconnus : a0, a− et a+
Supposons une approximation de la derivee
f ′ (x) ≈ a+f (x + h) + a0f (x) + a−f (x − h)
Supposons la relation verifiee exactement lorsque f est unpolynome
Trois inconnues, trois polynomes : 1,x et x2
a0 = 0a+ = −a− = 1
2h
Aller plus loin ?
Plus d’inconnues
Plus de polynomes
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 93
![Page 258: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/258.jpg)
InterpolationDerivation numeriqueIntegration numerique
Derivation numerique d’une fonction analytiqueDerivation numerique d’une fonction numerique
IV Interpolation, derivation et integration
11 InterpolationPolynomes de LagrangeAutre formes d’interpolations polynomialesInterpolation par splines
12 Derivation numeriqueDerivation numerique d’une fonction analytiqueDerivation numerique d’une fonction numerique
13 Integration numeriqueLes methodes de Newton-CotesIntegration de Gauss
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 94
![Page 259: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/259.jpg)
InterpolationDerivation numeriqueIntegration numerique
Derivation numerique d’une fonction analytiqueDerivation numerique d’une fonction numerique
Cas d’une fonction connue seulement par ses valeurs encertains points
Si c’est une fonction issue d’un calcul
Lorsque les points d’echantillonnage sont equidistants :methodes precedentes applicables
Sinon : il faut avoir recours a l’interpolation
Si ce sont des donnees experimentales
Necessairement irregulierement espacees
Incertitude sur l’abscisse
Grosses erreurs sur la derivee
Seule methode possible : derivation d’une fonction construite
Par interpolationPar approximation
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 94
![Page 260: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/260.jpg)
InterpolationDerivation numeriqueIntegration numerique
Derivation numerique d’une fonction analytiqueDerivation numerique d’une fonction numerique
Cas d’une fonction connue seulement par ses valeurs encertains points
Si c’est une fonction issue d’un calcul
Lorsque les points d’echantillonnage sont equidistants :methodes precedentes applicables
Sinon : il faut avoir recours a l’interpolation
Si ce sont des donnees experimentales
Necessairement irregulierement espacees
Incertitude sur l’abscisse
Grosses erreurs sur la derivee
Seule methode possible : derivation d’une fonction construite
Par interpolationPar approximation
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 94
![Page 261: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/261.jpg)
InterpolationDerivation numeriqueIntegration numerique
Derivation numerique d’une fonction analytiqueDerivation numerique d’une fonction numerique
Cas d’une fonction connue seulement par ses valeurs encertains points
Si c’est une fonction issue d’un calcul
Lorsque les points d’echantillonnage sont equidistants :methodes precedentes applicables
Sinon : il faut avoir recours a l’interpolation
Si ce sont des donnees experimentales
Necessairement irregulierement espacees
Incertitude sur l’abscisse
Grosses erreurs sur la derivee
Seule methode possible : derivation d’une fonction construite
Par interpolationPar approximation
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 94
![Page 262: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/262.jpg)
InterpolationDerivation numeriqueIntegration numerique
Les methodes de Newton-CotesIntegration de Gauss
IV Interpolation, derivation et integration
11 InterpolationPolynomes de LagrangeAutre formes d’interpolations polynomialesInterpolation par splines
12 Derivation numeriqueDerivation numerique d’une fonction analytiqueDerivation numerique d’une fonction numerique
13 Integration numeriqueLes methodes de Newton-CotesIntegration de Gauss
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 95
![Page 263: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/263.jpg)
InterpolationDerivation numeriqueIntegration numerique
Les methodes de Newton-CotesIntegration de Gauss
Deux grandes classes de methodesOn cherche a integrer numeriquement f sur l’intervalle [a, b]
Les methodes de Newton-Cotes
Choix a priori d’un pas fixe h : nh = (b − a)
Interpolation polynomiale
Integration du polynome
L’integration de Gauss
Echantillonnage variable
Algorithme plus performant mais plus complexe
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 95
![Page 264: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/264.jpg)
InterpolationDerivation numeriqueIntegration numerique
Les methodes de Newton-CotesIntegration de Gauss
Deux grandes classes de methodesOn cherche a integrer numeriquement f sur l’intervalle [a, b]
Les methodes de Newton-Cotes
Choix a priori d’un pas fixe h : nh = (b − a)
Interpolation polynomiale
Integration du polynome
L’integration de Gauss
Echantillonnage variable
Algorithme plus performant mais plus complexe
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 95
![Page 265: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/265.jpg)
InterpolationDerivation numeriqueIntegration numerique
Les methodes de Newton-CotesIntegration de Gauss
IV Interpolation, derivation et integration
11 InterpolationPolynomes de LagrangeAutre formes d’interpolations polynomialesInterpolation par splines
12 Derivation numeriqueDerivation numerique d’une fonction analytiqueDerivation numerique d’une fonction numerique
13 Integration numeriqueLes methodes de Newton-CotesIntegration de Gauss
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 96
![Page 266: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/266.jpg)
InterpolationDerivation numeriqueIntegration numerique
Les methodes de Newton-CotesIntegration de Gauss
Newton-Cotes : interpolation polynomiale a pas fixePas h = (b − a)/n, xi = a + ih
Integration et interpolation polynomiale
Interpolation polynomiale par les n + 1 points
Integration du polynome
Calcul faisable une fois pour toute : les nombres de Cotes
∫ b
af ≈
n∑i=0
hAWi f (xi )
n A W0 W1 W2 W3 W4
0 1 11 1/2 1 12 1/3 1 4 13 3/8 1 3 3 14 2/45 7 32 21 32 7
Inconvenient quand n croıt
Comportement oscillatoire d’un polynome de degre eleve
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 96
![Page 267: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/267.jpg)
InterpolationDerivation numeriqueIntegration numerique
Les methodes de Newton-CotesIntegration de Gauss
Newton-Cotes : interpolation polynomiale a pas fixePas h = (b − a)/n, xi = a + ih
Integration et interpolation polynomiale
Interpolation polynomiale par les n + 1 points
Integration du polynome
Calcul faisable une fois pour toute : les nombres de Cotes
∫ b
af ≈
n∑i=0
hAWi f (xi )
n A W0 W1 W2 W3 W4
0 1 11 1/2 1 12 1/3 1 4 13 3/8 1 3 3 14 2/45 7 32 21 32 7
Inconvenient quand n croıt
Comportement oscillatoire d’un polynome de degre eleve
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 96
![Page 268: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/268.jpg)
InterpolationDerivation numeriqueIntegration numerique
Les methodes de Newton-CotesIntegration de Gauss
Newton-Cotes : interpolation polynomiale a pas fixePas h = (b − a)/n, xi = a + ih
Integration et interpolation polynomiale
Interpolation polynomiale par les n + 1 points
Integration du polynome
Calcul faisable une fois pour toute : les nombres de Cotes
∫ b
af ≈
n∑i=0
hAWi f (xi )
n A W0 W1 W2 W3 W4
0 1 11 1/2 1 12 1/3 1 4 13 3/8 1 3 3 14 2/45 7 32 21 32 7
Inconvenient quand n croıt
Comportement oscillatoire d’un polynome de degre eleve
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 96
![Page 269: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/269.jpg)
InterpolationDerivation numeriqueIntegration numerique
Les methodes de Newton-CotesIntegration de Gauss
Methodes composeesPour augmenter la precision de Newton-Cotes
Decoupage du domaine en sous-intervalles
n intervalles
n interpolation d’ordre 0 : methode des rectangles
n − 1 interpolations d’ordre 1 : methode des trapezes
2/n interpolations d’ordre 2 : methode de Simpson
. . . Simpson (ordre 3) et Villarceau (ordre 4)
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 97
![Page 270: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/270.jpg)
InterpolationDerivation numeriqueIntegration numerique
Les methodes de Newton-CotesIntegration de Gauss
Methodes composeesPour augmenter la precision de Newton-Cotes
Decoupage du domaine en sous-intervalles
n intervalles
n interpolation d’ordre 0 : methode des rectangles
n − 1 interpolations d’ordre 1 : methode des trapezes
2/n interpolations d’ordre 2 : methode de Simpson
. . . Simpson (ordre 3) et Villarceau (ordre 4)
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 97
![Page 271: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/271.jpg)
InterpolationDerivation numeriqueIntegration numerique
Les methodes de Newton-CotesIntegration de Gauss
Methodes composeesPour augmenter la precision de Newton-Cotes
Decoupage du domaine en sous-intervalles
n intervalles
n interpolation d’ordre 0 : methode des rectangles
n − 1 interpolations d’ordre 1 : methode des trapezes
2/n interpolations d’ordre 2 : methode de Simpson
. . . Simpson (ordre 3) et Villarceau (ordre 4)
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 97
![Page 272: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/272.jpg)
InterpolationDerivation numeriqueIntegration numerique
Les methodes de Newton-CotesIntegration de Gauss
Methodes composeesPour augmenter la precision de Newton-Cotes
Decoupage du domaine en sous-intervalles
n intervalles
n interpolation d’ordre 0 : methode des rectangles
n − 1 interpolations d’ordre 1 : methode des trapezes
2/n interpolations d’ordre 2 : methode de Simpson
. . . Simpson (ordre 3) et Villarceau (ordre 4)
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 97
![Page 273: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/273.jpg)
InterpolationDerivation numeriqueIntegration numerique
Les methodes de Newton-CotesIntegration de Gauss
IV Interpolation, derivation et integration
11 InterpolationPolynomes de LagrangeAutre formes d’interpolations polynomialesInterpolation par splines
12 Derivation numeriqueDerivation numerique d’une fonction analytiqueDerivation numerique d’une fonction numerique
13 Integration numeriqueLes methodes de Newton-CotesIntegration de Gauss
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 98
![Page 274: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/274.jpg)
InterpolationDerivation numeriqueIntegration numerique
Les methodes de Newton-CotesIntegration de Gauss
Prelude : polynomes de Legendre
Polynomes de Legendre
P0 (x) = 1
P1 (x) = x
(n + 1) Pn+1 (x) =(2n + 1) xPn (x)− nPn−1 (x)
Orthogonalite sur [−1, 1]
∀m 6= n,
∫ 1
−1Pn (x) Pm (x) dx = 0⇔ ∀m 6= n,Pn ⊥ Pm
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 98
![Page 275: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/275.jpg)
InterpolationDerivation numeriqueIntegration numerique
Les methodes de Newton-CotesIntegration de Gauss
Prelude : polynomes de Legendre
Polynomes de Legendre
P0 (x) = 1
P1 (x) = x
(n + 1) Pn+1 (x) =(2n + 1) xPn (x)− nPn−1 (x)
-1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1
-1
-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
0.6
0.8
1
Orthogonalite sur [−1, 1]
∀m 6= n,
∫ 1
−1Pn (x) Pm (x) dx = 0⇔ ∀m 6= n,Pn ⊥ Pm
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 98
![Page 276: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/276.jpg)
InterpolationDerivation numeriqueIntegration numerique
Les methodes de Newton-CotesIntegration de Gauss
Prelude : polynomes de Legendre
Polynomes de Legendre
P0 (x) = 1
P1 (x) = x
(n + 1) Pn+1 (x) =(2n + 1) xPn (x)− nPn−1 (x)
-1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1
-1
-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
0.6
0.8
1
Orthogonalite sur [−1, 1]
∀m 6= n,
∫ 1
−1Pn (x) Pm (x) dx = 0⇔ ∀m 6= n,Pn ⊥ Pm
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 98
![Page 277: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/277.jpg)
InterpolationDerivation numeriqueIntegration numerique
Les methodes de Newton-CotesIntegration de Gauss
Integration de Gauss et interpolation de Hermite
A integrer : f sur [a, b]
Interpolation de Hermite
f (x) ≈n∑
i=1
f (ai ) Hi (x) +n∑
i=1
f ′ (ai ) Hi (x)
Integration terme a terme :∫ b
af (x) dx ≈
n∑i=1
f (ai )Hi (x) +n∑
i=1
f ′ (ai ) Hi (x)
Il reste a annuler le terme contenant la derivee inconnue
Interpolation de Hermite : Hi (x) =∫ ba (x − ai ) L2
i (x) dx
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 99
![Page 278: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/278.jpg)
InterpolationDerivation numeriqueIntegration numerique
Les methodes de Newton-CotesIntegration de Gauss
Integration de Gauss et interpolation de Hermite
A integrer : f sur [a, b]
Interpolation de Hermite
f (x) ≈n∑
i=1
f (ai ) Hi (x) +n∑
i=1
f ′ (ai ) Hi (x)
Integration terme a terme :∫ b
af (x) dx ≈
n∑i=1
f (ai )Hi (x) +n∑
i=1
f ′ (ai ) Hi (x)
Il reste a annuler le terme contenant la derivee inconnue
Interpolation de Hermite : Hi (x) =∫ ba (x − ai ) L2
i (x) dx
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 99
![Page 279: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/279.jpg)
InterpolationDerivation numeriqueIntegration numerique
Les methodes de Newton-CotesIntegration de Gauss
Integration de Gauss et interpolation de Hermite
A integrer : f sur [a, b]
Interpolation de Hermite
f (x) ≈n∑
i=1
f (ai ) Hi (x) +n∑
i=1
f ′ (ai ) Hi (x)
Integration terme a terme :∫ b
af (x) dx ≈
n∑i=1
f (ai )Hi (x) +n∑
i=1
f ′ (ai ) Hi (x)
Il reste a annuler le terme contenant la derivee inconnue
Interpolation de Hermite : Hi (x) =∫ ba (x − ai ) L2
i (x) dx
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 99
![Page 280: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/280.jpg)
InterpolationDerivation numeriqueIntegration numerique
Les methodes de Newton-CotesIntegration de Gauss
Integration de Gauss : choix des points d’echantillonnage
Des racines. . . π (x) =n∏
k=0
(x − xk)
A annuler Hi (x) =∫ ba (x − ai ) L2
i (x) =∫ ba π (x) Li (x)
π′(ai )dx
Si les Li et π ont les 〈ai 〉 comme racines communes, π a uneracine (donc un degre) de plus
Meme racines que les polynomes de Legendre : identiques (aun facteur pres)
Si les 〈ai 〉 sont racines des polynomes de Legendre : π ⊥ Li
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 100
![Page 281: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/281.jpg)
InterpolationDerivation numeriqueIntegration numerique
Les methodes de Newton-CotesIntegration de Gauss
Integration de Gauss : choix des points d’echantillonnage
Des racines. . . π (x) =n∏
k=0
(x − xk)
A annuler Hi (x) =∫ ba (x − ai ) L2
i (x) =∫ ba π (x) Li (x)
π′(ai )dx
Si les Li et π ont les 〈ai 〉 comme racines communes, π a uneracine (donc un degre) de plus
Meme racines que les polynomes de Legendre : identiques (aun facteur pres)
Si les 〈ai 〉 sont racines des polynomes de Legendre : π ⊥ Li
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 100
![Page 282: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/282.jpg)
InterpolationDerivation numeriqueIntegration numerique
Les methodes de Newton-CotesIntegration de Gauss
Integration de Gauss : choix des points d’echantillonnage
Des racines. . . π (x) =n∏
k=0
(x − xk)
A annuler Hi (x) =∫ ba (x − ai ) L2
i (x) =∫ ba π (x) Li (x)
π′(ai )dx
Si les Li et π ont les 〈ai 〉 comme racines communes, π a uneracine (donc un degre) de plus
Meme racines que les polynomes de Legendre : identiques (aun facteur pres)
Si les 〈ai 〉 sont racines des polynomes de Legendre : π ⊥ Li
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 100
![Page 283: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/283.jpg)
InterpolationDerivation numeriqueIntegration numerique
Les methodes de Newton-CotesIntegration de Gauss
Integration de Gauss : choix des points d’echantillonnage
Des racines. . . π (x) =n∏
k=0
(x − xk)
A annuler Hi (x) =∫ ba (x − ai ) L2
i (x) =∫ ba π (x) Li (x)
π′(ai )dx
Si les Li et π ont les 〈ai 〉 comme racines communes, π a uneracine (donc un degre) de plus
Meme racines que les polynomes de Legendre : identiques (aun facteur pres)
Si les 〈ai 〉 sont racines des polynomes de Legendre : π ⊥ Li
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 100
![Page 284: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/284.jpg)
InterpolationDerivation numeriqueIntegration numerique
Les methodes de Newton-CotesIntegration de Gauss
Integration de Gauss : bilan
Les polynomes de Legendre ne sont definis que sur [−1, 1]
Changement de variable ξ = 12 (a + b)− 1
2 (a− b) x
Formule obtenue∫ 1
−1f (ξ) d ξ ≈
n∑i=1
f (ai )Hi (ξ)
Hi =
∫ 1
−1Li
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 101
![Page 285: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/285.jpg)
InterpolationDerivation numeriqueIntegration numerique
Les methodes de Newton-CotesIntegration de Gauss
Integration de Gauss : bilan
Les polynomes de Legendre ne sont definis que sur [−1, 1]
Changement de variable ξ = 12 (a + b)− 1
2 (a− b) x
Formule obtenue∫ 1
−1f (ξ) d ξ ≈
n∑i=1
f (ai )Hi (ξ)
Hi =
∫ 1
−1Li
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 101
![Page 286: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/286.jpg)
InterpolationDerivation numeriqueIntegration numerique
Les methodes de Newton-CotesIntegration de Gauss
Integration de Gauss : variantes
Methode precedente inapplicable pour les intervalles ouverts
On prendra les racines d’autres polynomes orthogonaux
sur ]− 1, 1[ : Chebychev
sur R+ : Laguerre
sur R− : Hermite
Modification de la notion d’orthogonalite
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 102
![Page 287: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/287.jpg)
InterpolationDerivation numeriqueIntegration numerique
Les methodes de Newton-CotesIntegration de Gauss
Integration de Gauss : variantes
Methode precedente inapplicable pour les intervalles ouverts
On prendra les racines d’autres polynomes orthogonaux
sur ]− 1, 1[ : Chebychev
sur R+ : Laguerre
sur R− : Hermite
Modification de la notion d’orthogonalite
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 102
![Page 288: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/288.jpg)
Approximation et moindres carresMethode du χ2
Partie V
Interpretation de donnees experimentales
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 103
![Page 289: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/289.jpg)
Approximation et moindres carresMethode du χ2
V Interpretation de donnees experimentales
14 Approximation et moindres carresModelisation et ajustementMoindres carres
15 Methode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 104
![Page 290: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/290.jpg)
Approximation et moindres carresMethode du χ2
Modelisation et ajustementMoindres carres
V Interpretation de donnees experimentales
14 Approximation et moindres carresModelisation et ajustementMoindres carres
15 Methode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 105
![Page 291: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/291.jpg)
Approximation et moindres carresMethode du χ2
Modelisation et ajustementMoindres carres
Modelisation et points experimentauxComment ajuster une courbe continue sur des points experimentaux ?
A l’œil
Guide pour les yeux
Interpretation
Grandeurs quantitatives peupertinentes
En ajustant g (〈xi 〉 ; 〈aj〉)〈xi 〉 : abscisses connues
〈aj〉 : parametres a determiner x
y
Linreg : y = 1.4*x + 3.3
-50 -25 0 25 50-100
-80
-60
-40
-20
0
20
40
60
80
100
PointsRegression Lineaire
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 105
![Page 292: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/292.jpg)
Approximation et moindres carresMethode du χ2
Modelisation et ajustementMoindres carres
Modelisation et points experimentauxComment ajuster une courbe continue sur des points experimentaux ?
A l’œil
Guide pour les yeux
Interpretation
Grandeurs quantitatives peupertinentes
En ajustant g (〈xi 〉 ; 〈aj〉)〈xi 〉 : abscisses connues
〈aj〉 : parametres a determiner x
y
Linreg : y = 1.4*x + 3.3
-50 -25 0 25 50-100
-80
-60
-40
-20
0
20
40
60
80
100
PointsRegression Lineaire
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 105
![Page 293: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/293.jpg)
Approximation et moindres carresMethode du χ2
Modelisation et ajustementMoindres carres
Modelisation et points experimentauxComment ajuster une courbe continue sur des points experimentaux ?
A l’œil
Guide pour les yeux
Interpretation
Grandeurs quantitatives peupertinentes
En ajustant g (〈xi 〉 ; 〈aj〉)〈xi 〉 : abscisses connues
〈aj〉 : parametres a determiner
Questions
Meilleurs valeurs pour 〈aj〉 ?
Qualite de la representation ?
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 105
![Page 294: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/294.jpg)
Approximation et moindres carresMethode du χ2
Modelisation et ajustementMoindres carres
V Interpretation de donnees experimentales
14 Approximation et moindres carresModelisation et ajustementMoindres carres
15 Methode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 106
![Page 295: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/295.jpg)
Approximation et moindres carresMethode du χ2
Modelisation et ajustementMoindres carres
Le probleme de l’ajustement de parametresAjustement de parametres, ou approximation, ou, en anglais, fit
Un probleme statistique
〈(x , y)i 〉 , i ∈ {0..N} : N + 1 points experimentaux
〈aj〉 , j ∈ {0..M} : M + 1 parametres a determiner
M � N : sinon ce n’est pas un ajustement
Minimisation des moindres carres
Determination d’un modele : y = g (x ; 〈aj〉)Estimation d’une erreur : S =
∑Ni=0 [yi − g (xi ; 〈aj〉)]2
Minimisation de l’erreur
Via une methode d’optimisationVia un systeme ∀j ∈ {0..M} , ∂S
∂aj= 0
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 106
![Page 296: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/296.jpg)
Approximation et moindres carresMethode du χ2
Modelisation et ajustementMoindres carres
Le probleme de l’ajustement de parametresAjustement de parametres, ou approximation, ou, en anglais, fit
Un probleme statistique
〈(x , y)i 〉 , i ∈ {0..N} : N + 1 points experimentaux
〈aj〉 , j ∈ {0..M} : M + 1 parametres a determiner
M � N : sinon ce n’est pas un ajustement
Minimisation des moindres carres
Determination d’un modele : y = g (x ; 〈aj〉)Estimation d’une erreur : S =
∑Ni=0 [yi − g (xi ; 〈aj〉)]2
Minimisation de l’erreur
Via une methode d’optimisationVia un systeme ∀j ∈ {0..M} , ∂S
∂aj= 0
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 106
![Page 297: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/297.jpg)
Approximation et moindres carresMethode du χ2
Modelisation et ajustementMoindres carres
Le probleme de l’ajustement de parametresAjustement de parametres, ou approximation, ou, en anglais, fit
Un probleme statistique
〈(x , y)i 〉 , i ∈ {0..N} : N + 1 points experimentaux
〈aj〉 , j ∈ {0..M} : M + 1 parametres a determiner
M � N : sinon ce n’est pas un ajustement
Minimisation des moindres carres
Determination d’un modele : y = g (x ; 〈aj〉)Estimation d’une erreur : S =
∑Ni=0 [yi − g (xi ; 〈aj〉)]2
Minimisation de l’erreur
Via une methode d’optimisationVia un systeme ∀j ∈ {0..M} , ∂S
∂aj= 0
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 106
![Page 298: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/298.jpg)
Approximation et moindres carresMethode du χ2
Modelisation et ajustementMoindres carres
Le probleme de l’ajustement de parametresAjustement de parametres, ou approximation, ou, en anglais, fit
Un probleme statistique
〈(x , y)i 〉 , i ∈ {0..N} : N + 1 points experimentaux
〈aj〉 , j ∈ {0..M} : M + 1 parametres a determiner
M � N : sinon ce n’est pas un ajustement
Minimisation des moindres carres
Determination d’un modele : y = g (x ; 〈aj〉)Estimation d’une erreur : S =
∑Ni=0 [yi − g (xi ; 〈aj〉)]2
Minimisation de l’erreur
Via une methode d’optimisationVia un systeme ∀j ∈ {0..M} , ∂S
∂aj= 0
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 106
![Page 299: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/299.jpg)
Approximation et moindres carresMethode du χ2
Modelisation et ajustementMoindres carres
Le probleme de l’ajustement de parametresAjustement de parametres, ou approximation, ou, en anglais, fit
Un probleme statistique
〈(x , y)i 〉 , i ∈ {0..N} : N + 1 points experimentaux
〈aj〉 , j ∈ {0..M} : M + 1 parametres a determiner
M � N : sinon ce n’est pas un ajustement
Minimisation des moindres carres
Determination d’un modele : y = g (x ; 〈aj〉)Estimation d’une erreur :S =
∑Ni=0 [yi − g (xi ; 〈aj〉)]2 =
∑Ni=0 [yi − gi ]
2
Minimisation de l’erreur
Via une methode d’optimisationVia un systeme ∀j ∈ {0..M} , ∂S
∂aj= 0
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 106
![Page 300: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/300.jpg)
Approximation et moindres carresMethode du χ2
Modelisation et ajustementMoindres carres
Le probleme de l’ajustement de parametresAjustement de parametres, ou approximation, ou, en anglais, fit
Un probleme statistique
〈(x , y)i 〉 , i ∈ {0..N} : N + 1 points experimentaux
〈aj〉 , j ∈ {0..M} : M + 1 parametres a determiner
M � N : sinon ce n’est pas un ajustement
Minimisation des moindres carres
Determination d’un modele : y = g (x ; 〈aj〉)Estimation d’une erreur : S =
∑Ni=0 [yi − g (xi ; 〈aj〉)]2 =∑N
i=0 [yi − gi ]2 =
∑Ni=0 (GiMi )
2
Minimisation de l’erreur
Via une methode d’optimisationVia un systeme ∀j ∈ {0..M} , ∂S
∂aj= 0
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 106
![Page 301: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/301.jpg)
Approximation et moindres carresMethode du χ2
Modelisation et ajustementMoindres carres
Le probleme de l’ajustement de parametresAjustement de parametres, ou approximation, ou, en anglais, fit
Un probleme statistique
〈(x , y)i 〉 , i ∈ {0..N} : N + 1 points experimentaux
〈aj〉 , j ∈ {0..M} : M + 1 parametres a determiner
M � N : sinon ce n’est pas un ajustement
Minimisation des moindres carres
Determination d’un modele : y = g (x ; 〈aj〉)Estimation d’une erreur : S =
∑Ni=0 [yi − g (xi ; 〈aj〉)]2 =∑N
i=0 [yi − gi ]2 =
∑Ni=0 (GiMi )
2
Minimisation de l’erreur
Via une methode d’optimisationVia un systeme ∀j ∈ {0..M} , ∂S
∂aj= 0
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 106
![Page 302: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/302.jpg)
Approximation et moindres carresMethode du χ2
Modelisation et ajustementMoindres carres
Le probleme de l’ajustement de parametresAjustement de parametres, ou approximation, ou, en anglais, fit
Un probleme statistique
〈(x , y)i 〉 , i ∈ {0..N} : N + 1 points experimentaux
〈aj〉 , j ∈ {0..M} : M + 1 parametres a determiner
M � N : sinon ce n’est pas un ajustement
Minimisation des moindres carres
Determination d’un modele : y = g (x ; 〈aj〉)Estimation d’une erreur : S =
∑Ni=0 [yi − g (xi ; 〈aj〉)]2 =∑N
i=0 [yi − gi ]2 =
∑Ni=0 (GiMi )
2
Minimisation de l’erreur
Via une methode d’optimisationVia un systeme ∀j ∈ {0..M} , ∂S
∂aj= 0
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 106
![Page 303: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/303.jpg)
Approximation et moindres carresMethode du χ2
Modelisation et ajustementMoindres carres
Le probleme de l’ajustement de parametresAjustement de parametres, ou approximation, ou, en anglais, fit
Un probleme statistique
〈(x , y)i 〉 , i ∈ {0..N} : N + 1 points experimentaux
〈aj〉 , j ∈ {0..M} : M + 1 parametres a determiner
M � N : sinon ce n’est pas un ajustement
Minimisation des moindres carres
Determination d’un modele : y = g (x ; 〈aj〉)Estimation d’une erreur : S =
∑Ni=0 [yi − g (xi ; 〈aj〉)]2 =∑N
i=0 [yi − gi ]2 =
∑Ni=0 (GiMi )
2
Minimisation de l’erreur
Via une methode d’optimisationVia un systeme ∀j ∈ {0..M} , ∂S
∂aj= 0
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 106
![Page 304: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/304.jpg)
Approximation et moindres carresMethode du χ2
Modelisation et ajustementMoindres carres
Equivalence avec un systeme de M+1 equationsUne application de l’equivalence optimisation/resolution
Minimisation de l’erreur
∀j ∈ {0..M} , ∂S∂aj
= 0
∀j ∈ {0..M} ,∑N
i=0 2 (yi − gi )(−∂gi∂aj
)∀j ∈ {0..M} ,
N∑i=0
gi∂gi
∂aj=
N∑i=0
yi∂gi
∂aj
Systeme lineaire ou non, a resoudre avec la methode ad. hoc.
Qualite de l’approximation
Valeur de S avec les 〈aj〉 trouves
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 107
![Page 305: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/305.jpg)
Approximation et moindres carresMethode du χ2
Modelisation et ajustementMoindres carres
Equivalence avec un systeme de M+1 equationsUne application de l’equivalence optimisation/resolution
Minimisation de l’erreur
∀j ∈ {0..M} , ∂S∂aj
= 0
∀j ∈ {0..M} ,∑N
i=0 2 (yi − gi )(−∂gi∂aj
)∀j ∈ {0..M} ,
N∑i=0
gi∂gi
∂aj=
N∑i=0
yi∂gi
∂aj
Systeme lineaire ou non, a resoudre avec la methode ad. hoc.
Qualite de l’approximation
Valeur de S avec les 〈aj〉 trouves
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 107
![Page 306: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/306.jpg)
Approximation et moindres carresMethode du χ2
Modelisation et ajustementMoindres carres
Equivalence avec un systeme de M+1 equationsUne application de l’equivalence optimisation/resolution
Minimisation de l’erreur
∀j ∈ {0..M} , ∂S∂aj
= 0
∀j ∈ {0..M} ,∑N
i=0 2 (yi − gi )(−∂gi∂aj
)∀j ∈ {0..M} ,
N∑i=0
gi∂gi
∂aj=
N∑i=0
yi∂gi
∂aj
Systeme lineaire ou non, a resoudre avec la methode ad. hoc.
Qualite de l’approximation
Valeur de S avec les 〈aj〉 trouves
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 107
![Page 307: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/307.jpg)
Approximation et moindres carresMethode du χ2
Modelisation et ajustementMoindres carres
Equivalence avec un systeme de M+1 equationsUne application de l’equivalence optimisation/resolution
Minimisation de l’erreur
∀j ∈ {0..M} , ∂S∂aj
= 0
∀j ∈ {0..M} ,∑N
i=0 2 (yi − gi )(−∂gi∂aj
)∀j ∈ {0..M} ,
N∑i=0
gi∂gi
∂aj=
N∑i=0
yi∂gi
∂aj
Systeme lineaire ou non, a resoudre avec la methode ad. hoc.
Qualite de l’approximation
Valeur de S avec les 〈aj〉 trouves
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 107
![Page 308: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/308.jpg)
Approximation et moindres carresMethode du χ2
Modelisation et ajustementMoindres carres
Equivalence avec un systeme de M+1 equationsUne application de l’equivalence optimisation/resolution
Minimisation de l’erreur
∀j ∈ {0..M} , ∂S∂aj
= 0
∀j ∈ {0..M} ,∑N
i=0 2 (yi − gi )(−∂gi∂aj
)∀j ∈ {0..M} ,
N∑i=0
gi∂gi
∂aj=
N∑i=0
yi∂gi
∂aj
Systeme lineaire ou non, a resoudre avec la methode ad. hoc.
Qualite de l’approximation
Valeur de S avec les 〈aj〉 trouves
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 107
![Page 309: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/309.jpg)
Approximation et moindres carresMethode du χ2
Modelisation et ajustementMoindres carres
Ponderation des moindres carresUne variante permettant de donner plus d’importance a certains points
En General
S =∑N
i=0 wi [yi − g (xi ; 〈aj〉)]2
Pour une incertitude relative constante : wi = (∆yi )2 = 1/y 2
i
Sr =∑N
i=0
(GiMi
y2i
)2
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 108
![Page 310: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/310.jpg)
Approximation et moindres carresMethode du χ2
Modelisation et ajustementMoindres carres
Ponderation des moindres carresUne variante permettant de donner plus d’importance a certains points
En General
S =∑N
i=0 wi [yi − g (xi ; 〈aj〉)]2 =∑N
i=0 wi [yi − gi ]2
Pour une incertitude relative constante : wi = (∆yi )2 = 1/y 2
i
Sr =∑N
i=0
(GiMi
y2i
)2
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 108
![Page 311: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/311.jpg)
Approximation et moindres carresMethode du χ2
Modelisation et ajustementMoindres carres
Ponderation des moindres carresUne variante permettant de donner plus d’importance a certains points
En General
S =∑N
i=0 wi [yi − gi ]2 =
∑Ni=0 wi (GiMi )
2
Pour une incertitude relative constante : wi = (∆yi )2 = 1/y 2
i
Sr =∑N
i=0
(GiMi
y2i
)2
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 108
![Page 312: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/312.jpg)
Approximation et moindres carresMethode du χ2
Modelisation et ajustementMoindres carres
Ponderation des moindres carresUne variante permettant de donner plus d’importance a certains points
En General
S =∑N
i=0 wi [yi − gi ]2 =
∑Ni=0 wi (GiMi )
2
Pour une incertitude relative constante : wi = (∆yi )2 = 1/y 2
i
Sr =∑N
i=0
(GiMi
y2i
)2
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 108
![Page 313: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/313.jpg)
Approximation et moindres carresMethode du χ2
Modelisation et ajustementMoindres carres
Ponderation des moindres carresUne variante permettant de donner plus d’importance a certains points
En General
S =∑N
i=0 wi [yi − gi ]2 =
∑Ni=0 wi (GiMi )
2
Pour une incertitude relative constante : wi = (∆yi )2 = 1/y 2
i
Sr =∑N
i=0
(GiMi
y2i
)2
S = χ2
Ceci est un cas particulier de la methode des moindres χ2
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 108
![Page 314: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/314.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
V Interpretation de donnees experimentales
14 Approximation et moindres carresModelisation et ajustementMoindres carres
15 Methode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 109
![Page 315: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/315.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
Un ecart type pour chacunChaque parametre aj , chaque mesure yi , est suppose suivre une loi normale d’ecart typeσj ou σi
Rappel : la loi probabiliste normale (ou loi gaussienne)
p (x) = 1σ√
2πe−
12 ( x−µ
σ )2
Quelques hypotheses
Chaque parametre aj suit une loi normale d’ecart type σj
Chaque mesure yi suit une loi normale d’ecart type σi
χ2 = Sr =∑N
i=0
(GiMiσi
)2
Nombre de de degres de liberte : k = N −M
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 109
![Page 316: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/316.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
Un ecart type pour chacunChaque parametre aj , chaque mesure yi , est suppose suivre une loi normale d’ecart typeσj ou σi
Rappel : la loi probabiliste normale (ou loi gaussienne)
p (x) = 1σ√
2πe−
12 ( x−µ
σ )2
Quelques hypotheses
Chaque parametre aj suit une loi normale d’ecart type σj
Chaque mesure yi suit une loi normale d’ecart type σi
χ2 = Sr =∑N
i=0
(GiMiσi
)2
Nombre de de degres de liberte : k = N −M
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 109
![Page 317: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/317.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
Un ecart type pour chacunChaque parametre aj , chaque mesure yi , est suppose suivre une loi normale d’ecart typeσj ou σi
Rappel : la loi probabiliste normale (ou loi gaussienne)
p (x) = 1σ√
2πe−
12 ( x−µ
σ )2
Quelques hypotheses
Chaque parametre aj suit une loi normale d’ecart type σj
Chaque mesure yi suit une loi normale d’ecart type σi
χ2 = Sr =∑N
i=0
(GiMiσi
)2
Nombre de de degres de liberte : k = N −M
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 109
![Page 318: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/318.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
Un ecart type pour chacunChaque parametre aj , chaque mesure yi , est suppose suivre une loi normale d’ecart typeσj ou σi
Rappel : la loi probabiliste normale (ou loi gaussienne)
p (x) = 1σ√
2πe−
12 ( x−µ
σ )2
Quelques hypotheses
Chaque parametre aj suit une loi normale d’ecart type σj
Chaque mesure yi suit une loi normale d’ecart type σi
χ2 = Sr =∑N
i=0
(GiMiσi
)2
Nombre de de degres de liberte : k = N −M
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 109
![Page 319: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/319.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
Loi du χ2
Densite de probabilite de la somme des carres de k variables independantes
Repartition aleatoire du χ2
(χ2) k
2−1
e−(χ2)
2
2k2
Γ
(k
2
)N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 110
![Page 320: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/320.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
Loi du χ2
Densite de probabilite de la somme des carres de k variables independantes
Repartition aleatoire du χ2
(χ2) k
2−1
e−(χ2)
2
2k2
Γ
(k
2
)
Γ : extension de la factorielle
Γ (n) = (n − 1)!
Γ (z) =
∫ ∞0
tz−1e−tdt
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 110
![Page 321: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/321.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
Utilisation pour calculer le risque de se tromper αRisque de se tromper ou chance de ne pas se tromper !
2 facons de voir le risque α
Risque de se tromper en affirmant que le modele n’est pas bon
Chance de ne pas se tromper en affirmant que le modele estbon
Calcul du risque α
Selon nos hypotheses, le χ2 suit sa distribution statistique
En supposant notre modele bon :
On a trouve une valeur χ20 suite a l’approximation
On peut estimer la probabilite que le χ2 depasse malgre tout lavaleur trouvee χ2
0
C’est le risque de se tromper en affirmant que le modele n’estpas bon
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 111
![Page 322: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/322.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
Utilisation pour calculer le risque de se tromper αRisque de se tromper ou chance de ne pas se tromper !
2 facons de voir le risque α
Risque de se tromper en affirmant que le modele n’est pas bon
Chance de ne pas se tromper en affirmant que le modele estbon
Calcul du risque α
Selon nos hypotheses, le χ2 suit sa distribution statistique
En supposant notre modele bon :
On a trouve une valeur χ20 suite a l’approximation
On peut estimer la probabilite que le χ2 depasse malgre tout lavaleur trouvee χ2
0
C’est le risque de se tromper en affirmant que le modele n’estpas bon
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 111
![Page 323: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/323.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
Utilisation pour calculer le risque de se tromper αRisque de se tromper ou chance de ne pas se tromper !
2 facons de voir le risque α
Risque de se tromper en affirmant que le modele n’est pas bon
Chance de ne pas se tromper en affirmant que le modele estbon
Calcul du risque α
Selon nos hypotheses, le χ2 suit sa distribution statistique
En supposant notre modele bon :
On a trouve une valeur χ20 suite a l’approximation
On peut estimer la probabilite que le χ2 depasse malgre tout lavaleur trouvee χ2
0
C’est le risque de se tromper en affirmant que le modele n’estpas bon
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 111
![Page 324: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/324.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
Utilisation pour calculer le risque de se tromper αRisque de se tromper ou chance de ne pas se tromper !
2 facons de voir le risque α
Risque de se tromper en affirmant que le modele n’est pas bon
Chance de ne pas se tromper en affirmant que le modele estbon
Calcul du risque α
Selon nos hypotheses, le χ2 suit sa distribution statistique
En supposant notre modele bon :
On a trouve une valeur χ20 suite a l’approximation
On peut estimer la probabilite que le χ2 depasse malgre tout lavaleur trouvee χ2
0
C’est le risque de se tromper en affirmant que le modele n’estpas bon
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 111
![Page 325: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/325.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
Utilisation pour calculer le risque de se tromper αRisque de se tromper ou chance de ne pas se tromper !
2 facons de voir le risque α
Risque de se tromper en affirmant que le modele n’est pas bon
Chance de ne pas se tromper en affirmant que le modele estbon
Calcul du risque α
Selon nos hypotheses, le χ2 suit sa distribution statistique
En supposant notre modele bon :
On a trouve une valeur χ20 suite a l’approximation
On peut estimer la probabilite que le χ2 depasse malgre tout lavaleur trouvee χ2
0
C’est le risque de se tromper en affirmant que le modele n’estpas bon
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 111
![Page 326: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/326.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
Evaluation numerique du risque αIntegrale sous la courbe a droite de la valeur trouvee pour χ2
Exemple pour χ2 = 4 et k = 5
Calcul numerique de l’integrale
Methodes vues
Valeurs tabulees
Calculateurs preprogrammes
k grand
approximation par une loinormale
integrale calculee via lafonction d’erreur
α ≈
erf
−(χ2−k)
2√
k
!+1
!(erf( 1
2
√k)+1)
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 112
![Page 327: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/327.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
Evaluation numerique du risque αIntegrale sous la courbe a droite de la valeur trouvee pour χ2
Exemple pour χ2 = 4 et k = 5
Calcul numerique de l’integrale
Methodes vues
Valeurs tabulees
Calculateurs preprogrammes
k grand
approximation par une loinormale
integrale calculee via lafonction d’erreur
α ≈
erf
−(χ2−k)
2√
k
!+1
!(erf( 1
2
√k)+1)
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 112
![Page 328: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/328.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
Evaluation numerique du risque αIntegrale sous la courbe a droite de la valeur trouvee pour χ2
Exemple pour χ2 = 4 et k = 5
Calcul numerique de l’integrale
Methodes vues
Valeurs tabulees
Calculateurs preprogrammes
k grand
approximation par une loinormale
integrale calculee via lafonction d’erreur
α ≈
erf
−(χ2−k)
2√
k
!+1
!(erf( 1
2
√k)+1)
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 112
![Page 329: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/329.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
Calcul du seuil χ2 pour peu de degres de libertesSource : ftp://econometrie-mse.univ-paris1.fr/pub/ecmtrmse/pradel/TablesStatistiques/CHI-DEUX.PDF
k α 0.90 0.80 0.70 0.50 0.30 0.20 0.10 0.05 0.02 0.01
1 0,0158 0,0642 0,148 0,455 1,074 1,642 2,706 3,841 5,412 6,6352 0,211 0,446 0,713 1,386 2,408 3,219 4,605 5,991 7,824 9,2103 0,584 1,005 1,424 2,366 3,665 4,642 6,251 7,815 9,837 11,3414 1,064 1,649 2,195 3,357 4,878 5,989 7,779 9,488 11,668 13,2775 1,610 2,343 3,000 4,351 6,064 7,289 9,236 11,070 13,388 15,0866 2,204 3,070 3,828 5,348 7,231 8,558 10,645 12,592 15,033 16,8127 2,833 3,822 4,671 6,346 8,383 9,803 12,017 14,067 16,622 18,4758 3,490 4,594 5,527 7,344 9,524 11,030 13,362 15,507 18,168 20,0909 4,168 5,380 6,393 8,343 10,656 12,242 14,684 16,919 19,679 21,66610 4,865 6,179 7,267 9,342 11,781 13,442 15,987 18,307 21,161 23,209
11 5,578 6,989 8,148 10,341 12,899 14,631 17,275 19,675 22,618 24,72512 6,304 7,807 9,034 11,340 14,011 15,812 18,549 21,026 24,054 26,21713 7,042 8,634 9,926 12,340 15,119 16,985 19,812 22,362 25,472 27,68814 7,790 9,467 10,821 13,339 16,222 18,151 21,064 23,685 26,873 29,14115 8,547 10,307 11,721 14,339 17,322 19,311 22,307 24,996 28,259 30,57816 9,312 11,152 12,624 15,338 18,418 20,465 23,542 26,296 29,633 32,00017 10,085 12,002 13,531 16,338 19,511 21,615 24,769 27,587 30,995 33,40918 10,865 12,857 14,440 17,338 20,601 22,760 25,989 28,869 32,346 34,80519 11,651 13,716 15,352 18,338 21,689 23,900 27,204 30,144 33,687 36,19120 12,443 14,578 16,266 19,337 22,775 25,038 28,412 31,410 35,020 37,566
21 13,240 15,445 17,182 20,337 23,858 26,171 29,615 32,671 36,343 38,93222 14,041 16,314 18,101 21,337 24,939 27,301 30,813 33,924 37,659 40,28923 14,848 17,187 19,021 22,337 26,018 28,429 32,007 35,172 38,968 41,63824 15,659 18,062 19,943 23,337 27,096 29,553 33,196 36,415 40,270 42,98025 16,473 18,940 20,867 24,337 28,172 30,675 34,382 37,652 41,566 44,31426 17,292 19,820 21,792 25,336 29,246 31,795 35,563 38,885 42,856 45,64227 18,114 20,703 22,719 26,336 30,319 32,912 36,741 40,113 44,140 46,96328 18,939 21,588 23,647 27,336 31,391 34,027 37,916 41,337 45,419 48,27829 19,768 22,475 24,577 28,336 32,461 35,139 39,087 42,557 46,693 49,58830 20,599 23,364 25,508 29,336 33,530 36,250 40,256 43,773 47,962 50,892
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 113
![Page 330: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/330.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
Strategie d’approximationUne fois la meilleure approximation trouvee : que faut-il en penser ?
Approximation faite
σi choisis methodes encore a determiner
χ2 determine
k = N −M connu
Risque α de se tromper chance α de ne pas se tromper
Formules precedentes
Un bon α : α < 5%
Si α est trop grand
Le modele g n’est pas bon
Les σi sont trop petits
Les yi ne suivent pas une loi normale
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 114
![Page 331: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/331.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
Strategie d’approximationUne fois la meilleure approximation trouvee : que faut-il en penser ?
Approximation faite
σi choisis methodes encore a determiner
χ2 determine
k = N −M connu
Risque α de se tromper chance α de ne pas se tromper
Formules precedentes
Un bon α : α < 5%
Si α est trop grand
Le modele g n’est pas bon
Les σi sont trop petits
Les yi ne suivent pas une loi normale
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 114
![Page 332: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/332.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
Strategie d’approximationUne fois la meilleure approximation trouvee : que faut-il en penser ?
Approximation faite
σi choisis methodes encore a determiner
χ2 determine
k = N −M connu
Risque α de se tromper chance α de ne pas se tromper
Formules precedentes
Un bon α : α < 5%
Si α est trop grand
Le modele g n’est pas bon
Les σi sont trop petits
Les yi ne suivent pas une loi normale
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 114
![Page 333: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/333.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
V Interpretation de donnees experimentales
14 Approximation et moindres carresModelisation et ajustementMoindres carres
15 Methode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 115
![Page 334: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/334.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
Comment choisir les ecarts types ?Les ecarts types sont des facteurs determinant pour le calcul de la qualite del’approximation
Methode ideale
Repeter plusieurs fois l’experience (ou la simulation) pourchaque xi
Verifier que les yi obtenus suivent une loi normale
Affecter a σi l’ecart type trouvea
aRappel : la probabilite pour qu’une valeur s’ecarte de la moyenne de plusde 1, 96 ∗ σi vaut 5%
Methode difficile a appliquer en pratique
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 115
![Page 335: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/335.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
Comment choisir les ecarts types ?Les ecarts types sont des facteurs determinant pour le calcul de la qualite del’approximation
Methode ideale
Repeter plusieurs fois l’experience (ou la simulation) pourchaque xi
Verifier que les yi obtenus suivent une loi normale
Affecter a σi l’ecart type trouvea
aRappel : la probabilite pour qu’une valeur s’ecarte de la moyenne de plusde 1, 96 ∗ σi vaut 5%
Methode difficile a appliquer en pratique
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 115
![Page 336: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/336.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
Ajustements sur des mesures experimentalesChoix des ecarts type lorsque les couples 〈(x , y)〉 sont issus de mesures experimentales
Lie a l’incertitude ∆yi sur yi au risque β
Incertitude au risque β :
yi a une probabilite β de se trouver en dehors de[yi −∆yi , yi + ∆yi ]
Pour une loi normale et une incertitude a 5% : σi = ∆yi1,96
Pour une loi normale et une incertitude a 1% : σi = ∆yi2,58
Ajustement
Fixer les σi en fonction de l’incertitude experimentale
Ajuster au mieux et evaluer χ2
Verifier que le risque α correspondant ne depasse pas le risqueque l’on est pret a prendre
Si c’est le cas, l’ajustement est valide
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 116
![Page 337: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/337.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
Ajustements sur des mesures experimentalesChoix des ecarts type lorsque les couples 〈(x , y)〉 sont issus de mesures experimentales
Lie a l’incertitude ∆yi sur yi au risque β
Incertitude au risque β :
yi a une probabilite β de se trouver en dehors de[yi −∆yi , yi + ∆yi ]
Pour une loi normale et une incertitude a 5% : σi = ∆yi1,96
Pour une loi normale et une incertitude a 1% : σi = ∆yi2,58
Ajustement
Fixer les σi en fonction de l’incertitude experimentale
Ajuster au mieux et evaluer χ2
Verifier que le risque α correspondant ne depasse pas le risqueque l’on est pret a prendre
Si c’est le cas, l’ajustement est valide
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 116
![Page 338: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/338.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
Ajustements sur des mesures experimentalesChoix des ecarts type lorsque les couples 〈(x , y)〉 sont issus de mesures experimentales
Lie a l’incertitude ∆yi sur yi au risque β
Incertitude au risque β :
yi a une probabilite β de se trouver en dehors de[yi −∆yi , yi + ∆yi ]
Pour une loi normale et une incertitude a 5% : σi = ∆yi1,96
Pour une loi normale et une incertitude a 1% : σi = ∆yi2,58
Ajustement
Fixer les σi en fonction de l’incertitude experimentale
Ajuster au mieux et evaluer χ2
Verifier que le risque α correspondant ne depasse pas le risqueque l’on est pret a prendre
Si c’est le cas, l’ajustement est valide
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 116
![Page 339: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/339.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
Ajustements sur des mesures experimentalesChoix des ecarts type lorsque les couples 〈(x , y)〉 sont issus de mesures experimentales
Lie a l’incertitude ∆yi sur yi au risque β
Incertitude au risque β :
yi a une probabilite β de se trouver en dehors de[yi −∆yi , yi + ∆yi ]
Pour une loi normale et une incertitude a 5% : σi = ∆yi1,96
Pour une loi normale et une incertitude a 1% : σi = ∆yi2,58
Ajustement
Fixer les σi en fonction de l’incertitude experimentale
Ajuster au mieux et evaluer χ2
Verifier que le risque α correspondant ne depasse pas le risqueque l’on est pret a prendre
Si c’est le cas, l’ajustement est valide
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 116
![Page 340: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/340.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
Ajustements sur des mesures experimentalesChoix des ecarts type lorsque les couples 〈(x , y)〉 sont issus de mesures experimentales
Lie a l’incertitude ∆yi sur yi au risque β
Incertitude au risque β :
yi a une probabilite β de se trouver en dehors de[yi −∆yi , yi + ∆yi ]
Pour une loi normale et une incertitude a 5% : σi = ∆yi1,96
Pour une loi normale et une incertitude a 1% : σi = ∆yi2,58
Ajustement
Fixer les σi en fonction de l’incertitude experimentale
Ajuster au mieux et evaluer χ2
Verifier que le risque α correspondant ne depasse pas le risqueque l’on est pret a prendre
Si c’est le cas, l’ajustement est valide
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 116
![Page 341: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/341.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
Quand on a aucune information sur les ecarts typesCette situation ne devrait jamais arriver. . . sauf cas particuliers
Si l’on sait que l’incertitude est constante ∀i ∈ [0,N] , σi = σ
On remarque que χ2 est de l’ordre de k = N −M
χ2 =∑N
i=0
(GiMiσ
)2≈ N −M
σ2 ≈ 1N−M
∑Ni=0 (GiMi )
2
Methode
Faire un premier ajustement avec σ = 1Determiner σRefaire l’ajustement avec cette nouvelle valeur : determiner χ2
Utiliser ce χ2 pour decider de la validite de l’ajustement
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 117
![Page 342: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/342.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
Quand on a aucune information sur les ecarts typesCette situation ne devrait jamais arriver. . . sauf cas particuliers
Si l’on sait que l’incertitude est constante ∀i ∈ [0,N] , σi = σ
On remarque que χ2 est de l’ordre de k = N −M
χ2 =∑N
i=0
(GiMiσ
)2≈ N −M
σ2 ≈ 1N−M
∑Ni=0 (GiMi )
2
Methode
Faire un premier ajustement avec σ = 1Determiner σRefaire l’ajustement avec cette nouvelle valeur : determiner χ2
Utiliser ce χ2 pour decider de la validite de l’ajustement
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 117
![Page 343: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/343.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
Quand on a aucune information sur les ecarts typesCette situation ne devrait jamais arriver. . . sauf cas particuliers
Si l’on sait que l’incertitude est constante ∀i ∈ [0,N] , σi = σ
On remarque que χ2 est de l’ordre de k = N −M
χ2 =∑N
i=0
(GiMiσ
)2≈ N −M
σ2 ≈ 1N−M
∑Ni=0 (GiMi )
2
Methode
Faire un premier ajustement avec σ = 1Determiner σRefaire l’ajustement avec cette nouvelle valeur : determiner χ2
Utiliser ce χ2 pour decider de la validite de l’ajustement
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 117
![Page 344: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/344.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
Quand on a aucune information sur les ecarts typesCette situation ne devrait jamais arriver. . . sauf cas particuliers
Si l’on sait que l’incertitude est constante ∀i ∈ [0,N] , σi = σ
On remarque que χ2 est de l’ordre de k = N −M
χ2 =∑N
i=0
(GiMiσ
)2≈ N −M
σ2 ≈ 1N−M
∑Ni=0 (GiMi )
2
Methode
Faire un premier ajustement avec σ = 1Determiner σRefaire l’ajustement avec cette nouvelle valeur : determiner χ2
Utiliser ce χ2 pour decider de la validite de l’ajustement
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 117
![Page 345: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/345.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
Si on sait juste que l’incertitude relative est constante
∀i ∈ [0,N] , σi/yi = C
χ2 est toujours de l’ordre de k = N −M
χ2 = C 2∑N
i=0
(GiMi
yi
)2≈ N −M
C 2 ≈ 1N−M
∑Ni=0
(GiMi
yi
)2
Methode
Faire un premier ajustement avec σi = yi
Determiner CRefaire l’ajustement avec cette nouvelle valeur : determiner χ2
Utiliser ce χ2 pour decider de la validite de l’ajustement
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 118
![Page 346: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/346.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
Si on sait juste que l’incertitude relative est constante
∀i ∈ [0,N] , σi/yi = C
χ2 est toujours de l’ordre de k = N −M
χ2 = C 2∑N
i=0
(GiMi
yi
)2≈ N −M
C 2 ≈ 1N−M
∑Ni=0
(GiMi
yi
)2
Methode
Faire un premier ajustement avec σi = yi
Determiner CRefaire l’ajustement avec cette nouvelle valeur : determiner χ2
Utiliser ce χ2 pour decider de la validite de l’ajustement
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 118
![Page 347: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/347.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
Si on sait juste que l’incertitude relative est constante
∀i ∈ [0,N] , σi/yi = C
χ2 est toujours de l’ordre de k = N −M
χ2 = C 2∑N
i=0
(GiMi
yi
)2≈ N −M
C 2 ≈ 1N−M
∑Ni=0
(GiMi
yi
)2
Methode
Faire un premier ajustement avec σi = yi
Determiner CRefaire l’ajustement avec cette nouvelle valeur : determiner χ2
Utiliser ce χ2 pour decider de la validite de l’ajustement
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 118
![Page 348: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/348.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
Si on sait juste que l’incertitude relative est constante
∀i ∈ [0,N] , σi/yi = C
χ2 est toujours de l’ordre de k = N −M
χ2 = C 2∑N
i=0
(GiMi
yi
)2≈ N −M
C 2 ≈ 1N−M
∑Ni=0
(GiMi
yi
)2
Methode
Faire un premier ajustement avec σi = yi
Determiner CRefaire l’ajustement avec cette nouvelle valeur : determiner χ2
Utiliser ce χ2 pour decider de la validite de l’ajustement
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 118
![Page 349: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/349.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
V Interpretation de donnees experimentales
14 Approximation et moindres carresModelisation et ajustementMoindres carres
15 Methode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 119
![Page 350: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/350.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
Marche a suivre pour incertitudes experimentales connuesComment effectuer une modelisation correcte de donnees experimentales
Si l’on connait l’incertitude de mesure, absolue ou relative
σi = ∆yi/1, 96 ou σi = ∆yi/2, 58
pour α = 5% ou α = 1% de risque sur ∆yi
Choix d’une modelisation y = g (x , 〈ak〉)Ajustement
Calcul de χ2 et verification de l’adequation du modele
Sa valeur doit etre inferieure a la valeur calculee pour le risqueα souhaite
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 119
![Page 351: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/351.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
Marche a suivre pour incertitudes experimentales connuesComment effectuer une modelisation correcte de donnees experimentales
Si l’on connait l’incertitude de mesure, absolue ou relative
σi = ∆yi/1, 96 ou σi = ∆yi/2, 58
pour α = 5% ou α = 1% de risque sur ∆yi
Choix d’une modelisation y = g (x , 〈ak〉)Ajustement
Calcul de χ2 et verification de l’adequation du modele
Sa valeur doit etre inferieure a la valeur calculee pour le risqueα souhaite
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 119
![Page 352: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/352.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
Marche a suivre pour incertitudes experimentales connuesComment effectuer une modelisation correcte de donnees experimentales
Si l’on connait l’incertitude de mesure, absolue ou relative
σi = ∆yi/1, 96 ou σi = ∆yi/2, 58
pour α = 5% ou α = 1% de risque sur ∆yi
Choix d’une modelisation y = g (x , 〈ak〉)Ajustement
Calcul de χ2 et verification de l’adequation du modele
Sa valeur doit etre inferieure a la valeur calculee pour le risqueα souhaite
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 119
![Page 353: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/353.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
Marche a suivre pour incertitudes experimentales inconnuesMais cela ne devrait pas arriver. . .
Si l’on ne connait pas l’incertitude de mesure
On doit au moins savoir si l’incertitude absolue, ou relative,est constante
On doit faire le choix d’une modelisation y = g (x , 〈ak〉)Ajustement par les moindres carres absolus ou relatifs
On en deduit les ecarts types
On refait l’ajustement avec les nouveaux ecarts types
Calcul de χ2 et verification de l’adequation du modele
Sa valeur doit etre inferieure a la valeur calculee pour le risqueα souhaite
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 120
![Page 354: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/354.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
Marche a suivre pour incertitudes experimentales inconnuesMais cela ne devrait pas arriver. . .
Si l’on ne connait pas l’incertitude de mesure
On doit au moins savoir si l’incertitude absolue, ou relative,est constante
On doit faire le choix d’une modelisation y = g (x , 〈ak〉)Ajustement par les moindres carres absolus ou relatifs
On en deduit les ecarts types
On refait l’ajustement avec les nouveaux ecarts types
Calcul de χ2 et verification de l’adequation du modele
Sa valeur doit etre inferieure a la valeur calculee pour le risqueα souhaite
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 120
![Page 355: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/355.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
Marche a suivre pour incertitudes experimentales inconnuesMais cela ne devrait pas arriver. . .
Si l’on ne connait pas l’incertitude de mesure
On doit au moins savoir si l’incertitude absolue, ou relative,est constante
On doit faire le choix d’une modelisation y = g (x , 〈ak〉)Ajustement par les moindres carres absolus ou relatifs
On en deduit les ecarts types
On refait l’ajustement avec les nouveaux ecarts types
Calcul de χ2 et verification de l’adequation du modele
Sa valeur doit etre inferieure a la valeur calculee pour le risqueα souhaite
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 120
![Page 356: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/356.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
Marche a suivre pour incertitudes experimentales inconnuesMais cela ne devrait pas arriver. . .
Si l’on ne connait pas l’incertitude de mesure
On doit au moins savoir si l’incertitude absolue, ou relative,est constante
On doit faire le choix d’une modelisation y = g (x , 〈ak〉)Ajustement par les moindres carres absolus ou relatifs
On en deduit les ecarts types
On refait l’ajustement avec les nouveaux ecarts types
Calcul de χ2 et verification de l’adequation du modele
Sa valeur doit etre inferieure a la valeur calculee pour le risqueα souhaite
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 120
![Page 357: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/357.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
Marche a suivre pour incertitudes experimentales inconnuesMais cela ne devrait pas arriver. . .
Si l’on ne connait pas l’incertitude de mesure
On doit au moins savoir si l’incertitude absolue, ou relative,est constante
On doit faire le choix d’une modelisation y = g (x , 〈ak〉)Ajustement par les moindres carres absolus ou relatifs
On en deduit les ecarts types
On refait l’ajustement avec les nouveaux ecarts types
Calcul de χ2 et verification de l’adequation du modele
Sa valeur doit etre inferieure a la valeur calculee pour le risqueα souhaite
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 120
![Page 358: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/358.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
Marche a suivre pour incertitudes experimentales inconnuesMais cela ne devrait pas arriver. . .
Si l’on ne connait pas l’incertitude de mesure
On doit au moins savoir si l’incertitude absolue, ou relative,est constante
On doit faire le choix d’une modelisation y = g (x , 〈ak〉)Ajustement par les moindres carres absolus ou relatifs
On en deduit les ecarts types
On refait l’ajustement avec les nouveaux ecarts types
Calcul de χ2 et verification de l’adequation du modele
Sa valeur doit etre inferieure a la valeur calculee pour le risqueα souhaite
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 120
![Page 359: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/359.jpg)
Approximation et moindres carresMethode du χ2
Risque de se tromperChoix strategique des ecarts typesAjustement : marche a suivre
L’ajustement : une aide au choix du modele
Si l’on hesite sur le choix de g
On choisit celui qui donne le meilleur χ2
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 121
![Page 360: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/360.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Partie VI
Equations Differentielles Ordinaires
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 122
![Page 361: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/361.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
VI Equations Differentielles Ordinaires
16 Resolution numerique des problemes differentielsClassificationForme canonique
17 Problemes aux conditions initiales y ′ = f (t, y) , y (0) = y0
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
18 Problemes aux conditions limitesMethode de TirMethode matricielle
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 123
![Page 362: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/362.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
ClassificationForme canonique
VI Equations Differentielles Ordinaires
16 Resolution numerique des problemes differentielsClassificationForme canonique
17 Problemes aux conditions initiales y ′ = f (t, y) , y (0) = y0
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
18 Problemes aux conditions limitesMethode de TirMethode matricielle
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 124
![Page 363: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/363.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
ClassificationForme canonique
Un probleme differentiel ordinaire
Equation Differentielle Ordinaire (EDO) y(t) ∈ Rm
f(t, y , y ′, . . . , y (n)
)= 0
Conditions initiales ou conditions aux limites ?
Un tel probleme differentiel n’est pas completement defini
Il dispose de n degres de liberte
Une solution unique est obtenue par ajout de n contraintes
Unicite de la solution indispensable
La resolution numerique est possible seulement si les contraintessont posees
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 124
![Page 364: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/364.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
ClassificationForme canonique
Un probleme differentiel ordinaire
Equation Differentielle Ordinaire (EDO) y(t) ∈ Rm
f(t, y , y ′, . . . , y (n)
)= 0
Conditions initiales ou conditions aux limites ?
Un tel probleme differentiel n’est pas completement defini
Il dispose de n degres de liberte
Une solution unique est obtenue par ajout de n contraintes
Unicite de la solution indispensable
La resolution numerique est possible seulement si les contraintessont posees
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 124
![Page 365: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/365.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
ClassificationForme canonique
Un probleme differentiel ordinaire
Equation Differentielle Ordinaire (EDO) y(t) ∈ Rm
f(t, y , y ′, . . . , y (n)
)= 0
Conditions initiales ou conditions aux limites ?
Un tel probleme differentiel n’est pas completement defini
Il dispose de n degres de liberte
Une solution unique est obtenue par ajout de n contraintes
Unicite de la solution indispensable
La resolution numerique est possible seulement si les contraintessont posees
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 124
![Page 366: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/366.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
ClassificationForme canonique
Definition des contraintes
Problemes aux conditions initiales Probleme de Cauchy
Les contraintes sont imposees en un point unique
Elles concernent l’inconnue et ses n − 1 premieres derivees
Ce sont les conditions initiales
Contraintes imposees en divers points
Elles peuvent concerner l’inconnue ou ses derivees
Elles peuvent etre exprimees en plusieurs points
Elles doivent etre au nombre de n
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 125
![Page 367: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/367.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
ClassificationForme canonique
Definition des contraintes
Problemes aux conditions initiales Probleme de Cauchy
Les contraintes sont imposees en un point unique
Elles concernent l’inconnue et ses n − 1 premieres derivees
Ce sont les conditions initiales
Contraintes imposees en divers points
Elles peuvent concerner l’inconnue ou ses derivees
Elles peuvent etre exprimees en plusieurs points
Elles doivent etre au nombre de n
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 125
![Page 368: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/368.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
ClassificationForme canonique
VI Equations Differentielles Ordinaires
16 Resolution numerique des problemes differentielsClassificationForme canonique
17 Problemes aux conditions initiales y ′ = f (t, y) , y (0) = y0
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
18 Problemes aux conditions limitesMethode de TirMethode matricielle
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 126
![Page 369: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/369.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
ClassificationForme canonique
Forme canonique y ′ = f (t, y)
EDO d’ordre 1
Le probleme que nous allons etudier dans cette partie
Est-il si restrictif ?
Ordre superieur
w (n) = g(t,w ,w ′, · · · ,w (n−1)
)Changement de variable
yi = w (i)
Equation d’ordre 1 equivalentey0
y1...
yn−2
yn−1
′
=
y1
y2...
yn−1
g (t, y0, · · · , yn−1)
Dans la suite, nous etudierons et prendrons des exemples pour desinconnues a valeurs reelles, mais l’on pourra generaliser aisement
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 126
![Page 370: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/370.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
ClassificationForme canonique
Forme canonique y ′ = f (t, y)
EDO d’ordre 1
Le probleme que nous allons etudier dans cette partie
Est-il si restrictif ?
Ordre superieur
w (n) = g(t,w ,w ′, · · · ,w (n−1)
)Changement de variable
yi = w (i)
Equation d’ordre 1 equivalentey0
y1...
yn−2
yn−1
′
=
y1
y2...
yn−1
g (t, y0, · · · , yn−1)
Dans la suite, nous etudierons et prendrons des exemples pour desinconnues a valeurs reelles, mais l’on pourra generaliser aisement
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 126
![Page 371: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/371.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
ClassificationForme canonique
Forme canonique y ′ = f (t, y)
EDO d’ordre 1
Le probleme que nous allons etudier dans cette partie
Est-il si restrictif ?
Ordre superieur
w (n) = g(t,w ,w ′, · · · ,w (n−1)
)Changement de variable
yi = w (i)
Equation d’ordre 1 equivalentey0
y1...
yn−2
yn−1
′
=
y1
y2...
yn−1
g (t, y0, · · · , yn−1)
Dans la suite, nous etudierons et prendrons des exemples pour desinconnues a valeurs reelles, mais l’on pourra generaliser aisement
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 126
![Page 372: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/372.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
ClassificationForme canonique
Forme canonique y ′ = f (t, y)
EDO d’ordre 1
Le probleme que nous allons etudier dans cette partie
Est-il si restrictif ?
Ordre superieur
w (n) = g(t,w ,w ′, · · · ,w (n−1)
)Changement de variable
yi = w (i)
Equation d’ordre 1 equivalentey0
y1...
yn−2
yn−1
′
=
y1
y2...
yn−1
g (t, y0, · · · , yn−1)
Dans la suite, nous etudierons et prendrons des exemples pour desinconnues a valeurs reelles, mais l’on pourra generaliser aisement
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 126
![Page 373: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/373.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
ClassificationForme canonique
Forme canonique y ′ = f (t, y)
EDO d’ordre 1
Le probleme que nous allons etudier dans cette partie
Est-il si restrictif ?
Ordre superieur
w (n) = g(t,w ,w ′, · · · ,w (n−1)
)Changement de variable
yi = w (i)
Equation d’ordre 1 equivalentey0
y1...
yn−2
yn−1
′
=
y1
y2...
yn−1
g (t, y0, · · · , yn−1)
Dans la suite, nous etudierons et prendrons des exemples pour desinconnues a valeurs reelles, mais l’on pourra generaliser aisement
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 126
![Page 374: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/374.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
VI Equations Differentielles Ordinaires
16 Resolution numerique des problemes differentielsClassificationForme canonique
17 Problemes aux conditions initiales y ′ = f (t, y) , y (0) = y0
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
18 Problemes aux conditions limitesMethode de TirMethode matricielle
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 127
![Page 375: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/375.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
La methode d’Euler y ′ = f (t, y)Une methode simple mais tres peu utilisee car imprecise et instable
DL ordre 1 y (t + ∆t) = · · ·y (t) + ∆ty ′ (t) + o(∆t)
y (t) + ∆tf (t, y) + o(∆t)
y [i+1] = y [i ] + ∆tf(t, y [i ]
)1 2 3
0.5
1
1.5
2
Erreur de troncature du DL
∆t2
2! y ′′ + ∆t3
3! y ′′′ + · · ·∆t2
2! f ′ (t, y) + ∆t3
3! f ′′ (t, y) + · · ·Cumulee a chaque pas
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 127
![Page 376: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/376.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
La methode d’Euler y ′ = f (t, y)Une methode simple mais tres peu utilisee car imprecise et instable
DL ordre 1 y (t + ∆t) = · · ·y (t) + ∆ty ′ (t) + o(∆t)
y (t) + ∆tf (t, y) + o(∆t)
y [i+1] = y [i ] + ∆tf(t, y [i ]
)1 2 3
0.5
1
1.5
2
Erreur de troncature du DL
∆t2
2! y ′′ + ∆t3
3! y ′′′ + · · ·∆t2
2! f ′ (t, y) + ∆t3
3! f ′′ (t, y) + · · ·Cumulee a chaque pas
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 127
![Page 377: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/377.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
La methode d’Euler y ′ = f (t, y)Une methode simple mais tres peu utilisee car imprecise et instable
DL ordre 1 y (t + ∆t) = · · ·y (t) + ∆ty ′ (t) + o(∆t)
y (t) + ∆tf (t, y) + o(∆t)
y [i+1] = y [i ] + ∆tf(t, y [i ]
)1 2 3
0.5
1
1.5
2
Erreur de troncature du DL
∆t2
2! y ′′ + ∆t3
3! y ′′′ + · · ·∆t2
2! f ′ (t, y) + ∆t3
3! f ′′ (t, y) + · · ·Cumulee a chaque pas
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 127
![Page 378: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/378.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
La methode d’Euler y ′ = f (t, y)Une methode simple mais tres peu utilisee car imprecise et instable
DL ordre 1 y (t + ∆t) = · · ·y (t) + ∆ty ′ (t) + o(∆t)
y (t) + ∆tf (t, y) + o(∆t)
y [i+1] = y [i ] + ∆tf(t, y [i ]
)1 2 3
0.5
1
1.5
2
Erreur de troncature du DL
∆t2
2! y ′′ + ∆t3
3! y ′′′ + · · ·∆t2
2! f ′ (t, y) + ∆t3
3! f ′′ (t, y) + · · ·Cumulee a chaque pas
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 127
![Page 379: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/379.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
Methode d’Euler impliciteLes methodes implicites sont plus stables que les methodes explicites
Explicite vs. Implicite ?
Methode explicite : y [i ] ne depend que des y [k] pour k < i
Methode implicite : y [i ] ne depend que des y [k] pour k ≤ i
Euler implicite
Explicite : y ′[i ] = y [i+1]−y [i ]
∆t derivee a droite
Implicite : y ′[i+1] = y [i+1]−y [i ]
∆t derivee a gauche
y [i+1] = y [i ] + ∆t × f(t, y [i+1]
)Equation a resoudre a chaque pas
Formellement, une fois pour toute si possibleNumeriquement, valeur de depart fournie par methode explicite
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 128
![Page 380: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/380.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
Methode d’Euler impliciteLes methodes implicites sont plus stables que les methodes explicites
Explicite vs. Implicite ?
Methode explicite : y [i ] ne depend que des y [k] pour k < i
Methode implicite : y [i ] ne depend que des y [k] pour k ≤ i
Euler implicite
Explicite : y ′[i ] = y [i+1]−y [i ]
∆t derivee a droite
Implicite : y ′[i+1] = y [i+1]−y [i ]
∆t derivee a gauche
y [i+1] = y [i ] + ∆t × f(t, y [i+1]
)Equation a resoudre a chaque pas
Formellement, une fois pour toute si possibleNumeriquement, valeur de depart fournie par methode explicite
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 128
![Page 381: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/381.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
Methode d’Euler impliciteLes methodes implicites sont plus stables que les methodes explicites
Explicite vs. Implicite ?
Methode explicite : y [i ] ne depend que des y [k] pour k < i
Methode implicite : y [i ] ne depend que des y [k] pour k ≤ i
Euler implicite
Explicite : y ′[i ] = y [i+1]−y [i ]
∆t derivee a droite
Implicite : y ′[i+1] = y [i+1]−y [i ]
∆t derivee a gauche
y [i+1] = y [i ] + ∆t × f(t, y [i+1]
)Equation a resoudre a chaque pas
Formellement, une fois pour toute si possibleNumeriquement, valeur de depart fournie par methode explicite
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 128
![Page 382: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/382.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
Methode d’Euler impliciteLes methodes implicites sont plus stables que les methodes explicites
Explicite vs. Implicite ?
Methode explicite : y [i ] ne depend que des y [k] pour k < i
Methode implicite : y [i ] ne depend que des y [k] pour k ≤ i
Euler implicite
Explicite : y ′[i ] = y [i+1]−y [i ]
∆t derivee a droite
Implicite : y ′[i+1] = y [i+1]−y [i ]
∆t derivee a gauche
y [i+1] = y [i ] + ∆t × f(t, y [i+1]
)Equation a resoudre a chaque pas
Formellement, une fois pour toute si possibleNumeriquement, valeur de depart fournie par methode explicite
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 128
![Page 383: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/383.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
Methode d’Euler impliciteLes methodes implicites sont plus stables que les methodes explicites
Explicite vs. Implicite ?
Methode explicite : y [i ] ne depend que des y [k] pour k < i
Methode implicite : y [i ] ne depend que des y [k] pour k ≤ i
Euler implicite
Explicite : y ′[i ] = y [i+1]−y [i ]
∆t derivee a droite
Implicite : y ′[i+1] = y [i+1]−y [i ]
∆t derivee a gauche
y [i+1] = y [i ] + ∆t × f(t, y [i+1]
)Equation a resoudre a chaque pas
Formellement, une fois pour toute si possibleNumeriquement, valeur de depart fournie par methode explicite
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 128
![Page 384: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/384.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
VI Equations Differentielles Ordinaires
16 Resolution numerique des problemes differentielsClassificationForme canonique
17 Problemes aux conditions initiales y ′ = f (t, y) , y (0) = y0
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
18 Problemes aux conditions limitesMethode de TirMethode matricielle
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 129
![Page 385: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/385.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
Les Methodes Runge & Kutta (RK)Methodes dites A pas unique
De nombreux avantages
Faciles a programmer
Tres stables
Largeur du pas aisement modifiable pour une precisionsouhaitee
La condition initiale suffit
Quelques inconvenients
Pour une meme precision, il y a plus econome en temps decalcul
Instables dans certains cas
Tres utilisees en pratique
Utilisation preferentielle de RK4. . . sauf si instable
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 129
![Page 386: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/386.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
Les Methodes Runge & Kutta (RK)Methodes dites A pas unique
De nombreux avantages
Faciles a programmer
Tres stables
Largeur du pas aisement modifiable pour une precisionsouhaitee
La condition initiale suffit
Quelques inconvenients
Pour une meme precision, il y a plus econome en temps decalcul
Instables dans certains cas
Tres utilisees en pratique
Utilisation preferentielle de RK4. . . sauf si instable
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 129
![Page 387: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/387.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
Les Methodes Runge & Kutta (RK)Methodes dites A pas unique
De nombreux avantages
Faciles a programmer
Tres stables
Largeur du pas aisement modifiable pour une precisionsouhaitee
La condition initiale suffit
Quelques inconvenients
Pour une meme precision, il y a plus econome en temps decalcul
Instables dans certains cas
Tres utilisees en pratique
Utilisation preferentielle de RK4. . . sauf si instable
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 129
![Page 388: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/388.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
RK2 : Runge & Kutta a l’ordre 2Centrons les differences finies sur le milieu
Differences finies centrees au point milieu
y ′ = f (t, y)⇒ 1∆t (y (t + ∆t)− y (t)) + o(∆t) =
f(t + ∆t
2 , y(t + ∆t
2
))Allegeons les notations
t [i ] + ∆t = t [i+1]
t [i ] + ∆t2 = t[i+ 1
2 ]
y(t [k])
= y [k]
Differences finies centrees au point milieu
y ′ = f (t, y)⇒ y [i+1]−y [i ]
∆t = f(
t[i+ 12 ], y [i+ 1
2 ])
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 130
![Page 389: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/389.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
RK2 : Runge & Kutta a l’ordre 2Centrons les differences finies sur le milieu
Differences finies centrees au point milieu
y ′ = f (t, y)⇒ 1∆t (y (t + ∆t)− y (t)) + o(∆t) =
f(t + ∆t
2 , y(t + ∆t
2
))Allegeons les notations
t [i ] + ∆t = t [i+1]
t [i ] + ∆t2 = t[i+ 1
2 ]
y(t [k])
= y [k]
Differences finies centrees au point milieu
y ′ = f (t, y)⇒ y [i+1]−y [i ]
∆t = f(
t[i+ 12 ], y [i+ 1
2 ])
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 130
![Page 390: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/390.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
RK2 : Runge & Kutta a l’ordre 2Centrons les differences finies sur le milieu
Differences finies centrees au point milieu
y ′ = f (t, y)⇒ 1∆t (y (t + ∆t)− y (t)) + o(∆t) =
f(t + ∆t
2 , y(t + ∆t
2
))Allegeons les notations
t [i ] + ∆t = t [i+1]
t [i ] + ∆t2 = t[i+ 1
2 ]
y(t [k])
= y [k]
Differences finies centrees au point milieu
y ′ = f (t, y)⇒ y [i+1]−y [i ]
∆t = f(
t[i+ 12 ], y [i+ 1
2 ])
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 130
![Page 391: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/391.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
RK2 : Runge & Kutta a l’ordre 2
Differences centrees au point milieu
f(
t[i+ 12 ], y [i+ 1
2 ])
= y [i+1]−y [i ]
∆t
Estimation de y [i+1/2] par Euler
y [i+1/2] = y [i ] + ∆t2 f(t [i ], y [i ]
)y [i+1] =
y [i ] + ∆t × f(
t[i+ 12 ], y [i+1/2]
)Formule a l’ordre 2
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 131
![Page 392: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/392.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
RK2 : Runge & Kutta a l’ordre 2
Differences centrees au point milieu
f(
t[i+ 12 ], y [i+ 1
2 ])
= y [i+1]−y [i ]
∆t
Estimation de y [i+1/2] par Euler
y [i+1/2] = y [i ] + ∆t2 f(t [i ], y [i ]
)y [i+1] =
y [i ] + ∆t × f(
t[i+ 12 ], y [i+1/2]
)1.5 2
1
2
3
4
5
Formule a l’ordre 2
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 131
![Page 393: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/393.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
RK2 : Runge & Kutta a l’ordre 2
Differences centrees au point milieu
f(
t[i+ 12 ], y [i+ 1
2 ])
= y [i+1]−y [i ]
∆t
Estimation de y [i+1/2] par Euler
y [i+1/2] = y [i ] + ∆t2 f(t [i ], y [i ]
)y [i+1] =
y [i ] + ∆t × f(
t[i+ 12 ], y [i+1/2]
)1.5 2
1
2
3
4
5
Formule a l’ordre 2
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 131
![Page 394: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/394.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
RK2 : formulation standardisee
r1 = f(t [i ], y [i ]
)r2 = f
(t[i+ 1
2 ], y [i ] + ∆t2 r1
)y [i+1] = y [i ] + ∆t × r2
1.5 2
1
2
3
4
5
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 132
![Page 395: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/395.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
Runge & Kutta a l’ordre 4 RK4LA methode reine
RK4 est obtenue par ponderation successive des deriveesa droite, a gauche et centree
r1 = f(t [i ], y [i ]
)r2 = f
(t[i+ 1
2 ], y [i ] + ∆t2 r1
)r3 = f
(t[i+ 1
2 ], y [i ] + ∆t2 r2
)r4 = f
(t [i+1], y [i ] + ∆t × r3
)y [i+1] =y [i ] + ∆t
6 (r1 + 2r2 + 2r3 + r4)1.5 2
5
10
15
20
25
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 133
![Page 396: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/396.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
Runge & Kutta a l’ordre 4 RK4LA methode reine
RK4 est obtenue par ponderation successive des deriveesa droite, a gauche et centree
r1 = f(t [i ], y [i ]
)r2 = f
(t[i+ 1
2 ], y [i ] + ∆t2 r1
)r3 = f
(t[i+ 1
2 ], y [i ] + ∆t2 r2
)r4 = f
(t [i+1], y [i ] + ∆t × r3
)y [i+1] =y [i ] + ∆t
6 (r1 + 2r2 + 2r3 + r4)1.5 2
5
10
15
20
25
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 133
![Page 397: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/397.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
Runge & Kutta a l’ordre 4 RK4LA methode reine
RK4 est obtenue par ponderation successive des deriveesa droite, a gauche et centree
r1 = f(t [i ], y [i ]
)r2 = f
(t[i+ 1
2 ], y [i ] + ∆t2 r1
)r3 = f
(t[i+ 1
2 ], y [i ] + ∆t2 r2
)r4 = f
(t [i+1], y [i ] + ∆t × r3
)y [i+1] =y [i ] + ∆t
6 (r1 + 2r2 + 2r3 + r4)1.5 2
5
10
15
20
25
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 133
![Page 398: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/398.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
Runge & Kutta a l’ordre 4 RK4LA methode reine
RK4 est obtenue par ponderation successive des deriveesa droite, a gauche et centree
r1 = f(t [i ], y [i ]
)r2 = f
(t[i+ 1
2 ], y [i ] + ∆t2 r1
)r3 = f
(t[i+ 1
2 ], y [i ] + ∆t2 r2
)r4 = f
(t [i+1], y [i ] + ∆t × r3
)y [i+1] =y [i ] + ∆t
6 (r1 + 2r2 + 2r3 + r4) 1.5 2
5
10
15
20
25
30
35
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 133
![Page 399: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/399.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
Runge & Kutta a l’ordre 4 RK4LA methode reine
RK4 est obtenue par ponderation successive des deriveesa droite, a gauche et centree
r1 = f(t [i ], y [i ]
)r2 = f
(t[i+ 1
2 ], y [i ] + ∆t2 r1
)r3 = f
(t[i+ 1
2 ], y [i ] + ∆t2 r2
)r4 = f
(t [i+1], y [i ] + ∆t × r3
)y [i+1] =y [i ] + ∆t
6 (r1 + 2r2 + 2r3 + r4) 1.5 2
5
10
15
20
25
30
35
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 133
![Page 400: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/400.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
VI Equations Differentielles Ordinaires
16 Resolution numerique des problemes differentielsClassificationForme canonique
17 Problemes aux conditions initiales y ′ = f (t, y) , y (0) = y0
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
18 Problemes aux conditions limitesMethode de TirMethode matricielle
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 134
![Page 401: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/401.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
Les methode d’Adams ouvertes Adams-BashforthDes methodes a pas multiples (necessitant plusieurs points precedents)
Principe : encore une fois le Developpement Limite
Developpement limite
Differences finies
Ordre augmente en augmentant l’ordre du DL
Le calcul de y [i ] necessite y [i−1],y [i−2]. . .
Developpement limite a droite Differences finies a gauche
y (t + ∆t) = y (t) + ∆t× y ′ (t) + ∆t2
2! y ′′ (t) + ∆t3
3! y ′′′ (t) + · · ·
y [i+1] = y [i ] + ∆t × f [i ] + ∆t2
2! f ′[i ] + ∆t3
3! f ′′[i ] + · · ·En notant f
(ti , y
[i ])
= f [i ]
Derivees evaluees par differences finies a gauche
Calcul simple mais fastidieux
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 134
![Page 402: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/402.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
Les methode d’Adams ouvertes Adams-BashforthDes methodes a pas multiples (necessitant plusieurs points precedents)
Principe : encore une fois le Developpement Limite
Developpement limite
Differences finies
Ordre augmente en augmentant l’ordre du DL
Le calcul de y [i ] necessite y [i−1],y [i−2]. . .
Developpement limite a droite Differences finies a gauche
y (t + ∆t) = y (t) + ∆t× y ′ (t) + ∆t2
2! y ′′ (t) + ∆t3
3! y ′′′ (t) + · · ·
y [i+1] = y [i ] + ∆t × f [i ] + ∆t2
2! f ′[i ] + ∆t3
3! f ′′[i ] + · · ·En notant f
(ti , y
[i ])
= f [i ]
Derivees evaluees par differences finies a gauche
Calcul simple mais fastidieux
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 134
![Page 403: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/403.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
Les methode d’Adams ouvertes Adams-BashforthDes methodes a pas multiples (necessitant plusieurs points precedents)
Principe : encore une fois le Developpement Limite
Developpement limite
Differences finies
Ordre augmente en augmentant l’ordre du DL
Le calcul de y [i ] necessite y [i−1],y [i−2]. . .
Developpement limite a droite Differences finies a gauche
y (t + ∆t) = y (t) + ∆t× y ′ (t) + ∆t2
2! y ′′ (t) + ∆t3
3! y ′′′ (t) + · · ·
y [i+1] = y [i ] + ∆t × f [i ] + ∆t2
2! f ′[i ] + ∆t3
3! f ′′[i ] + · · ·En notant f
(ti , y
[i ])
= f [i ]
Derivees evaluees par differences finies a gauche
Calcul simple mais fastidieux
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 134
![Page 404: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/404.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
Les methodes d’Adam ouvertes : exemplesOrdres 1 a 2
Ordre 1 Euler
y [i+1] = y [i ] + ∆t × f [i ] + o(∆t)
Ordre 2
y [i+1] = y [i ] + ∆t × f [i ] + ∆t2
2! f ′[i ] + o(∆t2
)f ′[i ] = f [i ]−f [i−1]
∆t + o(∆t)
y [i+1] = y [i ] + ∆t2
(3f [i ] − f [i−1]
)+ o(∆t2
)Demarrage de la methode
Necessite de trouver un premier point par une autre methoded’ordre au moins egal
Par exemple : RK2
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 135
![Page 405: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/405.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
Les methodes d’Adam ouvertes : exemplesOrdres 1 a 2
Ordre 1 Euler
y [i+1] = y [i ] + ∆t × f [i ] + o(∆t)
Ordre 2
y [i+1] = y [i ] + ∆t × f [i ] + ∆t2
2! f ′[i ] + o(∆t2
)f ′[i ] = f [i ]−f [i−1]
∆t + o(∆t)
y [i+1] = y [i ] + ∆t2
(3f [i ] − f [i−1]
)+ o(∆t2
)Demarrage de la methode
Necessite de trouver un premier point par une autre methoded’ordre au moins egal
Par exemple : RK2
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 135
![Page 406: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/406.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
Les methodes d’Adam ouvertes : exemplesOrdres 1 a 2
Ordre 1 Euler
y [i+1] = y [i ] + ∆t × f [i ] + o(∆t)
Ordre 2
y [i+1] = y [i ] + ∆t × f [i ] + ∆t2
2! f ′[i ] + o(∆t2
)f ′[i ] = f [i ]−f [i−1]
∆t + o(∆t)
y [i+1] = y [i ] + ∆t2
(3f [i ] − f [i−1]
)+ o(∆t2
)Demarrage de la methode
Necessite de trouver un premier point par une autre methoded’ordre au moins egal
Par exemple : RK2
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 135
![Page 407: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/407.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
Methode ouverte d’Adams a l’ordre 3Encore une fois pour etre sur de bien comprendre
Expression du DL a droite, compte tenu de l’equation differentielle
y [i+1] = y [i ] + ∆t × f [i ] + ∆t2
2! f ′[i ] + ∆t3
3! f ′′[i ] + o(∆t3
)f ′[i ] Formule en o(∆t)
3f [i ] − 4f [i−1] + f [i−2]
2∆t+ o(∆t)
f ′′[i ]
f [i ] − 2f [i−1] + f [i−2]
∆t2+ o(1)
Formule d’Adams ouverte a l’ordre 3
y [i+1] = y [i ] + ∆t12
[23f [i ] − 16f [i−1] + 5f [i−2]
]+ o(∆t3
)
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 136
![Page 408: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/408.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
Methode ouverte d’Adams a l’ordre 3Encore une fois pour etre sur de bien comprendre
Expression du DL a droite, compte tenu de l’equation differentielle
y [i+1] = y [i ] + ∆t × f [i ] + ∆t2
2! f ′[i ] + ∆t3
3! f ′′[i ] + o(∆t3
)f ′[i ] Formule en o(∆t)
3f [i ] − 4f [i−1] + f [i−2]
2∆t+ o(∆t)
f ′′[i ]
f [i ] − 2f [i−1] + f [i−2]
∆t2+ o(1)
Formule d’Adams ouverte a l’ordre 3
y [i+1] = y [i ] + ∆t12
[23f [i ] − 16f [i−1] + 5f [i−2]
]+ o(∆t3
)
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 136
![Page 409: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/409.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
Methode ouverte d’Adams a l’ordre 3Encore une fois pour etre sur de bien comprendre
Expression du DL a droite, compte tenu de l’equation differentielle
y [i+1] = y [i ] + ∆t × f [i ] + ∆t2
2! f ′[i ] + ∆t3
3! f ′′[i ] + o(∆t3
)f ′[i ] Formule en o(∆t)
3f [i ] − 4f [i−1] + f [i−2]
2∆t+ o(∆t)
f ′′[i ]
f [i ] − 2f [i−1] + f [i−2]
∆t2+ o(1)
Formule d’Adams ouverte a l’ordre 3
y [i+1] = y [i ] + ∆t12
[23f [i ] − 16f [i−1] + 5f [i−2]
]+ o(∆t3
)
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 136
![Page 410: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/410.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
Methode ouverte d’Adams a l’ordre 3Encore une fois pour etre sur de bien comprendre
Expression du DL a droite, compte tenu de l’equation differentielle
y [i+1] = y [i ] + ∆t × f [i ] + ∆t2
2! f ′[i ] + ∆t3
3! f ′′[i ] + o(∆t3
)f ′[i ] Formule en o(∆t)
3f [i ] − 4f [i−1] + f [i−2]
2∆t+ o(∆t)
f ′′[i ]
f [i ] − 2f [i−1] + f [i−2]
∆t2+ o(1)
Formule d’Adams ouverte a l’ordre 3
y [i+1] = y [i ] + ∆t12
[23f [i ] − 16f [i−1] + 5f [i−2]
]+ o(∆t3
)
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 136
![Page 411: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/411.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
Methode ouverte d’Adams a l’ordre 3Encore une fois pour etre sur de bien comprendre
Expression du DL a droite, compte tenu de l’equation differentielle
y [i+1] = y [i ] + ∆t × f [i ] + ∆t2
2! f ′[i ] + ∆t3
3! f ′′[i ] + o(∆t3
)f ′[i ] Formule en o(∆t)
3f [i ] − 4f [i−1] + f [i−2]
2∆t+ o(∆t)
f ′′[i ]
f [i ] − 2f [i−1] + f [i−2]
∆t2+ o(1)
Formule d’Adams ouverte a l’ordre 3
y [i+1] = y [i ] + ∆t12
[23f [i ] − 16f [i−1] + 5f [i−2]
]+ o(∆t3
)Ordres superieurs
Calculez vous-meme ou trouvez une table. . .
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 136
![Page 412: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/412.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
Methodes d’Adams fermees Adams-MoultonDes methodes implicites
Developpement limite a gauche Differences finies a gauche
y (t) = y (t + ∆t)−∆t × y ′ (t + ∆t) + ∆t2
2! y ′′ (t + ∆t)−∆t3
3! y ′′′ (t + ∆t) + · · ·
y [i ] = y [i+1] −∆t × f [i+1] + ∆t2
2! f ′[i+1] − ∆t3
3! f ′′[i+1] + · · ·
y [i+1] = y [i ] + ∆t × f [i+1] − ∆t2
2! f ′[i+1] + ∆t3
3! f ′′[i+1] + · · ·Derivees evaluees par differences finies a gauche
On a besoin du resultat pour avoir le resultat . . . ?
Estimation du resultat par une methode ouverte (prediction)
Correction par une methode fermee d’ordre au moins egal
Iteration jusqu’a obtention de la precision voulue
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 137
![Page 413: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/413.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
Methodes d’Adams fermees Adams-MoultonDes methodes implicites
Developpement limite a gauche Differences finies a gauche
y (t) = y (t + ∆t)−∆t × y ′ (t + ∆t) + ∆t2
2! y ′′ (t + ∆t)−∆t3
3! y ′′′ (t + ∆t) + · · ·
y [i ] = y [i+1] −∆t × f [i+1] + ∆t2
2! f ′[i+1] − ∆t3
3! f ′′[i+1] + · · ·
y [i+1] = y [i ] + ∆t × f [i+1] − ∆t2
2! f ′[i+1] + ∆t3
3! f ′′[i+1] + · · ·Derivees evaluees par differences finies a gauche
On a besoin du resultat pour avoir le resultat . . . ?
Estimation du resultat par une methode ouverte (prediction)
Correction par une methode fermee d’ordre au moins egal
Iteration jusqu’a obtention de la precision voulue
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 137
![Page 414: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/414.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
Methodes d’Adams fermees Adams-MoultonDes methodes implicites
Developpement limite a gauche Differences finies a gauche
y (t) = y (t + ∆t)−∆t × y ′ (t + ∆t) + ∆t2
2! y ′′ (t + ∆t)−∆t3
3! y ′′′ (t + ∆t) + · · ·
y [i ] = y [i+1] −∆t × f [i+1] + ∆t2
2! f ′[i+1] − ∆t3
3! f ′′[i+1] + · · ·
y [i+1] = y [i ] + ∆t × f [i+1] − ∆t2
2! f ′[i+1] + ∆t3
3! f ′′[i+1] + · · ·Derivees evaluees par differences finies a gauche
On a besoin du resultat pour avoir le resultat . . . ?
Estimation du resultat par une methode ouverte (prediction)
Correction par une methode fermee d’ordre au moins egal
Iteration jusqu’a obtention de la precision voulue
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 137
![Page 415: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/415.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
Methodes d’Adams fermees Adams-MoultonDes methodes implicites
Developpement limite a gauche Differences finies a gauche
y (t) = y (t + ∆t)−∆t × y ′ (t + ∆t) + ∆t2
2! y ′′ (t + ∆t)−∆t3
3! y ′′′ (t + ∆t) + · · ·
y [i ] = y [i+1] −∆t × f [i+1] + ∆t2
2! f ′[i+1] − ∆t3
3! f ′′[i+1] + · · ·
y [i+1] = y [i ] + ∆t × f [i+1] − ∆t2
2! f ′[i+1] + ∆t3
3! f ′′[i+1] + · · ·Derivees evaluees par differences finies a gauche
On a besoin du resultat pour avoir le resultat . . . ?
Estimation du resultat par une methode ouverte (prediction)
Correction par une methode fermee d’ordre au moins egal
Iteration jusqu’a obtention de la precision voulue
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 137
![Page 416: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/416.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
Adams-Moulton : deux exemplesOrdres 1 & 4
Ordre 1 Euler implicite
y [i+1] = y [i ] + ∆t × f [i+1] + o(∆t)
Ordre 4 La plus utilisee en pratique
y [i+1] = y [i ] + ∆t24
[9f [i+1] + 19f [i ] − 5f [i−1] + f [i−2]
]+ o(∆t4
)
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 138
![Page 417: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/417.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
Adams-Moulton : deux exemplesOrdres 1 & 4
Ordre 1 Euler implicite
y [i+1] = y [i ] + ∆t × f [i+1] + o(∆t)
Ordre 4 La plus utilisee en pratique
y [i+1] = y [i ] + ∆t24
[9f [i+1] + 19f [i ] − 5f [i−1] + f [i−2]
]+ o(∆t4
)
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 138
![Page 418: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/418.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
Methodes de prediction correctionEn pratique : combinaison des methodes d’Adams ouvertes et fermees
Avantages
Stabilite des methodes implicites
Quantite de calcul proche des methodes explicites
Principe
Estimation par une methode ouverte Adams-Bashforth
Correction par une methode fermee Adams-Moulton
d’ordre au moins egalen pratique : meme ordre ou un de plus
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 139
![Page 419: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/419.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
Methodes de prediction correctionEn pratique : combinaison des methodes d’Adams ouvertes et fermees
Avantages
Stabilite des methodes implicites
Quantite de calcul proche des methodes explicites
Principe
Estimation par une methode ouverte Adams-Bashforth
Correction par une methode fermee Adams-Moulton
d’ordre au moins egalen pratique : meme ordre ou un de plus
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 139
![Page 420: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/420.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode de TirMethode matricielle
VI Equations Differentielles Ordinaires
16 Resolution numerique des problemes differentielsClassificationForme canonique
17 Problemes aux conditions initiales y ′ = f (t, y) , y (0) = y0
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
18 Problemes aux conditions limitesMethode de TirMethode matricielle
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 140
![Page 421: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/421.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode de TirMethode matricielle
Methode de TirResolution iterative des problemes a conditions limites
Principe
Transformer en un probleme aconditions initiales
Une condition inconnue
Trouver l’inconnue
Fig.: Source de la Photo : Ray Bilcliff,http://www.trueportraits.com
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 140
![Page 422: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/422.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode de TirMethode matricielle
Methode de Tir pour une equation du second ordre
Probleme a resoudre
Equation du second ordre : deux degres de liberte
A (x , y) y ′′ + B (x , y) y ′ + C (x , y) y = D (x , y)
Deux contraintes sous forme de conditions aux limites
y (0) = y0 et y (L) = yL
Transformation en un probleme aux conditions initiales
y ′ (0) = u inconnue : conditions initiales fixees
Pour u donne, une estimation de y est calculee : yu
Au point L, sa valeur est yu (L)
C’est une fonction de u, nommons la yL : u 7→ yL (u)
Le probleme differentiel devient une recherche de racineyL (u) = yL
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 141
![Page 423: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/423.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode de TirMethode matricielle
Methode de Tir pour une equation du second ordre
Probleme a resoudre
Equation du second ordre : deux degres de liberte
A (x , y) y ′′ + B (x , y) y ′ + C (x , y) y = D (x , y)
Deux contraintes sous forme de conditions aux limites
y (0) = y0 et y (L) = yL
Transformation en un probleme aux conditions initiales
y ′ (0) = u inconnue : conditions initiales fixees
Pour u donne, une estimation de y est calculee : yu
Au point L, sa valeur est yu (L)
C’est une fonction de u, nommons la yL : u 7→ yL (u)
Le probleme differentiel devient une recherche de racineyL (u) = yL
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 141
![Page 424: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/424.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode de TirMethode matricielle
Methode de Tir pour une equation du second ordre
Probleme a resoudre
Equation du second ordre : deux degres de liberte
A (x , y) y ′′ + B (x , y) y ′ + C (x , y) y = D (x , y)
Deux contraintes sous forme de conditions aux limites
y (0) = y0 et y (L) = yL
Transformation en un probleme aux conditions initiales
y ′ (0) = u inconnue : conditions initiales fixees
Pour u donne, une estimation de y est calculee : yu
Au point L, sa valeur est yu (L)
C’est une fonction de u, nommons la yL : u 7→ yL (u)
Le probleme differentiel devient une recherche de racineyL (u) = yL
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 141
![Page 425: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/425.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode de TirMethode matricielle
Methode de Tir pour une equation du second ordre
Probleme a resoudre
Equation du second ordre : deux degres de liberte
A (x , y) y ′′ + B (x , y) y ′ + C (x , y) y = D (x , y)
Deux contraintes sous forme de conditions aux limites
y (0) = y0 et y (L) = yL
Transformation en un probleme aux conditions initiales
y ′ (0) = u inconnue : conditions initiales fixees
Pour u donne, une estimation de y est calculee : yu
Au point L, sa valeur est yu (L)
C’est une fonction de u, nommons la yL : u 7→ yL (u)
Le probleme differentiel devient une recherche de racineyL (u) = yL
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 141
![Page 426: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/426.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode de TirMethode matricielle
Methode de Tir pour une equation du second ordre
Probleme a resoudre
Equation du second ordre : deux degres de liberte
A (x , y) y ′′ + B (x , y) y ′ + C (x , y) y = D (x , y)
Deux contraintes sous forme de conditions aux limites
y (0) = y0 et y (L) = yL
Transformation en un probleme aux conditions initiales
y ′ (0) = u inconnue : conditions initiales fixees
Pour u donne, une estimation de y est calculee : yu
Au point L, sa valeur est yu (L)
C’est une fonction de u, nommons la yL : u 7→ yL (u)
Le probleme differentiel devient une recherche de racineyL (u) = yL
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 141
![Page 427: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/427.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode de TirMethode matricielle
Methode de Tir pour une equation du second ordre
Probleme a resoudre
Equation du second ordre : deux degres de liberte
A (x , y) y ′′ + B (x , y) y ′ + C (x , y) y = D (x , y)
Deux contraintes sous forme de conditions aux limites
y (0) = y0 et y (L) = yL
Transformation en un probleme aux conditions initiales
y ′ (0) = u inconnue : conditions initiales fixees
Pour u donne, une estimation de y est calculee : yu
Au point L, sa valeur est yu (L)
C’est une fonction de u, nommons la yL : u 7→ yL (u)
Le probleme differentiel devient une recherche de racineyL (u) = yL
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 141
![Page 428: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/428.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode de TirMethode matricielle
Methode de Tir pour une equation du second ordre
Probleme a resoudre
Equation du second ordre : deux degres de liberte
A (x , y) y ′′ + B (x , y) y ′ + C (x , y) y = D (x , y)
Deux contraintes sous forme de conditions aux limites
y (0) = y0 et y (L) = yL
Transformation en un probleme aux conditions initiales
y ′ (0) = u inconnue : conditions initiales fixees
Pour u donne, une estimation de y est calculee : yu
Au point L, sa valeur est yu (L)
C’est une fonction de u, nommons la yL : u 7→ yL (u)
Le probleme differentiel devient une recherche de racineyL (u) = yL
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 141
![Page 429: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/429.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode de TirMethode matricielle
Recherche de la racine yL (u) = yLTrouver u, c’est resoudre le probleme
Methode de l’artilleur
Je tire un coup au dessus
Je tire un coup au dessous
J’ajuste le tir
Je recommence si necessaire
C’est la Methode de la secante Voir chapitre precedent
Application dans notre cas
Resoudre pour deux valeurs arbitraires u[1] et u[2]
u[3] sera la valeur trouvee pour u en interpolant yL
lineairement entre u[1] et u[2]
u[n+1] =[yL(u[n])−yL]u[n−1]−[yL(u[n−1])−yL]u[n]
[yL(u[n])−yL(u[n−1])]
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 142
![Page 430: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/430.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode de TirMethode matricielle
Recherche de la racine yL (u) = yLTrouver u, c’est resoudre le probleme
Methode de l’artilleur
Je tire un coup au dessus
Je tire un coup au dessous
J’ajuste le tir
Je recommence si necessaire
C’est la Methode de la secante Voir chapitre precedent
Application dans notre cas
Resoudre pour deux valeurs arbitraires u[1] et u[2]
u[3] sera la valeur trouvee pour u en interpolant yL
lineairement entre u[1] et u[2]
u[n+1] =[yL(u[n])−yL]u[n−1]−[yL(u[n−1])−yL]u[n]
[yL(u[n])−yL(u[n−1])]
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 142
![Page 431: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/431.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode de TirMethode matricielle
Recherche de la racine yL (u) = yLTrouver u, c’est resoudre le probleme
Methode de l’artilleur
Je tire un coup au dessus
Je tire un coup au dessous
J’ajuste le tir
Je recommence si necessaire
C’est la Methode de la secante Voir chapitre precedent
Application dans notre cas
Resoudre pour deux valeurs arbitraires u[1] et u[2]
u[3] sera la valeur trouvee pour u en interpolant yL
lineairement entre u[1] et u[2]
u[n+1] =[yL(u[n])−yL]u[n−1]−[yL(u[n−1])−yL]u[n]
[yL(u[n])−yL(u[n−1])]
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 142
![Page 432: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/432.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode de TirMethode matricielle
Et si les conditions aux limites impliquent la derivee ?
Supposons des conditions aux limites lineaires
α0y (0) + α1y ′ (0) = c0
β0y (L) + β1y ′ (L) = cL
Remplacons par un probleme a conditions initiales
α0y (0) + α1y ′ (0) = c0
γ0y (0) + γ1y ′ (0) = u
En imposant α0γ1 − α1γ0 = 1 :
y (0) = −α1u + c0γ1
y ′ (0) = α0u − c0γ0
Methode de la secante
Evaluation de yu pour u[1] et u[2] arbitraires
Methode de la secante pour resoudre β0yu (L) + β1y ′u (L) = cL
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 143
![Page 433: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/433.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode de TirMethode matricielle
Et si les conditions aux limites impliquent la derivee ?
Supposons des conditions aux limites lineaires
α0y (0) + α1y ′ (0) = c0
β0y (L) + β1y ′ (L) = cL
Remplacons par un probleme a conditions initiales
α0y (0) + α1y ′ (0) = c0
γ0y (0) + γ1y ′ (0) = u
En imposant α0γ1 − α1γ0 = 1 :
y (0) = −α1u + c0γ1
y ′ (0) = α0u − c0γ0
Methode de la secante
Evaluation de yu pour u[1] et u[2] arbitraires
Methode de la secante pour resoudre β0yu (L) + β1y ′u (L) = cL
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 143
![Page 434: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/434.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode de TirMethode matricielle
Et si les conditions aux limites impliquent la derivee ?
Supposons des conditions aux limites lineaires
α0y (0) + α1y ′ (0) = c0
β0y (L) + β1y ′ (L) = cL
Remplacons par un probleme a conditions initiales
α0y (0) + α1y ′ (0) = c0
γ0y (0) + γ1y ′ (0) = u
En imposant α0γ1 − α1γ0 = 1 :
y (0) = −α1u + c0γ1
y ′ (0) = α0u − c0γ0
Methode de la secante
Evaluation de yu pour u[1] et u[2] arbitraires
Methode de la secante pour resoudre β0yu (L) + β1y ′u (L) = cL
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 143
![Page 435: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/435.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode de TirMethode matricielle
Equation du second ordre lineaire
Equation differentielle lineaire du second ordre
Les coefficients ne dependent que de x
A (x) y ′′ + B (x) y ′ + C (x) y = D (x)
La combinaison lineaire de deux solutions est solution
Cas particulier de la methode de la secante
L’interpolation lineaire est exacte
Un pas suffit
u[3] est la solution
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 144
![Page 436: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/436.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode de TirMethode matricielle
Equation du second ordre lineaire
Equation differentielle lineaire du second ordre
Les coefficients ne dependent que de x
A (x) y ′′ + B (x) y ′ + C (x) y = D (x)
La combinaison lineaire de deux solutions est solution
Cas particulier de la methode de la secante
L’interpolation lineaire est exacte
Un pas suffit
u[3] est la solution
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 144
![Page 437: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/437.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode de TirMethode matricielle
Equation du second ordre lineaire
Equation differentielle lineaire du second ordre
Les coefficients ne dependent que de x
A (x) y ′′ + B (x) y ′ + C (x) y = D (x)
La combinaison lineaire de deux solutions est solution
Cas particulier de la methode de la secante
L’interpolation lineaire est exacte
Un pas suffit
u[3] est la solution
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 144
![Page 438: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/438.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode de TirMethode matricielle
Equations d’ordres superieurs ordre n
Equivalence equation premier ordre
Equation vectorielle, ordre 1, n composantes
Les n conditions limites
n0 d’entre elles sont en x0 : c0 = (c0,1, · · · , c0,n0)
nL = n − n0 d’entre elles sont en xL : cL = (cL,1, · · · , cL,nL)
Transformation en probleme a conditions initiales en x0
n0 premieres conditions connues,nL suivantes inconnues
Posons u = (c0, cu) et e (u) = cL (u)− cL
Methode de Newton discretisee Voir chapitre precedent e (u) = 0
e (u + δu) ≈ e (u) + Due δu = 0⇒ u[n+1] = u[n] − (Du
e )−1δuEstimation numerique de Du
e car derivation impossible
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 145
![Page 439: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/439.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode de TirMethode matricielle
Equations d’ordres superieurs ordre n
Equivalence equation premier ordre
Equation vectorielle, ordre 1, n composantes
Les n conditions limites
n0 d’entre elles sont en x0 : c0 = (c0,1, · · · , c0,n0)
nL = n − n0 d’entre elles sont en xL : cL = (cL,1, · · · , cL,nL)
Transformation en probleme a conditions initiales en x0
n0 premieres conditions connues,nL suivantes inconnues
Posons u = (c0, cu) et e (u) = cL (u)− cL
Methode de Newton discretisee Voir chapitre precedent e (u) = 0
e (u + δu) ≈ e (u) + Due δu = 0⇒ u[n+1] = u[n] − (Du
e )−1δuEstimation numerique de Du
e car derivation impossible
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 145
![Page 440: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/440.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode de TirMethode matricielle
Equations d’ordres superieurs ordre n
Equivalence equation premier ordre
Equation vectorielle, ordre 1, n composantes
Les n conditions limites
n0 d’entre elles sont en x0 : c0 = (c0,1, · · · , c0,n0)
nL = n − n0 d’entre elles sont en xL : cL = (cL,1, · · · , cL,nL)
Transformation en probleme a conditions initiales en x0
n0 premieres conditions connues,nL suivantes inconnues
Posons u = (c0, cu) et e (u) = cL (u)− cL
Methode de Newton discretisee Voir chapitre precedent e (u) = 0
e (u + δu) ≈ e (u) + Due δu = 0⇒ u[n+1] = u[n] − (Du
e )−1δuEstimation numerique de Du
e car derivation impossible
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 145
![Page 441: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/441.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode de TirMethode matricielle
Equations d’ordres superieurs ordre n
Equivalence equation premier ordre
Equation vectorielle, ordre 1, n composantes
Les n conditions limites
n0 d’entre elles sont en x0 : c0 = (c0,1, · · · , c0,n0)
nL = n − n0 d’entre elles sont en xL : cL = (cL,1, · · · , cL,nL)
Transformation en probleme a conditions initiales en x0
n0 premieres conditions connues,nL suivantes inconnues
Posons u = (c0, cu) et e (u) = cL (u)− cL
Methode de Newton discretisee Voir chapitre precedent e (u) = 0
e (u + δu) ≈ e (u) + Due δu = 0⇒ u[n+1] = u[n] − (Du
e )−1δuEstimation numerique de Du
e car derivation impossible
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 145
![Page 442: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/442.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode de TirMethode matricielle
Equations d’ordres superieurs ordre n
Equivalence equation premier ordre
Equation vectorielle, ordre 1, n composantes
Les n conditions limites
n0 d’entre elles sont en x0 : c0 = (c0,1, · · · , c0,n0)
nL = n − n0 d’entre elles sont en xL : cL = (cL,1, · · · , cL,nL)
Transformation en probleme a conditions initiales en x0
n0 premieres conditions connues,nL suivantes inconnues
Posons u = (c0, cu) et e (u) = cL (u)− cL
Methode de Newton discretisee Voir chapitre precedent e (u) = 0
e (u + δu) ≈ e (u) + Due δu = 0⇒ u[n+1] = u[n] − (Du
e )−1δuEstimation numerique de Du
e car derivation impossible
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 145
![Page 443: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/443.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode de TirMethode matricielle
Equations d’ordres superieurs ordre n
Equivalence equation premier ordre
Equation vectorielle, ordre 1, n composantes
Les n conditions limites
n0 d’entre elles sont en x0 : c0 = (c0,1, · · · , c0,n0)
nL = n − n0 d’entre elles sont en xL : cL = (cL,1, · · · , cL,nL)
Transformation en probleme a conditions initiales en x0
n0 premieres conditions connues,nL suivantes inconnues
Posons u = (c0, cu) et e (u) = cL (u)− cL
Methode de Newton discretisee Voir chapitre precedent e (u) = 0
e (u + δu) ≈ e (u) + Due δu = 0⇒ u[n+1] = u[n] − (Du
e )−1δuEstimation numerique de Du
e car derivation impossible
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 145
![Page 444: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/444.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode de TirMethode matricielle
Equations d’ordres superieurs ordre n
Equivalence equation premier ordre
Equation vectorielle, ordre 1, n composantes
Les n conditions limites
n0 d’entre elles sont en x0 : c0 = (c0,1, · · · , c0,n0)
nL = n − n0 d’entre elles sont en xL : cL = (cL,1, · · · , cL,nL)
Transformation en probleme a conditions initiales en x0
n0 premieres conditions connues,nL suivantes inconnues
Posons u = (c0, cu) et e (u) = cL (u)− cL
Methode de Newton discretisee Voir chapitre precedent e (u) = 0
e (u + δu) ≈ e (u) + Due δu = 0⇒ u[n+1] = u[n] − (Du
e )−1δuEstimation numerique de Du
e car derivation impossible
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 145
![Page 445: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/445.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode de TirMethode matricielle
VI Equations Differentielles Ordinaires
16 Resolution numerique des problemes differentielsClassificationForme canonique
17 Problemes aux conditions initiales y ′ = f (t, y) , y (0) = y0
Methode d’EulerMethodes Runge & KuttaMethodes d’Adams
18 Problemes aux conditions limitesMethode de TirMethode matricielle
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 146
![Page 446: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/446.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode de TirMethode matricielle
EDO lineaires a conditions limites : methode matricielleAussi connue sous les noms de methode de relaxation ou methode aux differences finies
Une EDO lineaire discretisee est un systeme lineaire
Differences finies en chaque point : n equations
La valeur de y en chaque point : n inconnues
Resolution du systeme
Les differences finies ne font reference qu’aux voisins
C’est un systeme multidiagonal, donc creux
Methodes iteratives et matrices creuses pour n grand
Mais attention a la troncature du Developpement Limite
Il est prudent de comparer la solution obtenue en doublant n
Et de le doubler encore si necessaire
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 146
![Page 447: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/447.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode de TirMethode matricielle
EDO lineaires a conditions limites : methode matricielleAussi connue sous les noms de methode de relaxation ou methode aux differences finies
Une EDO lineaire discretisee est un systeme lineaire
Differences finies en chaque point : n equations
La valeur de y en chaque point : n inconnues
Resolution du systeme
Les differences finies ne font reference qu’aux voisins
C’est un systeme multidiagonal, donc creux
Methodes iteratives et matrices creuses pour n grand
Mais attention a la troncature du Developpement Limite
Il est prudent de comparer la solution obtenue en doublant n
Et de le doubler encore si necessaire
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 146
![Page 448: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/448.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode de TirMethode matricielle
EDO lineaires a conditions limites : methode matricielleAussi connue sous les noms de methode de relaxation ou methode aux differences finies
Une EDO lineaire discretisee est un systeme lineaire
Differences finies en chaque point : n equations
La valeur de y en chaque point : n inconnues
Resolution du systeme
Les differences finies ne font reference qu’aux voisins
C’est un systeme multidiagonal, donc creux
Methodes iteratives et matrices creuses pour n grand
Mais attention a la troncature du Developpement Limite
Il est prudent de comparer la solution obtenue en doublant n
Et de le doubler encore si necessaire
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 146
![Page 449: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/449.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode de TirMethode matricielle
EDO lineaires a conditions limites : methode matricielleAussi connue sous les noms de methode de relaxation ou methode aux differences finies
Une EDO lineaire discretisee est un systeme lineaire
Differences finies en chaque point : n equations
La valeur de y en chaque point : n inconnues
Resolution du systeme
Les differences finies ne font reference qu’aux voisins
C’est un systeme multidiagonal, donc creux
Methodes iteratives et matrices creuses pour n grand
Mais attention a la troncature du Developpement Limite
Il est prudent de comparer la solution obtenue en doublant n
Et de le doubler encore si necessaire
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 146
![Page 450: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/450.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode de TirMethode matricielle
EDO lineaires a conditions limites : methode matricielleAussi connue sous les noms de methode de relaxation ou methode aux differences finies
Une EDO lineaire discretisee est un systeme lineaire
Differences finies en chaque point : n equations
La valeur de y en chaque point : n inconnues
Resolution du systeme
Les differences finies ne font reference qu’aux voisins
C’est un systeme multidiagonal, donc creux
Methodes iteratives et matrices creuses pour n grand
Mais attention a la troncature du Developpement Limite
Il est prudent de comparer la solution obtenue en doublant n
Et de le doubler encore si necessaire
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 146
![Page 451: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/451.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode de TirMethode matricielle
Methode matricielle pour les EDO non lineairesLe systeme a n equations et n inconnues n’est plus lineaire
Resolution d’un systeme non lineaire
Un air de deja vu
Methode de Newton multidimensionnelle vue precedemment
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 147
![Page 452: cel.archives- · PDF fileQuelques ouvrages... [GJP05, Pie01, Bis04] Christopher M. Bishop. Neural Networks for Pattern Recognition, chapter 7 :Parameter Optimization Algorithms. Oxford](https://reader034.fdocuments.fr/reader034/viewer/2022042605/5a783a6a7f8b9aea3e8ea1e7/html5/thumbnails/452.jpg)
Problemes differentiels numeriquesProblemes aux conditions initialesProblemes aux conditions limites
Methode de TirMethode matricielle
Methode matricielle pour les EDO non lineairesLe systeme a n equations et n inconnues n’est plus lineaire
Resolution d’un systeme non lineaire
Un air de deja vu
Methode de Newton multidimensionnelle vue precedemment
La boucle est bouclee
Fin de cette partie
N. Fressengeas UE SPM-PHY-S07-101, version 3.2, planche 147