Analyses IRMf

66
Analyses IRMf Analyses IRMf Oury Monchi, Ph.D. Oury Monchi, Ph.D. Centre de Recherche, Institut Centre de Recherche, Institut Universitaire de Gériatrie de Montréal & Universitaire de Gériatrie de Montréal & Université de Montréal Université de Montréal

description

Analyses IRMf. Oury Monchi, Ph.D. Centre de Recherche, Institut Universitaire de Gériatrie de Montréal & Université de Montréal. But de ce cours. Donner une introduction à l’analyse IRMf la plus classique, c’est à dire celle qui utilise le modèle général linéaire - PowerPoint PPT Presentation

Transcript of Analyses IRMf

Page 1: Analyses IRMf

Analyses IRMfAnalyses IRMf

Oury Monchi, Ph.D.Oury Monchi, Ph.D.

Centre de Recherche, Institut Universitaire de Gériatrie de Centre de Recherche, Institut Universitaire de Gériatrie de Montréal & Université de MontréalMontréal & Université de Montréal

Page 2: Analyses IRMf

But de ce cours

Donner une introduction à l’analyse IRMf la plus classique, c’est à dire celle qui utilise le modèle général linéaire

Cette introduction devrait être indépendante du software (à peu de choses prêt!) utilisé pour l’analyse, mais les exemples viendront des minc tools/fmristat (aussi implémenté dans Neurolens) et de SPM

Page 3: Analyses IRMf

Plan pour une éxpérience IRMf et son analyse

Dessin Expérimental

Prétraitement Modèle statistique Significativité et comparaison multiple Moyennage des séries, des sujets, comparaison de groupes Visualisation A quelle étape devrait-on normaliser les données?

Page 4: Analyses IRMf

Types de dessins expérimentauxDessin en block

Dessin évènementiel espacé

Dessin évènementiel mixte

Page 5: Analyses IRMf

Dessins expérimentaux Block design (dessin en blocks)

Comparaison de longues périodes (ex 16s) d’une condition avec une longue période d’une autre condition

Approche traditionnelle Le plus puissant en termes statistiques Dépend moins du modèle hémodynamique créé

Event-related design (dessin évènementiel): Comparaison de conditions à périodes courtes (ex 1s) Assez nouveau (date d’à peu près 1997) Moins puissant statistiquement, mais a beaucoup d’avantages

Page 6: Analyses IRMf

Plan pour une éxpérience IRMf et son analyse

Dessin Expérimental Prétraitement

Modèle statistique Significativité et comparaison multiple Moyennage des séries, des sujets, comparaison de groupes Visualisation A quelle étape devrait-on normaliser les données?

Page 7: Analyses IRMf

Prétraitement – analyses SPM

Page 8: Analyses IRMf

1

23

4

N-1N-2

N-3.

N

Série 1Réaligner au 2ème volume

De chaque volume

Prétraitement – Correction du Mouvement

Page 9: Analyses IRMf

Lissage Spatial

Avant la convolution

Convolué avec le fintre

Gaussien

Application d’un filtre Gaussien Généralement exprimé en

#mm FWHM “Full Width – Half Maximum” Typiquement ~2 fois la taille

d’un voxel

Page 10: Analyses IRMf

Prétraitement du MNI

Fmr_preprocess fait à la fois la correction du mouvement: spécifier l’acquisition cible (-target #) et le lissage, spécifier la taille (-fwhm #en mm)

En général choisir la taille du lissage (fwhm), 2 fois plus grand que la taille du voxel acquis

Page 11: Analyses IRMf

Plan pour une éxpérience IRMf et son analyse

Dessin Expérimental Prétraitement Modèle statistique

Significativité et comparaison multiple Moyennage des séries, des sujets, comparaison de groupes Visualisation A quelle étape devrait-on normaliser les données?

Page 12: Analyses IRMf

Une Expérience simple

IntactObjects

ScrambledObjects

BlankScreen

TEMPS

Un volume (12 tranches) chaque 2 secondes pour 272 secondes (4 minutes, 32 secondes)Conditions changent chaque 16 secondes (8 volumes)

Lateral Occipital Complex: responds when subject views objects

Page 13: Analyses IRMf

Quelles sont les données avec lesquels nous devons travailler?

Expérience typique: 64 voxels x 64 voxels x 12

slices x 136 points temporels Cela fait 136 volumes Ou vu autrement 64x64x12 =

49,152 voxels, chacun avec son décours temporel!!

Page 14: Analyses IRMf

Pourquoi a-t-on besoin de statistique?

On pourrait en principe analyser les données en naviguant à travers les voxels: déplacer le curseur sur différentes régions et regarder si on trouve temporelle qui nous intéresse

Tranche 9, Voxel 1, 0Tranche 9, Voxel 0, 0Même là où il n’y a pas de cerveau, il y a du bruit

Tranche 9, Voxel 9, 27Ici un voxel qui réponb bien lorsqu’il y a un stimulus visuel

Tranche 9, Voxel 13, 41Ici un qui répond bien lorsqu’il y a des objets intacts

Tranche 9, Voxel 14, 42

Ici quelques uns qui montrent à peu près le bon patron... mais est-ce réel?

Tranche 9, Voxel 18, 36

Tranche 9, Voxel 22, 7

Signal beaucoup plus grand où le cerveau est, mais il y a encore du bruit

Page 15: Analyses IRMf

Pourquoi a-t-on besoin de statistique?

Il est clair que naviguer à travers les voxels n’est pas plausible. Il nous faudrait le faire 49,152 fois cela demanderait beaucoup de décisions subjectives pour savoir si une activation est réelle.

C’est pour cela qu’on a besoin de statistiques

Statistiques: Nous indiques ou regarder pour les

activations qui SONT reliés à notre paradigme

Nous aide à décider à quel point les activations sont ‘réelles’

The lies and damned lies come in when you write the manuscript

Page 16: Analyses IRMf

Statistiques: le test t

Le test t sert à comparer la grosseur des effets (i.e. la différence entre blocks) à la variance des données (i.e. déviation standard). En (A), l’effet est de 2 unités, variance est haute, donc t = 2,3. En (B), l’effet est de seulement 1 unité, mais la variance est beaucoup plus petite, donc t = 6,7, une valeur beaucoup plus grande

Page 17: Analyses IRMf

0 20 40 60 80 100 120 140

4

3

2

1

Com

posa

nte

Cadre

Composantes temporelles (d.s., % variance expliquée)

0.68, 46.9%

0.29, 8.6%

0.17, 2.9%

0.15, 2.4%

-1

-0.5

0

0.5

1

Tranche (0 based)

Com

posa

nte

Composantes Spatiales

0 2 4 6 8 10 12

1

2

3

4

1: exclure les premières images

2: drift

3: long-range correlationor anatomicaleffect: removeby converting to % of brain

4: signal?

PCA_IMAGE: PCA du temps x espace

PCA = Principal Component Analysis

Page 18: Analyses IRMf

Le Modèle Linéaire Général (GLM) Le test t, corrélations et analyse Fourier fonctionnent pour des dessins

simples, et étaient très communs au début d’imagerie

Le modèle linéaire général (GLM) est maintenant disponible dans beaucoup de paquets software, et a tendance à être l’analyse préférée

Pourquoi le GLM est tellement super? Le GLM est un outil qui peut faire tout ce que les tests plus simples peuvent faire Vous pouvez imaginer n’importe quelle combinaison de contrastes (e.g. intact –

scrambled, scrambled – repos) avec un GLM, plutôt que des corrélations multiples Le GLM nous donne une plus grande flexibilité pour combiner les données intra-

et inter-sujet Il est aussi plus facile de contrebalancer les ordres et jeter les mauvaises sections

des données Le GLM nous permet de modéliser des choses qui pourraient faire partie de la

variance des données, même si elles ne sont pas intéressantes par soi-même (e.g. mouvements de la tête

On verra plus tard dans le cours, le GLM permet aussi d’utiliser des dessins plus complexes (e.g. dessins factoriels)

Page 19: Analyses IRMf

Modéliser la réponse attendue (assomptions)

La réponse est presque entièrement déterminée par le dessin expérimental

La réponse BOLD a la même forme et le même délai à travers toutes les régions du cerveau

The signal BOLD est décomposable de manière linéaire à travers les événements

La réponse devrait être la même pour tous les essais d’une même condition

Page 20: Analyses IRMf

Modéliser la réponse attendue (fmridesign)

Convoluer avec un modèle hrf

Page 21: Analyses IRMf

Modéliser les données (GLM)

y x ε

β= +

Page 22: Analyses IRMf

Modéliser les données (GLM)

yi = xiβ + εi

données modèle paramètreerreur

PENDANT

AVANT APRÈS

JAMAIS

Page 23: Analyses IRMf

En recherche d’un critère

Σ(yi – Xiβ)2

données modèle paramètre

On essaie de minimiser:

Page 24: Analyses IRMf

Estimation des Moindres Carrés

Nous devons faire ceci pour chaque voxel séparément (i.e. on a le même nombre de β que de voxels

Référence : J. Armony

Page 25: Analyses IRMf

Référence : J. Armony

Déduction statistiqueOù, dans le cerveau, avons nous un paramètre expérimental (β) significativement plus grand que zéro?

Page 26: Analyses IRMf

Référence : J. Armony

Déduction statistique

Hypothèse:

Contraste: combinaison linéaire de paramètres c = [1 -1]

Page 27: Analyses IRMf

Paramètres inconnus

Référence : Dr. K. Worsley

FMRILM

Ajuste un modèle linéaire pour une série de temps IRMf avec AR(p) erreurs

Modèle linéaire: Yt = (stimulust * HRF) b + driftt c + erreurt

AR(p) erreurs:

erreurt = a1 errort-1 + … + ap erreurt-p + s WNt

Page 28: Analyses IRMf

Implémentation FMRISTAT

Pour 120 scans, séparés par 3 secondes, et 13 tranches entrelacées chaque 0.12 secondes, utilisez:

frametimes=(0:119)*3;

slicetimes=[0.14 0.98 0.26 1.10 0.38 1.22 0.50 1.34 0.62 1.46 0.74 1.58 0.86];

Page 29: Analyses IRMf

events=[ 1 9 9 1 2 27 9 1 1 45 9 1 2 63 9 1 1 81 9 1 2 99 9 1 1 117 9 1 2 135 9 1 1 153 9 1 2 171 9 1 1 189 9 1 2 207 9 1 1 225 9 1 2 243 9 1 1 261 9 1 2 279 9 1 1 297 9 1 2 315 9 1 1 333 9 1 2 351 9 1 ];

Implémentation FMRISTAT

Un dessin en block de «  3 scans de repos; 3 scans de stimulus chaud; 3 scans de repos; 3 scans de stimulus tiède », répété 10 fois (120 scans au total)

Contraste:contrast = [1 0;0 1;1 -1];

Page 30: Analyses IRMf

FMRISTAT, étude paramétrique Chaud = 49oC, Tiède = 35oC

Disons que la température du stimulus changeait d’une façon aléatoire sur 20 blocks, prenant 5 valeurs réparties également entre 35 et 49:

temperature=[45.5 35.0 49.0 38.5 42.0 49.0 35.0 42.0 38.5 45.5 ... 38.5 49.0 35.0 45.5 42.0 45.5 38.5 42.0 35.0 49.0]';

events=[zeros(20,1)+1 eventimes duration ones(20,1);

zeros(20,1)+2 eventimes duration temperature]contrast=[0 1];

Page 31: Analyses IRMf

FMRISTAT, étude paramétrique

Page 32: Analyses IRMf

Plan pour une éxpérience IRMf et son analyse

Dessin Expérimental Prétraitement Modèle statistique Significativité et comparaison multiple

Moyennage des séries, des sujets, comparaison de groupes Visualisation A quelle étape devrait-on normaliser les données?

Page 33: Analyses IRMf

Types d’erreurs statistiqueHypothèse Vraie?

H1 (active) H0 (inactive)

Page 34: Analyses IRMf

Significcativité et comparisons multiples Comparaisons multiples à travers le cerveau: il y a ~200,000 voxels

dans le cerveau!!

Options: Pas de correction (p < 0.05 non corrigé)

Avantage: facile, minimise les erreurs de type II Désavantage: Beaucoup trop de faux positifs (Erreurs de Type I), 5% 200,000 = 10,000 voxels!

Correction de Bonferroni (p < 0.05/200,000 = 0.00000025) Avantage: Facile, minimise les erreurs de type I Désavantage: Trop strict. Trop d’erreurs de Type II

Page 35: Analyses IRMf

Correction de Bonferroni

Données pour un seul sujet à trois niveaux de signifiance

Probabilité ajustée à 0.05

Probabilité ajustée à 0.001

Correction de Bonferroni, ajustée à une valeur P de 0.05

Page 36: Analyses IRMf

Significativité et comparaisons multiples

Les champs gaussiens aléatoires (sorte de lissage spatial) Avantage: Marche bien pour les données spatialement

corrélés. Résultats raisonnable. Désavantage: Encore assez strict. Enlève un peu de

spécificité spatiale (à cause du lissage)

“Pseudo-Bonferroni” correction (p < 0.001), il faut savoir le motiver

Analyses par régions d’intérêts

Page 37: Analyses IRMf

Voxels significatives

space

u

Voxels non-significatives

Déductions au niveau du voxel

Retenir les voxels au-dessus du seuil du niveau de , u Meilleure spécificité spatiale L’hypothèse nulle à un seul voxel peut être rejetée

Page 38: Analyses IRMf

Cluster non-significatif

uclus

space

Cluster significatif

k k

Déductions au niveau du cluster Procédé à deux étapes

Définir les clusters par seuil arbitraire uclus

Retenir les clusters plus grands que le seuil du niveau de , k

Page 39: Analyses IRMf

Plan pour une éxpérience IRMf et son analyse

Dessin Expérimental Prétraitement Modèle statistique Significativité et comparaison multiple Moyennage des séries, des sujets, comparaison de groupes

Visualisation A quelle étape devrait-on normaliser les données?

Page 40: Analyses IRMf

Analyses de Groupe

I. Motivation & Définitions: Le problème d’inférence de groupe

II. Analyse à effets mixtes (FFX)1. implémentation SPM2. FMRISTAT (possible, mais pas recommandé!)

III. Analyse à effets aléatoire (RFX)1. implémentation SPM du RFX ‘classique’2. FMRISTAT solution alternative: analyse à effets

mélangés: Lissage du rapport des variances

Page 41: Analyses IRMf

Quelle est la question qui nous intéresseQuelle est la question qui nous intéresse!!Motivation effets fixes vs. aléatoires Qu’est-ce que nous voulons inférer:

1. Une conclusion sur l’échantillon ou groupe spécifique que nous avons examiné

2. Une conclusion sur toute la population d’ou provient cet échantillon

Pour le 1er problème, une analyse à effet fixe est suffisante Conclusion: Ce groupe spécifique de patients de ‘type A’

révèle ce patron d’activation Pour le 2nd problème une analyse à effet aléatoire est nécessaire

Conclusion: Ce patron d’activation devrait être observé chez tous les patients de ‘Type A’

Page 42: Analyses IRMf
Page 43: Analyses IRMf

Effets Fixes Avantages:

Beaucoup de degrés de liberté ( ~1000) Prend en compte la concordance global du modèle Faux négatifs peu probable

Désavantages: La variance entre les sujets et les séries n’est pas

prise en compte Les résultats peuvent provenir majoritairement d’un

ou de quelques sujets Erreurs de Type I, c’est à dire des faux positifs

Page 44: Analyses IRMf

Effets Aléatoires Avantages:

Prend en compte la variabilité inter séries et inter sujets Moins sensible à certains paramètres spécifique du

modèle

Désavantages: Très peu de degrés de liberté erreur de type II, faux

négatifs Très sensible à la variation fonctionnelle et anatomique

inter-sujets

Page 45: Analyses IRMf

Effets fixes: implémentation SPM

Autre terme: analyse de premier niveau

Identique à l’analyse 1run/sujet, sauf que le nombre de scans doit être spécifié pour chaque run ou sujet

Par exemple: « (100, 100, 100, 100, 100) » pour 100 acquisitions, 5 runs ou sujets

Page 46: Analyses IRMf

X = [1 1 1 1

1]

input_files_effect = [’run1_cont1_mag_ef_tal.mnc'; ’run2_cont1_mag_ef_tal.mnc';

’run3_cont1_mag_ef_tal.mnc'; ’run4_cont1_mag_ef_tal.mnc';

’run5_cont1_mag_ef_tal.mnc];

input_files_sdeffect = [’run1_cont1_mag_sd_tal.mnc'; ’run2_cont1_mag_sd_tal.mnc'; ’run3_cont1_mag_sd_tal.mnc';

’run4_cont1_mag_sd_tal.mnc'; ’run5_cont1_mag_sd_tal.mnc’];

fwhm_varatio

Effets fixes: implémentation fmristat 1 Sujet, 1 contraste, 5 runs

df = multistat (input_files_effect, input_files_sdeffect, input_files_df, input_files_fwhm, X, contrast, output_file_base, which_stats, Inf)

Page 47: Analyses IRMf

Effets fixes: implémentation fmristat

Par contre, les analyses à effets fixes ne sont pas recommandées, parce qu’elles ne tiennent pas en compte la variance inter-run et inter-sujet

Solution fmristat: Variance ratio smoothing (voir ci-bas)

Page 48: Analyses IRMf

Effets aléatoires: implémentation SPM Importez les fichiers .con de l’analyse à 1er niveau (un seul

contraste de différents sujets) dans une analyse a 2ème niveau

Degrés de liberté (DF) très bas, donné par le "nombre de sujets" - "rank of 2nd level design matrix"

Donc si nous avons 12 sujets dans un groupe, DF = 11

Ce type d’analyse peut être trop conservateur, et requiert beaucoup de sujets, et beaucoup de données pour atteindre signifiance

Page 49: Analyses IRMf

Effets aléatoires: implémentation fmristat

Il est possible de faire le même type d’analyse à effets aléatoires dans fmristat en ajustant le paramètre fwhm_variatio à 0.

df = multistat (input_files_effect, input_files_sdeffect, input_files_df, input_files_fwhm, X, contrast, output_file_base, which_stats, 0)

Par contre, fmristat nous permet d’implémenter une analyse à effets aléatoires avec un nombre de degrés de liberté plus haut, et devient donc moins conservateur

Page 50: Analyses IRMf

MULTISTAT: modèle linéaire à effets mixtes

Ei = effect for run/session/subject i

Si = standard error of effect

Modèle à effets mixtes:

Ei = covariatesi c + Si WNiF + WNi

R

Effet aléatoire,dû à la variabilité de run en run

Erreur des ‘Effets fixes’,dû à la variabilitéau sein du même run

D’habitude 1, mais pourrait ajouter groupe, traitement, âge, sexe, ...

}de FMRILM

? ?

Sert à combiner les effets de différentes runs/sessions/sujets

Page 51: Analyses IRMf

Alternative fmristat: Variance Ratio Smoothing

La variance à effets aléatoires est très variable, à cause des degrés de liberté (dfs) très bas. L’idée de Variance Ratio Smoothing est d’utiliser la variance à effets fixes comme template pour estimer la variance à effets aléatoires

Ceci est fait par régularisant le rapport de variance à effets aléatoires (estimée) divisée par la variance à effets fixes (obtenus de l’analyse précédente)

Fwhm_varatio est un filtre qui permet de régulariser ce rapport

Comment choisit-on Fwhm_variatio?

Sa valeur est motivée par les dfs conséquents. Une bonne valeur à viser est 100df. Les nouvelles versions d’fmristat vous permettent d’entrer le nombre de dfs désiré en insérant une valeur négative au paramètre fwhm_varatio:

df = multistat (input_files_effect, input_files_sdeffect, input_files_df, input_files_fwhm, X, contrast, output_file_base, which_stats, -100)

Page 52: Analyses IRMf

X = [1 0 sujet 1 groupe patient 1 0 sujet 2 groupe patient 1 0 sujet n groupe patient 0 1 sujet 1 groupe contrôle 0 1 sujet 2 groupe contrôle 0 1] sujet n groupe contrôle

input_files_effect = [’subj1_patient_mag_ef_tal.mnc’; ’subj2_patient_mag_ef_tal.mnc’; ’subjn_patient_mag_ef_tal.mnc’;

’subj1_control_mag_ef_tal.mnc'; ’subj2_control_mag_ef_tal.mnc;

‘sunjn_control_mag_ef_tal.mnc];

input_files_sdeffect =[’subj1_patient_mag_sd_tal.mnc';

’subj2_patient_mag_sd_tal.mnc'; ’subjn_patient_mag_sd_tal.mnc';

’subj1_control_mag_sd_tal.mnc'; ’subj2_control_mag_sd_tal.mnc;

‘sunjn_control_mag_sd_tal.mnc];

n sujets, groupes patients vs contrôlesn sujets, groupes patients vs contrôles

Contraste = [1 -1 Patient > contrôles -1 1] Contrôles > patients

Exemple: contraste entre populations

Page 53: Analyses IRMf

+ +

Combien de sujets? La plus grande portion de variance vient de la dernière étape,

i.e. la combinaison des sujets:

sdrun2 sdsess

2 sdsuj2

nrun nsess nsuj nsess nsuj nsuj

Si vous voulez optimiser le temps d’utilisation du scanneur, prenez plus de sujets

Ce que vous faites aux premiers stades importe peu!

Page 54: Analyses IRMf

Comparaison SPM’99 fmristat

Différents temps d’acquisition des tranches

Ajoute une dérive temporale Décale le modèle

Enlèvement du drift Low-frequency cosines (flat at the ends) Splines (free at the ends)

Corrélation temporaleAR(1), paramètre global, biais réduction pas nécessaire

AR(p), paramètres voxel, biais réduction

Estimation des effetsBand pass filter, ensuite moindres carrés, ensuite correction pour corrélation temporale

Pre-whiten, ensuite moindres carrés (pas d’autres corrections nécessaires)

Rationale Plus robuste, mais degrés de liberté plus bas

Plus précis, degrés de liberté plus haut

Effets aléatoiresPas de régularisation, degrés de liberté bas, bas de conjuncs

Régularisation, degrés de liberté hauts, conjuncs

Carte du délai Non Oui

Page 55: Analyses IRMf

Plan pour une éxpérience IRMf et son analyse

Dessin Expérimental Prétraitement Modèle statistique Significativité et comparaison multiple Moyennage des séries, des sujets, comparaison de groupes Visualisation

A quelle étape devrait-on normaliser les données?

Page 56: Analyses IRMf

Visualisations 2D et 3D

Page 57: Analyses IRMf

Vues « glass-brain »

Page 58: Analyses IRMf

Vue aplatie du cerveau

Page 59: Analyses IRMf

Plan pour une éxpérience IRMf et son analyse

Dessin Expérimental Prétraitement Modèle statistique Significativité et comparaison multiple Moyennage des séries, des sujets, comparaison de groupes. Visualisation A quelle étape devrait-on normaliser les données?

Page 60: Analyses IRMf

À quelle étape devrait-on normaliser les données?

Page 61: Analyses IRMf

À quelle étape devrait-on normaliser les données? Dans SPM, en défaut, la normalisation se fait du tout début,

avant de moyenner les runs. Ceci est un choix sûr, puisque tous les fichiers seront normalisés dans le même espace

En fmristat, le choix est à vous! Mais la normalisation déforme les données, et certaines

informations sont perdues. Théoriquement, il est meilleur de normaliser vos données à la plus grande étape, i.e. au niveau inter-sujet

Par contre, ceci dépend du software de correction de mouvement que vous utilisez. Est-ce que la correction du mouvement est faite intra ou inter-runs?

Page 62: Analyses IRMf

Par défaut au BIC

Correction du mouvement intra-run

1

23

4

N-1N-2

N-3.

N

Run N

Réaligner au 2e cadre de chaque run

1

23

4

N-1N-2

N-3.

N

Run 1

Réaligner au 2e cadre de chaque run

À quelle étape devrait-on normaliser les données?

Page 63: Analyses IRMf

Resample to Talairach space after linear or non-linear transformations

À quelle étape devrait-on normaliser les données?

Référence : Worsley et al., 2002

Page 64: Analyses IRMf

1

23

4

N-1N-2

N-3.

N

Run 1

1

23

4

N-1N-2

N-3.

N

Run N

Réaligner tous les cadres de chaque run au

2e cadre de la run 1

À quelle étape devrait-on normaliser les données?Correction du mouvement

inter-run

Page 65: Analyses IRMf

Resample to Talairach space after linear or non-linear transformations

Référence : Worsley et al., 2002

À quelle étape devrait-on normaliser les données?

Page 66: Analyses IRMf

Software et diapos

Jorge Armony BIG seminars: http://www.douglas.qc.ca/big/

Keith Worsley fmristat: http://www.math.mcgill.ca/keith/fmristat/

SPM courses: http://www.fil.ion.ucl.ac.uk/spm/course/

Jody Culham “fMRI for dummies” http://defiant.ssc.uwo.ca/Jody_web/fmri4dummies.htm

Neurolens: http://www.neurolens.org/NeuroLens/Home.html

FSL: http://www.fmrib.ox.ac.uk/fsl/

FINProchain cours: normalisation

Remerciements:

Cécile Madjar, Kristina Martinu