Upload
harley
View
66
Download
0
Embed Size (px)
DESCRIPTION
Analyse et traitement de données de grande taille en imagerie médicale Cybèle Ciofolo-Veit Philips Research Paris - Medisys Conférence Mathématiques et Grandes Dimensions Polytech Lyon, 10 Décembre 2012. Vue d’ensemble. Philips Research Medisys Notre mission Nos contraintes Trois axes - PowerPoint PPT Presentation
Citation preview
Analyse et traitement de données de grande taille en imagerie médicale
Cybèle Ciofolo-VeitPhilips Research Paris - Medisys
Conférence Mathématiques et Grandes DimensionsPolytech Lyon, 10 Décembre 2012
2
Vue d’ensemble
• Philips Research Medisys – Notre mission– Nos contraintes
• Trois axes – Analyse de données de grande taille– Analyse de données rapide– Analyse de données pour l’apprentissage
• Conclusions et perspectives
Confidential C.Ciofolo-Veit, Conférence Analyse de Données en Grande Dimension , 10 Décembre 2012
3
Philips Research Paris – MedisysQui sommes-nous ?
• Environ 30 chercheurs en CDI, 3 à 4 doctorants, 2 à 3 CDD, un directeur et une assistante
• Localisation : Suresnes
Confidential C.Ciofolo-Veit, Conférence Analyse de Données en Grande Dimension , 10 Décembre 2012
4
Philips Research Paris – MedisysNotre mission
• Concevoir et transmettre des algorithmes d’analyse ou de traitement d’images aux équipes de développement et pour des modalités variées– Ultrasons– Scanner X– Rayons X 2D (interventionnel)– IRM– (Médecine nucléaire)
• Développer des démonstrateurs utilisables par les équipes de développement et les sites cliniques
• Participer aux premières phases de validation clinique
Confidential C.Ciofolo-Veit, Conférence Analyse de Données en Grande Dimension , 10 Décembre 2012
5
Philips Research Paris – MedisysNos contraintes
• Plateformes, machines d’accueil– Pas de cluster de machines– Machines multi-coeurs
• Réactivité– Temps réel (interventionnel)– Possibilité d’interaction (outils de correction)– Traitements hors-ligne : temps d’attente de l’ordre de quelques
secondes
Confidential C.Ciofolo-Veit, Conférence Analyse de Données en Grande Dimension , 10 Décembre 2012
6
Analyse de données de grande taille
• Problème– Volume IRM : 256 x 256 x 140– Volume scanner : jusqu’à 750 x 750 x 1500
• Solutions actuelles– Sous-échantillonnage– Parallélisation légère
• Ex: découpage du volume selon les coupes suivant l’axe z• Utilisation des cœurs de la machine• Open MP
– Optimisation basique• Libérer l’espace mémoire non utilisé après un traitement
Confidential C.Ciofolo-Veit, Conférence Analyse de Données en Grande Dimention , 10 Décembre 2012
Exemple de coupe scanner X abdominale
7
Analyse de données rapide
• Problème– Eparpillement des données
• Solutions actuelles– Localisation, utilisation de la mémoire cache du CPU– Ex: traitement d’une séquence temporelle 2D (Rayons X – interventionnel)
• Accès à de petits blocs mémoire dans différentes phases de la séquence• Recopie des blocs dans le cache pour accélérer les accès
Confidential C.Ciofolo-Veit, Conférence Analyse de Données en Grande Dimension , 10 Décembre 2012
Exemples de phases d’une séquence 2D interventionnelle
8
Analyse rapide de données de grande taille
• Problème :– Ex: reconstruction volumique par marching cubes
• Solutions :– Parallélisation avec accès concurrent aux données
• Exemple de la reconstruction : – Découpage de l’espace selon les coupes (axe z)– Décision : quel thread pour quelle zone du maillage
• Verrouillage nécessaire de certaines zones
• Stratégie dépendante de– L’application– La taille des données (limitation : taille du cache du CPU)
Confidential C.Ciofolo-Veit, Conférence Analyse de Données en Grande Dimension , 10 Décembre 2012
9
Analyse de données et interactivité
• Démonstration : GeoBlend3D
• Eléments clés :– Algorithme qui utilise la mémoire cache de manière optimale– Sous-échantillonnage rapide adapté dynamiquement à l’échelle– Optimisation a posteriori des phases devenues critiques
Confidential C.Ciofolo-Veit, Conférence Analyse de Données en Grande Dimension , 10 Décembre 2012
La complexité théorique n’est pas toujours un bon indicateur de l’efficacité d’un algorithme
Exemple de segmentation
interactive obtenue en un seul clic avec un
outil de type ballon
10
Analyse de données pour l’apprentissage
• Problème– Une image / un volume = beaucoup de voxels– Une base de données = peu d’images
• Solutions actuelles pour la classification– Réduction de dimension
• Sélection ou extraction de caractéristiques
– Méthodes à noyau : gain en mémoire
– Régularisation • Insertion de contraintes dans les classifieurs
Confidential C.Ciofolo-Veit, Conférence Analyse de Données en Grande Dimension , 10 Décembre 2012
Risque de sur-apprentissage
11
Analyse de données pour l’apprentissage
• Problème– Une image = beaucoup de voxels– Une base de données = peu d’images
• Solutions actuelles pour la segmentation– Tâche vue comme une opération de régression– Reformulation du problème
Confidential C.Ciofolo-Veit, Conférence Analyse de Données en Grande Dimension , 10 Décembre 2012
Risque de sur-apprentissage
Exemple : détection et segmentation des reins sur des images scanner X
[Cuingnet et. al., MICCAI 2012]
12
Analyse de données pour l’apprentissage
• Problème– Une image = beaucoup de voxels– Une base de données = peu d’images
• Solutions actuelles pour la segmentation– Tâche vue comme une opération de régression [Zhou et al., ICCV 2005]– Reformulation du problème : descripteurs de forme
Confidential C.Ciofolo-Veit, Conférence Analyse de Données en Grande Dimension , 10 Décembre 2012
Risque de sur-apprentissage
f : voxel descripteurs de formes[Criminisi et al. Microsoft Tech. Report 2011]
• Boîtes englobantes• x : voxel• y : positions relatives
13
Analyse de données pour l’apprentissage
Confidential C.Ciofolo-Veit, Conférence Analyse de Données en Grande Dimension , 10 Décembre 2012
• Entrée : voxels de l’image (x) • Sortie : (2 boîtes, gauche et droite)• Prédiction : rapide et non linéaire
Prédiction : • Voxel x : - Forêt de d’arbres décisionnels
(regression forest, [Breiman, Machine Learning 2001])
• Image I :
14
Conclusions et perspectives
• Au jour le jour : Panachage de méthodes théoriques et pratiques en fonction des besoins– Parallélisation– Utilisation de la mémoire cache– Gestion de la mémoire– Reformulation des problèmes : régression
• Vers une implantation sur les cartes graphiques ?– Retour d’expérience assez peu concluant– Stratégie d’utilisation de la mémoire différente CPU/GPU– Localisation dans le cache : avantage au CPU
Confidential C.Ciofolo-Veit, Conférence Analyse de Données en Grande Dimension , 10 Décembre 2012