Imagerie Interventionnelle

vignette_WP3 Responsable :

Michel de Mathelin, Professeur

Chef de projet : Jean-Francois Kong

Centres de recherches du WP :
Laboratoires Ville Nœud/Pole
IHU Lyric Bordeaux Nœud Bordeaux
GIN Grenoble Nœud Grenoble
TIMC-IMAG Grenoble Nœud Grenoble
CREATIS Lyon Nœud Lyon
CERMEP Lyon Nœud Lyon
CRNL Lyon Nœud Lyon
LabTAU Lyon Nœud Lyon
CRMBM Marseille Nœud Marseille
CERIMED Marseille Nœud Marseille
Institut Langevin Paris Nœud Paris Centre?
Neurospin Gif sur Yvette Nœud Paris Sud
CEA SHFJ Orsay Nœud Paris Sud
IADI Nancy Pôle Est
IPHC Strasbourg Pôle Est
Icube Strasbourg Pôle Est
IHU Strasbourg Strasbourg Pôle Est
LIRMM Montpellier Pôle Occitan
LaTIM Brest Pôle Ouest
LS2N Nantes Pôle Ouest
LTSI Rennes Pôle Ouest

L’imagerie médicale et interventionnelle est un enjeu majeur pour mieux comprendre, diagnostiquer, prédire et guérir les pathologies (neurologiques, oncologiques, cardiologiques, vasculaires, …).

Les actes interventionnels contrôlés par imagerie sont en pleine expansion et pourraient dépasser les actes chirurgicaux dans les 10 prochaines années. Cette augmentation est intimement liée aux progrès technologiques dans les champs disciplinaires allant des systèmes d’imagerie et du traitement d’images aux dispositifs d’intervention et aux systèmes de robotique.

La radiologie interventionnelle a pour finalité le traitement de diverses pathologies (tumeurs, lésions vasculaires…) par des techniques dites « mini-invasives » guidées par l’imagerie per-opératoire, en y accédant par les voies naturelles, les vaisseaux sanguins ou par la voie percutanée.

L’imagerie interventionnelle se caractérise par le développement de techniques d’imagerie per-opératoires (au sens large) pour assister des gestes médicaux-chirurgicaux afin d’améliorer la qualité des soins et de raccourcir la durée d’hospitalisation.

Ce domaine évolue rapidement et se trouve à la frontière entre plusieurs spécialités médicales : chirurgie, radiologie, endoscopie, radiothérapie, cardio/neurologie…

Le WP3 FLI aborde ainsi cette thématique sous plusieurs approches :

WP 3 .1 : navigation et réalité augmentée

  • Développement d’algorithmes de superposition de données pré-opératoires sur des images per-opératoires dans un environnement déformable et en mouvement
  • Développement d’algorithmes de fusion non rigide d’images du patient issues de différentes modalités d’imagerie
  • Développement d’algorithmes de recalage robustes sans recours à des marqueurs et repères sur le patient pour les applications de navigation
  • Développement de modélisations du déroulement de la procédure chirurgicale (e.g. à partir de masses de données provenant des procédures déjà réalisées)
  • Développement d’algorithmes pour la reconnaissance des activités chirurgicales dans le bloc opératoire
  • Développement d’algorithmes pour le suivi visuel et la reconnaissance des interactions entre les outils et l’anatomie
  • Développement d’outils pour l’aide à la décision dans la tour de contrôle des blocs opératoires
    – nouvelles interfaces utilisateur réactives au contexte
    – rappels (appeler patient suivant) et alertes (anomalies)
    – optimisation de la gestion des blocs
  • Développement de nouvelles méthodes de radioprotection réactives au contexte prenant en compte la disposition 3D de la salle (positionnement des cliniciens et équipement, paramètre de l’arceau)
  • Guidage du geste chirurgical en temps réel
  • Développement de techniques de planification et de monitorage 3D temps réels des thérapies conformationnelles par agents physiques (ex : HIFU – High Intensity Focused Ultrasound)
  • Surveiller et intégrer les technologies émergentes et les innovations dans le domaine de la réalité augmentée, à la fois pour l’acquisition de la scène interventionnelle que de la représentation de la fusion d’information multimodalité (pré- et per-opératoire).

Développer des méthodologies RA/IA en particulier pour optimiser le guidage du geste interventionnel.

WP 3.2 : systèmes d’imagerie et d’intervention robotisés

  • Robotisation d’endoscopes flexibles pour les opérations endoluminales et transluminales
  • Développement de modes d’assistance collaboratifs et semi-automatisés (comprenant l’asservissement visuel)
  • Asservissement visuel par imagerie médicale pour la compensation de mouvements physiologiques et le contrôle fin des mouvements des instruments
  • Interventions robotisées guidées par imagerie médicale per-opératoire
  • Maîtrise des mouvements complexes et inaccessibles par la main humaine
  • Maîtrise des interactions entre l’instrument robotisé et les tissus (endomicroscopie confocale, cathétérisation …)
  • Rétrocontrôle robotisé de la thérapie HIFU pour optimiser le dépôt d’énergie dans les tissus cibles à partir de l’imagerie de monitorage (balayage 3D, compensation mécanique 3D des mouvements)
  • Préhension et insertion d’aiguille

 

WP 3.3 : interventions guidées par imagerie à résonance magnétique

  • Modélisation des procédures chirurgicales guidées par IRM
  • Optimisation des séquences IRM temps réel pour le guidage d’instrument
  • IRM quantitative pour le suivi des procédures (élastographie, température…)
  • Développement d’algorithmes de compensation des mouvements
  • Développement d’instruments compatibles IRM pour la radiologie interventionnelle
  • Pilotage fin de robots pour les gestes sous IRM
  • Suivi d’objets en temps réel sous IRM

 

WP 3.4 : thérapies basées sur les ultrasons (HIFU et vectorisation ciblée)

  • Développement de systèmes HIFU pour de nouvelles indications cliniques (hors fibrome utérin)
  • Développement de systèmes de surveillance de la température en temps réel pour le contrôle de la thérapie HIFU
  • Contrôle du faisceau ultrasonore (HIFU) pour la planification et/ou la compensation de mouvements en thérapie
  • Développement de systèmes intracorporels pour la thérapie HIFU de cibles en profondeur
  • Bi-modalité ultrasonore : imagerie US (échographique)/thérapie HIFU
  • Développement des LIPUS (Low Intensity Pulsed Ultrasound), des LEUS (Low Energy Ultrasound) pour de nouvelles indications cliniques (maladies neurodégénérative/ handicap d’origines neurologiques, arythmies cardiaques, délivrance de médicaments, immunothérapie, neuro/cardio-protection)
  • Développement de la thérapie US 4D (3D + temps réel)
  • Développement de techniques de planification et de monitorage 4D des thérapies HIFU conformationnelles
  • Développement de techniques de recalage/fusion entre données d’imagerie médicales et données acoustiques/thermiques modélisées pour la thérapie HIFU

 

WP 3.5 : nouvelles modalités d’imagerie per-opératoire et endoscopiques

  • Développement de modalités d’imagerie compatibles avec les contraintes opératoires pour le suivi per-opératoire ou endoscopique de la chirurgie
  • Développement de techniques robustes de détection per-opératoire ou endoscopique de conditions pathologiques (e.g. cancer, marges, ganglions, hypoxie) ou de structures vitales (e.g. vaisseaux, nerfs, uretères)
  • Mise au point de techniques de biopsies per-opératoires ou endoscopiques par imagerie ou spectroscopie
  • Procédures percutanée innovantes (guidage US / rayon X)
  • Endomicroscopie (Confocal, OCT…)
  • Amélioration de l’imagerie médicale (contraste fonctionnel et/ou structurel)
  • Approches quantitatives, multimodales et multiéchelles
  • Développement de systèmes de surveillance des caractéristiques tissulaires en temps réel pour le monitorage de la thérapie HIFU (thermométrie US, élastrographie US)
  • Développement de l’imagerie US 4D
  • Développement de l’imagerie US quantitative (QUS)

 

WP 3.6 : Radiothérapie guidée par l’image

  • Amélioration du ciblage thérapeutique
  • Amélioration et contrôle de la distribution et du dépôt de la dose
  • Slide 543 P. Renaud/iCube
  • Slide 544 B. Bayle/iCube
  • Slide 545 N. Busser/iCube
  • Slide 546 Ircad/iCube
  • Slide 547 F. Maigrot/Ircad/iCube
  • Slide 548 iCube
Chargement ...