Imagerie personnalisée : des machines de plus en plus intelligentes

imagerie_personnalisee_intelligentes
Grâce à des algorithmes toujours plus performants, l’intelligence artificielle pourrait rapidement prendre une place majeure dans l’aide au diagnostic en imagerie médicale.

Chaque jour des milliers d’examens sont réalisés dans les services de radiologie des établissements hospitaliers suisses. Pour chaque IRM, scanner ou autre CT, les données sont archivées localement et nourrissent des bases dont la taille croît à vitesse grand V. Couplé à des algorithmes spécifiques, ce Big Data radiologique pourrait contribuer à personnaliser la prise en charge des patients, de l’aide au diagnostic jusqu’à la prédiction de la réponse au traitement.

L’essor des «dark data»

Tous les ans, la quantité de données médicales produites augmente de près de 50%. Et une grande partie de ces data est issue de l’imagerie médicale. En 2013, ces données représentaient un volume de 153 exaoctets, soit 153 millions de disques durs d’un téraoctet! En 2020, plus de 2300 exaoctets devraient être collectés, selon certaines projections. «Si toutes ces données étaient archivées dans des tablettes empilées les unes sur les autres, cela représenterait aujourd’hui une hauteur de 8800 kilomètres. En 2020, nous en serons à 132’000 kilomètres, soit un tiers de la distance terre-lune», illustre Jonas Richiardi, clinical research lead au département de radiologie du Centre hospitalier universitaire vaudois (CHUV).

Parmi ces données, il y a celles obtenues de manière organisée et produites en masse. Mais la multiplication des sources amène aujourd’hui à la création d’une multitude de jeux de données, plus restreints et hétérogènes, qui ne sont pour autant pas dénués de valeur. Une fois anonymisés, ces «dark data» sont de plus en plus souvent partagées et mises à disposition, notamment sur des plateformes, pour permettre son accès aux scientifiques du monde entier. «C’est à la fois une chance et un véritable challenge car nous devons revoir nos pratiques. Les modèles statistiques classiques ne sont plus adaptés, et c’est à nous d’inventer de nouveaux outils pour parvenir à exploiter ce nouveau type de données hétérogènes», relève Jonas Richiardi.

L’intelligence artificielle s’est déjà taillé une place de choix en radiologie. Grâce au machine learning (lire encadré), des systèmes sont aujourd’hui capables d’effectuer des tâches plus ou moins complexes pour aider au diagnostic, voire l’établir.

La démence, et en particulier la maladie d’Alzheimer, a été l’objet de nombreuses recherches, dont certaines ont déjà livré des résultats concluants.

Des chercheurs ont réussi à développer un algorithme capable de faire aussi bien, voire un peu mieux, que des experts en ophtalmologie pour dépister une complication du diabète, la rétinopathie, à partir de photographies de fond d’œil. En dermatologie, une publication récente a montré qu’un programme «entraîné» pour classer des lésions cutanées pouvait faire mieux que des médecins experts. Watson, système d’IA développé par IBM, aurait même été capable de confirmer les diagnostics d’oncologues dans 99% des cas, tout en proposant 30% d’options thérapeutiques supplémentaires! Des performances si incroyables qu’elles laissent perplexes de nombreux spécialistes du domaine.

Ne pas négliger les enjeux éthiques

L’imagerie médicale peut aussi être combinée à d’autres types de données (génomiques, métaboliques, comportementales…) pour produire des outils plus puissants. Des chercheurs américains ont montré qu’associer le génotype de patients atteints de troubles du spectre autistique à l’interprétation d’IRM cérébraux permettait une meilleure stratification des cas, et en conséquence une meilleure compréhension de la maladie.

En pleine expansion, l’imagerie médicale personnalisée semble avoir un avenir radieux dans un contexte où la puissance de calcul des ordinateurs ne cesse d’augmenter, alors que leur coût décroît. Les challenges restent cependant nombreux pour passer des preuves de concept aux techniques de routine clinique. Ils concernent notamment la sécurisation de l’anonymat des données, la gestion de leur stockage ou encore leur interopérabilité. Mais les enjeux sont aussi éthiques. «Il est fondamental de ne jamais perdre de vue que le seul objectif de tout cela est d’améliorer la qualité des soins. Il faut donc toujours se demander si les modèles mathématiques et les algorithmes qui découlent de nos travaux restent en faveur des patients», rappelle ainsi Jonas Richiardi.

Nourrir l’apprentissage des machines

Ouvrir les données c’est en fait offrir de quoi développer l’apprentissage des machines, ou machine learning. Pour s’entraîner, par exemple à distinguer sur un scanner cérébral une tache caractéristique d’un micro-saignement d’un simple artefact, les programmes ont besoin de matière. «En plus des données produites localement, et qui ne sont souvent pas suffisantes, nous pouvons grâce à l’open data travailler sur des données issues de banques d’images. Cela permet d’augmenter considérablement notre matière première», confirme Jonas Richiardi.

Si le machine learning semble très à la mode depuis quelques années, il ne date pas d’hier. Mais les modalités d’apprentissage se sont diversifiées au fil du temps. Trois principales méthodes sont aujourd’hui utilisées: le SVM (linear support vector machine), RF (random forest) et le CNN (convolutional neural network). Cette dernière approche nécessite beaucoup de données mais peut s’avérer très efficace. «Pour schématiser, c’est un peu le mode de fonctionnement de Google translate. Plus le système traite de données, plus il progresse», explique le spécialiste.

Le deep learning désigne quant à lui une technologie d’apprentissage reposant sur des réseaux de neurones artificiels. «Le machine learning permet aux systèmes de classifier des données en fonction des descripteurs d’image (features) qu’on lui indique. Par exemple, trier des patients et des volontaires sur la base d’un critère d’imagerie. Avec le deep learning, qui est une des techniques possibles en machine learning, c’est le système qui dérive lui-même des descripteurs pertinents pour effectuer le tri le plus efficace». Cette modalité offre donc des possibilités bien plus puissantes et a ouvert en quelques années de larges perspectives dans le domaine de l’intelligence artificielle.

Top