IA: les médecins généralistes montent au créneau

chatbot_IA_GP
La société Babylon a mis le feu aux poudres en Grande Bretagne en annonçant qu’un programme d’intelligence artificielle pouvait faire mieux que les médecins généralistes.

«Un algorithme fait mieux qu’un médecin généraliste pour diagnostiquer des maladies.» C’est en ces termes que les médias du monde entier ont repris l’annonce, fin juin, qu’un logiciel d’intelligence artificielle avait obtenu un score supérieur au score moyen des apprentis médecins lors d’un examen de médecine générale au Royaume-Uni.

Développé depuis deux ans par l’entreprise londonienne Babylon, cet outil a même été présenté, dans certains cas, comme une menace pour ces professionnels de santé, qu’il pourrait à terme remplacer.

Si on est encore loin d’un tel scénario, ces récents développements posent néanmoins un certain nombre de questions sur la nature du métier de médecin généraliste, mais aussi sur la manière dont les maladies sont diagnostiquées et sur le rôle des nouvelles technologies dans la pratique clinique.

Poser un diagnostic

Babylon s’est récemment illustré comme un acteur important de la e-médecine au Royaume-Uni, en s’associant avec le NHS (organisme national de santé). L’entreprise propose un service de consultation médicale par vidéo sur smartphone. Un service similaire a également été déployé au Rwanda afin d'accroître l'accès de la population locale à des professionnels de santé pouvant poser rapidement un diagnostic.

Le logiciel d’intelligence artificielle développé par Babylone s’inscrit dans une logique similaire: rendre les consultations médicales plus efficaces et moins coûteuses, en donnant la possibilité au patient d’en savoir plus sur ses problèmes de santé sans passer par un médecin.

Le logiciel fonctionne en posant des questions sur l'état de santé de l’utilisateur. Il compare ensuite les réponses, et toutes les informations dont il dispose sur la personne, aux données disponibles sur les maladies connues et répertoriées dans la littérature scientifique. Il peut alors donner des conseils aux patients et les rediriger éventuellement vers un médecin. Pour le moment, les régulations en vigueur l'empêchent de formuler un diagnostic, mais c’est l’objectif affiché à moyen terme.

Afin de montrer que le système fonctionne, l'équipe de Babylon a soumis le logiciel à des questions de diagnostic, similaires à celles posées à des médecins généralistes britanniques lors du MRCGP, l’examen qui vise à valider leurs connaissances avant qu’ils puissent exercer. Alors que le score moyen de ces derniers est de 72%, le logiciel de Babylon obtient un score de 82%.

L’entreprise s'est empressée de se féliciter de ce résultat, soulignant que nous étions sur le point d’entrer dans une ère où la population qui était jusqu’ici privée de médecins généralistes pourrait bientôt obtenir un diagnostic et un suivi médical d’aussi bonne qualité qu’en voyant un docteur, grâce à cet algorithme. Un argument qui agace le corps médical.

«Il faut replacer l’innovation de Babylon dans son contexte:

l’algorithme a répondu à des questions de diagnostic dans le cadre d’un examen. De là à dire que cela en fait un bon médecin, c’est assez réducteur», souligne Nicolas Senn, directeur de l'Institut universitaire de médecine de famille à la policlinique médicale universitaire de Lausanne.

Une vision erronée du métier

De fait, le rôle du médecin généraliste est loin de s'arrêter à l'élaboration d’un diagnostic. Une étude récemment publiée dans le British Journal of General Practice souligne que les consultations de médecine générale sont des événements complexes, dans lesquelles les médecins doivent dialoguer avec les patients et répondre à plusieurs problèmes.

Dire qu’un logiciel peut faire aussi bien qu’un de ces professionnels simplement parce qu’il est capable de diagnostiquer correctement les pathologies témoigne donc d’une vision réductrice de l’exercice de la médecine générale. Un tel outil n’est capable ni de se montrer proactif en posant des questions aux patients sans avoir été sollicité, ni de faire preuve d’empathie.

«Lors d’une consultation, montrer de l’empathie est crucial. Il s’agit de construire une relation de confiance, en écoutant le patient, en répondant à ses besoins, donc en faisant preuve d'humanité. En ce qui concerne les diagnostics, pour certains cas plus rares,

il faut parfois faire preuve de créativité et poser des questions qui sortent de l’ordinaire pour identifier le problème. Tout cela, une machine ne peut pas le faire»,

explique le Dr Bertalan Mesko, directeur du The Medical Futurist Institute, une organisation qui étudie les évolutions de la médecine moderne.

Aider mais pas remplacer

L’intelligence artificielle n’est donc pas près de remplacer les médecins. Tout l’enjeu est aujourd’hui de développer des outils ayant une véritable utilité pour les professionnels de santé, dans une dynamique de collaboration entre l’homme et la machine.

«Si l’intelligence artificielle peut m’aider à affiner mon jugement et à parvenir plus facilement à des diagnostics, alors cela peut être une bonne chose. Cependant, je pense que ce genre d’algorithmes est plus utile dans des spécialités où l’on doit essentiellement poser des diagnostics, notamment de maladies rares. En médecine générale, la part "diagnostic" est une petite partie du travail, dont l’essentiel est de proposer une prise en charge adaptée à chaque patient en fonction d’un ou de plusieurs problèmes de santé, sans nécessairement avoir de diagnostics précis», estime pour sa part Nicolas Senn.

Plusieurs études ont en effet montré que dans le domaine de l’oncologie ou de la dermatologie, l’intelligence artificielle pouvait apporter une aide au diagnostic efficace. Dans une publication récente, des chercheurs ont montré que face à un cancer du sein métastatique, la capacité de diagnostic de l’oncologue et la précision pour localiser les tumeurs étaient considérablement améliorées avec l’aide d’algorithmes d’analyse de données.

Au-delà de la crainte des médecins de se voir remplacés par toutes ces technologies, l’annonce de Babylon, et plus généralement l’usage de l’intelligence artificielle dans la pratique médicale, pose des interrogations d’ordre éthique. Qui est responsable en cas de mauvais diagnostic? Comment sécuriser les données personnelles des utilisateurs? Est-il raisonnable d’utiliser ces outils, quand on sait qu’ils font rarement l’objet d’essais approfondis et rigoureux pour voir s’ils apportent réellement des bénéfices cliniques aux patients? Des questions pour le moment laissées sans réponse.

Newsletter

Inscrivez-vous pour recevoir les actualités de la plateforme SantéPerSo et être invité aux événements consacrés à la santé personnalisée.

Top