Publicité
interview

Jean-Emmanuel Bibault: "Le mariage entre l'IA et la médecine doit être encadré, pas bloqué"

Grâce à l'intelligence artificielle, certaines tâches médicales vont pouvoir être effectuées par un algorithme en quelques minutes seulement, un gain de temps souvent précieux. ©Hans Lucas via AFP

Rencontre avec Jean-Emmanuel Bibault, professeur en oncologie et spécialiste de l’intelligence artificielle qui, dans son ouvrage "2041: l'odyssée de la médecine", se penche sur les espoirs et les craintes que l'IA, appliquée à la médecine, suscite.

Professeur en oncologie à l'université de Paris Cité et praticien à l'Hôpital européen Georges-Pompidou, Jean-Emmanuel Bibault, qui a travaillé à Stanford et dans la Silicon Valley, mène des travaux de recherche à l'INSERM dans le domaine de l'intelligence artificielle appliquée à la médecine. Il est donc aux premières loges des derniers développements dans ce domaine, des espoirs et des dangers que cette symbiose suscite.

Que permet l'intelligence artificielle en médecine?

L'intelligence artificielle appliquée à la médecine remplit deux types de fonctions. Elle permet de faire ce que l'humain exécute, typiquement des tâches en radiologie ou en analyse de biopsie. Et, elle permet aussi d'autres tâches que les médecins ne peuvent pas réaliser, à savoir des fonctions plutôt de prédiction. Être capable, par exemple, de déterminer plusieurs années à l'avance si un patient va développer une maladie, ou s'il souffre d'une maladie, s'il va guérir en fonction des traitements qui lui seront administrés.

Publicité

L'IA peut donc aider la médecine à progresser à la fois en matière de dépistage et de diagnostic, mais sans faire l'impasse sur l'interprétation qui, en médecine, demeure essentiel...

Oui, certains affirment même que l'interprétation en IA n'est pas primordiale, sauf en médecine. De fait, il est nécessaire de pouvoir faire confiance à l'algorithme, surtout dans le domaine médical, car cela va conditionner les décisions prises ensuite. Il faut pouvoir comprendre pourquoi un algorithme établit telle ou telle prédiction et y confronter notre intuition humaine afin d'évaluer si les facteurs que les algorithmes ont pris en compte sont pertinents ou fantaisistes.

Fondamentalement, peut-on dire que l'IA est avant tout un gain de temps dans la course contre la mort?

Incontestablement, elle permet un gain de temps dans le diagnostic, mais également dans la préparation des traitements. Typiquement, en radiothérapie, par exemple, il est nécessaire de cibler une tumeur par scanners, ce qui prend du temps, parfois plusieurs heures pour un médecin. Grâce à l'intelligence artificielle, au travers du deep learning, cette tâche peut être effectuée par un algorithme en quelques minutes.

La question éthique se pose, notamment en psychiatrie. Il faut, dites-vous, être extrêmement prudent dans ce domaine....

C'est un domaine où l'on touche effectivement à la question de l'équilibre entre les bénéfices et les risques du recours à l'IA. On sait que des algorithmes sont capables de détecter le risque suicidaire, par exemple. Et cela fonctionne très bien, notamment à partir de posts Facebook, par exemple, ou de photos postées sur Instagram. En fonction des publications, l'intelligence artificielle peut déterminer un risque de dépression ou suicidaire.

Le problème réside notamment dans le fait que Facebook a implémenté un algorithme de monitoring qui génère une alerte. Si une personne exprime, par exemple, des idées noires, une alerte se déclenchera et sera adressée à des hotlines. La question est de savoir si l'on doit ainsi procéder à de la surveillance de masse aux dépens de la vie privée au prétexte que cela permet de réduire le risque suicidaire. Ce n'est qu'un exemple du débat qu'il convient de mener au niveau du grand public et des pouvoirs publics quant à l'application d'algorithmes d'intelligence artificielle.

Publicité

Le principe de précaution en matière de développement technologique n'est toutefois que rarement respecté…

C’est toute la question de trouver un équilibre entre ce principe et l'innovation, notamment au niveau des données personnelles.

Google continue de se muscler dans le domaine de l'intelligence artificielle médicale. Y a-t-il un risque que cela débouche sur un monopole? L'autre risque étant qu'il s'agit d'une entreprise à but commercial…

Google dispose d'excellents ingénieurs et de laboratoires de premier ordre qui publient de très bonnes études à propos d'applications de l'IA à la médecine. Ils ne sont pas encore parvenus à trouver un business model qui leur permettrait de commercialiser cet avantage. Le risque consiste en ce que nous devenions encore plus dépendants de Google ou des Gafam en général. La seule manière de contrer cette tendance, est de mettre sur pied des structures françaises ou européennes qui développent leurs propres outils via une collaboration entre le privé et le public. Mais la solution n'est certainement pas de tout bloquer.

Mais il s’agit tout de même de rester attentif…

Absolument. Nous avons besoin d'un certain nombre de garde-fous, au risque de nous retrouver un jour avec des outils qui ne seraient plus au bénéfice du patient, mais qui seraient imaginés dans le but, par exemple, de vérifier qu'il ne va pas développer une maladie dans le futur au moment de lui accorder un crédit immobilier par exemple.

Que pourrait avoir comme incidence l'irruption de ChatGPT dans le domaine médical?

ChatGPT est déjà capable de passer la partie écrite de l'examen de médecine américain, l'USMILE. ChatGPT obtient une note d'environ 60%. Ce n’est pas extraordinaire, mais ce n’est pas si mal, d'autant que ChatGPT a été entraîné à partir de tests généraux et non pas à partir des manuels médicaux et des livres de médecine. Il n'est donc pas impossible qu'un jour prochain, d'autres équipes ou même OpenAI, soutenu par Microsoft, entraîne ChatGPT de façon plus spécifique à partir des syllabus médicaux et qu'il soit capable de faire nettement mieux…

Mais que peut concrètement apporter ChatGPT au niveau de la pratique médicale?

ChatGPT est déjà utilisé pour apporter des informations médicales aux patients; poser, par exemple, une question lorsque l'on n'a pas accès directement à un interlocuteur médical et recevoir en retour une information médicale déjà valable. Et puis, à terme, on peut imaginer un dérivé de ChatGPT qui définisse une stratégie thérapeutique optimale en fonction des caractéristiques du patient et de sa maladie.

Fin mars, un Belge, en contact étroit avec un chatbot, s'est suicidé. Ce qui semblait relever de la science-fiction, est désormais une réalité. Comment réagissez-vous en tant que médecin et spécialiste de l'IA?

J’en suis absolument navré. Je crois cependant que l'on ne dispose de suffisamment d'éléments pour comprendre ce qui s'est passé. On sait qu'il existe effectivement des risques psychologiques et psychiatriques tels qu'un phénomène d'attachement à une IA, des syndromes de détachement de la réalité, de l'anxiété ou de craintes vis-à-vis de l'IA dans son travail. Mais les conséquences exactes de ces IA ne sont pas encore parfaitement connues, raison pour laquelle il faut rester prudent et mener une réflexion qui va au-delà de la technicité.

Comment faire pour s'assurer de la protection des données personnelles et a fortiori du dossier médical face aux développements accélérés?

Le règlement RGPD européen est déjà très efficace. Mais, il faut également veiller à bien connaître les systèmes existants, savoir, par exemple, que ChatGPT enregistre tout ce que vous lui dites. Si vous lui donnez votre identité, vos antécédents, vos maladies, il peut théoriquement utiliser cette information. Il est donc totalement déconseillé de le faire.

N'y a-t-il pas aussi un danger que ChatGPT diffuse de fausses informations médicales comme c'est le cas dans d'autres domaines?

Nous savons effectivement que ChatGPT génère, par exemple, de fausses références à des études médicales qui n'existent pas. Globalement, ChatGPT, aussi puissant soit-il, doit être utilisé sous une supervision. Pour autant, une équipe de chercheurs d'Harvard a déjà évalué la capacité de ChatGPT à poser un diagnostic à partir de la description de symptômes pour une trentaine de maladies. L'IA s’est révélée pertinente dans plus de 80% des cas, alors que les médecins «humains» tournent plutôt autour de 65%.

Bref, à ce stade, le mariage entre l’IA et la médecine pourrait se résumer à la formule: "prudence et optimisme"?

Oui et ce n’est pas toujours un message facile à faire passer. Je ne suis ni blanc, ni noir, ni pour, ni contre. Je ne prétends pas que c'est génial ou magique et qu'il faut que l'on embrasse tous cette technologie sans aucune limite. Mais je ne considère pas non plus qu'il faut la limiter radicalement. On ne peut pas balayer une évolution technologique telle que l'intelligence artificielle d'un revers de la main, sans aucune réflexion. On doit plutôt l'encadrer, la réguler. En définitive, il en va de la responsabilité des médecins, mais aussi des pouvoirs publics, d'utiliser ces outils très puissants au bénéfice du patient. C’est un choix donc, dans lequel il faut tenter de trouver le bon équilibre.

2041: l'odyssée de la médecine, Jean-Emmanuel Bibault, Éditions des Équateurs, 208 p., 19 €.

Publicité
Les nouvelles technologies (ici l'usine de Tesla de Fremont, en Californie) représentent 10% du PIB américain contre 5,5% dans l’Union européenne.
Les États-Unis attirent de plus en plus les entreprises européennes
Les entreprises européennes ont investi pratiquement autant dans l’économie américaine que sur le sol européen.
Messages sponsorisés