Intelligence artificielle dans la santé : diagnostic, médicaments et éthique en 2026

Radiologue analysant une IRM cérébrale assisté par intelligence artificielle en salle de lecture

L’hôpital Saint-Louis à Paris accueille en ce moment les premiers patients d’un essai clinique un peu particulier. Le candidat-médicament qu’ils reçoivent n’a pas été découvert par des chimistes dans un laboratoire classique. Il a été conçu par une intelligence artificielle. Cet essai, lancé début 2026 par Isomorphic Labs (filiale de Google DeepMind) sur 240 patients atteints de cancers avancés du pancréas et du côlon, représente une étape que les professionnels de santé attendaient depuis plusieurs années.

L’intelligence artificielle dans la santé n’est plus un sujet de prospective. Elle s’est installée dans les salles de radiologie, dans les cabinets de médecine générale, dans les laboratoires pharmaceutiques. Elle lit des IRM, rédige des comptes rendus de consultation, découvre des molécules, suit à distance des patients en rémission. Et elle pose, dans le même mouvement, des questions que la médecine n’avait jamais eu à se poser : qui est responsable quand un algorithme se trompe ? Comment un patient peut-il comprendre une décision prise en partie par une machine ?

Ce guide fait le point sur ce qui fonctionne vraiment aujourd’hui, sur ce qui arrive, et sur les garde-fous qui se mettent en place. Avec des exemples concrets, des chiffres, et sans promesses creuses.

L’IA en santé, de quoi parle-t-on exactement

L’intelligence artificielle appliquée à la santé repose presque toujours sur la même famille de techniques : l’apprentissage automatique, et plus particulièrement le deep learning. Le principe tient en quelques mots. On nourrit un réseau de neurones artificiels avec des milliers, parfois des millions d’exemples annotés (des images de tumeurs, des comptes rendus médicaux, des séquences génétiques), et l’algorithme apprend à reconnaître des motifs que l’œil humain peut manquer.

Ce changement de paradigme date de la décennie 2010, quand les cartes graphiques sont devenues assez puissantes pour entraîner des modèles profonds sur de grands jeux de données. Depuis 2020, le rythme s’est encore accéléré avec l’arrivée des modèles de fondation et des IA génératives.

Les applications médicales se répartissent en quatre grandes familles :

  • L’aide au diagnostic : lecture d’images, détection précoce, tri des urgences
  • La recherche et la découverte de médicaments : prédiction de structures protéiques, criblage moléculaire
  • L’organisation des soins : dossiers patients, comptes rendus automatiques, télésurveillance
  • La médecine personnalisée : traitements adaptés au profil génétique et clinique du patient

Chacune de ces familles avance à son propre rythme. Certaines sont déjà largement déployées, d’autres en sont à la phase d’essais cliniques.

Le diagnostic médical, premier territoire conquis par l’IA

C’est sans doute le domaine où l’IA a fait ses preuves le plus vite. La radiologie en est l’exemple type.

Le choix des modèles d’IA adaptés est crucial pour garantir la fiabilité des diagnostics médicaux.

Une révolution dans l’imagerie médicale

Les algorithmes d’analyse d’images savent désormais repérer des nodules pulmonaires, des microcalcifications mammaires ou des lésions cérébrales avec une sensibilité qui rivalise avec celle des radiologues expérimentés. En France, des startups comme Hera-Mi (dépistage du cancer du sein), Milvue (radiographie d’urgence) et Spimed-AI équipent déjà des dizaines de CHU et de cabinets privés.

Ces outils ne remplacent pas le praticien. Ils lui font gagner du temps sur les actes répétitifs (tri des examens normaux, mesures morphométriques) pour qu’il se concentre sur les cas complexes. Au-delà du gain de productivité, la qualité même des images s’améliore : meilleur contraste, meilleure résolution, doses de rayonnements réduites grâce à des temps d’acquisition plus courts.

Le Dr Jean-Philippe Masson, président de la Fédération Nationale des Médecins Radiologues, résume l’état d’esprit de la profession : « Notre métier va gagner en efficacité et en réactivité. Nous pourrons consacrer plus de temps à nos patients, en explicitant davantage nos résultats. »

L’anatomopathologie et l’oncologie transformées

Les lames de biopsie, une fois numérisées, sont aujourd’hui analysées par des algorithmes de reconnaissance de formes. En oncologie, l’IA aide à identifier la tumeur primitive dans les cancers d’origine inconnue, à segmenter les lésions pour planifier une radiothérapie, à labéliser automatiquement les sites métastatiques sur un examen TEP/TDM.

En France, Owkin et Therapanacea sont deux acteurs qui comptent dans ce domaine. Fondée en 2016 par le Dr Thomas Clozel et Gilles Wainrib, Owkin a levé 180 millions de dollars auprès de Sanofi en 2024 et développe un pipeline de molécules en oncologie et immunologie. Son outil K Navigator, lancé en mai 2025, est présenté comme le premier assistant de recherche basé sur une IA agentique.

Ophtalmologie, dermatologie, cardiologie

Aux États-Unis, le dépistage de la rétinopathie diabétique ne nécessite plus la consultation systématique d’un ophtalmologue : un médecin généraliste photographie la rétine avec un appareil dédié, l’image part sur un serveur, et l’algorithme rend sa lecture en quelques minutes. Même logique en dermatologie, où des applications mobiles classent les lésions cutanées suspectes. En cardiologie, certains électrocardiogrammes interprétés par IA détectent des arythmies silencieuses que les médecins manquent régulièrement.

SpécialitéUsage actuel de l’IAOutil ou acteur type
RadiologieDétection automatique de lésions, tri des urgencesMilvue, Aidoc, GE HealthCare
OncologieCaractérisation tumorale, télésurveillance des rémissionsOwkin, Therapanacea
OphtalmologieDépistage de la rétinopathie diabétiqueIDx-DR (première IA validée par la FDA)
DermatologieClassification des lésions cutanéesSkinVision, DermAssist
CardiologieDétection d’arythmies sur ECGCardiologs, AliveCor
AnatomopathologieAnalyse de lames numériséesOwkin, Paige.AI

La découverte de médicaments, l'accélération que personne n'attendait aussi vite

La découverte de médicaments, l’accélération que personne n’attendait aussi vite

C’est probablement le changement le plus profond que l’IA apporte à la santé. Découvrir un médicament coûtait historiquement plus d’un milliard de dollars et prenait dix à quinze ans. L’IA ne supprime pas ces contraintes, mais elle raccourcit plusieurs étapes clés.

AlphaFold et la fin d’un mystère de 50 ans

En 2021, DeepMind a publié la version 2 d’AlphaFold, un modèle capable de prédire la structure tridimensionnelle d’une protéine à partir de sa seule séquence d’acides aminés. Ce problème, que les biologistes tentaient de résoudre depuis un demi-sièclé, s’est retrouvé largement adressé en quelques mois. Les auteurs Demis Hassabis et John Jumper ont reçu le prix Nobel de chimie 2024 pour ces travaux.

L’impact pratique est énorme. Connaître la structure d’une protéine, c’est pouvoir concevoir une molécule qui viendra s’y fixer (un médicament). Isomorphic Labs, la filiale commerciale que DeepMind a créée pour exploiter cette technologie, gère aujourd’hui 17 programmes de développement actifs, dans l’oncologie, l’immunologie et les maladies cardiovasculaires. Les premiers essais cliniques sur l’humain ont démarré en 2026, en partenariat avec le Cancer Research UK Centre, l’Institut allemand du cancer et l’AP-HP pour l’Hôpital Saint-Louis.

Le modèle Owkin et la data fédérée

Owkin a choisi une approche différente mais complémentaire : la fédération de données cliniques issues de plusieurs hôpitaux, sans que ces données ne sortent de leurs serveurs d’origine. La technique, appelée apprentissage fédéré, permet d’entraîner un modèle sur des patients très divers tout en respectant la confidentialité. L’AP-HP a renouvelé son partenariat avec Owkin en 2025 pour accélérer l’innovation IA au service des patients.

Le premier candidat-médicament issu de ce travail, OKN4395 (un double inhibiteur des récepteurs prostanoïdes EP2 et EP4 en oncologie), entre en phase clinique précoce en 2026.

Criblage et réutilisation

Au-delà de la conception de nouvelles molécules, l’IA sert aussi à relire d’un œil neuf les médicaments déjà approuvés pour une indication donnée. C’est le drug repurposing. Plusieurs traitements utilisés en rhumatologie ont ainsi été identifiés comme pistes sérieuses contre certaines formes de Covid long ou de maladies auto-immunes rares. Avantage : les profils de sécurité étant déjà connus, on gagne plusieurs années de développement.

Dossiers patients, comptes rendus, organisation : l’IA dans le quotidien du médecin

Ce n’est pas la partie la plus spectaculaire, mais c’est peut-être celle qui change le plus la vie des soignants.

La génération automatique de comptes rendus

L’application Nabla, développée par une équipe française, écoute la consultation en temps réel et produit un compte rendu structuré que le médecin n’a plus qu’à relire. D’autres outils comme Posos aident à la prescription en croisant automatiquement les interactions médicamenteuses, les contre-indications et les recommandations des sociétés savantes.

Le bénéfice est concret : un médecin généraliste gagne environ 30 minutes par jour sur la saisie administrative, temps qu’il peut rendre aux patients. Pour un secteur où la pénurie médicale s’aggrave (127 000 médecins en exercice en France en 2025, pour des besoins estimés à 165 000), ce gain n’est pas anecdotique.

Le dossier médical enrichi

Les systèmes d’information hospitalière intègrent de plus en plus de briques d’IA pour extraire automatiquement des informations clés d’un dossier patient (antécédents, traitements, résultats d’examens). À la clé, un repérage plus rapide des patients à risque, un meilleur suivi des chroniques et une alerte précoce quand des signaux de dégradation apparaissent.

Le Health Data Hub français, sorte de banque nationale de données de santé anonymisées, doit servir de socle à beaucoup de ces projets. Son déploiement a pris du retard pour des raisons réglementaires (le choix initial d’un hébergeur américain a été contesté), mais il monte en puissance depuis 2024.

La télésurveillance

Les patients en rémission d’un cancer, ou souffrant de maladies chroniques comme l’insuffisance cardiaque, remplissent chaque semaine un court questionnaire sur leur état. Un algorithme analyse ces réponses et alerte l’équipe soignante quand il détecte un signal de rechute. Le Dr Pierre Simon, fondateur de la Société Française de Télémédecine, voit dans cet usage l’un des gains les plus nets de l’IA : « L’oncologue dépiste beaucoup plus tôt les rechutes et engage un nouveau traitement pour améliorer le pronostic. »

Médecine prédictive, chirurgie assistée, santé mentale

Trois autres terrains méritent qu’on s’y arrête.

La médecine prédictive cherche à anticiper des événements graves avant qu’ils ne surviennent. Le projet Corti, en cours d’adaptation francophone pour le SAMU, analyse en temps réel les signaux verbaux et non verbaux d’un appelant pour détecter un arrêt cardiaque pendant la régulation téléphonique. Aux États-Unis, des études ont montré des gains de précision de l’ordre de 20 % par rapport à l’évaluation humaine seule.

La chirurgie assistée par ordinateur ne date pas d’hier (le robot Da Vinci existe depuis les années 2000), mais les dernières générations intègrent de l’IA pour guider la main du chirurgien, anticiper un saignement, recaler l’imagerie préopératoire sur l’anatomie réelle du patient. Le projet français CAMI-Labex travaille sur la neurochirurgie assistée, où l’algorithme joue un rôle de GPS pendant l’intervention.

La santé mentale est le domaine le plus récent et le plus discuté. PsyCARE et Emobot utilisent la reconnaissance faciale des émotions pour aider au diagnostic et au suivi des troubles anxieux ou dépressifs. L’idée n’est pas de remplacer le psychiatre, mais de donner des mesures objectives à une spécialité où l’entretien clinique reste central. Les débats éthiques sont vifs : qu’est-ce qu’on fait des données émotionnelles d’un patient ? Qui y accède ?

Les enjeux éthiques et la garantie humaine

La France a pris un peu d’avance sur ce terrain. La révision des lois de bioéthique d’août 2021 a introduit deux principes qu’on retrouve progressivement dans les textes européens.

L’obligation d’information

Un patient doit être informé quand une décision médicale qui le concerne a fait intervenir un algorithme d’intelligence artificielle. Cette information porte aussi bien sur l’usage de l’IA que sur ses limites. Dans la pratique, beaucoup d’hôpitaux adaptent encore leurs procédures : l’information passe souvent par une mention dans le consentement général, ce qui ne satisfait pas tout le monde.

Le principe de garantie humaine

Ce principe, porté notamment par le juriste David Gruson, exige des points de supervision humaine en amont et en aval de chaque algorithme médical. Concrètement : un médecin valide le jeu de données qui a servi à entraîner l’IA, un médecin relit chaque décision critique rendue par l’algorithme avant qu’elle ne soit communiquée au patient. Le radiologue, le pathologiste ou l’oncologue garde le dernier mot. Et la responsabilité qui va avec.

Biais, équité, transparence

Les algorithmes apprennent sur des données historiques. Si ces données reflètent des biais (sous-représentation de certaines populations, inégalités d’accès aux soins), l’IA va les reproduire, voire les amplifier. Une étude publiée dans Science en 2019 a montré qu’un algorithme américain utilisé pour orienter les patients vers des programmes de soins intensifs sous-traitait systématiquement les patients afro-américains, parce qu’il s’était calé sur les dépenses de santé (inférieures en moyenne chez ces patients, non parce qu’ils étaient en meilleure santé, mais parce qu’ils accédaient moins aux soins).

La transparence des modèles pose un problème connexe. Un réseau de neurones profond reste pour partie une boîte noire. Les techniques d’IA explicable (XAI) progressent, mais il faut admettre qu’on ne comprend pas toujours exactement pourquoi l’algorithme a rendu telle décision. Dans un contexte médical, c’est évidemment gênant.

Le guide éthique de l’ANS

En 2025, l’Agence du numérique en santé (ANS) a publié un guide d’implémentation articulé autour de cinq principes : responsabilité, transparence, explicabilité, équité, proportionnalité. Ce document sert de référence aux établissements qui déploient des IA médicales et aux entreprises du numérique en santé.

Limites, risques et points de vigilance

Il serait dommage de terminer sur une note trop optimiste. L’IA en santé à des zones d’ombre.

Le risque de sur-médicalisation. Un algorithme qui détecte une anomalie, même minime, peut conduire à des examens complémentaires, des biopsies, des traitements lourds dont le bénéfice pour le patient n’est pas toujours démontré. La pertinence clinique doit primer sur la sensibilité technique.

Les cyberattaques sur les établissements de santé. Les hôpitaux sont devenus une cible privilégiée des rançongiciels. Un système d’IA piraté ou corrompu peut rendre des décisions altérées, sans que personne ne s’en aperçoive immédiatement. La cybersécurité n’est plus un sujet annexe, c’est une question de sécurité des soins.

La dépendance aux fournisseurs. Beaucoup d’outils utilisés aujourd’hui viennent de sociétés américaines ou chinoises. Cette dépendance pose des questions de souveraineté sanitaire, d’autant que les mises à jour d’un modèle peuvent changer son comportement du jour au lendemain.

L’écart entre les promesses et la réalité clinique. Une étude publiée en 2023 dans Nature Medicine a recensé plus de 500 IA médicales commercialisées dans le monde. Moins de 10 % d’entre elles avaient fait l’objet d’essais cliniques randomisés démontrant un bénéfice réel sur la santé des patients. Le reste s’appuie sur des validations rétrospectives, utiles mais insuffisantes.

La formation des soignants. Le rapport Villani de 2018 recommandait déjà d’intégrer l’IA dans la formation initiale des médecins. La réforme des études médicales avance, mais lentement. Beaucoup de praticiens en exercice se retrouvent face à des outils qu’ils n’ont jamais appris à critiquer.

Questions fréquentes sur l’intelligence artificielle dans la santé

L’IA va-t-elle remplacer les médecins ?

Non, et ce n’est pas le projet. Les études les plus sérieuses, y compris celles conduites par la FNMR et le Conseil National de l’Ordre des Médecins, convergent : l’IA assiste les praticiens sur les tâches répétitives ou très intensives en données (lecture d’images, tri d’informations), mais la décision médicale et la relation au patient restent humaines. Le Dr Pierre Simon le formule bien : « L’IA ne va pas remplacer les médecins mais les aider à pratiquer leur métier différemment. »

Comment mes données de santé sont-elles protégées quand une IA les utilise ?

En France et dans l’Union européenne, le RGPD encadre strictement le traitement des données de santé, considérées comme des données sensibles. Elles ne peuvent être utilisées que pour des finalités précises, avec le consentement du patient ou dans un cadre légal explicite (recherche, soins, santé publique). Les hébergeurs doivent être certifiés Hébergeur de Données de Santé (HDS). L’apprentissage fédéré, que développe Owkin par exemple, évite même que les données brutes quittent l’hôpital.

Quelle est la différence entre l’IA médicale et les chatbots type ChatGPT ?

Ce sont deux familles d’outils très différentes. Les IA médicales validées sont entraînées sur des données cliniques labellisées, testées sur des essais dédiés, et certifiées comme dispositifs médicaux (marquage CE en Europe, autorisation FDA aux États-Unis). Un chatbot généraliste comme ChatGPT ne bénéficie d’aucune de ces validations. Il peut donner des informations de vulgarisation mais n’a aucune valeur diagnostique, et plusieurs études ont montré qu’il produit régulièrement des erreurs sur des cas médicaux précis.

Quels sont les premiers médicaments issus de l’IA ?

Plusieurs molécules conçues ou optimisées par IA entrent en phase clinique en 2026. Le candidat d’Isomorphic Labs (DeepMind) cible des cancers du pancréas et du côlon avancés sur 240 patients à partir du début 2026. OKN4395 d’Owkin, en oncologie, entre aussi en phase précoce. Insilico Medicine a annoncé en 2023 le premier candidat anti-fibrose pulmonaire entièrement découvert par IA entré en phase 2. Aucun de ces médicaments n’est encore commercialisé, mais les prochaines années devraient être riches d’enseignements.

Comment savoir si mon médecin utilise une IA ?

Demandez-lui. Depuis la révision bioéthique de 2021, il à une obligation d’information. Dans les faits, beaucoup d’usages sont transparents pour le patient (aide à la prescription, analyse d’image en arrière-plan) et le médecin n’en parle que si vous posez la question. Aucun médecin sérieux ne rendra une décision uniquement sur la base d’un algorithme : la garantie humaine est un principe légal en France.

L’IA peut-elle découvrir un médicament seule ?

Pas tout à fait. L’IA identifie des cibles thérapeutiques, propose des structures moléculaires candidates, prédit des interactions. Mais la validation passe toujours par des étapes biologiques (tests cellulaires, modèles animaux) puis cliniques (essais chez l’humain) qui prennent plusieurs années. Ce qui change, c’est la vitesse des étapes préclinique : là où il fallait parfois cinq à sept ans, certains programmes atteignent aujourd’hui la phase clinique en deux ou trois ans.

Un radiologue remplacé par une IA, ça s’est déjà vu ?

Jamais complètement. Dans certaines configurations (dépistage de la rétinopathie diabétique aux États-Unis par exemple), le radiologue ou l’ophtalmologue n’est consulté qu’en seconde intention, après un premier tri fait par l’algorithme. Mais un médecin reste dans la boucle pour les cas positifs et pour la décision thérapeutique. L’association IA + radiologue donne toujours de meilleurs résultats que l’un ou l’autre seul, c’est une constante des études publiées depuis 2018.

Ce qu’il faut retenir

L’intelligence artificielle dans la santé n’est ni la révolution miraculeuse annoncée par certains, ni le danger que d’autres dénoncent. C’est un outil puissant, qui donne déjà des résultats mesurables en imagerie, en découverte de médicaments et en organisation des soins. Son déploiement pose des questions sérieuses sur la protection des données, la responsabilité médicale, les biais algorithmiques. Ces questions ont commencé à trouver des réponses, notamment en France avec le principe de garantie humaine et le guide éthique de l’ANS.

Les prochaines années seront décisives. Les essais cliniques 2026 d’Isomorphic Labs, le pipeline d’Owkin, la montée en puissance du Health Data Hub et l’évolution de la formation médicale vont dire si les promesses de la décennie 2020 se traduisent, concrètement, par une meilleure santé pour les patients. Ce qui est sûr, c’est que le métier de médecin ne ressemblera plus tout à fait à celui d’aujourd’hui. Dans dix ans, un praticien qui n’a jamais touché à l’IA aura probablement le même rapport à l’outil qu’un médecin des années 1980 face à un scanner : dépassé, pas par choix, mais par l’évolution de sa discipline.

Publications similaires