Etude : ce que les patients attendent de l’IA médicale (JMIR)
Publié le jeudi 08 janvier 2026 à 11h03
Patient Recherche GEN AIDes chercheurs européens, principalement affiliés à des organismes suédois (dont l’Université de Gothenburg et celle de Lund) ont publié en novembre 2025 dans JMIR AI une revue systématique visant à analyser les perceptions des patients de soins primaires face à l’IA médicale
Jusqu’où l’IA est-elle acceptable en médecine de ville ? Le point de vue des patients
Ils montrent que si les patients reconnaissent l’utilité de l’IA pour soutenir le travail médical, ils refusent qu’elle prenne seule les décisions médicales et exigent des garanties fortes sur la relation humaine, la gouvernance et la protection des données.
L’intelligence artificielle s’installe rapidement dans les cabinets de médecine générale. Outils de transcription automatisée, systèmes de triage des demandes, aides au diagnostic ou dispositifs de suivi prédictif promettent de fluidifier l’activité et d’améliorer la qualité des soins. Jusqu’ici, le débat s’est toutefois largement concentré sur les performances des algorithmes, leur capacité à détecter plus tôt une pathologie ou à réduire la charge administrative des praticiens.
Une question demeure pourtant centrale : à quelles conditions les patients acceptent-ils réellement cette transformation ? Une revue systématique publiée en novembre 2025 dans JMIR AI apporte un éclairage sur ce point. Elle montre que les patients ne rejettent pas l’IA, mais qu’ils en dessinent, souvent de manière implicite, une véritable charte de l’IA acceptable, fondée sur la primauté de la relation humaine, la responsabilité médicale et la souveraineté sur les données de santé.
Concrètement, les auteurs ont conduit une revue systématique selon un protocole international standardisé, avec une sélection indépendante des études et des critères d’inclusion définis à l’avance, à partir d’une recherche bibliographique menée jusqu’en février 2024 dans cinq grandes bases de données internationales. Sur 1004 publications identifiées, seules six études qualitatives répondaient aux critères d’inclusion.
Au total, 170 patients, âgés de 13 à 91 ans et issus de trois pays, ont été interrogés dans ces études au moyen d’entretiens individuels et de focus groups. Les données ont ensuite fait l’objet d’une méta-analyse thématique visant à faire émerger les grandes lignes de ce que les patients acceptent — et refusent — dans l’usage de l’IA en médecine de ville.
Résultats : une source d’espoir et d’anxiété
Les chercheurs ont identifié trois registres d’attentes :
- Comment les patients perçoivent l’IA et ce qu’ils lui reconnaissent
- Les patients perçoivent l’IA comme potentiellement utile, en particulier pour la documentation, le triage et l’aide au diagnostic.
- La confiance reste associée à la relation humaine, à l’écoute et à la responsabilité perçue du clinicien.
- Certains patients voient l’IA comme un espoir dans les situations complexes, d’autres comme une source d’anxiété prédictive.
2. Les lignes rouges d’une implémentation jugée « responsable »
Beaucoup craignent une déshumanisation de la consultation, avec une perte d’interactions et de signaux non verbaux.
- Les biais des données d’entraînement sont perçus comme un risque majeur d’inégalités de soins.
- La protection des données de santé constitue une ligne rouge, notamment face aux assureurs et acteurs commerciaux.
- Les patients souhaitent être informés lorsque l’IA intervient dans leur prise en charge.
- Ils revendiquent explicitement un droit de refus de l’IA dans leur parcours de soins.
3. Le rôle central du médecin et de la gouvernance
- Ils refusent toute délégation complète de la décision médicale et exigent que le médecin reste responsable des choix cliniques.
- Ils demandent une régulation claire, des audits, des certifications et une formation des cliniciens.
- Aucune des études incluses n’analysait spécifiquement la perception des IA génératives et des LLMs, révélant un angle mort de la recherche.
Cette revue montre que l’acceptabilité de l’IA en médecine de ville ne dépendra pas seulement de sa précision ou de sa rapidité, mais de la manière dont elle sera intégrée dans la relation de soin. Les patients ne réclament pas une IA toute-puissante, mais une IA « civilisée », placée sous contrôle médical, explicable et respectueuse de leur autonomie. « Les médecins doivent conserver la responsabilité et la supervision de l’usage de l’IA, car c’est cette responsabilité qui fonde la confiance, » préviennent les chercheurs.
Pour l’écosystème HealthTech, le message est clair : la performance algorithmique ne suffira plus à créer de la valeur. Les solutions qui s’imposeront seront celles capables de démontrer leur traçabilité, leur capacité à être contrôlées, leur conformité au cadre réglementaire européen et leur aptitude à laisser une place réelle au choix du patient. En filigrane, cette étude met donc en lumière un nouvel enjeu : le futur de l’IA médicale se jouera autant sur sa gouvernance que sur son intelligence.
Exploring Primary Care Patients’ Perspectives on Artificial Intelligence: Systematic Literature Review and Qualitative Meta-Synthesis
Mundzic A, Bogdanffy R, Sundemo D, Sundvall PD, Widén J, Nymberg P, Wikberg C, Moberg A, Gunnarsson R, Entezarjou A
JMIR AI 2025;4:e72211
https://ai.jmir.org/2025/1/e72211