Date et lieu
17 mars 2026, PariSanté Campus, Paris
Contexte scientifique
L’émergence des grands modèles de langage (Large Language Models ou LLM) ouvre de nombreuses perspectives dans le domaine hospitalier. Ils peuvent, par exemple, contribuer à l’extraction et à la structuration des informations médicales, soutenir l’aide à la décision diagnostique, thérapeutique ou pronostique, faciliter les interactions entre soignants et patients, ou encore renforcer le support aux soins. Toutefois, leur développement, leur déploiement et leur utilisation soulèvent des défis nouveaux, qu’ils soient techniques (infrastructures, méthodologies, évaluation) ou liés à des enjeux éthiques et déontologiques.
Objectifs et contenu
L'objectif principal de la journée est de partager des pratiques, expériences et projets récents ou en cours autour de l’utilisation des LLM à l'hôpital. La journée constitue par ailleurs une opportunité d’échange et de fédération des efforts des communautés intéressées. Nous visons une communauté large et interdisciplinaire : chercheurs, étudiants en sciences des données et santé, départements d'information médicale des établissements de santé, entreprises en santé numérique, unités de recherche clinique, épidémiologistes, etc. Pendant la journée, 2 conférenciers invités présenteront leurs travaux en lien avec les LLM et les données hospitalières. De plus, le comité scientifique sélectionnera des travaux qui seront présentés lors de la journée.
Appel à contributions
Nous appelons des contributions courtes de 2 pages maximum (hors références) pour présentation orale. Les communications pourront sans restriction concerner des travaux déjà publiés, des résultats préliminaires non publiés, ou être des points de vue sur le domaine. Les contributions suivront le style TALN disponible ici en latex (modèle overleaf) et ici en Word / LibreOffice. Un résumé de quelques phrases en début de document, non obligatoire, pourra inviter à la lecture de la contribution.
Les communications sollicitées pourront concerner au sens large toute initiative d'utilisation des LLM à l'hôpital et plus particulièrement les thématiques suivantes, sans y être limitées pour autant :
- pour l'extraction, la structuration ou la normalisation d'information,
- pour synthétiser l’information clinique,
- pour l'aide à la décision diagnostique, thérapeutique ou pronostique,
- pour la prédiction de trajectoire de santé,
- pour améliorer les interactions soignants - patients,
- pour les services de support au soin au sens large,
- pour évaluer et contrôler les performances des modèles,
- le développement ou la spécialisation des modèles.
Les contributions seront évaluées et sélectionnées par le comité scientifique de la journée. Les soumissions sont attendues avant le 1/12 sur le site : OpenReview
Dates importantes
- ouverture de l’appel à contribution : 10/10
- date limite de soumission : 1/12
- notification des acceptations 15/1
- journée llm@hopital.fr : 17/3
Actes de la journée
Les actes de la journée llm@hopital.fr seront publiés sur HAL.
Inscription obligatoire
La participation est gratuite, mais l'inscription est obligatoire. Elle se fait via le formulaire suivant : formulaire d'inscription
Sponsors et soutiens
- ATALA, l'Association pour le Traitement Automatique des Langues, https://www.atala.org/
- CARPEM, site de recherche intégré sur le Cancer (SIRIC), https://carpem.fr/
- Doctolib, https://www.doctolib.fr/
- Programme Santé Numérique d'Inria, https://www.inria.fr/fr/programme-sante-numerique-france-2030
- AIM, l'Association française d'Informatique Médicale, https://www.france-aim.org/
Comité scientifique :
- Sandra Bringay, Université de Montpellier
- Adrien Coulet, Inria, Paris
- Marc Cuggia, CHU de Rennes, Université de Rennes
- Thibaut Fabacher, CHU de Strasbourg, Université de Strasbourg
- Olivier Ferret, CEA, Saclay
- Natalia Grabar, CNRS, Lille
- Vianney Jouhet, CHU Bordeaux, Université de Bordeaux
- Ivan Lerner, APHP, Université Paris Cité
- Romain Michelucci, Inria Paris
- Fleur Mougin, Université Bordeaux
- Aurélie Névéol, CNRS, Saclay
- Solen Quiniou, Nantes Université
- Bastien Rance, APHP, Université Paris Cité
- Lina Soualmia, Université de Rouen
- Lynda Tamine, Université de Toulouse
- Xavier Tannier, Sorbonne Université
- Serena Villata, Inria Sophia Antipolis
Présentation invitée 1 : Artem Shmatko, DKFZ Heidelberg
- Preliminary title: "Delphi 2M and its recent development"
- Abstract: soon
Présentation invitée 2 : Suhana Bedi, Stanford University, à distance,
- Title: "From Rigorous Evaluation to Real-World Implementation: MedHELM and ChatEHR"
- Abstract: As large language models (LLMs) enter clinical environments, health systems face two key challenges: assessing what these models can actually accomplish and determining how to integrate them safely into real workflows. I will present two complementary efforts at Stanford Medicine, MedHELM and ChatEHR, that together form a pathway from evaluation to deployment.
MedHELM is a comprehensive framework for assessing LLM performance across the full spectrum of real-world medical tasks. Through collaboration with 29 clinicians across 14 specialties, we developed a clinician-validated taxonomy of 121 medical tasks organized into 5 categories and 22 subcategories. We then assembled 37 benchmarks covering clinical decision support, note generation, patient communication, research assistance, and administrative workflows that mirror real-world scenarios. Our evaluation of nine state-of-the-art models revealed substantial variation across task categories: models perform strongly on communication and documentation tasks, moderately on medical research, and weakest on administrative operations that rely on complex, heterogeneous EHR data. These findings provide a grounded assessment of where current LLMs are reliable and where caution is warranted. ChatEHR represents the next step of deploying LLM capabilities directly into the electronic health record. The system allows clinicians to query a patient's chart in natural language, retrieve relevant information, generate summaries, and perform structured eligibility checks, all within a secure EHR-integrated interface. Our pilot at Stanford Hospital demonstrates that ChatEHR meaningfully reduces time spent on chart review and administrative triage. Importantly, its ongoing evaluation incorporates lessons from MedHELM, such as clear task definitions, transparent provenance of information, and continuous monitoring of accuracy and usability.
Together, MedHELM and ChatEHR demonstrate how health systems can evaluate LLMs in clinically meaningful ways and translate those insights into safe, workflow-aligned deployment of a live system. This presentation will outline practical lessons for hospitals seeking to adopt LLMs responsibly, from defining appropriate tasks to measuring real-world value while safeguarding clinical decision-making.
Présentations sélectionnées suite à l'appel à contribution : à venir
PariSanté Campus, Rotonde, 2ème étage
2-10 rue d'Oradour-sur-Glane
75015 Paris
France