G-PDR8S3N2ZG
top of page

Est-ce un système d'IA ?


Dans les secteurs réglementés tels que les sciences de la vie, les systèmes d'aide à la décision ont toujours joué un rôle essentiel pour garantir la conformité, la qualité et la sécurité des patients. Par le passé, les systèmes experts étaient largement utilisés pour faciliter la prise de décision structurée. Cependant, aujourd'hui, les systèmes d'intelligence artificielle (IA) transforment la manière dont les organisations analysent les données, tirent des informations et automatisent les processus.

Dans les environnements réglementés par les normes BPx (GxP), il est essentiel de comprendre ce qui constitue un système d'IA pour élaborer des stratégies de validation efficaces, atténuer les risques de manière adéquate et garantir la conformité réglementaire.  

Cet article explore les différences entre les systèmes experts et les systèmes d'IA, leurs applications, ainsi que ce que cette évolution signifie pour les organisations opérant dans le cadre des bonnes pratiques BPx

Qu'est-ce qu'un système expert ? 

Un système expert est un système logiciel basé sur des règles, conçu pour reproduire la capacité de prise de décision d'un expert humain. Il s'appuie sur un ensemble prédéfini de règles « si-alors » et sur une base de connaissances structurée [1].  

Caractéristiques principales :  

  • Repose sur des règles fixes définies par l'homme   

  • Résultats déterministes et prévisibles   

  • Pas de capacité d'apprentissage intrinsèque   

  • Nécessite des mises à jour manuelles pour intégrer de nouvelles connaissances   

Les cas d'utilisation BPx typiques comprennent la classification des écarts, les arbres de décision pour la libération des lots, le flux de travail du processus CAPA et le diagnostic des problèmes d'équipement.   

 

Qu'est-ce qu'un système d'IA ?  Les systèmes d'intelligence artificielle vont au-delà des règles statiques. Ils sont conçus pour apprendre à partir des données, s'adapter au fil du temps et améliorer leurs performances sans reprogrammation explicite [1].  

Caractéristiques principales :  

  • Apprend à partir de données historiques et en temps réel   

  • S'adapte et évolue au fil du temps   

  • Peut gérer des relations complexes et non linéaires   

  • Peut produire des résultats probabilistes (et non déterministes)   


Un tableau vaut 100 mots…   

Dimension

Système expert

Système AI

Fondement logique

Basé sur des règles (si… alors)

Basé sur les données

Capacité d'adaptation 

Statique

Dynamisme et apprentissage

Transparence

Élevée 

Variable (peut être opaque)

Approche de validation 

CSV traditionnel

Nécessite des cadres de validation IA améliorés 

Essentiellement, les systèmes experts codifient ce que nous savons déjà, tandis que les systèmes d'IA mettent au jour des schémas que nous ne comprenons peut-être pas encore, et s'appuient sur ces schémas pour produire leurs résultats. 


Les modèles d'IA ont leur importance 

L'IA englobe plusieurs familles de modèles qui ont chacun leurs propres domaines de spécialisation. Il est important de savoir que ces modèles existent. D'une part, pour les comprendre, et d'autre part, pour élaborer une stratégie de validation solide pour chacun d'entre eux, car chaque modèle présente des considérations et des profils de risque différents.   

Parmi les principaux modèles, on peut citer

Type de modèle 

Cas d'utilisation 

Exemples dans la recherche clinique

Descriptif

Décrire et résumer les données existantes

Tableaux de bord, analyse descriptive des données de test, indicateurs de performance 

Diagnostique

Analyser les données pour expliquer une situation ou un problème

Identification des causes d'événements indésirables, analyse des tendances ou des écarts

Prédictif

Anticiper les résultats futurs à partir des données 

Prédiction des risques pour les patients, probabilité de recrutement ou d'abandon

Prescriptif

Recommander des actions à entreprendre

Optimisation des protocoles, recommandations cliniques ou opérationnelles 

Génératif 

Créer du contenu  (texte, données, code)

Rédaction de rapports, génération de données synthétiques, ébauches de protocoles 

Conversationnel

Interagir avec les utilisateurs en langage naturel

Chatbots d'assistance, assistants pour la recherche d'informations cliniques 

Implications pour la conformité BPx Le passage des systèmes experts à l'IA offre à la fois des opportunités et des défis dans les environnements réglementés. 

1. Complexité de la validation

Les systèmes experts sont relativement simples à valider car ils fonctionnent à partir de règles ou d'une logique explicites, ce qui rend leurs résultats prévisibles.

Les systèmes d'IA, en revanche, peuvent évoluer au fil du temps (apprentissage continu) et produire des résultats probabilistes ; cela signifie que des entrées ou des invitations identiques peuvent conduire à des résultats différents.

Cela implique que les systèmes d'IA posent des défis de validation qui leur sont propres, notamment la définition de stratégies pour :


  • La documentation relative à l'entraînement et aux tests des modèles

  • La surveillance des performances au fil du temps

  • L'évaluation de l'intégrité des données et des biais

Il est important de mentionner qu'il est possible d'empêcher les systèmes basés sur des modèles d'IA d'évoluer de manière autonome (modèles d'apprentissage figés vs modèles d'apprentissage continu). Les systèmes d'IA utilisant des modèles d'apprentissage figés restent de nature probabiliste, mais ils ne courent pas le risque de voir leur modèle d'IA dériver au fil du temps, au prix de l'impossibilité de s'améliorer de manière autonome.

 

2. Intégrité et gouvernance des données 

La fiabilité des systèmes d'IA dépend entièrement de la qualité des données sur lesquelles ils sont entraînés. Dans un contexte BPx, cela soulève des questions cruciales concernant les données utilisées :  

  • Sont-elles légalement utilisables ?  

  • Sont-elles représentatives et non biaisées ?  

  • Sont-elles traçables et vérifiables ?  

La mise en place de cadres de gouvernance des données robustes devient une condition préalable à l'adoption de l'IA, conformément aux attentes réglementaires [2]. 

 

3. Explicabilité et auditabilité

Les autorités de régulation exigent que les décisions soient explicables. S'il est plus aisé pour les systèmes experts de satisfaire à cette exigence, notamment lorsque les spécifications complètes du système sont disponibles, les systèmes d'IA (en particulier les modèles avancés) peuvent s'avérer moins transparents.  

 

Pour répondre à cette attente, les organisations qui utilisent des systèmes d'IA critiques doivent souvent créer des outils d'explicabilité (par exemple, des techniques d'interprétabilité des modèles), une documentation claire de la logique et des limites du modèle, ainsi que des justifications fondées sur les risques pour l'utilisation du modèle. 

 

Quand utiliser des systèmes experts plutôt que des systèmes d'IA Les systèmes experts sont les plus adaptés lorsque :  

  • Le processus est bien compris   

  • Les règles sont stables et changent rarement   

  • Une grande transparence est requise   

  • La surveillance réglementaire est stricte et la tolérance à l'incertitude est faible   

 

Les systèmes d'IA sont les plus adaptés lorsque :  

  • De grands ensembles de données sont disponibles   

  • Les modèles sont complexes ou inconnus   

  • Une prédiction ou une optimisation est nécessaire   

  • L'amélioration continue apporte une valeur ajoutée   

Dans de nombreux cas, une approche hybride est optimale, combinant des contrôles basés sur des règles avec des informations issues de l'IA.

Conclusion 

Les systèmes experts ont jeté les bases de la prise de décision numérique dans les environnements réglementés en apportant structure, cohérence et un haut niveau de conformité grâce à une logique fondée sur des règles. Aujourd’hui, les systèmes d’IA élargissent ces fondements en introduisant une adaptabilité, des capacités prédictives et de nouveaux gains d’efficacité qui permettent aux organisations de dépasser les processus statiques pour évoluer vers des opérations plus intelligentes et axées sur les données. Cependant, cette évolution s'accompagne également d'une responsabilité accrue, car l'IA nécessite une gouvernance plus stricte, des cadres de validation plus sophistiqués et une compréhension claire des risques associés, tels que les biais, la dérive des modèles et le manque de transparence. Pour les organisations opérant dans des environnements BPx, le succès dépendra de la capacité à trouver un équilibre entre innovation et contrôle, en tirant parti de l'IA pour renforcer l'expertise humaine tout en maintenant la conformité, la traçabilité et la confiance.   

  

Chez InnovX, nous envisageons l'avenir des normes BPx non seulement comme numérique, mais aussi comme intelligemment conforme, où les technologies de pointe sont intégrées de manière réfléchie au sein d'un cadre de qualité robuste. 



Références  

[1] Russell, S., & Norvig, P. (2021). Artificial Intelligence: A Modern Approach (4th ed.). Pearson. 

[2] European Medicines Agency (EMA). (2023). Reflection paper on the use of AI in the medicinal product lifecycle

Commentaires


bottom of page