Actualiser la réglementation sur l’IA médicale, plaident les experts
Le domaine de la médecine est, comme d’autres industries et disciplines, en train d’incorporer l’IA comme outil standard, et il pourrait être extrêmement utile – s’il est bien réglementé, soutiennent les chercheurs. Sans règles significatives et normalisées, il sera difficile de quantifier les avantages ou de prévenir les catastrophes résultant d’un biais systématique ou d’une mauvaise application.
Des outils d’IA, ou pour être précis, des agents d’apprentissage machine formés pour passer au crible les données médicales, apparaissent dans chaque pièce de l’hôpital, de l’appareil à rayons X à l’USI. Un modèle bien formé peut détecter une anomalie lors d’une scintigraphie pulmonaire ou entendre une arythmie chez un patient au repos, plus rapidement ou de façon plus fiable qu’une infirmière ou un médecin.
A découvrir également : L'action JD.com décolle malgré le ralentissement de la croissance du chiffre d'affaires
C’est du moins la théorie ; et bien qu’il n’y ait aucune raison de douter qu’une IA puisse être très utile et même sauver des vies, ces modèles sont des traitements médicaux et doivent être documentés et testés avec une rigueur particulière. C’est ce que disent Ravi Parikh, Ziad Obermeyer et Amol S. Navathe, respectivement de l’Université de Pennsylvanie, UC Berkeley et du Crescencz VA Medical Center à Philadelphie.
“Les normes réglementaires pour l’évaluation de la sécurité et de l’impact des algorithmes n’existaient pas jusqu’à récemment. De plus, les évaluations de ces algorithmes, qui ne sont pas aussi faciles à comprendre par les cliniciens que les algorithmes précédents, ne sont pas conformes aux normes traditionnelles des essais cliniques “, écrivent-ils dans un éditorial publié dans la revue Science.
A lire aussi : Startups Weekly : Flexport, le fouillis et l'argent du sang de SoftBank
“Contrairement à un médicament ou un dispositif, les algorithmes ne sont pas des produits statiques. Leurs entrées, souvent basées sur des milliers de variables, peuvent changer avec le contexte. Et leurs performances prédictives peuvent changer avec le temps à mesure que l’algorithme est exposé à plus de données.”
Néanmoins, la FDA a partiellement approuvé un système appelé WAVE Clinical Platform, qui surveille les signes vitaux en cas de problème. Mais si WAVE et d’autres organismes du genre veulent vraiment fournir un service continu, ils doivent être évalués en fonction de normes créées en tenant compte des modèles d’IA.
Naturellement, les auteurs ne l’ont pas proposé sans exemples, qu’ils énumèrent et décrivent, résumés comme suit :
- Critères d’évaluation significatifs :
- Des repères appropriés :
- Interopérabilité et généralisation :
- Interventions spécifiques :
- Audit structuré :