Intelligence artificielle et Big Data

Catégorie : détail de la revue AH10
Publié le jeudi 28 juin 2018 06:15
 
La directrice générale de l’Agence Nationale du DPC nous éclaire sur des systèmes qui commencent à impacter les médecins, le soin et son organisation. Comment ces masses de données vont-elles révolutionner, ou non, la pratique de la médecine et de toutes ses composantes ? Quels sont les enjeux de ces changements ? Michèle Lenoir Salfati nous fait partager son expérience et son analyse d’un phénomène qui demeure toujours quelque peu mystérieux à ce jour. 
 
Depuis de nombreuses années déjà, Big Data et Intelligence Artificielle (IA) intègrent le champ de la santé et le mouvement s’accélère. Le dernier CES (Consumer Electronic Show) à Las Vegas, rendez-vous mondial des innovations technologiques, a permis de constater tant la vitesse d’accélération des développements, que la démocratisation des usages de l’IA dans le domaine du soin et de la recherche en santé. Tous les champs sont impactés : 
La prévention : ainsi ce projet, mené par l’Institut National du cancer, de développement d’un programme de dépistage plus individualisé du cancer du sein sur la base de l’inclusion et de l’analyse de données génétiques a vu le jour. 
Le diagnostic : les outils d’IA permettent d’aller chercher du côté des choses auxquelles on ne pense pas pour reprendre les propos de Guy Vallancien (chirurgien et universitaire français, membre de l’Académie nationale de médecine), ou d’automatiser la formation de diagnostics à partir d’images par exemple. 
Les choix thérapeutiques : avec la formulation de propositions thérapeutiques, le suivi en temps réel des patients via le développement d’objets connectés qui déplacent et décentrent les lieux et les temps de soin. 
La recherche médicale : les technologies d’IA facilitent l’exploration des publications scientifiques et l’analyse des résultats de recherches, ou permettent de formuler des hypothèses par simulation avant les phases d’essais cliniques conventionnels.
 

Une entrée fracassante qui suscite des interrogations

L’arrivée massive de l’IA pose de nombreuses questions relatives notamment aux consensus d’usage, à l’utilisation des bases de données et notamment des données individualisées, à l’information des usagers ou en termes de responsabilité des professionnels. Dans le champ des ressources humaines qui est le mien depuis de nombreuses années, elle interroge évidemment les exercices professionnels et à ce titre si elle étonne et fascine, elle inquiète voire effraie notamment les médecins qui pressentent qu’elle est appelée à reformuler les enjeux de santé publique et les pratiques de soins, redoutent d’être en compétition avec des machines dans de nombreuses activités voire d’être à terme remplacés et expriment la crainte d’une médecine déshumanisée et aux mains de grands groupes industriels. La crainte de l’émergence d’une forme de super intelligence toute puissante et autonome aux capacités surpassant l’homme et l’évinçant progressivement, ultime vengeance des dieux à la démesure de Prométhée, relève aujourd’hui du fantasme. Aucune machine n’est en capacité de reproduire la mécanique du fonctionnement d’un cerveau humain et notamment ses capacités de créativité et de disruption puisque le mot est à la mode. Le modèle qui se dessine est plutôt celui d’une collaboration professionnels de santé/machines et oui, la machine peut concrètement nous aider à faire des choses que nous sommes incapables de faire comme récupérer et colliger des milliards de données et rechercher dans des milliards de fichiers en un temps négligeable pour soutenir notre action.
 

Peut-on faire confiance aux systèmes d’IA ? Qui aura la capacité d'auditer l'algorithme ? 

Dans ce cadre, le premier point qui mérite l’attention est celui de la confiance que l’on peut accorder aux systèmes d’IA, avec le risque de confiscation de la possibilité discursive: qui aura la capacité d'auditer l'algorithme? La plupart des systèmes d’IA utilisent des algorithmes de « deep learning » qui permettent aux machines d’apprendre. Or aujourd’hui, le principal problème tient dans la part d’opacité constitutive de ces apprentissages. On connaît les données qui entrent dans la machine, on connaît celles qui en sortent mais personne aujourd’hui, pas même leurs concepteurs, n'est en mesure de comprendre les modalités du « raisonnement » de la machine ; les spécialistes de l’IA appellent cela l’effet boîte noire. Si l’on ne parvient pas à comprendre totalement comment elle apprend, comment pourrait-on détecter comment et quand elle se trompe ? Yann Le Cun, inventeur d’un procédé qui permet depuis le début des années 80 l’apprentissage des réseaux de neurones et aujourd’hui en poste chez Facebook (responsable du laboratoire FAIR, Facebook Artificial Intelligence Research), a coutume de dire que le cerveau humain est lui aussi une boîte noire, et que nous avons appris à nous en accommoder. Pour Gérard Berry, « Ce n'est pas complètement faux. Mais nous avons l'habitude de traiter avec les humains, et nous connaissons à l'avance le type d'erreurs qu'ils font. Dans le cas de l'IA, la discipline est encore un peu jeune pour tirer ce genre de conclusions. »
Lever ces craintes est fondamental et on voit à ce titre le nécessaire dialogue qui doit s’engager entre les professionnels de santé et les mathématiciens et ingénieurs dans la conception de ces systèmes. Il est urgent de favoriser et développer l’interdisciplinarité.
 

Collaboration et dialogue interdisciplinaire ne sont pas immédiats, ni intuitifs. 

Il est nécessaire que les professionnels de santé se forment d’une part à ce qu’est l’intelligence artificielle, son fonctionnement, ses limites, ses enjeux. D’autre part qu’ils en apprennent les usages. Enfin dialoguer avec les concepteurs de systèmes nécessite aussi un apprentissage. Or force est de constater qu’alors, par exemple, que l’imagerie médicale constitue sans doute une des applications les plus sophistiquées de l’informatique et que l’IA va bouleverser les modalités du diagnostic médical dans les prochaines années, les jeunes médecins sortent encore de leurs études sans avoir été formés ni à l’objet ni à ses usages ni à ce dialogue. 
Le rapport de Cédric Villani fait à cet égard des propositions en termes de formation initiale ; mais pour tous les professionnels en exercice, le DPC doit pouvoir constituer un levier pour cet apprentissage avec trois conditions préalables : l’élaboration de référentiels d’usage de l’IA, de l’IOT et des Big Data dans laquelle les CNP devraient prendre toute leur part, l’élaboration sur cette base de référentiels de compétences et de formation (il est en effet peu probable que sans éléments de contenus travaillés et réfléchis, les organismes de DPC soient spontanément en capacité de proposer des actions pertinentes ni même qu’à terme ils le soient tous), la mobilisation enfin de nouvelles ressources que l’on sait rares pour concevoir et dispenser ces formations (médecins formés à l’IA, chercheurs, ingénieurs). Cela nécessite donc une stratégie claire de formation continue portée par les pouvoirs publics en concertation avec les professionnels. Il me paraît également important, et c’est un axe que l’Agence et ses instances promeuvent, que ces formations se fassent au plus près de la pratique simulant les cas d’usage.
 

Répartition des compétences entre professions de santé. 

Depuis de nombreuses années, via les expérimentations Berland, les protocoles de coopérations issus de l’article 51 de la Loi HPST et aujourd’hui la création d’un exercice infirmier en pratique avancée, ce mouvement est en cours, j’y crois et j’en ai été porteuse dans mes fonctions précédentes. Sans aucun doute, l’introduction dans les soins des nouvelles technologies issues de l’IA vont permettre aux médecins la délégation d’actes notamment des actes normalisables et programmables. L’Intelligence artificielle est un levier pour la construction de nouvelles logiques interprofessionnelles de prise en charge. C’est d’ailleurs dans ce cadre interprofessionnel qu’il sera important de construire des actions de formation permettant, en équipe de soins, au-delà de l’apprentissage des outils, d’expérimenter de nouveaux cadres d’intervention. Une certitude enfin, c’est qu’il ne faut pas laisser le train passer et que ces travaux doivent être conduits maintenant et rapidement avec l’ensemble des acteurs du système de santé : condition pour agir, choisir, transformer la crainte de désappropriation en construction de nouvelles compétences et de nouvelles pratiques.
 
Michele Lenoir-Salfati, directrice générale de l’Agence Nationale du DPC