S’il arrive que ces techniques dépassent le pouvoir d’analyse d’un cerveau humain grâce à un traitement massif de données, le médecin reste le décideur en dernier ressort. S’il ne comprend pas comment l’algorithme est parvenu à telle ou telle conclusion, il peut décider de ne pas suivre ses recommandations.
Les meilleurs algorithmes permettront de résoudre correctement un problème dans 90 à 95 % des cas, mais leurs résultats ne seront que des suggestions qui nécessiteront une validation par un être humain. Une décision est prise ou n’est pas prise, elle ne peut pas être prise à 95 %.
L’IA pose le problème de la responsabilité dans la décision. Tout un chacun considère que l’erreur est humaine, même de la part des médecins. Mais qu’en sera-t-il si c’est l’ordinateur qui se trompe ?
Il est très improbable que l’on puisse un jour accorder une confiance aveugle à une proposition diagnostique ou thérapeutique non validée par l’homme ; pour prendre une autre analogie, même avec les progrès techniques qui permettent à un avion de voler sans pilote, on gardera encore longtemps un commandant de bord. L’ordinateur et l’IA seront de nouveaux acteurs du parcours de soin, qui apporteront un avis, formuleront une proposition de diagnostic ou de traitement, mais celle-ci sera suivie ou non par le médecin en fonction de sa perception globale de l’ensemble des facteurs.
La nouvelle Loi bioéthique, débattue au Parlement, a retenu que les dispositifs utilisant l’IA doivent rester sous le contrôle de l’homme et ne peuvent se substituer à une décision médicale. Par son article 11, elle ouvre la voie à l’IA sous une supervision humaine comme garantie centrale, fondée sur le droit du patient. Cette orientation est aussi partagée par le Comité Consultatif National d’Ethique (CCNE) et par la Commission européenne, qui traite de ces problématiques fondamentales à la fois dans son livre blanc sur l’intelligence artificielle de 2020 et au travers de récentes propositions réglementaires faites en 2021. Les implications de ces orientations, riches de (bon) sens, mériteraient de faire l’objet de réflexions plus abouties dans un article dédié.
La médecine veut être de plus en plus une science, et l’IA y contribue. A la biologie et à la psychologie, elle ajoute l’apport des mathématiques, de l’informatique, des statistiques ; mais la médecine doit conserver sa dimension humaniste, avec ce qu’il faut d’écoute, d’empathie, le « je ne sais quoi » qui inspire la confiance ; c’est cette confiance qui fait que le patient accepte, ou pas, ce qu’on lui fait subir comme examens et comme traitements. Le malade est un « être humain» dont la prise en charge doit être totale et prendre en compte autant le somatique que le psychologique dans toute sa complexité. Le malade ne se réduit pas simplement à une radiographie ou un organe, c’est avant tout une personne. Et qui mieux qu’une personne peut communiquer avec une autre personne, par un sourire, par une main, par une voix ? C’est toute la différence entre le « soin » et le « prendre soin », le « cure » et le « care » des anglo-saxons.
Les progrès de l’IA donneront encore plus de pouvoir aux médecins car la décision finale lui reviendra, comme il revient au pilote d’un avion de tenir compte, ou pas, des indications données par les capteurs et par les ordinateurs de bord.
En cancérologie, les diagnostics et les traitements sont discutés lors de réunions de concertation pluridisciplinaires où toutes les spécialités sont représentées. Demain, il y aura probablement aussi un ordinateur présent en « salle de staff », à travers un écran et une interface de communication. L’ordinateur, qui aura ingéré de multiples données, images et signaux, pourra être interrogé par les médecins durant leurs échanges, et leur donner « son avis sur la question ». Les médecins présents en tiendront compte ou non, s’étonneront de sa perspicacité ou, au contraire, s’esclafferont devant tant de « bêtise informatisée, tout l’inverse de l’intelligence artificielle », si la solution proposée par l’ordinateur leur parait stupide ou inadaptée. L’IA sera un compagnon, un support à la prise de décision, mais pas un obstacle à l’exercice de la médecine.