Ethique et intelligence artificielle
P. Le Coz*a (Pr)
a Faculté des sciences médicales et paramédicale de Marseille, UMR ADES CNRS EFS, Marseille, FRANCE
* pierre.le-coz@univ-amu.fr
L'intelligence artificielle (IA) est controversée dans le milieu médical. Les "techno-sceptiques" voudraient entraver son développement au nom des risques de déshumanisation et d'automatisation qu'elle génère. Mais ne rien faire comporte aussi des risques. Il convient donc - en éthique comme en médecine -, de mettre les risques en balance avec les bénéfices, en nous demandant : de quoi risquons-nous de nous priver si nous ne développons par l’IA ?
Reconnaissons que l’IA comporte plusieurs bienfaits pour le médecin : augmenter ses connaissances, dégager du temps, l’affranchir de tâches monotones. Aussi, les applications de l’IA en santé demandent non pas à être entravées mais régulées par deux principes éthique organisateurs :
1) Un principe de fraternité envers les personnes vulnérables : on évitera au maximum de remplacer les métiers du soin (infirmiers, psychologues cliniciens, etc.) par des robots humanoïdes dotés d'IA. La fraternité témoigne de notre attachement à l'authenticité des échanges et à la dignité des personnes.
2) Un principe de « garantie humaine » : le patient doit pouvoir toujours compter sur la présence d'un médecin. Ce dernier ne devra pas systématiquement s’en remettre aux suggestions d'un algorithme d’IA, lequel est par essence dépourvu d’esprit critique ( ce qui en ressort dépend de ce que l’on a entré au départ, et qui peut être incomplet, voire erroné). Les valeurs et les données qualitatives échappent à l’IA parce qu’elles ne peuvent être captées que par intuition. Dépourvue d'empathie et de compassion, l’intelligence artificielle ne saurait tenir lieu de bon sens clinique et d'intelligence contextuelle.
L’auteur n’a pas transmis de déclaration de conflit d’intérêt.