Dis Siri, est-ce que j’ai le cancer?
Écrit par Charlotte Simard-Zakaïb dans le cadre de l’École d’été du Laboratoire de cyberjustice de l’édition 2019.
Un Canadien sur deux recevra un diagnostic de cancer durant sa vie, alors qu’un Canadien sur quatre en décédera. Un cancer détecté tôt sera plus facile à traiter et à guérir, mais pour la plupart des types de cancer, il n’existe pas de test de dépistage. Et puis, si le médecin était en mesure de prédire l’espérance de vie du patient ou le pronostic avant le traitement, différentes stratégies pourraient être choisies ou priorisées. Les chercheurs tentent toujours de déterminer si les examens d’imagerie utilisant la technologie actuelle afin de poser des diagnostics et planifier les plans de traitements pourraient permettre un diagnostic plus précoce de la maladie. L’intelligence artificielle, ci-après « IA », pourrait bien être la solution.
L’IA est en croissance rapide, passant de sa phase expérimentale à celle de mise en application dans plusieurs domaines, dont la médecine. Depuis les dernières années, des avancées phénoménales en matière d’algorithmes d’apprentissage, de techniques d’apprentissage profond « deep learning » et de reconnaissance d’images ont permis de faire des pas de géant en matière d’IA. Plus précisément, la radiologie, étant une spécialité largement construite autour du traitement et de l’interprétation complexe d’images médicales, est une candidate de choix pour l’adoption de ces techniques. C’est ainsi que l’idée de la radiomique, soit l’analyse exhaustive d’un grand nombre d’images médicales afin d’en extraire les caractéristiques des différents cancers, est apparue. La radiomique permet une approche novatrice afin de résoudre les enjeux de la médecine de précision, et comment celle-ci peut être exécutée sans être invasive (i.e. sans qu’une biopsie ne soit nécessaire), tout en étant rapide. La médecine de précision est une stratégie de traitement qui permet aux radiologues d’avoir accès à plus d’informations et ce, dans un plus court délai, afin de prendre une décision quant à l’agent moléculaire ciblé à administrer en fonction des mutations génétiques reliées au type de cancer, plutôt qu’en fonction des organes affectés.
Toutefois, si l’on veut être en mesure de développer ces technologies et d’assurer une croissance dans la recherche en IA dans le secteur médical, il est nécessaire de s’attarder aux défis liés à la modélisation informatique des données, ainsi qu’à la question de responsabilité, tant sur le plan médical que juridique.
Les questions de propriété des données et d’éthique sont des défis bien connus, en particulier dans le contexte médical. Il va sans dire que la radiomique et la médecine de précision carburent à l’analyse intégrée de multiples types de données et sur l’importante collecte de celles-ci. Historiquement, les ensembles de données disponibles en radio-oncologie sont plus limités que ceux accessibles à d’autres spécialités, créant ainsi un frein au développement en IA. La croissance dans le domaine présente une corrélation positive avec le partage massif des données afin de les regrouper pour créer un bassin plus complet, soulevant un problème quant à la confidentialité de ces renseignements dans un domaine hautement interconnecté. De plus, l’un des défis englobant la collecte de données est la crainte que les algorithmes puissent refléter les biais humains dans la prise de décision. En effet, un programme récent a été introduit dans le secteur juridique afin de faciliter la prise de décisions des juges quant à la libération conditionnelle des accusés en fournissant leur risque de récidive. Cette « justice prédictive » a démontré une propension troublante à la discrimination. De façon similaire, un algorithme conçu pour prédire les résultats des découvertes génétiques reliées au cancer peut être biaisé s’il n’existe pas d’études génétiques à cet effet chez certaines populations. L’IA peut effectivement être utilisée à mauvais escient; on n’a qu’à penser au scandale de Volkswagen et à ses émissions d’oxyde d’azote. Par analogie, il faut s’assurer que les développeurs de ces algorithmes ne cèdent pas aux mêmes tentations malveillantes afin de programmer des systèmes dans le but de guider des diagnostics cliniques pour générer des profits (comme par exemple, en prescrivant certains médicaments), sans pour autant se traduire par de meilleurs soins. Cela démontre l’urgence quant à l’adoption de lois et de règlements entourant l’IA, notamment dans les domaines de soins complexes qui requièrent un haut degré de précision dans le diagnostic de la maladie et dans le choix du traitement le plus adéquat.
De surcroît, au fur et à mesure que l’IA évolue et surpasse les habiletés humaines dans certaines tâches, la question de la responsabilité deviendra inévitable. Serait-il défendable, d’un point de vue médical, de choisir un plan de traitement qui n’est pas favorisé par un algorithme fondé sur l’IA, notamment en considérant que le nombre de contraintes à tenir compte pourrait dépasser celle que l’Homme est humainement capable d’évaluer? Le jour où l’IA sera en mesure de prendre des décisions de manière autonome en matière de diagnostic et de traitement, dépassant de ce fait son simple rôle d’outil de soutien, la question à savoir si son développeur doit être tenu responsable de ses décisions aura une grande importance. La question qui se pose est donc : à qui la faute? L’IA aura nécessairement un impact et un rôle de plus en plus important dans les années à venir quant aux relations entre les médecins et les patients, qui devront être liées par des principes éthiques fondamentaux qui ont guidé les cliniciens à travers toutes ces années.
Les avancées spectaculaires en IA dans le domaine de la radiologie est probablement une des plus larges et des plus bénéfiques au monde. Les possibilités sont inimaginables; on estime déjà un gain de temps moyen de 80% dans la planification de traitements adéquats pour de multiples maladies. Cela dit, les progrès technologiques s’accompagnent souvent d’une certaine perte de compétences cliniques ou techniques propres à l’être humain, et d’un gain pour d’autres. Malgré le fait que l’IA tente de comprendre et de modéliser les facultés qui caractérisent le comportement intelligent en imitant le raisonnement d’un médecin hautement qualifié et spécialisé, il demeure que les algorithmes ne sont pas humains, et ne le seront jamais.
Ce contenu a été mis à jour le 9 juin 2020 à 13 h 23 min.