par Charles-Étienne Daniel, Marie-Eve Couture-Ménard et Stéphane Bernatchez
Ce premier billet d’une série de deux est consacré au survol de la régulation juridique de la recherche en robotique et sera suivi d’un second portant sur les attentes envers le droit de la gouvernance.
Les robots ont toujours suscité une certaine fascination. Voués à accomplir des tâches plus variées que celles dévolues aux robots industriels et parfois même dotés de capacités langagières, les robots interactifs sont souvent présentés comme étant des machines qui pourront améliorer le quotidien des hommes. Bien que les premiers modèles comme le Wabot-1 créé en 1973 à l’Université de Waseda au Japon ne ressemblaient pas du tout à des êtres humains, leur apparence s’est de plus en plus sophistiquée notamment avec l’arrivée d’Asimo en 2000, puis de NAO en 2006. Ces robots ont été dotés d’une forme vaguement humaine entre autres pour leur permettre de mieux interagir avec les personnes jugées plus vulnérables, dont celles comportant des déficiences intellectuelles, les enfants et les personnes âgées. Leur utilité anticipée a toutefois souvent suscité de vives inquiétudes concernant leur intégration dans la société et ce, depuis le tout début de leur développement.
C’est en ce sens que plusieurs ont soulevé l’inévitable question de l’encadrement du développement de robots de plus en plus autonomes. Cette interrogation ne date toutefois pas d’hier. Dès 1992, Lawrence Solum considérait la possibilité d’octroyer sur le plan juridique une personnalité électronique à des systèmes d’intelligence artificielle (IA). Si l’intérêt porté à cette question ne s’est pas démenti dans les années subséquentes – allant jusqu’à être intégrée directement dans une résolution du Parlement européen déposée en 2017 – tel ne sera pas l’objet principal de notre propos dans ce billet. Il ne s’agira donc pas d’examiner les règles juridiques applicables à d’éventuels robots commercialisés, mais plutôt de se pencher sur la régulation d’une étape préalable souvent occultée par la littérature et pourtant cruciale : son processus de recherche et de développement.
Le projet de recherche SMART comme point de départ de la réflexion
C’est dans cette optique que nous avons publié tout récemment un article dans la Revue de droit de l’Université de Sherbrooke portant sur l’encadrement normatif de la recherche en robotique d’assistance au Québec. La recherche effectuée s’inscrivait dans le déroulement du projet SMART (Socially Mobile Assistive Robots for Telecare and Daily Activities of Older Adults), financé par le Réseau des centres d’excellence du Canada AGE-WELL. Dans le cadre du projet SMART, des chercheurs provenant de diverses disciplines (génie, droit, éthique, sciences politiques) s’intéressaient à examiner les conséquences d’un déploiement de robots d’assistance déjà disponibles sur le marché (comme le BEAM) ou développés par l’équipe de recherche (comme le T-Top) dans trois résidences pour aînés (RPA). De tels robots, déjà utilisés au Japon, sont pressentis comme pouvant donner un coup de pouce aux personnes aînées autonomes ou en perte d’autonomie pour leur prodiguer une assistance dans la réalisation de différentes tâches de la vie quotidienne.
Or, le recours à des robots d’assistance comporte certains risques inhérents à leur développement et leur déploiement sur le terrain. Qu’arrive-t-il si un accident survient à cause d’une conception déficiente ? Les personnes désireuses d’essayer un robot d’assistance dans les espaces communs ou dans leur logement ont-ils pu librement consentir à participer au projet de recherche ? Quelles normes doivent être respectées pour qu’un développement de robots interactifs soit considéré comme responsable ?
Toutes ces questions interpellent ainsi la régulation du processus de développement de robots d’assistance. C’est dans ce contexte que l’objectif de notre recherche consistait à poser un diagnostic sur les normes applicables à l’encadrement de la recherche en robotique au Québec. Nous nous sommes plus précisément penchés sur l’hypothèse d’un recours au droit de la gouvernance pour pallier les insuffisances des normes de droit étatiques applicables au développement de la robotique d’assistance.
À cet égard, comme l’ont soulevé des chercheurs de l’Institut de robotique de l’Université de Toronto dans un rapport de septembre 2020 :
Assistive robots are subject to regulation by a variety of guidelines, but present unique challenges in safety, privacy and even ethics due to their close interactions with people. However, unlike mobile or medical robots, there is not a specific regulatory framework for these devices. While there are international efforts to establish regulatory frameworks for assistive robots, Canada’s lack of a specific framework in this area creates uncertainty for researchers and industry, and may stifle innovation in this important application area for robotics. [note omise]
De manière générale, plusieurs s’inquiètent de la capacité du droit étatique à suivre le rythme du développement technologique, tout en déplorant le vide juridique qui semble ainsi se créer. En réponse, le droit souple (ou soft law) est souvent désigné comme LA solution de recours, parce qu’il est considéré comme plus facilement, précisément ou rapidement adaptable au contexte changeant de l’évolution technologique que le droit dur issu des lois et règlements. Or, notre examen des différentes normes applicables à l’encadrement de la recherche en robotique au Québec nous amène à formuler un constat beaucoup plus nuancé.
Dans ce premier billet, qui sera suivi d’un deuxième, nous présenterons d’abord les résultats de notre analyse des normes contraignantes issues du droit étatique qui s’appliquent au contexte de la recherche en robotique d’assistance.
Les normes étatiques généralement applicables à la recherche au Québec
Pour vérifier notre hypothèse, nous avons d’abord effectué un bref survol des règles juridiques contraignantes applicables au milieu québécois de la recherche. En opposition aux normes souples dites « de régulation » (standards techniques, énoncés de politique, directives, codes de conduite, etc.) et rattachées au droit de la gouvernance, les normes dites de règlementation incluent par exemple celles retrouvées dans les textes législatifs et réglementaires. Mentionnons, par exemple, l’art. 21 du Code civil du Québec, qui prévoit notamment que tout projet de recherche pour lequel « l’intégrité d’une personne est susceptible d’être atteinte » doit bénéficier d’une approbation et d’un suivi par un comité d’éthique de la recherche.
Nous retrouvons dans différentes lois à portée générale, telles que le Code civil du Québec, la Charte canadienne des droits et libertés et la Charte des droits et libertés de la personne, la consécration des droits à la dignité, à la protection de l’intégrité physique et mentale, à la vie privée et à l’inviolabilité. Ces droits y sont énoncés de manière très large et englobante et ce faisant, certains peuvent y voir une limite du droit étatique. Rappelons toutefois que ces protections juridiques sont tout à fait applicables dans le contexte d’une recherche impliquant des robots d’assistance et des participants humains, peu importe le sujet du projet de recherche mené. Une atteinte illicite (donc non consentie par le participant) et intentionnelle (i.e de la part du chercheur) ouvrirait dès lors la possibilité pour une personne participant à la recherche d’intenter un recours en responsabilité civile et d’obtenir, en sus des dommages-intérêts compensatoires, des dommages-intérêts punitifs en vertu de l’art. 49 de la Charte des droits et libertés de la personne.
Les normes étatiques applicables aux chercheurs-roboticiens
À ces obligations très générales applicables pour tout projet de recherche s’ajoutent aussi d’autres règles venant préciser un peu plus les régimes juridiques pouvant s’appliquer aux chercheurs œuvrant dans le domaine de la robotique (que nous qualifierons de « chercheur-roboticien »).
D’un côté, n’oublions pas que le Code civil du Québec prévoit déjà que celui-ci peut engager sa responsabilité s’il cause, par sa faute, un dommage à autrui. Cette faute doit être prouvée (art. 1457 C.c.Q.) par une victime dans le cadre d’un recours en droit commun. Le chercheur-roboticien peut aussi être présumé fautif s’il est considéré selon les circonstances comme le gardien du robot et que celui-ci, par son fait autonome, cause un dommage (art. 1465 C.c.Q.). Ces régimes permettent ainsi de couvrir plus largement tout préjudice corporel (blessures, chute, etc.), moral (atteinte à la vie privée, fuite de données, etc.) ou matériel (bris d’objets, pertes financière, etc.) subi par un participant ou toute autre personne tierce (proche aidant, professionnel de la santé, etc.) se trouvant dans l’environnement d’un robot d’assistance.
D’un autre côté, certaines règles issues de la déontologie sont également susceptibles de s’appliquer aux chercheurs qui sont également membres d’un ordre professionnel au Québec. Si des médecins ou des infirmières sont impliqués dans un projet de recherche en santé, ceux-ci doivent respecter plusieurs obligations déontologiques retrouvées dans leurs codes de déontologie. Certains membres de l’équipe de conception du projet SMART étant dûment inscrits au Tableau de l’Ordre des ingénieurs du Québec (OIQ), ceux-ci devaient aussi se conformer aux diverses exigences du Code de déontologie des ingénieurs. Parmi celles-ci, soulignons l’extrême importance accordée au respect par l’ingénieur à ses obligations envers l’humain et à la prise en compte des conséquences de ses travaux sur l’environnement et sur la vie, la santé et la propriété de toute personne (art. 2.01). Dans la recherche menée en robotique d’assistance, une telle obligation énoncée dans des termes pourtant très généraux exige d’un chercheur ingénieur que celui-ci connaissance les règles de l’art liés à ses travaux. Cette obligation déontologique amène donc le chercheur-roboticien – qui serait aussi membre de l’OIQ – à porter une attention particulière aux risques que pourraient présenter les robots conçus ou déployés dans un environnement physique pour les personnes s’y trouvant.
L’implication particulière de la Loi sur les ingénieurs
À ce stade, une petite précision s’impose dans ce survol des règles juridiques. Aucun médecin ni infirmière n’était impliqué comme professionnel de la santé dans le projet SMART. Toutefois, fallait-il que l’implication d’un ingénieur soit requise pour la conception de robots d’assistance dans le cadre de ce projet de recherche ? Tel est normalement le cas si une activité se rapporte à celles réservées à l’exercice de la profession d’ingénieur (art. 1.1 de la Loi sur les ingénieurs) lorsque celle-ci concerne un ouvrage d’ingénierie (tel que défini à l’art. 3 de la Loi sur les ingénieurs). Selon leur configuration, les robots mobiles d’assistance peuvent se définir comme tel lorsqu’ils représentent un « ensemble fonctionnel dont les parties sont interconnectées et échangent de la matière, de l’énergie ou de l’information».
L’un des points importants à garder en tête consiste à se demander s’il y a présence d’un danger potentiel pour la sécurité du public présenté par la conception ou le déploiement d’un robot. Si tel est le cas, certaines activités sont réservées aux seuls ingénieurs membres de l’OIQ et leur implication dans le projet de recherche demeure nécessaire. Parmi ces activités réservées, mentionnons par exemple la détermination des équations qui, à partir des modèles issus des principes d’ingénierie, permettent d’anticiper le comportement d’un robot d’assistance qui pourrait circuler dans les corridor d’une RPA. Comme les robots peuvent adopter plusieurs formes et niveaux d’interaction physiques qui diffèrent selon les circonstances, il conviendra d’évaluer soigneusement s’ils présentent des risques pour la sécurité du public en fonction de leur développement et de leur déploiement dans le cadre du projet de recherche.
Conclusion
Notre analyse, ici succinctement présentée, démontre qu’en dépit d’une imprécision et d’une généralité propre au contenu de ses règles, le droit positif issu des lois et règlements se destine surtout aux chercheurs impliqués dans un projet de recherche. S’il est vrai que la règlementation étatique n’énonce aucune règle spécifiquement dédiée à la robotique interactive, la formulation très générale de son contenu offre tout de même un encadrement qui laisse le soin à ses destinataires de l’adapter à leur contexte de recherche.
Notre constat est donc quelque peu mitigé à ce stade de l’analyse concernant l’inutilité traditionnellement reprochée au droit étatique classique en matière de développement technologique. La contrainte rattachée aux règles de droit dur ne les empêche pas de s’appliquer au contexte particulier de la robotique d’assistance. Ce faisant, les membres d’une équipe de recherche doivent s’efforcer de respecter les droits et obligations protégeant les participants humains, tout en évitant d’adopter une conduite fautive ou contraire aux règles déontologiques applicables selon les circonstances.
Qu’en est-il toutefois des normes du droit de la gouvernance : peuvent-elles aider les chercheurs à y voir plus clair ? C’est ce que nous examinerons dans un second billet.
