Après un bref discours du président de l’ACA, M. Piet Hein Donner, le colloque s’est ouvert sur une allocution du Professeur Corien Prins, présidente du Conseil Scientifique pour la Politique du Gouvernement (WRR) et Professeur de Droit et Informatique à l’Université de Tilburg. Lors de son allocution, le Professeur Prins a attiré l’attention sur le fait que nos modes de transport dépendent de plus en plus de la technologie numérique et de la robotique, notamment les systèmes de pilotage automatique des avions et les véhicules autonomes, soulevant de nouvelles questions juridiques, en particulier dans le domaine de la responsabilité. Qui doit être tenu responsable en cas d’accident impliquant un véhicule autonome, le passager, le fabricant du véhicule ou le fabricant du système qui a programmé le véhicule pour réagir d’une certaine manière lors d’un accident ? Le Professeur Prins a évoqué les différentes approches législatives qui pourraient être adoptées pour régler ces questions et d’autres questions juridiques et a souligné le risque de flou juridique qui résulterait d’une absence de coordination entre les pays européens. Elle a également évoqué la position des entreprises de technologie qui offrent des plateformes permettant les contacts entre les organisations et la société.
À titre d’exemple, le Professeur Prins a mentionné la page Facebook du Conseil d’État néerlandais. Les plateformes de ce type contribuent à dynamiser le débat au sein de la société civile et constituent l’un des aspects essentiels du fonctionnement d’une société démocratique tout autant que les structures formelles. Toutefois, en utilisant ces plateformes, les juridictions contribuent au recueil de données à caractère personnel et à la création de profils à des fins d’ingénierie sociale aussi bien par des utilisateurs actifs que par des non-utilisateurs. Il est donc important de garder à l’esprit que les outils numériques jouent un rôle déterminant dans l’évolution de notre société. La technologie et la société s’influencent mutuellement et dès lors qu’une technologie commence à jouer un certain rôle dans la société, il est difficile de revenir en arrière. Il en résulte certaines complications pour la législation existante et les réglementations liées. Le contrôle dès les premières phases de développement technologique est par conséquent essentiel. Le Professeur Prins a conclu son intervention en soulignant que l’approche adoptée par les législateurs et les juges à cet égard revêtait une importance majeure pour ces développements.
M. Piet Hein Donner a enchaîné avec un résumé des résultats du questionnaire qui a été diffusé pour préparer ce colloque. Pas moins de 29 membres de l’ACA ont répondu au questionnaire et les résultats ont conduit à la sélection des deux sujets du jour :
- Les possibilités et limites de la législation à l’épreuve de la technologie
- Processus décisionnel automatisé et contrôle automatisé.
Au cours du bref débat qui a suivi ces deux interventions, M. Von Danwitz, Juge à la Cour de justice de l’Union européenne (ci-après : la Cour de justice), a présenté deux affaires intéressantes concernant les sujets du jour ; une affaire en instance devant la Commission européenne concernant Google shopping et l’autre devant le Bundeskartellamt allemand concernant Facebook. Ces deux affaires revêtent une importance déterminante car elles traitent de la question de la position dominante et de l’abus de position dominante. Si ces affaires sont jugées, en fonction des critères appliqués elles seront certainement mentionnées ultérieurement dans les procédures judiciaires et fixeront pour l’avenir des règles encore inexplorées. S’agissant des affaires portées devant la Cour de justice, le Juge Von Danwitz a attiré l’attention sur un certain nombre d’affaires faisant l’objet d’un suivi dans la jurisprudence. Il s’agit notamment d’affaires en instance suite à l’affaire Digital Rights (CJUE, 9 avril 2014, Affaire C-288/12), à l’affaire Tele2 Sweden (CJUE, 21 décembre 2016, affaires jointes C 203/15 et C 698/15), et à l’affaire actuellement en instance de Privacy International (Affaire C-623/17).
Le Juge Von Danwitz a également expliqué que le droit a toujours un temps de retard. Ce propos était illustré par le fait que ce n’est qu’en novembre de l’année dernière que la Cour de justice a eu la possibilité de préciser les circonstances constituant un « consentement valable ». Cela intervient vingt ans trop tard, car les conditions du consentement font l’objet de discussions au sein des cercles universitaires et ailleurs depuis deux décennies. Toute l’industrie repose sur le consentement mais personne ne sait si le consentement est valable. La Cour de justice doit se prononcer sur la question dans l’affaire Wirtschaftsakademie en juin 2018. Cette affaire sera pour la Cour de justice l’occasion d’étudier la question de la responsabilité de la conformité à la législation applicable en matière de protection des données sur les fan pages Facebook. Au cours des deux années à venir, la Cour de justice devrait clarifier un certain nombre d’aspects fondamentaux de la protection des données, ce qui nous permettra d’avancer.
Le vice-président du Conseil d’État français, M. Sauvé, a poursuivi en lançant un appel appuyé à la coopération européenne sur les sujets du jour, aussi bien sous l’angle de la législation que du point de vue du juge. Il est essentiel de mettre en place des mécanismes permettant l’échange d’informations sur les questions auxquelles sont confrontés les juges et les législateurs en Europe et les réponses qu’ils apportent dans ce contexte, à l’image de la plateforme Jurifast de l’ACA, qui a été conçue à cette fin. Le vice-président Sauvé a souligné l’importance de la coopération transfrontalière en raison de la nécessité d’examiner les questions juridiques dans le domaine de la technologie de l’information au niveau européen. Dans ce contexte, M. Sauvé a mentionné une question préjudicielle du Conseil d’État français sur la portée territoriale du nouveau règlement sur la protection des données à caractère personnel qui met en présence deux principes contradictoires : le droit à l’oubli et le droit à la liberté d’information. Il s’agit de questions qui, bien qu’elles relèvent de la juridiction nationale, doivent trouver des réponses au niveau européen.
En réponse à cette intervention, le Professeur Prins a indiqué qu’elle partageait l’avis de M. Sauvé quant à l’importance de l’échange d’informations et de connaissances concernant ce qu’il advient au niveau des juridictions nationales et des législateurs nationaux, non seulement par le biais de ces conférences annuelles, mais également par d’autres moyens. Toutefois, les conséquences de certaines initiatives européennes au niveau national ne sont pas toujours bien anticipées. Ce propos a été illustré par l’exemple du statut des données. Pendant deux ans, le statut des données, qui signifie que les consommateurs peuvent payer des services en ligne en communiquant leurs données, a fait l’objet de discussions au niveau européen. Ce principe implique que les données sont considérées comme de l’argent et que, dans la proposition de services en ligne, il existe une disposition qui prévoit cette possibilité. Naturellement, une telle disposition a des conséquences au niveau national. Par conséquent, l’interaction entre les juridictions et les législateurs au niveau européen et au niveau national est essentielle.
|
Un législateur peut adopter différentes approches quant à la manière de réagir à l’évolution rapide des technologies, notamment utiliser des principes technologiquement neutres et déléguer la législation. L’étude de la perspective du législateur a soulevé trois questions pour la discussion sur le sujet de la législation à l’épreuve de la technologie :
- La législation doit-elle être orientée sur les résultats plutôt qu’utilitaire ?
- La législation déléguée sera-t-elle conforme au principe de sécurité juridique et sa légitimité démocratique sera-t-elle suffisante ?
- Pour approfondir le sujet de la délégation : au niveau de l’UE, de quels pouvoirs les législateurs nationaux disposeront-ils lorsque les directives ne refléteront plus la réalité du moment en raison de l’évolution de la technique ?
Les juridictions peuvent être amenées à appliquer différentes méthodes d’interprétation en cas de lacunes de la législation en vigueur au titre des nouvelles avancées technologiques. L’étude de la perspective des juridictions a soulevé trois questions pour la discussion sur le sujet de la législation à l’épreuve de la technologie :
- Comment les juridictions doivent-elles gérer ces situations et quelles sont les limites ?
- Les juridictions doivent-elles adopter une interprétation plus large de la législation pour garantir la protection des droits fondamentaux ?
- Dans les affaires impliquant des sanctions gouvernementales, les juridictions doivent-elles faire la distinction entre les sanctions punitives et réparatrices ou adopter une approche différente afin d’éviter une incompatibilité avec l’Article 7 de la CEDH ?
M. Dunne, Juge de la Cour suprême d’Irlande, a été prié de faire une première présentation sur ce sujet, qu’il a commencée en expliquant que l’explosion des avancées technologiques avait eu une incidence significative sur notre vie sociale, économique et politique. Cette observation a soulevé la question de la manière dont la technologie (de l’information) pouvait effectivement être réglementée même si elle évoluait plus rapidement que le droit. Pour que la législation reste adaptée dans le temps, l’Irlande a adopté l’approche technologiquement neutre pour une partie de sa législation.
S’agissant de la signification de la législation technologiquement neutre, le Juge Dunne a cité le Professeur Koops, de nationalité néerlandaise, et a expliqué que la législation technologiquement neutre avait pour but de réglementer les effets des TIC et non les TIC elles-mêmes. De ce fait, la réglementation ne doit pas avoir d’incidence négative sur le développement de la technologie et ne doit pas conduire à une discrimination injustifiée entre les technologies. Il a indiqué que l’objectif premier de la législation technologiquement neutre consistait à garantir la durabilité de la législation tout en préservant la sécurité juridique. En Irlande, la neutralité technologique a été adoptée dans un certain nombre de mesures législatives, notamment la Loi sur le commerce électronique (Electronic Commerce Act) et la Loi sur les droits d’auteur (Copyright Act). Le juge reste confronté à certaines difficultés liées à l’interprétation de la législation technologiquement neutre et de la législation existante.
Pour renforcer le rôle du juge dans l’interprétation de la législation, le législateur irlandais a créé la Loi sur l’interprétation (Interpretation Act), qui permet au juge, dans certaines circonstances, d’adopter une approche plus ciblée ou dynamique pour donner effet à l’intention initiale du législateur. Dès lors, il y a lieu de déterminer l’intention qui sous-tend les dispositions d’une loi dans le contexte dans lequel elle a été promulguée puis d’appliquer cet objectif général à la législation dans le contexte de la nouvelle technologie. La Loi sur l’interprétation prévoit notamment qu’une juridiction, lorsqu’elle interprète une disposition d’une loi ou d’un texte législatif, peut tenir compte de toute évolution de la législation, des conditions sociales, de la technologie et de la signification des termes utilisés dans cette loi ou ce texte législatif et d’autres événements d’importance survenus après la date de l’adoption de cette loi ou de ce texte législatif, mais uniquement dans la mesure où son texte, ses finalités et le contexte le permettent.
Après la présentation de la délégation irlandaise, la Cour suprême du Royaume-Uni a été la première à réagir. Lord Carnwath a fait part de son intérêt pour la clause d’interprétation irlandaise, qui semble accorder aux juridictions irlandaises un pouvoir potentiel important, mais qui ne donne que peu d’indications concernant les limites. Le Juge Dunne a répondu que la difficulté d’interprétation pour le juge résidait toujours dans la nécessité de s’efforcer de trouver un équilibre entre examiner les termes utilisés dans la législation et s’efforcer de ne pas leur conférer une signification qu’ils n’ont jamais pu avoir, tout en admettant que le droit est un instrument évolutif qui croît et se développe au gré des avancées technologiques.
M. Parrest, Juge de la Cour suprême d’Estonie, a ensuite à son tour abordé le thème de la législation à l’épreuve de la technologie. Selon le Juge Parrest, le concept de législation technologiquement neutre peut être défini comme la possibilité pour le client d’un service public de choisir la manière dont il souhaite communiquer avec l’État. Le législateur ne fait aucune différence entre les différents systèmes ou prestataires de services informatiques.
Par le passé, le législateur estonien a été très enclin à introduire des modes de communication électroniques, les rendant même obligatoires. Toutefois, certaines difficultés liées à l’utilisation de nouvelles avancées technologiques sont apparues. La disponibilité des services publics ne peut pas toujours être la même étant donné que le pouvoir exécutif n’est pas en mesure de contraindre les grandes sociétés informatiques à coopérer pour faire appliquer pleinement la loi.
En outre, l’Estonie a également connu une crise liée aux cartes d’identité, qui ont toutes dû être renouvelées rapidement en raison de l’utilisation de puces à risque. La majorité des services publics ont été exposés à un risque majeur étant donné que les agents publics se trouvaient dans l’incapacité de travailler en l’absence de cartes d’identité fonctionnelles pour l’authentification ou pour les signatures numériques. Tirant les enseignements de cette situation, l’Estonie a estimé qu’en pratique, malgré la position technologiquement neutre du législateur estonien, elle s’appuyait trop massivement sur un mode d’authentification, malgré l’existence d’autres possibilités.
Le Juge Parrest a tiré un certain nombre de conclusions générales concernant l’exercice du droit par la Cour suprême d’Estonie en ce qui concerne l’application d’anciennes réglementations à de nouvelles activités économiques, telles que la négociation de bitcoins. Selon le Juge Parrest, le principe de la liberté d’entreprise pour tous ou de la liberté de chacun de choisir la forme d’activité qu’il souhaite devrait être le point de départ. Ensuite, une personne pourrait être pénalisée en cas de violation d’une norme claire. La marge d’interprétation est donc limitée. Les autorités publiques doivent garantir l’ordre public au sens large pour protéger les droits et libertés de chacun. À cet égard, l’ancienne législation peut être appliquée à de nouvelles formes d’activités si elle y est adaptée.
Après la présentation, le vice-président du conseil d’État français, M. Sauvé, a fait part de ses doutes quant à la légitimité du juge pour l’application de la législation existante à des questions entièrement nouvelles. Le président du Bundesverwaltungsgericht allemand, M. Rennert, ne partageait pas son avis et a indiqué que même lorsqu’il s’agit de questions entièrement nouvelles, une juridiction est légitime pour juger car un juge n’est pas autorisé à refuser de statuer sur une affaire donnée. Il a affirmé que même si la législation n’est pas applicable et que seuls des principes généraux peuvent orienter la décision, le juge est tout de même tenu de se prononcer.
Intervenant à son tour, la délégation de la Cour Administrative Suprême tchèque a ajouté que, sur le long terme, il convient d’équilibrer les principes des Articles 6 et 7 de la Convention européenne des droits de l’homme. D’une part, si une juridiction ne répond pas à votre question, elle manque à l’obligation de réponse qui lui incombe au titre de l’accès au droit qui constitue l’un des droits de l’homme. D’autre part, si une juridiction répond trop rapidement et qu’une interprétation du droit est trop large, il peut en résulter une violation du droit de ne pas se voir infliger de sanctions sans législation préalable et suffisamment précise. En conséquence, le débat porte en réalité sur la question de savoir comment naviguer entre ces deux droits.
Le juge Patroni Griffi du conseil d’État italien a indiqué que les points de vue de la France et de l’Allemagne n’étaient pas si éloignés. Les juridictions seront confrontées à de nouvelles questions, parfois sans pouvoir s’appuyer sur la législation. Concernant le rôle du législateur, le vice-président du conseil d’État français, M. Sauvé, a indiqué que les lois et principes généraux existants devaient être utilisés autant que possible et devaient être privilégiés par rapport à la législation spécifique, car cette dernière pouvait entraîner de plus en plus de règlements plus détaillés tandis que les principes généraux étaient gages d’unité. Le Juge Patroni Griffi a ajouté qu’il était pratiquement impossible de mettre en place une réglementation couvrant toutes les avancées technologiques. La flexibilité est essentielle et, par conséquent, une grande partie de la réglementation des avancées technologiques est déléguée à des organes administratifs indépendants.
En conclusion, le vice-président Sauvé a déclaré que la discussion sur ce sujet avait mis en évidence les différents aspects et apporté des clarifications sur les questions existantes. La discussion devait se poursuivre et les délégués devaient continuer à se communiquer les décisions et approches adoptées étant donné qu’il était préférable de parvenir à une certaine convergence dans la jurisprudence plutôt que d’adopter des interprétations divergentes.
|
La séance de l’après-midi du séminaire était consacrée au thème du processus décisionnel automatisé et du contrôle automatisé car les organes administratifs utilisent de plus en plus de nouvelles technologies numériques dans leurs processus décisionnels. En introduction, M. Verhey, membre du conseil d’État néerlandais a présenté les problèmes et conséquences constatés dans ce domaine, aussi bien du point de vue de l’organisme administratif prenant les décisions que du point de vue du juge chargé d’examiner ces décisions.
Les obligations des organes administratifs en ce qui concerne l’utilisation de processus décisionnels automatisés ne cessent d’augmenter. Afin de faciliter les discussions sur ce sujet du point de vue des organes administratifs, les questions suivantes ont été soulevées :
- Comment les législateurs des différents pays européens gèrent-ils le Règlement Général sur la Protection des Données et les exigences imposées aux organes administratifs par le Règlement, en particulier par l’Article 22(1) ?
- Existe-t-il des limites générales devant être respectées dans le cadre d’une décision portant sur le fait de prendre ou de faire appliquer une décision de manière automatisée ?
- Quelle est l’importance de la responsabilité du gouvernement dans l’utilisation de processus décisionnels automatisés (par des logiciels ou algorithmes spécifiques) ?
Le processus décisionnel automatisé et le contrôle automatisé ont des conséquences sur le plan juridique pour les personnes concernées. Les juges doivent également être en mesure d’examiner la légitimité d’une décision sur la base de toutes les informations pertinentes. Les questions à l’ordre du jour des discussions sur ce sujet étaient les suivantes :
- Quelles sont les conséquences de l’utilisation croissante de processus décisionnels automatisés sur le cadre d’évaluation des juges administratifs ?
- Quelles sont les conséquences de l’utilisation croissante de processus décisionnels automatisés sur le droit de procédure administrative ?
- Quelles sont les conséquences de l’utilisation croissante de processus décisionnels automatisés sur les exigences imposées à la fonction de juge ?
Après cette intervention générale, les représentants de France et d’Estonie ont formulé certaines remarques. Le vice-président Sauvé a souligné l’importance du thème abordé cet après-midi compte tenu de l’augmentation du nombre de décisions fondées sur des algorithmes. Il est important que les juges réalisent la manière dont les différents juges y réagissent et prennent en compte les exigences fondamentales et l’équilibre des pouvoirs. Les représentants estoniens ont expliqué que la législation estonienne ne réglementait pas l’utilisation d’algorithmes dans les prises de décision et ont soulevé la question de savoir si une exigence de transparence générale devait être favorisée et développée, plutôt que d’examiner la transparence séparément pour chaque décision.
Ces brèves remarques ont été suivies d’une présentation du Juge Nicolatos de la Cour suprême de Chypre. Le Juge Nicolatos a expliqué qu’à l’ère du e-gouvernement, il n’est pas surprenant que le langage du gouvernement ait connu une évolution rapide car les systèmes automatisés sont utilisés au quotidien. De nombreuses administrations fiscales du monde entier ont mis en place des sites Internet permettant aux contribuables de déposer leurs déclarations annuelles. Les systèmes automatisés présentent incontestablement certains avantages. Toutefois, leur usage s’est répandu et ils ont été utilisés par des organes administratifs dans la sphère du droit public bien avant que quiconque puisse mener des réflexions approfondies sur leur corrélation avec les principes de droit administratif. L’utilisation de ces systèmes par le gouvernement est aujourd’hui bien établie, mais soulève des questions quant aux mesures nécessaires pour garantir leur compatibilité avec les principes fondamentaux du droit administratif qui sous-tendent une société démocratique régie par l’État de droit, tels que la transparence, la bonne foi, l’État de droit, la légalité, la prise de décision raisonnée, l’égalité de traitement, la proportionnalité, l’impartialité, l’abus de pouvoir ou la bonne administration. Le Juge Nicolatos a ensuite axé son propos sur un certain nombre de principes clés dont le principe de la légalité et l’exigence de transparence au regard du nouveau Règlement Général sur la Protection des Données, qui contient des dispositions relatives à la prise de décision automatisée et au profilage, qui peut faire partie d’un processus décisionnel automatisé.
Le Juge Nicolatos a également souligné la nécessité de fonder les décisions administratives sur un raisonnement approprié. Pour que la juridiction puisse examiner de manière efficace une décision rendue par un organe administratif, son raisonnement doit être clair et sans ambiguïté et ne doit pas être général ou vague. Par ailleurs, les décisions automatisées générées par ordinateur ont remplacé le processus décisionnel basé sur l’appréciation discrétionnaire par des échanges de données et l’analyse de mégadonnées. Le Juge Nicolatos a fait part de son scepticisme en la matière et a également attiré l’attention sur les insuffisances des systèmes automatisés. L’une des plus grandes difficultés consiste à garantir l’exactitude, étant donné que le risque d’erreur de codage est réel. Les erreurs de programmation informatique peuvent donner lieu à des décisions erronées, éventuellement à grande échelle, si elles ne sont pas détectées. Pour illustrer son propos, il a expliqué que dans les affaires fiscales et de demandes d’asile, la Cour administrative de Chypre est compétente pour examiner à la fois la légalité et la justesse de la décision et peut remplacer la décision de l’administration par la sienne. Si une autorité publique utilise un système automatisé préprogrammé, en tout ou partie, pour prendre une décision, le juge administratif devra posséder certaines connaissances sur le système utilisé pour prendre la décision. De ce fait, l’ordre judiciaire devra s’adapter aux nouvelles exigences et difficultés inhérentes à un paysage numérique moderne.
Pour conclure, le Juge Nicolatos a expliqué que les systèmes existants, avec leur équilibre des pouvoirs intégré, devaient être intégrés, voire reproduits, dans tout nouveau système avant d’adhérer totalement au nouveau monde de l’automatisation.
Cette intervention a été suivie par une présentation de M. Paris, membre du conseil d’État français, qui a commencé par présenter le code source d’un algorithme avant de demander aux participants combien d’entre eux le comprenaient. Aucun des participants n’a compris le code source. Cette ligne de code était utilisée dans le système éducatif français pour l’orientation – et de fait l’inscription – des lycéens pour leur première année d’études à l’université. Le conseil d’État français ne s’est pas prononcé sur ce code source, mais a annulé une circulaire établie par le ministre de l’Éducation nationale, qui constituait le fondement de l’application de cet algorithme. Cette annulation a été possible car une association de juristes et de programmateurs est intervenue dans une procédure judiciaire pour demander le code source afin de pouvoir en déterminer les modalités de fonctionnement. Cet exemple ne met en évidence qu’un seul élément important du débat portant sur l’utilisation des algorithmes. Si les citoyens ou les juges ne sont pas en mesure de lire et de comprendre des algorithmes complexes, le principe de légalité pourrait s’en trouver compromis.
Bien entendu, les juges peuvent toujours faire appel à un expert ; cependant, deux aspects doivent être pris en compte. Premièrement, les algorithmes ont aujourd’hui atteint un tel niveau de complexité que, de manière générale, seuls leurs créateurs sont capables d’en identifier le contenu. Deuxièmement, les êtres humains ne sont pas en mesure de saisir le raisonnement des algorithmes qui fonctionnement selon un raisonnement autonome, comme l’intelligence artificielle. Nous pouvons déterminer les principes qui constituent la base des algorithmes utilisés par l’administration publique, mais la vraie question consiste à savoir comment les citoyens et les juges peuvent s’assurer que ces algorithmes respectent les principes et règles prédéfinis si nous n’en comprenons pas le raisonnement. Le conseiller d’État Paris a apporté quelques réponses à ce dilemme.
La première réponse réside dans la formation et la sensibilisation des citoyens et des juges. La seconde piste est la réappropriation par les organismes publics de la création des algorithmes utilisés par l’administration publique. Les organismes publics doivent créer leurs propres algorithmes. Étant donné que nous ne sommes pas en mesure de contrôler directement le contenu de l’algorithme, il est essentiel que nous ayons la possibilité de garantir l’inclusion de tous les éléments juridiques et éthiques au cours du processus de création des algorithmes. Il en résulte au moins trois implications. Premièrement, le créateur de l’algorithme utilisé par l’administration publique doit être soumis à des codes de déontologie alignés sur la législation contraignante ou la législation non contraignante. Deuxièmement, il est nécessaire de prévoir des mécanismes de conformité permettant aux juges de s’assurer de la compatibilité avec les règles et principes d’ontologie. Troisièmement, il est nécessaire de garantir la totale transparence des algorithmes utilisés par l’administration publique. De ce fait, tous les éléments concernant le fonctionnement des algorithmes, y compris le code source, doivent être rendus publics. La transparence permettra à la société civile de vérifier la légalité des algorithmes et pourra aider le juge. Les membres de la société civile peuvent jouer le rôle d’experts et contrôler l’utilisation des algorithmes.
Le conseiller d’État Paris a conclu son intervention en soulignant le fait que les questions liées au thème de la prise de décision automatisée concernaient le monde entier. Il a illustré son propos en citant la loi locale n° 49 de 2018 de la ville de New York concernant les systèmes de décision automatisés utilisés par des agences. La législation locale permettait la création d’un groupe de travail (task force) chargé de formuler des recommandations sur le caractère éthique de l’utilisation de décisions automatisées fondées sur des algorithmes.
Faute de temps, le débat qui a suivi ces deux interventions a été bref mais animé. Les discussions ont porté principalement sur les besoins en formation des juges dans le domaine de la technologie de l’information. Les juges doivent-ils « s’y connaître » dans ces domaines ? Et qu’en est-il du rôle des experts qui interviennent régulièrement dans les procédures ? M. Carbone, membre du conseil d’État italien, a expliqué que les algorithmes étaient fixes – bien que toujours régis par l’homme – et que cela soulevait des questions quant au pouvoir des juges. Pour illustrer ce point, il a présenté une affaire italienne portant sur l’affectation des professeurs des écoles. Après leur recrutement, les professeurs des écoles sont classés en fonction de certains critères puis affectés à des écoles dans toute l’Italie. L’affectation étant déterminée sur la base d’un algorithme, les professeurs des écoles étaient parfois affectés à des écoles situées d’autres parties du pays. Un certain nombre de décisions ont été contestées et portées devant les tribunaux administratifs. Ces tribunaux ont jugé que le recours à une procédure automatisée ne limitait pas la compétence des juges, que ce soit en matière de procédure ou sur le fond. De ce fait, l’algorithme sous-jacent devait être conforme au principe de transparence et la décision devait être raisonnable. Les juges ont l’obligation de comprendre l’algorithme et ses conséquences.
|