
#371 - mars/avril 2024
NO REPLY : Votre dossier est incomplet
Numérisation des services publics
#371 - mars/avril 2024
Le droit de contrôler
Les algorithmes ne tombent pas du ciel. Ce sont des formules mathématiques conçues par des humains. A la différence des lois, les algorithmes des services publics sont élaborés sans débat démocratique, ni transparence, ni publication, encore moins de recours possibles. Or, ils sont porteurs de choix politiques et certains peuvent entrainer des effets discriminatoires. Depuis 2007, au Centre de recherche information, droit et société (CRIDS) de l’Université de Namur, Elise Degrave questionne l’usage du numérique au regard des lois, et alerte.
Qu’est-ce que le droit du numérique ?
Élise Degrave : Comment faire pour que le numérique reste un outil au service de la société et ne devienne pas le maître ? Comment faire, en particulier, pour ne pas tomber dans une société de la surveillance et de l’exclusion ? Parce que, si on n’y prête pas attention, le numérique peut menacer nos droits et libertés humaines garantis par la Constitution, tels que le droit de circuler, de se rassembler, du respect à la vie privée. Nous avons donc besoin de balises qui encadrent l’utilisation du numérique pour organiser le vivre ensemble dans une société avec des robots, au sens de processus automatisé.
Je travaille depuis quinze ans sur la question de la gestion des données privées par l’État, appelée aussi e-Gouvernement. Jusqu’à la crise sanitaire qui a donné un coup de projecteur sur cette matière, le sujet n’intéressait pas beaucoup de chercheurs, ni le grand public, ni les médias. On s’est soudain rendu compte que la gestion des données privées bouscule le droit, comporte des risques potentiels et des abus de fait.
Ma recherche consiste beaucoup à investiguer. Pour avoir accès à l’information, dont une partie est cachée, il me faut utiliser le droit, introduire des recours. Je travaille aussi avec des gens dans l’ombre qui m’aident à accéder aux coulisses ; le numérique est invisible et l’État se réfugie derrière des remparts comme des intérêts économiques ou l’intérêt général à protéger. D’où son refus de donner des informations – ce qui, à mon sens, est parfois exagéré.
On fait passer le numérique pour une question technique. Or, le numérique est surtout une question démocratique vu l’impact qu’il a à tous les niveaux de la vie des citoyens. Dans la loi « pandémie », il était initialement prévu la possibilité de rassembler, en cas de crise sanitaire, toutes nos données et de les utiliser dans un but de surveillance intensive. Cette disposition a été supprimée après mon audition au parlement. J’essaie ainsi de jouer un rôle de lanceuse d’alerte.
Ce qui est technologiquement faisable n’est pas démocratiquement acceptable, dites-vous. A quoi le citoyen doit-il être vigilant ?
Élise Degrave : Je crois au numérique à sa juste place, et non au tout numérique. Or, la tendance est au numérique rouleau compresseur. A la question « pourquoi tout numériser?”, les politiques répondent “pour faire des économies”… sans toutefois avancer de chiffres. L’argument est donc un peu léger.
Etre perdu : voilà le point commun de tout le monde devant le numérique. De notre naissance à notre mort, nous sommes obligés de donner nos informations à l’État, sur notre famille, notre santé, notre habitation, notre travail, nos loisirs,… Nous n’avons n’a pas le choix – contrairement avec Google ou Facebook.
Jusqu’à présent, nous donnons ces quantités d’informations sans nous rebeller, parce que nous avons confiance dans le fait que l’État les utilise correctement. Mais pour avoir confiance, il faut savoir ce qui se passe.
Lors de la crise sanitaire, cette confiance a été mise à mal. Par exemple, on a dû signaler quand on se rendait dans une église, une mosquée ou une synagogue – ce qui touche à la liberté de culte. Le fait de se sentir surveillé a pu empêcher des gens de ne pas fréquenter tel endroit, bouleversant ainsi la liberté de circuler. Que fait l’Etat de ces données, où les met-il ? Il faut avoir conscience que, dès que l’État possède des données, il est tenté de les réutiliser. Il s’agit d’être clair avec le citoyen et de garantir que l’usage ne se retournera pas contre les personnes.
On est bien d’accord que c’est normal de donner ses informations à l’État. Car le système permet par exemple d’avoir une déclaration fiscale en ligne ou des allocations familiales payées automatiquement. Mon discours n’est pas de revenir au parchemin. Mon propos se base sur le pacte de confiance. On donne ses informations, conscient qu’on peut être contrôlé, voire sanctionné. Cependant, l’usage de ces informations doit être balisé par des lois pour empêcher que les outils numériques enfreignent les lois.
Un exemple. L’année passée, le gouvernement hongrois a décidé de publier sur le site de l’administration fiscale le nom des personnes en retard de paiement d’impôts. Heureusement, un recours devant la Cour européenne des Droits de l’Homme l’en a empêché. Rien n’indique que notre gouvernement ne devienne pas un jour illibéral comme en Hongrie actuelle. Un ministre wallon a d’ailleurs fait circuler un projet de loi censé permettre de transférer les données de santé des Belges aux sociétés d’assurance, soi-disant pour des motifs d’efficacité – il y a toujours une bonne raison a priori. Mais en creusant, on voit pointer le problème: si ce projet de loi était passé, les assurances auraient pu adapter les primes en fonction de l’état de santé de leurs clients. Le projet a été enterré, mais il pourrait ressortir.
Autre exemple qui pourrait arriver chez nous aussi : en France, il existe un fichier “transsexuel” transmis à la police, soi-disant pour simplifier les enquêtes sur les demandes de séjour. Ce n’est pas rassurant, connaissant le problème de transphobie dans la police et mis en évidence par des études.
Le numérique dans les services publics devrait être choisi et non contraint. Mais sommes-nous tous égaux par rapport à ce choix, pour peu qu’il existe ?
Élise Degrave: La discrimination, c’est le fait de traiter différemment des catégories de personnes semblables; mais c’est aussi traiter de la même façon des catégories différentes. Or, le tout numérique applique la même mesure à des catégories de personnes différentes; ça ne marche pas. D’où l’intérêt de consacrer le choix.
Mais on n’est pas tous égaux face au choix. A ce propos, “fracture numérique” sont des termes malheureux parce qu’ils culpabilisent. Cela sous-entend que la fracture numérique concernerait toujours les pauvres, les personnes âgées ou handicapées. On construit ainsi une catégorie à part qui demande assistance. En réalité, de plus en plus de gens sont en difficulté. Le numérique est tellement omniprésent que tout le monde, à un moment donné, est bloqué dans une procédure en ligne, subit du stress, ne sait pas à qui s’adresser. Le citoyen doit non seulement se brancher au numérique mais aussi réaliser la procédure administrative – ce qui est censé être le job des fonctionnaires.
De plus, des tas de sites ou d’outils numériques sont mal conçus; même si on est compétent, on est soumis à des bugs informatiques. C’est l’État qui devrait mettre en place un outil qu’on peut utiliser facilement, et non la personne qui doit compenser le fait que l’outil n’est pas au point.
Pour bien faire, la nouvelle législature devrait prendre en compte le droit d’utiliser, ou non, l’internet. Cette décision aurait des conséquences, notamment celle de mettre en place des mesures comme une réduction de prix pour l’accès à l’internet, voire la gratuité, la mise à disposition d’ordinateurs dans des centres, pour ceux qui veulent utiliser l’internet. Mais il faudrait aussi consacrer le droit d’avoir une alternative au numérique via une ligne téléphonique et/ou un guichet avec un minimum d’heures d’ouverture. C’est ce qu’on appelle une obligation positive de l’Etat : si les citoyens ont le droit de ne pas utiliser le numérique, l’Etat est obligé de mettre en place des alternatives humaines. Il faudrait aussi que ce droit soit consacré dans la Constitution, et qu’ensuite des normes fixent le nombre de guichets par commune en proportion à sa population, par exemple. J’y crois très fort car je sens une tension dans la société – il suffit de voir les actions du mouvement contre Bruxelles numérique. C’est la première fois en Belgique que des citoyens manifestent contre la numérisation de la société. Ça montre à quel point il s’agit d’une question démocratique.
On entend souvent dire que le numérique est une affaire de technique ; les politiques eux-mêmes la délèguent à des consultants «pour ne pas rater le train de la modernisation» de l’administration. Dans les cabinets, y compris celui du ministre de la Transition numérique, il arrive que des collaborateurs émanent de l’univers de la consultance et du management, là où le numérique a tendance à être considéré comme une fin en soi. Je constate que la question de savoir si ces outils sont avantageux pour le citoyen, par exemple, n’est pas suffisamment débattue. Si le numérique aidait tout le monde, des manifestants ne dénonceraient pas l’exclusion d’un Bruxellois sur deux.
De manière flagrante, le débat parlementaire est absent… Au fait, qui crée les algorithmes du secteur public, qui les contrôle, tant en amont qu’en aval ?
Élise Degrave : Dans tout débat démocratique éclairé et éclairant, on dit: “C’est quand on veut qu’on peut”. A l’opposé, aux yeux des techniciens, “c’est quand on peut qu’on veut”: si l’outil marche, on le vend ! Et comme la numérisation des services publics est entre les mains de techniciens et de consultants qui vendent leur outil, il y a un réel déficit démocratique, d’autant plus qu’on ignore qui sont les concepteurs.
Le développeur fait un choix humain avec sa propre sensibilité, avec ses propres stéréotypes. C’est extrêmement difficile, voire impossible, de traduire une règle de droit dans un algorithme. Le droit n’est pas fait pour être appliqué par des machines ; il est fait pour être appliqué raisonnablement par un humain sur base de concepts volontairement flous. Par exemple, comment traduire en formule mathématique l’” intention de frauder”. Il y a nécessairement un choix humain derrière l’algorithme. Puisqu’on ne sait pas qui est cet humain, on ignore quel est son choix. Qui décide encore, en fait? Le développeur ou le député? C’est le développeur par ce qu’il met en place – ce qui est contraire à nos droits.
Aux Pays-Bas, un scandale lié aux allocations familiales a permis de se rendre compte qu’un algorithme était paramétré notamment pour identifier les bénéficiaires portant un nom à consonnance étrangère.
Les migrants ont ainsi été contrôlés en priorité et obligés de démontrer qu’ils n’avaient pas fraudé durant une procédure stressante. Cette façon de faire est discriminatoire. A l’instar de la loi, l’algorithme a un impact sur toute la société ! Je réclame depuis des années la carte d’identité des algorithmes car le citoyen a le droit de savoir qui a fait cet algorithme, selon quels paramètres, quel nom il porte. Alors que je travaille depuis quinze ans sur cette matière, je n’ai toujours pas la liste des algorithmes. Je ne connais que ceux que je trouve par moi-même.
Une démocratie qui fonctionne bien, c’est un parlement qui fait bien son travail. Il faudrait commencer par se poser les bonnes questions: quel est l’objectif du numérique ? Le numérique est-il vraiment le bon moyen pour parvenir à tel objectif ? Quels seront les effets négatifs ?
L’été dernier, j’ai déposé un recours à la CADA (Commission d’Accès aux Documents Administratifs). Ma démarche a d’abord permis de démontrer qu’un algorithme est un document administratif. Je rappelle que chacun dispose du droit fondamental d’accéder aux documents administratifs. La CADA m’a ensuite donné raison : aucun service public ne peut refuser cet accès aux citoyens au seul motif abstrait que ce serait contraire aux intérêts de l’État. La CADA a demandé ainsi que chaque refus soit justifié précisément sur la base d’éléments concrets.
A l’instar de l’AFSCA qui contrôle la chaîne alimentaire, il faudrait créer une autorité indépendante de contrôle des algorithmes. Des décisions importantes qui concernent tout le monde sont pour le moment hors de contrôle. On ne peut pas accepter dans un Etat de droit d’être gouverné par des algorithmes secrets et non contrôlés. Il faudra sans doute des années pour faire bouger les lignes. Mais nous sommes de plus en plus de chercheurs à le défendre et cela en vaut la peine pour que le numérique soit mis à la bonne place, celle d’outil au service de la société.
Propos recueillis par Nathalie Caprioli