Dans un contexte européen marqué par des procédures civiles et pénales extrêmement lentes, la technologie apparaît comme une réponse pragmatique. En effet, l'automatisation des tâches répétitives, le tri des dossiers, le repérage des incohérences et la consultation de la jurisprudence peuvent libérer du temps pour les juges afin qu'ils puissent se consacrer aux aspects plus complexes des affaires. Cependant, l'introduction de l'IA dans les tribunaux soulève plusieurs questions qui dépassent le simple raccourcissement des procès. Le principal problème réside dans la transparence.

Dans les systèmes européens, la justice ne se limite pas au résultat final ; il est essentiel que le processus y menant soit compréhensible et, surtout, vérifiable. Or, de nombreux systèmes d’intelligence artificielle fonctionnent comme des « boîtes noires », produisant des résultats sans refléter pleinement les critères utilisés.

Un exemple concret permettant de mieux comprendre ce problème d'intelligence artificielle est le système « SyRI » aux Pays-Bas. Cet algorithme, développé par le gouvernement néerlandais pour détecter les fraudes potentielles aux prestations sociales, combine de nombreuses bases de données gouvernementales, telles que les données fiscales, les registres fonciers, l'immatriculation des véhicules et les informations relatives à l'emploi et aux revenus. Ces données sont ensuite analysées automatiquement afin d'attribuer un niveau de risque aux citoyens. Par exemple, si une personne est jugée « à risque », elle est signalée aux autorités pour complément d'enquête .

Le principal problème de ce mécanisme réside dans son manque de transparence . L'algorithme n'était pas accessible au public et les autorités n'ont pas pleinement expliqué quelles données étaient combinées, les critères de risque, ni comment les profils suspects étaient construits. De ce fait, les citoyens étaient incapables de contester les décisions du système. En 2020, la Cour de La Haye a déclaré l'utilisation du système illégale . Selon elle, SyRI violait le droit à la vie privée et ne garantissait pas suffisamment la transparence du processus décisionnel.

Si les parties à un processus ne comprennent pas comment un algorithme a contribué à la décision, toute possibilité de contestation est compromise. Cela peut, par exemple, engendrer un risque de discrimination indirecte. Les algorithmes apprennent à partir de données historiques : si les données qu’ils exploitent reflètent des inégalités sociales ou des pratiques discriminatoires qui se sont développées au fil du temps, le système risque de les reproduire.

En matière pénale, les outils d'estimation du risque de récidive ou de proposition de mesures conservatoires pourraient pénaliser de manière disproportionnée certains prévenus appartenant à une catégorie spécifique. Ceci constituerait une violation du principe européen d'égalité et de l'interdiction de toute discrimination. La question de la responsabilité se pose également. La tradition juridique européenne confie la décision à un être humain, qui en assume la responsabilité et doit justifier ses actes.

Conscient du risque encouru, le Conseil de l’Europe a adopté des lignes directrices éthiques pour l’utilisation de l’IA dans les systèmes judiciaires, soulignant le rôle central du contrôle humain, la non-discrimination et, surtout, la transparence.

Dans le même temps, l'Union européenne a adopté le règlement relatif à l'intelligence artificielle (IA) , qui classe tous les systèmes utilisés dans le domaine de la justice comme présentant un risque élevé, imposant des obligations en matière de supervision, d'évaluation et de protection des droits fondamentaux. Selon l'Union européenne, la technologie peut appuyer la fonction judiciaire, mais non la remplacer entièrement.

Enfin, il existe une dimension plus culturelle. Le jugement ne se résume pas à un simple calcul probabiliste. Dans les systèmes européens, le procès constitue également un espace d'écoute, de débat et de mobilisation citoyenne. Confier cette tâche entièrement à un algorithme reviendrait à réduire la justice à une opération technique, la privant ainsi de la dimension humaine qui en constitue l'essence même.

Rédigé par

Façonner la conversation

Avez-vous quelque chose à ajouter à cette histoire ? Des idées d'interviews ou d'angles à explorer ? Faites-nous savoir si vous souhaitez écrire une suite, un contrepoint ou partager une histoire similaire.