Imaginez entrer dans une salle d'audience où, aux côtés du juge, un système d'intelligence artificielle analyse des données, identifie des précédents, signale les issues possibles et suggère des verdicts. L'idée d'un algorithme assistant un juge n'est plus de la science-fiction. Dans plusieurs pays du monde, des tribunaux expérimentent de nouveaux outils qui épaulent les juges en automatisant certaines étapes de leur travail. L'intérêt est évident : réduction de l'arriéré judiciaire, décisions plus rapides, moins d'erreurs administratives … mais cette promesse d'efficacité soulève aussi de profondes questions sur le sens de la justice, sur les responsables et sur les critères d'équité à respecter.

Les problèmes

L'un des principaux problèmes réside dans les biais, ces préjugés implicites présents dans les données . Les algorithmes, incapables de raisonner comme les humains, identifient des schémas dans les données sur lesquelles ils ont été entraînés. Si ces données reflètent des discriminations ou des inégalités historiques, le système risque de les reproduire et, dans certains cas, de les amplifier considérablement. Ce problème est particulièrement sensible en droit pénal et administratif, où les outils d'évaluation du risque de récidive ou de recommandation de peines pourraient, involontairement, perpétuer des injustices. La perception du public évolue selon le degré d'influence de l'IA sur le processus : on a tendance à faire confiance aux outils lorsqu'ils servent à recueillir des informations, mais on devient plus sceptique lorsque ces outils commencent à suggérer des décisions concrètes.

Un autre enjeu crucial est la transparence. La justice ne saurait se fonder uniquement sur le résultat, mais aussi sur le processus : la manière dont une décision a été prise doit être claire pour les parties concernées et pour la société. Nombre de systèmes d'IA fonctionnent comme des « boîtes noires » : ils produisent un résultat sans expliquer comment ils sont parvenus à cette conclusion. Cela remet en question non seulement la possibilité de contester une décision, mais aussi l'indépendance du juge et la légitimité même du tribunal. Si un juge se fie aveuglément aux recommandations d'un algorithme sans les vérifier, il risque de compromettre le principe d'impartialité et la protection des droits des personnes concernées.

La question de la responsabilité est tout aussi importante. Si un algorithme contribue à suggérer un verdict, qui est responsable en cas d'erreur ou d'injustice ? Le juge, le programmeur, le data scientist ou l'institution qui a décidé d'utiliser l'outil ?

La doctrine juridique traditionnelle présuppose un décideur humain ; or, lorsque le processus décisionnel fait intervenir des machines complexes, le cadre juridique devient plus incertain. Certaines études expliquent que l’utilisation de l’IA est perçue comme acceptable lorsqu’elle sert à recueillir des informations ou à organiser des documents, mais beaucoup moins lorsqu’elle influe directement sur le résultat final. La frontière entre assistance et remplacement des juges humains est ténue et soulève de nombreuses questions éthiques et pratiques.

La valeur d'un juge humain ne réside pas seulement dans sa rapidité ou son analyse de données, mais aussi dans sa capacité à apprécier les circonstances individuelles, à exercer son pouvoir discrétionnaire, à concilier les principes et à interpréter les règles à la lumière des valeurs sociales. Dans certains systèmes juridiques, le procès lui-même revêt une valeur symbolique : l'interaction entre le juge, les parties et les avocats est indissociable de la notion de justice. Si un algorithme remplace cet élément, c'est bien plus que du temps qui disparaît : la perception de l'équité et de la légitimité du système s'en trouve altérée.

Les règles

Sur le plan réglementaire, les organisations internationales et les États s'efforcent de fournir des orientations claires. Le Conseil de l'Europe a publié des principes éthiques pour l'utilisation de l'IA dans la justice, soulignant que le contrôle doit rester humain et que la transparence est essentielle. Certaines juridictions ont adopté des règles exigeant la divulgation de l'utilisation d'outils automatisés ou limitant leur utilisation à des fins purement informatives. D'autres experts insistent sur l'importance d'audits modèles, d'une supervision continue, de contrôles périodiques et d'une définition claire des responsabilités en cas d'erreur.

Des exemples concrets illustrent l'ampleur de ces risques. Lors d'une audience pénale aux États-Unis, une vidéo générée par une intelligence artificielle a été présentée au tribunal. Cette vidéo montrait un message de la victime présumée à l'auteur présumé de l'infraction, suscitant des appels et des débats sur l'influence des contenus automatisés sur le jugement humain. Des outils d'évaluation du risque de récidive ont également mis en évidence que certaines catégories de prévenus étaient pénalisées plus sévèrement que d'autres, en fonction des données d'entraînement du modèle. Ces incidents soulignent que, sans surveillance ni contrôles adéquats, l'IA peut engendrer de nouvelles formes d'injustice au lieu de les prévenir.

Le débat s'étend également à la dimension culturelle : que signifie « juger » à l'ère où des algorithmes sophistiqués peuvent assister la prise de décision ? La technologie peut certes accroître l'efficacité et servir la justice, mais elle ne saurait remplacer la compréhension des valeurs, des motivations et des circonstances individuelles. Le défi consiste donc à trouver un juste milieu : utiliser les capacités de l'IA pour compléter le travail des juges humains sans pour autant déléguer entièrement la décision finale à une machine.

Pour les systèmes judiciaires, la voie à suivre comporte plusieurs volets. Premièrement, l'audit et l'évaluation des modèles utilisés, afin de garantir qu'ils soient entraînés avec des données fiables et impartiales. Deuxièmement, une supervision humaine constante : même lorsque l'IA formule des suggestions, le juge doit les vérifier, les interpréter et assumer la responsabilité du verdict. Enfin, la transparence envers les parties et le public est essentielle : les personnes mises en cause ont le droit de savoir comment et pourquoi une décision a été prise, notamment lorsque des machines interviennent dans le processus.

En définitive, l'intelligence artificielle n'est ni juge ni sujet de loi. L'humain demeure central, mais son rôle évolue : de créateur direct à conservateur, sélectionneur et interprète des données générées par machine. La frontière entre assistance et substitution reste ténue, et le risque de perdre la confiance du public dans le système judiciaire est réel si l'IA devient une autorité plutôt qu'un outil. Le véritable défi n'est pas seulement technologique, mais aussi culturel : comprendre comment intégrer les machines au système judiciaire sans compromettre l'équité, la responsabilité et le jugement humain. Si les tribunaux veulent tirer profit de l'innovation, ils doivent le faire avec discernement, en veillant à ce que la technologie reste une alliée et non un substitut, et en gardant à l'esprit que la justice n'est pas qu'un calcul, mais aussi une question d'empathie, d'évaluation et de jugement humain.

Rédigé par

Façonner la conversation

Avez-vous quelque chose à ajouter à cette histoire ? Des idées d'interviews ou d'angles à explorer ? Faites-nous savoir si vous souhaitez écrire une suite, un contrepoint ou partager une histoire similaire.