IA - AI
Justice prédictive par IA : la France expérimente les algorithmes qui anticipent la récidive
Plusieurs tribunaux français expérimentent discrètement des outils d’intelligence artificielle pour évaluer le risque de récidive des prévenus lors des décisions de détention provisoire. Une expérimentation qui soulève des questions fondamentales sur l’équité, la présomption d’innocence et le rôle de l’algorithme dans la justice humaine.
Comment fonctionnent ces outils
Les algorithmes de justice prédictive analysent des données structurées : antécédents judiciaires, type d’infraction, situation sociale, emploi, logement, liens familiaux. Ils produisent un « score de risque » de récidive sur une échelle de 1 à 10, que les magistrats peuvent consulter — sans obligation de le suivre — lors de leurs délibérations. En France, l’outil utilisé (développé par une startup bordelaise sous contrat avec le Ministère de la Justice) génère un score accompagné d’une explication des facteurs les plus influents.
Les résultats préliminaires
Sur 18 mois d’expérimentation dans 4 juridictions pilotes, les résultats sont nuancés. La corrélation entre le score de risque élevé et la récidive effective est de 68% — supérieure à la seule intuition des magistrats (61% selon une étude de contrôle), mais loin d’être parfaite. Surtout, des biais ont été identifiés : le score surpondère certains critères socio-économiques qui corrèlent avec l’origine ethnique, reproduisant potentiellement des discriminations systémiques.
Le débat éthique et constitutionnel
La CNIL (Commission Nationale Informatique et Libertés) a émis un avis réservé sur l’expérimentation, pointant les risques de discrimination algorithmique et l’opacité des modèles. La Ligue des Droits de l’Homme a saisi le Conseil d’État. Les magistrats, eux, sont divisés : certains voient dans l’outil une aide précieuse, d’autres refusent catégoriquement que leur jugement soit influencé par un algorithme.