La décision a été rendue le 30 janvier dernier. Ce jour-là, il s’agissait de statuer sur une affaire concernant un enfant autiste. L’objet de la demande ? La mère l’enfant souhaitait que les consultations médicales soient gratuitement prises en charge, ainsi que les traitements médicaux et les frais de transports pour se rendre dans les centres de soins. La demandeuse, en conflit avec sa compagnie d’assurances, précisait ne pas disposer de moyens financiers pour régler ces frais. Le juge Juan Manuel Padilla a tranché en faveur de la demande de la mère de l’enfant et affirme avoir interrogé ChatGPT pour prendre sa décision. « Le but n’est pas de remplacer les juges », a souligné le juge colombien qui a consulté l’intelligence artificielle avant de statuer, « mais cela ouvre des perspectives immenses pour faciliter la rédaction de textes juridiques, la prise de décisions et améliorer le temps de réponse pour résorber l’arriéré judiciaire », a déclaré le juge Juan Manuel Padilla, sur une radio locale. 

Comment ChatGPT a facilité le travail du juge

Concrètement, le juge a posé à ChatGPT les questions suivantes : « un mineur autiste est-il exonéré des frais pour ses thérapies ? » et « la jurisprudence de la cour constitutionnelle a-t-elle pris des décisions favorables dans des affaires similaires ? ». L’IA a alors fourni une réponse en faveur de la mère de l’enfant : « selon la loi en vigueur en Colombie, les mineurs ayant reçu un diagnostic d’autisme sont exemptés du paiement des frais de leurs thérapies ». Le magistrat précise, par voie de presse, que ChatGPT n’a pas pris la décision à sa place. Il lui a simplement fait gagner du temps dans ses recherches, à l’identique d’une assistance humaine, mais plus rapide.

Faire confiance à un robot ?

L’initiative du magistrat colombien a suscité l’inquiétude de nombreux juristes qui estiment que les droits fondamentaux sont en danger sous le seul prétexte d’une efficacité supposée, mais aussi de plusieurs spécialistes en intelligence artificielle. Ainsi, pour Juan David Gutiérrez, expert en réglementation et gouvernance de l’intelligence artificielle à l’université de Rosario, « il n’est certainement pas responsable ou éthique » d’utiliser ChatGPT comme l’a fait le juge Padilla. Pour démontrer que le danger est réel, il explique qu’après avoir posé les mêmes questions que le juge au chatbot, il a obtenu des réponses différentes. OpenAI, la société à l’origine de ChatGPT, a quant à elle prévenu que son outil « pouvait faire des erreurs ».

Dans un rapport, la Commission européenne pour l'efficacité de la justice (CEPEJ) met aussi en garde : « l'impact de ces nouveaux outils doit être surveillé pour qu'ils n'aient pas de conséquences néfastes sur les principes d'équité, d'impartialité et d'indépendance de la justice ». En ce qui concerne plus particulièrement l’impartialité, l’article 6 de la Convention européenne des droits de l’Homme dispose que : « toute personne a droit à ce que sa cause soit entendue équitablement, publiquement et dans un délai raisonnable, par un tribunal indépendant et impartial ».

Un malaise certain qui divise

En Belgique, magistrats et avocats sont divisés. Entre la génération Uber Law et les fidèles des pavés Dalloz et Larcier, les prétoires deviennent les théâtres d’un choc des cultures. Un point commun se dessine toutefois en juste curseur : une aide à la décision n’est pas une prise de décision. « La justice n’est pas un algorithme », nous explique maître Philippe Klemm, avocat pénaliste. « Une décision de justice est bonne si elle est de qualité acceptable et rendue dans un délai raisonnable. L’écoute, la conscience et la catharsis que peut avoir un juge font partie de ces qualités à devoir préserver. La justice des hommes est rendue par des hommes contre des hommes, avec leurs forces et leurs faiblesses. Pour le justiciable, la priorité c’est d’être entendu, en ce compris dans ses émotions. Avec un juge-robot, la peine infligée risque de ne pas être comprise. Il y aura donc moins d’adhésion ».