Dans un système traditionnel, le juge pèse les éléments de fait et de droit pour trancher les litiges. Cependant, l'essor fulgurant de l'IA soulève la question de savoir si nous pouvons confier cette tâche à une machine. Pour nos trois avocats, « la question est dépassée, car la « justice artificielle » est déjà une réalité. Source d'efficacité incomparable, elle pourra donner ou redonner aux juges humains ce qui leur manque : du temps et des moyens pour juger les cas dans lesquels ils sont indispensables. A condition de le vouloir et de maîtriser les risques. »
Aux États-Unis et au Royaume-Uni, les cours de justice ont déjà défini le rôle des « AI.ssistants », préfigurant ainsi une nouvelle ère dans le domaine juridique. En France, la Cour de cassation a commencé à utiliser l'IA pour diriger les pourvois vers des procédures simplifiées ou approfondies selon la complexité des affaires. L'Estonie a déjà mis en place un système où des litiges de faible valeur sont jugés par des plateformes. En Chine, des tribunaux artificiels jugent les litiges qui découlent des transactions sur internet. Cependant, la question cruciale demeure : comment distinguer les cas qui peuvent être traités par une IA de ceux nécessitant l'intervention d'un juge humain ?
Les risques liés à l'utilisation de l'IA dans la justice sont réels. ChatGPT étant du même avis : « l'utilisation de l'IA dans la justice comporte des risques, tels que les biais algorithmiques, la protection de la vie privée et la transparence des décisions. Il est essentiel de mettre en place des réglementations et des mécanismes de supervision pour atténuer ces risques ».
Affaire à suivre...
Pour retrouver la tribune de Claire Lavarde, Philippe Métais et Elodie Valette : https://urlz.fr/pPUX