Tribunes

Les risques juridiques de la décision algorithmique

Les risques juridiques de la décision algorithmique
Christiane Feral-Schuhl est avocate associée du Cabinet Feral-Schuhl / Sainte-Marie.

L'avocate Christiane Féral-Schuhl rappelle que l'intelligence artificielle n'est rien de plus que la reproduction de l'intelligence de ses concepteurs et ses décisions reproduisent un passé pas forcément idéal.

PublicitéAujourd'hui, le numérique est partout, tout le temps. Il s'impose, désormais incontournable, particulièrement dans les circonstances exceptionnelles que nous connaissons actuellement, en pleine crise du Covid-19. Il permet de continuer à travailler à distance pour ceux qui le peuvent, de faire tourner notre économie, de communiquer et de rester connecté avec l'information. Il ouvre de nouvelles perspectives, à titre professionnel bien sûr, mais aussi dans le domaine privé, pour faire du sport, s'occuper des enfants, pour se former, étudier...
Et demain ?

Demain, il est prévu d'utiliser l'intelligence artificielle pour construire un référentiel indicatif d'indemnisation des préjudices corporels afin de constituer un support à la décision des juges. En effet le décret dit « Datajust » du 27 mars 2020 [Décret n° 2020-356, 27 mars 2020 : JO, 29 mars 2020] prévoit le développement d'un dispositif algorithmique permettant de recenser, par type de préjudice, les montants demandés et offerts par les parties à un litige ainsi que les montants alloués aux victimes en indemnisation de leur préjudice corporel dans les décisions de justice rendues en appel par les juridictions administratives et judiciaires sur la période 2017 à 2019.

Des sujets d'étonnement

On peut d'abord s'étonner de la publication de ce décret publié un dimanche, alors que le pays entier est mobilisé pour lutter contre le virus COVID-19, au moment même où toutes nos énergies sont absorbées par le maintien impératif des services publics de la justice et alors que le Président de la République nous avait annoncé que seuls des textes en lien direct avec l'état d'urgence sanitaire seraient pris.

On peut également s'étonner que s'agissant d'un traitement de données à caractère personnel, un certain nombre de garanties prévues par le RGPD n'ait pas vocation à s'appliquer, sans que la Cnil n'y ait trouvé d'ailleurs à redire [Cnil, délibération n°2020-002 portant avis sur le projet de décret]. Le décret écarte expressément le droit d'information « compte tenu des efforts disproportionnés que représenterait la fourniture des informations mentionnées aux paragraphes 1 à 4 de l'article 14 du » RGPD ; de même, il exclut le droit d'opposition (Règl., art. 21) pour « garantir l'objectif d'intérêt public général d'accessibilité du droit » (Règl., art. 23).

Des sujets d'inquiétude

Mais on s'inquiétera surtout d'un dispositif, présenté comme simplement expérimental, alors qu'il préfigure la mise en oeuvre de la justice prédictive. De quoi s'agit-il ? Pour fonctionner, l'intelligence artificielle a besoin de données, d'un algorithme et d'une puissance de calcul.
La puissance de calcul, c'est la machine, purement et simplement.

PublicitéMais les données qu'on met à disposition et l'algorithme qui va les traiter : ce sont des êtres humains qui les pensent, les conçoivent et les testent. Or, leurs choix - qui s'imposeront à tous - sont empreints d'une certaine subjectivité : parce que l'être humain est subjectif. Et cette subjectivité s'exprime dans des biais cognitifs. Ils résultent de notre éducation, de notre expérience, de notre culture, de notre condition sociale... . Ils ne sont pas la conséquence d'une construction volontaire. Ils sont. Et ils se retrouvent dans le produit de nos inventions : l'intelligence artificielle n'est rien de plus que la reproduction de l'intelligence de ses concepteurs.

Des craintes de décisions injustes

Alors ces biais imprègnent les données d'abord. Ces données nous les produisons, nous les structurons et nous disons à la machine comment les analyser. Une base de données de décisions de justice est composée de données issues d'une jurisprudence construite par des femmes et des hommes. Les décisions rendues sont donc susceptibles d'être empreintes de biais. Par exemple, une femme salariée, statistiquement moins payée qu'un homme, verra son préjudice corporel moins indemnisé qu'un homme. Pourquoi ? Parce qu'une partie au moins de l'indemnisation des victimes repose sur la rémunération perçue avant l'accident.

Par ailleurs, l'algorithme, en faisant ressortir des résultats fondés sur ces données, les reproduira. Il s'entrainera sur des données du passé pour dire le présent : il aura donc toujours un temps de retard. Il ne prédira rien. Il ne fera que répéter. Les algorithmes n'ont d'intérêt que si la loi et la jurisprudence restent stables. Toute évolution de la loi risque de rendre tout référentiel d'indemnisation caduc.
Au-delà des données, c'est la logique décisionnelle de l'algorithme qui peut également poser questions. Quels sont les critères d'analyse retenus ? Qui décide ? Un individu. Qui contrôle ? Personne.

Des risques de discrimination

Comme une suspicion de biais discriminant est difficile non seulement à identifier mais plus encore à réparer, il est impératif que les critères d'analyse des algorithmes soient envisagés dans le respect de l'éthique, dès la conception. D'où l'importance d'exiger que les règles éthiques proposées par le Conseil de l'Europe soient un pré-requis.

Il appartient enfin de rappeler que le rôle de l'avocat est précisément de veiller à ce que la situation particulière d'une personne ne soit jamais occultée au profit de la statistique.

Partager cet article

Commentaire

Avatar
Envoyer
Ecrire un commentaire...

INFORMATION

Vous devez être connecté à votre compte CIO pour poster un commentaire.

Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire

    Publicité

    Abonnez-vous à la newsletter CIO

    Recevez notre newsletter tous les lundis et jeudis