Le scoring dans le viseur des autorités européennes
Depuis l'adoption de l'IA Act le 13 mars 2024, les IA fondées sur le scoring sont interdites. Le dispositif confirme la décision de la CJUE de décembre, qui a considéré la pratique comme une décision individuelle automatisée et l'a, en conséquence, jugée illégale.
PublicitéLes systèmes d'intelligence artificielle fondés sur le scoring sont désormais expressément interdits par l'AI Act qui vient d'être adopté par le Parlement européen le 13 mars 2024. Au sens du texte européen, le scoring est l'évaluation ou la classification de personnes physiques ou de groupes d'individus fondée sur leur comportement social ou leurs caractéristiques personnelles, causant un traitement préjudiciable ou défavorable à ces personnes (AI Act, article 5.1, c).
Ce dispositif vient confirmer la position exprimée par la Cour de Justice de l'Union européenne (CJUE) qui, par deux arrêts importants du 7 décembre 2023, a jugé illégal le credit scoring, dès lors qu'il doit être considéré comme « une décision individuelle automatisée » interdite par le RGPD lorsqu'il joue un rôle déterminant pour, comme dans le cas d'espèce, l'octroi de crédits.
Dans la première affaire (C-634/21), la question portait sur la fourniture par une société à ses partenaires d'informations relatives à la solvabilité d'individus, établies sur la base d'un pronostic sur la probabilité du comportement futur du requérant (« score »). C'est dans ce contexte que ce dernier s'est vu refuser l'octroi d'un prêt par le tiers.
Une pratique courante dans les établissements bancaires
Dans la seconde affaire (C-26/22), deux requérants demandaient à cette même société l'effacement des données les concernant car ils bénéficiaient de décisions de libération de reliquat de leurs dettes, ce que la société a refusé. En conservant de telles données pendant trois ans, bien au-delà de la durée de conservation du registre public d'insolvabilité (six mois), elle pénalisait les personnes concernées qui faisaient l'objet d'une évaluation négative de solvabilité.
Le scoring, souvent utilisé par les établissements bancaires, consiste à affecter un score à un client ou un prospect, résultant d'une probabilité de défaillance. Il permet d'identifier les bons clients et ceux qui ont un profil garantissant un remboursement sans difficulté ou au contraire, de repérer et d'exclure les clients à risques. Il est également utilisé pour des opérations de prospection commerciale.
Conformément à l'article 4 du RGPD, il s'agit d'une « forme de traitement automatisé de données à caractère personnel consistant à utiliser ces données à caractère personnel pour évaluer certains aspects personnels relatifs à une personne physique, notamment pour analyser ou prédire des éléments concernant le rendement au travail, la situation économique, la santé, les préférences personnelles, les intérêts, la fiabilité, le comportement, la localisation ou les déplacements de cette personne physique. »
Le droit de ne pas faire l'objet d'une décision individuelle automatisée
PublicitéLes juges européens ont considéré qu'une telle pratique était interdite en application de l'article 22 du RGPD qui consacre le droit de chaque individu à s'opposer à une décision fondée sur un traitement automatisé dès lors qu'il entraîne « des effets juridiques » à son égard ou « l'affecte de manière significative ».
En effet, le scoring reposant sur des données standards, il ne saurait refléter la situation réelle d'une personne ; à titre d'exemple, une demande de prêt pourrait être refusée à un candidat sur la base de ses données standards, alors même qu'il bénéficie de sources de revenus complémentaires qui lui permettraient de rembourser le prêt demandé.
C'est pour prévenir de tels risques que le RGPD (art. 22 al 2) a prévu que chaque personne a le droit de ne pas faire l'objet d'une décision individuelle automatisée, sauf si elle y consent, si c'est nécessaire à la conclusion ou à l'exécution d'un contrat ou si c'est autorisé par le droit de l'Union ou le droit de l'État membre auquel le responsable de traitement est soumis.
Dans ce contexte, sans en préciser la teneur, la CJUE rappelle que des garanties appropriées doivent être mises en place afin d'assurer un traitement équitable et transparent par le biais de procédures mathématiques ou statistiques adéquates aux fins de profilage, et de mesures techniques et organisationnelles appropriées réduisant le risque d'erreur.
Ces mesures devraient inclure à minima la possibilité pour la personne concernée d'obtenir une intervention humaine, une information spécifique, notamment sur la méthode de calcul et les facteurs, ainsi que des procédures et des mesures pour prévenir les erreurs ou les inexactitudes.
Par ailleurs, lorsque ses données ont fait l'objet d'un traitement illicite, la personne concernée a le droit d'obtenir du responsable du traitement leur effacement, dans les meilleurs délais (RGPD, article 17).
Au vu de ce qui précède, nul doute que certaines pratiques vont devoir changer, notamment dans le secteur bancaire et dans celui des assurances, lorsque le scoring joue un rôle déterminant pour identifier les bons clients ou, au contraire, pour repérer et exclure les clients « à risques ».
Article rédigé par
Christiane Féral-Schuhl, cofondatrice du cabinet FÉRAL
Christiane Féral-Schuhl est avocate associée du cabinet FÉRAL. Depuis plus de 35 ans, elle exerce dans le secteur du droit du numérique, des données personnelles et de la propriété intellectuelle. Elle est également inscrite sur la liste des médiateurs auprès de différents organismes (OMPI, CMAP, Equanim) ainsi que sur la liste des médiateurs de la Cour d'Appel de Paris et du Barreau du Québec (en matière civile, commerciale et travail). Elle a été nommée seconde vice-présidente du Conseil national de la Médiation (2023-2026).
Elle a publié plusieurs ouvrages et de nombreux articles dans ses domaines d'expertise. Dont, tout récemment, « Adélaïde, lorsque l'intelligence artificielle casse les codes » (1ère BD Dalloz, 16 mai 2024) avec l'illustratrice Tiphaine Mary, également avocate.
Elle a présidé le Conseil National des Barreaux (2018-2020) et le Barreau de Paris (2012- 2013). Elle a également co-présidé avec le député Christian Paul la Commission parlementaire sur le droit et les libertés à l'âge du numérique et a siégé au Haut Conseil à l'égalité entre les femmes et les hommes (2013-2015) et au Conseil Supérieur des tribunaux administratifs et des cours d'appel administratives (CSTA CAA -2015-2017).
Suivez l'auteur sur Linked In, Twitter
Commentaire
INFORMATION
Vous devez être connecté à votre compte CIO pour poster un commentaire.
Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire