3 septembre 2020

Les dangers de la reconnaissance faciale : le vrai du faux

par Margaux Legras-Maillet

La reconnaissance faciale est aujourd’hui largement utilisée et révèle ses premiers biais: surveillance policière, récupération des données, instrumentalisation de la population. En France, malgré un encadrement juridique “robuste”, des inquiétudes persistent. Décryptage. 

La ville de Portland (Oregon) aux Etats-Unis vient d’interdir l’usage de la reconnaissance faciale dans l’espace public et les entreprises privées. Elle emboîte ainsi le pas à San Francisco. De l’autre côté du Pacifique, la Chine a au contraire de plus en plus recours au traitement de données biométriques jusque dans les salles de classes pour contrôler l’assiduité des élèves. Jusqu’en France, les technophobes la perçoivent comme un outils de contrôle social. 

Pour Didier Baichère, député des Yvelines et rapporteur auprès de l’Office parlementaire des choix scientifiques et technologiques sur la reconnaissance faciale (OPCEST), “il ne faut pas dire n’importe quoi. Tous les arguments qui sont utilisés aujourd’hui par les détracteurs de la reconnaissance faciale sont des exemples qui viennent des USA et de la Chine.

Pour l’élu, il existe trois types d’utilisation de la reconnaissance faciale : la sécurité, la gestion de flux lors de grands événements ou dans les aéroports et l’aspect commercial. En France, le Règlement européen général sur la protection des données (RGPD), la loi informatique et liberté et la directive “Police-Justice” encadrent juridiquement ces utilisations selon ses usages. Malgré ces réglementations, l’inconfiance persiste. 

Lire aussi : « Reconnaissance faciale : un cadre législatif pour les expérimentations ? »

 

La surveillance policière

 

C’est l’un des aspects pointés du doigt par la Quadrature du net, une association qui défend les droits et libertés des citoyens sur Internet. Depuis 2013, la gendarmerie et la police peuvent utiliser la base de données du Traitement d’antécédents judiciaires (Taj), un fichier contenant des informations sur les personnes qui ont fait l’objet d’enquêtes. Il contient près de huit millions d’images. L’association craint que cela ne banalise un recours excessif à la reconnaissance faciale, pour les personnes fichées dans le Taj, à des fins de surveillance de la population. “Dans un cadre de manifestation, ça veut dire que plus personne ne peut vraiment manifester sans que la police puisse identifier précisément les gens. C’est la disparition de l’anonymat”, explique Arthur Messaud, juriste au sein de l’association. 

Ces traitements de données ont une visée pénale et sont donc régis par la directive “Police-Justice”. Seul un juge de la commission rogatoire peut demander le traitement des données biométriques d’un suspect. Un dispositif qui a notamment permis de reconnaître l’homme qui a commis l’attentat au couteau à Paris en mai 2018; et également “le terroriste à vélo” qui a posé un colis piégé à Lyon un an plus tard. En d’autres termes, il ne peut y avoir légalement de contrôle d’identité spontané de la police par reconnaissance faciale. 

En revanche, Didier Baichère conçoit que les biais humains ou les fautes individuelles existent. “Ils sont extrêmement importants”, affirme-t-il et appelle à communiquer à ce sujet. La Commission nationale de l’informatique et des libertés (Cnil) exprime des craintes similaires. En France, il n’existe aucun algorithme de reconnaissance faciale utilisant les réseaux de caméras de vidéosurveillance. Mais “si demain on vient à appliquer cette couche de logiciels de reconnaissance faciale sur les réseaux de vidéosurveillance ou de vidéo-protection préexistants, on vient  potentiellement créer un outils de surveillance de masse. Ces dispositifs pourraient permettre le suivi en temps réel des déplacements des personnes, sans interaction et donc sans qu’elles en aient même conscience”, redoute Marie Duboys-Fresney, juriste à la Cnil. 

 

La récupération des données

 

La Cnil met également en garde contre la récupération des données biométriques personnelles. La Cnil veille à cee de données centralisée ne soit déployée afin qu’aucun gabarit biométrique ne puisse être récupéré illégalement à des fins commerciales par exemple. 

Mais parce que le risque zéro n’existe pas, elle préconise au-delà des recommandations du RGPD, de conserver les données biométriques uniquement sur un support individuel – un ordinateur ou un portable personnel – limitant ainsi le nombre de personnes ayant accès à ces données. “Par exemple, explique Marie-Duboys-Fresney, quand vous utilisez de la reconnaissance faciale certains types de téléphones, vos données biométriques peuvent être stockées en local sur votre téléphone. L’opérateur ou le fabricant du téléphone n’y a donc pas accès.” 

Les données biométriques peuvent aussi être hébergées sur une plateforme, mais chiffrée. Un code est alors nécessaire pour y accéder. Par ailleurs, lorsque des outils de reconnaissance faciale sont expérimentés, les données recueillies auprès des personnes volontaires sont immédiatement supprimées après la fin du test. 

 

La population cobaye

 

Les détracteurs de la reconnaissance faciale critiquent également l’idée selon laquelle l’usage d’algorithmes de reconnaissance faciale utiliserait la population pour servir des intérêts économico-industriels. Pour Arthur Messaud, “les projets sont présentés comme des expérimentations qui ont pour but de rendre acceptable la reconnaissance faciale dans la population, en la faisant passer pour quelque chose d’utile, de sympa, de sexy. C’est typiquement le cas d’Alicem, ou de la reconnaissance faciale à l’entrée des lycées à Nice et à Marseille”, expérimentation retoquée par la Cnil en octobre dernier.

Les algorithmes de reconnaissance faciale sont en effet souvent développés par des industriels tels que Confidentia, une entreprise israélienne, qui a géré l’expérimentation de reconnaissance faciale au carnavale de Nice. La question de la souveraineté et de la sécurité nationale se pose alors.  Pour Juliette Chesnel, conseillère municipale EELV à Nice, “c’est toujours la balance entre sécurité et liberté. Ce sont des technologies qui sont données en développement à des entreprises privées. On se retrouve un peu dans 1984 !

« On se retrouve un peu dans 1984 ! »

Conscient des risques, l’OPCEST a appelé dans un rapport de juillet à tendre vers une reconnaissance faciale éthique. C’est-à-dire qui joue la carte de la transparence, notamment des industriels et qui prend en compte les imperfections des algorithmes. Cela consiste par exemple à faire en sorte que les algorithmes s’entraînent sur des échantillons représentatifs de la population pour limiter les erreurs. En 2016, Joy Buolamwini, chercheuse au MIT, a par exemple prouvé que les algorithmes reconnaissent plus facilement les hommes blancs que les femmes de couleur parce que pas assez entraînés sur certains profils

“Mon combat contre les algorithmes biaisés”, étude de Joy Buolamwini

Enfin, les pouvoirs publics misent sur la pédagogie, un point également souligné dans un rapport de l’OPCEST et partagé par la Cnil. Comme le précise Marie Duboys-Fresney, la commission recommande de “former tous les utilisateurs, tous les maillons de la chaîne algorithmique à l’éthique, rendre les systèmes compréhensibles, travailler le design des algorithmes pour qu’ils soient populaires et plus compréhensibles pour les personnes”.

Rapport de l’OPCEST

Laisser un commentaire

*

*

0

Your Cart