ALICEM, la reconnaissance faciale s'impose en France - Décryptualité du 14 octobre 2019
Titre : Décryptualité du 15 octobre 2019 - ALICEM, la reconnaissance faciale s'impose en France
Intervenant·e·s : Magali - Manu - Luc
Lieu : April - Studio d'enregistrement
Date : 14 octobre 2019
Durée : 14 min
Écouter ou télécharger le podcast
Revue de presse pour la semaine 41 de l'année 2019
Licence de la transcription : Verbatim
Illustration : Schéma d'une modélisation 3D pouvant être issue d'une reconnaissance faciale, Mschepens — Travail personnel - Licence Creative Commons BY-SA 4.0
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.
Description
ALICEM, l'appli de reconnaissance faciale obligatoire pour se forger une identité numérique sur France Connect qui fait du bruit.
Transcription
Luc : Décryptualité.
Voix off de Nico : Le podcast qui décrypte l’actualité des libertés numériques.
Luc : Semaine 41. Salut Manu.
Manu : Salut Mag.
Mag : Salut Luc.
Luc : Tu nous as fait une grosse revue de presse cette semaine.
Manu : Ah oui, gigantesque.
Mag : Basta!, « Mastodon, Diaspora, PeerTube… : des alternatives « libres » face aux géants du Net et à leur monde orwellien », par Alexis Moreau et Rachel Knaebel.
Manu : Ce n’est pas la première fois qu’on voit ce genre d’article mais ça fait toujours plaisir, on met en avant la décentralisation, l’utilisation d’outils libres qui se mettent en concurrence avec les outils centralisés propriétaires et ce sont souvent des outils qui sont portés par Framasoft.
Mag : Le Monde Informatique, « Les codes sources des logiciels du secteur public publiés », par Dominique Filippone.
Manu : Ça parle d’une administration, Etalab, donc des gens très sympathiques parce qu’ils poussent pour que les administrations publient un petit peu tout ce qu’elles font. On aime beaucoup, il y a plein de choses qui sorties grâce à eux, les impôts par exemple ou des algorithmes pour les choix sur les filières éducatives.
Mag : Parcoursup.
Manu : Oui, exactement.
Mag : Cryptonaute, « L'UNICEF lance un crypto-fonds pour financer des technologies open source - Cryptonaute », par Vivien Coronel.
Manu : Une sorte d’initiative bizarre, je trouve, parce qu’effectivement utiliser des monnaies décentralisées, chiffrées, genre Bitcoin, pourquoi pas, les utiliser pour financer et en faire des fonds ! Mais là c’est l’UNICEF qui propose et qui met ça en avant, ça fait quand même un peu étrange. Mais bon !
Mag : Les Echos, « Intelligence artificielle : peut-on se passer des Gafam ?», par Jean-Luc Marini.
Manu : Le sujet est assez étrange parce qu’effectivement les GAFAM et l’intelligence artificielle, on peut voir des relations ; il y a beaucoup d’efforts, beaucoup de chercheurs, de scientifiques, d’ingénieurs qui bossent à faire de l’intelligence artificielle, en tout cas ce qu’on en voit aujourd’hui, ce qui est, en gros, des statistiques très avancées, c’est comme ça que je le vois, mais il y a cette optique qui dit « on a plein de choses pour faire des intelligences artificielles, mais on a surtout les GAFAM, ce sont eux qui sont en pointe, ce sont qui les mettent en avant, ce sont eux qui travaillent le plus et ils les mettent à notre disposition par exemple sous la forme de boîtiers vocaux accessibles chez nous ». Ils revendiquent ça comme de l’intelligence artificielle.
Luc : Il y a quand même des logiciels d’intelligence artificielle, notamment de Google.
Manu : Ça s'appelle TensorFlow1.
Luc : Qu’on peut télécharger et qui sont en licence libre.
Manu : Qui sont libres pour l’essentiel mais, et c’est là-dessus que l’article n’est pas mauvais, ils font bien remarquer que certes c’est libre, mais derrière la force de frappe et la force de travail c’est avant tout les GAFAM, donc il faut quand même se méfier un petit peu de ce qui se passe là-dedans.
Mag : ZDNet France, « Linus Torvalds n'a pas peur de Microsoft », par Steven J. Vaughan-Nichols.
Manu : Pas nouveau comme sujet. Microsoft aime le Libre, officiellement. Ils incluent même un noyau Linux dans leur système d’exploitation depuis assez peu de temps, ça inquiète pas mal de gens, mais ça n’inquiète pas les gens qui font le noyau Linux. Eux, en gros, ils sont plutôt contents, je pense que ça leur fait bizarre, et ils le disent, de voir Microsoft débarquer chez eux, mais en même temps ils n’ont pas peur parce qu’ils se sentent protégés par la GPL qui est la licence qui couvre le code et fait en sorte que Microsoft n’est qu’un acteur, une entreprise parmi d’autres qui contribue au noyau. Effectivement ça en inquiète certains mais pas eux en tout cas, ils sont confiants.
Mag : Banque des Territoires, « La feuille de route de la Dinsic marquée par le retour des grands projets informatiques », par la rédaction.
Manu : La DINSIC c’est encore une administration assez forte qui travaille sur les différents ministères, les différentes administrations, pour mettre en avant des logiciels et, notamment, des logiciels libres. On attend ce genre de mise en chantier, ça nous intéresse et on essaye de suivre un petit peu, donc on va voir s’ils en sortent quelque chose d’autre ; par exemple le Référentiel général d’interopérabilité fait partie de ce genre de choses qui peuvent en ressortir.
Mag : Developpez.com, « Les développeurs du projet GNU s'opposent au maintien du leadership de Richard M. Stallman », par Stan Adkens.
Manu : Il y a encore du mouvement dans l‘associatif et dans les projets libres. Là c’est une branche, la branche du projet GNU qui travaillait souvent avec la Free Software Foundation, la FSF.
Luc : Ils sont complètement liés !
Manu : Oui, carrément ! Ils ont notamment été fondés par Richard Stallman dans les deux cas. Richard Stallman a abandonné son poste à la FSF, mais il poursuit au sein du projet GNU qui est un projet d’informaticiens et d’informatique, c’est du développement pur et dur, mais il y a 27 personnes qui ont dit : « Non, ce n’est pas normal qu’il continue son rôle de leader, on ne veut plus de lui ! » La remarque c’est de dire que dans son projet où il y a beaucoup de développeurs, ce n’est pas tant que ça ! Ça fait quand même un petit peu bizarre et lui continue, il a encore son poste de dirigeant.
Mag : Et le dernier article Siècle Digital, « France : la reconnaissance faciale bientôt imposée pour accéder aux services publics ? », par Geneviève Fournier.
Luc : Et ce sera notre sujet de la semaine. Ça fait un peu de bruit, quand même, cette histoire de reconnaissance faciale. Cette initiative, c’est quoi ?
Manu : C’est pour permettre de se connecter aux différents services de l’État en utilisant son visage plutôt qu’en utilisant une clef, un mot de passe ou des cartes à puce.
Luc : C’est pour se faire une identité numérique vis-à-vis de l’État, donc c’est obligatoire d’avoir une reconnaissance faciale. Il faut avoir un téléphone ou une tablette avec une caméra et on n’a pas le choix, c’est impératif si on veut obtenir cette identité. C’est pour les gens qui ont notamment des passeports biométriques ou des choses comme ça, il faut passer par cette étape.
Manu : Ils mettent en avant le fait que ce ne sera pas une nécessité pour l’instant. C’est une application qui s’appelle ALICEM.
Luc : Ce n’est pas une nécessité de le faire, tu n’es pas obligé d’avoir ton identité numérique, mais si tu veux ton identité numérique tu es obligé de faire de la reconnaissance faciale.
Manu : Oui, tout à fait. Là on va encore pouvoir passer par autre chose, par d’autres chemins en attendant que ça s’impose, mais ça fait un petit peu mal parce que la reconnaissance faciale est un outil qui peut emporter avec lui beaucoup de problèmes, problèmes sur la vie privée, problèmes d’erreurs dont on va parler, ça peut être inquiétant.
Luc : On pense à la Chine et notamment à Hong-Kong où on sait que la reconnaissance faciale couplée avec la vidéosurveillance, etc., est extrêmement utilisée, donc en Chine les manifestants utilisent leurs parapluies, mettent des masques pour qu’on ne puisse pas les reconnaître. On voit qu’il peut y avoir plein d’applications de ce type-là.
Mag : ALICEM c’est l’application qui s’appelle Authentification en ligne certifiée sur mobile, donc ça veut dire qu’on la trouvera sûrement sur les Play Store et les Apple Store.
Luc : Pour le moment ce n’est que Google
Mag : Voilà. Peut-être pas sur les stores que nous nous utilisons.
Luc : Absolument pas !
Mag : Et ça passera par une plateforme qui s’appelle FranceConnect2, qui donnera accès à plus de 500 services publics.
Manu : Cette plateforme existe déjà, on est dessus pour différents services, elle est plutôt pratique, elle permet de faire une sorte de pseudo SSO [Single Sign-On] donc une sorte d’identification centrale.
Luc : On se connecte une fois, ce que proposent déjà les GAFAM.
Manu : Largement !
Luc : Ce truc c’est juste une application de la reconnaissance faciale. Le décret a été attaqué par La Quadrature du Net3 et la CNIL a réagi assez négativement en disant que ce n’est pas compatible avec le RGPD [Règlement général sur la protection des données].
Manu : Qui, lui, couvre justement les problématiques d’accès aux données des utilisateurs, aux données des citoyens et qui les protège face aux administrations ou aux entreprises.
Luc : Un des principes c’est de dire : on doit donner son accord, on doit donner son accord explicite et savoir ce qui va être fait avec les données et on n’a pas le choix puisque là c’est obligatoire si on veut avoir ce système d’identité numérique.
Manu : On peut parler de la reconnaissance faciale comme d’une technologie, c’est quelque chose qui apparaît depuis quelques années, dont on parle aux côtés de l’intelligence artificielle puisque c’est souvent en lien. Il faut beaucoup de statistiques, beaucoup d’algorithmes très complexes pour faire de la reconnaissance visuelle, de la reconnaissance graphique et, malheureusement, ça marche mal en général.
Luc : On en parle beaucoup quand ça marche bien, on va peut-être commencer par là. On dit « on peut reconnaître les gens avec leurs lunettes, il y a même des trucs où on arrive à reconnaître les gens de dos, avec des différences d’âge », des tas de choses comme ça.
Manu : Avec la barbe, sans la barbe ; bronzé, pas bronzé ; avec une casquette, sans casquette !
Luc : Exactement. Mais une problématique récurrente dans tous ces systèmes dits intelligents, etc., c’est qu’ils peuvent être très performants sur certaines choses, qu’on va en général mettre avant, mais souvent on tait le moment où ils se plantent lamentablement. Et c’est quelque chose que tous ces systèmes font, c’est-à-dire que ces trucs n’ont aucun bon sens. On a du mal à l'imaginer, c’est que souvent ça peut être très performant, mais ça n’a aucun bon sens et de temps en temps ça va se prendre les pieds dans le tapis de façon magistrale et ça va foncer droit dans le mur sur une erreur qu’un humain ne ferait pas.
Manu : Ce genre d’outil a été utilisé par exemple pour de la conduite automatique, pour reconnaître les humains qui traversent la route et, en fait, juste un simple ballon avec un smiley dessiné dessus faisait que le système prenait ce ballon pour un humain et allait potentiellement générer un accident.
Luc : Récemment j’ai vu qu’il y a une association américaine qui a pris toutes les principales bagnoles du marché avec des systèmes de freinage automatique, ils ont mis un mannequin sur roulettes, ils l’ont fait traverser devant les voitures, le mannequin s’est fait exploser dans quasi 40 ou 50 % des cas, et dès lors qu’il commençait à ne plus y avoir de lumière, on montait à 60, 75 et en fait c’est un carnage ; ça peut même très mal marcher.
Sur la reconnaissance faciale on a eu pas mal de cas qui disaient notamment qu’en fonction du génotype des gens.
Manu : Le géno quoi ?
Luc : Aux États-Unis les Noirs notamment sont mal reconnus donc les gens sont confondus, ou les Asiatiques pareil, même problème.
Manu : Tu sais d’où ça vient ?
Luc : Aux États-Unis ils vont travailler avec des bases de données, puisqu’on doit prendre des tas de visages pour faire apprendre aux systèmes, et, dans leurs bases de données, ils ont plein de photos de gens qui sont blancs.
Manu : Et souvent les développeurs sont blancs et ils doivent utiliser des outils sur eux-mêmes.
Luc : C’est probable. En Chine, on suppose que leurs systèmes sont vachement efficaces pour reconnaître les Asiatiques. En fait, effectivement, ça ne marche pas toujours, il y a ce qu’on appelle les faux positifs. Les faux positifs c’est « oui, oui, c’était bien Manu ». Le système va faire ça et moi, ce qui me semble intéressant là-dedans, c’est qu’en gros à chaque époque on a toujours un peu un oracle auquel on va croire en disant « ce truc-là nous donne la vérité ».
Manu : On vient d’avoir le cas ce week-end avec de Ligonnès qui aurait été reconnu grâce à ses empreintes digitales et les empreintes digitales, à une époque, ça faisait foi, c’était la garantie que l’identité était bien reconnue.
Mag : Moi je préférais quand c’était la graphologie !
Manu : Par exemple.
Mag : Ou le calcul de la taille du cerveau aussi.
Luc : Oui, c’était un petit peu avant, c’était bien aussi.
Manu : la phrénologie.
Luc : Du coup on a toujours ce risque-là, avec des systèmes qui vont être plus ou moins performants, mais il suffit qu’on y croie pour que ce soit vrai en fait et ça, c’est assez inquiétant.
Manu : Sachant que là, sur les empreintes digitales, elles étaient bien reconnues, mais partiellement parce que ce n’est jamais à 100 % même quand c’est la même personne qui essaie de faire reconnaître ses empreintes. Avec l’ADN on a quelque chose de beaucoup plus précis, mais ce n’est pas non plus garanti à 100 %.
Luc : Non. Il y a quelques années j’avais lu un article qui disait que dans les labos qui font les études d’ADN pour la police, eh bien ils essaient de tirer les coûts au minimum.
Manu : On peut supposer que la reconnaissance faciale, du même ordre que ces autres technologies, se base sur certaines données et qu’on puisse avoir des faux positifs assez facilement. Je sais qu’ils vont regarder, par exemple, la distance entre les yeux. Eh bien la distance entre les yeux, je suppose qu’il y a plein d’humains qui ont la même, donc parmi les données qu’on va remonter, celle-ci n’est pas discriminante complètement.
Luc : Comme j’aime bien le dire, il n’y a pas d’homme moyen, donc tu prends quelques critères, même trois ou quatre critères, tu arrives déjà à identifier les gens de façon très efficace.
Manu : Mais tu as toujours le risque de tomber quand même sur quelqu’un qui est le semblable, le jumeau, le sosie de cette personne sur ces caractéristiques-là.
Luc : En plus le système peut se planter parce que la mesure n’est pas parfaite, la caméra n’est pas nécessairement de bonne qualité, la lumière n’est pas nécessairement bonne, enfin il peut se passer plein de choses.
Manu : En général, d’un point de vue technique, on est content quand ce genre de système fonctionne à 99 %. 99 %, dans la plupart des cas, on est heureux, c’est vraiment une grosse réussite.
Mag : Mais 1 % sur la population française c’est beaucoup, non ?
Manu : Ça commence à devenir beaucoup et si, de ces 1 %, va découler par exemple une garde à vue, eh bien on peut supposer qu’il va y avoir beaucoup de traumatismes qui peuvent être générés par tout ça.
Luc : Pour le moment, sur toutes les expérimentations qui sont faites en France, on n’est pas sur l’ensemble de la population. Donc ce système ALICEM c’est un truc, mais il y a plein d’autres expérimentations qui ont été faites en France avec la reconnaissance faciale, qui sont en général des trucs a posteriori sur des images qui sont enregistrées par des caméras. Récemment il y a notamment quelqu’un qui a volé un camion, qui a été repéré par ce système-là : dans la base des délinquants on a repris les vidéos et on a utilisé ça pour retrouver la personne.
Il y a pas mal d’éléments. Derrière ça pousse beaucoup parce que les industriels disent : « C’est la techno de demain il ne faut pas qu’on prenne de retard dessus, donc on veut de la reconnaissance faciale pour pouvoir avoir des marchés, pour pouvoir développer des trucs et ne pas être dépendants des États-Unis. » Donc, en fait, il y a cette espèce de mélange en disant « oui, vous allez voir avec les Jeux olympiques, tout le monde va trouver la reconnaissance faciale sympa ». Mais effectivement, c’est problématique.
Manu : Sachant qu’il est question de l’utiliser dans beaucoup de contextes. Là c’est la sécurité, mais on peut aussi en parler commercialement : rentrer dans un magasin et être reconnu automatiquement à l’entrée du magasin ça fait partie des choses qui pourraient être utilisées. Aller mettre de l’essence dans sa voiture et ne plus avoir à sortir sa carte bancaire parce que la machine vous a reconnu, elle sait que c’est vous et elle va débiter votre compte parce que vous étiez déjà inscrit. Ça fait partie des usages qu’on peut envisager à assez court terme.
Mag : Ça veut dire qu’on risque d’être débité pour des achats qu’on n’a pas effectués.
Manu : Justement, s'il y a 1 % d’erreurs, eh bien oui, par exemple ça peut arriver dans 1 % des cas.
Luc : Donc on peut aussi imaginer qu’on puisse truquer ces vidéos, il y a les deepfakes qui vont être de plus en plus faciles à faire avec le temps. On peut être certains que d’ici quelques années, probablement moins de cinq ans…
Manu : On pourra projeter tous nos visages dans des circonstances choisies.
Luc : Dans n'importe quelle vidéo. Et dès lors qu’il y a de la vidéosurveillance partout, les gens ont leurs caméras un peu partout, etc., on pourra imaginer que n’importe qui puisse truquer des vidéos et piéger des gens.
Manu : Des entreprises, des gens qui nous veulent du mal, il y a vraiment tous les cas possibles et imaginables.
Luc : De la même façon aujourd’hui, depuis la Seconde Guerre mondiale, on n’a pas le droit de faire des statistiques sur les races par exemple. Or, on pourrait imaginer assez facilement avec une base de données très complète passer un algorithme pour faire nos statistiques assez rapidement en étudiant des banques d’images ou des banques de vidéosurveillance, des choses comme ça.
Manu : Il y a de gros potentiels dans un sens ou dans un autre, des potentiels qui, à moi, paraissent intéressants techniquement, mais effectivement, il y a de gros potentiels pour des dérapages et c’est ça qu’on voudrait éviter. J’espère que La Quadrature va bien avancer sur le sujet et va bien se battre pour défendre nos libertés.
Luc : Très bien. Merci. On se retrouve la semaine prochaine.
Mag : Salut !
Manu : À la semaine prochaine !