Les nouvelles technologies génèrent de nombreuses craintes. Pour tenter de faire face à la reconnaissance faciale, des chercheurs belges ont imaginé un stratagème : faire porter à des testeurs, une pancarte sur laquelle une image de foule est collée, pour déjouer l’attention des intelligences artificielles. Ça fonctionne !
Alors que la reconnaissance faciale couvrira bientôt 79% des aéroports américains, des ingénieurs de l’université belge KU Leuven veulent s’opposer au dictat de cette technologie. Comment déjouer ces algorithmes hyper-puissants et potentiellement dangereux pour nos sociétés ? C’est la question à laquelle ils ont tenté de répondre en imaginant un stratagème « basique » pour perturber l’IA en question, du nom de YOLOv2.
L’idée ? Une pancarte sur laquelle est collée la photo d’une foule. Les chercheurs ont réussi à prouver dans cette vidéo que l’intelligence artificielle était totalement perturbée par cette photo. Elle n’est plus en mesure d’identifier les individus « réels ». Les chercheurs précisent que : « cette technique pourrait rendre une personne virtuellement invisible pour les caméras de surveillance automatisée ». Vous comprendrez mieux avec cette vidéo :
Des méthodes archaïques pour faire face à des technologies hyper puissantes. Cela peut paraître dérisoire et pourtant ça fonctionne. L’idée est de faire face à la puisse d’États non-démocratiques comme la Chine, qui introduisent la reconnaissance faciale à tous les niveaux. En effet, le géant asiatique annonçait en mars dernier que cette technologie serait introduite pour payer le métro.
Inscrivez-vous à la newsletter
En vous inscrivant vous acceptez notre politique de protection des données personnelles.
Les intelligences artificielles spécialisées dans la reconnaisse visuelle sont très présentes de nos jours. À titre d’exemple, elle a déjà été utilisée dans un lycée français pour filtrer les élèves et limiter les intrusions. Ce fut également le cas à Londres en décembre dernier, dans le cadre d’un essai pour la police britannique. Évidement, les algorithmes ne sont pas mauvais en eux-mêmes. Le problème, c’est l’usage qui en est fait.