Catégories
Art et photographie

Les chercheurs publient un outil gratuit de confidentialité des images Fawkes alimenté par l'IA pour «  masquer '' les visages: Digital Photography Review

Des chercheurs du SAND Lab de l'Université de Chicago ont détaillé le développement d'un nouvel outil appelé Fawkes qui modifie subtilement les images de manière à les rendre inutilisables pour la reconnaissance faciale. L'outil intervient au milieu des préoccupations croissantes concernant la confidentialité et d'un éditorial détaillant le raclage secret de milliards d'images en ligne pour créer des modèles de reconnaissance faciale.

En termes simples, Fawkes est un outil de camouflage qui modifie les images de manière imperceptible à l'œil humain. L'idée est que n'importe qui peut télécharger l'outil, qui a été rendu public, pour d'abord masquer ses images avant de les publier en ligne. Le nom a été inspiré par Guy Fawkes, dont le masque a été popularisé par le film V pour Vendetta.

L'algorithme de Fawkes n'empêche pas un algorithme de reconnaissance faciale d'analyser un visage dans une image numérique – au lieu de cela, il enseigne à l'algorithme une «version très déformée» de ce à quoi ressemble le visage de cette personne sans déclencher d'erreurs; il ne peut pas non plus, selon les chercheurs, être «facilement détecté» par les machines.

En alimentant l'algorithme avec ces images masquées, cela perturbe subtilement la tentative de la machine d'apprendre le visage de cette personne, la rendant moins capable de les identifier lorsqu'elle est présentée avec des images dégagées. Les chercheurs affirment que leur algorithme de dissimulation est «  100% efficace '' par rapport aux modèles de reconnaissance faciale de premier plan, notamment Amazon Rekognition et Microsoft Azure Face API.

De plus, l'équipe affirme que leur algorithme de perturbation s'est avéré «efficace» dans de nombreux environnements grâce à des tests approfondis. L'utilisation d'une telle technologie serait beaucoup plus subtile et difficile à éviter pour les autorités par rapport à des concepts plus conventionnels comme la peinture faciale, les lunettes équipées d'IR, les patchs causant des distorsions ou la manipulation manuelle de ses propres images.

Ces méthodes remarquables sont connues sous le nom d '«attaques d'évasion», tandis que les Fumseck et autres outils similaires sont appelés «attaques empoisonnées». Comme son nom l'indique, la méthode «empoisonne» les données elles-mêmes afin qu'elles «attaquent» les modèles d'apprentissage en profondeur qui tentent de les utiliser, provoquant une perturbation plus généralisée du modèle global.

Les chercheurs notent que Fawkes est plus sophistiqué qu'une simple attaque d'étiquette, affirmant que le but de leur utilité est «  d'induire en erreur plutôt que de frustrer ''. Alors qu'une simple corruption des données dans une image pourrait permettre aux entreprises de détecter et de supprimer les images de leur modèle de formation, les images masquées «  empoisonnent '' imperceptiblement le modèle d'une manière qui ne peut pas être facilement détectée ou supprimée.

En conséquence, le modèle de reconnaissance faciale perd assez rapidement sa précision et sa capacité à détecter cette personne dans d'autres images et l'observation en temps réel tombe à un faible niveau.

Comment Fawkes y parvient-il? Les chercheurs expliquent:

Les modèles DNN sont formés pour identifier et extraire des caractéristiques (souvent cachées) dans les données d'entrée et les utiliser pour effectuer la classification. Pourtant, leur capacité à identifier les fonctionnalités est facilement perturbée par les attaques d'empoisonnement des données pendant l'entraînement du modèle, où de petites perturbations sur les données d'entraînement avec une étiquette particulière peuvent changer la vue du modèle sur les fonctionnalités identifiant de manière unique …

Mais comment déterminer quelles perturbations (nous les appelons "Capes") à appliquer aux (exemple fictif) des photos d'Alice? Une cape efficace apprendrait à un modèle de reconnaissance faciale à associer Alice à des caractéristiques erronées qui sont assez différentes des caractéristiques réelles définissant Alice. Intuitivement, plus ces caractéristiques erronées sont dissemblables ou distinctes de la vraie Alice, moins le modèle sera capable de reconnaître la vraie Alice.

L'objectif est de décourager les entreprises de récupérer des images numériques sur Internet sans autorisation et de les utiliser pour créer des modèles de reconnaissance faciale pour des personnes inconscientes, un énorme problème de confidentialité qui a entraîné des appels à une réglementation plus stricte, entre autres. Les chercheurs pointent spécifiquement sur l'article du NYT susmentionné, qui détaille le travail d'une société appelée Clearview.ai.

Selon le rapport, Clearview a collecté plus de trois milliards d'images à partir de diverses sources en ligne, y compris de tout, de l'application financière Venmo aux plates-formes évidentes comme Facebook et moins évidentes comme YouTube. Les images sont utilisées pour créer des modèles de reconnaissance faciale pour des millions de personnes qui ne sont pas au courant de leur inclusion dans le système. Le système est ensuite vendu à des agences gouvernementales qui peuvent l'utiliser pour identifier les personnes dans des vidéos et des images.

De nombreux experts ont critiqué Clearview.ai pour son impact sur la vie privée et l'apparente facilitation d'un avenir dans lequel la personne moyenne peut être facilement identifiée par toute personne ayant les moyens de payer pour l'accès. De toute évidence, de tels outils pourraient être utilisés par des gouvernements oppressifs pour identifier et cibler des individus spécifiques, ainsi que pour des utilisations plus insidieuses comme la surveillance constante d'une population.

En utilisant une méthode comme Fawkes, les personnes qui ne possèdent que des compétences techniques de base ont la possibilité d '«empoisonner» les modèles de reconnaissance faciale non autorisés formés spécifiquement pour les reconnaître. Les chercheurs notent cependant qu'il existe des limites à ces technologies, ce qui rend difficile d'empoisonner suffisamment ces systèmes.

L'une de ces images a été masquée à l'aide de l'outil Fawkes.

Par exemple, la personne peut être en mesure de masquer des images qu'elle partage d'elle-même en ligne, mais elle peut avoir du mal à contrôler les images d'elle-même publiées par d'autres. Les images publiées par des associés connus comme des amis peuvent permettre à ces entreprises de former leurs modèles, bien qu'il soit difficile de savoir s'il existe la possibilité de localiser rapidement des personnes dans des images tierces (à des fins de formation) de manière automatisée et à grande échelle. .

Toute entité capable de rassembler suffisamment d'images de la cible pourrait entraîner un modèle suffisamment pour qu'une minorité d'images masquées introduites dans celui-ci puisse être incapable de réduire considérablement sa précision. Les individus peuvent tenter d'atténuer ce problème en partageant des images plus masquées d'eux-mêmes de manière identifiable et en prenant d'autres mesures pour réduire leur présence non masquée en ligne, comme supprimer les étiquettes de nom des images, utiliser les lois du «  droit à l'oubli '' et simplement demander à leurs amis et à leur famille. s'abstenir de partager des images de soi en ligne.

Une autre limitation est que Fawkes – qui a été rendu disponible au téléchargement pour Linux, macOS et Windows gratuitement – ne fonctionne que sur les images. Cela signifie qu'il n'est pas en mesure de proposer un camouflage pour les vidéos, qui peuvent être téléchargées et analysées en images fixes individuelles. Ces images pourraient ensuite être introduites dans un modèle de formation pour l'aider à apprendre à identifier cette personne, ce qui devient de plus en plus possible car la technologie de caméra de niveau grand public offre un accès généralisé à des capacités d'enregistrement vidéo haute résolution et de haute qualité.

Malgré cette limitation, Fawkes reste un excellent outil pour le public, permettant à la personne moyenne ayant accès à un ordinateur et la possibilité de cliquer sur quelques boutons pour prendre plus de contrôle sur leur vie privée.

Un PDF complet de l'étude de masquage d'image de Fawkes est disponible sur le site Web du SAND Lab ici.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *