Vous vous souvenez de Flickr ? Cette plateforme de partage de photos qui a connu son heure de gloire durant les années 2000 ? Elle ne vous a pas oublié et continue d’exploiter vos données.
Si vous utilisez le Web depuis plus de 10 ans, il y a de fortes chances pour que vous ayez posté des photos sur la plateforme Flikr. Avant l’arrivée des mastodontes comme Facebook ou Instagram, c’était « the place to be » des photographes amateurs et professionnels. Créé en 2004, racheté par Yahoo en 2005, puis revendu en 2018 à SmugMug, le site contient près de 6 milliards de photographies. Or, c’est dans ce gigantesque réservoir de données qu’IBM est allé piocher pour alimenter son système de reconnaissance faciale.
Earlier this year IBM released a dataset of 1 million photos of people's faces designed to reduce bias in facial recognition software. I was surprised that the pictures were taken from Flickr & so investigated the origins of facial recognition datasets https://t.co/FN3jSxIwxP
— Olivia Solon (@oliviasolon) 12 mars 2019
Dans une enquête d'Olivia Solon publiée sur NBC, on découvre que la firme a extrait un million de photos sans vraiment se préoccuper du droit d’auteur ou du consentement des internautes. Un photographe qui a vu plus de 700 de ses images reprises par IBM, a indiqué que ses sujets ne savent pas que leurs visages étaient utilisés pour permettre le développement d’une intelligence artificielle. À ce petit jeu, personne n’est à l’abri et même Caterina Fake, la co-fondatrice de Flickr, a découvert qu’IBM utilisait plusieurs de ses photos pour alimenter son algorithme.
IBM is using 14 of my photos. IBM says people can opt out, but is making it impossible to do so. Thanks @oliviasolon for this story. Facial Recognition is a big big ethical issue these days--Tomorrow's episode of @ShouldThisExist is on this very topic!
— Caterina Fake (@Caterina) 13 mars 2019
Le scrapping : une pratique facile et (presque toujours) légale
IBM et Flickr sont loin d’être les seuls concernés par ce moissonnage de données. Certains spécialistes de la reconnaissance faciale utilisent vos vieilles photos postées sur Facebook et même vos vidéos YouTube. Pour entrainer les algorithmes. En 2017, la société Kaggle avait aussi provoqué un micro scandale en annonçant le scrapping de 40 000 photos issues de l’appli Tinder. Le créateur de la base de données, Stuart Colianni, avait profité de l’occasion pour indiquer que la plateforme de rencontre offrait un accès illimité aux images et rendait la collecte de données « extrêmement facile ». Pris la main de le sac, Tinder avait par la suite fait savoir que ce scrapping allait à l’encontre de leur politique de données. Mais d’un point de vue légal, les internautes sont souvent démunis. Pour justifier cette utilisation de photos sans consentement, IBM a mis en avant le « Fair Use » américain. Il s’agit d’un ensemble de règles de droit autorisant « l’usage raisonnable » de contenus soumis au droit d’auteur.
Si le géant de l’IA affirme que les internautes peuvent retirer leur image à tout moment, il s’avère que l’opération est pratiquement impossible à réaliser. Pour cela, il faut que le photographe envoie un mail avec un lien vers la photo en question. Hors la liste des utilisateurs Flickr et des images utilisées dans la base de données n’est pas consultable publiquement ce qui rend très difficile cette identification.
Une pratique non éthique pour rendre des IA plus... éthiques
Il faut dire que cette branche particulière de l’intelligence artificielle doit faire face à un énorme besoin de donnée pour être correctement entrainée. Dans une étude réalisée par le MIT et Microsoft et publiée en mars 2018, on découvrait que les logiciels de reconnaissance faciale avaient des taux d’erreur allant jusqu’à 35% quand ils analysaient les visages de personnes de couleur. Google s’était d’ailleurs fait taper sur les doigts en 2015 quand son service Google Photo identifiait les hommes noirs comme des gorilles. La raison de ce biais raciste n’est pas difficile à trouver : les premières bases de données utilisées par les IA étaient composées d’une majorité de visages blancs. C’est pour cette raison qu’IBM s’est mis à piocher dans de larges bases de données comme celle de Flickr.
Certains internautes interrogés ont même indiqué qu’ils auraient volontiers donné l’autorisation à l’entreprise d’utiliser leurs données afin de lutter contre les biais racistes. Mais à moins que les géants de la Tech ne développent soudainement une éthique du consentement, vos photos anciennes ou récentes continueront d’alimenter les logiciels de reconnaissance faciale sans aucune restriction.
Participer à la conversation