habillage
premium1
premium1
un tas de photographies vintage en noir et blanc
© Mr Cup / Fabien Barral/Unsplash

Sur le Web, vos photos oubliées continuent d’être exploitées

Le 13 mars 2019

Vous vous souvenez de Flickr ? Cette plateforme de partage de photos qui a connu son heure de gloire durant les années 2000 ? Elle ne vous a pas oublié et continue d’exploiter vos données.

Si vous utilisez le Web depuis plus de 10 ans, il y a de fortes chances pour que vous ayez posté des photos sur la plateforme Flikr. Avant l’arrivée des mastodontes comme Facebook ou Instagram, c’était « the place to be » des photographes amateurs et professionnels. Créé en 2004, racheté par Yahoo en 2005, puis revendu en 2018 à SmugMug, le site contient près de 6 milliards de photographies. Or, c’est dans ce gigantesque réservoir de données qu’IBM est allé piocher pour alimenter son système de reconnaissance faciale.

Dans une enquête d'Olivia Solon publiée sur NBC, on découvre que la firme a extrait un million de photos sans vraiment se préoccuper du droit d’auteur ou du consentement des internautes. Un photographe qui a vu plus de 700 de ses images reprises par IBM, a indiqué que ses sujets ne savent pas que leurs visages étaient utilisés pour permettre le développement d’une intelligence artificielle. À ce petit jeu, personne n’est à l’abri et même Caterina Fake, la co-fondatrice de Flickr, a découvert qu’IBM utilisait plusieurs de ses photos pour alimenter son algorithme.

Le scrapping : une pratique facile et (presque toujours) légale

IBM et Flickr sont loin d’être les seuls concernés par ce moissonnage de données. Certains spécialistes de la reconnaissance faciale utilisent vos vieilles photos postées sur Facebook et même vos vidéos YouTube. Pour entrainer les algorithmes. En 2017, la société Kaggle avait aussi provoqué un micro scandale en annonçant le scrapping de 40 000 photos issues de l’appli Tinder. Le créateur de la base de données, Stuart Colianni, avait profité de l’occasion pour indiquer que la plateforme de rencontre offrait un accès illimité aux images et rendait la collecte de données « extrêmement facile ». Pris la main de le sac, Tinder avait par la suite fait savoir que ce scrapping allait à l’encontre de leur politique de données. Mais d’un point de vue légal, les internautes sont souvent démunis. Pour justifier cette utilisation de photos sans consentement, IBM a mis en avant le « Fair Use » américain. Il s’agit d’un ensemble de règles de droit autorisant « l’usage raisonnable » de contenus soumis au droit d’auteur. 

Si le géant de l’IA affirme que les internautes peuvent retirer leur image à tout moment, il s’avère que l’opération est pratiquement impossible à réaliser. Pour cela, il faut que  le photographe envoie un mail avec un lien vers la photo en question. Hors la liste des utilisateurs Flickr et des images utilisées dans la base de données n’est pas consultable publiquement ce qui rend très difficile cette identification.

Une pratique non éthique pour rendre des IA plus... éthiques

Il faut dire que cette branche particulière de l’intelligence artificielle doit faire face à un énorme besoin de donnée pour être correctement entrainée. Dans une étude réalisée par le MIT et Microsoft et publiée en mars 2018, on découvrait que les logiciels de reconnaissance faciale avaient des taux d’erreur allant jusqu’à 35% quand ils analysaient les visages de personnes de couleur. Google s’était d’ailleurs fait taper sur les doigts en 2015 quand son service Google Photo identifiait les hommes noirs comme des gorilles. La raison de ce biais raciste n’est pas difficile à trouver : les premières bases de données utilisées par les IA étaient composées d’une majorité de visages blancs. C’est pour cette raison qu’IBM s’est mis à piocher dans de larges bases de données comme celle de Flickr.

Certains internautes interrogés ont même indiqué qu’ils auraient volontiers donné l’autorisation à l’entreprise d’utiliser leurs données afin de lutter contre les biais racistes. Mais à moins que les géants de la Tech ne développent soudainement une éthique du consentement, vos photos anciennes ou récentes continueront d’alimenter les logiciels de reconnaissance faciale sans aucune restriction.

Commentaires

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.