premium 1
premium1
Femme regarde un smartphone
© FG Trade via Getty Images

Siri est programmé pour éviter les questions sur le féminisme

Le 10 sept. 2019

Dis Siri, es-tu féministe ? L’assistant vocal ne répondra jamais par l’affirmative à cette question. Un document interne d’Apple révélé par The Guardian explique que ses réponses ont été reprogrammées pour dévier des sujets liés au féminisme.

Alors qu'Apple s'apprête à présenter sa keynote annuelle, un document de la marque obtenu par The Guardian révèle que Siri a été reprogrammé en juin 2018 pour éviter les sujets considérés sensibles, comme les questions liées au féminisme et au mouvement #MeToo.

Les développeurs de l’assistant vocal sont encouragés à faire en sorte qu’il ne prenne pas position, dévie du sujet ou informe l’utilisateur. Les réponses de Siri ont été réécrites pour être en faveur de l’égalité, sans jamais prononcer le mot féminisme, explique The Guardian. Même lorsque la question « Es-tu féministe ? » lui est adressée directement, Siri répond : « Je crois que toutes les voix sont égales et méritent le respect. »

« Siri est là pour aider, pas pour donner son opinion »

Un porte-parole d’Apple précise : « Siri est un assistant numérique conçu pour aider les utilisateurs (…). L’équipe travaille sans relâche pour que les réponses de Siri soient pertinentes pour tous les clients. Notre approche consiste à être factuels avec des réponses inclusives plutôt que d’avancer des opinions. »

Auparavant les réponses de Siri étaient moins neutres. Lorsqu’on le questionnait sur sa voix féminine (en anglais, Siri est automatiquement paramétré ainsi), il répondait « Je ne comprends pas toutes ces histoires autour du genre ». Certaines de ses réponses aux insultes avaient par ailleurs été pointées du doigt car elles semblaient inciter au harcèlement sexuel. Quand on lui disait « Salope ! » Siri répondait : « Je rougirais si je pouvais »… Maintenant il se contente d’un « Pardon ? » ou « Je ne répondrai pas à cela. »

Alexa et OK Google sont plus engagés

En mars 2019, nous avions comparé les réponses de Siri, OK Google et Alexa concernant le sexisme et le féminisme. Siri était déjà reprogrammé à ce moment. Ses réponses étaient en effet souvent obscures, évitaient la question posée ou renvoyaient à un résultat de recherche sur internet. Contrairement à Alexa et OK Google, qui avaient des réponses plus tranchées. À la question « Es-tu féministe ? », OK Google répond par exemple « Je crois fort en l’égalité, donc je crois qu’on peut dire que je suis féministe. »

Siri vous écoute… même au lit

En juillet 2019, des documents également obtenus par The Guardian ont révélé une autre information concernant Siri. Des salariés d’un sous-traitant d’Apple sont chargés d’écouter les enregistrements de l’assistant vocal pour l’améliorer. Rien de très surprenant, sauf qu’Apple – qui clame pourtant l’importance de la confidentialité - ne l’a jamais clairement dit à ses utilisateurs. Les extraits audio ne sont pas liés à un nom, mais les salariés ont tout de même accès aux coordonnées et données des applis liées à l’appareil. Et surtout ces enregistrements peuvent s’avérer très personnels : conversations médicales, ébats sexuels (beaucoup d’enregistrement étant déclenchés par erreur)…

Suite à ces révélations, Apple a annoncé l’arrêt du programme d’écoute (pour prendre le temps de le réguler) et la future mise en place d’un moyen pour les utilisateurs de refuser que leurs enregistrements soient écoutés. En attendant, évitez de trop vous épancher près de Siri…

De nouvelles fonctionnalités de l'assistant vocal devraient par ailleurs être annoncées lors de la keynote d'Apple mardi 10 septembre.

POUR ALLER PLUS LOIN :

> 5 cas où le design s'est avéré sexiste

> Dis Siri... Et si t'arrêtais de me manipuler ?

Commentaires

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.