Siri reprogrammé pour ignorer les questions sur le féminisme

Siri reprogrammé pour ignorer les questions sur le féminisme
Facebook
Twitter
LinkedIn
Reddit
WhatsApp
Email

Les scandales qui tournent sur les réseaux sociaux sont pris très au sérieux par les grandes entreprises de la Silicon Valley. D’ailleurs, toutes les personnes qui suivent ses actualités les attendent au tournant. À la suite des affaires #MeToo et autres scandales sur le harcèlement sexuel, Apple a donc décidé de changer un peu les « choses ». Dans un document partagé par les journalistes de The Guardian on apprend que la marque à la pomme a posé des règles permettant à Siri de mieux aborder les « sujets sensibles », comme le féminisme.

Des sujets presque tabous

Ces documents montrent qu’Apple met tout en œuvre pour traiter efficacement les questions posées à son assistant vocal Siri. Rassemblant plusieurs directives datant de juin 2018, la firme de Cupertino indique que : « Siri doit être circonspect lorsqu’il traite des contenus potentiellement controversés (dont le féminisme qui est un mot que l’IA ne doit pas prononcer) ».

Lorsqu’on lui pose des questions sur le féminisme, Siri répondait alors : « Je ne comprends juste pas cette histoire de genre » ou encore « Je m’appelle Siri et j’ai été désigné par Apple en Californie. C’est tout ce que je suis préparé à dire ».

La neutralité au cœur du bon fonctionnement du service

Lorsque des utilisateurs posent des questions à ce sujet, l’assistant vocal doit émettre des réponses qui permettent de les « détourner ». Aux questions : « es-tu féministe » ou « que penses-tu des droits des femmes ? », Siri aura, désormais  le droit d’émettre des réponses spécifiques, avec la plus grande neutralité possible.

Voici quelques exemples de réponse que vous pourriez entendre : « je pense que toutes les voix ont été créées égales et méritent le même respect » ou encore « il me semble que tous les humains doivent être traités de manière égale ».

La reprogrammation de Siri vise, également, à améliorer sa manière de faire face aux harcèlements sexuels. Ainsi, si l’utilisateur insulte l’IA, la réponse ne sera plus « je rougirais si je pouvais » mais « je ne répondrai pas à cela ». L’objectif d’Apple est d’offrir « des réponses inclusives au lieu d’offrir des opinions ».

Dernier articles

Abonnez-vous à nos réseaux sociaux