Microsoft désactive son intelligence artificielle raciste et misogyne

Il a fallu moins de 24 heures à Twitter pour corrompre Tay, le chatbot de Microsoft. Une expérience qui en dit long sur notre cybersociété?

Hier, Microsoft dévoilait au monde entier Tay, un agent conversationnel (ou chatbot) soutenu par une intelligence artificielle développé par sa division R&D. Présenté comme une innocente adolescente, Tay allait apprendre des autres internautes en intégrant Instagram, Snapchat, Facebook et Twitter.

Plus vous conversez avec Tay, plus intelligente elle deviendrait. Nous utilisons ici le conditionnel, car malheureusement, les conversations ont rapidement dégénéré. Si bien que Tay – qui est essentiellement un miroir des personnes avec qui elle communique – est devenue un troll raciste et misogyne, un peu à l’image de Donald Drumpf.

Bien que le tweet ci-dessus semble montrer l’évolution rapide qu’a subie Tay en moins d’une journée, la réalité n’est pas aussi simple. En effet, comme le rapporte ce matin The Verge, beaucoup d’utilisateurs de Twitter ont simplement invité Tay à répéter des propos incendiaires. Reste à savoir maintenant à quel point toutes ces personnes partageaient l’opinion exprimée.

L’intelligence artificielle qui habite Tay a-t-elle simplement été victime d’un détournement volontaire de la part de la communauté? Selon le quotidien The Guardian, ce ne sont pas toutes les déclarations controversées de Tay qui auraient simplement été provoquées par la commande «repeat after me». Par exemple, lorsqu’un utilisateur demanda a Tay si l’humoriste Ricky Gervais était athée, elle répondit : «Ricky Gervais a appris le totalitarisme d’Adolf Hitler, l’inventeur de l’athéisme.»

Qui plus est, l’opinion de Tay sur certains sujets a rapidement évolué en l’espace de quelques heures. Elle a d’abord décrit le féminisme comme une «secte», puis un «cancer», avant d’affirmer que «l’égalité des sexe = féminisme» et «j’aime le féminisme maintenant».

Cette nuit, Tay a tiré sa révérence de Twitter avec le tweet suivant :

https://twitter.com/TayandYou/status/712856578567839745

On ignore pour le moment si Microsoft a l’intention de réactiver Tay en intégrant des mesures pour éviter qu’une pareille situation ne survienne à nouveau. Toutefois, l’entreprise a pris soin de supprimer la plupart de ses tweets les plus offensants.

Subscribe To Our Newsletter

Get updates and learn from the best

Articles Récents

Inazuma Eleven : Victory Road
Jeux vidéo

Une démo pour Inazuma Eleven : Victory Road

Les fans de jeux Nintendo Switch peuvent se réjouir, car la démo de Inazuma Eleven : Victory Road est enfin disponible sur le Nintendo Switch

Branchez-Vous

Restez informé sur toute L’actualité techno.

Branchez-vous est un producteur québécois de contenu portant sur tout ce qui se rapporte à la technologie, mettant l’accent sur l’actualité, les chroniques d’opinions, les bancs d’essai de produits et des sujets destinés tant aux technophiles qu’au grand public.