Microsoft désactive son intelligence artificielle raciste et misogyne

Par Laurent LaSalle – le dans Actualités
Il a fallu moins de 24 heures à Twitter pour corrompre Tay, le chatbot de Microsoft. Une expérience qui en dit long sur notre cybersociété?

Hier, Microsoft dévoilait au monde entier Tay, un agent conversationnel (ou chatbot) soutenu par une intelligence artificielle développé par sa division R&D. Présenté comme une innocente adolescente, Tay allait apprendre des autres internautes en intégrant Instagram, Snapchat, Facebook et Twitter.

Plus vous conversez avec Tay, plus intelligente elle deviendrait. Nous utilisons ici le conditionnel, car malheureusement, les conversations ont rapidement dégénéré. Si bien que Tay – qui est essentiellement un miroir des personnes avec qui elle communique – est devenue un troll raciste et misogyne, un peu à l’image de Donald Drumpf.

Bien que le tweet ci-dessus semble montrer l’évolution rapide qu’a subie Tay en moins d’une journée, la réalité n’est pas aussi simple. En effet, comme le rapporte ce matin The Verge, beaucoup d’utilisateurs de Twitter ont simplement invité Tay à répéter des propos incendiaires. Reste à savoir maintenant à quel point toutes ces personnes partageaient l’opinion exprimée.

L’intelligence artificielle qui habite Tay a-t-elle simplement été victime d’un détournement volontaire de la part de la communauté? Selon le quotidien The Guardian, ce ne sont pas toutes les déclarations controversées de Tay qui auraient simplement été provoquées par la commande «repeat after me». Par exemple, lorsqu’un utilisateur demanda a Tay si l’humoriste Ricky Gervais était athée, elle répondit : «Ricky Gervais a appris le totalitarisme d’Adolf Hitler, l’inventeur de l’athéisme.»

Qui plus est, l’opinion de Tay sur certains sujets a rapidement évolué en l’espace de quelques heures. Elle a d’abord décrit le féminisme comme une «secte», puis un «cancer», avant d’affirmer que «l’égalité des sexe = féminisme» et «j’aime le féminisme maintenant».

Cette nuit, Tay a tiré sa révérence de Twitter avec le tweet suivant :

https://twitter.com/TayandYou/status/712856578567839745

On ignore pour le moment si Microsoft a l’intention de réactiver Tay en intégrant des mesures pour éviter qu’une pareille situation ne survienne à nouveau. Toutefois, l’entreprise a pris soin de supprimer la plupart de ses tweets les plus offensants.

Les dernières nouvelles

On va vous aider à trouver le logement qu’il vous faut!

On va vous aider à trouver le logement qu’il vous faut!

Mises à pied et annulations de projets chez le créateur de Pokémon Go

Mises à pied et annulations de projets chez le créateur de Pokémon Go

Huawei GT 3 Pro : une montre connectée qui sauvera votre sommeil

Huawei GT 3 Pro : une montre connectée qui sauvera votre sommeil

Plus d'actualités

Le studio montréalais de réalité virtuelle Felix and Paul prêt à décoller vers la Lune

Le studio montréalais de réalité virtuelle Felix and Paul prêt à décoller vers la Lune

Huawei Mate Xs 2 : le Galaxy Fold de Samsung dans la mire

Huawei Mate Xs 2 : le Galaxy Fold de Samsung dans la mire

Nintendo entamera une tournée estivale à travers le Canada !

Nintendo entamera une tournée estivale à travers le Canada !

Populaires

Avec Google Drive, regardez gratuitement des films en streaming

Avec Google Drive, regardez gratuitement des films en streaming

Brazzers : Près de 800 000 mots de passe compromis

Brazzers : Près de 800 000 mots de passe compromis

Comment devenir plus intelligent en deux minutes sans même vous forcer

Comment devenir plus intelligent en deux minutes sans même vous forcer

Laurent LaSalle

Depuis qu'il a tapoté sur son Commodore Vic-20 à l'âge de 3 ans, Laurent est (un peu trop) obsédé par la technologie. Passionné d'informatique et de jeux vidéo, il a notamment été blogueur pour Radio-Canada et chroniqueur techno pour MusiquePlus .