Microsoft désactive son intelligence artificielle raciste et misogyne

C'était prévisible

Il a fallu moins de 24 heures à Twitter pour corrompre Tay, le chatbot de Microsoft. Une expérience qui en dit long sur notre cybersociété?

Hier, Microsoft dévoilait au monde entier Tay, un agent conversationnel (ou chatbot) soutenu par une intelligence artificielle développé par sa division R&D. Présenté comme une innocente adolescente, Tay allait apprendre des autres internautes en intégrant Instagram, Snapchat, Facebook et Twitter.

Plus vous conversez avec Tay, plus intelligente elle deviendrait. Nous utilisons ici le conditionnel, car malheureusement, les conversations ont rapidement dégénéré. Si bien que Tay – qui est essentiellement un miroir des personnes avec qui elle communique – est devenue un troll raciste et misogyne, un peu à l’image de Donald Drumpf.

Bien que le tweet ci-dessus semble montrer l’évolution rapide qu’a subie Tay en moins d’une journée, la réalité n’est pas aussi simple. En effet, comme le rapporte ce matin The Verge, beaucoup d’utilisateurs de Twitter ont simplement invité Tay à répéter des propos incendiaires. Reste à savoir maintenant à quel point toutes ces personnes partageaient l’opinion exprimée.

L’intelligence artificielle qui habite Tay a-t-elle simplement été victime d’un détournement volontaire de la part de la communauté? Selon le quotidien The Guardian, ce ne sont pas toutes les déclarations controversées de Tay qui auraient simplement été provoquées par la commande «repeat after me». Par exemple, lorsqu’un utilisateur demanda a Tay si l’humoriste Ricky Gervais était athée, elle répondit : «Ricky Gervais a appris le totalitarisme d’Adolf Hitler, l’inventeur de l’athéisme.»

Qui plus est, l’opinion de Tay sur certains sujets a rapidement évolué en l’espace de quelques heures. Elle a d’abord décrit le féminisme comme une «secte», puis un «cancer», avant d’affirmer que «l’égalité des sexe = féminisme» et «j’aime le féminisme maintenant».

Cette nuit, Tay a tiré sa révérence de Twitter avec le tweet suivant :

https://twitter.com/TayandYou/status/712856578567839745

On ignore pour le moment si Microsoft a l’intention de réactiver Tay en intégrant des mesures pour éviter qu’une pareille situation ne survienne à nouveau. Toutefois, l’entreprise a pris soin de supprimer la plupart de ses tweets les plus offensants.

  • http://epeelegendaire.com Maxime Tremblay

    C’est une expérience à la fois intéressante, et terrifiante. On voit vite que certains groupes haineux s’en sont emparés rapidement, avec l’apprentissage de certains tweets directement adressés à certaines personnalités, comme Zoe Quinn par exemple. Et un fail de Microsoft aussi de ne pas avoir prévu le coup dans la programmation.

    Bref, #Skynet.

    • http://epeelegendaire.com Maxime Tremblay

      Quoi que plus que j’y pense, je me demande si « l’oublie » de prévenir la situation est volontaire pour justement voir jusqu’où le bot irait… #EvilMSFT

  • Serge

    ahahahah. Cet article vient de faire ma journée :) … et j’aime la référence à John Oliver (Drumpf).