Actualités
Microsoft désactive son intelligence artificielle raciste et misogyne
Il a fallu moins de 24 heures à Twitter pour corrompre Tay, le chatbot de Microsoft. Une expérience qui en dit long sur notre cybersociété?
Branchez-vous > Tay
Il a fallu moins de 24 heures à Twitter pour corrompre Tay, le chatbot de Microsoft. Une expérience qui en dit long sur notre cybersociété?
Branchez-vous est un producteur québécois de contenu portant sur tout ce qui se rapporte à la technologie, mettant l’accent sur l’actualité, les chroniques d’opinions, les bancs d’essai de produits et des sujets destinés tant aux technophiles qu’au grand public.