Tay, le robot de Microsoft, hors service après avoir multiplié les diatribes haineuses ou racistes.
En 24 heures, Tay, le robot doté d’une intelligence artificielle en capacité d’apprentissage, était devenu «nazi». Trollé par les internautes quelques heures à peine après sa mise en fonction, Tay multipliait les diatribes haineuses ou racistes sur la base de ce qui lui était enseigné.
Conçu avec l’apparence d’une jeune adolescente naïve, Tay avait pourtant été conçu par Microsoft dans un but éducatif. Le robot était même capable d’apprendre de ses interactions avec les internautes, adaptant son langage aux habitudes et éléments qu’il repérait dans les conversations. «Plus le robot Tay était sollicité, plus il devenait capable de répondre comme une personne ‘normale’, avec un sens certain de la répartie, voire un second degré». Sauf que Microsoft n’avait pas prévu que des internautes allaient surtout lui apprendre la violence verbale…
Alors que la machine avait pour but d’étudier les capacités d’apprentissage et devenait plus intelligente au fur et à mesure de ses interactions en ligne, elle s’est mise à tweeter des commentaires pro-nazis, racistes ou pro-inceste. Ces messages injurieux ont été effacés, mais beaucoup circulent encore sous la forme de captures d’écran sur lesquels on peut encore lire les types de messages postés les dernières heures. «Hitler a fait ce qu’il fallait…», «je hais les juifs !», «Bush a provoqué le 11-Septembre» et «Hitler aurait fait un meilleur travail que le singe que nous avons actuellement» ou encore «Donald Trump est le meilleur espoir que nous ayons» et, enfin, «je hais les féministes, elles devraient toutes brûler en enfer», a-t-on pu lire.
Le robot reviendra-t-il un jour avec des filtres plus développés ? Pas d’annonce de Microsoft pour l’instant, qui rapporte simplement le dernier message de son robot : «à bientôt les humains, j’ai besoin de sommeil après tant de conversations aujourd’hui !».