Si vous vous souvenez de Tay, le chatbot de Microsoft qui avait fini par proférer des propos racistes et sexistes, vous serez peut-être intéressé par l’histoire de « Sydney », une évolution de « Bing Concierge Bot », le chatbot de Bing.

Kevin Roose, journaliste pour le New York Times, a récemment testé Sydney et a rapidement constaté que ce robot n’était pas non plus tout à fait politiquement correct. Cela soulève une question importante :

Pourquoi ces chatbots finissent-ils toujours par nous décevoir ?

Il y a deux raisons à cela. Tout d’abord, ces chatbots ne sont pas des êtres humains. Ce sont des programmes qui ne comprennent pas nos conventions sociales, les normes de la société et la morale. Ces chatbots sont conçus pour apprendre de nos interactions de manière linéaire, sans algorithmes pour l’empathie, la compassion, la décence et toutes ces valeurs qui nous rendent meilleurs. De plus, ils sont conçus pour apprendre de nos interactions, et que par conséquent, ils reflètent les comportements dominants sur Internet, les biais et les stéréotypes des internautes.

Certes, l’IA, les chatbots ont un potentiel énorme, mais ces robots et ces programmes ne sont pas la solution à tous nos problèmes. Nous devons plutôt penser à utiliser les technologies du web de manière responsable, en gardant nos propres biais et limites mentales à distance de nos profils sociaux.