Benoît Raphaël

Les robots se trompent souvent

Les robots se trompent souvent

Hier soir je suis allé échanger avec des passionnés de science, dans un chouette bar à rhums de Beauvais, à l'initiative de "Pint Of Science" (hashtag#Pint18) On a parlé des biais dans l'intelligence artificielle. 


J'ai expliqué que l'intelligence artificielle, c'était un peu comme un homme aveugle à qui on essaye de décrire le monde. Sa "vision" dépend de ce qu'on lui fait toucher et de ce qu'on lui dit. S'il y a un biais dans les données avec lesquelles ont l'éduque l'intelligence artificielle amplifiera le biais. 


Mais plus intéressant : parfois les biais dans l'IA révèlent les biais de notre société. Les bases de données de langage et d'expressions qu'on utilise pour entrainer les algorithmes sur la détection de sentiments positifs ou négatifs ont un biais raciste, parce que notre langage, nos expressions surtout, contiennent déjà ces biais racistes. Même phénomène en justice prédictive (avec le débat sur le logiciel "Compas") qui a soulevé un intense débat aux Etats-Unis : on croyait qu l'IA avait un biais raciste, en fait elle ne faisait que révéler révéler un biais social non identifié, en grossissant les traits. Elever un robot, c'est apprendre sur nous-mêmes.

Vous pouvez découvrir Flint ici.

Partager cet article

Repost0
Pour être informé des derniers articles, inscrivez vous :