Faut-il réguler l'intelligence artificielle avant qu'il ne soit trop tard ?
Faut-il réguler l'intelligence artificielle avant qu'il ne soit trop tard ? Et comment ? Frances Haugen, ancienne cadre ingénieure chez Facebook, est la lanceuse d'alerte à l'origine du scandale dévoilé par le Wall Street Journal en septembre dernier. Pour la première fois, elle a témoigné hier à visage découvert dans l'émission 60 minutes sur CBS. Elle a partagé des dizaines de milliers de pages de recherche internes à Facebook, lesquelles révèlent que le management du réseau social (utilisé par plus de 60% de la population mondiale) était parfaitement au courant des dégâts causés par des algorithmes de recommandation : désinformation, polarisation des opinions dans le monde, développement de messages racistes et d'appels à la violence.
D'autres recherches révèlent également l'impact désastreux et à grande échelle d'Instagram auprès des adolescents : dépression et suicide... tout en les poussant à consommer toujours plus de contenus négatifs sur l'application.
La direction de Facebook répond qu'elle n'a pas encore trouvé de solution "idéale" à la régulation des contenus négatifs. En effet, ce ne sont pas les humains qui décident de pousser des contenus toujours plus violents vers leurs utilisateurs pour maximiser les revenus, mais les modèles de machine learning. Mais les humains peuvent corriger ces modèles, à condition de changer leurs objectifs, c'est à dire accepter de gagner moins d'argent.
Dans son dernier ouvrage ,"AI 2141", Kai-Fu Lee explique que "l'optimisation d'une seule fonction objective (dans l'usage des algorithmes de recommandation) peut entraîner des effets externes néfastes". Or, pour la plupart des IA (comme celle de Facebook), ce but unique est "gagner de l'argent". L'IA se concentre alors "de façon maniaque sur ce seul objectif d'entreprise, sans se soucier du bien-être de l'utilisateur."
L'auteur (ex patron de Google China) propose d'imposer des objectifs multiples et complexes aux algorithmes (comme le "bien-être", le "temps bien dépensé", ou le "bonheur" des utilisateurs), ce qui générerait évidemment moins de revenus... donc il faudrait une règlementation. Kai-Fu Lee propose également d'imposer des audits d'IA aux entreprises pour vérifier leur sincérité comme on le fait aujourd'hui avec les audits fiscaux.
Bref, l'IA n'est plus seulement cet outil marketing magique au service de la tech, elle est également un facteur de dérèglement sociétal. Il serait grand temps de réguler. Et de soutenir le développement d'algorithmes vertueux (comme ceux de Flint !).