Benoît Raphaël

Intelligence Artificielle : Pause Préventive ou Besoin de Réflexion ?

3 Avril 2023 , Rédigé par Benoît Raphaël Publié dans #Intelligence artificielle, #ChatGPT

Lorsqu'on me suggère de faire une pause, je réponds... Faire une pause, c'est une première étape, mais la réflexion est primordiale.

Cette formule est particulièrement pertinente à l'heure où une tribune, portée par des figures telles qu'Elon Musk, plaide pour un arrêt de six mois dans le déploiement de modèles d'intelligence artificielle supérieurs à #GPT4, dans une tentative de préserver l'humanité d'un potentiel désastre.

Toutefois, est-il suffisant d'adhérer à cette idée de pause ? Ne serait-il pas plus judicieux de questionner les intentions derrière cette publication ? Avez-vous examiné qui se "cache" derrière cette tribune ?

Comme l'évoqueraient les journalistes du Point : Qui sont-ils ? Quels sont leurs réseaux ?

Ces penseurs émergent d'un contexte particulier, une citadelle d'idées futuristes, comparable à la forteresse de Saruman dans le Seigneur des Anneaux. Ils se définissent comme les "long-termistes".

Les long-termistes envisagent l'avenir de l'humanité sur des échelles de temps se comptant en millions d'années. Parmi ces visionnaires, on retrouve Nick Bostrom, un Américain auteur d'un livre sur l'intelligence artificielle et fondateur du "Future of Humanity Institute". Il est intéressant de noter qu'Elon Musk a contribué à hauteur de 1,5 million de dollars à cet institut via l'organisation "Future of Life", émanation du co-fondateur de Skype, l'entrepreneur et milliardaire Jaan Tallin.

Pour vous éclairer sur le personnage, Tallin considère par exemple que le dérèglement climatique n'est pas un risque existentiel pour l'humanité, mais un incident mineur à l'échelle cosmique. Pour lui, la véritable menace vient de l'émergence de cette "super intelligence" à laquelle on fait allusion depuis des années.

On retrouve aussi dans ce mouvement Peter Thiel, un autre milliardaire proche de Donald Trump. Musk et Thiel ont d'ailleurs co-fondé OpenAI, bien qu'ils s'en soient séparés depuis pour diverses raisons, y compris politiques.

C'est donc l'organisation Future of Life qui est à l'origine de cette tribune, appelant à un moratoire de six mois sur le développement de modèles d'IA plus avancés que GPT-4.

Ainsi, cette histoire n'est pas aussi transparente qu'il n'y paraît, elle est imprégnée d'une dimension politique importante.

Et vous pourriez penser que cela ne change rien au cœur du débat. Et bien, pas tout à fait.

Un des papiers de recherche cités dans la tribune avance une perspective différente : ce n'est pas tant la puissance de l'intelligence artificielle incarnée par des modèles comme ChatGPT qui nécessite prudence, mais bien leur manque d'intelligence.

Je vous invite à en apprendre davantage sur ce sujet passionnant dans ma lettre du dimanche.

Partager cet article
Repost0
Pour être informé des derniers articles, inscrivez vous :