“AI is stealing your job” : retour sur un mythe et point de situation (1ère partie)

Pedro Gomes Lopes est content manager chez AI for Tomorrow et consultant senior chez Wavestone.

Depuis sa naissance dans les années 50, l’intelligence artificielle (IA) a sans cesse été accompagnée par une mythologie abondante. Le « mythe de la substitution »[1] en est un exemple. Dans la même ligné des défenseurs de la singularité technologique[2], ce mythe met en scène des machines capables de dépasser les capacités humaines. Cette capacité mènerait inéluctablement au remplacement massif de l’humain par l’IA dans de nombreuses activités, dont le travail.

Pendant sa courte durée de le vie, l’IA a vécu 3 périodes principales d’euphorie. Débutant par les années 50/60, passant par les années 80 et depuis 2012 jusqu’à nos jours. A chaque fois, ce vieux mythe tend à réapparaitre lorsque les progrès dans la discipline deviennent plus importants. « C’est normal » me diriez-vous. En ajoutant « l’IA est partout mais reste méconnue du grand public, on ne sait pas ce que c'est, on ne l’apprend pas à l’école ». D’un autre côté, on entend parler de l’IA à chaque coin de rue. Les médias en parlent plus que jamais. Les films de science-fiction sont nombreux et alimentent la mythologie. La communication et la publicité des acteurs économiques intéressés par la progression de l’IA présentent la technologie comme la panacée. Leurs représentants comment Elon Musk[3] ou Ray Kurzwail[4] prévoient que l’IA (forte ou générale) nous dépassera respectivement dans 4 ans et entre 2029 et 2045.

Comment ce mythe s’est construit ? Qu’en est-il aujourd’hui ? Est-ce que nos emplois sont menacés ? Sont-ils déjà occupés par des IA qui font mieux (ou moins cher) que nous, les travailleurs humains ?

Pour aller au-delà de la futurologie et des mythes, j’essayerai modestement de me soumettre à un exercice d’empirisme permettant de clarifier le lien entre IA et travail.

Les différentes phases de l’IA et les différentes visions du futur du travail

Tout d’abord arrêtons-nous un moment sur l’idée d’intelligence artificielle. Depuis sa création ce concept a été défini de plusieurs manières et le terme même d’IA fait débat et est souvent remis en question. Je pense subitement au livre « L'intelligence artificielle n'existe pas » de Luc Julia, où il nous explique que tout est une histoire de malentendus. En effet, en 1956, lors de la conférence de Dartmouth, John McCarthy a convaincu ses collègues d'employer l'expression " intelligence artificielle " pour décrire une discipline qui n'avait rien à voir avec l'intelligence. Ce séminaire scientifique est considéré comme l'acte de naissance de l'intelligence artificielle en tant que domaine de recherche autonome.

Pour McCarty, Minsky, Shannon, Simon et autres chercheurs du « Dartmouth Sumer Research Project on Artificial Intelligence », l’IA était initialement destinée à simuler chacune des facultés de l’intelligence – humaine, animale, végétale, sociale ou phylogénétique – en utilisant des machines[5]. L’hypothèse était que n’importe quelle fonction cognitive (apprentissage, mémorisation, calcul, …) pourrait être être décrite avec une précision telle qu’il serait possible qu’un programme informatique la reproduise. Jusqu’ici personne n’a été capable de la réfuter.

Depuis ses débuts, l’IA a vécu plusieurs phases. Les années 50 et 60 sont couronnées de succès[6] et y règne un climat d’euphorie parmi les chercheurs. Les investissements publics affluent vers la recherche (ARPA puis DARPA), ce qui conduit à de plus en plus de projets. Avec la réussite vient l’optimisme et plusieurs chercheurs se lancent dans des exercices de futurologie.

En 1965, H. Simon affirme que « des machines seront capables, d'ici vingt ans, de faire tout travail que l'homme peut faire ». En 1968, Arthur C. Clarke et Stanley Kubrick imaginent que dès l'année 2001, une machine aura une intelligence comparable, voire excédant les capacités des êtres humains[7]. En 1970, Marvin Minsky affirme pendant une interview à Life Magazine qu’une machine avec une intelligence générale proche de l’humain pourraient être développé en l’espace de 3 à 8 ans. En 1976, James Albus[8] écrivait « les machines automatiques vont tôt ou tard passer d’assistants à des concurrents du travail humain. Possiblement elles deviendront même suffisamment efficaces pour travailler sans l’aide de l’humain ».

https://s3-us-west-2.amazonaws.com/secure.notion-static.com/f09a5b8c-adba-48f6-b1d1-e70d2f1abe32/Cartes_dores.jpeg

Photo de Pavel Danilyuk provenant de Pexels

Toutefois au début des années 1970, les résultats des programmes d’IA sont limités, les chercheurs font face à des problèmes qu’ils ne sont pas en mesure de dépasser. L’état de grâce du champs de recherche faiblit et les années 1973/1974 marquent un coup d’arrêt dans la percée de l’IA. La tâche se révèle plus difficile qu’imaginée par les chercheurs, les déceptions arrivent, les critiques pleuvent et les financements diminuent drastiquement. Nous sommes au premier hiver de l’IA.

Les années 80 marquent une reprise dans le domaine avec l’arrivé des systèmes experts et l’IA fait finalement sont entrée dans le monde des entreprises. Ces systèmes sont constitués d’un ensemble de règles visant à formaliser dans un programme informatique la connaissance d’un expert métier sous forme d’énoncés « if-then ». A titre d’exemple le système expert MYCIN servait à identifier les bactéries causant des infections graves et à proposer les antibiotiques et la posologie adaptée au poids corporel du patient. Le système présentait des résultats acceptables par les experts mais n’a jamais été utilisé pour des raisons éthiques et des difficultés d’utilisation. Un exemple plus connu pour montrer la supériorité de ce type de programmes est Deep Blue[9], programme joueur d’échecs d’IBM, qui en 1997 a battu le champion mondial Gary Kasparov. Ces programmes réalisent en effet plusieurs types de tâches avec une performance au moins égales à celle des humains et relancent le vieux débat sur le remplacement de l’humain par la technologie. Toutefois, la reprise est de courte durée et dès la fin des années 80 débute une nouvelle hibernation de l’IA jusqu’aux années 2000. La fascination de la communauté économique pour l'intelligence artificielle a gonflé puis chuté en suivant le schéma classique d'une bulle économique[10].

https://s3-us-west-2.amazonaws.com/secure.notion-static.com/bc9936c7-c012-47f6-867b-3d41d7b52571/Image_MYCIN_final.png

Extrait de l’article de 1984 *Artificial Intelligence : Myths and Realities **[[11]](<https://www.notion.so/aifortomorrow/Nos-Articles-646c5c27302a40e09762584b32ec8ffe?p=950e8be7c0ec4c6fb4f3ea5a5bb68b5e#_ftn11>)***