Scroll

Introduction à l'Intelligence Artificielle #1 : les origines

Margaux Daza |

L’Intelligence Artificielle (IA) soulève de nombreuses questions. Et pour cause : c’est un domaine extrêmement large pour lequel il existe plusieurs définitions et qui bouleverse de nombreux aspects de la société.

Si on parle aujourd’hui beaucoup de l’IA, c’est tout simplement car elle occupe une place très importante, si ce n’est  grandissante, dans nos vies : en effet, nous utilisons des outils basés sur l’IA tous les jours. Pour donner quelques exemples, elle nous aide notamment dans la complétion automatique d’écriture dans les téléphones portables, elle permet la recommandation d’articles de presse ou d’informations dans un fil d’actualité ou elle sert encore à optimiser le prix des billets d’avion.

Dans ce premier article de notre série sur l’Intelligence Artificielle, nous commencerons par son histoire : d’où vient-elle et quelles sont ses origines ?

Origines

En 1955, John McCarthy est le premier à utiliser ce terme et à en donner  la définition suivante : « Pour les besoins du présent document[1], on définit l’intelligence artificielle comme le fait de provoquer un comportement chez une machine qui serait considéré comme intelligent si un humain se comportait ainsi »[2]. Cette définition fait écho à l’espoir que les scientifiques avaient à cette époque de voir un cerveau humain artificiel créé, comme ce fut effectivement le cas quelques décennies plus tard. Elle met aussi en évidence le fait que, selon le seuil défini pour discriminer ce qui est intelligent et ce qui ne l’est pas, le terme IA couvrira différents sujets.

L’IA n’est pas un concept nouveau : plus ancien que 1955, on peut faire remonter ses origines à plusieurs siècles, à l’époque où les premiers automates ont été créés. A l’origine, ces automates essayaient de reproduire certains comportement d’animaux ; en 1515, Léonard de Vinci a conçu un lion capable de marcher et de tourner la tête comme s’il rugissait. Bien sûr, nous considérons aujourd’hui ce comportement comme extrêmement simple et nous ne sommes pas susceptibles d’accepter le fait qu’il puisse s’agir d’un comportement dit « intelligent ». Pourtant, il s’agissait juste d’un objet, fait de bois et de métal, qui marchait ![3]

Évolutions et perception de l’IA dans le temps

Il faudra attendre plus d’un siècle pour observer un avancement significatif de l’IA avec l’apparition de  la calculatrice, inventée par Blaise Pascal en 1645. Il note à ce sujet dans ses Pensées : « La machine d’arithmétique fait des effets qui approchent plus de la pensée que tout ce que font les animaux ; mais elle ne fait rien qui puisse faire dire qu’elle a de la volonté, comme les animaux »[4]. En cela, l’IA actuelle n’a pas évolué : elle n’a pas de volonté propre et se contente d’exécuter ce pour quoi elle est programmée. De fait, cela ne doit évidemment pas nous dispenser de prêter attention aux questions éthiques soulevées par cet outil.

C’est l’une des raisons pour lesquelles l’expression « Intelligence Artificielle » est aujourd’hui critiquée par de nombreuses personnalités du domaine, comme le Dr. Kate Crawford. Elle souligne que si ce sont des outils d’une grande technicité, ils ont été conçus dans l’objectif d’une tâche qui a été définie par les techniciens : ils n’ont ni conscience, ni volonté. Ce sont des outils extrêmement spécialisés qui seraient bien incapables de réaliser des tâches variées !

L’automate de Vinci nous ramène d’ailleurs à cette interrogation : que peut-on considérer comme intelligent ? En 1950, Alan Turing, connu pour avoir décrypté la machine Enigma[5]pendant la Seconde Guerre mondiale et considéré comme un des pères des ordinateurs tels qu’on les connaît aujourd’hui, a inventé le test de Turing[6]. Le principe est de faire parler quelqu’un avec deux autres entités (à l’écrit, pour éviter des biais de synthèse vocale) : l’un est un ordinateur, l’autre est un humain. Si la première personne n’est pas capable de déterminer qui est l’humain et qui est l’ordinateur, sans limite de temps, l’IA passe le test. On est bien loin des automates…

Un accueil mitigé ?

Cependant, après sa naissance officielle dans les années 50, les progrès obtenus sont en dents de scie :  l’IA connaît un chemin chaotique, tantôt perçu comme un domaine riche et prometteur, tantôt illusoire et utopique. Cela durera jusque dans les années 2000, où l’IA rencontre enfin le succès qu’on lui attribue aujourd’hui, à la fois technique et social.

Dans les prochains articles de notre série, nous verrons quels sont les facteurs qui ont changé la donne dans les années 2000. Nous ferons également une plongée dans le monde technique de l’IA pour mieux comprendre pourquoi il est difficile de la définir et en quoi les usages qu’on en fait sont aussi variés.

[1]Le document en question annonce le premier colloque de recherche sur l’Intelligence Artificielle.

[2]Traduction originale. “For the present purpose the artificial intelligence problem is taken to be that of making a machine behave in ways that would be called intelligent if a human were so behaving”. Source : http://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html

[3]On peut également penser au mythe grec de Galatée, dans lequel Aphrodite donne la vie à une statue : peut-on avoir des signes d’humanité de la part d’objets inanimés ? Il serait néanmoins excessif de choisir ce mythe comme origine de l’Intelligence Artificielle.

[4]https://gallica.bnf.fr/ark:/12148/bpt6k5530213b/f313.image

[5]Enigma est une machine de chiffrement utilisée par l’Allemagne nazie pendant la Seconde Guerre Mondiale. https://fr.wikipedia.org/wiki/Enigma_(machine)

[6]Aussi appelé le jeu de l’imitation, il est décrit par Turing dans cet article : https://www.csee.umbc.edu/courses/471/papers/turing.pdf