Une machine peut-elle penser ? Cette simple question cache un parcours scientifique, historique et philosophique majeur. Terreau idéal pour les visionnaires, artistes ou scientifiques, en tous les cas créatifs, l’intelligence artificielle, plus simplement nommée IA (ou AI pour “artificial intelligence”, en anglais) n’affiche que quelques décennies d’existence mais permet déjà des prouesses technologiques. Partons ensemble sur les traces de l’intelligence artificielle, son histoire et des perspectives d’évolution futures.
Qu’est-ce que l’intelligence artificielle ?
Si l’Institution européenne définit l’IA comme correspondant à “un ensemble de sciences, de théories et de techniques (notamment la logique mathématique, les statistiques, les probabilités, la neurobiologie computationnelle et l’informatique) qui vise à imiter les capacités cognitives d’un être humain.” Ainsi, l’intelligence artificielle se définit par sa finalité, à savoir : le fait que les machines puissent avoir une intelligence propre.
Les développements de l’IA sont intimement liés à ceux de l’informatique et ont conduit les ordinateurs à effectuer des tâches de plus en plus complexes.
Comment fonctionne l’intelligence artificielle ?
L’intelligence artificielle fonctionne à la manière d’un cerveau humain : grâce à l’interconnexion de neurones artificiels. Ces neurones artificiels sont en fait des équations dont des paramètres variables les relient entre elles. Lorsqu’on entre les données à traiter, le réseau neuronal de la machine en extrait les informations importantes et établis des corrélations avec les données de sorti attendues par l’utilisateur.
L’IA doit être entraînée, à la manière d’un cerveau humain, pour performer dans diverses tâches : on parle de machine learning.
Pourquoi l’intelligence artificielle a-t-elle été créée ?
La raison du développement de l’intelligence artificielle va au-delà de la façon dont les machines nous facilitent la vie. Pour la comprendre, il nous faut remonter des siècles en arrière, dans le domaine de la philosophie et de la connaissance humaine, où le concept d’une intelligence dépassant l’intelligence humaine a touché les domaines du mythe, de la religion et de la métaphysique.
Tout au long de l’histoire de l’art et de la littérature, nous pouvons trouver de nombreux exemples du rêve humain de devenir un créateur et de reproduire un être doué d’intelligence, de sentiments, d’émotions, de spiritualité. Au XXe siècle, la science-fiction a eu recours à d’innombrables reprises à la question et au dilemme éthique de savoir si une machine peut penser, comment et pourquoi.

Quel est l’objectif de l’IA ?
Si l’objectif initial de l’intelligence artificielle était de réaliser une machine capable de penser, aujourd’hui, les recherches tendent plutôt à l’amélioration de cette intelligence. En conséquence, les sept piliers fondamentaux de l’IA exposés lors de la conférence de Dartmouth sont toujours d’actualité :
- Ordinateurs automatisés.
- Programmation d’un ordinateur pour l’utilisation d’un langage
- Développement des réseaux neuronaux.
- Théorie de la taille d’un calcul.
- Auto-apprentissage.
- Abstraction dans l’IA.
- Aléatoire et créativité.
Pour atteindre ces objectifs, le MIT (Massachusetts Institute of Technology) joue, depuis les premiers travaux sur l’IA, un rôle fondamental. C’est dans cette institut que McCarthy et Minsky fondèrent le MIT Artificiel Intelligence Project (“Projet d’Intelligence Artificiel du MIT). Ce laboratoire technologique et informatique leur a permis de développer une amélioration du Perceptron, un réseau neuronal artificiel, qui fera figure d’exemple pour les projets d’intelligence artificielle jusqu’à aujourd’hui.
Qui a inventé l’intelligence artificielle ?
Bien que l’ordinateur moderne date des années 50, il nous faut remonter des millénaires en arrière pour revenir aux racines, lointaines certes, des inspirations de l’intelligence artificielle.
Les bases de l’IA, à l’aube de la civilisation
L’Institution européenne décrit l’intelligence artificielle comme “une discipline jeune de soixante ans”. Pourtant, elle fait presque partie de l’héritage du savoir humain. C’est dès l’Antiquité que l’on trouve les prémices de l’intelligence artificielle. En effet, Aristote a posé le premier modèle de logique capable d’égaler les réponses rationnelles de l’être humain. Aujourd’hui, ce modèle est toujoursvalable pour l’avenir de l’intelligence artificielle en termes de recherche d’une certaine humanisation des machines.
Egalement, on peut noter l’importance des travaux de George Boole, mathématicien et logicien anglais qui a jeté les bases de l’arithmétique informatique en 1854. Cependant, il faudra attendre le XXe siècle, dans les années 30, pour trouver la matérialisation moderne de la question “Une machine peut-elle penser ?”.
Alan Turing, le père de l’ordinateur
En 1936, Alan Turing conçoit sa machine automatique. Outre le fait que celle-ci soit considérée comme l’un des premiers ordinateurs, son importance réside dans le fait que sont concepteur a déterminé un modèle mathématique de l’informatique déterminant ; celui qui guide la logique de tout algorithme. Ce modèle fait passer les sciences informatiques à un autre niveau en révolutionnant la discipline.
Des années plus tard, en 1950, Turing développe la question de la preuve de l’existence ou de la non-existence de l’intelligence dans une machine avec la mise au point d’un test d’interface homme-machine controversé : le test de Turing. Un évaluateur humain sait que l’un des participants d’une conversation textuelle est une intelligence artificielle, mais il ne sait pas lequel et dispose de 5 minutes pour faire son choix. Passé ce délai, la machine passe le test avec succès. Ainsi, le test de Turing tente de détecter jusqu’à quel point une machine peut imiter l’intelligence d’un humain, de sorte que l’on puisse distinguer ou non le facteur artificiel et vérifier si notre interlocuteur est une machine.

Les fondateurs de l’intelligence artificielle : la conférence de Dartmouth
Le terme d’intelligence artificielle a été inventé par John McCarthy, à la suite de la conférence de Dartmouth, en 1956. Cet atelier scientifique a planté les graines de ce qui allait suivre des décennies plus tard. À la même époque, Allen Newell, Cliff Shaw et Herbert Simon ont présenté leur Logic Theorist, l’un des premiers programmes à montrer le comportement des êtres humains dans la résolution de problèmes mathématiques.
Un an plus tard, en 1957, l’intelligence artificielle fait de nouvelles avancées avec Frank Rosenblatt et son Perceptron, un réseau neuronal artificiel. Marvin Minsky, également participant actif à la célèbre conférence, consolidera ce modèle en 1969.
Dès lors, entre les applications sorties de l’imaginaires d’artistes divers et des laboratoires de recherche, l’IA ne cesse de se perfectionner. Elle offre des perspectives d’amélioration considérables dans foultitude de disciplines et encore aujourd’hui, les informaticiens n’ont pas atteint ses limites.
L’intelligence artificielle aujourd’hui
Cette graine plantée au milieu du siècle dernier a accéléré la croissance de l’intelligence artificielle depuis 2010. Cependant, l’IA est à l’origine de tant de travaux qu’elle suscite des inquiétudes quant aux ressources qu’elle consomme. D’un point de vue plus immatériel, elle trouve aussi ses détracteurs quant au fait que l’intelligence artificielle pourrait, un jour prochain, surpasser l’intelligence humaine.
La prolifération des progrès réalisés et la vitesse à laquelle ils se produisent ont conduit à la considérer comme la quatrième révolution industrielle. Il existe aujourd’hui des dizaines d’exemples d’application de l’IA dans les grandes villes du monde entier : des algorithmes qui améliorent l’habitabilité, des modèles pour éradiquer les embouteillages aux robots qui remplissent des rôles humains et l’arrivée des véhicules autonomes.