Après la désillusion du perceptron et le premier hiver de l’IA, la discipline retrouve des couleurs (et des budgets) dans les années 80.
Cette fois, l’ambition est plus pragmatique : il ne s’agit plus de mimer un cerveau, mais de capturer la connaissance d’un expert humain et de la coder sous forme de règles. Bienvenue dans l’ère des systèmes experts.
Comment ça marchait ?
Un moteur d’inférence applique une longue série de règles du type « si… alors… », rédigées avec l’aide d’experts humains.
On pouvait ainsi capturer une partie du raisonnement d’un médecin, d’un géologue ou d’un ingénieur.
- PROSPECTOR, développé à la fin des années 70 et utilisé au début des années 80, conseillait les géologues pour localiser de nouveaux gisements miniers. Il a même permis de découvrir un gisement de molybdène (utilisé pour les blindages) dans le Nevada.
- XCON (ou R1), conçu en 1980 chez Digital Equipment Corporation, aidait à configurer les serveurs VAX. C’est l’un des premiers systèmes experts déployés à grande échelle dans l’industrie : il a permis d’économiser des millions en réduisant les erreurs de configuration.
Pour l’époque, ces résultats étaient impressionnants : une machine capable d’assister un spécialiste, presque comme un collègue.
L’âge d’or et ses promesses
Les systèmes experts séduisent rapidement les entreprises. Banques, assurances, industries : chacun rêve d’automatiser les décisions répétitives. On est encore loin des agents IA qui nous épaulent aujourd'hui, mais l'idée est déjà bien présente.
Des start-up spécialisées émergent, les gouvernements investissent massivement et le Japon lance le fameux projet cinquième génération. Le but est de construire une nouvelle génération d’ordinateurs capables de raisonner en langage naturel, de répondre à des questions complexes et même de faire de la traduction automatique. Les ingénieurs japonais projetaient dans les années 80 le futur que nous voyons aujourd’hui dans les grands modèles de langage et les IA génératives.
Le projet est confié à l’ICOT (Institute for New Generation Computer Technology), un institut spécialement créé pour l’occasion. Pendant dix ans, chercheurs et ingénieurs vont travailler sur :
- des ordinateurs parallèles (beaucoup de processeurs travaillant en même temps),
- et des logiciels écrits en Prolog, le langage logique conçu pour manipuler des règles et faire de l’inférence.
L’annonce fait grand bruit : on parle de machines capables de battre les experts humains dans des tâches intellectuelles, presque une “IA nationale” made in Japan. Les États-Unis et l’Europe prennent peur, certains craignent une domination technologique japonaise.
Mais les résultats déçoivent. Les ordinateurs construits sont intéressants sur le plan théorique, mais trop lents et limités pour tenir leurs promesses. Le projet est officiellement abandonné en 1992.
La gueule de bois
L’enthousiasme ne dure pas. Un système expert fonctionne bien tant que son domaine reste étroit et ses règles limitées. Dès que la complexité augmente, le modèle s’effondre. La maintenance devient un cauchemar et chaque nouvelle règle fragilise l’ensemble, les coûts explosent et les résultats stagnent.
Les grandes promesses d’automatisation généralisée ne se concrétisent pas. Au tournant des années 90, l’IA subit une nouvelle vague de scepticisme : certains parlent du second hiver de l’IA.
Ce que ça nous apprend encore
Les systèmes experts n’ont pas été un échec total. Ils ont réellement amélioré certains processus métiers et ouvert la voie à l’IA appliquée. Mais ils ont montré une limite fondamentale : modéliser toute la complexité du monde sous forme de règles explicites est une illusion.
Après les règles des systèmes experts, l’IA allait explorer une autre voie : l’apprentissage à partir de données. Plutôt que de coder la connaissance humaine, les chercheurs allaient miser sur des algorithmes capables de repérer des régularités statistiques. Un changement discret, mais qui allait transformer durablement la discipline.