Tout commence avec un mathématicien britannique de génie, Alan Turing. En 1950, dans son article ‘Computing Machinery and Intelligence’, il pose une question devenue mythique : ‘Les machines peuvent-elles penser ?’ Pour y répondre, il imagine le ‘Jeu d’imitation’ — connu aujourd’hui sous le nom de Test de Turing. Le principe est simple : si un humain, conversant par écrit avec une machine et avec un autre humain, ne parvient pas à distinguer lequel est lequel, alors la machine peut être considérée comme ‘intelligente’.
Ce test est encore utilisé comme référence philosophique aujourd’hui, même si les modèles de langage modernes l’ont largement dépassé d’un point de vue formel. Ce qui reste précieux dans la contribution de Turing, c’est qu’il a posé les bases conceptuelles d’une question scientifique fondamentale.
En 1956, à Dartmouth College (États-Unis), un groupe de chercheurs se réunit pour un séminaire de recherche estival. Parmi eux, John McCarthy, Marvin Minsky, Nathaniel Rochester et Claude Shannon. C’est lors de cette conférence que le terme ‘Intelligence Artificielle’ est officiellement forgé par John McCarthy. Le programme ambitieux de ce séminaire est de supposer que ‘tous les aspects de l’apprentissage ou toute autre caractéristique de l’intelligence peut en principe être décrite avec une précision telle qu’une machine peut être faite pour la simuler’.
ELIZA est l’un des premiers programmes de traitement du langage naturel. Créé par Joseph Weizenbaum au MIT, il simule un psychothérapeute en reformulant les phrases de l’utilisateur sous forme de questions. Bien qu’entièrement basé sur des règles simples sans véritable compréhension, ELIZA a fasciné et parfois perturbé ses utilisateurs, certains développant un véritable attachement émotionnel au programme. Ce phénomène, appelé ‘Effet ELIZA’, illustre à quel point les humains tendent à anthropomorphiser les machines.
L’histoire de l’IA n’est pas un long fleuve tranquille. Elle est marquée par des périodes d’enthousiasme intense et des ‘hivers de l’IA’ — des phases de désillusion et de coupes budgétaires. Le premier hiver survient dans les années 1970, lorsque les promesses initiales se heurtent à la réalité des limites computationnelles et algorithmiques de l’époque. Un second hiver sévit dans les années 1980-1990, après l’échec des systèmes experts à tenir leurs promesses.
La renaissance arrive dans les années 2010, propulsée par trois facteurs convergents : l’explosion des données disponibles (Big Data), la puissance de calcul des processeurs graphiques (GPU), et les avancées algorithmiques du Deep Learning. Cette combinaison va tout changer.
En 1997, Deep Blue, le supercalculateur d’IBM, bat le champion du monde d’échecs Garry Kasparov. C’est un moment symbolique fort : pour la première fois, une machine bat le meilleur humain dans un jeu de stratégie complexe. Cependant, Deep Blue n’utilise pas d’apprentissage automatique mais une recherche exhaustive des coups possibles, assistée d’heuristiques. Sa puissance est brute, pas apprise.
Watson, le système d’IBM, remporte le célèbre jeu télévisé américain Jeopardy! face aux champions humains. Contrairement à Deep Blue, Watson utilise bien du traitement du langage naturel et de l’apprentissage automatique pour comprendre les questions formulées en anglais naturel. Cette victoire marque un tournant dans la démonstration des capacités du NLP.
Le Go est un jeu de plateau d’une complexité sans commune mesure avec les échecs : le nombre de positions possibles dépasse le nombre d’atomes dans l’univers observable. En 2016, AlphaGo, développé par DeepMind (Google), bat Lee Sedol, l’un des meilleurs joueurs mondiaux de Go. Cette victoire est obtenue grâce à l’apprentissage par renforcement et aux réseaux de neurones profonds. Ce n’est plus une recherche brute : la machine a appris à jouer comme un humain, voire mieux.
Le 30 novembre 2022, OpenAI lance ChatGPT au grand public. En cinq jours, il atteint un million d’utilisateurs — un record absolu dans l’histoire des applications internet. En deux mois, il atteint 100 millions d’utilisateurs actifs, surpassant de loin la croissance de TikTok et Instagram. Cette adoption massive signale un véritable tournant : l’IA générative entre dans le quotidien de millions de personnes, des étudiants aux professionnels, en passant par les créatifs et les chercheurs.