Il est crucial de distinguer les différents types d’IA pour éviter les confusions fréquentes dans les médias. L’IA que nous utilisons aujourd’hui est radicalement différente de ce que les films de science-fiction décrivent.
L’IA Étroite (Narrow AI ou ANI pour Artificial Narrow Intelligence) est une IA spécialisée dans une tâche unique ou un domaine précis. C’est le seul type d’IA qui existe réellement aujourd’hui. Un système d’IA étroite peut être extraordinairement performant dans son domaine — bien au-delà des capacités humaines — mais il est totalement incapable de sortir de ce cadre.
Exemples concrets : Siri reconnaît la parole et répond à des questions, mais ne peut pas jouer aux échecs. AlphaGo joue au Go mieux que n’importe quel humain, mais ne comprend pas une phrase en français. Un système de recommandation de Netflix sait quels films vous suggérer, mais ne peut pas conduire une voiture autonome. Chaque IA étroite est une spécialiste dans son domaine, sans transfert de compétences possible.
L’IA Générale (Artificial General Intelligence ou AGI) serait un système capable de comprendre, apprendre et appliquer l’intelligence à n’importe quel problème, comme le ferait un être humain. Elle pourrait passer d’une tâche à l’autre, transférer des connaissances entre domaines, faire preuve de raisonnement abstrait et s’adapter à des situations entièrement nouvelles.
L’AGI n’existe pas encore. Selon les experts du domaine, les estimations sur la date à laquelle elle pourrait être atteinte varient énormément : certains pensent qu’elle est à quelques années, d’autres à plusieurs décennies, et d’autres encore doutent qu’elle soit jamais réalisable. Ce débat est l’un des plus fondamentaux — et des plus divisifs — dans la communauté de la recherche en IA.
La Superintelligence (ASI pour Artificial Superintelligence) désigne une IA qui dépasserait largement les capacités humaines dans tous les domaines intellectuels — science, créativité, sagesse sociale, etc. C’est le territoire de la spéculation et de la philosophie. Le philosophe Nick Bostrom, dans son livre ‘Superintelligence’ (2014), a exploré les risques que pourrait poser une telle entité si ses objectifs n’étaient pas parfaitement alignés avec ceux des humains.
Une autre façon de classer les systèmes d’IA consiste à regarder comment ils traitent l’information et le temps. On distingue quatre niveaux de sophistication croissante.
Le premier niveau, l’IA Réactive, est le plus basique. Ces systèmes n’ont pas de mémoire et réagissent uniquement à la situation présente. Deep Blue est un exemple parfait : il évalue la position actuelle sur l’échiquier sans se souvenir des parties précédentes ni anticiper les émotions de son adversaire.
Le deuxième niveau, l’IA à Mémoire Limitée, peut utiliser des données passées pour améliorer ses décisions futures. Tesla Autopilot est un exemple : il analyse les manœuvres passées, les données de trafic récentes et les comportements des autres véhicules pour prendre de meilleures décisions de conduite.
Le troisième niveau, la Théorie de l’Esprit, est un concept encore en développement. Ces systèmes pourraient comprendre les émotions, croyances et intentions des humains, et adapter leur comportement en conséquence. Aucun système ne l’a pleinement atteint.
Le quatrième niveau, l’Auto-conscience, est purement hypothétique. Ce serait une IA possédant une représentation d’elle-même, consciente de sa propre existence. C’est le domaine de la fiction scientifique.
Indépendamment du niveau de l’IA, il existe trois grandes familles d’apprentissage automatique qui correspondent à différentes manières d’entraîner un système.
L’apprentissage supervisé est le plus courant. On fournit au modèle des données étiquetées : par exemple, des milliers de photos de chiens avec le label ‘chien’ et de chats avec le label ‘chat’. Le modèle apprend à associer les caractéristiques visuelles aux bonnes étiquettes. C’est la base de la plupart des applications de classification et de détection.
L’apprentissage non supervisé, lui, ne dispose d’aucune étiquette. Le modèle doit lui-même trouver des structures, des groupes ou des patterns dans les données. C’est utile pour la segmentation de clients, la détection d’anomalies ou la compression de données.
L’apprentissage par renforcement est plus proche de la façon dont les animaux apprennent : par essais et erreurs. L’agent reçoit une récompense quand il réussit et une pénalité quand il échoue. C’est la technique qui a permis à AlphaGo et aux robots de laboratoire d’apprendre à accomplir des tâches complexes.