Une brève histoire de l'intelligence artificielle (IA) : de Turing à l'IoT
En bref
- L’intelligence artificielle (IA) en tant que concept remonte à l’Antiquité, mais l’IA moderne a commencé au milieu du XXe siècle avec des pionniers comme Alan Turing. Dans les années 1950, les ordinateurs n’étaient pas assez avancés pour développer l’IA, et ils étaient beaucoup trop coûteux pour la plupart (les frais de location pouvaient atteindre 200 000 $ par mois)
- Newell, Shaw et Simon ont créé Logic Theorist au milieu des années 1950. Logic Theorist est un programme informatique souvent considéré comme le premier programme d’IA. Il peut résoudre des théorèmes mathématiques à l’aide de symboles
- Le financement de l’IA a augmenté dans les années 1960 et 1970, y compris le soutien gouvernemental de la DARPA
- Les principaux développements des années 1980 incluent l’avènement de «l’apprentissage en profondeur», permettant aux ordinateurs d’apprendre en utilisant l’expérience, et des systèmes experts qui pourraient commencer à reproduire le processus de prise de décision d’un humain
- Dans les années 2000, l’IA s’était popularisée grâce à Deep Blue d’IBM, aux jouets Furby, aux Roombas et finalement à l’assistant virtuel Siri d’Apple, parmi beaucoup d’autres
- Aujourd’hui, les développeurs lancent de nouveaux programmes d’IA sous la forme de véhicules autonomes, d’outils d’apprentissage automatique, de chatbots, d’assistants virtuels, etc. conduisant à un Internet des objets (IoT) croissant et à d’innombrables nouveaux cas d’utilisation
comme le golem dans le folklore juif. Les golems, selon la mythologie, étaient des êtres faits de substances sans vie comme de la terre qui ont été animées par un type d’incantation.
Années 1950 : Alan Turing
L’IA moderne a ses origines dans les premiers ordinateurs du milieu du XXe siècle et avec des pionniers tels que le mathématicien, cryptographe et informaticien britannique Alan Turing. Dans son article de 1950 « Computing Machinery and Intelligence », Turing a posé une question : les machines peuvent-elles utiliser l’information et la raison pour résoudre des problèmes et prendre des décisions de la même manière que les humains ? À bien des égards, cette question guide toujours les efforts contemporains pour créer et faire progresser les technologies d’IA.
Au cours de la vie de Turing, les limitations technologiques ont considérablement entravé les avancées potentielles de l’IA. Les ordinateurs étaient rares, extrêmement chers (coûtant jusqu’à 200 000 dollars par mois dans les années 1950) et rudimentaires par rapport au matériel moderne. Un problème clé pour la génération de Turing est que les ordinateurs à l’époque ne pouvaient qu’exécuter des commandes, pas les stocker. Les ordinateurs pouvaient exécuter des fonctions mais n’étaient pas encore capables de se souvenir de ce qu’ils avaient fait.
Années 1950 : Théoricien de la logique
L’un des premiers programmes d’IA s’appelait Logic Theorist, développé au milieu des années 1950 par Allen Newell, Cliff Shaw et Herbert Simon. Logic Theorist était un programme informatique qui pouvait utiliser un langage symbolique pour prouver des théorèmes mathématiques. En plus d’être une avancée technologique révolutionnaire pour l’IA, Logic Theorist a également eu un impact de plusieurs décennies sur le domaine de la psychologie cognitive.
Des années 1960 aux années 1980 : développement de la technologie et lancement des programmes d’IA ultérieurs
Dans les années 1960 et 1970, la technologie informatique progresse rapidement. Les ordinateurs ont pu traiter plus rapidement et stocker plus d’informations. Peut-être plus important encore, ils sont devenus plus courants, accessibles et moins chers. Après Newell, Shaw et Simon, d’autres informaticiens de la première heure ont créé de nouveaux algorithmes et programmes qui sont devenus plus aptes à cibler des tâches et des problèmes spécifiques. Il s’agit notamment d’ELIZA, un programme de Joseph Weizenbaum conçu comme un des premiers processeurs de langage naturel.
L’une des raisons du succès d’AI au cours de cette période était le solide soutien financier de la Defense Advanced Research Projects Agency (DARPA) et d’institutions universitaires de premier plan. Ce soutien et la rapidité des développements de la technologie de l’IA ont conduit des scientifiques comme Marvin Minsky à prédire en 1970 qu’une machine avec «l’intelligence générale d’un être humain moyen» n’était qu’à trois à huit ans.
Pourtant, de nombreux obstacles devaient être surmontés avant que cet objectif puisse être atteint. Les informaticiens ont découvert que le traitement du langage naturel, l’auto-reconnaissance, la pensée abstraite et d’autres compétences spécifiques à l’homme étaient difficiles à reproduire avec des machines. Et le manque de puissance de calcul des ordinateurs tels qu’ils existaient à l’époque était encore un obstacle important.
Les années 1980 ont vu de nouveaux développements dans ce que l’on appelle «l’apprentissage en profondeur», permettant aux ordinateurs de tirer parti de l’expérience pour acquérir de nouvelles compétences. Les systèmes experts, lancés par Edward Feigenbaum, pourraient commencer à reproduire les processus de prise de décision par les humains.
Années 1990 : bleu profond
L’un des exemples d’IA les plus médiatisés à ce jour s’est produit en 1997, lorsque le programme informatique Deep Blue d’IBM a vaincu le champion du monde d’échecs et grand maître Gary Kasparov. Le match a été très médiatisé, apportant l’IA au public d’une manière inédite. Dans le même temps, les logiciels de reconnaissance vocale avaient suffisamment progressé pour être intégrés dans les systèmes d’exploitation Windows. En 1998, l’IA a fait une autre incursion importante dans la vie publique lorsque le Furby, le premier robot jouet « animal de compagnie », est sorti.
Années 2000 : robots humanoïdes, voitures sans conducteur
Au début des années 2000, un certain nombre de robots humanoïdes ont rapproché l’IA des tropes de science-fiction. Kismet, un robot au visage humain et capable de reconnaître et de simuler des émotions, a été lancé en 2000. Honda a lancé un robot humanoïde similaire appelé ASIMO la même année. En 2009, Google a développé un prototype de voiture sans conducteur, bien que la nouvelle de cette avancée ne soit apparue que plus tard.
Des années 2010 à nos jours
La dernière décennie a vu les technologies et les applications d’IA proliférer à un rythme effréné. ImageNet, lancé à l’origine en 2007, est une puissante base de données d’images annotées utilisées pour former des programmes d’IA. Des applications d’IA très médiatisées ont trouvé leur place dans le jeu télévisé populaire Jeopardy !, les jeux vidéo et même l’iPhone lorsqu’il a lancé l’assistant virtuel Siri en 2011. Alexa d’Amazon, Cortana de Microsoft et d’autres programmes et outils d’IA ont encore popularisé ce technologie.
Aujourd’hui, à l’ère de l’Internet des objets (IoT), on est susceptible de trouver l’IA dans plus d’endroits que jamais auparavant. Les véhicules autonomes, les outils d’apprentissage automatique, les chatbots, les assistants virtuels et d’autres programmes d’IA continuent de se lancer, souvent à un rythme accéléré et avec une puissance croissante. L’un des programmes d’IA les plus médiatisés de l’histoire, le chatbot ChatGPT, lancé fin 2022 et a rapidement inspiré des légions de fans et des programmes de chatbot associés. Les investisseurs se concentrent de plus en plus sur les entreprises d’IA. L’avenir de l’IA semble radieux, même si certains restent sceptiques quant à d’éventuelles préoccupations éthiques ou autres.