Histoire de l'intelligence artificielle - Master 1 Informatique - PDF

Summary

Ce document fournit une vue d'ensemble de l'histoire de l'intelligence artificielle, en abordant les précurseurs et les différentes étapes de son développement. Il s'intéresse aux concepts clés et aux avancées technologiques. Le document couvre l'histoire de l'IA depuis l'Antiquité jusqu'à nos jours.

Full Transcript

Bases de l’Intelligence Artificielle Master 1 Informatique Fabrice MUHLENBACH https://perso.univ-st-etienne.fr/muhlfabr/ e-mail : [email protected] 1 Histoire de l’intelligence artificielle...

Bases de l’Intelligence Artificielle Master 1 Informatique Fabrice MUHLENBACH https://perso.univ-st-etienne.fr/muhlfabr/ e-mail : [email protected] 1 Histoire de l’intelligence artificielle Introduction depuis l’aube de l’humanité : Homme → question du sens, interrogations sur le monde, la nature, soi et les autres l’Homme a toujours cherché à imiter la Nature → espoir d’avoir une certaine action ou un certain contrôle sur les faits et les choses face à l’inconnu et aux questions sans réponses, l’Homme a proposé des modèles explicatifs (mythes et sciences) l’histoire de l’intelligence artificielle = histoire de l’évolution de la pensée humaine sur les questions portant sur la nature de l’esprit (mythes, philosophie, psychologie, sciences) et + histoire des technologies liées à ces questions 2 Histoire de l’intelligence artificielle Prémices de l’informatique : Antiquité Antiquité égyptienne → l’esprit dans la machine dans des statues sacrées vers le Xe siècle av. J.-C. → automates anthropomorphes réalistes en Chine (par Yan Shi, au service de Ji Man) dans la mythologie grecque → robots serviteurs du dieu Hephaïstos vers 1750 av. J.-C. → à Babylone (époque d’Hammurabi), tables présentant les algorithmes les plus anciens vers 300 av. J.-C. → algorithmes plus généraux publiés par des mathématiciens grecs (Euclide et Eratosthène) vers 87 av. J.-C. → machine d’Anticythère, premier calculateur analogique (Archimède ?) 3 Histoire de l’intelligence artificielle Prémices de l’informatique : Antiquité et Moyen Âge vers le IIIe siècle av. J.-C. → premiers automates de l’Antiquité par Philon de Byzance et Ctésibios d’Alexandrie vers le VIIIe siècle → Mohamed Ybn Moussa al-Khwârizmî (né dans les années 780, originaire de Khiva dans la région du Khwarezm, dans l’actuel Ouzbékistan, mort vers 850 à Bagdad) → théorie des algorithmes + « Abrégé du calcul par la restauration et la comparaison » → invention de l’algèbre (de l’arabe « Al-jabr » : « compensation ») → 1er traité à étudier les équations du 1er et 2nd degré au XIIIe siècle → le philosophe Raymond Lulle (1232-1315) conçoit plusieurs machines logiques dédiées à la production de connaissance par des moyens logiques 4 Histoire de l’intelligence artificielle Prémices de l’informatique : Moyen Âge, Temps modernes vers 1550 → création mythique du Golem par le rabbin de Prague (Maharal) au XVIIIe siècle → des philosophes tels que Gottfried Leibniz, Thomas Hobbes ou René Descartes explorent la possibilité que toute la pensée rationnelle puisse être aussi systématique que l’algèbre ou la géométrie (la raison n’est que calcul) 1617 → abaque perfectionné (John Napier), la formulation des logarithmes démontre que la multiplication et la division peuvent se ramener à une série d’additions 1632 → règle à calculer (William Oughtred) basée sur l’abaque de Napier 5 Histoire de l’intelligence artificielle Prémices de l’informatique : Temps modernes 1645 → Pascaline (machine à calculée inventée par Blaise Pascal) 1703 → arithmétique binaire inventée par Leibniz 1725 → métier à tisser programmé par lecture d’un ruban perforé (Basile Bouchon) 1728 → métier à tisser programmé par cartes perforées (Jean-Baptiste Falcon) 1735 → le flûteur automate (Jacques de Vaucanson) 1745 → métier à tisser entièrement programmable (Jacques de Vaucanson) 1747 → Julien Offray de La Mettrie défend des thèses matérialistes dans « L’Homme Machine » 6 Histoire de l’intelligence artificielle Prémices de l’informatique : Temps révolutionnaires et XIXe siècle 1801 → métier à tisser semi-automatique (Joseph Marie Jacquard) 1822 → machine à calculer automatique, la machine à différences de Charles Babbage 1836 → machine infiniment programmable : Babbage remplace le cylindre de programmation à picots par la lecture de cartes jacquard 1843 → écriture d’un algorithme pour calculer les nombres de Bernoulli sur la future machine analytique de Babbage (Ada Lovelace) 1847 → algèbre de Boole (George Boole) 7 Histoire de l’intelligence artificielle Prémices de l’informatique : XIXe siècle 1851 → industrie des machines à calculer avec l’arithmomètre simplifié (Thomas de Colmar) 1869 → piano logique de Jevons : machine permettant d’arriver mécaniquement aux conclusions induites par un jeu de prémisses 1876 → analyseur différentiel de James Thomson : machine permettant la résolution des équations différentielles par intégration, en utilisant des systèmes de roues et de volants 1890 → carte perforée de Herman Hollerith, 1ère utilisation concrète de cartes Jacquard en-dehors de l’industrie du textile (mécanisation des études statistiques) 8 Histoire de l’intelligence artificielle L’époque des pionniers 1908 → Camillo Olivetti ouvre la première fabrication de machines à écrire d’Italie 1911 → création de la Computing-Tabulating-Recording Company (C-T-R) par Charles Ranlett Flint avec la fusion de plusieurs entreprises dans le domaine de la mécanique, dont l’International Time Recording Company et la Tabulating Machine Company 1914 → machine électromécanique analytique de démonstration : Leonardo Torres Quevedo remplace toutes les fonctions mécaniques de la machine analytique de Charles Babbage par des éléments construits avec des relais électromécaniques 9 Histoire de l’intelligence artificielle L’époque des pionniers 1914 → Thomas J. Watson est nommé à la tête de la compagnie C-T-R 1920 → arithmomètre électromécanique, machine commandée par une machine à écrire et imprimant les résultats (Leonardo Torres Quevedo) 1921 → représentation théâtrale de R. U. R. (Rossum’s Universal Robots) Karel Čapek 1924 → Watson renomme la compagnie C-T-R en IBM (qu’il présidera jusqu’en 1956) 1927 → première version utilisable de l’analyseur différentiel de Thomson, construction par H. W. Nieman et Vannevar Bush (MIT) 10 Histoire de l’intelligence artificielle L’époque des pionniers 1928 → algorithme MinMax par Von Neumann 1931 → théorème d’incomplétude de Gödel de Kurt Gödel 1930 → création de la Compagnie des Machines Bull à Paris. Exploitation du brevet de Fredrik Rosing Bull (1882- 1925), ingénieur à la société d’assurance norvégienne Storebrand, qui a déposé en 1921 un brevet de « trieuse- enregistreuse-additioneuse combinée à cartes perforées » 1935 → lambda-calcul (Alonzo Church) : système formel qui fonde les concepts de fonction et d’application 1936 → publication de « On Computable Numbers with an Application to the Entscheidungsproblem » par Alan Turing → indécidabilité algorithmiq. → modèle machine abstraite 11 Histoire de l’intelligence artificielle L’époque des pionniers 1937 → Howard Aiken propose à IBM de construire le Mark I dont l’architecture est basée sur la machine analytique de Babbage 1937 → Claude Shannon (MIT) présente l’idée d’appliquer l’algèbre booléenne aux relais électroniques dans un séminaire sur la conception des circuits numériques 1937 → Djon Atanasov et Clifford Berry construisent un calculateur électronique, nommé ABC pour Atanasoff- Berry Computer. C’est le premier ordinateur numérique électronique (reconnu comme tel après un procès contre l’ENIAC). La machine ABC est testée avec succès en 1942 1939 → IBM commence à construire le Mark I 12 Histoire de l’intelligence artificielle Les années 1940 et 1950 une poignée de scientifiques de différentes disciplines (mathématiques, psychologie, ingénierie, économie et science politique) commencent à discuter de la possibilité de créer un cerveau artificiel (origines de la cybernétique) 1941 → le Z3, calculateur programmable de Konrad Zuse, est achevé à Berlin. Première machine programmable pleinement automatique (1er ordinateur du monde ?) → machine programmable mais encore électromécanique (utilisation de relais), le Z3 est utilisé par l’Institut de recherche aéronautique allemand pour réaliser des analyses statistiques sur les vibrations des ailes 1942 → décryptage d’Enigma au Bletchley Park par Turing 13 Histoire de l’intelligence artificielle Les années 1940 et 1950 1943 → calculateur Colossus : calculateur électronique fondé sur le système binaire, utilisé pendant la Seconde Guerre mondiale pour la cryptanalyse du code Lorenz 1943 → début de la cybernétique (Norbert Wiener), concept de rétro-action 1943 → neurone formel (Warren McCulloch et Walter Pitts) 1944 → calculateur Harvard Mark I : l’IBM ASCC (Automatic Sequence Controlled Calculator) développé par l’équipe de Howard Aiken, appelé le Mark I par l’Université Harvard, a été le premier grand calculateur numérique construit aux États-Unis 1945 → Vannevar Bush : idée des documents hypertextes 14 Histoire de l’intelligence artificielle Les années 1940 et 1950 1946 → l’ENIAC (Electronic Numerical Integrator Analyser and Computer) de John Eckert et John Mauchly est opérationnel. L’ENIAC est considéré à tort comme le premier ordinateur. Il reçoit l’attention des journaux notamment à cause de sa taille imposante mais il n’est pas la fine fleur de son temps. Contrairement au Z3 de Konrad Zuse (1941) ou au MARK I de Howard Aiken (1944), il doit être recâblé pour exécuter un nouveau programme, et l’ENIAC utilise des registres décimaux et non binaires 1947 → invention du transistor (John Bardeen, William Shockley et Walter Brattain) 15 Histoire de l’intelligence artificielle Les années 1940 et 1950 1947 → fondation de l’Association for Computing Machinery (ACM) 1947 → invention du langage de programmation assembleur, langage de bas niveau 1948 → Small-Scale Experimental Machine : première machine à architecture de von Neumann (programme enregistré) par Frederic Calland Williams, Tom Kilburn et Geoff Tootill 1949 → la société Olivetti se diversifie dans la fabrication de plusieurs appareils mécanographiques pour se développer ensuite dans l’informatique 1949 → Manchester Mark I, développé à l’U. de Manchester à partir de la SSEM 16 Histoire de l’intelligence artificielle Les années 1940 et 1950 1949 → Le Manchester Mark 1 : premier ordinateur électronique à programme enregistré en mémoire 1949 → Warren Weaver publie son mémorandum sur la traduction automatique des langues naturelles qui est à la fois visionnaire et optimiste sur le futur de ce problème fondamental de l’intelligence artificielle 1951 → Alan Turing développe sur le papier le premier programme capable de jouer aux échecs 1950 → Turing publie un article mémorable dans lequel il spécule sur la possibilité de créer des machines dotées d’une véritable intelligence. Il remarque qu’il est difficile de définir « l’intelligence » et imagine son célèbre test 17 Histoire de l’intelligence artificielle Les années 1940 et 1950 dans le « jeu de l’imitation » de 1950 (rebaptisé plus tard « test de Turing » par Arthur C. Clarke) : si une machine peut mener une conversation (par téléscripteur interposé) qu’on ne puisse différencier d’une conversation avec un être humain, alors la machine peut être qualifiée d’« intelligente » → version simplifiée du problème argumentant qu’une « machine pensante » est au moins plausible → le test de Turing a été la première hypothèse sérieuse dans le domaine de la philosophie de l’intelligence artificielle 18 Histoire de l’intelligence artificielle Les années 1940 et 1950 1951 → inspiré par les travaux de McCulloch et Pitts, Marvin Minsky (avec l’aide de Dean Edmonds) construit la première machine à réseau neuronal : le SNAR 1951 → en utilisant la machine Ferranti Mark I de l’université de Manchester, Christopher Strachey a écrit un programme de jeu de dames et Dietrich Prinz un programme de jeu d’échecs 1953 → ordinateurs IBM 701 et IBM 650 1954 → Alan Turing se suicide en mangeant une pomme contenant du cyanure 1954 → création du Fortran, 1er langage de programmation de haut niveau à être implémenté sur un ordinateur 19 Histoire de l’intelligence artificielle Les années 1940 et 1950 1955 → premiers ordinateurs français construits et mis en service par la Société d’électronique et d’automatisme (SEA) : CUBA, CAB 1011 et CAB 2000. 1955 → Bull met au point un calculateur électronique à tambour magnétique 1955 → En 1955, Allen Newell et (le futur prix Nobel) Herbert Simon, avec l’aide de Cliff Shaw, ont créé le « Théoricien logique » → programme capable de démontrer 38 des 52 premiers théorèmes des Principia Mathematica de Russell et Whitehead → démonstrations inédites dont certaines sont jugées particulièrement élégantes 20 Histoire de l’intelligence artificielle Les années 1940 et 1950 1955 → Simon raconte qu’avec Newell et Shaw, ils ont « résolu le vénérable problème corps-esprit, expliquant comment un système composé de matière peut avoir des propriétés de l’esprit » c’est l’une des premières formulations d’un mouvement philosophique que John Searle (auteur de la « Chambre chinoise », une expérience de pensée) appellera plus tard « l’intelligence artificielle forte » l’idée principale de l’IA forte : « comme les humains, les machines peuvent posséder un esprit » 21 Histoire de l’intelligence artificielle Les années 1940 et 1950 1956 → conférence de Dartmouth de 1956 organisée par Marvin Minsky, John McCarthy et deux scientifiques seniors, Claude Shannon et Nathan Rochester d’IBM la thèse de la conférence incluait cette assertion : « chaque aspect de l’apprentissage ou toute autre caractéristique de l’intelligence peut être si précisément décrit qu’une machine peut être conçue pour le simuler » parmi les participants on retrouve Ray Solomonoff, Oliver Selfridge, Trenchard More, Arthur Samuel, Allen Newell et Herbert Simon, qui vont tous créer des programmes importants durant les premières décennies de la recherche en IA. 22 Histoire de l’intelligence artificielle Les années 1940 et 1950 à la conférence, Newell et Simon ont débuté le « Théoricien Logique » McCarthy a convaincu l’auditoire d’accepter l’expression « Intelligence Artificielle » comme intitulé du domaine la conférence de Dartmouth de 1956 a été le moment clé où l’IA a trouvé son nom, sa mission, ses premières réussites et ses acteurs importants, et est largement considérée comme la naissance de l’IA les années qui suivent la conférence de Dartmouth (jusqu’en 1974) sont une ère de découverte, de conquêtes effrénées de nouvelles contrées du savoir 23 Histoire de l’intelligence artificielle Les années 1940 et 1950 les programmes développés à l’époque sont considérés par la plupart des gens comme simplement « extraordinaires » : des ordinateurs résolvent des problèmes algébriques de mots, démontrent des théorèmes en géométrie et apprennent à parler anglais à cette époque, peu croient que de tels comportements « intelligents » soient possibles pour des machines les chercheurs font preuve alors d’un optimisme intense et prédisent qu’une machine complètement intelligente sera construite dans les 20 ans à venir les agences gouvernementales comme la DARPA investissent massivement dans ce nouveau domaine 24 Histoire de l’intelligence artificielle Les années 1940 et 1950 1956 → Noam Chomsky dépose sa thèse de doctorat où il décrit la hiérarchie de Chomsky, résultat le plus important de la théorie des automates 1956 → algorithme d’élagage alpha-bêta par John McCarthy 1956 → IBM sort le premier disque dur : le RAMAC 305 1957 → General Problem Solver par Allen Newell et Herbert Simon 1958 → circuit intégré, inventé par Robert Noyce et Jack Kilby 1958 → le langage Lisp inventé par John McCarthy 25 Histoire de l’intelligence artificielle Les années 1940 et 1950 1956 → prédiction d’Herbert Simon et Allen Newell : « d’ici dix ans un ordinateur sera le champion du monde des échecs » et « d’ici dix ans, un ordinateur découvrira et résoudra un nouveau théorème mathématique majeur » 1958 → introduction du réseau neuronal « Perceptron » par Frank Rosenblatt Comme la plupart des chercheurs en IA de l’époque, Rosenblatt est optimiste, prédisant qu’« un perceptron pourra être capable d’apprendre, de prendre des décisions, et de traduire les langues » → un programme de recherche dynamique sur ces concepts est mené dans les années soixante 26 Histoire de l’intelligence artificielle Les années 1960 1960 → Bull Gamma 60, premier ordinateur multitâches et l’un des premiers multiprocesseurs 1960 → la SEA présente son CAB 500, mini-ordinateur doté d’un langage évolué en français, « PAF » Une centaine d’exemplaires seront vendus 1962 → invention du mot « informatique » par Philippe Dreyfus et Robert Lattès 1963 → invention de la souris par Douglas Engelbart du Stanford Research Institute 1963 → le MIT reçoit une subvention de 2,2 millions de dollars de la toute jeune ARPA (« Agence pour les projets de recherche avancée » (plus tard : DARPA) 27 Histoire de l’intelligence artificielle Les années 1960 l’IA et l’argent : ❑ financement du « Groupe IA » du MIT fondé par Minsky et McCarthy cinq ans plus tôt ❑ l’ARPA continue à fournir trois millions de dollars par an jusqu’aux années 1970 ❑ l’ARPA fait des subventions similaires au programme de Newell et Simon à Carnegie-Mellon et au projet Stanford IA (fondé par John McCarthy en 1963) ❑ un autre laboratoire important d’IA est établi à l’université d’Édimbourg par Donald Michie en 1965. ❑ → principaux centres de recherche en IA au niveau académique pendant de nombreuses années 28 Histoire de l’intelligence artificielle Les années 1960 1965 → Olivetti est l’inventeur du premier « ordinateur de bureau », le Programma 101 (utilisé par la NASA à l’occasion de la mission Apollo 11) 1965 → premier système expert (Dendral) par Edward Feigenbaum 1965 → loi de Moore (Gordon Moore) : « la capacité des processeurs doublera tous les 18 mois » 1965 → Herbert Simon : « des machines seront capables, d’ici vingt ans, de faire tout travail que l’homme peut faire » 29 Histoire de l’intelligence artificielle Les années 1960 1966 → ELIZA de Joseph Weizenbaum : programme pouvait mener des conversations si réalistes que certains utilisateurs se sont laissé abuser en croyant communiquer avec un être humain et non un programme (1er agent conversationnel) 1967 → Douglas Engelbart dépose un brevet pour l’invention de la souris 1967 → disquette commercialisée par IBM 1967 → Marvin Minsky : « dans une génération [...] le problème de la création d’une “intelligence artificielle” sera en grande partie résolu » 30 Histoire de l’intelligence artificielle Les années 1960 1968 → Arthur C. Clarke et Stanley Kubrick imaginent que dès l’année 2001, une machine aura une intelligence comparable, voire excédant les capacités des êtres humains → la création de HAL 9000 s’appuie sur une opinion répandue chez nombre de chercheurs en intelligence artificielle, à savoir qu’une telle machine existera en 2001 fin des années 1960 → critique du modèle de Rosenblatt dans le livre « Perceptrons » par Marvin Minsky et Seymour Papert du Laboratoire d’IA du MIT → la recherche en IA doit se concentrer sur des situations artificiellement simplifiées appelées aussi micro-mondes 31 Histoire de l’intelligence artificielle Les années 1970 fin 1969, Arpanet renommé plus tard Internet comptait quatre nœuds 1970 → Marvin Minsky (dans le magazine Life) : « Dans trois à huit ans nous aurons une machine avec l’intelligence générale d’un être humain ordinaire » 1970 → Terry Winograd dépose sa thèse de doctorat sur SHRDLU 1970 → fondation du Xerox PARC 1971 → 23 ordinateurs sont reliés sur Arpanet 1971 → commercialisation du Mitra 15 de la CII, mini-ordinateur français 32 Histoire de l’intelligence artificielle Les années 1970 1973 → développement des principes de base d’Ethernet au centre de recherche Xerox de Palo Alto 1974 → l’IA subit des critiques et revers budgétaires → les chercheurs en IA n’appréhendent pas les difficultés des problèmes auxquels ils sont confrontés → optimisme → attente excessive mais les résultats promis ne se matérialisent pas → fin des investissements limites de l’époque en puissance de calcul et mémoire → Moravec : « en dessous d’un certain niveau de puissance, un avion reste plaqué au sol et ne peut pas décoller du tout, c’est juste impossible ». Mais comme la puissance informatique augmente, ça deviendra possible 33 Histoire de l’intelligence artificielle Les années 1970 autres limites : ❑ la complétude NP (pas de passage à l’échelle) ❑ raisonnement et base de connaissance de culture générale (applications nécessitant d’énormes quantités d’information du monde réel) ❑ paradoxe de Moravec (complexité des tâches simples) ❑ problème du cadre (modification des structures logiques) ❑ critiques universitaires des philosophes (Lucas, Dreyfus…), p.ex. Weizenbaum commence à avoir de sérieux doutes éthiques à propos de l’IA quand Kenneth Colby écrit DOCTOR, un agent conversationnel thérapeute 34 Histoire de l’intelligence artificielle Les années 1970 1975 → fondation de Microsoft par Bill Gates et Paul Allen l’Altair 8800 est doté du premier Altair Basic de Bill Gates et Paul Allen 1976 → premier supercalculateur de la firme Cray Research : le Cray I 1976 → fondation d’Apple et lancement de l’Apple I par Steve Jobs et Steve Wozniak 1977 → Chess devient le premier programme informatique à remporter un tournoi d’échecs majeur 35 Histoire de l’intelligence artificielle Les années 1970 À la National Computer Conference (NCC) d’Anaheim (Californie) de 1977, quatre micro-ordinateurs « prêts à fonctionner » secouent le monde informatique : ❑ le TRS-80 de Tandy Radio-Shack (USA) : Zilog Z80 à 1,77 MHz, 128×48×1 couleurs ; ❑ le DAI Imagination machine de la société Indata (Belgique) : Intel 8080A à 2 MHz, 528×244×16 couleurs ; ❑ Apple II d’Apple (USA) : MOS 6502 à 1 MHz, 280x192x6 couleurs ; ❑ Commodore PET de Commodore (USA/Canada) : MOS 6502 à 1 MHz, 40 colonnes × 25 lignes × 1 couleur. 36 Histoire de l’intelligence artificielle Les années 1980 trois grands tournants dans les années 1980 : ❑ développement des programmes d’IA appelés « systèmes experts » → adoption par les entreprises et la connaissance devient le sujet central de la recherche en IA ❑ le gouvernement japonais finance massivement l’IA à travers son initiative « ordinateurs de 5ème génération » ❑ renaissance du connexionnisme à travers les travaux de John Hopfield et David Rumelhart 1980 → « loi française Informatique et Libertés » 1980 → invention du Compact Disc (CD), Sony et Philipps 1980 → équipement des 55 premiers utilisateurs de l’annuaire électronique → 4 000 Minitels en 1981 (France) 37 Histoire de l’intelligence artificielle Les années 1980 1980 → IBM PC 5150, premier ordinateur personnel produit à partir de 1981 à plusieurs millions d’exemplaires par IBM : lecteurs de disquettes 5 pouces 1/4 de 160 ko, système d’exploitation MS-DOS, processeur Intel 8088, mémoire de 16 ko extensible à 256 1981 → Japon : 850 millions de dollars pour le projet des ordinateurs de 5ème génération → objectif : écrire des programmes et de construire des machines qui peuvent tenir des conversations, traduire, interpréter des images et raisonner comme des êtres humains (Prolog) programmes équivalents au Royaume-Uni (projet Alvey) et aux États-Unis (DARPA Strategic Computing Initiative) 38 Histoire de l’intelligence artificielle Les années 1980 1982 → définition du protocole TCP/IP et du mot Internet 1982 → Commodore 64 1982 → Microsoft : sortie de MS-DOS (compatibles PC) 1982 → réseau associatif (physicien John Hopfield) : nouveau mode de réseau neuronal, inspiré par le modèle des verres de spins 1982 → réseaux de neurones multicouches (David Rumelhart) : méthode de formation des réseaux neuronaux appelée « rétropropagation du gradient » 1983 → Apple : l’Apple Lisa, Macintosh 128K 1984 → 1 000 ordinateurs sont connectés à Internet 1984 → création de la Free Software Fondation (FSF), du projet GNU et de la licence GPL 39 Histoire de l’intelligence artificielle Les années 1980 1984 → la micro-informatique arrive dans les foyers : ❑ Thomson (SIMIS, France) : sortie du MO5 ❑ Amstrad (UK) : sortie du CPC 464 ❑ Apple (USA) : sortie du Macintosh et de Mac OS ❑ l’Oric Atmos (UK → France) est ordinateur de l’année en France, meilleures ventes en UK et France spot publicitaire : 1984 est un spot publicitaire réalisé par Ridley Scott pour le lancement en 1984 du 128K, premier ordinateur Macintosh de la firme californienne Apple → chef-d’œuvre en matière de publicité présenté lors 3ème quart-temps du Super Bowl XVIII, inspiré de 1984 d’Orwell → critique de la télévision et des ordinateurs d’IBM 40 Histoire de l’intelligence artificielle Les années 1980 1985 → Steve Jobs quitte Apple et fonde la société NeXT 1985 → ordinateurs, matériels et systèmes d’exploitation : ❑ Amiga Commodore : l’Amiga 1000 avec AmigaOS 1.0 ❑ Atari ST ❑ Microsoft : Windows 1.0 ❑ arrivée du CD-ROM 1986 → le tout jeune domaine du connexionnisme a été unifié et inspiré par l’apparition du Traitement Parallèle Distribué de 1986 — une collection d’articles en deux volumes éditée par Rumelhart et McClelland prémices du succès commercial des réseaux neuronaux dans les années 1990 (OCR, reconnaissance vocale…) 41 Histoire de l’intelligence artificielle Rappels sur les réseaux de neurones 1943 → le neurone formel Warren McCulloch & Walter Pitts, A Logical Calculus of Ideas Immanent in Nervous Activity, 1943, Bulletin of Mathematical Biophysics 5:115-133. 1949 → l’apprentissage synaptique Donald Olding Hebb, The Organization of Behavior: A Neuropsychological Theory, Wiley, New York, 1949 1951 → inspiré par les travaux de McCulloch et Pitts, Marvin Minsky (avec l’aide de Dean Edmonds) construit la première machine à réseau neuronal : le SNAR 1958 → introduction du réseau neuronal « Perceptron » par Frank Rosenblatt 42 Histoire de l’intelligence artificielle Rappels sur les réseaux de neurones 1969 → Marvin Minsky et Seymour Papert du Laboratoire d’IA du MIT publient le livre Perceptrons, une critique théorique démontrant les limites théoriques du modèle de type « Perceptron » développé par Frank Rosenblatt présentation du mode de fonctionnement du Perceptron : apprentissage de fonctions logiques booléennes, séparations linéaires, fonctions non séparables… 43 Histoire de l’intelligence artificielle Perceptrons (Minsky & Papert, 1969) → limites → résultats corrects pour des fonctions linéairement séparables → seulement la proportion des fonctions linéairement séparables sur le nombre total de fonctions possibles avec un nombre d’entrées donné diminue jusqu’à tendre vers 0 quand ce nombre d’entrées tend vers l’infini → il faut ainsi trouver un moyen d’ajouter des hyperplans séparateurs pour mieux partitionner l’hyperespace de représentation de ces fonctions → utilisation de plusieurs couches de réseaux de neurones 44 Histoire de l’intelligence artificielle Parallel Distributed Processing de David E. Rumelhart, James L. McClelland et PDP Research Group, 1986 → réseaux de neurones multicouches 45 Histoire de l’intelligence artificielle Parallel Distributed Processing de David E. Rumelhart, James L. McClelland et PDP Research Group, 1986 → Perceptrons capable d’apprendre la fonction XOR 46 Histoire de l’intelligence artificielle Parallel Distributed Processing de David E. Rumelhart, James L. McClelland et PDP Research Group, 1986 → Perceptrons capable d’apprendre la fonction XOR 47 Histoire de l’intelligence artificielle Parallel Distributed Processing de David E. Rumelhart, James L. McClelland et PDP Research Group, 1986 → Perceptrons capable d’apprendre la fonction XOR 1st phase 2nd x1 x2 y1 y2 phase 0 0 0(-) 0(-) B(0) 0 1 1(+) 0(-) A(1) 1 0 1(+) 0(-) A(1) 1 1 1(+) 1(+) B(0) 48 Histoire de l’intelligence artificielle o Parallel Distributed Processing de David E. Rumelhart, James L. McClelland et PDP Research Group, 1986 → Perceptron multicouche (MLP : Multi-Layer Perceptron) 49 Histoire de l’intelligence artificielle o Parallel Distributed Processing de David E. Rumelhart, James L. McClelland et PDP Research Group, 1986 → Perceptron multicouche (MLP : Multi-Layer Perceptron) 50 Histoire de l’intelligence artificielle Les années 1980 1987→ 10 000 ordinateurs sont connectés à Internet 1987 → OS/2 de IBM 1987 → Microsoft : Windows 2.0 la fascination de la communauté économique pour l’intelligence artificielle a gonflé puis chuté dans les années 1980 en suivant le schéma classique d’une bulle économique : l’effondrement de l’IA a eu lieu au niveau de la perception que les investisseurs et les agences gouvernementales en avaient — le domaine scientifique continue ses avancées malgré les critiques entre la fin des années 1980 et le début des années 1990 → coupes budgétaires massives pour l’IA 51 Histoire de l’intelligence artificielle Les années 1980 brusque effondrement du marché du matériel informatique spécialiste de l’IA en 1987 : les ordinateurs de bureau d’Apple et IBM ont progressivement amélioré leur vitesse et leur puissance et, en 1987, ils deviennent plus performants que les fleurons du marché, tels que la meilleure machine Lisp de Symbolics → du jour au lendemain, une industrie d’un demi-milliard de dollars disparait totalement désintérêt pour les systèmes experts qui, malgré certains succès, ont un coût de maintenance trop élevé, sont difficiles à mettre à jour, ne peuvent pas apprendre et font souvent des erreurs grotesques 52 Histoire de l’intelligence artificielle Les années 1980 à la fin des années 1980, la Strategic Computing Initiative de la DARPA a complètement et abruptement coupé ses subsides à l’intelligence artificielle la nouvelle direction de la DARPA ayant conclu que l’intelligence artificielle n’est plus de « dernière mode », elle a redirigé les subventions vers des projets plus propices à des résultats rapides vers 1991, les objectifs impressionnants listés en 1981 par le Japon pour ses ordinateurs de cinquième génération n’ont pas été atteints : la barre avait été placée beaucoup trop haut → fin du programme d’IA mené par le gouvernement japonais 53 Histoire de l’intelligence artificielle Les années 1980 1988 → mise en marché du mini-ordinateur AS-400 d’IBM 1988 → les chercheurs en intelligence artificielle développent et utilisent des outils mathématiques sophistiqués comme jamais auparavant : les mathématiques permettent à la fois d’améliorer la collaboration avec des disciplines plus solidement fondées et conduisent à des fertilisations croisées et à la collecte de données mesurables et démontrables 1988 → sortie du livre de J. Pearl qui intègre les proba. et la théorie de la décision avec les réseaux bayésiens, les modèles de Markov cachés, la théorie de l’information, le calcul stochastique et l’optimisation mathématique 54 Histoire de l’intelligence artificielle Les années 1980 1989 → début de l’ère d’Internet et du World Wide Web : ❑ 100 000 ordinateurs sont connectés à Internet ❑ Invention du World Wide Web par Tim Berners-Lee sortie du système NeXTSTEP de NeXT à la fin des années 1980, plusieurs chercheurs plaident pour une approche de l’intelligence artificielle complètement inédite, centrée sur la robotique → pour mettre en évidence une vraie intelligence, une machine doit avoir conscience de son corps — elle doit percevoir, bouger, survivre et évoluer dans le monde 55 Histoire de l’intelligence artificielle Les années 1980 les chercheurs en IA expliquent que ces capacités senso- motrices sont essentielles aux capacités de plus haut niveau telles que le raisonnement de culture générale et que le raisonnement abstrait est en fait la capacité humaine la moins intéressante ou importante un des précurseurs, David Marr, est arrivé au MIT à la fin des années 1970, fort de réussites passées en neuroscience théorique afin d’y diriger le groupe étudiant la vision → réfutation des approches symboliques (à la fois la logique de McCarthy et les cadres de Minsky) : l’IA a besoin de comprendre la machinerie physique de la vision par le bas avant qu’un traitement symbolique puisse être mis en place 56 Histoire de l’intelligence artificielle Les années 1990 1991 → sortie de BeOS, système d'exploitation développé par la société américaine Be Inc., fondée en 1991 par le français Jean-Louis Gassée, un ex-dirigeant d’Apple (BeOS était initialement conçu pour un ordinateur spécifique, la BeBox, il sera adapté au Macintosh, puis au PC en 1998) 1991 → ordinateur NeXT Cube de Steve Jobs (utilisé par Tim Berners-Lee pour son premier serveur web) 1991 → début d’Internet TCP/IP grand public : TBL et Robert Cailliau créent le protocole Internet HTTP (WWW) 1991 → Linux : premier noyau Linux 0.01 1991 → Apple : sortie du Système 7 57 Histoire de l’intelligence artificielle Les années 1990 1992 → 1 000 000 d’ordinateurs sont connectés à Internet 1992 → Microsoft : MS Windows 3.1 et 3.11 1993 → processeur Intel Pentium 1993 → Microsoft : MS Windows NT 1993 → Internet : Mosaic, le premier navigateur web 1994 → Apple : lancement du Power Macintosh à base de processeur PowerPC 1994 → Internet : création de Netscape 1994 → création du World Wide Web Consortium (W3C) par Tim Berners-Lee 1995 → loi de Wirth : l’interprétation de programmes plus sophistiqués demande des ordinateurs plus rapides 58 Histoire de l’intelligence artificielle Les années 1990 1995 → apparition du DVD 1995 → Microsoft : sortie de Windows 95 1995 → Linux : sortie du noyau Linux 1.2 1995 → création du langage de programmation Java 1995 → sortie de l’iMac d’Apple 1995 → lancement du site d’Amazon 1996 → 10 000 000 d’ordinateurs sont connectés à Internet 1996 → Microsoft : sortie de Windows NT 4 1996 → Microsoft : naissance de MS Internet Explorer 1996 → Linux : sortie du noyau Linux 2.0 1996 → première version de la norme USB 1997 → 1ère victoire d’un programme informatique en jeu d’échec contre le meilleur joueur humain 59 Histoire de l’intelligence artificielle Les années 1990 1997 → Deep Blue d’IBM bat Garry Kasparov : 2 victoires, 3 nulles et 1 défaite Deep Blue est devenu le premier système informatique de jeu d’échecs à battre le champion du monde en titre, à savoir Garry Kasparov ce succès, et ceux qui suivront, ne reposent pas sur de nouveaux paradigmes révolutionnaires mais sur une application minutieuse des techniques d’ingénierie et sur la puissance phénoménale des ordinateurs en effet, la machine Deep Blue est 10 millions de fois plus rapide que la Ferranti Mark I à qui Christopher Strachey a appris à jouer aux échecs en 1951 60 Histoire de l’intelligence artificielle Les années 1990 1997 → Apple : sortie de Mac OS 8 1997 → en France, mission sur le commerce électronique 1997 → « paix boursière » entre Apple et Microsoft : Apple n’est plus très loin de la faillite, après six trimestres consécutifs de pertes, pour un total de 1,5 milliard de dollars, malgré un plan social de 3 500 suppressions de postes en 1996 → Apple obtient 150 millions de dollars de Microsoft → en échange, Apple accepte de mettre fin aux poursuites judiciaires contre Microsoft, qu’il accusait de l’avoir copié → Microsoft s’engage à garder ses actions Apple pendant 3 ans et à garantir que sa suite "Office" sera adaptée aux produits Apple les 5 années à venir 61 Histoire de l’intelligence artificielle Les années 1990 et 2000 1998 → retour de Steve Jobs chez Apple (iCEO) 1998 → version bêta du moteur de recherche Google 1998 → Apple : lancement de l’iMac 1998 → Microsoft : sortie de Windows 98 1999 → Linux : sortie du noyau Linux 2.2 1999 → Apple : sortie de Mac OS 9 2000 → Microsoft : Windows 2000 et de Windows Me 2000 → Archos : premier Baladeur MP3 à disque dur, le JBMM 6000 2000 → apogée de la bulle internet : bulle spéculative qui a affecté les « valeurs technologiques », c’est-à-dire celles des secteurs liés à l’informatique et aux télécommunications 62 Histoire de l’intelligence artificielle Retour sur Terry Winograd et ses travaux sur le langage voir : http://dblp.uni-trier.de/pers/hd/w/Winograd:Terry NLP = TALN : traitement automatique du langage naturel 1968-1970 : développement de SHRDLU au MIT → programme informatique de compréhension du langage 63 Histoire de l’intelligence artificielle Retour sur Terry Winograd et ses travaux sur le langage SHRDLU : dialogue interactif avec l’utilisateur, à base de termes en anglais l’utilisateur demandait à SHRDLU de déplacer divers objets dans un petit « monde de blocs », qui contenait divers objets de base tels que des cubes, des cônes, des sphères etc. la particularité de SHRDLU tenait à la combinaison de quatre idées simples qui, s’additionnant, rendaient la simulation de la « compréhension » beaucoup plus convaincante 64 Histoire de l’intelligence artificielle Retour sur Terry Winograd et ses travaux sur le langage Exemple de dialogue : ❑ Personne : Prends un gros bloc rouge. ❑ SHRDLU : OK. ❑ Personne : Attrape la pyramide. ❑ SHRDLU : Je ne comprends pas de quelle pyramide vous parlez. ❑ Personne (changeant d’avis) : Trouve un bloc plus grand que celui que tu tiens et mets-le dans la boîte. ❑ SHRDLU : Par « le », je suppose que vous voulez dire « le bloc plus grand que celui que je tiens ». ❑ SHRDLU : OK. ❑ Personne : Que contient la boîte ? ❑ SHRDLU : La pyramide bleue et le bloc. ❑ Personne : Qu’est-ce qui supporte la pyramide ? ❑ SHRDLU : La boîte. ❑ Personne : Combien de blocs ne sont pas dans la boîte ? ❑ SHRDLU : Quatre d’entre eux. ❑ Personne : Est-ce qu’au moins un d’entre eux est plus petit que celui que je t’ai dit de prendre ? ❑ SHRDLU : Oui, le bloc rouge. ❑ (…) 65 Histoire de l’intelligence artificielle Retour sur Terry Winograd et ses travaux sur le langage cette démonstration d’« intelligence artificielle » eut un succès retentissant et conduisit d’autres chercheurs en IA à un optimisme excessif limites → chercher à affronter des situations plus réalistes intégrant l’ambigüité et la complexité du monde réel pistes poursuivies → se focaliser sur la mise à disposition du programme d’une quantité d’information beaucoup plus importante pour lui permettre de tirer des conclusions par la suite, Winograd semble avoir pris ses distances avec SHRDLU et le domaine de l’intelligence artificielle, convaincu que SHRDLU constituait une impasse en 1973, Winograd quitte le MIT pour travailler à Stanford 66 Histoire de l’intelligence artificielle Retour sur Terry Winograd et ses travaux sur le langage de la difficulté à interpréter le langage naturel 67 Histoire de l’intelligence artificielle Retour sur Terry Winograd et ses travaux sur le langage 1986 → critique des systems experts : Terry Winograd, Randall Davis, Stuart Dreyfus, Brian Cantwell Smith, Expert Systems: How Far Can They Go? IJCAI 1985: 1306 1987 → influencé par les critiques d’Hubert Dreyfus, avec Fernando Flores, ils publient Understanding Computers and Cognition: A New Foundation for Design → critique 1995 → Winograd devient le directeur de thèse de Lawrence Page, et son sujet concerne la recherche de documents sur le web durant sa thèse, Page sympathise avec Sergey Brin 1998 → Page et Brin quittent Stanford pour fonder la compagnie Google exploitant le moteur de recherche : http://google.stanford.edu/ → http://google.com 68 Histoire de l’intelligence artificielle Les années 2000 le modèle économique du commerce électronique, lié à ce que l’on appelle l’immatériel, est rendu célèbre par Amazon, Ebay et AOL de 2000 jusqu’à 2005 environ, la filière des équipementiers en télécommunications est entrée dans un cycle de récession → « hiver nucléaire des télécoms » effondrement des valeurs des sociétés acquises au prix fort 2001 → le krach boursier de 2001-2002 sanctionne la fin de la bulle Internet : le CAC 40 perd la moitié de sa valeur en deux ans : -21,9 % en 2001 et -33,75 % en 2002, aux États-Unis, le 2 décembre 2001, le groupe de négoce et d’énergie américain Enron est mis en faillite 69 Histoire de l’intelligence artificielle Les années 2000 2001 → Marvin Minsky s’interroge : « pourquoi n’avons-nous pas eu HAL en 2001 ? » → des problèmes centraux comme le raisonnement de culture générale sont négligés → pour Ray Kurzweil, le problème réside dans le manque de puissance de calcul et, en s’appuyant sur la loi de Moore, il prédit que les machines avec une intelligence comparable à l’humain arriveront vers 2030 2001 → Windows XP (Microsoft) 2001 → sortie du noyau Linux 2.4 2001 → Apple : sortie de Mac OS X 10.0 Guépard (mars) puis Mac OS X 10.1 Puma (septembre) 2001 → fondation de Wikipédia par Jimmy Wales 70 Histoire de l’intelligence artificielle Les années 2000 2002 → OpenOffice.org sort en version 1. 2002 → Microsoft : sortie de Windows Server 2003 2002 → Apple : sortie de Mac OS X 10.2 Jaguar 2003 → Apple : lancement du Power Mac G5, sortie de Mac OS X 10.3 Panther 2003 → Linux : le nombre d’utilisateurs Linux est estimé à dix-huit millions 2003 → 1er sommet mondial sur la société de l’information 2003 → Linux : sortie du noyau Linux 2.6 2003 → Archos : introduction de la vidéo dans les baladeurs multimédias avec l’AV100 2004 → Mozilla : sortie de Mozilla Firefox 1.0 71 Histoire de l’intelligence artificielle Les années 2000 2004 → Google, qui n’a que cinq ans d’existence, a un chiffre d’affaires de 1,46 milliards de dollars lors de son entrée en Bourse, sur le Nasdaq, en mai 2004 système d’enchères inédit (réduction de 5,5 à 1,5 % des commissions perçues par les banques d’affaires) placée au prix de 80 $, l’action valait 250 $ un an plus tard, et 700 $ sept ans après en août 2005, Google décide l’une des plus grandes augmentations de capital de l’histoire: 4,2 milliards de dollars, au moment des projets de numérisation des fonds documentaires des universités d’Harvard, de Stanford ou d’Oxford 72 Histoire de l’intelligence artificielle Les années 2000 2005 → Google utilise cet argent pour la recherche et s’équiper de 900 000 serveurs informatiques en juin 2007 contre 400 000 l’année précédente, en 2006 cet effort financier des actionnaires lui permet de creuser l’écart avec son concurrent Yahoo! 2005 → un robot de Stanford remporte le DARPA Grand Challenge en conduisant de manière autonome pendant 131 milles sur une piste de désert sans avoir fait de reconnaissance préalable 2005 → OpenOffice.org (suite bureautique libre), version 2 2005 → Apple : sortie de Mac OS X 10.4 Tiger, annonce du passage de l’architecture PowerPC au x86 d’Intel 73 Histoire de l’intelligence artificielle Les années 2000 2006 → Microsoft : sortie de MS Internet Explorer 7.0 renommé pour l’occasion en Windows Internet Explorer 2006 → Mozilla : sortie de Mozilla Firefox 2.0 2006 → le format de bureautique OpenDocument devient une norme ISO 2007 → une équipe de Carnegie-Mellon remporte le DARPA Urban Challenge en navigant en autonome pendant 55 milles dans un environnement urbain tout en respectant les conditions de trafic et le code de la route 2007 → Microsoft : sortie de Windows Vista 2007 → Apple : sortie de Mac OS X 10.5 Leopard 2007 → Internet, moyen essentiel d’échanger des data 74 Histoire de l’intelligence artificielle Les années 2000 2007 → réel début de l’ère de la mobilité et des données partagées : les téléphones multiplient les fonctionnalités, tandis que les ordinateurs portables réduisent leur encombrement, d’où l’avènement des tablettes numériq. 2008 → Apple : sortie du MacBook Air et de l’Apple TV 2008 → Bill Gates change de fonctions chez Microsoft 2008 → Mozilla : sortie de Mozilla Firefox 3.0 2008 → OpenOffice.org : sortie de la version 3.0 2008 → apparition du terme MOOC : cours en ligne ouvert et massif 2009 → Oracle Corporation achète Sun Microsystems 2009 → Apple : sortie de Mac OS X 10.6 Snow Leopard 75 Histoire de l’intelligence artificielle Les années 2000 2009 → Microsoft : sortie de Windows 7 2009 → développement de la virtualisation des serveurs 2010 → Intel sort des processeurs gravés en 32 nm 2010 → sortie de l’iPad d’Apple 2010 → développement de l’informatique en nuage à partir de 2010, on recommence à accorder de l’importance aux activités qui touchent à Internet, entre autres à cause de l’ascension fulgurante de Facebook → réseaux sociaux, Web 2.0, outils de toute nature qui apportent tous types de services en lien avec la dimension sociale (Facebook, Twitter, LinkedIn...) → rachats d’entreprises qui n’ont pas généré de profit 76 Histoire de l’intelligence artificielle Les années 2010 2011 → sortie du 1er ordinateur quantique (D-Wave One) 2011 → rachat de Skype par Microsoft 2011 → Microsoft : sortie de Internet Explorer 9 2011 → Mozilla : sortie de Mozilla Firefox 4.0 → 5.0 à 9.0 2011 → The Document Foundation publie la première version de LibreOffice : la 3.3.0 2011 → Linux : sortie du noyau Linux 3.0 2011 → Apple : sortie de Mac OS X 10.7 Lion 2011 → les ventes de smartphones dépassent celles de PC 2011 → lancement de l’Open Compute Project par FB 2011 → décès de Steve Jobs qui avait co-fondé Apple et relancé la société à la fin des 1990s avec iMac, iPod.. 77 Histoire de l’intelligence artificielle Les années 2010 2011 → début du projet Google Brain : Google Brain est un projet de recherche d’apprentissage en profondeur (deep learning) conduit par Google collaboration de recherche à temps partiel entre : ✓ Jeffrey Dean → MapReduce, TensorFlow… ✓ Greg Corrado ✓ Andrew Ng (professeur à l’Université de Stanford) objectif : construction d’un système logiciel d’apprentissage en profondeur à grande échelle (DistBelief) sur l’infrastructure du cloud computing de Google 2012 → reconnaissance d’un chat sur la base de 10 millions d’images numériques provenant de vidéos YT 78 Histoire de l’intelligence artificielle Les années 2010 2011 → en février 2011, dans un match de démonstration du jeu télévisé Jeopardy!, les deux plus grands champions de Jeopardy!, Brad Rutter et Ken Jennings ont été battus par le système de questions/réponses conçu par IBM, au centre de recherche Watson 2012 → Mozilla : sortie de Mozilla Firefox 19.0 2012 → 1ère mémoire non volatile expérimentale combinant de l’ADN de saumon et du nano-argent 2012 → Apple : sortie de Mac OS X 10.8 Mountain Lion 2012 → Microsoft : sortie de Windows 8 avec une nouvelle interface graph. → tablette tactile ↔ PC bureau 2012 → Ray Kurzweil nommé directeur ingénierie Google 79 Histoire de l’intelligence artificielle Les années 2010 2012 → Large Scale Visual Recognition Challenge: surprise http://image-net.org/challenges/LSVRC/2012/results.html jusqu’alors : stagnation des taux d’erreur à 25% au mieux une équipe de l’Université de Toronto réussi à faire seulement 16% d’erreurs avec une approche inédite : les réseaux de neurones profonds (deep neural network) pour l’apprentissage profond, il faut : 1. de nouveaux algorithmes de réseaux de neurones → travaux de LeCun, Bengio, Hinton… 2. beaucoup de données pour l’apprentissage ( Internet) 3. des machines performantes (GPU au lieu de CPU) 80 Histoire de l’intelligence artificielle Les années 2010 Les auteurs de cette méthode sont Alex Krizhevsky, Ilya Sutskever & Geoffrey Hinton → “ImageNet Classification with Deep Convolutional Neural Networks” (NIPS 2013) Alex Krizhevsky : Univ. Toronto → Google Ilya Sutskever : Univ. Toronto → Standford Univ. → DNNResearch → Google (2013-2015) → OpenAI Geoffrey E. Hinton (Cambridge, Edinburgh) → UCSD → CMU → UC London → Univ. Toronto → Google (2015) → démission en 2023 et devient lanceur d’alerte mais aussi à Google : A. Ng, J. Dean, T. Mikolov Google n’est pas seul à récupérer les experts en IA : ❑ Facebook (FAIR) : Y. LeCun, V. Vapnik, T. Mikolov… ❑ Baidu : Andrew Ng (de 2014 à 2017) 81 Histoire de l’intelligence artificielle Les années 2010 2012 → apparition des solutions d’hyper-convergence (permet la croissance de façon linéaire en suivant les besoins, sans remettre en cause l’architecture globale) 2012 → seconde bulle internet : ❑ Facebook arrive sur le marché boursier en mai 2012 ❑ de nombreux actionnaires portent plainte contre le Nasdaq pour avoir surévalué la valeur des actions FB ❑ le Nasdaq s’engage à rembourser ces actionnaires ❑ le 16 août 2012, Facebook perd 4 dirigeants actionnaires ❑ le 17 août 2012, l’action Facebook affichait une baisse de -47 % de sa valeur par rapport à sa valeur de lancement (38 $ à 19,87 $), Groupon -70 %, et Zynga -70 % 82 Histoire de l’intelligence artificielle Les années 2010 2013 → Apple : sortie de Mac OS X 10.9 Mavericks 2013 → Microsoft : sortie de Windows 8.1 2013 → The Document Foundation publie LibreOffice 4.0 2013 → Intel sort des processeurs Haswell 2013 → déploiement des solutions de type Big data 2013 → le nombre d’utilisateurs connectés à internet depuis smartphone > utilisateurs connectés via PC 2013 → les révélations d’Edward Snowden changent la perception du risque de cyber-espionnage. 2013 → les ventes de tablettes dépassent celles des PC 2013 → secteur informatique en décroissance en France 2013 → on estime qu’un PC sur 3 sera équipé d’un SSD 83 Histoire de l’intelligence artificielle Les années 2010 2014 : Google Deep Dream 84 Histoire de l’intelligence artificielle Les années 2010 2014 : Google Deep Style : à la manière de… Vincent van Gogh Léonard de Vinci Edvard Munch 85 Histoire de l’intelligence artificielle Les années 2010 2014 → IBM sort des processeurs POWER8 2014 → 1er processeur fonctionnel à base de graphène 2014 → émergence du marché des objets connectés 2014 → le nombre de sites web : plus d’1 milliard 2014 → le temps d’utilisation des applications sur mobiles a dépassé l’utilisation d’internet sur ordinateur 2014 → piratage de Sony Pictures Entertainment 2014 → Apple : sortie de OS X Yosemite, la version 10.10 du système d’exploitat° d’Apple (changement de design) 2014 → l’astrophysicien Stephen Hawking, dans un entretien à la BBC, déclare que « l’intelligence artificielle pourrait mettre fin à l’humanité » (évolution biologique < IA) 86 Histoire de l’intelligence artificielle Les années 2010 2015 → montée en puissance des darknets 2015 → sortie de Microsoft Windows 10 2015 → les utilisateurs de smartphone ont en moyenne 41 applications installées sur leur appareil 2015 → les recherches Google sur mobile ont dépassé celles faites à partir d’un ordinateur classique 2015 → Apple : sortie de OS X El Capitan, la version 10.11 du système d’exploitation d’Apple octobre 2015 → AlphaGo (de Google DeepMind) gagne par 5 à 0 un match contre Fan Hui, 2ème dan pro. et champion d’Europe : 1ère victoire d’une IA contre un joueur pro., sans handicap et sur un goban 19×19 87 Histoire de l’intelligence artificielle Les années 2010 changement de communication des grands groupes : ❑ au niveau technique : publication des codes sources des méthodes d’apprentissage employées (sur GitHub) ▪ Amazon : DSSTNY → https://github.com/amznlabs/amazon-dsstne ▪ Baidu : Wrap-CTC → https://github.com/baidu-research/warp-ctc ▪ Facebook : Torch → https://github.com/facebook/fb.resnet.torch ▪ Google : TensorFlow → https://github.com/tensorflow/tensorflow ▪ LinkedIn → FeatureFu → https://github.com/linkedin/FeatureFu ▪ Microsoft → CNTK → https://github.com/Microsoft/CNTK ❑ en recherche : publication d’articles scientifiques (p. ex. Apple se décide seulement en 2016) 88 Histoire de l’intelligence artificielle Les années 2010 2016 → sortie de Windows Server 2016 2016 → l’impression 3D est en forte expansion dans l’industrie 2016 → remplacement des disques traditionnels par des disques SSD, sortie des 1ers disques SSD 16 To. 2016 → Apple : sortie de macOS Sierra, la version 10.12 du système d’exploitation d’Apple 2016 → développement de l’internet des objets : 5,5 Mo de nouveaux objets se connectent au réseau chaque jour 2016 → match AlphaGo - Lee Sedol (meilleur joueur du monde) est remporté par l’IA de Google qui a gagné toutes les parties sauf la quatrième parmi les 5 jouées 89 Histoire de l’intelligence artificielle Les années 2010 2017 → essor de la technologie blockchain 2017 → arrivée de la technologie mémoire 3D XPoint unifiant le stockage et la mémoire traditionnelle 2018 → affaire Cambridge Analytica : des utilisateurs de Facebook ont été manipulés dans le but d’influencer leurs votes lors d’élections politiques 2018 → entrée en vigueur du règlement général sur la protection des données (RGPD) 2018 → début du déploiement de la technologie 5G aux États-Unis 2018 → rapport Villani : « Donner un sens à l’intelligence artificielle – pour une stratégie nationale et européenne » 2018 → remise du prix Turing à Yann Le Cun, Yoshua Bengio et Geoffrey Hinton → deep neural networks 90 Histoire de l’intelligence artificielle Les années 2010 2018 → AlphaFold (DeepMind) : prédiction de la structure 3D des protéines, concours CASP 2018 → Google développe le grand modèle de langage BERT (Bidirectional Encoder Representations from Transformers) → augmentation des performances en Traitement Automatique du Langage Naturel (TALN) → développement de l’IA générative 2019 → AlphaStar (DeepMind) parvient à battre 99,8% des joueurs humains au jeu vidéo Star Craft II 91 Histoire de l’intelligence artificielle Les années 2020 2019 → grand modèle de langage (LLM) GPT-2 d’OpenAI (Generative Pre-trained Transformer, 1,5 Mds de param.) 2020 → version 3, GPT-3 d’OpenAI (175 Mds de param.) 2020 → DeepSpeed (Microsoft) : bibliothèque de code pour PyTorch (langage Python / Torch de Facebook) → apprentissage automatique pour le traitement automatique du langage naturel (TALN) → modèle de langage avec 1,7 milliards de paramètres qui surpasse en performance tous les autres modèles existant jusqu’ici dans le domaine 2021 → Google licencie les responsables de son comité d’éthique de l’IA (Margaret Mitchell et Timnit Gebru) → publication non approuvée sur les dangers des « perroquets stochastiques » (modèles génératifs) 92 Histoire de l’intelligence artificielle Les années 2020 2022 → mise en ligne de ChatGPT (affiné depuis GPT-3.5) quelques autres grands modèles de langage : o Amazon : AlexaTM (2023) o Anthropic : Claude (2021), Claude 3 Opus (2024) o Baidu : Ernie 3.0 Titan (2021) → chinois o Bloomberg L.P. : BloombergGPT (2023) → finances o DeepMind : Gopher (2021), Chinchilla (2022) o Google : GLaM (2021) LaMDA (2022), Minerva (2022) o Huawei : PanGu-Σ (2023) o LAION : OpenAssistant (2023) o LightOn : Orion-fr (2021), Lyra-fr (2022) → français o Meta : OPT (2022), Galactica (2022), LLaMA (2023) o Microsoft et Nvidia : Megatron-Turing NLG (2021) o OpenAI : GPT-4 (2023) 93 Histoire de l’intelligence artificielle Aujourd’hui : pour conclure, les points de vue des trois corécipiendaires du prix Turing de 2018 sur les réseaux de neurones profonds (à la base du deep learning) : En 2023, Geoffrey Hinton a choisi de démissionner de Google pour se sentir libre de dénoncer les dangers de l’IA (alors qu’il a largement contribué à ses progrès en s’appuyant sur l’utilisation de neurones artificiels) Pour Yoshua Bengio, « Aujourd’hui, l’intelligence artificielle, c’est le Far West ! Nous devons ralentir et réguler » → moratoire de 6 mois car le développement de systèmes d’intelligence artificielle s’est accéléré au détriment du principe de précaution et de l’éthique Pour Yann Le Cun, directeur du laboratoire de recherche sur l’IA de Meta (Facebook), au contraire, « il faut accélérer » → ralentir = « un nouvel obscurantisme » 94 Histoire de l’intelligence artificielle Prix Nobel de 2024 (la semaine dernière, les 8 et 9 oct.) les chercheurs John Hopfield (Université de Princeton, États-Unis) et Geoffrey Hinton (Université de Toronto, Canada) ont remporté le prix Nobel de physique 2024, ils se sont inspirés d’outils issus de la physique pour développer des techniques d’intelligence artificielle reposant sur les réseaux de neurones les lauréats du prix Nobel de chimie 2024 Demis Hassabis et John M. Jumper (Google DeepMind, Royaume-Uni), ainsi que David Baker (Université de Washington, États-Unis) ont révélé les secrets des protéines (lien entre une séquence d’acides aminés et la structure tridimensionnelle de la protéine qu'elle forme) grâce à l’informatique et à l’intelligence artificielle 95 Conclusion : impacts écologiques de l’IA Les réseaux de neurones de TAL ont aujourd’hui pris la forme des Large Language Models (LLM). Leur entraînement est très coûteux en données (→ nécessite d’énormes volumes de données issues du web ou d’œuvres littéraires libres de droit), en énergie (→ l’entraînement de GPT-3 a consommé autant d’énergie que 275 foyers français en un an) et en eau (→ 700 000 litres d’eau pour maintenir la température des serveurs des data centers entre 10°C et 25°C = la tour de refroidissement d’un réacteur nucléaire) Pour OpenAI, ChatGPT coûte 700 000 $ par jour et son entraînement a coûté 12 millions de $ L’entraînement de GPT-3 représente l’émission de 240 tonnes de CO2 équivalent (CO2e), soit la quantité émise lors d’un aller-retour entre la Terre et la Lune 96 Conclusion : impacts écologiques de l’IA Utilisation de ChatGPT : exemple → emploi de ChatGPT pour écrire un courrier électronique de 100 mots une requête sur ChatGPT nécessite 10 (à 30 ?) fois plus d’énergie qu’une requête sur un moteur de recherche le coût en eau (pour baisser la température dans les data centers) : cela équivaut à peu près à une bouteille d’eau pleine par requête le coût énergétique : consommation d’autant d’énergie que pour allumer 14 ampoules LED pendant une heure deux requêtes sur Google génèrent 14 g d’émission de carbone, soit environ une bouilloire électrique (15 g) Pour son IA générative, Microsoft a fait redémarrer une centrale nucléaire (Three Mile Island, dans l’État de Pennsylvanie) 97

Use Quizgecko on...
Browser
Browser