Intelligence artificielle — Wikipédia.pdf

Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

Full Transcript

Intelligence artificielle L'intelligence artificielle (IA) est un ensemble de théories et de techniques visant à réaliser des machines capables de simuler Intelligence artificielle 1 l'intelligence humaine. Souvent classée dans le domaine des mathématiques e...

Intelligence artificielle L'intelligence artificielle (IA) est un ensemble de théories et de techniques visant à réaliser des machines capables de simuler Intelligence artificielle 1 l'intelligence humaine. Souvent classée dans le domaine des mathématiques et des sciences cognitives, l'IA fait appel à des disciplines telles que la neurobiologie computationnelle (qui a notamment inspiré les réseaux neuronaux artificiels), les statistiques, ou l'algèbre linéaire. Elle vise à résoudre des problèmes à forte complexité logique ou algorithmique. Par extension, dans le langage courant, l'IA inclut les dispositifs imitant ou remplaçant l'homme dans certaines mises en 2 Partie de Informatique, nouvelles œuvre de ses fonctions cognitives. technologies, raisonnement Les applications de l'IA comprennent notamment les moteurs de Pratiqué par Chercheur ou chercheuse en recherche, les systèmes de recommandation, l'aide au diagnostic intelligence artificielle (d), médical, la compréhension du langage naturel, les voitures Ingénieur en intelligence autonomes, les chatbots, les outils de génération d'images, les outils artificielle (d) de prise de décision automatisée, les programmes compétitifs dans Champs Intelligence artificielle des jeux de stratégie et certains personnages non-joueurs de jeu symbolique 3 vidéo. connexionnisme ethical artificial intelligence (d) Depuis l'apparition du concept, les finalités, les enjeux et le apprentissage automatique développement de l'IA suscitent de nombreuses interprétations, Histoire Histoire de l'intelligence fantasmes ou inquiétudes, que l'on retrouve dans les récits ou films artificielle 4 de science-fiction, dans les essais philosophiques ainsi que parmi des économistes. Des outils d'intelligence artificielle (spécialisée ou générative) ont accompli des progrès spectaculaires dans les années 2010-2020, mais restent loin des performances 5 du vivant dans toutes ses aptitudes naturelles, selon le magazine Slate en 2019. Définition Le terme « intelligence artificielle », souvent abrégé par le sigle « IA » (ou « AI » en anglais, pour artificial intelligence) a été créé par John McCarthy, qui l'a défini comme : « la science et l'ingénierie de la fabrication de machines intelligentes, en particulier de programmes informatiques intelligents. Elle est liée à la tâche similaire qui consiste à utiliser des ordinateurs pour comprendre l'intelligence humaine, mais l'IA ne doit pas se limiter aux 6 méthodes qui sont biologiquement observables. ». Pour Marvin Lee Minsky, l'un de ses créateurs, l'IA est « la construction de programmes informatiques qui s'adonnent à des tâches qui sont, pour l'instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l'apprentissage perceptuel, l'organisation de la mémoire et le a, 7 raisonnement critique ». Cette définition combine l'aspect « artificiel » des ordinateurs et des processus informatiques, aux aspects « intelligents » d'imitation de comportements humains, notamment de raisonnement et d'apprentissage. Celui-ci est à l'œuvre dans jeux, dans la pratique des mathématiques, dans la compréhension du langage naturel, dans la perception visuelle (interprétation des images et des scènes), auditive (compréhension du langage parlé) ou par d'autres capteurs, dans la commande d'un robot dans un milieu inconnu ou hostile. Avant les années 2000, d'autres définitions sont proches de celle de Minsky, mais varient sur deux points 8 fondamentaux : les définitions qui lient l'IA à un aspect humain de l'intelligence et celles qui la lient à un modèle idéal d'intelligence, non forcément humaine, nommée rationalité ; les définitions qui insistent sur le fait que l'IA a pour but d'avoir toutes les apparences de l'intelligence (humaine ou rationnelle), et celles qui insistent sur le fait que le fonctionnement interne du système d'IA doit ressembler également à celui de l'être humain et être au moins aussi rationnel. Le grand public confond souvent l'intelligence artificielle avec l'apprentissage automatique (machine learning) et l'apprentissage profond (deep learning). Ces trois notions diffèrent et sont en réalité imbriquées : l'intelligence artificielle englobe l'apprentissage automatique, qui lui-même englobe l'apprentissage 9 profond. 10, 11 Les définitions font souvent intervenir : une capacité à percevoir l'environnement et à prendre en compte la complexité du monde réel ; Diagramme de Venn montrant un traitement de l'information (collecter et interpréter des intrants, captés comment s'imbriquent les notions sous forme de données) ; d'intelligence artificielle, des prises de décision (y compris dans le raisonnement et l'apprentissage), d'apprentissage automatique et choix d'actions, exécution de taches (dont d'adaptation, de réaction aux d'apprentissage profond. changements de contexte...), avec un certain niveau d'autonomie ; la réalisation d'objectifs spécifiques (raison ultime des systèmes d'IA). Le groupe AI Watch note que les IA peuvent aussi être classées en fonction des familles d’algorithmes et/ou des modèles théoriques qui les sous-tendent, des capacités cognitives reproduites par l’IA, des fonctions exécutées par l’IA. Les applications de l’IA peuvent, elles, être classées en fonction du secteur socioéconomique et/ou des fonctions 10 qu'elles y remplissent. Techniques Apprentissage automatique L'apprentissage automatique consiste à permettre au modèle d'IA d'apprendre à effectuer une tâche au lieu de 12 spécifier exactement comment il doit l'accomplir. Le modèle contient des paramètres dont les valeurs sont ajustées tout au long de l'apprentissage. La méthode de la rétropropagation du gradient est capable de détecter, pour chaque paramètre, dans quelle mesure il a contribué à une bonne réponse ou à une erreur du modèle, et peut l'ajuster en conséquence. L'apprentissage automatique nécessite un moyen d'évaluer la qualité des réponses fournies par le 13 modèle. Les principales méthodes d'apprentissage sont : Apprentissage supervisé Un jeu de données annoté est utilisé pour entraîner l'algorithme. Il contient des données d'entrée fournies au 12 modèle et les réponses correspondantes attendues, que le modèle est entraîné à produire. Il est parfois 14 difficile de se procurer suffisamment de données annotées avec les réponses attendues. Apprentissage non supervisé Un jeu de données est fourni au modèle, mais n'est pas annoté avec les réponses attendues. Le but peut par 12 exemple être de regrouper les données similaires entre elles (clustering). Apprentissage auto-supervisé Un problème d'apprentissage supervisé est automatiquement généré à partir d'un jeu de données non annoté. Cela fonctionne souvent en cachant une partie des informations (des mots d'un texte, des morceaux 15 d'images…) afin d'entraîner le modèle à les prédire. Apprentissage par renforcement L'agent est plongé dans un environnement où ce qu'il fait est évalué. Par exemple, un agent peut apprendre à jouer aux échecs en jouant contre lui-même, et le résultat (victoire ou défaite) permet à chaque itération 12 d'évaluer s'il a bien joué. Il n'y a dans ce cas pas besoin de jeu de données. Réseaux de neurones Les réseaux de neurones artificiels sont inspirés du fonctionnement du cerveau humain : les neurones sont en général connectés à d'autres neurones en entrée et en sortie. Les neurones d'entrée, lorsqu'ils sont activés, agissent comme s'ils participaient à un vote pondéré pour déterminer si un neurone intermédiaire doit être activé et ainsi transmettre un signal vers les neurones de sortie. En pratique, pour l'équivalent artificiel, les « neurones d'entrée » ne sont que des nombres et les poids de ce « vote pondéré » sont des paramètres ajustés lors de 16, 17 l'apprentissage. Exemple de réseau de neurones comprenant deux neurones d'entrée À part la fonction d'activation, les réseaux de neurones artificiels n'effectuent en (en vert), une couche « cachée » de pratique que des additions et des multiplications matricielles, ce qui fait qu'ils neurones (en bleu) et un neurone 18 peuvent être accélérés par l'utilisation de processeurs graphiques. En théorie, un de sortie (en jaune). 19 réseau de neurones peut approximer n'importe quelle fonction. Pour de simples réseaux de neurones à propagation avant (feedforward en anglais), le signal ne passe que dans une direction. Avec les réseaux de neurones récurrents, le signal de sortie de chaque neurone est réinjecté en entrée de ce 20 neurone, permettant un mécanisme de mémoire à court terme. Les réseaux neuronaux convolutifs, qui sont particulièrement utilisés en traitement d'images, introduisent une notion de localité. Leurs premières couches identifient des motifs relativement basiques et locaux comme des contours, là où les dernières couches traitent de 17 motifs plus complexes et globaux. Apprentissage profond L'apprentissage profond (deep learning en anglais) utilise de multiples couches de neurones entre les entrées et les 21 sorties, d'où le terme « profond ». L'utilisation de processeurs graphiques pour accélérer les calculs et l'augmentation des données disponibles a contribué à la montée en popularité de l'apprentissage profond. Il est utilisé notamment en vision par ordinateur, en reconnaissance automatique de la parole et en traitement automatique des 22 langues (ce qui inclut les grands modèles de langage). Grands modèles de langages Les grands modèles de langage sont des modèles de langage ayant un grand nombre de paramètres, typiquement des 23 milliards. Ils reposent très souvent sur l'architecture transformeur. Les transformeurs génératifs pré-entraînés (Generative Pretrained Transformers ou GPT en anglais) sont un type particulièrement populaire de grand modèle de langage. Leur « pré-entraînement » consiste à prédire, étant donnée une partie d'un texte, le token suivant (un token étant une séquence de caractères, typiquement un mot, une partie d'un mot, ou de la ponctuation). Cet entraînement à prédire ce qui va suivre, répété pour un grand nombre de textes, permet à ces modèles d'accumuler des connaissances sur le monde. Ils peuvent ensuite générer du texte semblable à celui ayant servi au pré-entraînement, en prédisant un à un les tokens suivants. En général, une autre phase d'entraînement est ensuite effectuée pour rendre le modèle plus véridique, utile et inoffensif. Cette phase d'entraînement (utilisant souvent une technique appelée RLHF) permet notamment de réduire un phénomène appelé 24 « hallucination », où le modèle génère des informations d'apparence plausible mais fausses. Avant d'être fourni au modèle, le texte est découpé en tokens. Ceux-ci sont convertis en vecteurs qui en encodent le sens ainsi que la position dans le texte. À l'intérieur de ces modèles se trouve une alternance de réseaux de neurones et de couches d'attention. Les couches d'attention combinent les concepts entre eux, permettant de tenir compte du 25 contexte et de saisir des relations complexes. Ces modèles sont souvent intégrés dans des agents conversationnels, aussi appelés chatbots, où le texte généré est formaté pour répondre à l'utilisateur. Par exemple, l'agent conversationnel ChatGPT exploite les modèles GPT-3.5 et 26 GPT-4. En 2023 font leur apparition des modèles grand public pouvant traiter simultanément différents types de 27 données comme le texte, le son, les images et les vidéos, tel Google Gemini. Recherche et optimisation Certains problèmes nécessitent de chercher intelligemment parmi de nombreuses solutions possibles. Recherche locale La recherche locale, ou recherche par optimisation, repose sur l'optimisation mathématique pour trouver une solution numérique à un problème, en 28 améliorant progressivement la solution choisie. En particulier, en apprentissage automatique, la descente de gradient permet de trouver une solution localement optimale, étant donné une fonction de coût à minimiser en faisant varier les paramètres du modèle. Elle consiste, à chaque étape, à modifier les paramètres à optimiser dans la direction qui permet de réduire le mieux la fonction de coût. La solution obtenue est localement optimale, mais il se peut qu'il y ait globalement de meilleures solutions, qui auraient pu être Illustration de la descente de 28 gradient pour trois points de départ obtenues avec différentes valeurs initiales de paramètres. Les modèles d'IA modernes peuvent avoir des milliards de paramètres à optimiser, et utilisent différents, faisant varier deux 23 paramètres de sorte à minimiser la souvent des variantes plus complexes et efficaces de la descente de gradient. fonction de coût représentée par la hauteur. Les algorithmes évolutionnistes (inspirés de la théorie de l'évolution) utilisent une forme de recherche par optimisation. À chaque étape, des opérations telles que la « mutation » ou le « croisement » sont effectuées aléatoirement pour obtenir différentes variantes, et les variantes les 28 mieux adaptées sont sélectionnées pour l'étape suivante. Recherche dans l'espace des états La recherche dans l'espace des états vise à trouver un état accomplissant l'objectif à travers un arbre des états 29 possibles. Par exemple, la recherche antagoniste est utilisée pour des programmes jouant à des jeux tels que les échecs ou le go. Elle consiste à parcourir l'arbre des coups possibles par le joueur et son adversaire, à la recherche 30 d'un coup gagnant. La simple recherche exhaustive est rarement suffisante en pratique vu le nombre d'états 31 possibles. Des heuristiques sont utilisées pour prioriser les chemins les plus prometteurs. Logique La logique formelle est utilisée pour le raisonnement et la représentation des connaissances. Elle se décline en deux principales formes, la logique propositionnelle et la logique prédicative. La logique propositionnelle opère sur des affirmations qui sont vraies ou fausses, et utilise la logique connective avec des opérateurs tels que « et », « ou », « non » et « implique ». La logique prédicative étend la logique propositionnelle et peut aussi opérer sur des objets, prédicats ou relations. Elle peut utiliser des quantificateurs comme dans « Chaque X est un Y » ou « Certains X sont 32 des Y ». L'inférence logique (ou déduction) est le processus qui consiste à fournir une nouvelle affirmation (la conclusion) à partir d'autres affirmations connues comme étant vraies (les prémisses). Une règle d'inférence décrit les étapes valides d'une preuve ; la plus générale est la règle de résolution. L'inférence peut être réduite à la recherche d'un 32 chemin amenant des prémisses aux conclusions, où chaque étape est une application d'une règle d'inférence. Mais à part pour de courtes preuves dans des domaines restreints, la recherche exhaustive prend trop de temps. La logique floue assigne des valeurs de vérité entre 0 et 1, permettant de gérer des affirmations vagues, comme « il fait 33 32 chaud ». La logique non monotone permet d'annuler certaines conclusions. Divers autres formes de logique sont développées pour décrire de nombreux domaines complexes. Méthodes probabilistes et gestion de l'incertitude De nombreux problèmes en IA (raisonnement, planification, apprentissage, perception, robotique…) nécessitent de pouvoir opérer à 34 partir d'informations incomplètes ou incertaines. Certaines techniques reposent sur l'inférence bayésienne, qui fournit une formule pour mettre à jour des probabilités subjectives étant données de nouvelles informations. C'est notamment le cas des réseaux bayésiens. L'inférence bayésienne nécessite souvent d'être approximée 35 pour pouvoir être calculée. Un exemple de réseau bayésien, et les tables de probabilité conditionnelle associées. Les méthodes de Monte-Carlo sont un ensemble de techniques pour résoudre des problèmes complexes en effectuant aléatoirement de 36 nombreuses simulations afin d'approximer la solution. 37 Les réseaux de neurones peuvent aussi être optimisés pour fournir des estimations probabilistes. Des outils mathématiques précis ont été développés pour analyser comment des agents peuvent faire des choix et des plans en utilisant la théorie de la décision, la maximisation de l'espérance et la théorie de la valeur de l'information. Ces techniques comprennent des modèles tels que les processus de décision 35 markoviens, la théorie des jeux et les mécanismes d'incitation. Classifieurs et méthodes statistiques De nombreux modèles d'IA ont pour but d'assigner une catégorie (classification), une valeur (régression) ou une action à des données fournies. Les méthodes de Séparation des données en deux classification comprennent arbres de décision, k plus proches voisins, machine à 38, 35 groupes (partitionnement) par un vecteurs de support ou classification bayésienne naïve. Les réseaux de algorithme de maximisation de 39 neurones peuvent également faire de la classification. l'espérance. Histoire Comme précurseur à l'intelligence artificielle, divers automates ont été créés au cours de l'histoire, dont le canard de Vaucanson ou les automates d'Al-Jazari. Certains automates remontent à l'Antiquité et étaient utilisés pour des cérémonies 40 religieuses. Des mythes et rumeurs rapportent également la création d'êtres 41 intelligents, par exemple les golems. Des philosophes et mathématiciens comme Raymond Lulle, Leibniz ou George 42 Boole ont cherché à formaliser le raisonnement et la génération d'idées. Au xxe siècle, Alan Turing a notamment inventé un modèle de calcul par la suite appelé machine de Turing, exploré la notion de calculabilité et d'intelligence des machines, et proposé le « jeu de l'imitation » (test de Turing) pour évaluer 42 Le canard artificiel de Vaucanson l'intelligence de futures machines. Le terme « intelligence artificielle » a été mis (1738). en avant par John McCarthy lors de la conférence de Dartmouth en 1956, où 43, 44 l'intelligence artificielle a été établie en tant que discipline à part entière. Dans les années qui ont suivi, des chercheurs ont proposé diverses preuves de concept, dans des situations spécifiques, de ce que les machines peuvent faire en théorie. Par exemple, le programme ELIZA pouvait se faire 45 passer pour un psychothérapeute, et le Logic Theorist pouvait démontrer des théorèmes. La fin du siècle a été marquée par des périodes d'enthousiasme, et deux périodes de désillusion et de gel des 46 financements appelées « hivers de l'IA » , la première de 1974 à 1980 et la seconde de 1987 à 1993. Les systèmes experts ont été particulièrement populaires dans les années 1980, malgré leur fragilité et la difficulté à implémenter 45 manuellement les bonnes règles d'inférences. Des techniques d'apprentissage automatique se sont développées 45 (réseaux de neurones, rétropropagation du gradient, algorithmes génétiques) ainsi que l'approche connexionniste. Mais les faibles puissances de calcul et le manque de données d'entraînement limitait leur efficacité. Certains domaines n'ont progressivement plus été considérés comme faisant partie de l'intelligence artificielle, à mesure 47 qu'une solution efficace était trouvée ; un phénomène parfois appelé « effet IA ». Dans les années 2000, le Web 2.0, le big data et de nouvelles infrastructures et capacités de calcul ont permis l'exploration de masses de données sans précédent. En 2005, le projet Blue Brain a débuté, ayant pour objectif de simuler le cerveau de 48 mammifères. En 2012, le réseau neuronal convolutif AlexNet a lancé l'utilisation de processeurs graphiques pour entraîner des réseaux de neurones, décuplant ainsi les 49 capacités de calcul dédiées à l'apprentissage. Des organisations visant à créer une 50 intelligence artificielle générale ont vu le jour, comme DeepMind en 2010 et OpenAI 51 en 2015. Dans les années 2010, les En 2017, des chercheurs de Google ont proposé l'architecture transformeur, qui a servi assistants personnels de base aux grands modèles de langage. En 2018, Yann Le Cun, Yoshua Bengio et intelligents sont l'une des Geoffrey Hinton ont remporté le prix Turing pour leurs travaux sur l'apprentissage premières applications grand 52, 53 profond. public de l'intelligence artificielle. En 2022, des programmes générant des images à partir de descriptions textuelles, 54 comme Midjourney ou DALL-E 2, se sont popularisés. La même année, l'agent 55 conversationnel ChatGPT a affiché une croissance inédite, gagnant un million d'utilisateurs en seulement cinq jours 56 57 et cent millions d'utilisateurs en deux mois , ce qui a accentué un phénomène de « course » à l'IA. En 2023, les 58 progrès rapides de l'IA ont suscité des inquiétudes quant à un potentiel risque d'extinction de l'humanité. Des 59 modèles traitant simultanément plusieurs modalités (texte, images, son), ont émergé (dont Google Gemini). Intelligence artificielle générale L'intelligence artificielle générale (IAG) comprend tout système informatique capable d'effectuer ou d'apprendre 60 pratiquement n'importe quelle tâche cognitive propre aux humains ou autres animaux. Elle peut alternativement être définie comme un système informatique surpassant les humains dans la plupart des tâches ayant un intérêt 61 économique. 62 L'intelligence artificielle générale a longtemps été considérée comme un sujet purement spéculatif. Certains travaux 63, 64 de recherche ont déjà décrit GPT-4 comme ayant des « étincelles » d'intelligence artificielle générale. Les experts en intelligence artificielle affichent de larges désaccords et incertitudes quant à la date potentielle de conception des premières intelligences artificielles générales (parfois appelées « intelligences artificielles de niveau humain »), leur 65 impact sur la société, et leur potentiel à déclencher une « explosion d'intelligence ». Un sondage de 2022 suggère que 90 % des experts en IA pensent que l'IAG a plus d'une chance sur deux d'être 66 réalisée dans les 100 ans, autour d'une date médiane de 2061. Une superintelligence artificielle est un type hypothétique d'intelligence artificielle générale dont les capacités 67 intellectuelles dépasseraient de loin celles des humains les plus brillants. Le philosophe Nick Bostrom note que les machines disposent de certains avantages par rapport aux cerveaux humain, notamment en ce qui concerne la mémoire, la vitesse (la fréquence des processeurs étant de l'ordre de dix millions de fois plus élevée que celle des 68 neurones biologiques) et la capacité à partager des connaissances. Tests Dans ce contexte, un test est un moyen d'évaluer les capacités d'une intelligence artificielle à imiter certains comportements et raisonnements humains. Test de Turing Dans le test de Turing, une machine et un humain répondent textuellement aux questions d'un interrogateur humain. L'interrogateur ne les voit pas mais doit déterminer à partir des réponses textuelles lequel des deux est la machine. Pour passer le test, la machine doit parvenir une bonne partie du temps à tromper l'interrogateur. Ce test a été conçu par Alan Turing en 1950 dans l'article « Computing Machinery and Intelligence ». Initialement appelé le « jeu de l'imitation », son but était de fournir une expérience concrète pour déterminer si 69 les machines peuvent penser. Le test de Turing évalue la capacité à se faire passer pour un humain Test du café dans un dialogue écrit, mais incite Imaginé par Steve Wozniak, le test du café consiste à placer un système intelligent donc aussi à imiter les défauts 70 humains. dans un habitat américain moyen et à lui demander de faire un café. La réussite du test implique donc plusieurs tâches comme l'orientation dans un environnement inconnu, déduire le fonctionnement d'une machine, trouver les ustensiles nécessaires… Test de l'étudiant Proposé par Ben Goertzel, le test de l'étudiant évalue la capacité d'un robot à s'inscrire dans un établissement 71 d'enseignement supérieur, suivre les cours, passer les examens et obtenir le diplôme final. Test de l'embauche Proposé par le chercheur Nils John Nilsson, le test de l'embauche consiste à faire postuler un système intelligent à un 72 travail important pour l'économie, où il doit travailler au moins aussi bien qu'un humain. Personnalités Prix Turing Plusieurs prix Turing (ACM Turing Award) ont été attribués à des pionniers de l'intelligence artificielle, notamment : Marvin Minsky (1969) ; John McCarthy (1971) ; Allen Newell et Herbert Simon (1975) ; Edward Feigenbaum et Raj Reddy (1994) ; Judea Pearl (2011) ; 73 73 Yann Le Cun, Geoffrey Hinton et Yoshua Bengio (2019). Autres personnalités Claude Shannon, fondateur de la théorie de l'information, inventeur de la porte logique, concepteur de 74 programmes d'échecs. Rodney Brooks, un roboticien australien. Demis Hassabis, cofondateur et PDG de DeepMind. Ian Goodfellow, inventeur des réseaux antagonistes génératifs. Andrew Ng, connu comme directeur scientifique de Baidu et comme créateur de Coursera. Terry Winograd, pionnier en traitement automatique des langues. Vladimir Vapnik, co-inventeur des machines à vecteurs de support. Seymour Papert, ancien directeur du Laboratoire d'intelligence artificielle du MIT. Jacques Pitrat, pionnier français en intelligence artificielle symbolique. 75 En 2023, le magazine Time publie une liste de 100 personnalités influentes du domaine de l'IA et leurs biographies. Domaines d'application L'intelligence est utilisée pour effectuer différents types de tâches, dont : le dialogue automatique : se faire comprendre en lui parlant ; la traduction automatique, si possible en temps réel ou très légèrement différé ; le traitement automatique des langues ; le raisonnement automatique (voir systèmes experts) ; le partitionnement et la classification automatique ; la composition musicale automatique (voir les travaux de René-Louis Baron et de l'Ircam ; vers 2016, les 76, 77 recherches de François Pachet portent le développement de flow machines telles que Deepbach ); la reconnaissance de formes, des visages et la vision en général, etc. ; la reconnaissance automatique de la parole : conversion de parole en texte ; l'intégration automatique d'informations provenant de sources hétérogènes, (fusion de données) ; l'émotion artificielle (voir les travaux de Rosalind Picard sur l'émotion) et l'éventualité d'une subjectivité artificielle ; l'aide aux diagnostics ; l'aide à la décision ; la résolution de problèmes complexes, tels que les problèmes d'allocation de ressources ; l'assistance par des machines dans les tâches dangereuses, ou demandant une grande précision ; l'automatisation de tâches. L'intelligence artificielle est utilisée dans de nombreux domaines. Ses capacités permettent notamment d'automatiser et d'optimiser des tâches complexes, de traiter et d'analyser de vastes quantités de données, et d'améliorer la prise de 78 décision. L'adoption de l'intelligence artificielle est en forte expansion dans les années 2020, stimulée par les avancées en intelligence artificielle générative, en particulier dans les grands modèles de langage, dont la polyvalence 79 ouvre la voie à de nouveaux cas d'usage. Finance et banques Plusieurs grands noms de la finance se sont montrées intéressées par de telles technologies, avec des projets comme 80 ceux de Bridgewater Associates où une intelligence artificielle va gérer entièrement un fonds ou encore la plateforme d'analyse prédictive Sidetrade. Sont également développés des systèmes de trading algorithmique, dont les gains de vitesses permis par l'automatisation peuvent leur donner un avantage par rapport à des traders humains, en particulier grâce au trading à 81 haute fréquence. Militaire Le domaine militaire utilise de plus en plus l'intelligence artificielle, notamment pour le pilotage automatique, le 82 83 guidage de missiles, l'identification, le commandement, l'aide à la décision , la cyberguerre et la cyberdéfense , ou 84 pour la documentation et les processus administratifs. 85 Cette course aux armements est notamment illustrée par le projet Maven aux États-Unis. Dès 2015, une IA 86 nommée ALPHA a « systématiquement triomphé d'un pilote de chasse chevronné ». En 2018, l'ONU a tenté d'interdire les systèmes d'armes létales autonomes « avant qu'il ne soit trop tard », mais peine encore en janvier 2024 à établir le moindre cadre légal international face aux réticences, notamment de la Russie, des États-Unis et d'Israël, 87 dont le veto peut bloquer une proposition. Des drones tueurs pilotés par intelligence artificielle ont été utilisés lors 88 du conflit ukraino-russe. Le 10 janvier 2024, OpenAI a modifié ses conditions d'utilisation ; il continue d'interdire l'usage de ses services tels que ChatGPT à des fins illégales ou de destruction des biens, mais n'interdit plus 89 explicitement les usages militaires. L'intelligence artificielle générative est parfois utilisée par les institutions militaires pour rédiger plus vite la documentation, mais son adoption est limitée par la confidentialité des données, 84 les réglementations, ou le risque d'erreur et le besoin de vérification. En France, la force opérationnelle IA du ministère des Armées rend en septembre 2019 un rapport détaillant sa stratégie, qui inclut la création d'une Cellule de coordination de l'intelligence artificielle de défense (CCIAD) rattachée 90 à l'Agence de l'innovation de défense. La loi de programmation militaire prévoit un budget de 700 millions d'euros 91 pour les missions en faveur de l'IA, soit une moyenne de 100 millions par an. La France est opposée aux armes pouvant attaquer des cibles de façon complètement autonome, estimant qu'il est au moins nécessaire de conserver 92, 93 une supervision humaine. Dans le cadre de la guerre Israël-Hamas de 2023-2024, Israël a utilisé deux systèmes d'IA pour générer des cibles à frapper : Habsora (soit « l'évangile ») a été utilisé pour dresser une liste de bâtiments à cibler, tandis que Lavande a 94, 95 produit une liste de 37 000 personnes à cibler. La liste des bâtiments comprenait les maisons privées à Gaza de personnes soupçonnées d'être affiliées à des membres du Hamas. La combinaison de la technologie de ciblage de l’IA et du changement de politique consistant à éviter les cibles civiles a entraîné un nombre sans précédent de morts civiles. Les responsables de Tsahal affirment que le programme répond au problème antérieur du manque de cibles de l’armée de l’air. Auparavant, Tsahal était en mesure d'identifier 50 cibles par an, tandis que le programme en produit 95 100 par jour. Médecine La médecine a aussi vu de grands progrès grâce à l'utilisation de systèmes d'aide au diagnostic ou de diagnostic 96 automatisé. En 2018, Google DeepMind, filiale de Google spécialisée dans la recherche avancée en intelligence artificielle, a publié les résultats d'une expérimentation d'intelligence artificielle pouvant détecter les maladies oculaires. Les résultats 97 indiquent que l'IA le fait avec une marge d'erreur plus faible que les ophtalmologues. Google DeepMind a également conçu AlphaFold, un système d'intelligence artificielle utilisant l'apprentissage profond qui permet de prédire la façon dont des protéines se replient. Les protéines sont composées de chaînes d'acides aminés et la façon dont elles se replient détermine leur fonction. Cette nouvelle méthode, introduite en 2018 et améliorée en 2020, est nettement plus rapide que les approches traditionnelles et a été décrite comme une 98, 99 révolution dans le domaine de la recherche en biologie. La France crée en 2019 le Health Data Hub afin d'encadrer et de faciliter l'utilisation des données de santé dans la 100 recherche. En 2023, la version de ChatGPT reposant sur GPT-4 s'est montrée facilement capable d'obtenir le diplôme de 101 médecin aux États-Unis. Renseignement policier Un usage de l'IA se développe dans le domaine de la prévention des crimes et délits. La police britannique, par 102 exemple, développe une IA de ce genre, annoncée comme pouvant être opérationnelle dès mars 2019. Baptisée National Data Analytics Solution (Solution nationale d'analyse de données ou NDAS), elle repose sur l'IA et des statistiques et vise à estimer le risque qu'une personne commette un crime ou en soit elle-même victime, pour orienter les services sociaux et médicaux qui peuvent la conseiller. L'usage d'outils de prédiction des crimes à partir des données préalablement existantes est toutefois l'objet de 103 controverses, compte tenu des biais sociaux (notamment raciaux) qu'il comporte. En effet, la logique d'identification de schémas propre à ces technologies joue un rôle de renforcement des préjugés déjà existants. Cybercrime L'intelligence artificielle (IA) est de plus en plus exploitée dans le domaine du cybercrime, comme le révèle une étude de la société spécialisée en cybersécurité SlashNext. Cette tendance croissante à l'utilisation de l'IA pour commettre des crimes en ligne montre une sophistication accrue des attaques. L'entreprise SlashNext a notamment identifié l'usage de deux IA malicieuses, FraudGPT et WormGPT, tout en suggérant que ces découvertes ne représentent que la partie visible d'une menace potentiellement colossale. Lors de leurs investigations, les chercheurs ont également mis b en lumière l'existence de DarkBart et DarkBert , deux chatbots malveillants en développement, capables d'intégrer la technologie de reconnaissance d'images de Google Google Lens. Ces chatbots pourraient envoyer du texte et des images, et participer à des attaques d'ingénierie sociale avancées. Face à cette menace croissante, les solutions actuelles de lutte contre le cybercrime semblent insuffisantes, estime un rapport d'Immunefi, qui souligne les limites 104 de certaines IA, telles que ChatGPT, dans la détection des exploits. Droit Le droit fait appel à l'IA dans la perspective de prédire les décisions de justice, d'aider à la décision et de trancher les 105 cas simples. L'Estonie a par exemple développé une intelligence artificielle capable de prendre des décisions de 106 justice sur des délits mineurs. Les États-Unis utilisent par ailleurs dans certaines juridictions le système COMPAS (en)(Correctional Offender Management profiling for Alternative Sanctions), un système d'aide à la prise 106 de décision pour les juges. Plusieurs startups se sont spécialisées dans ce créneau, créant le domaine de la 107 legaltech. Logistique et transports Le domaine de la logistique a vu certains projets utilisant de l'intelligence artificielle se développer notamment pour 108 la gestion de la chaîne logistique (supply chain) ou des problématiques de livraison telle celle du dernier kilomètre. L'intelligence artificielle est également fortement utilisée dans le domaine des transports en commun, car elle permet de faciliter la régulation et la gestion du trafic au sein de réseaux de plus en plus complexes, comme le système 109 UrbanLoop actuellement en cours d'étude dans la ville de Nancy. Même si les problèmes d'optimisation de temps de trajet ou de transports font partie des plus anciennes applications de solutions à base d'intelligence artificielle (voir le problème du voyageur de commerce ou l'algorithme de Dijkstra), les avancées récentes, notamment en apprentissage profond, ont permis des progrès significatifs en matière de précision. Certains projets comme Google Maps utilisent par exemple des systèmes d'IA en milieu urbain pour 110 compenser la réflexion du signal GPS sur les immeubles avoisinant , ou pour cartographier des zones où peu 111, 112 d'informations sont disponibles. Plusieurs entreprises ont par ailleurs annoncé avoir développé des programmes de recherche en voiture autonome, notamment Google à travers sa filiale Waymo, l'entreprise française Navya ou encore Tesla. Industrie Les systèmes intelligents deviennent monnaie courante dans de nombreuses industries. Plusieurs tâches peuvent leur 113 être confiées, notamment celles considérées comme trop dangereuses pour un humain. Certains applications se concentrent sur les systèmes de maintenance prédictive, permettant des gains de performance grâce à une détection des problèmes de production en amont. Robotique La robotique a recours à l'intelligence artificielle à plusieurs égards. Notamment pour la perception de l'environnement (objets et visages), l'apprentissage et l'intelligence 114, 115 artificielle développementale. L'interaction homme-robot manque encore souvent de naturel et est un enjeu de la robotique. Il s'agit de permettre aux robots d'évoluer dans le monde dynamique et 114 social des humains et d'échanger avec eux de façon satisfaisante. L'échange nécessite également, à l'inverse, une évolution du regard que les humains portent sur les robots ; selon Véronique Aubergé, chercheuse à l'Université Grenoble-Alpes « la vraie révolution n'est pas technologique, elle est culturelle ». D'ores et déjà, à travers les robots dotés d'intelligence artificielle, tel Google Home, les utilisateurs combleraient un isolement 114 social. Un robot NAO en 2014. Jeux vidéo L'intelligence artificielle est par exemple utilisée pour animer les personnages non-joueurs de jeux vidéo, qui sont conçus pour servir d'opposants, d'aides ou d'accompagnants lorsque des joueurs humains ne sont pas disponibles ou désirés. Différents niveaux de complexité sont développés, d'une simple assistance à un comportement complexe imitant (ou dépassant) les meilleurs joueurs humains. Art Dès la fin des années 1980, des artistes s'emparent de l'intelligence artificielle pour donner un comportement autonome à leurs œuvres. Les Français Michel Bret, Edmond Couchot et Marie-Hélène Tramus sont des pionniers, 116 ainsi qu'en témoignent des œuvres comme La Plume et Le Pissenlit (1988) , puis La Funambule (2000), animée par un réseau de neurones. L'Américain Karl Sims, en partenariat avec la société Thinking Machines, crée en 1993 Genetic Images, machines incorporant [Comment ?] des algorithmes génétiques. Le couple franco-autrichien Christa Sommerer et Laurent Mignonneau crée depuis le début des années 1990 de nombreuses œuvres dans le champ de la vie artificielle, parmi lesquelles Interactive plant growing (1992) ou A-Volve (1994) [réf. nécessaire]. Le Français Florent Aziosmanoff propose quant à lui de considérer que l'emploi de l'intelligence artificielle dans l'art conduit à 117 l'émergence d'une nouvelle discipline d'expression, qu'il nomme le Living art. Le 23 octobre 2018, la société de vente aux enchères Christie's met en vente le tableau Portrait d'Edmond de Belamy réalisé par une intelligence artificielle à l'aide de réseaux antagonistes génératifs. La peinture est signée par la formule 118 mathématique à l'origine de sa création (« Min (G) max (D) Ex [log (D(x))] + Ez [log(1-D(G(z)))] »). Cette vente soulève de nombreux débats sur son statut de création artistique et sur l'auteur de l'œuvre : il peut être l'intelligence 119 artificielle elle-même ou les trois créateurs qui l'ont programmée. Des réseaux antagonistes génératifs ont parfois été utilisés pour créer de fausses images réalistes, comme avec le 120 générateur de visages StyleGAN introduit en 2018 , ou avec « Terre Seconde » de Grégory Chatonsky qui imagine 121 en 2019 une version alternative de la planète Terre. Dès 2022 apparaissent des modèles d'intelligence artificielle qui sont capables de créer des images réalistes à partir de descriptions textuelles, comme Midjourney, Stable 122, 123 Diffussion et DALL-E. En mars 2023, des fausses photos d'actualité sont ainsi générées et diffusées sur Internet, mettant en scène des personnalités dans des situations extravagantes (le président Macron ramassant des poubelles, Donald Trump arrêté par 124 125 des policiers , le pape François habillé en doudoune blanche ). Elles deviennent 126 rapidement virales, augmentant les craintes de manipulation de l'opinion. Cela pose 127 aussi des questions de droits d'auteur. Une fausse photo du jeune Elon Musk jouant au jeu Image externe vidéo Mars Marauder en Fausses photos d'actualité générées par 1995, générée par l'IA Midjourney (mars 2023) (https://www.liberatio n.fr/resizer/Pn9RvKgk0v-CTyhuXAhk2EE7fP 0=/600x0/filters:format(jpg):quality(70):focal (774x418:784x428)/cloudfront-eu-central-1.i mages.arcpublishing.com/liberation/NRFKW 128 QBPSRDNNDA6ZDNBIYGZCM.jpg). 129 De plus en plus de romans ont été coécrits avec une IA générative, tels que Internes en 2022 ou 東京都同情塔 (« La 130 Tour de la compassion de Tokyo »), qui a reçu le prix Akutagawa en 2024. 131 En février 2024, le modèle Sora de OpenAI s'est montré capable de générer des vidéos relativement réalistes. Des modèles d'IA capables de générer un morceau de musique à partie d'une description du style souhaité ont 132 également fait leur apparition, comme Suno AI en 2023 et Udio en 2024. Autres domaines 133 La domesticité, avec des robots employé de maison , ou pour certaines tâches précises comme en domotique. En programmation informatique, notamment pour la maintenance prévisionnelle, l'autocomplétion ou l'aide au 134 développement. En journalisme : des IA (appelées improprement « robots journalistes ») pourraient à terme aider les journalistes en les débarrassant de certaines tâches, notamment la veille, le bâtonnage de dépêches ou la vérification des fake 135 news. 136 La Corée du Sud propose la toute première animatrice télé virtuelle en novembre 2020 lors d'un JT. En design : la conception assistée par ordinateur fait depuis longtemps appel à des algorithmes d'optimisation. En 2019, le créateur Philippe Starck lance ainsi une chaise développée en collaboration avec la société Autodesk, la 137 « A.I.chair ». Questionnements Les succès en IA encouragent les spéculations. Dans les milieux technophiles, on verse en général dans l'enthousiasme, le mouvement transhumaniste en est la meilleure expression. Mais certains s'inquiètent et s'interrogent, parfois alarmistes, y compris dans la sphère de la haute technologie. Ainsi, des figures réputées telles que Bill Gates — ancien PDG de Microsoft et « figure emblématique de la révolution informatique de la fin du 138 xxe siècle » — pensent qu'il faut rester très prudent quant aux développements futurs de ces technologies, qui pourraient devenir liberticides ou dangereuses. Le développement de l'intelligence artificielle suscite un grand nombre de questions, notamment en ce qui concerne la possibilité pour les IA ou algorithmes d'accéder un jour à la conscience, d'éprouver des émotions ou de finalement se substituer aux humains. Certaines réactions sont ouvertement optimistes, d'autres sont au contraire pessimistes. 139 En 2016, l'INRIA publie un premier Livre blanc consacré à l'IA. Dans son essai Intelligence artificielle, intelligence humaine : la double énigme, le philosophe Daniel Andler considère que le rêve d'une intelligence artificielle qui rejoindrait celle de l'homme est une chimère, pour des causes conceptuelles et non techniques. L'intelligence humaine va selon lui plus loin que la simple résolution de problèmes : toutes ses autres tâches, reposant sur des affects, de la spontanéité et une forme de contingence, ne seront jamais 140 accessibles à une intelligence non humaine. Singularité Une description d'un possible avenir de l'intelligence artificielle a été faite par le statisticien anglais Irving John Good : « Supposons qu'existe une machine surpassant en intelligence tout ce dont est capable un homme, aussi brillant soit-il. La conception de telles machines faisant partie des activités intellectuelles, cette machine pourrait à son tour créer des machines meilleures qu'elle-même ; cela aurait sans nul doute pour effet une réaction en chaîne de développement de l'intelligence, pendant que l'intelligence humaine resterait presque sur place. Il en résulte que la machine ultra intelligente sera la dernière invention que l'homme aura besoin de faire, à condition que ladite machine soit assez docile pour constamment lui obéir. » 141 — Irving John Good Cette hypothétique courte période de progrès drastique dont il est difficile de prédire les conséquences a été nommée « singularité ». Elle a été étudiée par Vernor Vinge dans les Pour l'Américain Ray 142 143 années 90 et par Ray Kurzweill dans les années 2000. Ce concept est central pour Kurzweil, l'intelligence de nombreux transhumanistes, qui s'interrogent sur les dangers ou les espoirs d'un tel artificielle dépassera bientôt l'intelligence naturelle. scénario, certains allant jusqu'à envisager l'émergence d'un « dieu » numérique appelé à 143 prendre le contrôle du destin de l'humanité, ou à fusionner avec elle. En 2014, Nick 144 Bostrom a popularisé le concept de superintelligence artificielle. Risques existentiels Le développement de l'intelligence artificielle génère de l'enthousiasme, mais aussi de vives inquiétudes. Certains auteurs de science-fiction, tels Isaac Asimov, William Gibson ou Arthur C. Clarke, sur le modèle du récit de L'Apprenti sorcier, décrivent le risque d'une perte de contrôle des humains sur le processus technique. Dans les années 2010, différents intellectuels ont également pris position. Notamment l'astrophysicien Stephen Hawking, selon qui l'intelligence artificielle risque réellement de surpasser un jour l'intelligence humaine et de finir 146, 147 par dominer l'humanité, voire de s'y substituer. Il pose en novembre 2017 Un premier sommet en sûreté de l'IA au salon technologique Web Summit de Lisbonne la question suivante « Serons- s'est tenu en novembre 2023 pour nous aidés par l'intelligence artificielle ou mis de côté, ou encore détruits par aborder les risques liés aux 148 145 elle ? ». modèles d'IA les plus avancés. Dans le milieu de la haute technologie, certains expriment publiquement des 149 craintes similaires. C'est ainsi le cas, en 2015, de Bill Gates, Elon Musk et Bill Joy. Selon le spécialiste américain de l'informatique Moshe Vardi en 2016, l'intelligence artificielle pourrait mettre 50 % de l'humanité au chômage. « Nous 150 approchons d'une époque où les machines pourront surpasser les hommes dans presque toutes les tâches ». Hilary Mason, directrice de la recherche à Cloudera, a critiqué en 2018 le sensationnalisme entourant l'intelligence 151 artificielle et prône une vision pragmatique et opérationnelle de cette technologie. Ajouter un mécanisme d'arrêt pourrait ne pas suffire face à une IA suffisamment avancée, qui pourrait s'avérer en mesure de cacher des intentions dangereuses, de manipuler ses détenteurs, de désactiver le mécanisme d'arrêt ou encore de se dupliquer. Selon Nick Bostrom en 2015, la seule solution viable à long terme consiste à trouver comment 152 152 aligner les intelligences artificielles avec des valeurs humaines et morales : « nous ne devrions pas être confiants dans notre capacité à garder indéfiniment un génie superintelligent enfermé dans une bouteille. Je crois que la réponse ici est de trouver comment créer une IA superintelligente de sorte que si — ou plutôt quand — elle s'échappe, elle reste sans danger, parce qu'elle est fondamentalement de notre côté, elle partage nos valeurs. » — Nick Bostrom Roman V. Yampolskiy, professeur de science informatique à l'Université de Louisville, évoque pourquoi et comment une IA obtient un résultat, pour s'assurer qu'il corresponde bien à l'attendu, sans biais : « si nous nous habituons à accepter les réponses de l'IA comme des paroles d'oracles ne nécessitant pas d'explication, alors nous serons 153 incapables de vérifier si ces résultats ne sont pas biaisés ou manipulés ». En mai 2023, une déclaration du Center for AI Safety (« Centre pour la sûreté de l'IA ») affirme que réduire le risque d'extinction de l'humanité lié à l'IA devrait être une priorité mondiale, au même titre que pour d'autres risques civilisationnels tels les pandémies ou les guerres nucléaires. Elle est signée par des dirigeants de laboratoires d'IA 154, 155 comme OpenAI, Google DeepMind ou Anthropic, ainsi que par des chercheurs en intelligence artificielle. Critique de la technique et de la technologie Comme l'explique l'historien François Jarrige, la critique de l'intelligence artificielle trouve son origine dans celle - 156 plus ancienne et plus générale - des techniques et de la technologie, dont Lewis Mumford (aux États-Unis) , 157 158 Jacques Ellul (en France) et Günther Anders (en Allemagne) sont au xxe siècle les principaux instigateurs, et qui 159 inspire aujourd'hui différents cercles militants (en France, par exemple : Pièces et Main d'Œuvre et 160 161 Technologos ). Dans un rapport en date de février 2018 intitulé The Malicious Use of Artificial Intelligence 26 experts spécialistes en intelligence artificielle mettent en garde contre les dangers d'un usage criminel de l'IA : augmentation de la 162 cybercriminalité, conduire à des utilisations de drones à des fins terroristes, manipulation de masse, etc.. Enjeux environnementaux Un autre problème est l'énorme quantité de ressources rares, de serveurs et d'énergie consommée par l'informatique sous-jacente à l'IA. Google admet en 2024 qu'il lui sera très difficile de tenir ses engagements de neutralité carbone, 163 car depuis 2019 ses émissions de gaz à effet de serre ont augmenté de 48 % du fait du développement de l'IA. Open source 164 165 166 165 Divers projets open source d'IA ont été menés par Hugging Face et EleutherAI , Google , ou encore Meta. En mars 2023, comme alternative aux géants du Web et du cloud computing, qui ont le plus de pouvoir et d'influence, Mozilla a annoncé vouloir investir 30 millions de dollars dans un projet baptisé Mozilla.ai, qui est à la fois une startup 167 et une communauté, indépendante des géants de la tech et de la recherche académique. Le projet vise à créer, dans le respect des valeurs de son manifeste (notamment transparence et responsabilité), un système d'IA « open source, 168 digne de confiance et indépendant » qui puisse faire « contrepoids » aux IA privées en émergence. 169 170 De nombreux grands modèles de langage comme Mistral , Llama 3, Vicuna et Falcon ont été rendus open weight, ce qui signifie que l'architecture et les paramètres entraînés du modèle d'IA sont rendus publics (open source 171 impliquerait notamment de partager les données d'entraînement, ce qui souvent n'est pas le cas). Ces modèles peuvent être librement ajustés, ce qui permet notamment aux entreprises de les spécialiser pour leurs propres 172 données et pour leur cas d'usage. Ces modèles d'IA facilitent l'innovation et la recherche, mais peuvent facilement être détournés. Ils peuvent être réentraînés de sorte à rendre inefficaces les mesures de sécurité, telles que le refus de répondre à une requête dangereuse. Certains chercheurs estiment ainsi que si des modèles développent un jour des capacités dangereuses, comme le fait de faciliter drastiquement les cyberattaques ou le bioterrorisme, ils ne devraient pas être rendus open weight, d'autant plus qu'une fois diffusé sur internet, un modèle ne peut en général plus être 173, 171 supprimé partout. Réglementation En 2017, les Émirats arabes unis sont le premier pays au monde à se doter d'un ministre dédié à l'intelligence 174 artificielle : Omar Sultan Al Olama. 175 En 2019, l'OCDE et le G20 adoptent une série de principes sur l'IA. Le Partenariat mondial sur l'intelligence artificielle est lancé en juin 2020 pour promouvoir la conformité du développement de l'IA aux droits de l'homme et 176 aux valeurs démocratiques. Il est hébergé par l'OCDE à Montréal et à Paris. Une plateforme de communication, AI for Good (« l'IA pour le bien »), est créée pour faciliter les échanges et faire avancer les objectifs de développement 177 durable de l'ONU grâce à l'IA. 178 En Europe, les services numériques sont réglementés par le RGPD , le règlement sur les services numériques et la législation sur les marchés numériques. Pour l'intelligence artificielle en particulier, la législation sur l'intelligence artificielle (Artificial Intelligence Act, ou AI Act en anglais) définit quatre niveaux de risques pour les applications 179 d'IA et met en avant des exigences de transparence, de protection des données, de sécurité et d'éthique. 180 En 2023, plus de 1 600 politiques publiques et stratégies sur l'IA sont recensées dans le monde. Elles viennent en particulier de l'Union européenne, la Chine, les États-Unis et le Royaume-Uni. Après les avancées réglementaires de l'UE et de la Chine, la Maison-Blanche publie en octobre 2023 un décret sur l'IA « sûre, sécurisée et digne de 180 confiance ». En novembre 2023 a lieu un premier sommet en sécurité de l'IA au Royaume-Uni. Droits des robots En 2017, le Parlement européen a demandé à une commission d'étudier la possibilité qu'un robot doté d'une 181, 182 intelligence artificielle puisse être considéré comme une personne juridique. Advenant un dommage causé à un tiers par une intelligence artificielle, celle-ci pourrait être condamnée à réparer ce dommage. Il serait envisageable de conférer une personnalité électronique à tout robot prenant des décisions autonomes ou interagissant de manière indépendante avec des tiers, au même titre qu'une personne morale et physique. Appels à des règles éthiques pour l'IA Dans la seconde moitié des années 2010, des lanceurs d'alerte et des enquêtes laissent penser que l'IA, encore émergente, est déjà utilisée à des fins malveillantes pour faire basculer des processus électoraux. Le premier cas détecté a été la plate-forme RIPON, secrètement créée par le Groupe SCL, à la demande de Steve Bannon et du milliardaire américain Robert Mercer, mise au service de groupes politiques presque tous libertariens de droite ; 183, 184 Ripon a été un outil de désinformation, de production et de diffusion de fake news à grande échelle. Ripon ne sera découvert que parce qu'elle a été au cœur du scandale Facebook-Cambridge Analytica/Aggregate IQ). Cette IA a été, au moins durant quelques années, dans les années 2010, utilisée pour tromper et manipuler un grand nombre d'électeurs, par exemple, avec succès, pour faire élire Donald Trump lors de l'élection présidentielle américaine de 185 2016, ou pour faire advenir le Brexit , ainsi que pour orienter des dizaines d'élections dans le monde. Le 28 septembre 2016, les géants du secteur de l'intelligence artificielle mettent en place un « partenariat pour 186 l'intelligence artificielle au bénéfice des citoyens et de la société ». L'année suivante, Google DeepMind se dote 187 d'une unité interne pour aborder les questions éthiques. Le 18 juillet 2018, 2 400 chercheurs, ingénieurs et personnalités du secteur de l'intelligence artificielle signent une 188 lettre ouverte , s'engageant à « ne jamais participer ou soutenir le développement, la fabrication, le commerce ou l'usage d'armes létales autonomes ». La lettre précise notamment que « La décision de prendre une vie humaine ne devrait jamais être déléguée à une machine ». Parmi les signataires se trouvent Elon Musk, les dirigeants de Google 189 DeepMind Stuart Russell, Yoshua Bengio, et Toby Walsh. Fin 2020, l'UNESCO rejoint (en tant qu'observateur, comme l'OCDE) le conseil et le comité directeur du Partenariat 190 mondial sur l'intelligence artificielle, avec la possibilité de participer activement aux travaux de ces organismes. 191 À la suite de la publication en février 2020 d'un Livre blanc sur l'intelligence artificielle , la Commission européenne pose en 2021 les bases de la législation sur l'intelligence artificielle, visant à prévenir les risques et les 192 problèmes éthiques inhérents à ces technologies. Ce projet classe les risques en quatre catégories, dont la plus grave est qualifiée comme suit : « Risque inacceptable : les systèmes d'IA considérés comme une menace évidente pour la sécurité, les moyens de subsistance et les droits des personnes seront interdits. Il s'agit notamment des systèmes ou applications d'IA qui manipulent le comportement humain pour priver les utilisateurs de leur libre arbitre (par exemple, des jouets utilisant une assistance vocale incitant des mineurs à avoir un 193 comportement dangereux) et des systèmes qui permettent la notation sociale par les États. » En décembre 2022, le « premier forum mondial sur l'éthique de l'IA », réunion ministérielle internationale, est réuni 194 à Prague, sous l'égide de l'Unesco. L'Unesco, estimant que « l'autorégulation de l'industrie n'est manifestement pas suffisante pour éviter ces préjudices éthiques », a publié en 2023 un communiqué demandant à tous les États de 195 196 mettre en œuvre sa recommandation sur l'éthique de l'intelligence artificielle. Ce texte , adopté le 23 novembre 2021 et publié en 2022 vise à construire un cadre législatif et éthique pour l'intelligence artificielle (IA). Il ne s'agit pas de se priver de l'IA, mais de ne l'utiliser que quand les atouts qu'elle peut offrir sont bien identifiés, et que quand on peut éviter, limiter, réparer les risques qui lui sont associés (en particulier lors d'usages non-pacifiques, malveillants et/ou aggravant les inégalités et des clivages) ; l'ONU, via cette recommandation invite à ne pas utiliser l'IA quand elle met en péril la protection des données (tous les individus devraient pouvoir accéder aux enregistrements de leurs données personnelles, et même les effacer, et la capacité des organismes de réglementation du monde entier à faire respecter ces dispositions doit être renforcée). Il s'agit aussi d'interdire la notation sociale et la surveillance de masse, contraires aux droits de l'homme et aux libertés fondamentales, et elles sont utilisées de manière généralisée. « La Recommandation souligne que, lors de l'élaboration de cadres réglementaires, les États membres devraient tenir compte du fait que la responsabilité et l'obligation de rendre des comptes incombent toujours aux êtres humains en dernier ressort et que les technologies de l'IA ne devraient pas être dotées elles-mêmes d'une personnalité juridique ». Les IA doivent être évaluées du point de vue de leurs impacts éthiques sur les individus, la société et l'environnement en créant une infrastructure juridique et technique ad hoc, et en créant un responsable (indépendant) de l'éthique de l'IA ou d'autre mécanisme pour surveiller les IA. Ceux qui créent des IA devraient « privilégier les méthodes d'IA économes en données, en énergie et en ressources » pour en faire un outil dans la lutte contre le changement climatique et la dégradation de l'environnement. Les gouvernements sont invités, lors du cycle de vie du système d'IA à analyser son « empreinte carbone, sa consommation d'énergie et l'impact environnemental de l'extraction des matières premières pour soutenir la fabrication des technologies d'IA », tout en cherchant à diminuer l'impact environnemental du numérique, dont en investissant dans les technologies vertes. « si les systèmes d'IA ont un 196 impact négatif disproportionné sur l'environnement, la Recommandation préconise de ne pas les utiliser ». Cette recommandation, qui a été adoptée à l'unanimité par les 193 États-membres, faisait suite à trois ans de travail préparatoire. « C'est le défi de notre temps » et en 2023 il est devenu « urgent que tous transposent ce cadre sous la forme de stratégies et de réglementations nationales. Nous devons traduire les engagements en actes » a commenté 197 Audrey Azoulay (directrice générale de l'Unesco). L'ONU appelle ainsi les États qui ne l'ont pas déjà fait à rejoindre les plus de 40 pays « de toutes les régions du monde » qui ont commencé à créer de tels garde-fous, pour notamment créer un outil législatif capable d'encadrer et de surveiller les IA, tout en veillant à la protection des données 197 personnelles et sensibles, et en sensibilisant la population mondiale à un usage responsable de l'IA. À la 57e Journée mondiale de la paix, fin 2023, le pape François se penche sur l'incidence de l'IA sur la paix mondiale et demande à la communauté internationale de définir un traité international contraignant pour réglementer son développement et son utilisation. Il se montre particulièrement préoccupé par « la possibilité de mener des opérations militaires à travers des systèmes de contrôle à distance », citant notamment les systèmes d’armes létales 198 autonomes. Gouvernance démocratique En 2023, Mark Coeckelbergh et Henrik Skaug Saetra, respectivement philosophe renommé de l'éthique des technologies et expert en sciences politiques, se penchent sur la question de l'intelligence artificielle (IA) et son 199 potentiel rôle dans la lutte contre le changement climatique. Ils plaident pour une intégration des IA dans les politiques démocratiques, soulignant qu’elles peuvent faciliter la délibération et la prise de décisions. Toutefois, ils avertissent également que l'IA pourrait devenir un outil si puissant qu'il pourrait entièrement remplacer le gouvernement, entraînant des problèmes sociaux majeurs. Pour illustrer leur propos, Coeckelbergh et Saetra présentent deux cas extrêmes : une démocratie sans remplacement 199 des humains (AI-augmented democracy) et une technocratie dirigée par l'IA (AI-driven technocracy). Ces deux cas extrêmes sont choisis pour démontrer les implications opposées de l'intégration de l'IA dans la gouvernance. Dans une démocratie sans remplacement des humains, l’IA est présentée comme un simple outil visant à faciliter la prise de décision. Par exemple, elle peut être utilisée pour la traduction, la vérification des faits, ou la prise de notes. Ici, l'IA soutient le processus démocratique sans en prendre le contrôle. En revanche, dans une démocratie avec remplacement, l’IA prend toutes les décisions, sans aucune intervention humaine. Cette approche, selon Saetra, pose cinq problèmes majeurs : les citoyens ont besoin d'une pleine participation politique pour être satisfaits ; les citoyens ne considèrent pas comme légitime un gouvernement auquel ils ne participent pas ; les ordinateurs ne devraient pas prendre de décisions affectant la vie et le bien-être des personnes ; l'IA n'est pas transparente et ne peut donc pas être entièrement contrôlée par l'homme ; l'obligation de rendre compte des conséquences des décisions politiques doit être claire, ce qui devient de moins en moins le cas lorsque l'IA prend des décisions. Ces points soulignent les conséquences sociales et éthiques de la prise de décision par l’IA en ce qui concerne les humains. Ainsi, Coeckelbergh et Saetra concluent qu'une démocratie sans remplacement des humains est plus adaptée, l’IA y étant présente uniquement comme soutien et non comme entité décisionnelle. Les deux auteurs estiment cependant qu’aucune des deux propositions n’est actuellement réalisable : les relations entre les humains et la technologie ne sont pas suffisamment évoluées pour permettre une utilisation éthique de l’IA. Ainsi, les décisions ne peuvent pas être prises uniquement par l’IA, car les erreurs sont encore trop fréquentes et les 199 normes sociales et éthiques peu respectées. Demandes de moratoire Début 2023, l'apparition de ChatGPT suscite une grande curiosité, de l'enthousiasme, mais aussi des craintes sérieuses : « Devons-nous laisser les machines inonder nos canaux d'information de propagande et de mensonges? (…) Devons-nous risquer de perdre le contrôle de notre civilisation? Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus » affirment Elon Musk, Steve Wozniak (cofondateur d'Apple) et des centaines d'experts. Le 29 mars 2023, ceux-ci, invoquant des « risques majeurs pour l'humanité », signent une pétition qui appelle le monde à un moratoire d'au moins six mois sur ces recherches, jusqu'à la mise en place de systèmes de sécurité, incluant : la création d'autorités réglementaires dédiées, des moyens pour efficacement surveiller des IA et des systèmes les utilisant, la mise à disposition de techniques permettant de mieux différencier le réel de l'artificiel, et la création d'institutions pouvant limiter les « perturbations économiques et politiques dramatiques (en particulier 197 pour la démocratie) que l'IA provoquera ». IA et emploi Historiquement, l'innovation technologique a généralement été accompagnée d'une croissance de la productivité et de 200 la création de nouveaux emplois pour compenser les pertes. Cependant, de nouvelles inquiétudes ont émergé avec 201 l'essor de l'IA générative, telle que ChatGPT, capable de manipuler du texte, des images ou du code informatique. Certains économistes sont sceptiques à l'idée d'un chômage de masse, citant des précédents historiques où le marché 202, 203 du travail s'est adapté à des bouleversements technologiques. D'autres estiment que l'IA générative représente un changement plus profond, qui ne consiste pas seulement à automatiser des tâches répétitives. L'IA peut être appliquée à tous les secteurs, et le nombre de tâches où l'humain reste plus compétent que l'IA est amené à 204, 200 diminuer. Une étude de Goldman Sachs a estimé en 2023 que les deux tiers des travailleurs européens sont exposés à divers degrés d'automatisation, et qu'un quart des emplois pourraient être remplacés par l'IA. L'étude prédit notamment que les professions administratives et légales seront particulièrement touchées, là où les métiers manuels en extérieur 201 seront peu affectés. Une solution envisagée dans le scénario d'un chômage de masse est celle d'une forme de redistribution des richesses avec un revenu universel. Les financements pourraient dans ce cas venir d'une taxe sur les richesses produites par les 200 machines. Philosophie Courants de pensée La cybernétique naissante des années 1940 revendiquait très clairement son caractère pluridisciplinaire et se nourrissait des contributions les plus diverses : neurophysiologie, psychologie, logique, sciences sociales… Et c'est tout naturellement qu'elle envisagea deux approches des systèmes, deux approches reprises par les sciences cognitives et de ce fait l'intelligence artificielle [réf. souhaitée] : une approche par la décomposition (du haut vers le bas, comme avec les systèmes experts) et une approche contraire par construction progressive du bas vers le haut, comme 205 avec l'apprentissage automatique. Ces deux approches se révèlent plutôt complémentaires que contradictoires : on est à l'aise pour décomposer rapidement ce que l'on connaît bien, et une approche pragmatique à partir des seuls éléments que l'on connaît afin de se familiariser avec les concepts émergents est plus utile pour les domaines inconnus. Elles sont respectivement à la base des hypothèses de travail que constituent le cognitivisme et le connexionnisme, qui tentent aujourd'hui (2005) [Passage à actualiser] d'opérer progressivement leur fusion. 206 Le guide pratique de Linux sur l'intelligence artificielle v3.0 , révisé le 15 décembre 2012, adopte pour la commodité du lecteur la taxinomie suivante : systèmes symboliques ; connexionnisme ; calcul évolutif (algorithmes génétiques, par exemple) ; alife (vie artificielle) et complexité ; agents et robotique. Cognitivisme Le cognitivisme considère que le vivant, tel un ordinateur (bien que par des procédés très différents), manipule essentiellement des symboles élémentaires. Dans son livre La société de l'esprit, Marvin Minsky, s'appuyant sur des observations du psychologue Jean Piaget, envisage le processus cognitif comme une compétition d'agents fournissant des réponses partielles et dont les avis sont arbitrés par d'autres agents. Il cite les exemples suivants de Piaget : l'enfant croit d'abord que plus le niveau d'eau est élevé dans un verre, plus il y a d'eau dans ce verre. Après avoir joué avec des transvasements successifs, il intègre le fait que la notion de hauteur du liquide dans le verre entre en compétition avec celle du diamètre du verre, et arbitre de son mieux entre les deux ; il vit ensuite une expérience analogue en manipulant de la pâte à modeler : la réduction de plusieurs objets temporairement représentés à une même boule de pâte l'incite à dégager un concept de conservation de la quantité de matière. Au bout du compte, ces jeux d'enfants se révèlent essentiels à la formation de l'esprit, qui dégagent quelques règles pour arbitrer les différents éléments d'appréciation qu'il rencontre, par essais et erreurs. Connexionnisme Le connexionnisme, se référant aux processus auto-organisationnels, envisage la cognition comme le résultat d'une interaction globale des parties élémentaires d'un système. On ne peut nier que le chien dispose d'une sorte de connaissance des équations différentielles du mouvement, puisqu'il arrive à attraper un bâton au vol. Et pas davantage qu'un chat ait aussi une sorte de connaissance de la loi de chute des corps, puisqu'il se comporte comme s'il savait à partir de quelle hauteur il ne doit plus essayer de sauter directement pour se diriger vers le sol. Cette faculté qui évoque un peu l'intuition des philosophes se caractériserait par la prise en compte et la consolidation d'éléments perceptifs dont aucun pris isolément n'atteint le seuil de la conscience, ou en tout cas n'y déclenche d'interprétation particulière. Synthèse Trois concepts reviennent de façon récurrente dans la plupart des travaux : la redondance (le système est peu sensible à des pannes ponctuelles) ; la réentrance (les composants s'informent en permanence entre eux ; cette notion diffère de la réentrance en programmation) ; la sélection (au fil du temps, les comportements efficaces sont dégagés et renforcés). Intelligence artificielle forte Le concept d'intelligence artificielle forte fait référence à une machine capable non seulement de produire un comportement intelligent, notamment de modéliser des idées abstraites, mais aussi d'éprouver une impression d'une réelle conscience, de « vrais sentiments » (notion dont la définition n'est pas universelle), et « une compréhension de 207 ses propres raisonnements ». Contrairement à l'intelligence artificielle générale, l'intelligence artificielle forte fait donc le plus souvent intervenir des notions philosophiques de conscience qui font que les capacités de l'intelligence artificielle ne suffisent pas à dire 208 si elle est « forte ». Cela dit, aucune définition de la conscience pour une IA ne fait consensus. Les termes « intelligence artificielle forte » et « intelligence artificielle générale » sont parfois en pratique utilisés de manière 60 interchangeable. 209 En partant du principe, étayé par les neurosciences , que la conscience a un support biologique et donc matériel, les scientifiques ne voient généralement pas d'obstacle théorique à la création d'une intelligence consciente sur un support matériel autre que biologique. Selon les tenants de l'IA forte, si à l'heure actuelle il n'y a pas d'ordinateurs ou d'algorithmes aussi intelligents que l'être humain, ce n'est pas un problème d'outil mais de conception. Il n'y aurait aucune limite fonctionnelle (un ordinateur est une machine de Turing universelle avec pour seules limites celles de la calculabilité), seulement des limites liées à l'aptitude humaine à concevoir les logiciels appropriés (programme, base de données…). Diversité des opinions Les principales opinions soutenues pour répondre à la question d'une intelligence artificielle forte (c'est-à-dire douée d'une sorte de conscience) sont les suivantes : impossible : la conscience serait le propre des organismes vivants (supérieurs), et elle serait liée à la nature des systèmes biologiques. Cette position est défendue par certains philosophes et sociologues comme Harry 62 Collins, pour qui l'intelligence requiert une immersion dans la société humaine, et donc un corps humain , et peut rappeler le courant du vitalisme ; impossible avec des machines manipulant des symboles comme les ordinateurs actuels, mais possible avec des systèmes dont l'organisation matérielle serait fondée sur des processus quantiques. Des algorithmes quantiques sont théoriquement capables de mener à bien des calculs hors de l'atteinte pratique des calculateurs conventionnels (complexité en au lieu de , par exemple, sous réserve d'existence du calculateur approprié). Au-delà de la rapidité, le scientifique Roger Penrose défend dans la théorie de la réduction objective orchestrée l'idée controversée que la conscience nécessiterait un fonctionnement non 210, 211 compatible avec les lois de la physique classique, et accessible uniquement à des systèmes quantiques ; impossible car la pensée n'est pas un phénomène calculable par des processus discrets et finis. Cette théorie 212 est notamment avancée par le philosophe John Searle et son expérience de la chambre chinoise. Une conscience est donc nécessaire pour accéder à l'intelligence, mais un système informatique ne serait capable que d'en simuler une, sans pour autant la posséder, renvoyant au concept philosophique du zombie ; possible avec des ordinateurs manipulant des symboles. La notion de symbole est toutefois à prendre au sens large. Cette option inclut les travaux sur le raisonnement ou l'apprentissage symbolique basé sur la logique des prédicats, mais aussi les techniques connexionnistes telles que les réseaux de neurones, qui, à la base, sont définies par des symboles. Cette position est portée par des mouvements comme ceux du computationnalisme et est portée par des philosophes comme Hubert Dreyfus, pour qui le cerveau suit les lois de la physique et de 213 la biologie, impliquant que l'esprit est donc un processus simulable. Cette dernière opinion constitue la position la plus engagée en faveur de l'intelligence artificielle forte. Des auteurs comme Douglas Hofstadter (mais déjà avant lui Arthur C. Clarke ou Alan Turing ; voir le test de Turing) expriment par ailleurs un doute sur la possibilité de faire la différence entre une intelligence artificielle qui éprouverait réellement une conscience, et une autre qui simulerait exactement ce comportement (voir Zombie (philosophie)). Après tout, nous ne pouvons même pas être certains que d'autres consciences que la nôtre, y compris chez des humains, éprouvent réellement quoi que ce soit, si ce n'est par une pétition de principe qui spécule que chaque humain se retrouve à l'identique chez tous les autres. On retrouve là le problème connu du solipsisme en philosophie. Même si une intelligence artificielle forte n'était guère possible, une IA peut être de plus en plus perçue comme forte par une majorité d'individus parallèlement à l'arrivée des IA génératives, dont les LLM (de l'anglais large language model) comme ChatGPT ou Google Bard, et les outils de génération d'images comme Midjourney, DALL-E ou Stable Diffusion. En effet, le champ d'applications de ces outils est beaucoup plus large qu'auparavant : création, synthèse, traduction de textes, composition d'images, de vidéos à partir de prompts, textes descriptifs. Il devient ainsi de plus en plus difficile pour un être humain de distinguer des créations humaines de celles provenant d'une IA générative. Emily Bender estime que les grands modèles de langage comme ChatGPT ne font que régurgiter plus ou moins aléatoirement des morceaux de texte venant des corpus ayant servi à leur entraînement, sans en comprendre le sens. 214 Elle les appelle ainsi des « perroquets stochastiques ». De même, Jean-Gabriel Ganascia considère que le contenu qu'ils produisent n'est pas original et que leur utilisation dans la rédaction d'articles de recherche constitue une forme 215 de plagiat. Ilya Sutskever considère au contraire que ces modèles, à force d'être entraînés à prédire le mot suivant, acquièrent une forme de « modèle du monde » et une représentation « compressée, abstraite et utilisable » des 216 concepts. Intelligence artificielle faible La notion d'intelligence artificielle faible constitue une approche pragmatique d'ingénieur : chercher à construire des systèmes de plus en plus autonomes (pour réduire le coût de leur supervision), des algorithmes capables de résoudre des problèmes d'une certaine classe, etc. Mais, cette fois, la machine simule l'intelligence, elle semble agir comme si elle était intelligente. Les tenants de l'IA forte admettent que s'il y a bien dans ce cas simple simulation de comportements intelligents, il est aisé de le découvrir et qu'on ne peut donc généraliser. En effet, si on ne peut différencier expérimentalement deux comportements intelligents, celui d'une machine et celui d'un humain, comment peut-on prétendre que les deux choses ont des propriétés différentes ? Le terme même de « simulation de l'intelligence » est contesté et devrait, toujours selon eux, être remplacé par « reproduction de l'intelligence ». Si le terme intelligence artificielle peut désigner un système capable de résoudre plusieurs problèmes de façon relativement autonome tout en ne faisant que simuler le principe d'intelligence, il peut aussi désigner des systèmes 217 capables de résoudre uniquement un type de problème pour un jeu de données prédéfini. On peut donner pour 218 exemple un système entrainé à reconnaitre des chiffres écrits à la main, comme ceux utilisés par La Poste , qui malgré sa grande performance sur sa tâche, serait incapable de fonctionner sur un problème sortant de ce pour quoi il a été conçu. Ces intelligences artificielles, aussi nommées « intelligences artificielles étroites » (terme issu de l'anglais 219 narrow AI), sont conçus pour effectuer une tâche précise, contrairement à une intelligence artificielle générale. Question de l'intelligence 220 La définition du terme « intelligence artificielle » pose une question fondamentale : Qu'est-ce que l'intelligence ? L'intelligence peut se définir de manière générale comme un ensemble de capacités cognitives permettant de résoudre 221 des problèmes ou de s'adapter à un environnement. Le chercheur en IA Yann Le Cun avance que le noyau de l'intelligence est la faculté de prédire. Les bases de la programmation des premiers systèmes experts supposent de « maîtriser parfaitement un problème et d'avoir une vue 220 précise de toutes les solutions », afin d'en programmer précisément le comportement. Mais les systèmes d'IA modernes à base d'apprentissage automatique sont entraînés à prédire la réponse attendue, ou à générer une solution correcte. Leurs capacités émergent ainsi progressivement, par essai-erreur, sans que le programmeur n'ait besoin de 205 fournir une solution algorithmique, ou même de savoir comment résoudre le problème. Dans tous les cas, l'efficacité de l'intelligence artificielle dépend de sa capacité à répondre aux objectifs donnés par les programmeurs et 222 à tendre vers l'autonomie décisionnelle , ce qui présuppose, entre autres, une capacité de prédiction. Le philosophe John Searle considère quant à lui que la faculté de comprendre est plus importante dans la définition de l'intelligence. Il essaie de démontrer la faiblesse des systèmes d'intelligence artificielle et les limites du test de Turing, par son expérience de la chambre chinoise, concluant : « on ne devrait pas dire d'une IA qu'elle comprend les informations qu'elle traite lorsqu'elle manipule des règles de syntaxe sans maîtriser la sémantique, c'est-à-dire sans reconnaître le sens des mots. La question de savoir si on peut parler d'une véritable intelligence reste donc 220 205 ouverte ». L'apprentissage aut

Use Quizgecko on...
Browser
Browser