Quelle pédagogie à l'heure de l'IA ? - 20/11/2024
Document Details
Uploaded by SharperString
Aix-Marseille Université
Pierre Le Coz
Tags
Related
- Intelligence Artificielle - Chapitre 2 PDF
- Acculturation à l'intelligence artificielle générative - IA, ChatGPT et leurs impacts pour les entreprises PDF
- Intelligence artificielle — Wikipédia.pdf
- Chapitre 1 Recherche Adversariale en Intelligence Artificielle PDF
- Formation Former Avec L'Intelligence Artificielle 2024 PDF
- Intelligence Artificielle - IA_ch1_ch2 PDF
Summary
This presentation, by Professor Le Coz, explores the integration of artificial intelligence (AI) into pedagogy, specifically in the context of healthcare education. It touches on whether AI tools pose an obstacle or opportunity for educators, addressing issues of acceptance, use, and ethical considerations.
Full Transcript
« Alors je vais aborder dans cette présentation : l\'intelligence artificielle, est-ce pour nous formateurs ? Un obstacle, une menace, une opportunité, une chance ? Et puis ensuite, je m\'intéresserai aux représentations que l\'on peut se faire de l\'intelligence artificielle et se positionner de f...
« Alors je vais aborder dans cette présentation : l\'intelligence artificielle, est-ce pour nous formateurs ? Un obstacle, une menace, une opportunité, une chance ? Et puis ensuite, je m\'intéresserai aux représentations que l\'on peut se faire de l\'intelligence artificielle et se positionner de façon équilibrée, critique, mais globalement favorable à l\'introduction, l\'implémentation comme on dit de ces outils en pédagogie. ![](media/image2.jpeg) Alors faut-il envisager des cours qui seraient dédiés au fonctionnement de l\'intelligence artificielle ? Je crois que les interventions qui m\'ont précédé nous ont déjà donné à peu près l\'essentiel de ce qu\'il faut savoir. Personnellement, je pense qu'introduire des cours spécifiques à l\'intelligence artificielle n\'est pas d\'une très grande utilité. Je veux dire que comprendre comment l\'intelligence artificielle arrive à discriminer entre un chat et un chien, cela nous a été très clairement expliqué tout à l\'heure. Ce n\'est pas la peine de rentrer dans des détails. Quand nous prenons notre voiture, elle démarre, elle avance, elle recule. On ne comprend pas forcément exactement comment on a fait, mais on sait l\'utiliser et c\'est ça qui est important, c\'est l\'utilisation de l\'outil. Je dis ça parce que souvent les gens associent l\'intelligence artificielle. Aux mathématiques, Oh là, moi j\'étais nul en math, ou alors les statistiques, je me suis toujours trompé. Mais sachez utiliser l\'outil, ne cherchez pas forcément à le comprendre. Je crois que l\'intelligence artificielle, je vais le développer. Elle doit être présente dans les formations, mais sur un mode un peu diffus, à différentes occasions parce que ça fait partie du monde. Et qu'il faut que le soignant il soit informé de ce qui se passe dans son écosystème et l\'univers des patients. Mais de là à y consacrer un cours dédié, je ne vois pas trop personnellement l\'utilité dans l\'état actuel de ma réflexion. Les bénéfices des IA génératives parce que ce sont d\'elles qu\'il est question ces derniers temps. D\'abord, on a pu constater que chez les plus jeunes, l\'apprentissage est plus ludique avec les chatbots, ces agents conversationnels dont on a parlé tout à l\'heure, qui sont de plus en plus, eux aussi, intelligents. C\'est une distinction chatbot et intelligence artificielle qui ne cessent de s\'amenuiser. Donc, nous reconnaissons humblement que, au cours de notre instruction, nous nous sommes beaucoup ennuyés à l\'école. Connaître ça. Donc si les nouvelles générations peuvent s\'ennuyer un peu moins que nous grâce à des outils ludiques, qu\'ils apprennent plus vite avec joie et émerveillement. Autre point, remarquez les étudiants, je me sers d\'une étude de vaste dimension qui a été menée l\'année dernière auprès des étudiants de Belgique. Comme je venais à Lille, je me suis dit que je n'étais pas loin de la Belgique. Et il se trouve que les étudiants se sont emparés, cela a été dit tout à l\'heure de ces outils. Mais ce qu'ont remarqué ces sociologues, c\'est qu'ils ne l\'utilisent peut-être pas autant que ne le font croire les médias qui affolent un peu les enseignants en leur disant, Vous allez être dépassés, ils vont vous tromper, vous berner, vous faire croire. ![](media/image4.jpeg) En fait, l\'enthousiasme des étudiants reste assez modéré. Je vous montre ici seulement de leur étude 2 graphiques. Vous voyez que par exemple l\'IA peut vous fournir une réponse. Chat GPT tout particulièrement apparaît certes en 4e position, mais seulement 10% d\'étudiants estiment que chat GPT est capable de fournir une réponse à leurs questions. Ça ne fait quand même pas beaucoup alors peut être qu'il y en aura plus au fur et à mesure des années mais pour l\'instant il n'y a pas de panique à avoir. Il trouve que c\'est vraiment un gain en explication. On redemande à Chat gpt qu\'est ce qu\'a voulu dire le prof et « je comprends mieux ce qu\'a voulu dire le prof ». Ça c\'est très bien aussi pour nous puisque ça nous dispense d\'avoir à répéter, à réexpliquer. Après, c\'est rapide, c\'est facile. Bon, ça consomme aussi de l\'énergie. Alors ça, ce serait des problèmes écologiques qu\'on va voir venir dans 5 ans sûrement. Et puis ça a des tas d\'avantages. Mais enfin, c\'est loin d\'être l\'euphorie estudiantine qu\'on nous décrit parfois dans la tête. Et puis vous voyez dans les nombres d\'étoiles, quand ils donnent un avis, combien donnent 5 étoiles à chat gpt ? Ben vous voyez 15% et la plupart donnent à chat gpt, Un une étoile. Seulement voilà, donc, dans l\'état actuel en tout cas, l\'IA est un avantage, mais ça n\'est pas la panacée. Je fais partie de l\'Académie de médecine, et dans un rapport, qui a été publié il y a quelques mois, les académiciens ont recommandé que tous les professionnels de santé se familiarisent, suivent des formations pour vraiment, bénéficier des apports de ces nouveaux outils. Mais attention, voilà ce que dit exactement l\'Académie. Les systèmes d\'IA impressionnent par leur capacité à produire en quelques secondes des textes souvent pertinents. Mais aussi parfois erroné. Donc attention le patient, on ne peut pas le sacrifier, ça ne peut pas être un dégât collatéral. Soit ça marche à 100%. Il faut faire très attention et superviser toujours l\'outil. Alors les menaces ? Concernant l\'IA spontanément, un premier niveau de réflexion pourrait se dire la menace pour nous, ce serait que nos étudiants soient naïfs, aillent sur les réseaux sociaux et se laissent piéger par des faux textes, des fausses études. Cela a été évoqué juste avant. On est à l\'ère de de la fraude hein ? Jamais il n\'y a eu autant d\'arnaques dans l\'histoire de l\'humanité depuis qu\'il y a ces outils intelligents. Et nous savons bien que tôt ou tard nous allons nous faire arnaquer. Alors on pourrait peut-être passer d\'un excès de confiance à une hyper méfiance. Par exemple, ici, il y a quelques semaines, à l\'occasion de la fête d'Halloween, une intelligence artificielle a berné les étudiants d\'une ville d\'Irlande en promettant une parade qui devait avoir lieu. Et puis il y avait vraiment le système d\'enregistrement, d\'inscription, tout y était et tout était. Faux archi faux. Donc les gens sont venus, il n'y avait rien, des milliers de personnes. Eh bien je pense que ce genre d\'expérience va avoir un effet important auprès des populations, c\'est à dire les rendre méfiants vis-à-vis des images. Et nos jeunes seront plus méfiants que nous à l\'égard des images en réalité, parce qu\'ils auront vécu tout ça. Et le risque n\'est pas là où on le croit spontanément, à savoir que les étudiants vont être naïfs et tout avaler. Le risque ça va être l\'inverse, ça va être que plus personne ne croira à rien. ![](media/image6.jpeg) À chaque fois qu\'on aurait une image on dira mais est ce qu\'elle n\'est pas truquée ? Et là par exemple, l\'assurance maladie est confrontée à ce problème puisque vous savez que ce fameux dossier médical personnel. Qui va bientôt enfin être efficace, hein, puisque ça fait seulement 20 ans qu\'il est déficitaire. Eh bien, ce système du dossier médical personnel est lui aussi victime de cette hyper méfiance puisque les gens reçoivent dans leur boîte de messagerie, vous avez un document dans votre mon espace santé. Et puis les gens n\'y vont pas parce qu'ils craignent que ce soit un faux. Alors euh, maintenant ? Euh. Je crois que aussi un premier niveau d\'analyse, on a l\'impression que le problème c\'est que les formateurs et les étudiants vont se regarder en chien de faïence jouer au chat et à la souris. Je vais essayer de le tromper, il veut essayer de me tromper, mais ce n'est pas ça non plus le problème, je crois. Le problème, c\'est que ce sont les patients qui vont être consommateurs de ces outils. Et ça, ça va vraiment révolutionner le métier de soignant parce que ça va modifier le profil des patients. Vous allez avoir des patients qui pendant la conversation, la relation de soin va sortir son chat GPT en pleine consultation. Donc dans cette image, j\'ai montré 2 soignantes, là, qui regardent dans la même direction parce que on est du même côté de la barrière. Il faut qu\'on soit solidaires, étudiants et professeurs. On est en train de découvrir quelque chose qui advient et on est dans une situation d\'incertitude. Donc ne pensons pas le terme en relation frontale, mais plutôt **comme un défi** qui s\'annonce à nous. Ce défi, je le résume en une expression, **nous voyons arriver homo connecticus**. ![](media/image8.png) Et lui, il va falloir le soigner. Il va développer de telles pathologies, des pathologies mentales, des addictions. Cela donc nous oblige à bien comprendre l\'environnement sociotechnique des patients. D\'abord, sensibiliser les étudiants à l\'essor des robots sociaux, ces chatbots qui, je le dis, deviennent intelligents de plus en plus aujourd\'hui, **l\'immédiateté de l\'information médicale qui pose un problème éthique majeur**. Le plus important de notre époque, je vais l\'illustrer. Et puis l\'émergence des communautés de patients qui court circuitent des associations de patients. D\'abord, le phénomène des agents conversationnels. Bon, ces petits bons hommes là qu\'on voit en bas de de l\'écran, parfois on pense que ça fait partie du décor. Ils sont là à titre Ornemental, pas du tout. Ils sont eux-mêmes de plus en plus intelligents. Et pire que cela, une étude publiée l\'année dernière dans un journal de médecine interne a montré qu\'ils sont capables de donner des réponses meilleures que les patients que les praticiens et pire, d\'être plus empathiques. Publiée dans une grande revue internationale, les robots amorcer une nouvelle tendance. Eux qui inquiètent le comité d\'éthique du CNRS qui a publié il y a très peu de temps un rapport sur le phénomène d\'attachement aux robots sociaux ? Parce que dans une société fondée sur l\'autonomie, et bien euh, les gens sont seuls, livrés à leur choix. Et face à des choix écrasants, des angoisses existentielles, ils ont tendance à se confier. ![](media/image10.jpeg) Et oui à ces robots humains sociaux. Alors est ce que ce robot humanoïde, intelligent, empathique, ne va pas rivaliser avec le personnel de santé ? Est ce qu\'il ne va pas être préféré à l\'infirmier ? La raison qui m\'amène à poser cette question, c\'est que déjà depuis plusieurs années, nous voyons des **robots humanoïdes dans des EHPAD**. Et l\'un des avantages évidents, c\'est que dans une société de déficit de personnel, les robots, tout ce qu\'il y a, vont faire des économies au chef d\'établissement. Vous voyez, c\'est publié dans le monde et ça fait déjà 6 ans. Depuis 2018, à l\'hôpital de Brocas, on a ces petits robots intelligents. Alors la personne qui a une maladie d\'Alzheimer, elle, que ce soit un être humain qui passe, ça ne change rien. Mais pour nous, pour moi qui suis philosophe, je suis blessé par cette image. Parce que, au regard du principe de justice, quel que soit votre statut, vous avez droit à une égale considération. Il n'y a pas de soin à 2 vitesses : le soin pour ceux qui ont préservé leur capital cognitif. Et puis des soins bas de gamme, des soins au rabais pour ceux qui ne se rencontrent plus de rien. Il y a aussi la valeur d\'authenticité que nous retrouvons à travers cette image. Nous aimerions pouvoir garder une certaine authenticité dans nos relations avec les personnes qui nous entourent. La vieillesse se développe, c\'est un business. C\'est ce qu\'on appelle la **Silver économie**. Et les étudiants que nous formons doivent savoir qu\'ils vont aussi évoluer dans un monde marqué par une population, une patientèle, j\'allais dire une clientèle, âgée. Qu\'est-ce que c\'est que la Silver économie ? En voici 3 exemples. Il y a donc les robots humanoïdes, il y a les assistants dans les EHPAD, mais il y a aussi l\'intelligence artificielle qui s\'introduit dans les verres connectés, qui permet de vérifier si la personne s'est bien hydratée notamment pendant les périodes de canicule. Donc la surveillance, elle se fait sans personnel. Et puis vous le savez, c\'est une vraie préoccupation dans les établissements. De plus en plus, les familles réclament une télésurveillance. Qui permet aussi à la recherche d\'emmagasiner des données, ces Big data qui permettent à l\'intelligence artificielle de se développer. Je disais qu\'il y avait 3 points importants dans l\'écosystème technologique des patients. ![](media/image12.jpeg) Il y a aussi la réorganisation des patients. Il y a 20 ans, les patients, ils s\'organisaient à travers des associations. Ils allaient à la maison des associations. Ils mettaient des prospectus dans des enveloppes, ils collaient le timbre. L'association, elle-même s\'est numérisée mais pire que ça, c\'est qu\'elle est dépassée, elle est dépassée par des collectifs, par vous voyez ici 500000 membres. Quelle association pourrait revendiquer 500000 membres qui les prennent à contre-pied, qui s\'organisent ? Euh, vous avez une fibromyalgie, on ne comprend pas ce que vous avez. Euh, vous êtes mal reçu par le personnel soignant qui suspecte une maladie imaginaire, le psychosomatique. Au moins, si vous allez à Carenity\*, vous allez rencontrer des gens qui vivent la même chose que vous. Et ça, pourquoi j\'en parle ? Eh bien parce que toutes ces données, ces collectifs sont prêts à les confier aussi à des géants du numérique. Et quand ce sont des associations, vous savez qu\'elles ont des liens avec les laboratoires pharmaceutiques. Enfin je trouve que l\'élément le plus important dans l\'écosystème numérique des patients, c\'est l\'incroyable fulgurance de l\'information médicale. Alors ça, c\'est vraiment pour moi un problème vertigineux. Il y a 20 ans, quand j\'ai commencé à enseigner l\'éthique médicale à Marseille, j\'apprenais notamment aux médecins, aux prescripteurs : Que dire la vérité au patient ? Ce n\'est pas la dire sur le champ. Certes, il faut faire mal, mais il ne faut pas faire trop mal. D\'être loyal ne dispense pas d\'être humain et donc ce que le patient ne peut pas entendre à T 0, il l\'entendra à T 1. Prenez votre temps, il peut y avoir plusieurs consultations pour échelonner l\'information loyale et pour que le patient puisse s\'approprier avoir un temps pour métaboliser des mauvaises nouvelles, une rechute ? Un cancer grave ? Oui, mais maintenant le problème a complètement changé. Vous voyez cette image ? Une petite jeune femme très heureuse d\'avoir le dernier modèle d\'iphone ? Si vous avez une tâche brune, qu\'est-ce que vous faites là ? Vous cliquez et là un moteur de recherche vous dit qu'une tâche brune, c\'est un mélanome qui fait partie des plus graves cancers de la peau. Vous avez ensuite aujourd\'hui des radios. On sait que la Radiologie est très concurrencée par l\'intelligence artificielle. Et nous voyons que dans mon espace santé, vous avez les comptes rendus des examens radiologiques. Donc on voit très bien ce qui est en train de se produire, le radiologue comme ça sans superviser. C'est l\'intelligence artificielle qui va faire les radios, les IRM et va directement être envoyé dans votre mon espace santé et vous êtes le patient qui découvre depuis chez lui qu\'il a des métastases, un petit peu partout. C\'est quand même ça pour moi, franchement, ce qui me terrifie le plus d\'ailleurs, aujourd\'hui, même les simples analyses biologiques, avec des marqueurs qui sont parfois très inquiétants, sont envoyées directement chez le patient. Tout ça pour dire que les données de santé, grâce au numérique, on peut. Les maximiser. Et plus on en a, plus c\'est bien pour l\'intelligence artificielle qu\'il y a besoin de mouliner, de brasser, mais à quel prix ça là on est vraiment dans une déshumanisation et on voit des gens, déjà des gens dire, moi j\'ai appris mon cancer métastasé devant mon écran tout seul à 11h00 du soir. ![](media/image14.jpeg) Autre exemple, hein, si vous tapez greffe pulmonaire, une fois que vous avez fait votre greffe pulmonaire, là Google qui lui aussi fonctionne à l\'intelligence artificielle vous annonce que ce n'est quand même pas un très bon pronostic. Donc là le métier de soignant est directement impacté. Qu\'est-ce qu\'il va faire ? Qu\'est-ce qu\'il va essayer de rattraper l\'affaire ? Enfin là il y a vraiment 2 nouvelles questions éthiques que moi je ne me posais pas il y a 20 ans. L\'occasion quand même de dire que cette déshumanisation, cette automatisation, cette optimisation des soins permet aussi aux formateurs et aux étudiants de redécouvrir leur véritable valeur ajoutée. L\'intelligence humaine, elle ne compte pas ses pieds, comme disait Plaisamment l\'artiste tout à l\'heure. Et c\'est parce qu'elle n'a pas de corps. Et comme elle n'a pas de corps, elle n'a pas d\'émotions non plus parce qu\'il faut des récepteurs, des ancrages biologiques pour avoir des émotions. Et comme elle n\'a pas d\'émotions et que ce sont les émotions qui nous révèlent nos valeurs. L\'intelligence artificielle n\'a pas de de devoir et n\'a pas de de dilemmes moraux. Par exemple, ce que j\'apprends, moi aux étudiants, c\'est qu'en éthique, on a 4 grands principes : \- respecter l\'autonomie du patient, \- accomplir un bienfait en sa faveur, soulager sa souffrance, le principe de bienfaisance. \- Ne pas nuire, ne pas infliger des souffrances inutiles et cruelles, ne pas s\'obstiner, ne pas être délétère, ne pas être blessant, c\'est le principe de non malfaisant, \- et puis le principe de justice, avoir une égale considération pour toutes les personnes. Une considérer le principe de justice comme non négociable. Ces 4 principes, il nous faut des expériences émotionnelles pour redécouvrir l\'importance qu\'ils ont pour nous. Ce sont les émotions qui nous connectent à nos valeurs, ce n'est pas la même connexion parce que l\'intelligence artificielle, elle brasse des faits. Mais les valeurs se dérobent à la factualité, au réel, à l\'objectif. Elles sont ressenties de l\'Intérieur, et une relation intérieure, de nos émotions à nos valeurs. **Et l\'intelligence artificielle ? Elle peut, peut être simuler des émotions, mais elle ne peut pas les éprouver précisément parce qu\'elle n\'a pas de corps**. Paradoxalement, ce qui distingue l\'intelligence humaine de l\'intelligence artificielle, c\'est qu\'il y en a une qui est encastrée chevillée au corps et l\'autre, elle est complètement désincarnée. Elle est une intelligence algorithmique, logique, calculatrice. Donc le respect quand on éprouve du respect face à quelqu\'un qui fait face à la dignité, à la maladie, ce respect nous donne envie de le laisser parler, de nous effacer. Et c\'est ça qui incarne dans la réalité clinique le principe d\'autonomie. Quand nous éprouvons de la compassion, nous sommes saisis de tristesse, de chagrin. Face à quelqu\'un qui pleure, qui crie. Nous éprouvons une compassion qui nous reconnecte au principe de bienfaisance. Quand nous avons de la crainte de nuire, nous avons la crainte que le patient apprenne. Qu\'il a un cancer métastasé devant son écran toute seule à 11h00 du soir. Cette inquiétude morale nous rappelle le devoir de ne pas nuire, le principe de de non malfaisance et tout à l\'heure quand on voit des vieilles personnes âgées entourées de robots, on se dit ce n'est pas juste, il n'y a pas de véritables humains et cette indignation que l\'on ressent rêver en nous, l\'exigence de justice. Voyez donc qu'il y a dans l\'émotion une motricité ; **émotion veut dire moteur, une motricité, une dynamique qui nous permet de retrouver nos valeurs**. Les émotions sont des révélateurs de valeurs, voilà ce que le soignant ne perdra jamais. Quels que soient les progrès de l\'intelligence artificielle, on pourrait parler d\'une forme d\'intelligence émotionnelle j\'ajoute une intelligence aussi. ![](media/image16.jpeg) J\'habite dans le Sud où s\'est produit un drame à Hyères où un jeune homme est resté 10 h sur son brancard et il est mort. Là on éprouve cette indignation dont je parlais, la force de l\'indignation. Comment un jeune homme a-t-il pu rester aussi longtemps sur un brancard sans aide jusqu\'au décès ? Nous voyons sa mère sur cette image. Et là c\'est le principe de justice. On redécouvre l\'importance qu\'on attache au principe de justice à travers des affects. Oui, je trouve que ce qui a été dit avant moi est profond. On ne peut pas mettre une machine à la place du cœur. Parce que la machine elle est dans les protocoles donc elle ne voit pas trop le problème. Et de même, c\'est en lisant sur le visage d\'un patient anxieux comme on le voit sur cette autre image que le soignant va redécouvrir son devoir de non malfaisance. C\'est cette force du visage humain qui suscite en lui l\'émotion de crainte de faire une erreur. Est-ce que c\'est le bon patient ? Est-ce que c\'est la bonne cause ? La crainte, hein ? Je n'ai pas dit la panique ou la peur parce que la panique et la peur paralysent l\'action. Mais l\'inquiétude, un fond de crainte, permet de rester toujours vigilant. Intelligence émotionnelle donc, et en même temps intelligence contextuelle. Par exemple, ça montre bien la complémentarité de l\'intelligence humaine et de l\'intelligence artificielle. Voilà ce qu\'on peut montrer à des étudiants. Regardez, l\'intelligence artificielle va aider de plus en plus à détecter la maladie d\'Alzheimer. On pourra peut-être se passer bientôt des ponctions, mais maintenant est ce que l\'intelligence artificielle peut dire à cette neuropsychologue, au patient s\'il a ou non la maladie d\'Alzheimer. Vous savez que les neurologues ne sont pas si unanimes que ça et ils vont prendre en compte le contexte, va-t-on annoncer à quelqu\'un dont la femme a un cancer ? Le fils s\'est tué en moto, la sœur souffre d\'alcoolisme, on va lui annoncer qu\'il a la maladie d\'Alzheimer. Ce serait un manque de contexte clinique. L\'intelligence artificielle n\'est pas embarrassée par ce genre de problème. Elle expédie l\'information qu\'on reçoit dans notre boîte de Gmail. Mais nous, nous humains, on prend en compte le contexte. Et par exemple, ici, on peut travailler avec les étudiants sur ce genre d\'images, il y a des choses à observer, il y a une clinique observationnelle à développer. On voit que cet homme par exemple, il est accompagné de sa femme, il est correctement vêtu. Il y a une manière de poser ses lunettes qui montre qu\'il fait partie d\'une classe moyenne voire bourgeoise. Tous ces éléments font que le soignant aura peut-être plus facilement tendance à lui délivrer le nom de la maladie. En résumé, de ce que je viens de dire, on peut dire que l\'intelligence artificielle, c\'est une des formes d\'intelligence. Elle calcule, elle nous est très utile pour la logique, pour les mathématiques, les statistiques, mais qu\'il y a bien d\'autres formes d\'intelligence. ![](media/image18.jpeg) Et nos étudiants ont un peu différentes formes d\'intelligence. Et même un clown dans un dans un hôpital doit faire preuve d\'une intelligence contextuelle et émotionnelle, alors même qu\'il répète toujours la même chose. C\'est toujours les mêmes gags. Oui, c\'est toujours les mêmes gags, mais ce n'est pas toujours exactement le même enfant, le même entourage. Et donc à chaque fois, il doit calibrer, moduler ses gestes en fonction du contexte. Et ça, ce n'est pas l\'intelligence artificielle qui peut le faire. Ce sont d\'autres formes d\'intelligence. En médecine, c\'est l\'ordre des médecins qui nous avertissent aussi. Le diagnostic est une chose de plus en plus. Plus l\'intelligence artificielle est capable de faire du diagnostic, c\'est très bien, mais n\'oublions pas que le patient n\'est pas qu'un ensemble de symptômes, de statistiques et qu\'il doit être appréhendé dans toute sa globalité. Voilà donc complémentarité de l\'intelligence humaine et de l\'intelligence artificielle, l\'intelligence humaine, affective, émotionnelle, contextuelle, artistique, corporelle. ![](media/image20.jpeg) Pour consacrer le dernier chapitre au fantasme, à l\'imaginaire, aux représentations que nous nous faisons de l\'intelligence artificielle. Il faut questionner ces représentations pour pouvoir nous positionner. Un positionnement que, je l\'espère, nous garderons raisonnable, équilibré, parce qu'il y a l\'intelligence artificielle dans l\'univers du patient, mais aussi dans l\'univers des médias, dans l\'espace public, dans ce que racontent les gens. Et je me suis amusé à répertorier ce qu\'on peut attendre d\'un philosophe d\'essayer de conceptualiser certains courants de pensée. Il y a, en l\'état actuel de ma réflexion, le discours **techno prophétique**, le discours **techno progressiste** et le discours **techno sceptique**, voire techno alarmiste, voire techno catastrophiste. ![](media/image22.jpeg) Alors **techno prophétique** : Que mettre sous ce concept ? Je mettrais d\'abord les leaders d\'opinion, les leaders d\'opinion qui font du business avec l\'intelligence artificielle et notamment à travers des livres, des articles qui sont un petit peu un petit peu angoissants, un petit peu terrorisants. En particulier le docteur Laurent Alexandre. Vous en avez peut-être entendu parler, fondateur de d\'oxic, ancien école de l\'ENA, HEC, enfin quelqu\'un de d\'Hyper intelligent, mais qui dans son livre sur la guerre des intelligences. Vous voyez la guerre ? On n\'est pas dans la complémentarité, nous dit attention, nous allons vers un monde scindé en 2, les hyper intelligents comme lui et les échos intelligents. Et ceux qui ne comprendront pas, qui resteront sur la route, qui ne comprendront pas ce que c\'est qu\'un agent conversationnel, une application, un data scientist. Enfin tout ce jargon informatique, ils sont largués. Bon Ben eux, qu\'est-ce qu\'ils feront ? On leur donnera de quoi regarder des matchs de foot à la télé, appeler ça le salaire universel. Alors à l\'inverse, vous avez d\'autres techno prophètes qui sont eux des prophètes de malheur, mais le propre du prophète c\'est qu\'il nous fait peur, il nous fait un peu régresser intellectuellement tout en nous promettant le salut si nous nous comportons bien. En gros, le modèle du prophète, c\'est les dieux sont très coléreux, ils sont très remontés contre vous. Vous avez beaucoup péché, mais vous avez encore la chance. Une dernière chance de vous sauver si vous me suivez. Donc ces techno prophètes, ils sont dans les gondoles des librairies avec des titres évidemment très racoleur, construction, changement de paradigme, révolution. Alors, par exemple, ici un pur bijou de discours techno prophétique à l\'aube de ce nouveau monde, la France qui a en grande partie raté la révolution de l\'internet. À toutes les raisons d\'être inquiète, car ceux qui ne maîtriseront pas les codes de l\'intelligence artificielle risquent d\'être ramenés, dans les décennies qui viennent, au rang de colonie numérique. Nous sommes les futurs colonisés par les Chinois. Vous nous laissez impressionner par cette rhétorique que nous connaissons et qui sont cette rhétorique des techno prophètes, qui nous annonce de grands maux si nous n\'investissons pas des milliards et des milliards. Parce que c\'est ça derrière hein ? C\'est Allô le chef de l\'État. Si nous ne voulons pas devenir une colonie numérique de la Chine, il serait quand même grand temps d\'investir dans l\'IA alors qu\'à l\'inverse. Vous avez des techno prophètes comme Éric Salin qui dit, en gros, il faudrait tout casser, il faut tout arrêter, c\'est nos intelligences vont être américanisées. Le seul moyen, c\'est de ne plus du tout acheter, d\'outils d\'intelligence artificielle. ![](media/image24.jpeg) En dehors du discours techno prophétique et aussi le discours des techno progressistes, alors ? Il en existe également 2 sortes. Il y a **le techno progressiste** qui pense que toute la nation devrait se numériser. Il ne comprend même pas qu\'il existe encore. Je le vois là devant moi, les gens qui écrivent. Épreuve en est un petit État, l\'Estonie de l\'ancien bloc soviétique, qui était à la fin des années 1990 dans un état de précarité désespérée, a fait le pari d\'investir dans le tout numérique. Et aujourd\'hui, l\'Estonie a, il est vrai, une plus grande prospérité que la France. Donc c\'est un modèle qui est brandi par des techno progressistes. ![](media/image26.jpeg) Les techno progressistes scindent en 2 courants, il y a **les euphoriques, les enthousiastes**. Nous allons vers une médecine sans médecin, c\'est le chirurgien qui dit : « mais le robot chirurgical peut faire beaucoup mieux que moi et que moi, et si je devais me faire opérer, je demanderais un robot, surtout pas un être humain qui a ces moments de fatigue, qui a son ego surdimensionné, qui fait. Il me dira que je dois être opéré alors que c\'est simplement qu\'il veut entretenir sa dextérité ». Depuis, le robot n\'a pas d\'affaire, il va faire les choses de façon parfaitement rationnelle. On n\'aura plus besoin de médecins et donc c\'est très bien comme ça. Mais les **techno progressistes modérés**, eux, se contentent de rassurer. Ils n\'annoncent pas des lendemains qui chantent. Ils ne sont pas euphoriques, ils ne sont pas dans une ivresse algorithmique. Simplement ils nous disent, mais non, l\'intelligence artificielle ça n\'existe pas. Il n\'y a que nous humains, pour être intelligents, il n\'y a rien à craindre. Donc il faut dédiaboliser, certes, mais sans idéaliser. Bon, ce serait peut-être la position la plus raisonnable, dans les différents discours que je vous présente. Ce que disent les techno progressistes modérés. ![](media/image28.jpeg) C\'est que les étudiants maintenant vont pouvoir être affranchis des connaissances qui sont capitalisées dans des systèmes intelligents et vont pouvoir développer davantage des compétences relationnelles empathiques. Donc ça a une importance aussi dans la formation des IFSI, plus de relationnel et d\'empathique a l\'air de dire. Il y a donc **les techno sceptiques**, il y en a peut-être dans cette salle, ils nous le diront, qui voient plus d\'inconvénients que d\'avantages à l\'arrivée Et donc l\'intelligence artificielle, elle n\'est pas motivée par une perspective humaniste, une amélioration des soins. Tout ça en fait, c\'est juste de la poudre aux yeux. ![](media/image30.jpeg). Parce que certes, on sécurise, on met des caméras partout pour nos personnes âgées dans la salle de bain, bientôt dans les toilettes, on vérifie que les infirmières font les choses correctement en mettant aussi des petites, des objets intelligents. Mais on empêche leur professionnalisme parce qu\'elles se sentent épiées. Donc on perd des valeurs, liberté, vie privée au bénéfice de la sécurité. 2e critique. Bah ça, il va falloir apprendre aux étudiants, c\'est possible. Mais si nous n\'en parlons pas en amont dans nos études de de santé, ce que font des professionnels de santé, ils iront plus vite et ils font plus de clients et tout le monde sera content. Mais ce ne sera pas un gain en humanisation. Voilà donc ce que les techno sceptiques nous laissent en héritage, c\'est que peut être nous sommes pris au piège d\'un processus. Nous l\'appelons progrès. Mais il serait mieux appelé **processus** parce que c\'est un système de réaction en chaîne. Nous avons perdu le contrôle de ce processus qui se déploie par effet de cascade et tout à l\'heure. En réalité, nous sommes pressés comme des citrons, mis en demeure d\'aller toujours plus vite. Et l\'intelligence artificielle est le grand accélérateur qui va nous permettre d\'accomplir, ce que les autorités du pays appellent l\'accélération du virage numérique, accélérer le virage numérique. Un rapport remis au Premier ministre. Donc oui, l\'intelligence artificielle va permettre d\'aller plus vite, mais est ce que nous allons pour cela ? Accorder une plus grande place aux soins ? ![](media/image32.jpeg) On l\'a dit, des algorithmes changent sans arrêt et on est obligé de se rééquiper en permanence. Ce que l\'on peut retenir de ce courant techno sceptique, c\'est que : « Non, l\'intelligence artificielle ne pourra pas résoudre tous nos problèmes. Il ne suffira pas de cliquer là pour tout résoudre, comme l\'avait écrit plaisamment un auteur d\'Europe de l\'Est, la technique est un outil dans notre Arsenal pédagogique. Nous allons l\'utiliser dans nos formations, mais il y a encore bien d\'autres ressources pédagogiques à mobiliser. » Que l\'intelligence artificielle, en conclusion, quel avenir, quelle pédagogie ? Je parlerai puisque j\'en avais dit un mot de ce que moi je fais en IFSI, puisque je coordonne le module d\'éthique à Marseille, je fais travailler les étudiants sur des cas. Par exemple, faut-il informer un préadolescent de 14 ans dont la fertilité a été gravement altérée par un traitement qu\'il avait reçu quand il avait 2 ans qui a permis de le guérir ? Il ne le sait pas, il a 14 ans. Est-ce le moment de lui annoncer ? faut-il recommander aux parents d\'informer cet enfant qu\'il a peut-être perdu sa fertilité ? Eh bien oui, on peut demander à Chat gpt de répondre à cette question, mais on sent bien que chat gpt n\'est pas capable d\'entrer dans les détails et que ce genre de question nous amène à une réflexion. Sur qui sont les parents ? Demander peut-être à un pédopsychiatre si 14 ans c\'est l\'âge le plus propice ? Étant donné la crise de l\'adolescence, ne vaudrait-il mieux pas attendre 2 ans ? Donc là les étudiants, ils mettent 2 mois pour réfléchir à ça, vous voyez. Je leur donne une méthodologie : - Essayez d\'étudier, - De faire la morphologie du cas, - Respectez les règles de l\'éthique de discussion, - Apprenez à vous écouter les uns les autres, - Analysez l\'écosystème du patient, - Reprenez les 4 grands principes, autonomie, bienfaisance, non malfaisance, justice. - Interrogez-vous sur les émotions que vous ressentez, - Réfléchissez à vos argumentations. Vous voyez que peut très bien être un auxiliaire et on l\'a vu tout à l\'heure aussi pour faire un discours de bienvenue, ça peut donner quelques idées mais les 80% de la résolution de ce dilemme. Ne peuvent être que le produit de l\'intelligence artificielle. Voilà, je terminerai par une petite citation parce qu\'on dit qu\'en philosophie, il faut toujours, « Je dirais que l\'intelligence artificielle peut faire de la reconnaissance faciale, mais seul un humain peut rencontrer un visage. » ![](media/image34.jpeg) *Transcription faite avec l'application Voicer, de la conférence du 20/11/2024 du **Professeur Le Coz**, professeur de philosophie chargé de mission en sciences humaines Faculté des sciences médicales Aile rouge, UMR ADES Marseille.* Synthèse faite par LE CHAT \#\#\# Synthèse détaillée de la présentation sur l\'intelligence artificielle en pédagogie \#\#\#\# Introduction La présentation du Professeur Le Coz aborde l\'intelligence artificielle (IA) sous l\'angle de son impact sur la pédagogie, en particulier dans le domaine de la santé. Il explore si l\'IA représente un obstacle, une menace, une opportunité ou une chance pour les formateurs et les étudiants. La présentation se structure autour de plusieurs questions clés et se conclut par une réflexion sur les représentations de l\'IA. \#\#\#\# Plan détaillé 1\. \*\*L\'IA en pédagogie : obstacle, menace, opportunité ou chance ?\*\* \- \*\*Obstacle et menace :\*\* \- L\'IA peut être perçue comme un obstacle ou une menace si elle est mal comprise ou mal utilisée. \- Les étudiants pourraient être naïfs et se laisser piéger par des fausses informations ou des arnaques en ligne. \- \*\*Opportunité et chance :\*\* \- L\'IA offre des opportunités pour rendre l\'apprentissage plus ludique et engageant, notamment avec les chatbots. \- Elle peut aider les étudiants à mieux comprendre les cours en fournissant des explications supplémentaires. 2\. \*\*Représentations de l\'IA et positionnement critique\*\* \- \*\*Compréhension de l\'IA :\*\* \- Il n\'est pas nécessaire de comprendre en détail le fonctionnement de l\'IA pour l\'utiliser efficacement. \- L\'important est de savoir utiliser l\'outil sans se laisser intimider par les aspects techniques. \- \*\*Positionnement critique :\*\* \- Il est essentiel de se positionner de manière équilibrée et critique face à l\'IA, en reconnaissant ses avantages tout en restant vigilant quant à ses limites et risques. 3\. \*\*Cours dédiés à l\'IA : utilité et intégration\*\* \- \*\*Utilité des cours spécifiques :\*\* \- Le professeur estime que des cours spécifiques à l\'IA ne sont pas nécessaires. \- L\'IA doit être intégrée de manière diffuse dans les formations, comme un outil parmi d\'autres. \- \*\*Intégration dans les formations :\*\* \- L\'IA doit être présente dans les formations pour familiariser les étudiants avec son utilisation et ses implications. \- Les professionnels de santé doivent être formés pour bénéficier des apports de l\'IA tout en supervisant son utilisation. 4\. \*\*Bénéfices des IA génératives\*\* \- \*\*Apprentissage ludique :\*\* \- Les chatbots et autres outils d\'IA rendent l\'apprentissage plus ludique et engageant pour les jeunes. \- \*\*Utilisation par les étudiants :\*\* \- Les étudiants utilisent déjà les outils d\'IA, mais leur enthousiasme reste modéré. \- Les chatbots comme ChatGPT sont utilisés pour obtenir des explications supplémentaires et clarifier les cours. 5\. \*\*Menaces et risques de l\'IA\*\* \- \*\*Fraudes et arnaques :\*\* \- L\'IA peut être utilisée pour des arnaques et des fraudes, rendant les étudiants et les patients méfiants. \- \*\*Déshumanisation des soins :\*\* \- L\'IA peut conduire à une déshumanisation des soins si elle est utilisée sans supervision. \- Les patients pourraient recevoir des diagnostics ou des informations sensibles sans accompagnement humain. 6\. \*\*Écosystème technologique des patients\*\* \- \*\*Robots sociaux et chatbots :\*\* \- Les robots sociaux et les chatbots deviennent de plus en plus intelligents et empathiques. \- Ils peuvent fournir des réponses meilleures que les praticiens et être plus empathiques. \- \*\*Silver économie :\*\* \- L\'IA est utilisée dans la Silver économie pour la surveillance et l\'assistance des personnes âgées. \- Les robots humanoïdes et les verres connectés sont des exemples d\'utilisation de l\'IA dans ce domaine. 7\. \*\*Réorganisation des patients et communautés en ligne\*\* \- \*\*Collectifs de patients :\*\* \- Les patients s\'organisent de plus en plus en collectifs en ligne, court-circuitant les associations traditionnelles. \- Ces collectifs partagent des informations et des expériences, créant une dynamique nouvelle dans la relation soignant-patient. \- \*\*Information médicale :\*\* \- L\'information médicale est de plus en plus accessible et immédiate, posant des défis éthiques majeurs. \- Les patients peuvent recevoir des diagnostics ou des informations sensibles sans accompagnement humain. 8\. \*\*Complémentarité de l\'intelligence humaine et artificielle\*\* \- \*\*Intelligence émotionnelle et contextuelle :\*\* \- L\'intelligence humaine est complémentaire à l\'IA, notamment en ce qui concerne l\'intelligence émotionnelle et contextuelle. \- Les soignants doivent développer une intelligence contextuelle et émotionnelle pour accompagner les patients. \- \*\*Éthique et valeurs :\*\* \- L\'IA ne peut pas remplacer l\'intelligence émotionnelle et les valeurs humaines. \- Les soignants doivent redécouvrir leur valeur ajoutée en se basant sur les émotions et les valeurs. 9\. \*\*Représentations de l\'IA : techno prophétique, progressiste et sceptique\*\* \- \*\*Discours techno prophétique :\*\* \- Les techno prophètes annoncent des grands maux si nous n\'investissons pas massivement dans l\'IA. \- Ils utilisent une rhétorique angoissante pour promouvoir l\'IA. \- \*\*Discours techno progressiste :\*\* \- Les techno progressistes voient l\'IA comme une opportunité pour améliorer les soins et la formation. \- Ils prônent une numérisation totale de la société et des soins. \- \*\*Discours techno sceptique :\*\* \- Les techno sceptiques voient plus d\'inconvénients que d\'avantages à l\'IA. \- Ils critiquent la perte de valeurs humaines et la déshumanisation des soins. \#\#\#\# Conclusion Le Professeur Le Coz conclut que l\'IA est une forme d\'intelligence complémentaire à l\'intelligence humaine. Elle offre des opportunités pour améliorer la pédagogie et les soins, mais elle doit être utilisée de manière critique et équilibrée. Les soignants doivent redécouvrir leur valeur ajoutée en se basant sur les émotions et les valeurs humaines, tout en intégrant l\'IA comme un outil parmi d\'autres dans leur pratique. \-\-- Cette synthèse détaillée permet de comprendre les principaux points abordés par le Professeur Le Coz dans sa présentation sur l\'intelligence artificielle en pédagogie. Synthèse faite par yiaho La présentation aborde la question de l\'intelligence artificielle (IA) dans le domaine de la formation, en s\'interrogeant sur ses multiples facettes : obstacle, menace, opportunité, ou chance pour les formateurs. L\'intervenant plaide pour une approche critique tout en restant globalement favorable à l\'intégration des outils d\'IA en pédagogie. L\'argument clé réside dans l\'idée que comprendre en profondeur le fonctionnement de l\'IA n\'est pas crucial ; l\'usage de l\'outil est primordial. Il cite l\'exemple de la conduite automobile : bien que l\'on ne comprenne pas toujours le fonctionnement du moteur, il est essentiel de savoir conduire. L\'intervenant souligne que l\'IA générative, et plus spécifiquement les chatbots, rendent l\'apprentissage plus ludique, notamment pour les jeunes. Une étude menée auprès d\'étudiants en Belgique révèle que l\'utilisation des outils d\'IA par les étudiants est moins répandue que ce que les médias laissent croire, ce qui tempère l\'idée d\'une révolution éducative imminente. Il est noté que bien que ChatGPT soit perçu comme un outil utile pour clarifier des concepts, son score de satisfaction parmi les étudiants reste relativement faible. Cela pose la question de la confiance que les étudiants accordent aux outils d\'IA et souligne la nécessité d\'une approche mesurée. En ce qui concerne les professionnels de santé, l\'Académie de médecine recommande une familiarisation avec l\'IA, tout en mettant en garde contre son utilisation imprudente, soulignant que ces systèmes peuvent produire des informations erronées. Les menaces potentielles incluent la désinformation et l\'hyper méfiance des patients face à l\'information médicale, exacerbées par des cas récents de fraude. L\'intervenant affirme que le véritable défi réside dans le rapport entre les soignants et les patients, notamment avec l\'émergence de patients connectés qui utilisent des outils comme ChatGPT pendant les consultations. La discussion aborde également la transformation des patients en tant que consommateurs d\'outils numériques. L\'introduction de robots sociaux et d\'assistants en établissements de santé soulève des préoccupations éthiques sur l\'autonomie et la valeur des relations humaines. Le concept de « Silver économie » est introduit, évoquant l\'importance croissante de l\'IA et des robots dans le soin aux personnes âgées, tout en questionnant l\'authenticité des interactions patient-soignant. Enfin, il est souligné que la rapidité de l\'accès à l\'information médicale est à la fois une opportunité et un défi. L\'IA change la manière dont les patients accèdent et interprètent l\'information, mettant à mal les anciennes pratiques de communication entre médecins et patients. L\'intervenant conclut en appelant à une sensibilisation des étudiants à l\'environnement sociotechnique des patients, tout en insistant sur l\'importance d\'une approche éthique et humaine dans le soin. Cette réflexion sur l\'IA dans le domaine de la formation et de la santé révèle l\'ambivalence de cette technologie : si elle offre des opportunités d\'amélioration de l\'apprentissage et du soin, elle pose également des défis éthiques et pratiques qui doivent être examinés avec soin.