Summary

This document provides a general overview of computer culture, outlining the historical development of calculating machines and the evolution of computing, from early pioneers to modern concepts. It includes notable figures such as Pascal, Babbage, and Turing, also touching on important milestones in computer science and the concept of the internet.

Full Transcript

Culture Numérique Sommaire L’informatique Le web La protection numérique GAFAM vs BATX « L’informatique est un calcul que nous confions à une machine » - Dominique Cardon, Culture numérique L’informatique c’est une suite de 0 et de 1 traitée par une machine logique...

Culture Numérique Sommaire L’informatique Le web La protection numérique GAFAM vs BATX « L’informatique est un calcul que nous confions à une machine » - Dominique Cardon, Culture numérique L’informatique c’est une suite de 0 et de 1 traitée par une machine logique appelée ordinateur. Mais avant que l’ordinateur ne soit inventé, on a d’abord mis au point des machines à calculer. Parmi les femmes et les hommes qui ont fait l’histoire des machines à calculer, nous retiendrons cinq noms : Pascal, Babbage, Lovelace, Boole et Turing Informatique : Blaise Pascal = Pascaline en 1642, première machine à calculer → elle permettait d’additionner et de soustraire deux nombres d’une façon directe et de faire des multiplications et des divisions. Charles Babbage = la machine à différences → machine à calculer qui ne sera jamais construite de son vivant car la technique de son temps ne permettait pas de créer cette machine. Augusta Ada King → fille du poète lord Byron = invention de la programmation informatique en écrivant des instructions permettant à la machine de Babbage de calculer seule. Mais son intuition va encore plus loin → Là où Babbage se cantonne au calcul numérique, elle formule des hypothèses visionnaires imaginant que la machine peut composer des morceaux de musique ou réaliser des graphiques. Georges Boole = développe une nouvelle forme logique, à la fois symbolique et mathématique. Le but : traduire des idées et des concepts en équations, leur appliquer certaines lois et retraduire le résultat en termes logiques. Pour cela, Il crée un algèbre binaire, dites Booléenne, n’acceptant que deux valeurs numériques. Alan Mathison Turing = 1936 décrit dans un article scientifique les bases théoriques d’une machine capable de tout calculer en décomposant l’information en deux valeurs 0 et 1. Pendant la seconde guerre mondiale, recruté par les services secrets anglais, il dirige l’équipe de scientifiques qui décrypte le code Enigma que les armées nazies utilisent alors pour protéger leurs communications. Après-guerre, il participe à la création de l’un des tout premiers ordinateurs, le Manchester Mark 1. Poursuivi en justice en 1952 pour homosexualité, il choisit pour éviter la prison, la castration chimique par prise d’œstrogènes. Il est retrouvé mort par empoisonnement au cyanure le 8 juin 1954. La reine Elisabeth II le reconnaît comme héros de guerre et lui accorde une grâce royale en 2013. Grace Murray Hopper et le premier bug documenté = docteur en mathématiques Parfois, l’ordi échoue à accomplir pour laquelle il est programmé. On parle alors de plantage due à un bug ou de bogue. bug = en anglais, signifie «insecte» et ce n’est pas un hasard Le premier cas de bug est officiellement documenté par l’informaticienne Grace Murray Hopper (1906– 1992), docteure en mathématiques de l'université Yale. En 1944, alors lieutenant de la marine américaine, elle est affectée au Bureau of Ordonance Computation Project de l’université Harvard. Elle travaille sur le Harvard Mark I, qu’elle est la première à programmer. Connaître le langage qui fait l’interface qui commande En 1947, elle devient la programmeuse informatique sur le calculateur Mark II de l’univ Harvard. Le 9 sept 1947, une mite grille sur un relais électrique. Cette interférence va être la cause du premier bug informatique attesté par le journal de bord de l’équipe. Thomas Edison (1847–1931) aurait utilisé le mot bug pour certaines perturbations du télégraphe provoquées par des insectes qui viennent se griller sur les fils de transmission. La création du mot ordinateur → en France 1955, IBM s’apprête à importer une machine à calculer que les Américains appellent Computer. François Girard respo pub chez IBM consulte un de ses anciens maîtres Jacques Perret, prof de philologie latine à la Sorbonne pour le nom français de computer d’IBM, afin de lui trouver un nom. Ordinateur = mettre de l’ordre dans le monde donc dans les chiffres. Douglas Engelbart et la Mère de toutes les démonstrations : → tous les concepts de l’informatique et objets concrets servant encore aujourd’hui. Fin des années 40 les machines étaient encombrantes, onéreuses et utilisées de manière planifiée pour quelques institutions pour trouver sans intervention humaine des solutions à des problèmes que l’on savait résoudre par des calculs. Un des premiers ordinateurs opérationnels, achevé en 1946, s’appelait Eniac (Electronic Numerical Integrator Analyser and Computeur). Il pesait 27 tonnes, occupait 63 mètres au carré au sol et effectuait 5000 opérations par seconde. ➔ Celles qui s’occupent des câbles sont des opératrices (las chicas del cable) Douglas Carl Engelbart (1925–2013) est un ingénieur américain, inventeur et pionnier de l’informatique. → s’inscrit à Berkeley en 1948 pour suivre une licence de génie électrique. Il suit les premiers cours d’info de Paul Morton et travaille avec lui à la conception d’un calculateur, le CALDIC. Il termine ses études par un doctorat d’ingénierie électrique et informatique en 1955. Il obtient en 1962 une subvention de l’ARPA (advanced research…) = agence fédérale américaine qui est créée en 1958 sur des fonds publics. → finance l’ARPANET Engelbart s’intéresse à ce que l’on peut faire avec les machines, imagine l’informatique de demain. Pour lui, on ne doit pas se contenter d’utiliser l’ordinateur comme calculateur. Il pense que l’ordi doit devenir interactif et de nous aider à augmenter l’intelligence collective. Il pense que l’on pourrait dialoguer avec, produire, échanger, partager des documents. Son équipe développe le On-line System. Pour visualiser l’information, ils conçoivent une interface graphique permettant d'interagir avec l’ordinateur. Pour manipuler des informations à l’écran, ils vont créer deux outils : un clavier qui permet de déclencher des commandes et une souris avec laquelle il contrôle un pointeur à l’écran. 9 décembre 1968 à San Francisco, Engelbart et son équipe font une démonstration du NILS devant un public d’un millier d’ingénieurs. Il commence son intervention par une question : si au bureau, dans le cadre de votre travail intellectuel, vous disposiez d’un écran relié à un ordinateur accessible toute la journée et répondant instantanément à toutes vos actions, quels avantages pourriez-vous en tirer ? ». Ces personnes ont été confrontées à une utilisation des ordinateurs diamétralement opposée à celle établie. On propose aux ingénieurs un chemin vers une info pensée pour l’individu et qui lui sert à produire, organiser, transformer et communiquer l’information, et pas seulement à calculer. Les idées mises en œuvre dans NLS ont été disséminées par les collaborateurs d’Engelbart et ceux ayant vu la démonstration ou son enregistrement. Inspirés par NILS, l’Alto sera créé en 1972 : mini-ordinateur personnel avec un écran bitmap, un clavier, une souris et fonctionnant en réseau. C’est sur cette machine que seront développées les premières interfaces graphiques à base d’icônes, de menus et de fenêtres superposées, ainsi que Bravo et Gypsy les ancêtres des logiciels de traitement de textes. L’informatique grand public : Apple vs Microsoft Fin 70, début 80 ces deux sociétés se montent Les composants informatiques se miniaturisent de plus en plus. Leurs productions s’effectuant à plus grande échelle. Les prix sont à la baisse. L’interface graphique n’oblige plus à apprendre un langage machine permettant de dialoguer avec l’ordinateur. Au début des années 1980, l’ordinateur des entreprises américaines s'apprête à devenir l'ordinateur des foyers aisés américains. 1981, IBM PC 5150 commercialisé au prix de 1500 $ avec une interface graphique éditée par Microsoft Corporation, société américaine fondée par Bill Gates en 1975. Le système livré avec les IBM PC ne fonctionne qu’avec des lignes de commandes car pas adapté pour le grand public. Le succès commercial du modèle 5150 proviendra tout autant de son tarif abordable que de l’interface graphique. 1983, société Apple créée par Steve Jobs commercialise le Lisa, ordinateur personnel munie d’une souris et d’une interface graphique au prix de 9995$ = énorme échec essentiellement à cause de son prix. Compétition lancée entre Apple, IBM et Microsoft. Or, Microsoft travaille avec IBM et Apple et lui permet d'observer les innovations des deux concurrents. Secrètement les équipes de Bill Gates élaborent le système d’exploitation Windows, en reprenant l'interface graphique du Mac. Chez Apple, cet emprunt est vécu comme une trahison. Des poursuites judiciaires seront engagées en 1988. Steve Jobs viré de chez Apple en 1985 et créer la société Next. Alors que Microsoft envahit la planète avec ses logiciels pour PC, Apple reste dans l’ombre. Agenda électronique Newton 1993 par Apple mais ne fonctionne pas. 1995, naissance d’un bestseller le Windows 95, doté de logiciels multimédia et de fonctionnalités liées à internet, s’écoule à 7 millions d’exemplaires en cinq semaines. Mais là encore, Apple crie au plagiat ! Elle engage des poursuites contre Microsoft et Intel, qu’elle accuse d’avoir copié son lecteur multimédia QuickTime. 1996, Steve Jobs réintègre le conseil d’administration d’Apple → nouvelle ère s’ouvre Le Californien comprend que la société qu’il a co fondée 20 ans plus tôt est à deux doigts de la faillite. En août 97, les deux groupes rendent public un partenariat qui permet à Apple de se relancer. La firme de BG achète pour 150M$ d’actions Apple, soit 6,5% du capital. En échange, la firme de Cupertino abandonne les poursuites. Steve Jobs et ses équipes travaillent dans le même temps sur des nouveautés révolutionnaires. →Après avoir repensé les Mac en 1998, créa de l’Ipod en 2001, lié à la plateforme de téléchargement légal ITunes. 2007, l’iPhone du jamais-vu = écran tactile et ses applications, ouvre l’ère des smartphones. S’ensuit l’Ipad en 2010, première tablette tactile. Lentement mais sûrement, les rôles s’inversent entre les deux géants. Quinze ans après avoir évité la faillite, Apple engrange des bénéfices colossaux, tandis que Microsoft loupe le tournant du smartphone. Le business model imaginé par Bill Gates dans les années 1980 est dépassé. Le patron de Microsoft cède sa place à Steve Ballmer en 2008. Steve Jobs, lui, est emporté par la maladie en 2011. Avant de tirer leur révérence, les patrons historiques de Microsoft et Apple avaient bien saisi que leurs vrais concurrents se trouvaient ailleurs. Dès 2008, Steve Jobs s’inquiétait du développement de la plateforme Android, développée par Google. Si les rapports avec Apple se sont apaisés, la firme dirigée par Tim Cook a en revanche, depuis, ciblé Samsung. En 2012, la justice a même ordonné au géant coréen de payer une amende de plus d'un milliard de dollars pour avoir violé des brevets Apple et copié l'iPhone. De son côté, Microsoft souffre aussi depuis une demi-décennie. Bousculée par la profondeur des changements sur un marché où elle régnait en maître, Microsoft tente depuis 2012 de combler son retard en proposant de nouveaux appareils et des logiciels adaptés aux nouveaux usages. Internet 1. Effet Spoutnik 2. Le nom de domaine 3. Le routage 4. Le développement de l’internet en France 5. L’invention du wifi 6. Géopolitique des câbles 7. Darknet, TOR, Deepweb, VPN et DNS menteurs 8. Les messageries chiffrées L’effet Spoutnik ➔ Du temps de l’URSS 4 oct 1957 : les Russes lancent le premier satellite artificiel autour de la Terre, baptisé Spoutnik. Ce lancement fut un choc pour les USA car cela remettait en cause leur prédominance dans le domaine scientifique. Accessoirement, lancer un satellite artificiel signifiait que les Russes avaient mis au point d’une fusée capable de porter une tête nucléaire jusqu’aux USA. Cinq mois plus tard, le 7 février 1958, le président Eisenhower signe la directive 5105.15 donnant naissance à l’ARPA (Advanced research projects agency), avec pour objectif de faire en sorte que la technologie de l’armée américaine reste supérieure à celle de ses ennemis. Cette agence est un « incubateur », elle ne fait pas de recherche en propre, elle est chargée de sélectionner et financer des projets jugés prometteurs. Les principaux projets financés par l’ARPA furent d'abord axés sur l'espace et les missiles. Principaux projets : missiles et l’espace 1959 : Paul Baran, ingénieur américain diplômé de l’UCLA (University of california, Los Angeles), est mandaté afin de mettre au point un réseau de com pour la recherche civile et l’armée américaine. Avec une équipe d’ingénieurs, il teste différentes solutions techniques, et imagine une rep en réalisant deux concepts : - Un réseau décentralisé qui serait autonome dans sa gestion de l’info, et - Un découpage de l’information en bloc qui permet de faire transiter l’info avec une économie de ressources par rapport aux systèmes déjà existant. Il cherche donc à combler deux besoins : - Pour la recherche, connecter entre eux des réseaux d’ordinateurs, pour le partage des connaissances et bénéficier de la puissance de calcul partagé. - Pour la défense, mettre en place un réseau de comm susceptible de résister à une attaque nucléaire (russe). La sécurité est donc primordiale. Il adopte une structure en réseau décentralisée : En clair - Si un nœud du réseau est détruit, les données peuvent emprunter un autre chemin - Si un nœud du réseau est détruit, la puissance informatique du réseau est faiblement atteinte, car répartie entre tous les nœuds du réseau - Il y a redondance des fx dans le réseau, pour minimiser le risque de déconnexion. La transmission par commutation de paquets en quelques mots : Ce mode de transmission nécessite de découper chaque bloc d’information en paquet qui contient donc une partie de l’info, chacun ayant un en-tête contenant sa destination. Le réseau composé d’un maillage de routeurs, décide par lui-même de la route que chaque paquet va prendre, ce qui rend ce type de réseau particulièrement résilient, n’étant pas centralisé. En 1966, l’ARPA accorde un budget d’un million de dollars pour que l’IPTO (information Processsing Techniques Office = Bureau des techniques de traitement de l’info) développe un réseau informatique délocalisé basé sur les travaux précurseurs de Paul Baran. Ce projet est confié à Joseph Carl Robnett Licklider qui eut un rôle particulièrement important dans les recherches qui ont conduit à l’ordinateur personnel. Il a écrit un article scientifique en 1960 qui s’intitule « Man computer symbiosis » (lhumanité cybernétique). Il a l’intuition que le futur de l’espèce humaine passera par l’ordi. La mission confiée à Licklider fut de découvrir des profils de chercheurs et de chercheuses capables d’imaginer en 1960, a quoi pourrait ressembler l’informatique des années 1980. « La mère de toutes les démonstrations » d’Engelbart fut financé par L Son premier projet auprès de l’ARPA sera de développer un système de temps partagé entre les ordinateurs des différentes universités américaines. Afin de rationaliser le temps de calcul disponible, Licklider souhaite les connecter en réseau, et repartir ainsi la charge de calcul entre différents ordinateurs et plusieurs utilisateurs. A cette époque, les ordis ne peuvent effecteur qu’une seule tâche par utilisateur. Cette interconnexion permettra aussi aux universitaires de partager leurs recherches via un format standard de doc électronique. 1967 : l’IPTO organise une consultation avec des chercheurs de différentes univs américaines, afin de les convaincre de dédier chacun un ordi à la gestion du futur ARPANET. L’ordi est alors une ressource précieuse et coûteuse : la demande reste lettre morte IPTO reprend l’idée de Wes CLARCK de créer un « petit » ordi à tâche unique = IMP (interface message processor). Aout 69 : la société Bolt Beraneck and Newman remporte l’appel d’offre et livre le premier interface Message Professors à l’UCLA. L’IPTO lance un appel d’offre auprès des sociétés privés pour la construction de 140 machines IMP. Cette machine est l’équivalent de nos routeurs actuels, permettant de relier deux ordinateurs via un réseau téléphonique. Il pèse 400kg Septembre 69 : deuxième IMP installé au SRI. Un premier test est réalisé entre deux univs. Le mot LOGIN est envoyé à UCLA au SRI. A l’arrivée de la lettre G, l’ordi du SRO plante. Une heure plus tard = succès Novembre 1969 : le troisième IMP est installé à l’University of California de Santa Barbara. Décembre 1969 : le quatrième IMP est installé à l’University of Utah. ARPAnet est donc constitué d’un réseau physique reliant ces 4 universités. Hiver 1971 : Raymond Samuel Tomlinson (1941 2016), ingénieur américain, développe un logiciel permettant de rédiger, de lire et d’envoyer des messages électroniques via l’Arpanet. Il invente l’adresse mail, et décide de séparer le nom/prénom de l’expéditeur avec le domaine qui héberge l’adresse par le « A commercial », aussi appelé arobase (@) Pourquoi l’arobase ? Parce que ce caractère était présent sur le Teletype Model 33 utilisé par Tomlinson et n’était pas utilisé en dehors des ordres d’achat ou de vente passés avec cette machine. Octobre 1972 : Larry Roberts et Bob Kahn organise une démonstration publique de l’Arpanet à Washington, lors de l’International Conference on Computer Communication. Le réseau Alohanet, développé par Norman Abrahamson de l’université d’Hawaï, rejoint l’Arpanet via une liaison satellite. Début 1973 : Arpanet fonctionne, mais n’est pas encore le réseau des réseaux. Afin de faire communiquer n’importe quel ordinateur sans se soucier de son mode de communication, Vinton Cerf et Robert Kahn décide de mettre au point un protocole qui permette de transporter les paquets d’information à travers n’importe quel type de réseau : le TCP (Transmission Control Protocol). Ils présentent le fruit de leur recherche à l’Internet Network Working Group qui se tient à l’université du Sussex, Brighton, Angleterre. Le principe du protocole TCP est adopté par l’ensemble des participants. Une liaison par satellite transatlantique est établie avec le réseau sismique norvégien (NORSAR) et fait de la Norvège le premier pays en dehors des États-Unis à être connecté au réseau. Peu de temps après, un câble transatlantique est relié à un IMP installé à l’University College of London, qui rejoint donc l’Arpanet. - 1982 : Définition du protocole TCP/IP et du mot « Internet » - 1984 : 1 000 ordinateurs connectés - 1987 : 10 000 ordinateurs connectés - 1989 : 100 000 ordinateurs connectés - 1990 : Disparition d'ARPANET - 1991 : Annonce publique du World Wide Web - 1992 : 1 000 000 ordinateurs connectés - 2000 : 368 540 000 ordinateurs connectés L’histoire d’internet n’a retenu qu’une très grande majorité d’hommes, pourtant les femmes sont présentes dès les premiers pas de l’informatique, principalement dans les armées britanniques et américaines pendant la seconde guerre mondiale. La paix revenue, ces femmes sont très souvent employées par le gouvernement ou dans les centres de recherche comme programmeuses. Et c’est en raison de leurs emplois qu’elles sont les grandes oubliées de l’histoire de l’informatique. Mais comment ce processus fonctionnait avec l’Arpanet ? De 1972 à 1989, pour obtenir un nom de domaine, il fallait s’adresser à Elizabeth "Jake" Feinler qui travaillait alors au NIC (Network Information Center). À cette époque, c’est la conception des machines (le hardware) qui est valorisée et celle-ci est essentiellement produite par des hommes. La partie programmation (le software) est confiée aux femmes et invisibilisée car considéré comme « moins noble » En 1967, le magazine Cosmopolitan publie un article intitulé "The Computer Girls" prônant l’informatique comme une voie d’avenir pour les femmes. Mais au fil des avancées technologiques, l’informatique devient peu à peu le terrain d’hommes qui en font une profession « respectable» et bien payée. Le nom de domaine Sur le web, un site internet est hébergé sur un serveur informatique. Les sociétés qui commercialisent ce type de prestation s’appelle des hébergeurs. En informatique, pour contacter un serveur, il faut connaître son adresse IP (du protocole TCP/IP). Chaque site web à donc besoin d’une adresse IP qui lui est propre. Il coexiste actuellement deux formats d’IP : - IPv4 - IPv6 IPv4, c’est 2³² adresses soit un total de 4 294 967 296 d’adresses IP. Or, depuis le 3 février 2011, ce nombre a été dépassé par le besoin de connexion. Il a donc fallu passer à un autre système permettant d’avoir beaucoup plus d’adresses IP. Ce système, c’est IPv6. IPv6, c’est 2¹²8 adresses soit un total de 667 millions de milliards d’adresses IP. On estime qu’en 2025, le nombre d'appareils connectés à internet sera d'environ 75 milliards. Il reste donc une énorme marge avant d’épuiser ce nombre d’adresses IP… Une adresse Ipv6, ça ressemble à ça : 2001:0db8:0000:85a3:0000:0000:ac1f:8001 Pas simple à retenir… Pour faciliter la mémorisation, on passe donc par un système plus compréhensible pour l’espèce humaine : le nom de domaine (donc avec des lettres et/ou des chiffres, voire parfois des mots). Un nom de domaine se présente toujours sous la même forme : - « www» qui indique au navigateur web que vous voulez vous connecter au web - Un domaine de premier niveau, par exemple «;fr», «.com», «.org», «.gouv.fr» - Un domaine de deuxième niveau, par exemple «parisnanterre», «instagram», «google», etc. L’ensemble donnera dans la barre d’adresse d’un navigateur : http://www.parisnanterre.fr Pour faire la correspondance entre l’adresse IP du site web et le nom de domaine compréhensible pour tous·tes, il faut un annuaire. Cet annuaire s’appelle le DNS : Domain Name System (Système de nom de domaine). Il contient tous les sites web et chaque adresse IP qui y est attribué. Cet annuaire est consulté par votre navigateur internet sans que vous vous en rendiez compte. Le NIC était l’organisme qui créait les noms de domaine. Quand Arpanet est devenu l’Internet (en 1989), cette activité a été reprise par des sociétés privées (appelées registrar) dont l’activité commerciale est de vendre des noms de domaine. Donc, lorsque vous vous connectez à un site web, le navigateur que vous utilisez s’adresse à l’annuaire DNS le plus proche pour trouver l’adresse IP du site. Le DNS le plus proche de vous, en général, c’est celui de votre fournisseur d’accès à internet. On reviendra plus tard sur les DNS pour parler de la censure sur internet, des DNS menteurs, de l’utilisation d’un VPN, de TOR… Le routage : Où comment trouver son chemin sur internet Internet, c’est le réseau des réseaux Il est constitué d’une centaine de milliers de réseaux publics et privés qui sont interconnectés les uns avec les autres. Ces réseaux sont appelés ASN (Autonomous System Number). En 2021, on dénombrait 109 046 systèmes autonomes (AS), dont plus de 29 000 aux États-Unis (27 %) et 1 861 en France (1,7 %). Puisque ces réseaux respectent tous le même protocole, le TCP/IP, l’ensemble fonctionne de la même façon quel que soit le lieu et l’usage qu’on en fait. TCP/IP signifie Transmission Control Protocol/Internet Protocol. En français, Protocol de contrôle des transmissions/Protocole Internet). Quelques exemples de réseaux privés parmi les plus connus : Orange, Free, SFR, Meta (Facebook, Instagram, Facebook Messenger, WhatsApp, Threads), Alphabet (Google, YouTube) Amazon (commerce en ligne et Cloud), etc. Un exemple de réseau public que vous utilisez souvent : celui de l’université Paris Nanterre. L’université Paris Nanterre utilise le réseau de RENATER –> Réseau national de télécommunications pour la technologie, l'enseignement et la recherche RENATER a été créé en 1993. Il connecte plus de 1 300 sites via des liaisons de fibres optiques en IPv4 et IPv6. RENATER est connecté au réseau pan- européen GÉANT et GÉANT2. Il est également relié à Internet, en France via un point d'échange, le SFINX. Le routeur le plus utilisé est celui inclut dans la box internet que vous utilisez chez vous. C’est le modèle le plus simple (et le moins cher). Ce routeur connait au moins deux chemins : - Celui qui sort de votre téléphone (ordinateur, console de jeux, etc.) vers l’internet ; - Et celui qui entre de l’internet vers votre téléphone (ordinateur, etc.). Il existe une seconde catégorie de routeur, celle des routeurs professionnels, dit Backbone. Pour les faire communiquer entre eux, on rajoute des câbles. Ces routeurs orientent les paquets d’informations vers le serveur qui en a fait la demande. Ils connaissent les chemins d’internet car ils apprennent les routes que connaissent les routeurs voisins. Ils sont donc capables, de façon totalement autonome, d’orienter les requêtes vers le bon serveur, en évitant les « embouteillages » de données (coupure, incident, attaque informatique, etc. Ces demandes aboutissent à des « fermes de serveurs » (des disques durs empilés dans des baies) qui hébergent les données : sites web, f ichiers vidéo, etc. Le développement de l’internet en France (Ou comment l’internet a failli être français) Le développement d’Internet en France a été marqué par deux grandes figures : le Minitel et Louis Pouzin. Lancé dans les années 1980, le Minitel a permis aux Français·es d’accéder à des services en ligne bien avant Internet. Ce réseau télématique, qui comptait près de 9 millions de terminaux dans les années 1990, 61/198 L’internet offrait des services variés comme l’annuaire électronique et le commerce en ligne. Cependant, ce succès a retardé l’adoption d’Internet, le Minitel étant préféré pour sa robustesse. Parallèlement, dans les années 1970, l’ingénieur Louis Pouzin a développé le projet Cyclades, un réseau précurseur de l’Internet. Cyclades a introduit la commutation par paquets. Pour rappel, le concept original de commutation par paquets a été proposé par l’Américain Paul Baran au début des années 1960. Louis Pouzin, quant à lui, a apporté une contribution significative en mettant en œuvre et en perfectionnant la commutation par paquets avec son projet. La France, bien qu’en retard dans l’adoption d’Internet en raison de sa dépendance au Minitel, a su progressivement intégrer le réseau mondial dans les années 1990. Le Minitel a été débranché en 2012, marquant la fin d’une époque, tandis que l’héritage de Pouzin reste fondamental pour l’Internet moderne. Il y a 30 ans, le « rapport Théry » (1994) rédigé par Gérard Théry, haut fonctionnaire et polytechnicien, fut remis au Premier ministre Édouard Balladur. Ce rapport de cent pages affirmait qu'Internet n'avait absolument aucun avenir et serait supplanté par le Minitel. Le maillage terrestre français Principalement via 4 types d’infrastructure : - Autoroute (sous les bandes d’arrêt d’urgence ou bien via les tranchées de câbles des panneaux d’affichage autoroutier.) - Chemin de fer (le long des voies) - Réseau électrique - Voies navigables de France (canaux, fleuves, etc.) Ou par exemple à Paris, via le réseau des égouts. Un câble a une durée de vie de 25 ans, mais la pêche, les ancres des chalutiers, les avalanches marines et le sabotage mettent à mal ces installations de fibre optique. Il est donc indispensable d’avoir une flotte de navire capable de poser mais surtout de réparer ces câbles. En tout, ce sont plus de 100 câbles qui sont endommagés chaque année dans le monde, très souvent par des chalutiers ou des navires errants qui tirent sur leurs ancres, détaille The Economist. Les principaux acteurs du marché : Orange Marine (France), Alcatel Submarine Networks (France), SubCom (États-Unis), Nec Submarine System (Japon). 30 % des navires câbliers sont français. Accord MECMA : accord de maintenance des câbles sous-marins d’Orange Marine en mer Méditerranée, en mer Noire et en mer Rouge. Orange vient de renouveler son contrat en 2023 d’où l’intérêt de renouveler sa flotte avec le Sophie Germain. La France possède le deuxième domaine maritime mondial avec 10,9 millions km² de ZEE, dont 97% borde ses outre-mer. Au regard de l’instabilité du contexte international et de la rivalité pour les richesses maritimes, la protection du domaine maritime est un objectif stratégique indispensable pour la défense de la France (source ministère de la Défense). Géopolitique des câbles : une vision sous-marine d’internet Car internet, c’est 589 câbles (1,4 million de kilomètres soit 33 fois le tour de la Terre) déployés pour relier les continents, à l’exception de l’Antarctique. Le premier câble transatlantique a été posé en 1858 entre l'Irlande et Terre-Neuve (Canada) pour permettre la communication par messages télégraphiques en langage morse. Ce câble avait alors été financé par les États-Unis et l’Angleterre. À la création de l’internet grand public, les États-Unis décide de libéraliser le marché, et donc n’investit plus directement dans ces « autoroutes de l’information ». Ce sont les opérateurs des télécommunications traditionnels, comme Orange, qui misent sur ces infrastructures. Cependant, ces opérateurs ne peuvent plus rivaliser avec les géants du net. Les câbles appartiennent en majorité – un peu plus de 50 % – aux GAFAM, en premier lieu à Alphabet, la maison mère de Google et YouTube, et à Meta (Facebook, Instagram, WhatsApp). Le 21e siècle a consacré l’importance de ces câbles sous-marins pour transporter nos données et par la même occasion ils sont devenus un enjeu majeur de puissance. En effet, qui contrôle les câbles, contrôle l’accès à l’information et qui contrôle l’information contrôle le monde. Mais finalement, peu importe le maître du câble si on est capable de l’espionner… Un câble transatlantique est constitué de fibres optiques, beaucoup plus rapides et puissantes que le traditionnel fil de cuivre. Un câble de 50 à 100 km coûte 30 millions d’euros. Il peut transporter jusqu’à 12 pétabit/s soit 125 000 Go/s Marseille, 7e hub mondial, connectée au monde via 17 câbles sous-marins. Une donnée met 0,11 secondes pour parcourir les 20 000 km qui séparent Marseille de Singapour via le câble SeaMeWe-4. Le coût de ce chantier est estimé à 500 millions de dollars américains. Cette proximité entre les serveurs et les câbles permet d’avoir une bonne latence. La latence mesure le temps nécessaire pour qu'un paquet de données soit transmis de l'émetteur au destinataire et renvoyé à l'émetteur. En résumé, plus le débit est élevé, meilleure sera votre connexion à Internet. Pour la latence, c'est tout l'inverse : plus elle faible, mieux c'est. Dans l'idéal, la latence doit être aussi proche de 0 que possible (les gamers·euses peuvent en témoigner). Menaces sous les mers, panique dans le cyberespace Près de 99% du trafic total sur Internet - est assuré par les lignes sous-marines. Près de 99% du trafic total sur Un point saillant : 10 000 milliards de dollars de transactions financières quotidiennes. «Si la Russie coupe les câbles sous-marins, l’Europe peut perdre son accès à Internet». En 2007, des pêcheurs vietnamiens ont coupé un câble sous-marin afin d'en récupérer les matériaux composites et de tenter de les revendre. Le Vietnam perdit ainsi près de 90% de sa connectivité avec le reste du monde pendant une période de trois semaines. En 2017, les câbles Grande-Bretagne – USA, puis France – États-Unis, ont été arrachés par les chalutiers d'une grande puissance coutumière de l'emploi de forces irrégulières lors de tensions internationales. (Deux possibilités : la Russie ou la Chine. Guess who ?) En février 2023, un cargo et un bateau de pêche chinois ont été soupçonnés d'avoir coupé les deux câbles desservant Matsu, une île taïwanaise isolée — bien qu'il n'y ait aucune preuve tangible de leur implication. En janvier 2022, un tsunami provoqué par la puissante éruption d’un volcan sous-marin au large des îles Tonga provoque un raz-de marée et un glissement de terrain sous-marin qui sectionna l’unique câble reliant le Tonga aux îles Fidji. L’internet fut rétabli deux semaines plus tard. L’internet est par conception robuste et résiliant : le routage par paquet permet aux routeurs de trouver des routes alternatives en cas de coupure. Mais un événement exceptionnel (tremblement de terre, guerre, etc.) peut restreindre l’accès à internet pour une zone géographique. Il est dans ce cas possible d’utiliser les réseaux satellitaires comme dans le cas de l’Ukraine en février 2022, lors de l’invasion par la Russie. La société SpaceX vend à l’Ukraine des antennes capables de se connecter à la constellation des satellites Starlink, permettant aux civils de s’y connecter pour échanger des nouvelles avec leurs familles. Ou bien en support temporaire suite aux attaques physiques et cyber russes sur les réseaux de communication de l’armée ukrainienne. Si la création d’internet est un effet de bord du lancement de Spoutnik, on doit l’invention du WIFI à une histoire de torpille nazie. Car internet, c’est beaucoup de câbles, mais aussi la possibilité de se connecter sans fil, par exemple en utilisant le WIFI, le Bluetooth et parfois le GPS. Et ces trois technologies ont un point commun : Hedy Lamarr L’invention du WIFI : Quand une actrice autrichienne croise une torpille nazie Hedwige « Hedy » Kiesler dite Hedy Lamarr (1914 2000), une actrice autrichienne qui débuta une carrière cinématographique à Berlin dans les années 30. En 1932, elle se marie avec l’un des hommes les plus puissants d’Autriche : Fritz Mandl, un marchand d’armes. Elle vit recluse dans le manoir de son mari. Mais c’est ici que va naître son ambition d’inventrice. Les seules personnes qu’elle est autorisée à voir, ce sont les clients qu’il reçoit à sa table. Le comte von Starhemberg, ami personnel d’Hitler, ou Benito Mussolini lui-même. Les discussions sont techniques et ultra-confidentielles. Hedy se tait et écoute. Elle apprend ainsi que la marine allemande tente de développer un système de torpilles téléguidées. L’enjeu : éviter que la fréquence utilisée pour diriger l’engin soit détectée par l’ennemi. Comme une espionne, Hedy mémorise les informations. Mais à la table des fascistes qui fourbissent leurs armes, elle a compris autre chose : la guerre est inéluctable. En tant que femme juive, elle a intérêt à fuir rapidement. Début 1937, en pleine nuit, Hedy vole la voiture d’un domestique et fonce vers la liberté. Elle a alors 23 ans et trouve refuge à Londres. Elle rencontre Louis B. Mayer, le très influent producteur de la Metro Goldwyn Mayer qui lui propose sur-le champ un contrat. Installée à Los Angeles, elle enchaîne les rôles d’héroïnes mystérieuses. Le public est sous le charme. Les salles de cinéma sont pleines. Mais la vraie passion d’Hedy, ce sont les inventions. Elle imagine sans cesse des concepts audacieux. Elle élabore notamment un soda déshydraté sur le principe du bouillon cube. Son grand projet lui vient directement des discussions auxquelles elle a assisté chez Mandl. Elle décide de mettre au point le système de torpilles téléguidées envisagé par les Allemands. Son idée : le « saut de fréquence ». Pour éviter que le signal radio guidant la torpille ne soit intercepté, il faut changer en permanence de fréquence. Pour cela, elle cherche à synchroniser l’émetteur (qui lance la torpille) et le récepteur (la torpille elle-même). Pour concrétiser son intuition, Hedy contacte George Antheil. Ce musicien, touche-à-tout de génie, a poussé très loin les techniques de synchronisation des instruments mécaniques. Ensemble, ils se mettent au travail en août 1940. Pour situer Antheil, il composa en 1925 le Ballet mécanique, une œuvre musicale écrite pour seize pianos mécaniques, un xylophone, un tam-tam, sept sonnettes, mais aussi trois hélices d’avion et de nombreuses percussions. Bref, dadaïste et futuriste. Le 11 août 1942, Lamarr et Antheil dépose le brevet d’un système secret de communication applicable aux torpilles radioguidées qui permettait au système émetteur-récepteur de la torpille de changer de fréquence, rendant pratiquement impossible la détection de l'attaque sous-marine par l'ennemi. Bien que le système développé par Lamarr et Antheil n'ait pas été utilisé pendant la guerre, la technologie du saut de fréquence a été revisitée et mise en œuvre en 1959, notamment dans les communications militaires et civiles modernes, comme le Wi-Fi et le Bluetooth. Le saut de fréquence est devenu une partie essentielle de la sécurité et de la robustesse des systèmes de communication sans fil actuels. Hedy Lamarr aurait inspiré le personnage de Catwoman, créé en 1940. Si couper un câble est réalisable par un pays qui en aurait la volonté et les moyens techniques, couper plusieurs centaines de câble pour faire s’effondrer internet paraît beaucoup plus difficilement réalisable. Faire s’effondrer l’internet aurait des répercussions considérables sur l’ensemble de l’économie mondiale. On peut considérer que ce type d’attaque serait une sorte de jeu à somme nulle pour l’ensemble des protagonistes. L’internet a un autre talon d’Achille : les serveurs DNS. On l’a vu précédemment, le serveur DNS est comme un répertoire téléphonique d'Internet. Son rôle principal est de traduire les noms de domaine que nous utilisons en adresses IP numériques que les ordinateurs comprennent. On les appelle aussi résolveurs DNS. Si cet annuaire DNS n’est plus consultable, la navigation sur internet devient impossible. Il existe 13 serveur DNS «racine» répartis dans le monde : - 10 aux États-Unis - 1 en Suède - 1 au Pays-bas - 1 au Japon Lorsque vous utilisez internet, vous ne sollicitez pas directement ces serveurs DNS, car les FAI (Orange, SFR, Free, etc.) possèdent leurs propres serveurs DNS qui sont une copie conforme des serveurs «racines». Ces serveurs DNS sont automatiquement enregistrés dans la configuration de vos appareils informatiques lors de l’installation de votre Box internet ou de votre carte SIM. Il est cependant possible « d’empoisonner » un serveur DNS de FAI (en anglais, on dit DNS Spoofing ou DNS Cache Poisoning). L'objectif de cette attaque est de rediriger les utilisateurs·trices vers des sites web falsifiés ou malveillants en remplaçant les adresses IP légitimes associées à des noms de domaine par de fausses adresses IP. Le site web malveillant peut par exemple vous proposer de télécharger un fichier qui contiendra un virus, ou bien de vous proposer de fausses informations. La technique du DNS menteur est utilisée par des régimes autoritaires (Corée du Nord, Iran, Russie, Chine) qui souhaitent contrôler l’accès de ses populations à certaines informations. Lors des Printemps arabes de 2010 et 2011 (Tunisie, Algérie, Jordanie, Égypte, Libye, Syrie) certains gouvernements ont été capables de restreindre une partie de l’accès à internet, mais sans pour autant réussir à couper complètement l’accès aux réseaux sociaux. Il existe un moyen simple de contourner un serveur DNS menteur : utiliser un serveur DNS « public » (opérés par des entreprises, des associations ou des particuliers et qui ne sont pas modérés). Google DNS : Adresse IPv4 primaire : 8.8.8.8 Adresse IPv4 secondaire : 8.8.4.4 Cloudflare DNS : Adresse IPv4 primaire : 1.1.1.1 Adresse IPv4 secondaire : 1.0.0.1 OpenDNS : Adresse IPv4 primaire : 208.67.222.222 Adresse IPv4 secondaire : 208.67.220.220 Quad9 DNS : Adresse IPv4 primaire : 9.9.9.9 Darknet, TOR, Deepweb, VPN et DNS menteurs Ou comment passer pour un·e hackeur·euse pour briller dans les soirées mondaines… Le darknet (ou web clandestin) est un terme utilisé pour décrire une partie d'Internet qui est cachée et n'est pas accessible à travers les navigateurs web classiques comme Google Chrome ou Mozilla Firefox. Le darknet est composé de sites web et de services en ligne qui sont cachés, anonymes et souvent inaccessibles via les moteurs de recherche traditionnels. Ces sites web ne portent pas de noms de domaine courants comme ".com" ou ".fr" ; ils utilisent des noms de domaine spécifiques, tels que ".onion". Pour accéder au darknet, les utilisateur·trice·s doivent utiliser un navigateur spécialisé, tel que Tor (The Onion Router). Tor permet de naviguer de manière anonyme en faisant rebondir les connexions à travers différents serveurs dans le monde, de façon aléatoire, masquant ainsi l'identité et la localisation de l'utilisateur. Le darknet est souvent associé à des activités illicites, telles que la vente de drogues, d'armes, de données volées, etc. Cependant, il est important de noter que le darknet est également utilisé par des personnes soucieuses de préserver leur vie privée, de contourner la censure gouvernementale, ou de s'engager dans des discussions sensibles et confidentielles. En résumé, le darknet est une partie cachée et anonyme d'Internet, accessible uniquement via des outils spécifiques, et qui est souvent utilisée pour des activités controversées, mais qui peut également servir à des fins légitimes de protection de la vie privée et de liberté d'expression. Un exemple : la BBC possède un site sur le darknet, permettant ainsi aux citoyens de certains pays d’accéder à des actualités « non filtrés ». Silk Road «Silk Road» signifie «La Route de la Soie» en français. Site de commerce en ligne qui a opéré de 2011 à 2013 sur le darknet Créé par Ross Ulbricht sous le pseudonyme «Dread Pirate Roberts» On y trouvait principalement des produits illégaux, notamment des drogues de toutes sortes, des médicaments sur ordonnance sans prescription et des faux documents d’identité. Le site avait interdisait la vente d'armes, de contenus pédopornographiques, de cartes bancaires volées et de services d'assassinat. Le site n'était accessible que via le réseau Tor ; Les transactions se faisaient en Bitcoin pour garantir l'anonymat ; Il fonctionnait comme une place de marché, similaire à eBay, avec un système d'évaluation des vendeurs ; Le site a rapidement généré un important volume de transactions, le FBI estimant que le site a généré plus de 1,2 milliard de dollars de transactions entre 2011 et 2013. ; Il prélevait une commission sur chaque ; En 2013, il comptait environ 13 000 annonces de produits. Le FBI a fermé le site en octobre 2013 Ross Ulbricht a été arrêté à San Francisco et il a été condamné en 2015 à la prison à perpétuité. Les autorités ont saisi des millions de dollars en Bitcoin. Le Bitcoin C’est une monnaie numérique, créée en 2009, qui fonctionne sans banque centrale ni administrateur unique. C'est un peu comme de l'argent sur Internet, mais qui n'est pas contrôlé par les gouvernements ou les banques. Il est possible d’envoyer des Bitcoins directement à quelqu'un d'autre, comme on enverrait un email. Les transactions sont sécurisées par des techniques de cryptographie. Anonyme (ou plutôt pseudonyme) ; Disponible partout dans le monde ; Quantité limitée pour créer une rareté artificielle ; Valeur qui décroit au fil du temps. Le Bitcoin : une philosophie libertarienne : Absence de contrôle gouvernemental ; Pas de banque centrale qui régule ; Liberté totale des échanges ; Protection de la vie privée ; Responsabilité individuelle. Attention : beaucoup de promesses, peu de garanties, et il faut être très prudent avec les « vendeurs de rêve » qui présentent ça comme un moyen infaillible de s'enrichir. Le deep web Le deep web (ou web profond) est une partie d'Internet qui est souvent mal comprise. Imaginez Internet comme une immense bibliothèque virtuelle. La partie que tout le monde connaît et utilise régulièrement, comme les moteurs de recherche (Google, Bing, etc.) et les sites web publics que vous pouvez visiter en utilisant un navigateur (comme les sites d'actualités, les réseaux sociaux, les boutiques en ligne, etc.), correspondraient aux livres et aux ressources situées sur les étagères bien en évidence de la bibliothèque. C'est ce que l'on appelle le surface web. Cependant, la bibliothèque a également des archives, des réserves spéciales et des salles de stockage souterraines qui ne sont pas accessibles au grand public. Ces endroits contiennent des informations précieuses, mais pour y accéder, vous avez besoin d'une autorisation spéciale, d'une clé ou d'une connaissance particulière : c’est l’équivalent du deep web. Le deep web ou Web profond, englobe l’ensemble des pages et des contenus non indexés par les moteurs de recherche classiques. Souvent comparé à la partie immergée d’un iceberg, en opposition à l’internet de surface que nous utilisons au quotidien, il représente une écrasante majorité des contenus du Web. Il abrite ainsi des bases de données scientifiques, des systèmes bancaires en ligne, des espaces privés de réseaux sociaux, ou encore des intranets d’entreprises et d’associations. Il est important de noter que la plupart des données du deep web ne sont pas illégales ni dangereuses. Elles sont simplement hors de portée des moteurs de recherche classiques. Ce n'est pas nécessairement mauvais en soi, mais il convient de comprendre qu'il existe différentes couches d'Internet au-delà de ce que nous voyons habituellement en utilisant des moteurs de recherche. Et donc, puisque le deep web est la partie du web non référencé, il y a une question sous-jacente : comment fonctionne un moteur de recherche ? Pour référencer le contenu du web, les moteurs de recherche utilisent des robots d'indexation, également connu sous le nom de web crawler ou de spider bot. Le web crawler, c’est un programme informatique qui parcours automatiquement et lit systématiquement les pages web afin de les indexer, pour que les moteurs de recherche présentent des pages web à jour et pertinentes aux utilisateurs·trices qui lancent une recherche via leurs moteurs de recherche favoris. Quelques bots (et leurs petits noms) GoogleBot (Google) ; Bingbot (Bing) ; Slurpbot (Yahoo) ; DuckDuckBot (DuckDuckGo) ; Facebot (Facebook) ; Alexa Crawler (Amazon). Le VPN (Virtual Private Network) Un VPN, ou Réseau Privé Virtuel (Virtual Private Network en anglais), est un service qui permet de créer une connexion sécurisée et chiffrée entre votre appareil (comme un ordinateur, un smartphone ou une tablette) et un serveur « proxy » qui est situé dans un emplacement géographique différent. Un serveur «proxy» sert de passerelle entre le web et votre appareil. Ce serveur peut être situé n’importe où dans le monde. Il possède une adresse IP qui est attribuée à ce pays. Puisque les mots ont un sens, posons d’abord quelques termes : on dit chiffrer et pas crypter. Chiffrer, c’est l’action de procéder à un chiffrement. Déchiffrer, en informatique et en télécommunications, c’est retrouver le texte original d’un message chiffré dont on possède la clé de (dé)chiffrement. Décrypter, c’est retrouver le texte original à partir d’un message chiffré sans posséder la clé de (dé)chiffrement. Décrypter ne peut accepter d’antonyme (crypter) : il est en effet impossible de créer un message chiffré sans posséder de clé de chiffrement. Comment fonctionne un VPN ? Établissement de la connexion : Lorsque vous activez un VPN, votre appareil établit une connexion sécurisée vers un serveur VPN distant. Vous utilisez alors le serveur DNS de ce VPN, plutôt que celui de votre FAI. Chiffrement des données : Toutes les données qui circulent entre votre appareil et le serveur VPN sont chiffrées. Cela signifie que même si quelqu'un intercepte ces données, elles seront illisibles sans la clé de déchiffrement appropriée. Masquage de l'adresse IP : Votre adresse IP réelle, qui est fournie par votre FAI et qui est normalement utilisée pour identifier votre emplacement sur Internet, est masquée. Au lieu d'utiliser votre propre adresse IP, les sites web et services en ligne verront l'adresse IP du serveur VPN. Tunnel sécurisé : Une fois que la connexion VPN est établie, toutes vos données Internet (navigation web, téléchargements, communications en ligne, etc.), passent par un «tunnel sécurisé» entre votre appareil et le serveur VPN distant. Serveurs VPN distants : Les fournisseurs de VPN ont des serveurs dans différents endroits à travers le monde. Vous pouvez généralement choisir le serveur vers lequel vous souhaitez vous connecter. Le choix du serveur peut influencer votre emplacement apparent en ligne. Contournement de la censure et de la géo-restriction : En se connectant à un serveur VPN situé dans un autre pays, les utilisateurs·trices peuvent contourner la censure gouvernementale ou les restrictions géographiques imposées par certains services en ligne. Le VPN vous permet d’utiliser une adresse IP qui vous permet d’accéder à des sites web ou à des contenus qui ne sont normalement pas disponibles dans votre pays d’origine. Protection de la vie privée : Un VPN ajoute une couche de confidentialité à votre activité en ligne. Les tiers, tels que votre FAI ou les annonceurs en ligne, ne peuvent pas suivre vos activités de manière aussi précise, car ils ne voient que l'adresse IP du serveur VPN. Sécurité Wi-Fi publique : Lorsque vous utilisez un réseau Wi-Fi public (comme dans un café, un aéroport ou celui de l’université), un VPN peut protéger vos données des risques potentiels de piratage en chiffrant votre connexion. Il est important de noter que tous les VPN ne sont pas égaux, et la qualité du service peut varier en fonction du fournisseur. Certains VPN gratuits peuvent avoir des limitations en termes de vitesse et de sécurité, tandis que les VPN payants offrent généralement une meilleure performance et une plus grande variété de serveurs. Il est recommandé de choisir un VPN réputé si vous avez des besoins de sécurité ou de confidentialité en ligne importants. Messageries chiffrées Signal/WhatsApp/Telegram (Ou comment fonctionne le chiffrement asymétrique) Lorsque vous installez Signal, WhatsApp ou Telegram, l’application génère automatiquement une paire de clés : une clé publique et une clé privée, liées par le même calcul mathématique. La clé publique permet de chiffrer un message qu’on souhaite vous envoyer. La clef privée permet de déchiffrer ce message, qui est donc illisible sans cette clef. Imaginez que vous avez une boîte verrouillable et que vous voulez permettre à des gens de vous envoyer des messages en toute sécurité. Vous décidez de distribuer cette boîte à tout le monde. C’est comme si vous disiez à tout le monde : “Voici ma boîte ouverte. Vous pouvez y mettre un message, puis la verrouiller avec ma clef publique.” Cependant, une fois la boîte fermée avec ce verrou, seule la clef privée que vous possédez peut l’ouvrir. C’est comme si vous gardiez cette clé dans un endroit très sécurisé. Vous êtes la seule personne capable d’ouvrir la boîte et de lire le message. Telegram, en revanche, n’utilise pas par défaut le chiffrement de bout en bout pour toutes les conversations. Il y a deux types de conversations possibles : a) Conversations régulières (non chiffrées de bout en bout). Les messages dans les conversations régulières sont chiffrés entre votre appareil et les serveurs de Telegram (chiffrement client-serveur). Cependant, Telegram peut techniquement accéder aux messages stockés sur ses serveurs, car ceux-ci ne sont pas chiffrés de bout en bout. Cela signifie que, en théorie, Telegram pourrait lire vos messages. b) Conversations secrètes (chiffrées de bout en bout) Pour bénéficier du chiffrement de bout en bout sur Telegram, vous devez activer l’option “Conversation secrète” avec un contact. Dans ce cas, Telegram utilise le chiffrement asymétrique similaire à Signal et WhatsApp, où les messages sont chiffrés sur l’appareil de l’expéditeur et ne peuvent être déchiffrés que par l’appareil du destinataire. Différences principales entre ces applications : Signal : Chiffrement de bout en bout activé par défaut pour tous les messages, avec une forte priorité sur la confidentialité. Toutes les données, y compris les appels et les pièces jointes, sont chiffrées. WhatsApp : Utilise également le chiffrement de bout en bout par défaut, mais appartient à Meta (Facebook), ce qui peut soulever des questions sur la gestion des méta données (informations sur qui communique avec qui). Telegram : Ne chiffre pas de bout en bout les conversations régulières, mais propose des conversations secrètes pour ceux qui souhaitent plus de confidentialité. Le référencement des moteurs de recherche Le référencement des moteurs de recherche sur Internet est un processus complexe qui permet aux moteurs de recherche, tels que Google, Bing, Yahoo, et d'autres, de trouver, d'indexer et de classer les pages web en fonction de leur pertinence pour les requêtes des utilisateurs·trices. Les étapes clés de ce processus Exploration (Crawling) : Les moteurs de recherche utilisent des programmes automatisés appelés «robots d'exploration» ou «spiders» pour parcourir le web. Ces robots suivent les liens hypertextes d'une page à l'autre, en passant de site en site pour découvrir de nouvelles pages. Les robots d'exploration identifient également les mises à jour sur les pages déjà indexées et vérifient les modifications. Indexation : Une fois qu'une page web est découverte, elle est analysée par le moteur de recherche pour comprendre son contenu. Les moteurs de recherche extraient des informations telles que les mots-clés, les balises HTML, le texte, les images, les liens, etc. Ces informations sont ensuite stockées dans une (énorme) base de données appelée «index». Analyse de la pertinence : Lorsqu'un utilisateur effectue une recherche, le moteur de recherche analyse la requête pour comprendre ce que l'utilisateur recherche. Il compare ensuite la requête aux informations stockées dans son index pour trouver les pages web les plus pertinentes en fonction de plusieurs facteurs, notamment la correspondance des mots-clés, la qualité du contenu, la popularité du site, etc. Classement (Ranking) : Les moteurs de recherche utilisent des algorithmes de classement pour attribuer un score à chaque page en fonction de sa pertinence par rapport à la requête de l'utilisateur. Les pages les mieux classées sont affichées en haut des résultats de recherche. Le classement est basé sur des centaines de facteurs, dont certains sont gardés secrets par les moteurs de recherche pour éviter la manipulation. Affichage des résultats : Les résultats de recherche sont présentés à l'utilisateur sous forme de liste de liens (appelée «page de résultats »). Les moteurs de recherche affichent les résultats les plus pertinents (en fonction de leurs algorithme) en haut de la page. Exploration continue : Les moteurs de recherche répètent constamment le processus d'exploration, d'indexation et de classement pour mettre à jour leur index et fournir des résultats à jour. Il est important de noter que le référencement naturel (SEO : Search Engine Optimization) est un domaine qui vise à optimiser les pages web pour les moteurs de recherche. Les propriétaires de sites web utilisent diverses techniques pour améliorer la visibilité de leurs pages dans les résultats de recherche organiques (non payants). Le SEO inclut l'optimisation du contenu, des balises HTML, de la structure du site, et d'autres éléments pour augmenter les chances d'un meilleur classement dans les moteurs de recherche. La protection numérique (ou comment se prémunir contre la haine en ligne) L ‘anonymat sur internet (Qui n’existe pas)) Internet pas d’anonymat mais pseudonymat ➔ Afficher identité réelle est un risque sur pour la vie privée et la sécu Quelques dangers potentiels si divulgation réelle de notre identité = 1) Vol d’identité = si obligation de donner nos infos → filigrane.beta.gouv.fr pour rajouter un filigrane à nos docs et sécuriser les envois = ne peut pas être utilisé par un autre usage que celui indiqué. 2) Harcèlement en ligne = harcèlement de rue : Applis pour tenter de s’en protéger : Umay : pour trouver un endroit où se réfugier ou encore Sekura : sécurité des femmes 3) Piratage de compte = ne pas utiliser le même mdp of course = générer des mdp fort par un gestionnaire de mdp gratuit keepass. Une menace sur les clefs de chiffrement : Un ordinateur quantique est un type d'ordinateur qui utilise les principes de la mécanique quantique pour effectuer des calculs. Cela leur permet d'effectuer certains types de calculs beaucoup plus rapidement que les ordinateurs classiques, notamment dans des domaines comme la cryptographie. Doit être maintenue à température basse, pour cela, l'ordinateur quantique est équipé d'un système de refroidissement complexe qui ressemble à un grand chandelier métallique suspendu, qu'on appelle souvent « lustre quantique ». Activer l'authentification à deux facteurs (2FA) = créa d’une deuxième étape de vérification après avoir entré votre mot de passe. 4) Publicités ciblées et suivi = Cookies de votre navigateur internet, Moteur(s) de recherche que vous utilisez, Vos (éventuels) profils de réseaux sociaux. Cet ensemble constitue un puissant aspirateur à données. Quand c’est gratuit = nous le produit Databrokers (courtiers de données). Sans surprise, les deux sociétés les plus connues sont Meta et Alphabet On peut tout savoir lorsqu’on est sur META : données de navigation, donnée de localisation, données persos d’inscription, données sociales, données techniques, données multimédias. L’identifiant publicitaire : Chaque smartphone est associé à un identifiant publicitaire unique, il permet aux annonceurs de nous suivre d’une application à l’autre. Une fois cet identifiant créé, il est souvent partagé avec des réseaux publicitaires qui gèrent les publicités diffusées sur ces applications. Le «fingerprinting» : méthode qui utilise les caractéristiques uniques de l’appareil (modèle ou encore navigateur) pour créer une «empreinte numérique» qui permet de nous suivre sans utiliser de cookies ou d’identifiants publicitaires classiques. Cela rend le suivi plus difficile à bloquer. Courtage de données : entreprises qui collectent les données et peuvent les revendre ou les échanger avec les sociétés de pub ou des courtiers en données = permet de créer des profils détaillés des utilisateurs, incluant leurs habitudes de navigation, mais aussi leurs déplacements dans le monde réel. ➔ Pub qui utilisent connexions wifi ou bluetooth pour nous suivre → infos peuvent être utilisées pour suivre nos mouvs dans ces espaces (publics ou privés) La protection des données et les régulations RGPD (Europe) et CCPA (Californie) : Des régulations comme le RGPD en Europe et le CCPA en Californie ont été mises en place pour protéger les utilisateurs. Elles imposent aux applications de demander explicitement la permission avant de collecter certaines données et permettent aux utilisateurs de contrôler l’accès à leur localisation et à leurs données personnelles. Les défis posés par le ciblage publicitaire Avril 2022 aux États-Unis, dans l’état du Nebraska : Un prêtre américain accuse l’application de rencontres gay Grindr d’avoir rendu publiques des données personnelles à son sujet. En 2021, un média catholique américain, The Pillar, a découvert son profil Grindr et l’a divulgué, poussant le diocèse à demander la démission du prêtre. The Pillar a reçu les informations depuis le Catholic Laity and Clergy for Renewal (CLCR), une organisation à but non lucratif de Denver visant à « soutenir l’engagement du clergé catholique à vivre selon l’enseignement de l’Église ». Cette dernière a reconnu avoir acheté ces «publiques » de manière « ordinaire ». Grindr aurait vendu ces données de Burrill entre 2017 et 2021 à des entreprises et des fournisseurs de données Le RGPD (Le règlement général sur la protection des données) Depuis le 25 mai 2018, le RGPD (règlement général sur la protection des données) s’applique et établit des règles sur la collecte et l’utilisation des données personnelles sur le territoire français. Conçu autour de trois objectifs : - Renforcer les droits des personnes ; - Responsabiliser les acteurs traitant des données ; - Crédibiliser la régulation grâce à une coopération renforcée entre les autorités de protection des données des pays européens. Concrètement, le RGPD gère le consentement aux cookies = sur internet, sert à stocker des informations sur l’utilisateur·trice. Accepter cookie = partager ses données persos refuser cookie = préserver ses données persos Une conséquence concrète de la RGPD : applications qui deviennent payantes comme Facebook ou Instagram gratuites avec pub ou payante sans pub Modèle éco de Facebook = suivre nos activités en ligne et diffuser de la publicité ciblée. Depuis 2018, et le RGPD, l'Union européenne oblige toute plateforme à obtenir le consentement pour pister les utilisateurs·trices. Meta devra simplement convaincre que ses tarifs sont abordables… Facebook trouve : l'intérêt légitime. Pour Facebook, vous pister et vous diffuser de la publicité ciblée est inhérent au fonctionnement de sa plateforme. 5 ans de pratique illicite tout de même !!!!! Le 4 juillet 2023, la Cour de justice de l'Union européenne explique que Facebook peut parfaitement fonctionner sans vous diffuser une publicité Car dans son jugement, la Cour de justice de l'UE ouvre en même temps une brèche = explique qu'un consentement pourra être considéré comme valide même si l'alternative implique de vous demander de payer une somme « appropriée ». En gros, la stratégie du « tu paies ou tu pars » serait légale. Et c'est là qu'intervient l'offre payante. Ceci explique pourquoi Facebook vous demande votre consentement pour vous pister. Et si vous ne le voulez pas, l'alternative sera de payer un abonnement mensuel/annuel.. Oui, c'est censé être un consentement « libre et éclairé », avec une carte de crédit comme moyen de pression. Pour faire simple : celles et ceux qui ne veulent pas être pistés devront paier pour protéger leur vie privée 10 euros par mois. La « CNIL irlandaise » pourrait donc forcer Meta à baisser le prix de son abonnement, estimant que cette somme n’est pas appropriée par rapport aux services rendus. Une nouvelle bataille juridique à suivre ? Le dispositif FR Alert (Pour quand c’est la catastrophe) ➔ Système d’alerte d’urgence basé sur la diffusion cellulaire. ➔ Toute personne se trouvant dans une zone géographique concernée par une alerte et connectée à une antenne cellulaire, recevra une notification sur son téléphone en cas de danger majeur accompagnée d’un signal sonore spécifique, et ce, même si le téléphone portable est en mode silencieux. ➔ Système FR Alert est automatiquement activé pour ces téléphones. ➔ Les événements justifiant d'alerter les populations : Événements naturel, Événements biologiques et, Événements, Événements technologiques et industriels, Évènement grave de sécurité publique, acte à caractère terroriste. Désinformation en ligne (Parce que la protection numérique, c’est aussi éviter d’ingurgiter n’importe quoi…) = Astroturfing → Désinformation politique et manipulation d'opinion publique → origine de la pelouse artificielle de la marque AstroTurf utilisée dans les stades = jeu de mots « grassroots movement » = racine de l’herbe = idée d’authenticité, d’ancrage dans le peuple dénonce l’analogie artificialité de ces mouvs citoyens. L’astroturfing = stratégie de communication dont la source réelle est occultée et qui prétend à tort ²être d’origine citoyenne. L’astroturfing se réalise à travers une panoplie de moyens de communication (web, documents imprimés, création d’un faux groupe d’intérêts, sollicitation frauduleuse d’appuis à une cause, etc.) qui laissent entendre qu’ils sont d’origine citoyenne et/ou qu’ils défendent les intérêts des citoyen·nes. Ils sont plutôt l’œuvre d’un autre acteur, gardant secrète sa réelle identité et ayant son propre agenda non avoué publiquement Quelques exemples : La Chine et son «internet water army» ; La campagne électorale américaine de 2022 ; Les étoiles de David peintes sur les murs de Paris en novembre 2023. En République populaire de Chine, le Parti communiste chinois emploie une armée de ghostwriters payés pour publier des commentaires en ligne. Avec cette technique d’astroturfing appliqués aux relations publiques et à la manipulation des médias, le PCC emploient des gens pour faire des annonces sur les médias sociaux afin de changer l’opinion publique Les opérations privées de Wangluo shuijun sont parallèles aux commentateurs officiels du parti propagandiste 50 Cent, recrutés par le gouvernement de la République populaire de Chine ou le Parti communiste chinois. Le nom chinois combine le mot moderne wangluo 网络 (lit. « internet ») qui signifie « réseau, Internet, le Net » avec le terme archaïque shuijun 水 军 (lit. «Armée navale» d’où la traduction «armée de l’eau ». Cette métaphore de «l’armée de l’eau » fait référence au « grand nombre de gens qui sont bien organisés pour inonder l’internet avec des commentaires et des articles à dessein». Le parti de 50 cents de la Chine (nommé à partir du paiement de 0,5 yuans par affichage) forme et emploie des dizaines de milliers de commentateurs en ligne pour promouvoir la ligne du PCC et contrôler l’opinion publique sur les microblogs, les systèmes de forums et les chatrooms Commenter, moquer, parodier, harceler en masse. Basée à Saint-Pétersbourg, l’Internet Research Agency (IRA) était chargée de prendre d’assaut les plateformes de communication en ligne, réseaux sociaux, plateformes de vidéos ou sites internet de médias, en les noyant de commentaires, vidéos et mèmes, et d’organiser des rassemblements dans des États tiers. Des objectifs clairs, qui lui ont valu le surnom d’« usine à trolls ». L’IRA est toutefois bien plus qu’un regroupement d’activistes sur les réseaux sociaux. Très structurée, elle bénéficiait d’un soutien financier de taille, l’homme d’affaires Evgueni Prigozhine, présenté comme proche de Vladimir Poutine, ayant fait fortune dans la restauration. Evgueni Prigozhine a aussi bâti sa fortune sur de nombreux contrats avec le ministère de la Défense russe et finance la société militaire privée Wagner, qui a envoyé des combattants en Syrie, dans le Donbass, en République centrafricaine et en Ukraine. Les journalistes décrivent une organisation divisée en équipes chargées de différentes formes d'activités en ligne, principalement sur VKontakte et LiveJournal. À la suite du piratage des serveurs du Comité national du Parti démocrate américain au cours de l’été 2016, éclate un scandale autour de la possible ingérence de la Russie dans les élections présidentielles américaines. La Russie est accusée d’avoir cherché à influencer les citoyens américains en faveur de Donald Trump, notamment via une intense campagne sur les réseaux sociaux menée par différents types d’acteurs. Ainsi, quelque 126 millions d’Américains auraient été exposés à des contenus pro-russes (publications ou contenus sponsorisés) en 2016, d’après les déclarations du fondateur de Facebook, Mark Zuckerberg lors de son audition devant le Comité d’enquête du Sénat le 30 octobre 2017. Le réseau social estime à 80 000 le nombre de publications émises entre janvier 2015 et août 2017 par 120 pages Facebook possiblement gérées par des employés de l’IRA Les contenus de l’IRA auraient également été vus par 20 millions d’utilisateurs d’Instagram, exposés à quelques 120 000 publications. La présence de l’IRA s’étend aussi à Twitter. Le 30 octobre, le réseau social de microblogging a publié un document de 65 pages recensant 2 572 comptes – aujourd’hui désactivés – présentés comme liés à l’IRA. Cette publication est suivie en janvier 2018 par un article de blog où Twitter annonce avoir informé 1,4 million d'utilisateurs qu’ils auraient été « exposés » à des contenus créés par des trolls russes au cours de la campagne présidentielle américaine. Impossible cependant de déterminer si l’IRA a réellement contribué à faire élire Donald Trump, contrairement à un postulat largement repris aux États-Unis. En France, un couple a été interpellé le 27 octobre 2023 pour avoir tagué 15 étoiles à l'aide de pochoir dans le 10e arrondissement de Paris. Le 6 novembre 2023, VIGINUM, service technique et opérationnel de l’État chargé de la vigilance et de la protection contre les ingérences numériques étrangères, a détecté l’implication d’un réseau de 1095 bots sur la plateforme X (anciennement Twitter), ayant publié 2589 posts contribuant à la polémique liée aux étoiles de David taguées. VIGINUM considère que ces bots sont affiliés au dispositif RRN/Doppelgänger dans la mesure où une de leurs activités principales consiste à réorienter vers des sites internet du dispositif RRN. En ce qui concerne la primo-diffusion des photos, alors que la première publication authentique des photos des tags semble être intervenue le 30 octobre à 19h37 sur X, VIGINUM a identifié les premières publications du réseau de bots RRN dès le 28 octobre, à partir de 19h24, soit près de 48h avant. RRN/Doppelgänger ? RNN pour Recent Reliable News (version russe) Ce nom est affilié à une galaxie de près de 355 pseudo-sites d'information destinés à manipuler l'opinion, en reprenant les arguments et les techniques de propagande historique du Kremlin. Ce réseau diffuse des informations en continu via des bureaux en Allemagne, en Italie, en Espagne et en Serbie. Selon leur page d'information, le site aurait publié plus de 3000 articles depuis mars 2022 et dans sept langues différentes, dont le français. Doppelgänger ? (version VIGINUM) Un Doppelgänger est un mot allemand signifiant «sosie» ou « double d'une personne vivante ». Il est présent dans la fiction, le folklore, ou encore dans la mythologie germanique et mythologie nordique. Il désigne le double fantomatique d'une personne vivante, le plus souvent un jumeau maléfique. (Celles et ceux qui ont marché dans les Royaumes oubliés de Donjons & Dragons savent…) Le hacking (bidouille et expérimentation) Jude Milhon = pionnière de la mouvance cypherpunk, estimait que « le hack est un contournement intelligent des limites imposées, que ces limites soient imposées par votre gouvernement, votre propre personnalité ou les lois de la physique ». Jude Milhon adhère au manifeste crypto-anarchiste : idée d’utiliser le chiffrement sur le réseau d’échange mondial, d’anonymiser les discussions privées, de tout diffuser à tout le monde, et de démanteler « le fil de fer barbelé qui entoure la propriété intellectuelle ». ➔ Les cypherpunks = groupe informel de personnes intéressées par la cryptographie. Leur objectif est d'assurer le respect de la vie privée par l'utilisation proactive de la cryptographie = genre de la science-fiction très apparenté à la dystopie et à la hard science-fiction. Le cyberpunk brosse un portrait sinistre et noir du monde qui serait alors entièrement dominé par des programmes informatiques et où les multinationales ont, pour la plupart, remplacé toute forme de gouvernement. 1956 : le phreak, c’est chic ? L’expression Phreaking a été créée en contractant les mots anglais Phone (téléphone) et Freak (marginal) Pour pirater un système, il faut d’abord comprendre comment il fonctionne. Le premier piratage que l’histoire à retenu ne concerne pas un ordinateur mais le réseau téléphonique Aux États-Unis, à partir des années 1950, si vous souhaitiez passer un appel « longue distance », il fallait passer par un serveur qui facturait l’appel beaucoup plus cher que si c’était un appel « local ». Pour signaler au serveur « longue distance » qu’il doit ouvrir une ligne pour établir une connexion entre deux téléphones, le système téléphonique utilise un son : le mi 6 qui correspond à un son d’une fréquence de 2600 Hz (très aigu, pas très agréable à entendre) Ce réglage est découvert par Josef Carl Engressia Jr. (aka Joybubbles), qui est à l’époque un petit garçon de 7 ans qui a deux particularités : il est aveugle et possède une oreille absolue. Son oreille absolue lui donne la capacité de reproduire un son (en sifflant) de façon parfaitement exacte. En sifflant un mi à 2600 Hz, Josef est donc capable de déclencher l’ouverture d’une communication longue distance sur un serveur téléphonique, qui de plus ne sera pas facturée ! Cette découverte incite le jeune Josef à chercher à mieux comprendre comment fonctionne le réseau téléphonique. Devenu adolescent, il était capable, en sifflant le bon son, de commander à distance un téléphone : couper un appel en cours, composer un numéro de téléphone, rejoindre une chatroom théoriquement réservé aux techniciens des opérateurs téléphoniques, écouter des conversations en cours, etc. Devenu quelques années plus tard étudiant à l’université de South Florida, il est surnommé le « siffleur » par ses camarades à qui ils proposent, pour 1$, de siffler dans un combiné téléphonique pour leur permettre de passer gratuitement leurs appels téléphoniques à longues distances pour appeler leurs familles. Il est arrêté en 1971 et se voit infliger une amende de 25$ 1969 : La Blue Box Puisqu’avoir l’oreille absolu et siffler correctement n’est pas à la portée de tout le monde, quelques phreakers vont mettre au point un appareil permettant d’imiter les sons nécessaires pour piloter un réseau téléphonique. Ce système va porter le nom de Blue Box et il aurait été inventé par John Draper et Denny Teresi. John Draper, connu également sous le nom Captain Crunch, est un étudiant en informatique. Denny Teresi est à l’époque disc-jokey sur une station de radio pirate. Il pratique aussi en amateur l’ingénieurie sociale (une forme de manipulation psychologique) qui va lui servir à infiltrer (par téléphone) les compagnies téléphoniques en se faisant passer pour un technicien. Pour l’anecdote, Teresi était lui aussi aveugle, il lui était difficile d’infiltrer une compagnie téléphonique autrement qu’à distance. Le surnom de Captain Crunch provient du nom d’une boîte de céréales pour petit-déjeuner de la marque Quakers qui a fourni, en 1968, un sifflet pour enfant. Certains Phreakers découvrent que ce sifflet était capable, sans que cela soit voulu par Quakers, de produire un son à 2600Hz permettant de communiquer avec certains serveurs téléphoniques. Captain Crunch et Joybubbles se sont rencontrés à la fin des années 60. Les créateurs des premières BlueBox sont en général des étudiant·es en informatique qui ont accès aux matériels nécessaires pour en construire.* Celle que vous voyez ci-dessous a été construite par deux phreakers dont les noms ne vous sont peut-être pas inconnus : Steve Wozniak et Steve Jobs (co-fondateurs d’Apple). En novembre 1971, le journaliste Ron Rosenbaum écrit un article sur la Blue Box pour le magazine Esquire. Le journaliste y dévoile une partie de leurs secrets de piratage et signe ainsi la fin du phreaking. Les hackers sont alors interrogés par le FBI et John Drapeur est arrêté pour fraude électronique. Il écope de quatre mois de prison. Les différentes formes d’attaques informatiques Hacking éthique : Aussi appelé «pentest» (test d'intrusion) ou bug bounty, le hacking éthique est effectué par des professionnels de la sécurité informatique pour identifier et corriger les vulnérabilités d'un système. Ces hackers ont l'autorisation explicite du propriétaire du système. L'objectif principal d'un programme de bug bounty est d'améliorer la sécurité en permettant à des experts en sécurité externes de détecter et de signaler des failles de sécurité avant que des pirates malveillants ne puissent les exploiter. Hacking par force brute : Cette méthode consiste à essayer de deviner un mot de passe en essayant différentes combinaisons jusqu'à ce que la bonne soit trouvée. C'est une attaque relativement simple mais peut être efficace si le mot de passe est faible. La parade : choisir un mot de passe fort (long) Hacking de réseau : Les hackers peuvent tenter de compromettre un réseau en exploitant des vulnérabilités dans les pare-feu, les routeurs, ou en effectuant des attaques de type «Man-In-The- Middle» pour intercepter le trafic. Hacking sans fil : Les attaques visant les réseaux sans fil incluent la capture de paquets, le détournement de sessions, le craquage de clés WEP/WPA, etc. La parade : utiliser un VPN Hacking de logiciel : Les hackers peuvent exploiter des vulnérabilités dans les logiciels pour prendre le contrôle d'un système. Cela peut inclure des attaques sur des applications web, des logiciels serveur, des systèmes d'exploitation, etc. La parade : mettre à jour son logiciel Hacking de site web : Les attaques sur les sites web visent souvent à compromettre la sécurité d'un site en exploitant des vulnérabilités dans le code, en effectuant des injections SQL, en contournant l'authentification, etc. La parade : mise à jour régulière Hacking social : Plutôt que de s'attaquer aux systèmes informatiques directement, les hackers sociaux manipulent les individus pour obtenir des informations confidentielles, telles que des mots de passe, en utilisant des techniques de persuasion ou d'ingénierie sociale. La parade : partager le moins possible d’informations personnelles en ligne et mentir si besoin Phishing : Une forme courante de hacking social, le phishing implique l'envoi de courriels ou de messages malveillants qui semblent légitimes pour inciter les utilisateurs à divulguer des informations sensibles. La parade : Adoptez une attitude prudente envers les emails, les messages et les communications inattendues. Soyez particulièrement méfiant envers les demandes urgentes ou les offres trop alléchantes. Hacking matériel : Les hackers peuvent exploiter des vulnérabilités au niveau matériel, en compromettant des dispositifs physiques tels que des cartes à puce, des caméras de sécurité, ou en effectuant des attaques sur des systèmes embarqués. La parade : mise à jour régulière du microgiciel qui commande le matériel. Exemple : l'attaque par relais sur un système d'accès sans clé d’une voiture Principe de base légitime : La voiture envoie constamment un signal pour détecter la présence Faille zero-day Lorsqu’une faille de sécurité ou vulnérabilité est considérée comme étant « zero-day », cela signifie que les cybercriminels ont déjà connaissance de cette faille de sécurité, qu’ils peuvent l’exploiter dans le cadre d’attaques, mais qu’elle n’est pas encore connue ni corrigée par l’éditeur d’un logiciel ou le fournisseur d’un produit informatique.

Use Quizgecko on...
Browser
Browser