jouvenot.com

La révolution numérique de demain Et les lendemains de la covid-19

Dans La révolution numérique de demain Et les lendemains de la covid-19, Jean-Marie Huet continue sa narration sur le monde d’aujourd’hui et de demain. Les pivots sont toujours les mêmes : la révolution numérique (déjà bien avancée, qui cédera prochainement le pas à une autre aventure de l’informatique quantique qui révolutionnera le calcul), et la Covid-19 en évolution vers une moindre virulence. Pour découvrir un peu mieux son livre, voici un extrait.

 

INTRODUCTION

Les années 2020-21 ont été marquées par une crise sanitaire mondiale de très grande ampleur (la Covid-19) et de facto, économique et sociale. Cette pandémie rappelle la force destructrice des virus qui ont traversé les siècles précédents. La première pandémie de l’histoire, la « PESTE de Justinien » a commencé à Péluse en 541 (VIème siècle) et s’essouffla complètement en 750. Ensuite, survint la « PESTE noire » (1347-1351) touchant 51 % de la population mondiale. Puis la « VARIOLE » au XVème siècle. Après, arriva le « CHOLÉRA » au XIXème siècle (Europe, Moyen-Orient, Amériques). Enfin, la « GRIPPE espagnole » au XXème siècle, appelée pandémie grippale de l’année 1918, apparut aux Etats-Unis provenant d’un virus aviaire (les oiseaux étant des réservoirs naturels d’un grand nombre de virus) et finit par s’éteindre dans la seconde moitié de l’année 1919. Toutes ces pandémies ont disparu grâce à la vaccination. De nombreuses autres maladies (rougeole, typhus, diphtérie …..) ont tué des dizaines de millions de personnes, et plus récemment le Sida-VIH en 1981 (toujours sans vaccin, mais avec de bons traitements) et la Covid-19 en cours.
Depuis bientôt deux ans, nous sommes tous bouleversés par ce fléau de santé publique. Chacun a vécu au rythme des divers confinements, vagues épidémiques et restrictions sanitaires. Cette pandémie semble moins meurtrière grâce aux progrès de la médecine et l’aide précieuse de l’informatique.
Cela m’a incité à reprendre la plume (sans tenir un journal de bord « trop contraignant », comme dans le tome III) afin de décrire l’évolution de cette situation interrogeante.
La première vague est apparue, en France, le 26 février 2019 où tout a très vite basculé, entraînant un confinement de 55 jours. Le déconfinement a eu lieu le lundi 11 mai suivant, avec libération inéluctable de beaucoup d’énergie étouffée. D’autres étapes similaires suivront et seront décrites dans le premier chapitre.
Une grande question prégnante traverse alors mon esprit : quelle est l’origine de ce SARS-Cov-2 ? Différentes hypothèses sont possibles et difficiles à prouver pour l’instant.
L’enquête de l’OMS, menée par une équipe de 14 experts arrivée à Wuhan (premier foyer de l’épidémie officiellement détecté) mi-janvier 2021, n’a apporté aucune réponse définitive sur l’origine de ce Coronavirus. Les conclusions de cette mission (10 février), présentées conjointement par les experts et leurs homologues chinois, lors d’une conférence de presse de trois heures, semblent entourées de confusion. Pourtant, l’équipe a travaillé sur quatre hypothèses :

– hyp 1 : une fuite dans un laboratoire (P4 de Wuhan) ou d’un centre de recherche chinois,
– hyp 2 : une transmission directe à l’homme par un animal,
– hyp 3 : une transmission de la source à l’homme par une espèce intermédiaire (pas la chauve-souris a priori, le pangolin ?),
– hyp 4 : une diffusion à travers la chaîne du froid.

 

 

 

Les experts de l’OMS ont été reçus très froidement (obligation de faire une quarantaine). L’officiel chinois s’est concentré sur l’hypothèse d’un virus arrivé au marché de poissons de Huanan (situé dans la ville de Wuhan) là où le virus a été détecté pour la première fois (via des produits congelés), ce qui conforte l’hypothèse suggérant que le virus est importé de l’étranger. Le chef du groupe de l’OMS n’a pas écarté cette hypothèse, mais parait plutôt pencher vers une transmission à l’homme par un animal (inconnu pour l’instant). Aucun élément ne prouve que la Covid-19 fût présente dans la ville chinoise avant décembre 2019. Ces échanges ont été peu convaincants (manque de transparence de la part de cette grande République populaire qui est un « État socialiste de dictature démocratique »). Il faudrait faire examiner l’origine de cette pandémie par des experts indépendants utilisant librement des méthodes scientifiques. Ouvrir la porte à la théorie d’une « origine extérieure » est une idée peu soutenue par la plupart des spécialistes internationaux. Et l’hypothèse selon laquelle le virus proviendrait d’un laboratoire chinois revient souvent en force (juin 2021), mais elle n’est pas démontrée pour l’instant. Les experts n’ont toujours pas trouvé d’hôte naturel (le Pangolin a eu bon dos). Ce Coronavirus serait-il le fruit d’une ingénierie génétique dans le laboratoire de virologie de Wuhan ? Savoir est essentiel pour se prémunir de futures pandémies. L’OMS a sollicité (janvier 2022) 26 « grands cerveaux scientifiques » du monde entier pour percer le mystère de cette pandémie. L’étau semble se resserrer de plus en plus sur la chauve-souris, qui pourrait transmettre directement ce type de virus à l’homme, sans animal intermédiaire. Effectivement, des recherches (septembre 2021, Institut Pasteur et université nationale) ont été menées sur 645 chauves-souris vivant dans des grottes calcaires du Laos (XIXème siècle), avec un relief similaire à celui de la Chine. Les chercheurs y ont découvert trois coronavirus, dont un similaire au « nôtre ». Cela ouvre de nombreuses questions : comment le virus aurait-il pu se diffuser ? Comment a-t-il pu quitter les reliefs calcaires du Laos pour émerger 2 500 km plus loin, en pleine mégalopole de Wuhan ? La présence d’un laboratoire P4 de virologie, à Wuhan, œuvrant sur les coronavirus n’est-il qu’une coïncidence ? Un lien avec l’activité du laboratoire ne peut être exclu. Une première hypothèse directe pourrait faire penser à la contamination d’un chercheur de ce laboratoire, qui l’aurait propagé dans la population lors de contacts en ville. Une deuxième, indirecte, pourrait supposer que des employés de laboratoire ont pu aller dans ces grottes laotiennes pour collecter des prélèvements puis seraient rentrés en famille, en étant infectés. Pour aller plus loin et avoir la preuve absolue, les chercheurs auraient besoin de données chinoises, qui pour l’instant, leur sont refusées. Il serait d’ailleurs souhaitable d’avoir une approche mondiale des pandémies, notamment par le biais de systèmes d’alerte facilement implantables, surtout maintenant grâce aux progrès du numérique et de l’Intelligence Artificielle. Cela pourrait déboucher sur un traité mondial, où les pays signataires s’engageraient à transmettre toutes les data dont ils disposent, et ainsi, permettre de détecter tout nouveau virus afin de mieux le combattre et empêcher éventuellement que cela se reproduise.

 

 

 

N’oublions pas que la plupart des maladies infectieuses humaines (rage, maladie de Lyme, SIDA, grippes) proviennent des zoonoses. Ces infections se transmettent des animaux vertébrés (la chauve-souris est le seul animal vertébré volant) à l’homme, et vice-versa ; les pathogènes en cause pouvant être des bactéries, des virus ou des parasites. La transmission se fait, soit directement lors d’un contact entre un animal et un être humain, soit indirectement par voie alimentaire ou par l’intermédiaire d’un vecteur (insectes, arachnides,…..). La modification de l’écosystème « homme/nature/animaux sauvages » rapproche de plus en plus l’homme vers ces animaux (déforestations abusives, braconnage pas assez réglementé, consommation de viandes en marché humide) et favorise inéluctablement ce type de maladies qui pourraient de nouveau émerger après cet épisode ineffaçable, si nous n’y prenons garde. Les chercheurs sont encore à la recherche des origines exactes de ce virus probablement zoonotique. Ils ignorent quels animaux ont servi de réservoir, voire d’hôte intermédiaire. Des scientifiques de l’Institut Pasteur au Laos et de l’université nationale de ce pays continuent leurs investigations. Il faut continuer à explorer tout le champ des possibles et comprendre à fond les raisons d’apparition de ce virus qui a secoué toute la planète.

 

 

J’aimerais reprendre tout cela, sans oublier la révolution numérique qui continue inexorablement son chemin et reste la trame essentielle de ces ouvrages (les data explosent, et l’IA s’infiltre partout). Ce tsunami des « données échangées par de nombreuses plateformes informatiques » serait difficile à traiter sans l’IA et il ne peut y avoir d’IA sans données, surtout en période pandémique où les informations médicales ont circulé librement… pour le bien de tous.

 

Passons directement au chapitre V

 

 

 

V. Le grand changement dû à la Covid : distanciel vs présentiel

▪ 5-1 Télétravail vs bureau

• Introduction
La crise sanitaire a constitué le moment idéal, en France, pour repenser les questions relatives à l’organisation du travail, à ses conditions d’exercice et à son sens. À l’impact de celle-ci, s’est ajouté celui de la transition écologique de plus en plus prégnant dans tous les esprits. L’avenir du télétravail (quand il est possible), et du travail en général, sera un grand défi de l’après-Covid à négocier avec les différentes parties concernées par le code du travail. Il risque d’être plus difficile que certains ne le pensent, maintenant, il va falloir choisir comment on peut travailler, et où l’on peut travailler. Le travail « hybride » est, actuellement, largement plébiscité et semble être le choix de prédilection pour de nombreux travailleurs. Cela risque d’être un cauchemar pour bien des entreprises (grandes et, surtout, les petites ?). D’un autre côté, cela est aussi, pour elles, le point de départ pour pouvoir réaliser des économies sur le dimensionnement de leur capacité d’occupation des bâtiments (quels espaces de travail vont-elles proposer, en mettant en place des routines d’équipes de travail rotatives, évitant leur concomitance). Doivent-elles insister pour retrouver le présentiel ? Comment renforceront-elles leur culture d’entreprise (base du management) ? Comment changeront-elles leurs modes de management (digitalisation accrue des process de cette fonction) ? Quels bureaux de plus en plus anonymes, utilisables par « tout un chacun », vont-elles privilégier (open space déjà pratiqué, flex office, co et coolworking, autres…, fin du « bureau personnel» fixe ouvrant la voie à un nouveau bureau « internetisé et anonymisé ») ? L’environnement de travail open space/flex office est clairement moins agréable a priori, une part de présentiel devrait rester obligatoire. Devront-elles innover jusqu’au point de créer des espaces ludiques, pour faire revenir les salariés au bureau ? Quelles implications auront tous ces changements sur le recrutement, les promotions et le déroulement de carrière (c’est probablement moins attractif pour les anciens, obligés de se mettre à jour en numérique) ? Cette transformation digitale des entreprises entraînera une autre répartition des dépenses en énergie électrique (qu’en sera-t-il alors de la sobriété, pourtant nécessaire : moins de dépenses pour les entreprises passées en flex office, mais la consommation est passée chez le salarié en télétravail qui, par contre, n’utilise pas la voiture), sans compter avec l’impact environnemental lié à l’obsolescence (programmée, ou non) des équipements informatiques. Le télétravail est-il vraiment très bénéfique pour l’environnement (émissions de gaz à effet de serre) ? Probablement, mais ce n’est pas si simple, si l’on prend en compte tous les paramètres (trajets en voiture, chauffage des appartements, visioconférence (une minute de visio émet 1 g de CO2)) qui mériteraient un bilan carbone. Il est maintenant facile de calculer son empreinte carbone (simulateur « Nos Gestes Climat » de l’Ademe, méthodes « Shift Project » et « Greenly »).

 

• Pas d’avenir pour le télétravail sans cybersécurité

Le premier confinement (mi-mars 2020) a bouleversé le monde du travail, et les travailleurs ont dû s’adapter à de nouvelles règles. Tout cela a changé les mentalités et les règles de travail. Le télétravail perdurera bien au-delà de la crise sanitaire, et ne deviendra pas un critère de recrutement (pour le moment, c’est plutôt une opportunité laissée à l’initiative du salarié). Mais les entreprises ont-elles instauré une stratégie globale concernant le tététravail de long-terme, qui doit associer convivialité « hybride » et sécurité informatique (les cyberattaques se sont multipliées, et seront inéluctablement en hausse dans les années à venir : voir le chapitre IV : Les cyberattaques, une deuxième pandémie inextirpable) ? De nombreuses petites, ou moyennes, entreprises utilisent encore des VPN (réseau privé virtuel, avec plusieurs solutions proposées) pour permettre à leurs collaborateurs d’accéder au système informatique depuis chez eux. À l’ère du « hackisme » de plus en plus professionnel et du « big data », cet outil créé pour une communication de confiance entre réseaux mérite des mesures d’attention renforcées. Nous sommes à l’heure du Cloud…ou de l’hébergement auprès de data-centers (publics ou privés). Selon l’ANSSI, la sécurité du télétravail devient une question de « périmètre de sécurité » entre le télétravailleur et son espace de travail. C’est un concept du « zéro trust », où l’idée est simple : ne faire confiance à personne. Cette stratégie de la méfiance absolue est un modèle de sécurité fiable, et semble être un concept intéressant (arrivé en retard), maintenant prêt à l’emploi. Si d’autres crises venaient à survenir, le télétravail devrait garantir la continuité d’activité et la survie des entreprises… à condition qu’il ne génère pas de grands risques de sécurité.

• Les avantages/inconvénients du télétravail
– les avantages
Pour le salarié : plus de liberté, de flexibilité pour s’organiser et aménager sa vie familiale et professionnelle. Le confort d’être chez soi libère de la pression hiérarchique : le management en France étant plutôt vertical, un rééquilibrage en faveur du télétravailleur pourrait peut-être s’opérer (faire moins de contrôle, faire plus confiance, mesurer l’impact, tout cela dans une bonne écoute des deux côtés). Cela relève d’une intelligence collective : les Français seraient plus attachés que les Anglo-Saxons aux signes statutaires (manque de liberté…on ne peut plus fermer la porte, certains cadres intermédiaires, en open space, peuvent ressentir un sentiment de déclassement).
Il économise du temps de transport (bon pour le climat), qu’il peut gérer efficacement. Il peut devenir un outil d’inclusion en gommant les inégalités salariales entre les femmes et les hommes, mais aussi en favorisant l’insertion des travailleurs handicapés au sein des entreprises. Il peut aussi permettre d’employer des personnes qui résident en province (loin des grandes villes), et qui ont un coût journalier moindre qu’en grande ville. Enfin, une piste intéressante est à explorer pour le temps de travail : la semaine de « 4 jours, 8h/jour » déjà expérimentée depuis la crise de la Covid. L’état n’imposera pas une telle mesure, ce sera à chaque entreprise de décider. C’est une transformation collective qui permet un bon équilibre entre travail et repos. Le travail ne changera pas, mais cela impliquera une bonne priorisation des tâches.

 

Pour l’entreprise : quand il n’est pas subi, de nombreuses études montrent clairement que le télétravail améliorerait la productivité des entreprises. Par exemple, organisations très performantes : + 42 %, organisations peu performantes : + 20 %, organisations en stagnation : + 25 % (source : Dell). De plus, l’entreprise va pouvoir restreindre ses locaux, pouvant réaliser une économie d’au-moins 3 m2 par collaborateur en distanciel. Il n’y aura plus de bureaux personnels, les nouvelles organisations de travail (flex office, coworking, « tiers lieux » équipés numériquement…), déjà très développées dans le monde anglo-saxon, vont se mettre en place. Bien évidemment, les entreprises veilleront à ce que ces structures ne soient pas désertées le lundi et le vendredi (risque de baisse de la productivité). Comment les entreprises vont-elles prévoir de réinvestir ces économies réalisées grâce au télétravail ? Les principaux domaines de réinvestissement devraient concerner d’abord les mises à niveaux technologiques (informatique, industrie 4.0), puis l’innovation, enfin les actions éventuellement destinées aux collaborateurs (diversité, équité…).

– les inconvénients
Pour le salarié : d’abord, disposer d’espaces adaptés pour télétravailler dans de bonnes conditions (pièce dédiée par personne, ce qui est difficile à concilier en grandes villes où le prix de l’immobilier est très élevé… d’où le refuge accentué à la campagne). Avoir un bon équipement informatique (en général : l’équipement de base est fourni par l’entreprise, les écrans supplémentaires (grand format) sont à la charge du télétravailleur), le plus sécurisé possible pour éviter les cyberattaques, et savoir utiliser avec une bonne aisance les outils numériques d’aujourd’hui (services de partage des documents, visioconférences, web caméra,…) est important. Avoir une bonne gestion de son temps entre vie familiale et travail sur ordinateur est fondamental. Il ne peut y avoir d’apprentissage sur le terrain. L’insuffisance d’interaction sociale ne convient pas à tous les sujets, et peut engendrer une dépendance numérique déjà installée dans la vie quotidienne (smartphones). Surveiller les risques psychosociaux (RPS) qui ne sont pas à sous-estimer au plan de la santé mentale. Être connecté pendant plusieurs heures par jour de suite, sans mobilité physique ou musculaire, peut à la longue entraîner des troubles cognitifs et psychologiques (stress, exposition à la lumière bleue, concentration trop intensive, burn-out, voir blurring (flou, effacement de la frontière entre vie privée et vie professionnelle)). Légalement, toutes les entreprises sont tenues de remplir un document unique d’évaluation des risques, théoriquement remis à jour chaque année. Le télétravail peut-il renforcer d’autres addictions (consommation de tabac, d’alcool…). Des médecins forment les managers à détecter les signaux d’alerte. Enfin, cette liberté de télétravail aura-t-elle des conséquences sur le salaire des pratiquants ? Aux USA, appliquée à la Silicon Valley…, les salaires peuvent être revus à la baisse selon le lieu de résidence. En France, pour l’instant, c’est juridiquement inapplicable (cela s’apparenterait à de la discrimination). Mais, la législation du travail peut évoluer. Le télétravail peut-il renforcer « le sens » à son travail ? Vaste question que tout le monde s’est posée au cours de sa carrière :
– pouvoir agir sur un certain écosystème et se sentir utile,
– respecter les valeurs morales et professionnelles inhérentes à la fonction occupée,
– développer sa créativité, son habileté et ses compétences.

 

Il semble très difficile d’apporter une réponse à cette question. Vingt quatre heures ne sont pas toujours suffisantes pour concilier, en une seule journée, vie privée et vie professionnelle. Les 7H de travail/jour, ou les 8H pour la semaine de 4 jours, seront toujours insuffisantes pour satisfaire les objectifs à atteindre. Le travailleur devra apprendre à maîtriser ce « temps » précieux, qui passe trop vite ou trop lentement selon les cas, en le découpant en créneaux horaires… Enfin, il faut pointer les limites de l’ubérisation (du point de vue des travailleurs) qui ont des revenus très précaires et une protection sociale moindre.
Pour les entreprises : en cas de circonstances exceptionnelles (pandémie), le télétravail a pu être imposé par l’employeur sans l’accord des salariés (article L.1222-11 du code du travail). Maintenant, en sortie de tunnel pandémique, le droit au télétravail est encadré par la loi. L’entreprise devra organiser cette activité professionnelle à distance dans le cadre d’un accord collectif, ou à défaut, d’une charte élaborée après consultation du comité social et économique, précisant les droits et les obligations des deux parties (employeur, salarié). Le fait de refuser d’être en télétravail ne peut pas constituer un motif de licenciement. La pandémie a accéléré les chantiers de numérisation des structures publiques et privées, en général, et cela mènera à plus de télétravail dans les services, c’est irrémédiable. Une enquête (Sia Partners) montre clairement que le nombre d’accords d’entreprise, enregistré par le ministère du Travail, a plus que doublé entre 2019 et 2021. Cela ne concerne que les fonctions liées à des prestations intellectuelles, pas du tout les fonctions techniques ou d’animation nécessitant une intervention/présence physique sur le site. L’aversion au télétravail serait-elle directement proportionnelle aux lacunes du management dans une entreprise ? Cela supposera une DRH (Direction des Relations Humaines) très audacieuse, débarrassée du management par processus et par indicateurs. Elle retrouvera peut-être la simplicité dans la communication et la valorisation du bon sens dans l’action, voire du volontarisme dans le projet collectif.
Les règles de management ne seront plus les mêmes :
– être flexible et admettre que l’on ne peut pas tout contrôler (malgré les retours sur l’avancée du travail par feed-back),
– créér « virtuellement » une cohésion d’équipe pour donner un sens à la réussite collective,
– réussir à faire vivre le partage technique dans les équipes, malgré le distanciel, en créant des réunions dédiées judicieuses,
– être beaucoup plus à l’écoute pour cerner les états émotionnels et mentaux induits par l’hyperconnexion.
Comment évaluer la quantité de travail fourni ? Ça ne change pas grand-chose : ce sont les « livrables » (notes, documents, analyses…, à livrer afin de réaliser ses objectifs annuels) qui statuent sur le travail réalisé. En télétravail, même si l’icône indique bien que le salarié est connecté, comment être sûr qu’il est bien opérationnel ? L’hyper contrôle semble révolu, et le management de demain reposera beaucoup sur la confiance.
Enfin, quelques freins pourraient ralentir la généralisation du télétravail (selon la taille et le secteur d’activité de l’entreprise). Deux exemples sont donnés ci-dessous :
– la cohésion d’équipe est nettement plus facile à opérer par diverses interactions et spontanéités « présentielles », sur le terrain. Ces manifestations sont plus compliquées à distance, mais pas impossibles,

– la difficulté, pour un nouvel arrivant, de commencer le premier emploi et d’aborder les experts qui sont censés l’aider/l’aiguiller/l’intégrer.

• Le télétravail sera-t-il un facteur de progrès social « collectif » ?

C’est une grande question, pleine de contradictions. Cela peut induire des inégalités de travail, qui vont s’ajouter aux inégalités sociales. D’abord, il est réservé aux catégories socioprofessionnelles les plus élevées et aisées (cadres, fonctions technico-commerciales, secteur tertiaire…). Puis, il relève de l’individualisme par opposition aux théories holistes qui font prédominer le groupe et la solidarité dans le travail (le fait d’être livré, chez soi, à soi même peut ne pas favoriser l’ascenseur social). Il peut être globalement une source d’inégalités pour les deux autres grands secteurs (primaire, secondaire) où le télétravail est, à la base, difficile ou impossible. C’est pourtant le monde des usines qui a façonné notre droit du travail. Le télétravail ne va-t-il pas engendrer un recul social pour les professions qui en sont exclues spécifiquement (négociations entre partenaires sociaux) ? Cette pandémie a créé beaucoup de contradiction qu’il va falloir gérer. Comment vont fonctionner les groupes ? Comment le télétravail va-t-il évoluer, par rapport au travail en général ? L’organisation du travail est probablement à revoir, pour réguler tout cela dans cette société qui se dématérialise de plus en plus, pour atteindre des performances toujours plus élevées. N’oublions pas que les entreprises sont des organisations humaines, devant rester suffisamment humanistes. ET les talents doivent pouvoir s’exprimer, librement et éthiquement, dans de bonnes conditions de travail pour tous.

▪ 5-2 Cours à distance vs salle de classe/amphi

• Introduction
Pendant les périodes de confinement, un enseignement à distance a été préconisé au même titre que le télétravail. Un cours en distanciel est toujours dégradé par rapport au présentiel (contact humain virtuel). Quasi-impossible dans les écoles maternelles et élémentaires, plus facile dans les collèges et lycées et sans problème à l’université ou Grandes Écoles (structures informatiques bien adaptées, enseignants habitués au numérique), il a permis la continuité pédagogique, grâce à « Ma classe à la maison », ayant trois plateformes pédagogiques proposées par le CNED :
– primaire (de la PS de maternelle au CM2),
– collège (de la 6e à la 3e et Segpa),
– lycée (2de, 1re et Tle rénovées, bacs STMG et ST2S).
D’autres possibilités ont été largement utilisées par certains enseignants pour diffuser leurs cours (ZOOM, autres plateformes numériques…), surtout en lycée, CPGE et enseignement supérieur.
Ces plateformes du CNED ont permis aux élèves de réviser leurs cours, avec possibilité de classes virtuelles permettant à un professeur « audacieux » d’animer un cours à distance en faisant participer les élèves pouvant partager ses ressources pédagogiques. L’enseignement à distance existe déjà depuis longtemps, sous des formes qui ont bien changé grâce à la révolution numérique. Il offre une seconde chance à celles/ceux qui n’ont pu (pour des raisons diverses) achever leurs études, ou leur cursus initial. Il s’adresse à un public très large (recalés aux examens ou

concours, détenus, personnes qui ont envie de se perfectionner, personnes âgées). Un peu d’histoire n’est pas inutile.

• Histoire de l’enseignement à distance en France
En 1939, pour pallier la désorganisation de l’enseignement provoquée par la seconde guerre mondiale, un service d’enseignement par correspondance a été créé à Paris. En 1944, le gouvernement de Vichy a créé le CNEC (Centre National d’Enseignement par Correspondance) par décret n° 1585 du 30 mai 1944. À la libération, sa mission a été renforcée : prendre en charge la scolarité des enfants malades, des anciens prisonniers et des déportés. Les enseignements seront étendus : commercial, primaire, préparation aux concours d’enseignement. Il a ensuite porté plusieurs noms : CNEPCRT (Centre National d’Enseignement Par Correspondance, Radio et Télévision), CNTE (Centre National de Télé-Enseignement), CNEC (Centre National d’Enseignement par Correspondance), enfin son nom actuel CNED (Centre National d’Enseignement à Distance) en 1986. Ensuite, certaines dates marqueront de grandes étapes dans son évolution : en 1997, présence sur internet ; en 2005, reconnaissance du service public d’enseignement à distance ; en 2009, création de la 31e académie (X. Darcos), en ligne, se proposant de télécharger l’intégralité des enseignements correspondant aux programmes du primaire au lycée ; en 2020, lancement de « Ma classe à la maison » à la suite de la fermeture des établissements scolaires en 2020, début de la Covid. Le CNED offre maintenant de multiples formations (de la maternelle à l’université), ainsi que des préparations aux concours de recrutement de la fonction publique, sans oublier la formation professionnelle. Il s’adresse à tous les publics, en France et dans le monde francophone, quelle que soit leur nationalité. Il relève de l’Éducation Nationale et son coût est de 245 Euros par an (gratuit dans certains cas : enfant de moins de 16 ans lors de l’inscription…). De nombreux autres organismes proposent également des formations continues : Greta (groupement d’établissements), Cité des métiers, Cnam (Conservatoire national des arts et métiers), AFPA , Eduter-CNPR en agriculture… Comme en télétravail, il ne peut y avoir de téléenseignement sans cybersécurité. L’éducation est un contexte très particulier : la productivité n’y est pratiquement pas quantifiable, et il y a peu de données sensibles intéressantes à monnayer (sauf au sein des établissements supérieurs pointus (espionnage dans le domaine de la recherche). Les hackers préfèrent déployer leur ingéniosité à des fins lucratives et pirater de grands groupes industriels et des établissements hospitaliers. Au niveau des utilisateurs (récepteurs), il suffit d’avoir un antivirus régulièrement mis à jour pour éviter des dangers particuliers. Au niveau des plateformes (émetteurs), c’est différent. La plateforme « Ma classe à la maison » aurait été victime (à priori ?) de plusieurs cyberattaques perpétrées depuis la Russie et la Chine, en pleine période de fermeture des établissements scolaires. Des enquêtes ont été ouvertes (sites saturés, messages d’erreur, dysfonctionnements empêchant les serveurs de bien fonctionner (inégalement répartis sur le territoire, sous-capacité de certaines structures informatiques au niveau du réseau dans certaines régions ?)). Tout cela est difficile à prouver !

 

 

• Les avantages/inconvénients des cours à distance

– les avantages
Pour l’élève : s’il est bien équipé en matériel et connexion informatiques (ce n’est pas le cas des familles défavorisées socialement), c’est synonyme de plus de « liberté » : temps de trajet libérés, davantage de souplesse dans l’organisation temporelle des journées. Les cours en numérique arrangent tout le monde.
Pour l’étudiant : en plus de ce qui précède, les étudiants peuvent participer plus facilement sur un « chat » que dans une salle où le prof est très sollicité. Les jeunes diplômés seront plus à l’aise pour gérer leurs projets à distance. Ils auront acquis une certaine expérience « numérique » : réunions en visioconférence. Ils pourraient avoir la possibilité d’assister à des cours « internationaux » de haut niveau, coanimés par d’éminents professeurs de divers pays, ce qui est une grande ouverture et une richesse (à moindre coût) pour leur formation.

Pour le professeur : Cela dépend des niveaux d’enseignement et des disciplines.
– En collège/lycée : les outils numériques (excepté certaines disciplines scientifiques [math, sciences physiques et SVT]) sont peu développés, et les enseignants des autres disciplines devront déployer des trésors de pédagogie pour intéresser un public jeune, plus soucieux d’aller sur internet pour découvrir le monde extérieur,
– En enseignement supérieur : c’est très différent. Le distanciel peut servir positivement des enseignements dédiés, et de très haut niveau. Certaines disciplines se prêtent beaucoup mieux que d’autres à la visioconférence (tout ce qui est théorique, management, laboratoire de langues…: c’est pertinent, quelques soient les niveaux). C’est beaucoup moins évident pour tout ce qui repose sur les activités expérimentales (travaux pratiques sur des systèmes industriels « didactisés ») où la manipulation sur les bancs permet de collecter des données qui devront être interprétées et modélisées. Les TP virtuels permettent de contourner cet écueil.

– les inconvénients

Pour l’élève : d’abord, être bien équipé informatiquement (le problème de connexion peut exister seulement pour les familles ayant peu de ressources). Recevoir des cours en présentiel, ou en distanciel, est différent (pas de présence physique avec l’enseignant, pas de contacts directs avec les copains). L’éducation des enfants au numérique s’accentue. Cela pose le problème de l’internet des familles modestes où l’équipement numérique est différent. Dans cette jungle de l’internet, les parents doivent avoir de grandes ressources pour réguler l’utilisation des médias et développer l’esprit critique. S’informer, ça s’apprend.
Pour l’étudiant : l’interaction enseignant/ enseigné n’est plus du tout le même. Le dialogue se fait par écran interposé, sans trop de difficultés (manque de dialogue spontané, prise de parole plus difficile), et cela peut créer un problème d’isolement (surtout pour les étudiants vivant seuls en chambre universitaire), pouvant accentuer un certain dérèglement psychologique.

 

Pour le professeur : cela dépend des niveaux d’enseignement.
– En collège/lycée : ils sont inversement proportionnels au degré d’enseignement. Les élèves en bas âge ne connaissent pas beaucoup l’informatique, et les enseignements reposent essentiellement sur la présence physique du groupe. Et ainsi de suite, en augmentant avec le fil des âges : les élèves se familiarisent de plus en plus avec le numérique, ainsi que les enseignants…qui, par contre, devront côtoyer le numérique de plus en plus efficacement (produire des cours numériques, les transmettre aux élèves, etc.).
– En enseignement supérieur : Le contexte est très différent. Toutes les parties ont une bonne connaissance et une bonne pratique de l’outil informatique. La manière de faire cours est très différente, il n’est pas facile de passer d’auteur-interprète à spécialiste des effets vidéo. Cela suppose d’avoir le goût des technologies numériques. Parler à des « bulles » peut décontenancer. Il faut adapter le contenu, multiplier les interactions et les mises en situation. De plus, l’attention des auditeurs est plus fragile qu’en présentiel. Enfin, bien évidemment, le distanciel ne remplacera jamais le présentiel pour tout ce qui a trait aux expérimentations en laboratoire, et aux « soft skills » (compétences de base en prise de parole, créativité, développement personnel…).
Enfin, quelque soit le niveau d’enseignement, le distanciel individuel est très compliqué et limité pour les profs de langue. Il existe de nombreux outils numériques pour l’apprentissage d’une langue vivante. Mais l’idéal réside, sans aucune contestation possible, dans l’utilisation d’une salle informatique multimédia « interactive » de 12 à 24 postes configurés en réseau, où le professeur peut suivre instantanément la pratique orale de chaque élève et intervenir pour le corriger.

Je vais essayer de prendre de la distance, et essayer de me projeter en avant pour recenser quelques « grands défis » qui nécessiteront des idées audacieuses pour essayer de les résoudre. Ces défis sont nombreux : au réchauffement climatique connu depuis longtemps (rapports du GIEC) hélas sous-estimé, s’ajoutent ceux de l’après-Covid et la guerre en Ukraine, deux chocs importants susceptibles de déstabiliser n’importe quel grand État. Et pourtant, nous y sommes, l’une immédiatement après l’autre !

 

 

Quelques extraits du chapitre VI concernant certains grands défis numériques de l’après-covid

 

VI. Certains grands défis (technologiques et numériques) de l’après-covid et de l’après- guerre en Ukraine

L’informatique numérique nous est, aujourd’hui, très familière. D’abord, l’ordinateur personnel (1981), dont la taille s’est réduite au fil des années, nécessitait des notions de DOS. Elles ont été très vite allégées par WINDOWS (fenêtrages) qui présenta sa première version en novembre 1985, et la SOURIS qui facilita les clics. Puis le smartphone (ordinateur miniaturisé, très performant, multifonctionnel et maintenant très démocratisé) révolutionna le monde numérique. À l’instar de tous les appareils électroniques, ils ont un impact important sur l’environnement qui augmente avec leur diffusion. Les ordinateurs quantiques n’en sont qu’à leurs débuts, pourtant certains experts prévoient que l’Internet du futur sera quantique ! Les promesses de sa puissance de calcul (modélisation, calcul et simulation de processus complexes de captation du CO2 dans l’air,…) attirent l’attention des géants du numérique qui continuent d’investir dans la recherche. Mais il faudra encore une décennie, voire plus, avant que ces machines ne soient opérationnelles.

▪ informatique numérique vs informatique quantique
Ce monde numérique est régi par des règles déterministes très bien connues (principe de causalité). Les éléments de base du traitement de l’information, pour un ordinateur classique, sont des bits n’ayant que deux états possibles, répétables, fidèles et exclusifs : 0, ou 1. Une algèbre booléenne fut construite, montrant que les opérations classiques (+, -, x, 🙂 étaient « mécanisables » (tables de vérité, tableaux de Karnaugh, transcodage). Il s’ensuivit la réalisation technologique de nombreuses portes logiques (combinatoire) et bascules (séquentiel, ou mémoire), ayant donné lieu à des circuits combinatoires et séquentiels de plus en plus sophistiqués (par exemple : l’UAL, unité arithmétique et logique, d’un ordinateur à plusieurs bits). Ainsi, depuis 2001, quatre générations de supercalculateurs ont été installés au CEA pour faire du calcul haute performance (high performance computing, ou HPC) indispensable à la recherche scientifique, technologique et industrielle. Les bases de données sont toujours exponentiellement croissantes. Et, les « jumeaux numériques » font leur apparition, préfigurant l’industrie 4.0 agile (avec la construction 4.0, ville ou territoire 4.0) de demain. Dans plusieurs domaines, le jumeau numérique (modèle vivant de données numériques, constamment enrichi) sera probablement l’un des grands leviers d’amélioration de la productivité et de développement de services, compatible avec les défis de la transition écologique. Il permettra la virtualisation du réel (modélisation 3D, maquette numérique, réalité virtuelle et augmentée, IoT, IA, metaverse), ouvrant ainsi la voie à un nouvel univers de services et de consommation. Cela peut être une opportunité, pour de nombreux secteurs, de gains économiques et environnementaux très significatis.
Un « grand » physicien (Richard Feynman), en 1982, s’est intéressé aux « simulateurs quantiques ». Le but consistait d’abord à étudier certains phénomènes quantiques, difficiles à tester en laboratoire et impossibles à modéliser avec un ordinateur numérique classique. L’apparition des premiers prototypes de calculateur quantique (IBM, 2001)…suscitèrent des attentes démesurées, particulièrement en matière de puissance de calcul considérée comme « incommensurable ». Mais il ne faut pas rêver : les ordinateurs quantiques universels mettront encore beaucoup de temps avant d’être opérationnels et utilisables par chacun d’entre nous (comme les premiers micro-ordinateurs numériques). L’informatique quantique est d’une autre nature, bien plus complexe (voir le chapitre V du tome III, L’ordinateur QUANTIQUE : futur enjeu scientifique et, peut-être industriel). Je résume ci-après les principales différences. Les jumeaux quantiques des bits numériques sont appelés qubits (quantum bits), qui relèvent de règles probabilistes complexes liées à la superposition quantique. Un qubit possède deux états de base, nommés par convention et par analogie avec le bit numérique « état 0 » au pôle Nord de la sphère de Bloch, et « état 1 » au pôle Sud. « ket  » décrit une superposition de ces deux états quantiques, et correspond aux coordonnées d’un point sur la sphère. Cette notation a été introduite par P. Dirac en 1939 pour souligner l’aspect vectoriel de cet élément d’information quantique et pouvoir écrire les premières équations de la physique quantique. À la différence d’un bit, l’état d’un qubit est dans une superposition quantique de ses deux états de base, avec certains « poids » pour les états 0 et 1. Ils sont liés à la probabilité de mesurer l’état 0, ou l’état 1 quand on observe le qubit. En effet, lors d’une mesure, la superposition s’effondre. Le qubit prend alors la valeur 0 ou 1, comme un bit classique. Pour exploiter les capacités de l’ordinateur quantique, il faut préserver l’état de superposition pendant tout le calcul. C’est très difficile à comprendre physiquement et mentalement…De nombreuses publications sur la physique quantique existent sur internet. Ensuite, les informations délivrées par les qubits doivent traverser des portes quantiques (à 1 qubit ou 2 qubits, pour l’instant). Puis des circuits quantiques, composés de portes quantiques, font des opérations sur les qubits et permettent d’évaluer leur réponse à une entrée (fonctions limitées pour l’instant : résolution de systèmes linéaires à plusieurs millions de variables, simulation d’hamiltonien…). Il existe cinq techniques pour réaliser physiquement des qubits : circuits électriques supraconducteurs (nécessité d’une température de 10 milli Kelvin, proche du zéro absolu) ; spins quantiques dans des boîtes quantiques semi-conductrices (en cours de recherche) ; ions piégés par des champs magnétiques Radiofréquence (température ambiante, mais avec obligation de vide poussé); atomes neutres ; photons polarisés (nécessité de refroidir la source [entrée] et les détecteurs [sortie]. Tous ces qubits physiques sont imparfaits (les signaux récupérés sont bruités…nécessité de développer une électronique de bas bruit) et instables, d’où la disparition de certains états quantiques superposés [décohérence] dans les portes quantiques, et la moindre perturbation engendre des erreurs actuellement inévitables. Actuellement, les meilleures machines commettent une erreur toutes les 1 000 portes. Deux chercheurs américains (P. Shor, A. Steane) ont mis au point des algorithmes de correction quantique des erreurs. Tant que les qubits physiques sont d’une qualité suffisante pour que leur taux d’erreur soit inférieur à un certain seuil, il est possible de corriger les erreurs plus vite qu’elles ne s’accumulent. Probablement, dans 5 à 10 ans, ces erreurs auront disparu. En attendant de bénéficier de calculateurs quantiques stables et sans erreurs, les premières machines « NISQ » (Noisy Intermediate-Scale Quantum) devraient voir le jour bientôt (2023). Il s’agit de calculateurs quantiques comptant entre 50 et quelques centaines de qubits, mais qui ont une stabilité trop courte et une faible puissance pour réaliser certaines opérations. Pour l’avenir proche, il semble difficile de se passer du CPU (processeur d’un ordinateur numérique) qu’il faudra coupler à son jumeau quantique QPU. Les processeurs quantiques devront donc cohabiter avec les processeurs traditionnels, lesquels garderont le contrôle de l’exécution des instructions. Cette vision fait aujourd’hui consensus parmi les chercheurs et premiers utilisateurs. Bientôt, une nouvelle plateforme sera hébergée au TGCC (Très Grand Centre de Calcul du CEA [Commissariat à l’énergie atomique et aux énergies alternatives]), permettant à certains laboratoires (Inria, Cnrs…), startups (Quandela, Pasqal, CryptoNext, Alice & Bob) et industriels (EdF, THALES…) d’accéder ce à nouvel écosystème supervisé par Atos et Pasqal. De grandes innovations quantiques sont attendues : en communication et navigation, avec de nouveaux réseaux et standards de sécurité, en capteurs avec une centrale inertielle à puce quantique, en cryptographie post-quantique avec continuité de la protection des données classifiées. La « course » au quantique est un domaine de grande rupture technologique, et la France doit s’y engouffrer, pour garantir sa souveraineté. Source : séminaire TQCI du 31/03/2022, Inria Saclay.

 

Bien souvent, les réseaux sociaux ont mauvaise presse. Tout dépend du temps qui leur est consacré (raisonnablement, moins d’1 heure/jour !) et de l’usage que l’on en fait. Ils peuvent présenter des avantages (communiquer avec des amis, s’ouvrir sur le monde et d’autres cultures…), mais ils comportent également des inconvénients (addiction, infox, achats douteux…). Il n’est pas nécessaire d’avoir un compte sur tous les réseaux pour être « IN » qui sont énergivores en énergie.

▪ réseaux sociaux (numérisation des esprits) vs esprit critique (lumière de toute éducation)
Le temps passé devant les écrans a fortement augmenté en période de Covid (consultation des réseaux sociaux, télétravail, cours à distance, séries télévisées…). Une grande partie de la population se « construit », de plus en plus, autour des réseaux sociaux. La déconnexion est rare (même en vacances), l’emprise des algorithmes s’étend sur nos vies. Comment reprendre le contrôle de notre existence et amoindrir un certain degré d’addiction (quand on en est conscient) ? Les algorithmes de l’IA font la loi chez les GAFAM qui centralisent Internet et recueillent de nombreuses données personnelles pour favoriser leur expansion)…Il faudrait encadrer et réglementer. Heureusement, l’Europe est en train de réagir en élaborant des textes (DSA, DMA) pour rééquilibrer les marchés numériques face à l’hégémonie de ces GAFAM américains.
Comment lutter contre le complotisme et les fausses nouvelles diffusées abondamment sur les réseaux sociaux ? Seul, l’esprit critique peut permettre de déceler les fausses croyances. Comme, par exemple, les antivax, qui ne l’ont pas toujours été et le sont devenus par peur d’un nouveau vaccin à ARN messager développé trop rapidement (big pharma). C’est le phénomène « d’infobésité » amplifié par les réseaux sociaux. « Plus il y a d’informations disponibles, plus vous avez des ressources pour nourrir vos croyances », explique G. Bronner. Il explique que les journalistes ont perdu le monopole de l’éditorialisation des nouvelles du monde, car « cette éditorialisation est faite aujourd’hui par les algorithmes ». La rationalité des algorithmes, c’est « d’attirer notre attention, pour nourrir la variable d’engagement. Facebook donne un coefficient 5 à l’émoticone « colère » et 1 à « like » ». Il ne reste plus, selon lui, que l’esprit critique pour résister à cette pensée paresseuse et facile à interpréter. Il est impératif de tout mettre en œuvre sérieusement au sein de l’Éducation Nationale pour développer cet unique levier, que nous avons en main, afin de recouvrer une certaine autonomie intellectuelle.

Plusieurs ouvrages traitent, avec beaucoup de pertinence et de sagesse, ces sujets. Trois ont retenu toute mon attention :
– Gérald Bronner : l’apocalypse cognitive (PUF),
– Aurélie Jean : Les algorithmes font-ils la loi ? (L’Observatoire),
– Bruno PATINO : la civilisation du poisson rouge (Le livre de Poche), tempête dans le bocal (Grasset).

 

Le métavers (calque de l’anglais metaverse) est déjà et sera le futur de l’Internet numérique proposant des espaces virtuels, en 3D. Il permettra de s’interfacer via des plateformes virtuelles, interactives et immersives. On pourra même consommer ludiquement et directement dans le metaverse. Hélas, ce métavers n’aura rien de vert.

▪ monde réel vs metaverse
Metaverse est une contraction du préfixe grec « meta » (exprimant, entre autres, le changement et le fait d’aller au-delà) et du mot latin « versum » (dans la direction de), voire de « universum » ouvrant le champ à l’univers. Il représente un potentiel numérique qui commence tout juste à être exploré, et pourrait nous emmener vers un univers cyberspatial hybride (réel et virtuel), en constante évolution. Il transformera notre rapport au temps et à l’espace 3D (peut-être plus que l’espace-temps « théorique », très important pour la compréhension de l’univers, à quatre dimensions, en relativité Einsteinienne qui a marqué le début de physique quantique) avec les avatars. Un avatar metaverse 3D (acteur principal de cet univers) sera un personnage numérique capable de se déplacer partout… comme dans les dessins animés ou les films de science-fiction). Il sera un double, une sorte d’ assistant virtuel de cet acteur (plus ou moins réaliste, utilisant un selfie, ou d’autres options de préfabrication, grâce aux algorithmes de l’IA), façonné et personnalisé à sa guise. Il incarnera l’internaute en ligne, capable de se mouvoir dans un monde réel, virtuel et augmenté. Il pourra traverser différentes expériences dans l’ensemble du Metaverse, et sera facilement transférable dans les autres mondes virtuels visités. Cet avatar sera utilisable sur différents types d’applications et d’expériences METAVERSE. Ces avatars seront étendus à Facebook, Messenger et Instagram. Pour résumer, le Metaverse sera un espace numérique, réel et virtuel,…dans lequel les avatars pourront y flâner, faire la fête et réaliser des affaires (en crypto-monnaies, bien évidemment !).
Le metaverse n’en est qu’à ses débuts, et il existe déjà des entreprises qui proposent leurs services de création d’avatars, sur Internet. Il existe aussi de nombreux outils gratuits en ligne pour créer un avatar.
Si le monde virtuel sera augmenté (grâce aux divers outils de VR, AR, IA), le monde réel le sera aussi. De plus en plus de capteurs, de caméras et de puces IoT devront être intégrés dans ce monde physique qui nous entoure. Tout cela sera interconnecté en temps réel, pour visualiser un simulacre virtuel qui pourra interagir en retour. En bref, l’essentiel du monde sera continuellement interconnecté et en ligne. Ce n’est pas sans problème :
– Quelle sera l’empreinte carbone du métavers ? Certainement élevé, étant donné la puissance de calcul requise pour absorber cette immense quantité de données à gérer,
– le métavers sera-t-il un réseau social « égalitaire, horizontal » et non régulé par l’argent, à contrario des réseaux sociaux actuellement utilisés ?

 

– Le métavers permettra-t-il de faire des voyages exotiques virtuels, pouvant avoir une utilité sociale et se substituant partiellement au tourisme de masse (plus ou moins cher, mais très carboné) ?
– Pourrons-nous assurer notre (nationale et européenne) dans ce domaine déjà enclenché par les grands du Big Data ?

 

Il est nécessaire de réguler pour préserver la démocratie numérique, et plus généralement la biodiversité (loi élémentaire de tout écosystème). L’informatique ne peut faire exception à la règle. Les feux de signalisation ont été inventés pour sécuriser le trafic routier. Il faut certainement faire de même au niveau du réseau mondial Internet qui utilise des algorithmes de l’IA faisant la loi chez les géants du Big Tech, sans contrôle. Deux nouveaux règlements européens (après le RGPD), DMA et DSA, font leur apparition pour réguler ce Far West numérique.

▪ réglementation européenne vs GAMTAM
L’UE a récemment élaboré deux projets visant à réguler le marché du numérique, dominé par les géants américains de la Big Tech (GAFA, maintenant les GAMTAM [Google, Apple, Microsoft, Tesla (E. Musk, venant d’acheter Twitter), Amazon, Meta (Facebook)]). Le premier, DMA (Digital Market Act), a fait l’objet d’un accord européen le 24 mars 2022 et s’appliquera en octobre. Il a pour objet de mettre en place un règlement sur les marchés numériques, et mieux encadrer les activités économiques des plus grandes plateformes. Le second, DSA (Digital Services Act) est plutôt un règlement sur les services numériques ayant pour but de mettre fin à certains abus répandus sur le Web (vente de produits contrefaits ou défectueux) et aux zones de non-droit (dark web, dark patterns en général [interfaces trompeuses de fausse publicité]…). Il interdit aussi l’utilisation des données sur les opinions politiques à des fins de ciblage publicitaire. Ce texte doit encore être adopté par le Parlement et le Conseil de l’UE. Il entrera en vigueur quinze mois plus tard, donc pas avant le 1er janvier 2024. Enfin, une troisième brique (Data Act) réglementaire est à l’étude, et viendra renforcer l’arsenal législatif du Vieux Continent, pour permettre l’émergence d’un marché unique numérique et de ses innovations associées. Cette proposition ouvre la voie à un droit important qui reconnait aux utilisateurs la possibilité d’accéder aux données (personnelles, industrielles) que génère un objet connecté (montres et enceintes intelligentes, capteurs dans l’industrie 4.0… plus tard les voitures connectées), le droit de céder ces données à un fournisseur de services de leur choix et les importantes limitations au pouvoir de surveillance des fabricants d’objets connectés sur l’utilisation faite des données collectées. Une grande étape pour faciliter l’accès à une profusion de données, au bénéfice des entreprises, des consommateurs, des services publics et de la société dans son ensemble.