jouvenot.com

À qui faisons-nous vraiment confiance ? Aux humains de moins en moins, aux IA de plus en plus

La confiance est morte. Vive la confiance. Mais pas celle que l’on plaçait hier dans son médecin, son voisin ou son collègue de bureau. Une autre. Une nouvelle. Synthétique. Algorithmique. Nous croyons plus volontiers un outil dopé à l’IA qu’un expert diplômé. Est-ce de la lucidité ou de la paresse ? Du progrès ou une abdication ? Ce glissement en dit long sur nous… et sur ce qui nous attend.

 

La confiance déplacée : du voisin à l’algorithme

Le chiffre claque comme une gifle à notre bon sens : 68 % des Français estiment qu’une IA détecte mieux les fake news qu’un humain.
Traduction : notre nouveau baromètre de vérité s’appelle ChatGPT, pas Charles du bureau d’en face et encore moins Charlie Hebdo.

Trois glissements, trois scènes presque banales :

  • Santé. Face à un diagnostic, certains patients vérifient l’avis du médecin avec une app. Et croient l’app.
  • Justice. Des juges américains confient leur évaluation du risque de récidive à un score algorithmique. Pratique : le logiciel ne demande pas d’augmentation.
  • Vie quotidienne. Même dans une rue que nous connaissons par cœur, nous suivons Google Maps… plutôt que l’intuition ou le conseil d’un habitant du quartier.

Une scène typique : deux personnes discutent. L’une affirme une chose, l’autre conteste. On tranche ? On demande à l’IA. L’arbitre suprême est un code.
Question : à quel moment avons-nous renoncé à faire confiance à notre propre espèce ?

Quand la machine devient plus crédible que la parole humaine

La confiance ne disparaît pas. Elle migre.

Autrefois logée dans le regard, l’expérience, la parole ; la voilà désormais stockée dans les serveurs d’OpenAI, Google ou Meta.
Pourquoi ? Parce que l’humain est perçu comme biaisé, corrompu, émotionnellement instable, tandis que l’IA vend une image d’objectivité, de neutralité, de rationalité froide.

Mais ce vernis est trompeur.

  • Les IA héritent de nos biais. Un chatbot sexiste n’a pas été codé par le patriarcat, il l’a appris dans nos données.
  • Les IA sont opaques. Qui comprend réellement les rouages d’un modèle à 175 milliards de paramètres ? Même ses créateurs en doutent parfois.
  • Les IA sont marketées comme infaillibles. L’effet blouse blanche version numérique.

Résultat ? Nous déléguons nos décisions à des lignes de code, en croyant nous libérer.
Mais en renonçant à notre jugement, nous abdiquons aussi notre responsabilité.

Nouvelle question : à quoi ressemblera une société où penser devient optionnel ?

Les illusions dangereuses d’une délégation aveugle

Il est temps d’appuyer sur « Échap ».

Trois gestes pour reprendre le contrôle :

Réhabiliter la parole humaine.
Un médecin n’est pas un concurrent de Doctissimo. Un enseignant vaut mieux qu’un tuto YouTube.

Eduquer au doute.
La capacité à dire « Je ne sais pas » vaut parfois plus qu’une réponse brillante, mais fausse, sortie d’un chatbot.

Encadrer.
L’IA doit être un outil, pas une autorité. Il nous faut des garde-fous politiques, éthiques, sociétaux. Vite.

La confiance doit circuler. Mais ne doit jamais se fossiliser dans le silicium.

Ce n’est pas l’IA qui gagne. C’est nous qui abandonnons. Nous ne faisons pas tant confiance aux machines parce qu’elles sont brillantes… mais parce que nous ne faisons plus confiance aux autres. Ni à nous-mêmes. La machine ne vole rien. Elle prend la place laissée vacante.
La vraie question n’est donc pas : « Faut-il craindre l’IA ? » Mais :n« Comment regagner confiance en l’humain ? »

 


Sources :

Ipsos – “Les Français et l’intelligence artificielle”, 2023

Edelman Trust Barometer (2024), “Trust and Artificial Intelligence”, Edelman, mars 2024.

O’Neil, Cathy. Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown Publishing Group, 2016.

Morozov, Evgeny. To Save Everything, Click Here: The Folly of Technological Solutionism. Allen Lane, 2013.

Carr, Nicholas. The Glass Cage: Automation and Us. W. W. Norton & Company, 2014.

Wachter, Sandra. “Why Fairness Cannot Be Automated.” Nature, vol. 593, no. 7858, 2021, pp. 1–3.

Zuboff, Shoshana. The Age of Surveillance Capitalism. PublicAffairs, 2019.