#7/7 - Connaissance - Série

Post-vérité, IA, Deep fakes... La connaissance au 21è siècle

La connaissance au 21é siècle à l'heure de l'info continue, des réseaux sociaux et des IA.

Écouter sur :

Publié le
Enregistré le
Post-vérité, IA, Deep fakes... La connaissance au 21è siècle

Septième épisode et dernier épisode de la série sur l'histoire de l'épistémologie.

Nous explorons les bouleversements contemporains de notre rapport au savoir. Pour la première fois, trois révolutions simultanées transforment radicalement notre façon de connaître : une révolution technologique (surabondance informationnelle), une révolution sociale (crise des autorités traditionnelles) et une révolution cognitive (surcharge informationnelle). Comment naviguer dans ce nouveau paysage épistémique ?

Grandes idées abordées :

  1. La complexité comme nouveau paradigme de la connaissance

  2. L'effondrement des médiateurs traditionnels du savoir

  3. L'émergence d'une nouvelle infrastructure numérique de la connaissance

  4. La transformation du rapport à la vérité (post-vérité)

  5. Le défi de l'IA dans la production du savoir

  6. Le besoin d'une nouvelle "écologie de la connaissance"

Penseurs clés cités :

  1. Edgar Morin : La pensée complexe

  2. Bruno Latour : Le Nouveau Régime Climatique

  3. Pierre Rosanvallon : Transformation de l'autorité

  4. Harry Collins & Robert Evans : Nature de l'expertise

  5. Naomi Oreskes : Science du doute

  6. Shoshana Zuboff : Capitalisme de surveillance

  7. Bernard Stiegler : Prolétarisation des savoirs

  8. Harry Frankfurt : Théorie du bullshit

  9. Michel Foucault : Régimes de vérité

  10. Byung-Chul Han : Régime numérique de la vérité

  11. Danièle Hervieu-Léger : Individualisme épistémique

  12. Yves Citton : Économie de l'attention

  13. Eli Pariser : Bulles de filtres

  14. Dominique Cardon : Réseaux sociaux

  15. Pierre Lévy : Intelligence collective


Salut, c'est Julien. Bienvenue dans ce septième et dernier épisode de notre série sur l'histoire de la connaissance et de l'épistémologie. Alors en fait ça n'est pas tout à fait le dernier, parce que je vais faire un épisode de conclusion pour reprendre les idées clé, et vous dire ce que je pense de tout ça, mais c’est le dernier dans l’ordre chronologique.

Et pour ajouter à la confusion j’ai divisé l’épisode en 2 parties, parce que j’ai fait plus long que prévu. Mais je suis sûr que vous allez tout de même vous y retrouver, je sais que l’audience de ce podcast a un QI très au dessus de la moyenne et je suis sur que vous serez d’accord avec moi. Là je viens faire un clin d’oeil, je vous le dis parce que vous ne pouvez pas me voir.

Bref.

Si vous avez déjà écouté tous les épisodes, bravo ! Si en plus vous avez réussi à retenir 2 ou 3 trucs, c’est vraiment très fort et si vous en faites quelque chose alors là, on sort les cotillons. Bruit de fête

Et si vous débarquez seulement maintenant, je vous conseille bien sûr de commencer par le début. En très bref, on a exploré l'épistémologie de l'Antiquité, navigué à travers le Moyen Âge et la Renaissance, découvert les traditions non-occidentales, plongé dans la révolution scientifique, et traversé les bouleversements des 19ème et 20ème siècles. On a bien voyagé donc.

Alors aujourd'hui, c'est spécial. Pour la première fois dans cette série, nous allons parler d'une époque que nous vivons. Ce n'est plus de l'histoire, c'est notre présent, avec ses défis, ses questions brûlantes, et ses transformations en cours, devant nos yeux ébais ou effarés.

Et il se trouve que nous vivons une époque formidable , puisque ce présent a quelque chose d'unique, hormis le fait que nous y vivions ce qui est déjà une bonne raison pour nous y intéresser.

Alors on va essayer de prendre un peu de recul, même si forcément on a un peu le nez dessus.

Alors pourquoi c’est une époque particulière. Comme toujours essayons de contextualiser.

Pour la première fois , trois révolutions se produisent simultanément :

La première c’est une révolution technologique d'une ampleur sans précédent. En à peine une génération, on est passés d'un monde où l'information était rare, contrôlée, hiérarchisée, à un univers de surabondance informationnelle où chacun peut instantanément diffuser du contenu à l'échelle planétaire. Plus crucial encore, les algorithmes sont devenus les nouveaux gardiens du savoir, les rédacteurs en chef qui trient pour nous les infos : ce sont eux qui, silencieusement, façonnent ce que nous voyons, ce que nous lisons, ce que nous apprenons.

La deuxième est une révolution sociale qui ébranle les fondements mêmes de l'autorité intellectuelle. Nous assistons à l'effondrement des hiérarchies traditionnelles du savoir : experts, universitaires, journalistes, tous voient leur légitimité contestée. À leur place émergent de nouveaux modes de production et de validation des connaissances - plus horizontaux, plus collaboratifs, mais aussi plus instables et parfois plus problématiques comme on va le voir plus tard

La troisième, peut-être la plus profonde, est une révolution cognitive. Notre cerveau, façonné par des millions d'années d'évolution pour traiter l'information rare et locale d'un environnement de chasseurs-cueilleurs, doit désormais naviguer dans un océan de données qui le submerge. La surcharge cognitive, la fragmentation de l'attention, l'incapacité croissante à distinguer le vrai du faux ne sont pas des bugs du système - ce sont les symptômes d'un décalage fondamental entre notre équipement biologique et notre environnement informationnel.

Face à ces trois révolutions simultanées, les outils traditionnels de la pensée se révèlent insuffisants, et donc on a un problème.

Pour comprendre ces transformations profondes, je vous propose un plan en 5 parties, un truc bien scolaire donc, parce qu’au cas où vous ne l’aviez pas remarqué, au moment ou je vous parler, je ne suis pas complètement en train d’improviser. J’ai ma dissertation sous les yeux, et je vous la lis, en faisant au mieux pour garder votre attention malgré le sérieux du sujet et ma voix monocorde.

Alors on va explorer cinq dimensions fondamentales donc :

D'abord, on va un cadre conceptuel en nous appuyant sur les travaux d'Edgar Morin sur la complexité et de Bruno Latour sur le "Nouveau Régime Climatique". Ces penseurs nous offrent des outils essentiels pour comprendre notre époque.

Ensuite, on va parler de la crise inédite que traversent nos médiateurs traditionnels du savoir. Comment et pourquoi la confiance dans les experts et les institutions s'est-elle effondrée ? Qu'est-ce qui vient les remplacer ?

Puis on va analyser la nouvelle infrastructure numérique de la connaissance. Comment les algorithmes, l'économie de l'attention et ce que Shoshana Zuboff appelle le "capitalisme de surveillance" façonnent-ils notre accès au savoir ?

Ensuite les nouvelles dynamiques de vérité et l'émergence de ce qu'on appelle la post-vérité.

Enfin, quelques mots sur le défi majeur posé par l'intelligence artificielle et ses implications pour l'avenir de la connaissance.

C'est un programme ambitieux, mais ce sont des questions cruciales en ces temps sismique. Pour vous aider à ne pas perdre le fil et à rester éveillé, j’ai ajouté un petit son de cloche ou autre, au début de chaque partie.

Allez, on s’embarque pour ce dernier voyage.

Je précise : si vous voulez le transcript, il est disponible pour les abonnées à la newsletter et les membres du Discord.

On attaque donc par le cadre conceptuel, Comment PENSER LA COMPLEXITÉ ?

"La complexité fait peur," écrit-il, "elle fait peur comme la liberté. Comme la liberté, elle est à la fois un risque et une chance."

Cette intuition d'Edgar Morin résonne particulièrement aujourd'hui. Notre époque n'est pas simplement compliquée - elle est complexe au sens profond du terme.

Morin établit une distinction cruciale : un système compliqué, comme un moteur d'avion, peut être décomposé en parties distinctes qu'on peut étudier séparément. Un système complexe, lui, perd son essence même si on tente de le découper. L'information qui circule sur les réseaux sociaux, par exemple, ne peut pas être comprise en isolant ses composantes - elle émerge de l'interaction constante entre algorithmes, psychologie humaine, intérêts économiques et dynamiques sociales.

Prenons l'exemple de la désinformation en ligne. Une approche simpliste chercherait à distinguer le vrai du faux, à identifier les "mauvais acteurs". Une pensée complexe comprend que la désinformation émerge d'un système où interagissent simultanément les mécanismes cognitifs humains, les modèles économiques des plateformes, les dynamiques sociales et les contextes politiques. Ces éléments ne sont pas simplement juxtaposés - ils se modifient mutuellement en permanence.

Cette perspective se trouve enrichie par les travaux de Bruno Latour sur le "Nouveau Régime Climatique". Cette notion décrit une situation où nos anciennes certitudes sur la séparation entre nature et culture, entre faits et valeurs, entre science et politique, s'effondrent simultanément. La pandémie de Covid en est l'illustration parfaite : pour la première fois à cette échelle, nous avons assisté à la science en train de se faire, avec ses tâtonnements et ses controverses. Cette transparence, au lieu de renforcer la confiance, a paradoxalement alimenté le scepticisme.

Pour naviguer dans cette complexité, Latour propose le concept d'"écologie des pratiques". Il s'agit de faire coexister différents types de savoirs sans les hiérarchiser : les mesures scientifiques, les observations locales, les analyses économiques, les savoirs traditionnels... Chacune de ces approches a sa pertinence dans son domaine. L'enjeu n'est pas de choisir la "bonne" approche, mais d'apprendre à les faire dialoguer.

Ces cadres théoriques nous permettent maintenant d'analyser plus précisément les transformations qui bouleversent notre rapport au savoir, à commencer par la crise profonde que traversent nos institutions traditionnelles de la connaissance.

LA CRISE DES INSTITUTIONS DU SAVOIR

En mars 2020, lors d'une conférence de presse sur le Covid-19, le professeur Didier Raoult, directeur de l'IHU de Marseille, annonce avoir trouvé un traitement efficace contre le virus : l'hydroxychloroquine. En quelques heures, sa déclaration devient virale sur les réseaux sociaux. Des millions de personnes partagent la vidéo, des célébrités et même des chefs d'État relaient l'information. Face à ce phénomène, les instances scientifiques traditionnelles - l'OMS, les académies de médecine, les revues scientifiques - tentent de tempérer, appelant à attendre les résultats d'essais cliniques rigoureux. Mais leurs voix sont noyées dans le tumulte médiatique. Pour beaucoup, la popularité de Raoult sur YouTube devient plus convaincante que des décennies de méthodologie scientifique. Cet épisode illustre parfaitement ce qui est peut-être le phénomène le plus visible et le plus déstabilisant de notre époque : l'effondrement de la confiance dans nos institutions traditionnelles du savoir - les journalistes, les médias en général, les experts, les scientifiques, et dans une moindre mesure le personnel politique, si tant est qu'il ait pu être un jour considéré comme une source digne de confiance.

Cette méfiance n'est pas sortie de nulle part. Les révélations successives de mensonges d'État - des armes de destruction massive en Irak aux écoutes de la NSA en passant par certains airements durant la COVID ou simplement une mauvaise foi chronique de la part du personnel politique - tout ceci a durablement ébranlé la crédibilité des institutions politiques. Le journalisme lui-même, censé être le garde-fou démocratique, a perdu en crédibilité à mesure qu'il se transformait. La course à l'audience, la polarisation croissante des médias, les conflits d'intérêts entre propriétaires de presse et pouvoir politique, ont fait basculer de nombreux médias d'une logique d'information vers une logique de confirmation - non plus rapporter les faits, mais conforter les opinions préexistantes de leur audience. L'affaire des Pandora Papers a révélé l'ampleur de la collusion entre élites politiques et économiques, tandis que les WikiLeaks ont mis au jour les mensonges diplomatiques. Cette érosion des tiers de confiance traditionnels a créé un vide que les nouvelles formes d'autorité numérique sont venues combler.

Pierre Rosanvallon, sociologue et historien français spécialiste des transformations de la démocratie, décrit cette crise de confiance comme le résultat d'une transformation profonde de notre rapport à l'autorité. Ce n'est plus une simple opposition frontale, mais une forme de "contre-démocratie" où les citoyens développent de nouveaux outils pour surveiller, contester et juger les institutions traditionnelles.

Harry Collins, un sociologue britannique, montre dans ses travaux comment ce qu'il appelle "l'expertise par exposition médiatique" a profondément transformé notre rapport à la connaissance scientifique.

La multiplication des experts médiatiques, des médecins de plateau télé aux influenceurs de réseaux sociaux, a créé l'illusion que chacun pouvait désormais juger par lui-même de questions scientifiques extrêmement complexes.

La valorisation à outrance de l'expérience individuelle, du ressenti ou de l'opinion de chacun et surtout le fait que chacun puisse s'exprimer et rencontrer un public en ligne, a semé la confusion. Puisque des gens sont prêts à m'écouter, se dit Monsieur X l'influenceur lambda, c'est sans doute que ce que je dis est intéressant, voire légitime, simplement parce que c'est validé par des likes ou sur un plateau télé par des gens qui ne sont experts de rien.

Et si Pascal Pro, qui porte une cravate et est autorisé à revenir chaque jour à la télé, le dit, ça doit être vrai.

Cette dynamique a court-circuité les canaux traditionnels de validation du savoir, sapant ainsi enparticulier l'autorité des institutions scientifiques établies. Collins souligne comment cette "expertise par médiatisation" repose moins sur une véritable maîtrise du sujet que sur la capacité à capter l'attention du public. Avoir de la gouaille, de la tchatche, être simplement drôle, beau ou “trop stylé”, maîtriser les astuces rhétoriques, dire haut et fort "moi je sais" ou "c'est évident" avec assurance suffit à convaincre, à l'heure des interviews minutes et des débats de comptoir en prime time.

Dans le même ordre d'idées, les travaux de Naomi Oreskes, historienne des sciences, sont particulièrement éclairants sur les stratégies de contestation de l'expertise scientifique. Prenons un exemple qu'elle a minutieusement documenté : en 1998, l'American Petroleum Institute, principal lobby pétrolier américain, rédige un mémo confidentiel qui fuite dans la presse. Ce document détaille une stratégie en plusieurs points pour "semer le doute" sur le changement climatique. Le plan est explicite : recruter des scientifiques qui "partagent nos vues", mettre en avant les "incertitudes" dans les données climatiques, créer une "controverse" là où il existe en réalité un large consensus scientifique.

Cette stratégie n'était pas nouvelle. Oreskes montre qu'elle avait été perfectionnée des décennies plus tôt par l'industrie du tabac. Dans les années 1950, confrontés aux premières études liant tabac et cancer, les cigarettiers ne cherchent pas à prouver l'innocuité de leurs produits - ils créent plutôt ce qu'Oreskes appelle une "science du doute". Leur slogan est révélateur : "Le doute est notre produit". Le but n'est pas de gagner le débat scientifique, mais de convaincre le public qu'il existe encore un débat.

Cette approche est devenue un véritable modèle, repris depuis pour contester toute forme d'expertise scientifique gênante. Naomi Klein montre comment ces stratégies s'inscrivent dans une logique plus large de "capitalisme de catastrophe" : l'incertitude et le doute ne sont plus des obstacles à surmonter, mais des outils au service d'intérêts particuliers.

Dominique Cardon, sociologue, explique tout ça simplement : à l’ère des réseaux sociaux et des influenceurs, l'autorité ne découle plus de la position institutionnelle mais de la capacité à générer de l'engagement numérique. Un phénomène très problématique en émerge : un simple tweet, un post Facebook, insta ou tik tok viral, même factuellement erroné, peut désormais éclipser l'influence d'une publication scientifique rigoureuse. Il y a une prime à la simplicité, à l’instantanéité, au pré-maché et à ce qui vient satisfaire nos désirs d’appartenance et statutaire. Une prime à la répétition aussi. Une idée quelle qu’elle soit, à force d’être entendue, rentre dans le crane, nous semble petit à petit normale, et donc in fine juste.

Cette reconfiguration de l'autorité s'accompagne d'un phénomène plus profond, analysé par Danièle Hervieu-Léger. Sociologue spécialiste des mutations religieuses contemporaines, elle fait un parallèle saisissant entre deux moments historiques. Au 16e siècle, la Réforme protestante bouleverse l'ordre religieux établi en proclamant que chaque croyant peut interpréter la Bible par lui-même, sans passer par l'Église. Aujourd'hui, nous assistons à ce qu'elle appelle une "réforme épistémique" similaire : chacun revendique le droit d'interpréter directement les données, les études, les statistiques, sans la médiation des institutions traditionnelles du savoir.

Ce "protestantisme épistémique" se manifeste particulièrement dans le domaine de la santé. Quand un patient reçoit un diagnostic, sa première réaction n'est plus d'accepter l'avis médical, mais souvent de "faire ses propres recherches". Il consulte des forums, regarde des vidéos YouTube, rejoint des groupes Facebook, compare des études trouvées sur Google Scholar. Cette démarche n'est pas nécessairement mauvaise en soi - être un patient informé peut être bénéfique. Mais elle révèle une transformation profonde : le savoir médical n'est plus considéré comme l'apanage des médecins, tout comme le savoir religieux n'était plus celui des prêtres après la Réforme.

"Faites vos propres recherches" est devenu le mantra de notre époque. Cette injonction, apparemment émancipatrice, cache pourtant un paradoxe : alors que nous n'avons jamais eu autant besoin d'expertise pour comprendre un monde de plus en plus complexe, nous n'avons jamais été aussi méfiants envers les experts. C'est ce qu'Hervieu-Léger nomme le "paradoxe de l'individualisme épistémique" : plus nous revendiquons notre autonomie cognitive, plus nous risquons de nous perdre dans un océan d'informations que nous ne sommes pas toujours équipés pour naviguer.

Cette crise de la confiance ne serait peut-être pas si grave si elle ne s'inscrivait pas dans un contexte plus large : celui de l'émergence d'une nouvelle infrastructure numérique qui transforme totalement notre rapport à l'information.

LA NOUVELLE INFRASTRUCTURE NUMÉRIQUE DE LA CONNAISSANCE

Pour comprendre l'ampleur de cette mutation, on va faire un détour par le passé.

Dans l'épisode 2, nous avons vu comment l'invention de l'imprimerie a bouleversé la circulation des connaissances. Ce n'était pas qu'une innovation technique : elle a créé tout un écosystème avec ses gardiens (éditeurs, bibliothécaires, critiques), ses règles de validation, ses hiérarchies. Il a fallu près d'un siècle pour que la société développe les outils intellectuels et institutionnels nécessaires pour gérer ce nouveau rapport au savoir.

Aujourd'hui, nous vivons une rupture similaire, mais à une vitesse vertigineuse. Prenons un exemple concret : en 2022, l'humanité a produit plus de données en une seule journée que pendant toute l'année 1990.

Selon une étude récente publiée par Parse.ly, 15 milliards d’images ont été générées par l’IA en 18 mois, C’est plus que toutes les photos prises en 150 ans d’histoire de la photographie.

Notre cerveau n'a pas changé, mais notre environnement informationnel est devenu méconnaissable.

Yves Citton, théoricien de la littérature et philosophe, ****propose une clé de lecture fondamentale pour comprendre cette transformation. Selon lui, l'attention est devenue la ressource rare par excellence dans notre environnement informationnel contemporain. Ce n'est pas tant l'accès à l'information qui pose problème - elle est surabondante - mais bien notre capacité à y prêter attention de manière significative et durable.

Regardons concrètement comment ce phénomène se manifeste au quotidien. Lorsque nous ouvrons notre smartphone, nous sommes assaillis par un flot incessant de notifications, d'emails, de messages et de fils d'actualité. Chaque application est en réalité conçue pour capter notre attention, de manière quasi compulsive. Ce n'est pas un effet secondaire, mais bien le cœur même de leur modèle économique. Comme le souligne Yves, "ce qui compte n'est plus ce qui est dit, mais ce qui est remarqué".

Cette économie de l'attention a des conséquences profondes sur notre manière même de penser et de nous informer. Elle nous pousse vers une forme de "lecture en F", où nous scannons rapidement les contenus sans jamais nous y engager en profondeur, au détriment d'une véritable compréhension.

Mais cette économie de l'attention, n'est que la partie visible d'une mutation plus profonde de notre environnement informationnel. Si l'attention est la ressource rare, que devient-elle une fois captée ? C'est ici que les travaux de Shoshana Zuboff, psycho-solciologue américaine, apportent un éclairage crucial. Dans son analyse du "capitalisme de surveillance", elle révèle comment l'attention captée est transformée en données comportementales, elles-mêmes utilisées pour prédire et influencer nos comportements futurs.

L'originalité de Zuboff est de montrer comment ce système crée un nouveau type de pouvoir épistémique. Les plateformes numériques ne se contentent pas de collecter des données sur ce que nous faisons - elles développent ce que Zuboff appelle le "pouvoir instrumentarien" : la capacité à façonner nos comportements futurs en modelant notre environnement informationnel.

L'affaire Cambridge Analytica illustre parfaitement ce pouvoir. En analysant les "likes" Facebook, l'entreprise ne se contentait pas de prédire les orientations politiques des utilisateurs - elle pouvait activement influencer leurs opinions en personnalisant leur environnement informationnel. Ce n'est plus seulement de la manipulation, c'est une architecture invisible qui façonne notre rapport au savoir.

Bernard Stiegler va plus loin en parlant de "prolétarisation des savoirs". Ce concept est crucial : il ne s'agit pas simplement de perdre le contrôle de nos données, mais de perdre notre capacité même à savoir. Pour Stiegler, les technologies numériques ne sont pas de simples outils neutres - elles transforment fondamentalement notre façon de penser et d'apprendre. Quand Google peut prédire une épidémie avant les autorités sanitaires, quand nos smartphones retiennent pour nous les numéros de téléphone, les itinéraires, les dates importantes, nous externalisons non seulement notre mémoire mais notre capacité même à construire des savoirs. Cette "disruption" comme il l'appelle, va plus loin qu'une simple délégation technique : elle transforme notre rapport au temps, à l'attention, à la transmission des connaissances. Le risque, selon lui, n'est pas tant que l'IA nous remplace, mais que nous perdions progressivement notre autonomie de pensée, notre capacité à construire des savoirs par nous-mêmes.

Par ailleurs, ces systèmes ne reflètent pas simplement nos préférences - ils les construisent activement. L'algorithme de TikTok, par exemple, ne prédit pas tant vos intérêts qu'il ne les fabrique, enfin si vous utilisez Tik Tok évidemment. Mais ca marche aussi pour Facebook. On peut faire le parallèle avec Waze ou votre GPS préféré, qu’on continue d’utiliser sur un trajet qu’on a fait 50 fois, mais qu’on n’a toujours pas retenu, parce que justement on délègue notre orientation. C'est une forme inédite de pouvoir qui opère non par la contrainte mais par l'architecture même de notre environnement cognitif.

Cette infrastructure crée ce qu'Eli Pariser nomme des "bulles de filtres" - des univers informationnels personnalisés qui nous isolent progressivement les uns des autres. Pour comprendre l'ampleur du phénomène, réalisons une expérience simple : demandez à plusieurs personnes de chercher "vaccination" sur Google. Un médecin verra apparaître en priorité des articles scientifiques et des recommandations officielles. Une personne intéressée par les médecines alternatives sera dirigée vers des sites plus critiques. Quelqu'un qui a récemment consulté des contenus complotistes se verra proposer des théories toujours plus radicales. Chacun obtient des résultats différents, façonnés par son historique, sa localisation, ses préférences supposées.

Mais ces bulles de filtres ne sont pas de simples chambres d'écho - elles sont bien plus pernicieuses. Elles créent des réalités informationnelles parallèles qui se renforcent mutuellement. Plus vous cliquez sur certains types de contenus, plus l'algorithme vous en propose de similaires. C'est un cercle vicieux : vos préjugés sont confirmés, vos croyances renforcées, vos doutes apaisés... non par la confrontation avec la réalité, mais par une personnalisation toujours plus poussée de votre environnement informationnel.

Le danger est particulièrement visible en politique. Un électeur de gauche et un électeur de droite, même s'ils habitent la même ville, peuvent vivre dans des univers informationnels totalement différents. Le premier verra des articles sur les inégalités croissantes et le changement climatique, le second sur l'insécurité et l'immigration. Non seulement ils ne sont pas exposés aux mêmes faits, mais ils ne partagent même plus le même cadre de référence pour en débattre.

Cette fragmentation de l'espace public en myriades de bulles informationnelles étanches pose un défi majeur pour la démocratie puisqu’elle provoque une polarisation idéologique forte. Comment maintenir un débat public rationnel quand nous ne partageons même plus une réalité commune ? Comment construire du consensus quand chacun vit dans son propre univers informationnel sur mesure ? Les élections américaines récentes illustrent bien ce problème, alors qu’on en est arrivé à parler de risque de guerre civile.

LA TRANSFORMATION DE LA VÉRITÉ

Le 20 janvier 2017, au lendemain de l'investiture de Donald Trump, sa porte-parole Kellyanne Conway fait une déclaration qui restera dans l'histoire. Face aux journalistes qui contestent l'affirmation de Trump selon laquelle son investiture aurait rassemblé "la plus grande foule jamais vue", photos à l'appui montrant le contraire, Conway répond sans sourciller que l'équipe du président présente simplement des "faits alternatifs". La journaliste qui l'interviewe, stupéfaite, rétorque : "Les faits alternatifs ne sont pas des faits, ce sont des mensonges."

Cet épisode, apparemment anecdotique, marque un tournant. Ce n'est pas tant le mensonge qui est frappant - les politiciens ont toujours menti - c'est l'affirmation décomplexée qu'il puisse exister des "faits alternatifs", comme si la réalité elle-même était devenue négociable.

Harry Frankfurt, philosophe américain, propose une clé de lecture qui fait écho aux réflexions de grands philosophes sur le rapport à la vérité. Dans son analyse, il distingue trois rapports au vrai qui marquent une dégradation progressive de notre relation à la vérité.

Il y a d'abord la vérité simple : dire ce qui est. C'est ce que Platon considérait comme la mission du philosophe - dévoiler la réalité telle qu'elle est, au-delà des apparences. Pour lui, le mensonge était une corruption de l'âme, un éloignement volontaire du vrai.

Vient ensuite le mensonge : dire délibérément ce qui n'est pas. Kant y voyait une atteinte à la dignité humaine car le menteur, même s'il trompe autrui, reconnaît implicitement l'existence d'une vérité. Il doit d'ailleurs la connaître pour pouvoir la travestir. Le menteur reste donc, paradoxalement, dans une certaine relation avec la vérité.

Mais Frankfurt identifie un troisième rapport, plus récent et plus troublant : le "bullshit", une forme de discours totalement indifférente à la question même de la vérité. Contrairement au menteur qui doit connaître le vrai pour le déformer, le "bullshitteur" s'en désintéresse complètement. Son seul objectif est de créer un effet, de générer une réaction, de marquer les esprits. La distinction entre vrai et faux devient secondaire par rapport à l'impact émotionnel ou viral.

Cette évolution marque une rupture profonde avec toute la tradition philosophique occidentale. De Socrate à Nietzsche, même les penseurs les plus critiques de la notion de vérité absolue considéraient le rapport au vrai comme une question fondamentale. Le "bullshit" contemporain représente une forme inédite de nihilisme : non plus la négation active de la vérité, mais son irrelevance complète.

Cette situation fait étrangement écho à ce qu'Orwell décrivait dans 1984, mais de manière plus insidieuse encore. Dans le roman, le Ministère de la Vérité falsifie systématiquement le passé pour le faire correspondre aux besoins du présent. La fameuse formule "2 + 2 = 5" illustre comment le Parti peut imposer une fausse vérité par la force. Le personnage principal, Winston, se bat désespérément pour maintenir que 2 + 2 = 4, pour préserver un rapport objectif à la vérité.

Extrait 1984 - 2 min

Mais notre situation actuelle est peut-être plus troublante encore. Dans notre monde, personne n'a besoin d'imposer que 2 + 2 = 5. Le "bullshit" contemporain nous amènerait plutôt à dire "2 + 2 = ce que vous ressentez" ou "chacun a sa vérité sur 2 + 2". Ce n'est plus la vérité qui est attaquée frontalement comme chez Orwell, c'est l'idée même qu'une vérité objective puisse avoir de l'importance. La "doublepensée" d'Orwell - cette capacité à croire simultanément deux choses contradictoires - est remplacée par quelque chose de plus radical : une indifférence totale à la contradiction elle-même.

Pour comprendre la profondeur de cette mutation, le concept de "régimes de vérité" développé par Michel Foucault s'avère particulièrement éclairant. Selon lui, chaque société développe ses propres mécanismes pour distinguer le vrai du faux. Ces régimes de vérité définissent non seulement qui a l'autorité pour dire le vrai, mais aussi comment on valide une affirmation et quelles sont les conséquences d'être "dans le vrai" ou "dans le faux".

Ce que nous vivons aujourd'hui n'est pas une simple évolution, mais une rupture radicale de ce régime de vérité. Les procédures traditionnelles de validation - peer review académique, fact-checking journalistique, expertise institutionnelle - se trouvent concurrencées par des métriques purement numériques : viralité, engagement, likes. Dans ce nouveau système, une vidéo YouTube vue des millions de fois acquiert de facto plus d'autorité qu'une étude scientifique rigoureuse.

Byung-Chul Han, un philosophe germano-coréen, pousse cette analyse plus loin en théorisant ce qu'il nomme le "régime numérique de la vérité". Pour lui, nous sommes entrés dans une ère où la vitesse de circulation d'une information prime sur sa véracité, où l'intensité émotionnelle l'emporte sur la rigueur rationnelle, où l'immédiateté écrase toute forme de réflexion approfondie. Ce nouveau régime ne se contente pas de redéfinir ce qui est vrai - il transforme la notion même de vérité en la soumettant à la logique de la performance numérique, du “reach”, c’est à dire de la portée, et de la “répétition” comme disent les pros de media.

Par ailleurs, Hannah Arendt, dont nous avons parlé dans l'épisode précédent, avait anticipé une autre dérive : le danger n'est pas tant que les gens croient aux mensonges, mais qu'ils développent une forme de cynisme généralisé où plus rien n'est vraiment vrai ni faux. Dans un monde où tout n’est qu’une question de point de vue, ou l’individu et l’alpha et l’omega, on tend à renoncer à vouloir même savoir ce qui vrai ou non. Si je veux croire que la terre est plate, qu’est-ce que ça peut vous faire à vous ?

On y est, le fruit est mur, le verre est dedans et il se régale, on est les deux pieds dans le plat, pris la main dans le sac en pleine prophétie auto-réalisatrice, "dans le dur", au cœur même de ce que Arendt redoutait, en plein dans le mille.

Le cynisme n'est plus une posture intellectuelle, c'est devenu notre mode par défaut, notre air du temps, notre pain quotidien, pardonnez-nous nos offenses, Amen. Nous surfons sur la vague du relativisme avec une désinvolture qui aurait fait frémir les plus grands sceptiques de l'histoire.

Si ces transformations semblent déjà vertigineuses, elles ne sont peut-être que le prélude à une mutation encore plus fondamentale…

On va un peu parler d’IA

L'émergence des IA génératives introduit un nouvel acteur dans ce paysage déjà complexe : des systèmes capables non seulement de traiter l'information, mais de générer activement du contenu qui imite parfaitement les productions humaines.

Cette nouvelle étape dans l'histoire de notre rapport au savoir mérite évidemment qu'on s'y arrête un peu, et je compte bien y revenir dans des épisodes prochains. Contrairement aux précédentes révolutions technologiques qui ont transformé la diffusion ou le stockage de l'information, l'IA modifie la nature même de la production de connaissances. Si l'écriture a externalisé notre mémoire, si l'imprimerie a démocratisé l'accès aux textes, l'IA fait quelque chose de radicalement nouveau : elle externalise notre capacité même à produire du sens.

Cette transformation se manifeste de trois manières fondamentales :

Premièrement, l'IA introduit un nouveau type de production de savoir qui défie nos catégories traditionnelles de vérité et d'erreur. Les élections américaines de 2024 en offrent un exemple saisissant. En février, des électeurs du New Hampshire ont reçu des messages vocaux générés par IA imitant parfaitement la voix de Joe Biden, leur demandant de ne pas voter. Plus tard, d'anciennes photos de Kamala Harris ont été manipulées par IA pour la montrer en tenue communiste, tandis qu'une vidéo deepfake l'accusant d'un délit de fuite a été vue des millions de fois sur les réseaux sociaux, Trump a retweeté un deepfake montrant Taylor Swift appelant à le soutenir. Ces contenus, d'une qualité indiscernable du réel, illustrent une nouvelle forme de désinformation plus sophistiquée que le simple mensonge. C’est encore assez anecdotique, mais ce n’est que le début.

L'exemple désormais célèbre de cet avocat sanctionné pour avoir utilisé ChatGPT en 2023 (dans l’affaire Mata v. Avianca) illustre un autre aspect du phénomène : l'IA n'a pas simplement fait des erreurs - elle a inventé des précédents juridiques qui n'ont jamais existé mais qui étaient si cohérents avec la jurisprudence existante que même des professionnels expérimentés ont été trompés. Comme le souligne Stuart Russell, nous sommes face à des systèmes qui ne "mentent" pas au sens traditionnel, mais qui produisent du "vraisemblable statistique" - un contenu qui respecte les patterns observés sans aucun égard pour la vérité factuelle. Meme s’il est vrai que la progression des IA en la matière est extrêmement rapide, la nature de la production de savoir n’est pas la même.

Deuxièmement, cette situation transforme fondamentalement la nature même de l'expertise. Prenons l'exemple d'un diagnostic médical. Traditionnellement, un médecin s'appuyait sur ses connaissances, son expérience clinique et son jugement. Aujourd'hui, un système comme Watson d'IBM peut analyser des millions de dossiers médicaux en quelques secondes et suggérer des diagnostics avec un taux de précision parfois supérieur aux meilleurs spécialistes. Le médecin ne doit plus seulement être expert en médecine, mais aussi devenir expert dans l'interprétation critique des suggestions de l'IA. Comme le souligne David Weinberger, l'expertise devient méta-expertise.

Harry Collins et Robert Evans, deux sociologues des sciences de l'université de Cardiff, sont connus pour leurs travaux fondamentaux sur la nature de l'expertise scientifique. Dans leur ouvrage "Rethinking Expertise" (2007), qui a fait date, ils nous aident à comprendre comment fonctionne véritablement le savoir expert en distinguant trois niveaux d'expertise traditionnelle : l'expertise contributive (la capacité à faire), l'expertise interactionnelle (la capacité à comprendre et dialoguer), et l'expertise discriminatoire (la capacité à juger).

L'IA bouleverse ces catégories en créant une situation paradoxale : elle peut surpasser les experts dans l'accumulation et le traitement de l'information, mais sans la moindre compréhension réelle. ChatGPT peut rédiger un article de physique quantique convaincant sans comprendre un seul concept physique.

Cette nouvelle réalité crée ce que Luciano Floridi, philosophe de l'information à Oxford et pionnier de l'éthique numérique, appelle une "infosphère". Ce concept, qu'il développe depuis les années 2000, décrit un environnement où la frontière entre connaissance humaine et artificielle devient de plus en plus floue. Pour Floridi, nous vivons une quatrième révolution : après Copernic qui nous a décentrés dans l'univers, Darwin qui nous a replacés dans l'évolution, et Freud qui a relativisé notre conscience, le numérique remet en question notre statut d'agents informationnels uniques. L'expertise humaine ne peut plus se définir par la simple possession d'information - Google en sait plus que n'importe quel expert. Elle doit se réinventer autour de ce qui reste uniquement humain : la compréhension contextuelle, le jugement éthique, la capacité à donner du sens.

La métaphore de la bibliothèque de Babel imaginée par Borgès prend ici une résonance particulière. Dans cette bibliothèque infinie qui contenait tous les livres possibles, la vérité existait quelque part - il "suffisait" de la trouver parmi une infinité de non-sens. Avec l'IA, nous faisons face à quelque chose de plus troublant : un océan de contenus tous plausibles, tous cohérents, mais pas nécessairement ancrés dans le réel. Le défi n'est plus de chercher l'aiguille de vérité dans la botte de foin, mais de naviguer dans un monde où tout ressemble à une aiguille.

CONCLUSION : VERS UNE ÉCOLOGIE DE LA CONNAISSANCE

En conclusion de ce voyage à travers les mutations contemporaines de notre rapport au savoir, un constat s'impose : nous sommes entrés dans une ère de complexité inédite qui exige de nous une nouvelle façon de penser.

Pierre Lévy et Bruno Latour nous offrent deux concepts complémentaires pour éclairer le chemin. Pour Lévy, nous devons passer d'une épistémologie de la vérité unique à une "intelligence collective augmentée" - il ne s'agit plus de chercher LA vérité, mais d'apprendre à naviguer collectivement dans la complexité. Latour, lui, propose de développer une "écologie des pratiques" - une façon de faire tenir ensemble différents régimes de vérité sans les réduire les uns aux autres.

Le débat sur le changement climatique illustre parfaitement ce défi. Une approche simpliste opposerait "climatosceptiques" et "climatologues", comme s'il s'agissait simplement d'avoir les bons chiffres. Une pensée complexe, elle, comprend que nous sommes face à ce que Latour appelle un "objet chevelu" - un phénomène où s'entremêlent inextricablement données scientifiques, modèles mathématiques, intérêts économiques, identités culturelles et visions du monde.

L'IA ne fait qu'accentuer cet enchevêtrement. Quand elle peut générer instantanément des milliers d'analyses plausibles d'un même jeu de données, la question devient : comment maintenir des vérités communes dans un monde où s'entremêlent :

  • La crise des institutions traditionnelles du savoir

  • Une infrastructure numérique qui façonne activement nos perceptions

  • Un individualisme épistémique croissant

  • Des IA capables de produire du vraisemblable à l'infini

Chaque grande révolution technologique dans l'histoire - l'écriture, l'imprimerie - a nécessité l'invention de nouveaux outils intellectuels. Mais notre époque exige peut-être plus encore : une refonte complète de notre rapport au savoir. Il nous faut développer ce que j'appellerais une véritable "écologie de la connaissance" - non pas pour éliminer la complexité, mais pour apprendre à naviguer en son sein.

Vaste programme…

Voilà, on est arrivé au bout du voyage, on a traversé l’océan et on voit le rivage. Je vous retrouve dans l’épisode de conclusion pour finir de prendre la hauteur sur ces notions de vérité, de croyance, de réel, d’épistémologie donc et faire le point sur quoi faire de tout ça.

Soutenez Sismique

Sismique existe grâce à ses donateurs. Aidez-moi à poursuivre cette enquête en toute indépendance.

Merci pour votre générosité ❤️

Dans la même série

Abonnez-vous à la newsletter

Recevez les nouveaux épisodes directement dans votre boîte mail

S'inscrire à la newsletter

Communauté Discord

Rejoignez une communauté de plus de 2000 membres

Participez aux discussions et échangez avec les autres auditeurs

Rejoindre Discord

Voici le lien vers l'offre Cyberghost, mon partenaire du mois