L’information structure nos perceptions, nos opinions, et in fine nos décisions collectives.
Mais cette information n’est jamais neutre. Elle est filtrée, hiérarchisée, organisée.
Pendant longtemps, ce rôle était assumé par des humains. Aujourd’hui, il est largement délégué à des algorithmes.
Qu’est-ce que ce basculement change concrètement ?
En quoi les systèmes de recommandation transforment-ils notre rapport au réel, au débat public, à la démocratie ?
Qui contrôle ces flux, et selon quelles logiques ?
Et surtout, peut-on imaginer d’autres architectures informationnelles, plus compatibles avec les exigences démocratiques ?
Pour en parler, je reçois Jean-Lou Fourquet, qui travaille sur les algorithmes de recommandation et leurs effets sur nos sociétés.
Un épisode pour revenir aux bases (suite notamment à l’épisode avec Audrey Tang), comprendre ce qui est en train de se jouer, et explorer ce que l’on peut faire, collectivement et individuellement.
---
Jean-Lou Fourquet est Co-auteur de La dictature des algorithmes (Tallandier, 2024), chroniqueur pendant trois ans pour Arrêt sur Images sur l'économie de l'attention, il enseigne et vulgarise ces enjeux en conférence et sur sa chaîne YouTube ApresLaBiere. Il est co-fondateur de Lyfe Catalyst, initiative entrepreneuriale au service de la transition numérique. Président de l'association Tournesol.app, qui promeut la gouvernance démocratique des algorithmes, il consacre également une part importante de son travail à outiller concrètement les individus (dont lui-même), par ses articles et ses vidéos, pour reprendre le contrôle de leur vie numérique
00:00 Introduction à l'Univers de Jean-Loup
01:26 Retour en France et Engagement Écologique
01:52 L'Importance de l'Information dans la Démocratie
05:00 L'Équilibre entre Individuel et Collectif
10:30 Le Contrôle de l'Information et le Pouvoir
14:21 Influence des Réseaux Sociaux sur la Démocratie
15:31 Changement dans la Circulation de l'Information
20:26 Algorithmes et Économie de l'Attention
33:23 Les Ingérences Étrangères et leur Impact
53:30 Propagande et Autoritarisme à l'Ère Numérique
01:29:13 Initiatives citoyennes et nouvelles technologies
01:46:50 Rôle des politiques et régulation nécessaire
01:48:06 Livres inspirants et perspectives d'avenir
Information comme moteur de coordination démocratique
L'information est la condition de la coordination sociale : sans base informationnelle partagée, la capacité collective à agir et à légitimer le pouvoir s'érode.
La démocratie repose non seulement sur la compétition politique, mais sur un minimum d'informations communes permettant décision et délibération.
Conception des systèmes de recommandation et effets cognitifs
Les algorithmes individualisent les flux : chaque personne reçoit une "chaîne" quasi unique, réduisant les expériences partagées.
Les recommandations ciblent des réponses impulsives et émotionnelles plutôt que des préférences réfléchies, exploitant biais cognitifs et économie de l'attention.
Cette individualisation contourne les mécanismes classiques de filtrage social (famille, institutions, médias locaux) et accélère la polarisation affective.
Conséquences politiques et exemples observés
La combinaison d'attention économique et ciblage algorithmique facilite la manipulation (ex. campagnes coordonnées, attaques de commentaires) et l'ingérence étrangère.
Cas concrets évoqués dans l'épisode (Cambridge Analytica, IRA, affaire Roumanie/TikTok, couverture par chaînes étrangères, mouvements sociaux) illustrent différentes modalités d'exploitation des plateformes.
L'ampleur des plateformes transforme des décisions apparemment anodines (algorithmes éducatifs, recommandations) en déterminants de long terme pour les savoirs et les pratiques.
La métaphore du barrage : plates-formes comme vannes informationnelles
Les grandes plateformes jouent le rôle de "valves" massives qui canalisent ou fragmentent le flux informationnel du commun démocratique.
Quand ces vannes privilégient l'engagement émotionnel, elles modifient la structure même des opportunités de coordination collective.
Expérimentations civiques et caractéristiques souhaitables des outils
Les réponses technologiques efficaces cherchent à reconstituer de l'espace commun : surfacer les consensus, structurer la délibération et rendre les processus transparents.
Pratiques citoyennes utiles : délibération en ligne organisée, transparence des opérations électorales (streaming de bureaux de vote), méthodes pour identifier convergences et désaccords.
Les "briques" techniques à promouvoir sont celles qui priorisent visibilité collective, traçabilité des arguments et réduction des incentives à la polarisation.
Régulation, souveraineté numérique et obstacles politiques
La régulation doit viser les architectures incitant aux "dark patterns" et aux recommandations nuisibles, tout en reconnaissant la difficulté politique d'imposer des changements.
Trois voies possibles : action étatique, adoption volontaire par les entreprises, pression citoyenne — aucune n'est suffisante seule, chaque voie exige volonté politique et coordination.
La souveraineté numérique et les politiques publiques sont conditionnelles à capacités techniques, ressources et arbitrages démocratiques.
Actions pratiques pour citoyens, entreprises et décideurs
Citizens: exercer la parole publique, soutenir et tester alternatives délibératives, et faire pression sur les décideurs pour des règles de conception responsables.
Entreprises: investir dans des designs qui réduisent l'impulsion émotionnelle et favorisent l'information partagée plutôt que le seul engagement.
Décideurs: combiner régulation ciblée et soutien aux expérimentations démocratiques pour reconstituer des espaces communs d'information.
Nuances, limites et conditions de succès
Les solutions techniques sans réforme politique resteront insuffisantes ; la transition demande compromis, ressources et acceptation sociale.
Il existe des tensions entre personnalisation utile et fragmentation néfaste : l'enjeu est de repenser les objectifs de personnalisation, pas de l'interdire aveuglément.
L'efficacité des interventions dépendra de l'évolution des modèles économiques des plateformes et de la capacité démocratique à prioriser le bien commun informationnel.
Concepts clés
Information comme moteur de coordination sociale — Notion centrale développée dans l'épisode: l'information permet la coordination collective et fonde en grande partie la légitimité démocratique, car les décisions publiques supposent un socle informationnel partagé.
Individualisation des flux et économie de l'attention — Description de la manière dont les recommandations algorithmiques personnalisées créent des « chaînes » quasi-uniques pour chaque personne et exploitent les biais cognitifs et émotionnels pour capter l'attention.
Polarisation émotionnelle et manipulation — Concept selon lequel les systèmes de recommandation favorisent des contenus à forte charge émotionnelle, amplifiant la polarisation et rendant plus aisées les opérations d'influence (étrangère ou domestique).
« Barrage » métaphorique des plateformes — Métaphore utilisée dans l'épisode: les grandes plateformes fonctionnent comme des vannes majeures de l'information qui alimentent le bien commun démocratique ou le fragmentent selon leur design.
Réponses combinées: technologies civiques, régulation et souveraineté numérique — Approche plurielle proposée: outils civiques pour révéler consensus/délibération, réglementations pour limiter les dark patterns et choix politiques pour promouvoir des alternatives.
Organisations, institutions et acteurs
Plateformes de recommandation: YouTube et TikTok — Citées comme exemples paradigmiques des logiques de recommandation algorithmique et de leurs effets sur les contenus pédagogiques et la formation de publics. (YouTube: youtube.com, TikTok: tiktok.com)
Cambridge Analytica — Mentionnée comme exemple de ciblage politique basé sur des données et de manipulation électorale. (Cambridge Analytica — Wikipedia)
Internet Research Agency (IRA) — Cité comme exemple d'acteur d'influence étatique/militante ayant opéré sur les réseaux sociaux. (Internet Research Agency — Wikipedia)
Russia Today — Mentionnée dans l'épisode comme média ayant couvert certains mouvements sociaux (ex. gilets jaunes) et comme illustration des flux médiatiques internationaux. (RT)
Mouvement Black Lives Matter — Utilisé comme cas d'étude pour discuter des dynamiques virales, de mobilisation et des analyses de réseaux sociaux. (Black Lives Matter)
Polis, Tournesol, Agora.Citizen — Plateformes et projets de technologie civique évoqués comme outils visant à révéler le consensus, structurer la délibération et améliorer la qualité informationnelle. (Polis: pol.is; Tournesol: tournesol.app; Agora.Citizen — mentionnée dans le transcript mais cible exacte non confirmée ici.)
Audrey Tang et Taïwan — Citée comme référence en matière d'expérimentation démocratique numérique et d'usage de technologies civiles (ex. Polis) au service de la gouvernance. (Audrey Tang — site personnel: audreyt.org)
Acteurs étatiques, entreprises et initiatives citoyennes — Groupe d'acteurs discutés comme parties prenantes possibles des réformes (régulation, adoption de briques technologiques, pression politique).
Données, ordres de grandeur et repères
« 2 milliards d'heures de YouTube par jour » — Chiffre cité dans le transcript comme repère illustratif de l'échelle d'audience de certaines plateformes; présent dans l'épisode mais signalé ici comme figure rapportée par l'intervenant et nécessitant vérification externe.
Études et listes citées sans sources complètes — L'épisode évoque des études sur l'influence (ex. comptes IRA sur Twitter, analyses de la dynamique autour de Black Lives Matter) mais les références précises ne sont pas fournies dans le transcript; leur mention est notée comme informelle et demande vérification documentaire.
Absence de statistiques détaillées sur l'adoption des plateformes civiques — Le brief signale que des plateformes comme Polis, Tournesol et Agora.Citizen sont décrites et illustrées par des cas (Taïwan), mais que les ordres de grandeur d'adoption ou d'impact chiffré ne sont pas fournis dans le transcript.
Contexte historique et politique
Information et pouvoir historique — Thème récurrent: le contrôle de l'information a longtemps été une source de pouvoir politique et social; l'épisode replace la révolution des plateformes et des algorithmes dans cette continuité historique.
Références à auteurs et théories de la coordination sociale — L'épisode mobilise des travaux et auteurs (Henrich, Turchin, Elinor Ostrom) pour situer la discussion sur la coordination, la gestion des communs et la dynamique des sociétés complexes.
Noam Chomsky (anecdote) — Mentionné dans l'épisode via une anecdote d'interview — utilisé pour illustrer des analyses médiatiques et critiques du pouvoir informationnel; l'évocation est narrative et non accompagnée d'une référence précise.
Joseph Henrich — The Secret of Our Success (titre mentionné en français dans le transcript comme « Secret de notre succès »). Livre cité pour ses analyses sur la coordination sociale et les adaptations culturelles; page éditeur: Princeton University Press — The Secret of Our Success.
Peter Turchin — Ultra Society. Mentionné explicitement dans l'épisode comme référence pour penser les dynamiques de grande-scale des sociétés et les tensions contemporaines; information et page auteur: Peter Turchin — Ultrasociety.
Yuval Noah Harari — Référence mentionnée dans le transcript sous le nom « Harari » et sous un titre transcrit comme « Nexus »; le titre cité dans l'épisode est incertain et nécessite vérification externe, mais l'auteur est évoqué pour ses réflexions sur l'information et la société. (Site auteur: ynharari.com)
Concepts et pistes
Bulle de filtre et personnalisation algorithmique — comprendre comment la personnalisation transforme l'espace public en séries d'expériences individuelles aide à repenser les solutions (du réglage de recommandations à la création d'espaces communs de vues).
Économie de l'attention et design émotionnel — déplacer le débat du "contenu" vers les mécanismes qui capturent et exploitent l'attention (notifications, ralenti cognitif, récompenses intermittentes).
Capitalisme de surveillance — un cadre pour penser la monétisation des comportements et ses effets structurels sur la démocratie et la vie privée.
Audit algorithmique et transparence opérationnelle — piste pratique : comment auditer, mesurer et rendre publiques les logiques de recommandation sans tomber dans un jargon technique indéchiffrable.
Architecture du choix et nudges — quand et comment modifier les interfaces pour encourager délibération et résilience informationnelle sans paternaliser les citoyens.
Gouvernance des plateformes et souveraineté numérique — reconnecter la question technique (protocole, donnée, interopérabilité) à la question politique (qui décide des règles du commun informationnel).
Conception de « briques » civiques — stratégie pragmatique : petites infrastructures (outils de délibération, indices de confiance, formats de consensus) qui peuvent être adoptées et combinées pour restaurer des espaces partagés.
Rapports, etudes, films ou documentaires
The Social Dilemma (documentaire) — une entrée grand public et percutante sur les dynamiques d'algorithmes d'engagement et leurs effets sociétaux.
The Great Hack (documentaire) — plongée narrative dans les pratiques de ciblage politique et leurs implications pour les élections modernes.
Coded Bias (documentaire) — met en lumière les biais des systèmes algorithmiques, utile pour relier problématiques d'équité et de recommandation.
Rapports « Computational Propaganda » de l'Oxford Internet Institute — séries d'études rigoureuses sur l'usage des bots, opérations d'influence et tactiques de manipulation politique.
Stanford Internet Observatory — études et enquêtes techniques qui documentent campagnes coordonnées et interférences étrangères sur les plateformes.
RAND — série "Truth Decay" — utile pour comprendre comment se creuse l'érosion du rôle des faits et de l'autorité compétente dans l'espace public.
Étude sur la contagion émotionnelle de Facebook (Kramer et al., 2014) — cas emblématique d'expérimentation in vivo sur l'affect des utilisateurs et un terrain d'éthique opérationnelle.
Digital Services Act (Union européenne) — document incontournable pour suivre comment le droit tente aujourd'hui de ré-encadrer les responsabilités des plateformes.
Livres et penseurs
Shoshana Zuboff — The Age of Surveillance Capitalism : une cartographie puissante des modèles économiques qui sous-tendent les plateformes contemporaines.
Eli Pariser — The Filter Bubble : un précurseur utile pour saisir les effets politiques de la personnalisation des flux.
Cathy O'Neil — Weapons of Math Destruction : critique lucide des algorithmes opaques qui reproduisent et amplifient les injustices.
Zeynep Tufekci — Twitter and Tear Gas : mélange de terrain et d'analyse sur la dynamique des mouvements sociaux à l'ère des réseaux et des algorithmes.
Yochai Benkler — The Wealth of Networks : fondations théoriques sur la production collaborative et les communs informationnels.
Safiya Noble — Algorithms of Oppression : insiste sur les biais structurels et culturels portés par les moteurs et recommandations.
Tarleton Gillespie — Custodians of the Internet : réflexion sur la modération, la responsabilité des plateformes et les dilemmes de gouvernance.
danah boyd — It's Complicated : regard nuancé sur les usages réels des jeunes et les écarts entre discours publics et pratiques sociales.
Evgeny Morozov — The Net Delusion : critique du techno-solutionnisme et rappel critique que la technique ne remplace pas la politique.
Renée DiResta — travaux et analyses sur les campagnes de désinformation : utiles pour relier tactiques techniques et stratégies géopolitiques.
Julien:
Salut Jean-Lou !
Jean-Lou Fourquet:
Salut Julien, ça va ?
Julien:
Très bien, très bien. Et toi ?
Jean-Lou Fourquet:
Impeccable !
Julien:
On va commencer par du classique : est-ce que tu peux te présenter brièvement, me raconter ce que tu fais, ton petit univers ?
Jean-Lou Fourquet:
Je m'appelle Jean-Lou Fourquet. Je suis journaliste indépendant, auteur. J'enseigne un peu sur les thématiques des conséquences des algorithmes de recommandation : je fais des interventions en école d'ingénieur et en école de commerce. Et moi, j'essaie de fouiller cette thématique depuis un moment.
Et à la base, moi, j'étais aussi… Je m'intéressais beaucoup au climat, à la transition énergétique, depuis une dizaine d'années. Et historiquement — parce que maintenant, ça commence à revenir de loin — j'ai eu un diplôme d'ingénieur ; j'étais ingénieur pendant quelques années, avant de me rendre compte, notamment — d'ailleurs, si on revient à ça — de ces questions d'algorithmes de recommandation.
Je bossais en Australie au moment où les télés se sont connectées. On a connecté les télés à Internet. Et j'avais des clients qui me demandaient : est-ce qu'on peut faire, avec les télés connectées australiennes, la même chose que l'Australie faisait déjà à l'époque avec les set-top boxes. Où, en gros, plus on se rapprochait de la fin du film, plus la fréquence des publicités augmentait.Et du coup, on nous a demandé de faire des applications sur les télés connectées qui faisaient aussi ça.
Bref, en 2012, j'ai décidé que ce n'était pas ça que je voulais faire de ma vie, au moment où je me rendais compte du changement climatique. Et du coup, je suis rentré en France. Et depuis, je m'affaire à essayer de parler de ça, de vulgariser, que ce soit sur le côté un peu vulgarisateur ou même entrepreneurial.
Et donc voilà : je fais ça depuis une dizaine d'années.
Julien:
Comment ça marche, comment l'information est structurée, comment elle nous influence, l'impact sur la démocratie : on va parler de tout ça en même temps, en essayant de sectionner les choses.
Sachant que, normalement, cette interview sera diffusée après celle d'Audrey Tang, avec qui on a parlé de ces choses-là. Avec qui tu m'as permis d'entrer aussi en relation, donc merci pour ça aussi.
On va commencer par des questions larges, puis on va aller de plus en plus aussi dans des silos.
Mais commençons par parler d'information, pour comprendre un peu le rôle structurant que va avoir l'information, d'une manière générale, dans les sociétés humaines.
J'ai donc une question d'ouverture, avant qu'on parle justement d'algorithmes, etc. Pour qu'on prenne un peu de recul : pourquoi, en fait ? Pourquoi est-ce que l'information a toujours été une question centrale dans l'organisation du monde, dans l'organisation de nos sociétés, et en particulier dans les régimes démocratiques ?
Jean-Lou Fourquet:
Alors, moi, le bout par lequel j'aime bien prendre la question, c'est de dire que ce qui fait la force de l'espèce humaine, ce n'est pas forcément ce à quoi on peut penser instinctivement. On a l'impression que les individus humains sont hyper intelligents, etc... par rapport à d'autres espèces. Quand on fait des tests cognitifs avec des chimpanzés ou d'autres membres de notre famille des primates, on se rend compte qu'il y a plein de tests cognitifs sur lesquels les humains ne sont pas si forts que ça. Ils ne sont pas si supérieurs à des chimpanzés ou des orangs-outans.
Ce qui fait vraiment la supériorité de l'espèce humaine, ou des humains, c'est le fait qu'on est une espèce très sociale. C'est-à-dire qu'on a une capacité à aspirer les connaissances des autres qui est énorme. Et ça, ça se fait par le biais du mimétisme : parce qu'en fait, on va parvenir à trouver la personne qui a un rôle intéressant, on va arriver à mimer ce rôle, et à mimer et reproduire les informations et les pratiques que cette personne a.
Mais ça passe aussi, et beaucoup, par le langage et la diffusion des informations.
Ce qui fait vraiment la force des humains, ce ne sont pas les humains individuellement : ce sont les humains en tant que groupe, qui arrivent à se coordonner et qui arrivent à faire, pour le coup, ce que 20, 30 chimpanzés — 30 humains n'arriveraient pas du tout à faire. Ce qui nous permet de nous coordonner, c'est le fait qu'on arrive justement à échanger cette information. L'information, c'est littéralement la survie.
C'est-à-dire : moi, en fait, si tu me mets dans une forêt à l'autre bout du monde et que je ne sais rien faire en tant qu'individu humain, je suis moins intelligent que toutes les bêtes sauvages de cette forêt.
Et par contre, si un jour on arrive à me dire tout ce qu'il faut faire, et toutes les informations qui me permettent de survivre dans une forêt, je peux survivre dans une forêt.
Et c'est vraiment ça, le nerf de la guerre, effectivement : c'est cette capacité à avoir l'information.
Et sur ça, il y a plein d'histoires intéressantes, etc. Mais le principe, c'est de se dire : ce qui fait la force d'un humain, et a fortiori d'un groupe humain, c'est cette information avec laquelle il est capable de façonner le monde et de l'adapter à ses besoins, voire à ses désirs. Et là où l'information a un statut particulier, peut-être dans des sociétés démocratiques, ou alors plus démocratiques, c'est qu'en fait, dans une société démocratique, il y a un peu ce concept de dire : on va parvenir à faire sens de l'information que vont capter plein de gens de cette société.
La société autocratique, en gros, toute l'information remonte en haut de la pyramide, elle est traitée tout en haut, de manière centralisée, et elle redescend.
Alors, je caricature, mais c'est ça le principe.
Et la démocratie, c'est un peu l'espérance — ou pas l'espérance d'ailleurs, parce qu'on y reviendra —, c'est aussi, concrètement, une manière plus efficace d'organiser la collecte et la redescente d'informations.
Sur ça, je trouve qu'il y a une fausse histoire — mais je ne sais plus comment on appelle les fausses histoires : c'est pas les histoires posthumes, c'est les histoires… ? — Elle est racontée par Harari dans son livre*Nexus*, qui est d'ailleurs une très bonne illustration de ce que c'est, l'information.
Et en gros, c'est au moment de la Perestroïka : il y a un émissaire de l'Union soviétique qui arrive — je crois que c'est en Angleterre, dans l'histoire. Et au bout de deux jours, il demande à la personne qui lui fait le tour de l'Angleterre pour lui montrer comment ça marche — parce que la Perestroïka, c'est ça : c'est essayer de voir comment l'Union soviétique peut sortir un petit peu du côté totalitaire soviétique.
Et il demande, au bout de deux jours : « Mais qui c'est qui gère le prix du pain ?
Parce que je vois qu'en face des boulangeries, il n'y a jamais de queue, et que c'est très, très bien distribué.
Et nous, on n'y arrive pas parce qu'on a une sorte de personne qui décide du prix, et ça ne marche jamais : parce que soit c'est trop cher, il n'y a personne, etc. »
La personne répond : « Non, il n'y a personne, parce que la manière dont chacun et chaque boulanger va décider lui-même du prix de la baguette ou des denrées va faire qu'il va y avoir une sorte de régulation, justement par cette manière distribuée et décentralisée de décider du prix de la baguette, chacun en fonction de son intérêt individuel. »
Quand même avec des règles très précises, qui font que cette intelligence collective et cette décentralisation de la prise d'informations peuvent avoir un sens collectif.
Du coup, en démocratie, pour moi, c'est ça.
C'est vraiment cette manière organisée de la collecte et de la prise de décision, et de la collecte d'informations, en fait.
Et du coup, c'est ça qui est central.
Parce que, pour faire ça, il faut tout un tas de…Il faut cocher tout un tas de cases.
Sinon, effectivement, ça ne marche pas vraiment.
Julien:
On entend aussi souvent que, pour que la démocratie fonctionne, il faut qu'il y ait une forme de consensus par rapport à ce qui est le réel, à ce qui est la vérité. En quoi est-ce que c'est quelque chose qui est central pour le système, et en quoi est-ce que c'est différent d'autres types de régimes ?
Jean-Lou Fourquet:
En fait, oui, il faut consensus. Et il ne faut pas forcément consensus sur tout, mais il faut quand même une base commune. Enfin, après, on peut discuter de à quel point la base commune doit être là, mais, par exemple, la base de la base, c'est de se dire : il faut partager, par exemple, une certaine croyance et une certaine confiance dans la manière dont la décision est prise et appliquée.
Et ça, il faut un consensus sur ça.
Si tu as beaucoup de gens, dans une démocratie, qui ne font pas confiance aux institutions démocratiques, effectivement, ça ne marche pas.
Après, ce n'est pas pour ça que tu as besoin d'avoir un consensus sur tout.
Et tout le monde n'a pas à être d'accord sur : est-ce que lui ou elle, c'est une bonne politique, etc.
Mais il y a effectivement une base commune, parce que la confiance, dans une démocratie, c'est le moteur de tout.
Et comme, dans les démocraties, il y a une dose de liberté qui est laissée à chacun, c'est ça vraiment le but de la démocratie : c'est un équilibre entre l'intérêt individuel — donc on me laisse œuvrer pour mon intérêt individuel — et l'intérêt collectif.
Et pour moi, une manière de voir la démocratie, c'est un système qui arrive à créer un cercle vertueux entre la réalisation de mon intérêt individuel et une certaine stabilité, qui permet les bases pour que tous et toutes réalisent cet intérêt individuel.
Il y a vraiment cette sorte d'équilibre entre l'intérêt individuel, qui s'aligne avec la stabilité collective, etc.
Et pour ça, il faut avoir confiance dans les institutions qui font que ce « miracle » est possible. Et attention : tout ça, c'est des spectres, c'est-à-dire qu'on n'est pas dans des systèmes qui sont… Je ne suis pas en train de dire que la démocratie est un système parfait qu'on a eu. Mais voilà : on a cet équilibre qu'on cherche et, en tout cas, qu'on a plus ou moins à atteindre. Exactement.
Julien:
Alors, en quoi le contrôle de l'information, dont on a un peu parlé — on a vu comment ça structurait les sociétés humaines et ce que ça faisait de nous, en tant qu'espèce un peu à part —, en quoi est-ce que, historiquement, ça a toujours été un enjeu de pouvoir ?
Jean-Lou Fourquet:
La personne qui, effectivement, contrôle le récit, ou la fabrique de l'information, ou l'information, effectivement, elle a énormément de pouvoir.
Sur ça, j'aime bien : moi, il y a un auteur que j'aime beaucoup, qui s'appelle Henrich, et il a parlé notamment, par exemple, de comment l'Église est arrivée à prendre le pouvoir au Moyen Âge — donc du bas Moyen Âge au milieu, au tournant du millénaire — sur la logique des clans.
À l'époque, c'était les clans, les clans de famille, qui avaient du pouvoir.
L'Église catholique a réussi à prendre le pouvoir à ces clans, notamment en détruisant les clans.
Et pour détruire les clans, ils ont interdit notamment les mariages internes, donc les mariages au sein du clan, parce que c'était une manière pour le clan de garder du pouvoir.
En maîtrisant le récit, en maîtrisant justement qu'est-ce qui fait que les gens arrivent à se coordonner — donc avec la religion —, en utilisant le besoin ou le désir de spiritualité des gens, elle est arrivée à prendre le pouvoir, en fait, en contrôlant le récit et en interdisant, parce que Dieu avait dit que ce n'était pas bien, les mariages au sein du clan.
Donc il y a quand même un truc très fou où l'Église catholique est arrivée à interdire jusqu'au septième degré les mariages.
En gros, les gens étaient obligés d'aller très, très loin de chez eux, et donc de sortir très, très loin du clan.
En détruisant et en prenant le pouvoir au clan, quelque part, l'Église a elle-même gagné du pouvoir.
Tout ça, c'est juste une histoire pour illustrer que c'était déjà le cas il y a 2 000 ans.
Vraiment, quand tu maîtrises les mythes, quand tu maîtrises les histoires, effectivement, tu as un énorme pouvoir.
Et c'est le cas aujourd'hui ; ça a été le cas des journalistes, etc.
Parce que là, on va parler des algorithmes de recommandation.
Mais ce n'est pas pour rien que*Le Monde diplomatique* fait une carte de qui possède les médias tous les ans, mise à jour en France, etc.
Parce qu'effectivement, quand tu maîtrises et que tu possèdes des médias, tu vas pouvoir orienter, de manière fine ou moins fine, le récit.
Et c'est tout à fait logique : ça s'est toujours passé, il n'y a rien de nouveau sous le soleil.
Et je crois que tu avais interviewé Chomsky.
Voilà. Et Chomsky, il y a un dialogue — sûrement tu l'as déjà vu, mais moi je le trouve incroyable — où Chomsky est en face d'un journaliste, Andrew Marr, de la BBC.
Andrew Marr lui demande : « Mais tu penses vraiment que je m'auto-censure ? » Et Chomsky répond : « Non, non, non, je ne pense pas du tout que vous vous auto-censuriez. Je pense que vous dites exactement ce que vous pensez. Par contre, je pense que si vous ne pensiez pas comme vous pensez, vous ne seriez pas assis là où vous êtes assis. »
Effectivement, la possession et le contrôle des médias, ça permet d'avoir un peu plus de contrôle et de pouvoir sur qui est assis là où ils sont assis et donc, du coup, d'avoir le pouvoir sur ce qui va être dit.
Donc voilà : cette maîtrise de l'information et des informations qui circulent, elle a un impact incroyable sur nos sociétés, nos organisations. Que ce soit en démocratie ou ailleurs, c'est quelque chose sur lequel il va y avoir toujours beaucoup d'affrontements et de conflits.
Julien:
Est-ce que tu irais jusqu'à dire que, finalement, la démocratie repose beaucoup moins sur le vote que sur la qualité, la maîtrise des flux informationnels en amont ?
Jean-Lou Fourquet:
En fait, je pense que surtout, oui, je pense complètement. Et je pense qu'il y a un peu ce truc-là où on fait trop vite l'amalgame entre démocratie et vote. Le vote, c'est une partie de la démocratie, mais c'est une partie assez faible, au final.
Julien:
Ça n'arrive pas souvent, déjà.
Jean-Lou Fourquet:
Déjà, ça n'arrive pas souvent.
Alors ça, on va y revenir.
Ça n'arrive pas souvent.
Et en plus, quand on demande l'avis aux gens, informationnellement, c'est très pauvre.
On demande à des gens de se prononcer une fois tous les cinq ans sur une information qui pourrait tenir sur quatre bits d'information.
C'est-à-dire : 16 candidats, ces quatre bits d'information.
En gros, c'est ça, l'information qu'on arrive à prélever des gens.
Et je pense qu'une démocratie vivace, aujourd'hui, elle pourrait profiter du fait que nos fibres optiques peuvent contenir beaucoup plus que 4 bits d'information tous les 5 ans.
Et du coup, effectivement, les gens qui parlent de démocratie disent toujours ça.
Ils disent vraiment : ce qui fait le cœur de la démocratie, c'est toutes les discussions, les débats qu'il y a avant et après le vote.
C'est ça : c'est le débat démocratique et l'organisation de comment ces flux informationnels circulent dans la société.
C'est ça qui fait la vraie richesse, ou la vraie force, d'une démocratie.
Julien:
Et puis on va voir comment c'est intéressant, en fait, de penser que le processus démocratique a quasiment pas évolué, malgré les outils modernes qu'on a.
Effectivement, tu peux… C'est marrant d'en parler en bits, parce qu'à un moment donné, il n'y avait pas d'autre choix, pour créer de l'information, que de mettre ça sur des petits bouts de papier et faire voter les gens de temps en temps, parce qu'il y avait des contraintes.
Aujourd'hui, on pourrait complètement repenser le truc.
On va parler un petit peu de ça, mais d'abord, je voudrais qu'on parle de la rupture qui s'est produite avec les flux informationnels.
Est-ce que ça change ? Qu'est-ce qui a réellement changé avec Internet, les réseaux sociaux ?
On aurait tendance, parfois, à croire que le numérique, les réseaux sociaux, c'est qu'un média de plus qui se serait installé en parallèle des autres médias, puisqu'en gros, il y a toujours la télé, il y a toujours les journaux, et puis même si on sait bien qu'on passe beaucoup plus de temps, maintenant, sur nos écrans.
Je voudrais que tu m'expliques, selon toi, ce qui a profondément changé dans les 20 dernières années — en particulier, 25 dernières années — dans la manière dont l'information circule, et qui a un impact considérable sur la manière dont les opinions se forment, et donc dont la société fonctionne, en fait.
C'est une grosse question, mais par quel bout tu prends la chose ?
Jean-Lou Fourquet:
Tu dis « 20 ans », et c'est intéressant parce qu'il y a 20 ans — ou un peu plus maintenant, 22 pour être précis —, en 2004, Patrick Le Lay, le directeur de TF1 à l'époque, avait cette phrase où il disait : « Le métier de TF1, c'est de vendre des secondes de cerveau humain disponible à Coca-Cola. » Et, si tu veux, ça n'a pas beaucoup changé, parce que le métier de Facebook, d'Instagram, de TikTok, etc., c'est exactement le même.
Du coup, j'aime bien revenir à ça, parce que c'est une vraie question.
Qu'est-ce qui fait fondamentalement la différence entre TF1, Le Monde et les réseaux sociaux aujourd'hui ?
Il y en a plein, mais moi, je vais commencer par celle que je pense vraiment, à mon avis, prépondérante — ou qui fait vraiment qu'on est passé dans un autre âge : c'est la capacité d'individualiser les flux.
C'est-à-dire que TF1 devait tout de même créer une grille et des programmes qui allaient être ensuite diffusés à une masse de gens.
Et petit à petit — et le paroxysme, c'est maintenant les algorithmes de recommandation —, petit à petit, effectivement, on est passé de l'ORTF, où il y avait une chaîne, à, en France, toute une époque où il y a eu six chaînes, mais où il y avait quand même des larges publics.
Aux États-Unis, ils ont eu une phase où ils ont eu le câble, où il y avait quand même beaucoup plus de chaînes.
Et, en fait, on en est arrivé au stade de l'individualisation où, en fait, chaque personne a sa chaîne.
Elle a une vision du monde qui lui est quasi unique.
Un flux, exactement.
Parce qu'effectivement, il faut bien voir qu'aujourd'hui, quand vous allez sur une plateforme, le flux que vous avez est organisé par des systèmes de recommandation, des intelligences artificielles de recommandation, qui décident ce que vous allez voir dans le flux.
Et ça, on pourra en reparler, mais c'est intéressant de voir la trajectoire : ils sont de moins en moins basés sur les choses que toi, Julien, ou que moi, Jean-Lou, avons décidé de suivre.
Parce que ces systèmes — ou les plateformes qui maîtrisent ces systèmes — se sont rendus compte que, en fait, moins on écoutait les désirs réfléchis de Julien et de Jean-Lou, plus Julien et Jean-Lou allaient passer du temps, finalement, sur la plateforme.
Parce que moi, je décide de m'abonner à une chaîne de physique quantique et d'histoire médiévale, mais, au final, ce qui me fait craquer, c'est des gens qui font de l'escalade sans cordes et qui dévalent des immeubles en skateboard.
Il y a vraiment ce truc-là où, en fait, cette capacité à individualiser les flux, elle est différente. Et j'en arrive au deuxième point, qui est vraiment une deuxième différence qu'on vient d'aborder : c'est la capacité de ces systèmes à outrepasser nos barrières et nos limitations cognitives qu'on se mettrait, en nous connaissant quelque part, et en connaissant la cognition humaine bien mieux que nous-mêmes.
Parce que, justement, ils se sont aperçus qu'en fait, il valait mieux parler à la partie de moi-même qui est très impulsive pour générer du temps d'attention, que parler à la partie de moi-même qui s'est abonnée à de la physique antique et à de l'histoire médiévale.
Et en fait, ça a généré aussi une asymétrie de pouvoir entre l'entité qui distribue de l'information et l'entité — nous — qui la consommons, qui est énorme, et qui explique aussi le fait que personne ne s'est dit, il y a 20 ans, qu'on allait passer 8 heures collés derrière des écrans ; et pourtant, c'est ce que tout le monde fait aujourd'hui.
Et ça, ça vient de cette capacité à vraiment, quelque part, contourner les mécanismes cognitifs qu'on pourrait avoir pour essayer de maintenir notre temps d'attention sur des choses qu'on estime vraiment comptées et être vraiment intéressantes.
Julien:
Si tu pouvais décrire rapidement comment ça marche aujourd'hui : je pense que maintenant, il y a beaucoup de gens qui ont cette idée du fait qu'il y a quelque chose qui est personnalisé en fonction de notre interaction, qu'on va essayer de jouer sur nos biais cognitifs pour capter un maximum de notre temps de cerveau disponible. C'est l'économie de l'attention, et même l'économie de la mise en action, parce que derrière, c'est pas que l'attention qu'on veut : c'est que les gens achètent quelque chose ou fassent quelque chose. Pour expliquer, en fait, ce qu'il y a derrière, qui n'est pas forcément conscientisé.
Julien:
En termes de quantité d'informations, de la vitesse, des techniques, justement pour jouer sur les biais, et comment aussi tout ça, ça a été de plus en plus instrumentalisé, pas que pour du commercial, mais aussi pour l'opinion en général et le politique : c'est…
Jean-Lou Fourquet:
Alors ça, c'est intéressant parce qu'effectivement, il faut vraiment distinguer — je pense qu'il faut distinguer — ces deux étapes.
Il y a la première étape qui est, je pense, qui n'est pas apolitique, mais qui est apartisane.
C'est-à-dire qu'en fait, les plateformes, les big tech — donc les grandes plateformes sur lesquelles on va consommer des médias — pendant très longtemps, elles étaient très politiques, dans le sens où elles veulent absolument tout déréguler et elles ne veulent avoir aucune responsabilité face à la société, etc.
Mais, par contre, elles n'étaient pas partisanes. Elles ont, de manière apartisane, participé à la polarisation de la société. Parce que, en gros, ce qui se passe — moi, j'aime bien cette métaphore — c'est qu'à chaque fois que je vais me coucher, j'ai une vision complètement incroyable de ce que je vais être capable de réaliser le lendemain, tu vois. Je me dis : « Demain, tu vas te lever hyper tôt, 7h ; tu vas aller courir 10 km ; après, tu vas manger des graines, un peu de tisane, parce que le thé c'est pas bon et le café c'est encore moins bon ; après, tu travailles 3h hyper intensément ; et ensuite, tu vois, ce soir, quand tu auras bien travaillé, tu verras un super film conseillé par ta mère : Kurosawa, 3h30, c'est génial. » Et ça, c'est la personne qui va se coucher.
Et clairement, en allant me coucher, j'ai ces grandes ambitions pour moi. Et le lendemain, je me lève, et là, il y a une autre personne qui prend les rênes et qui fait absolument n'importe quoi, qui boit 3 cafés avant de voir les yeux, etc. Si tu veux, ce qui s'est passé, c'est que, petit à petit, ces systèmes ont été de plus en plus conçus pour parler et faire craquer complètement la personne qui, finalement, se lève, et enlever du pouvoir à la personne qui se couche.
Et en gros, ça, c'est fait parce que c'est des systèmes qui arrivent à guetter tout ce qu'on fait sur les réseaux sociaux, en permanence.
Ils sont capables de voir, de distinguer la personne, justement, qui a fait le choix réfléchi de s'abonner à des choses intéressantes et de concevoir son système informationnel pour n'avoir que des choses intéressantes ;
et la personne qui, dans d'autres situations, va craquer sur telle vidéo.
En fait, ces systèmes, ils arrivent à toucher le côté le plus instinctif et émotionnel de nous-mêmes. Et donc, on en arrive à être prisonnier de nous-mêmes, quelque part ; ou, en tout cas, à ce que ces systèmes arrivent à titiller cette partie-là.
Et donc, cette partie-là, c'est celle qui va notamment se régaler de voir des gens qui ne pensent pas comme moi, et qui sont complètement débiles. Et donc, tu vas avoir sur Twitter un phénomène que tout le monde a eu : ce ne sont pas forcément des bulles de filtre. Il y a eu beaucoup, à un moment, ce truc de dire : « On est dans des bulles de filtre », où, en fait, je ne vois que des gens qui pensent comme moi. En fait, la vraie réalité, c'est que c'est pire : ce n'est pas que je ne vois que des gens comme moi, c'est qu'en fait je vois le pire des gens qui ne pensent pas comme moi.
Parce qu'en fait, ça me caresse dans le sens du poil cognitif de ne voir que des caricatures des gens pas comme moi, parce que ça me conforte dans le fait que moi j'ai raison, et que les autres, ils sont complètement cons de ne pas penser comme moi.
Alors que c'est beaucoup plus dur, cognitivement, d'être face à quelqu'un qui te challenge profondément, qui te dit : « Ah, et ça, je n'aime pas ; et ça, je ne vais pas interagir 100 millions… » Ou, en tout cas, ça va être plus dur pour moi d'interagir avec des contenus qui remettent vraiment ma vision du monde en question.
Et donc, de manière complètement non-partisane, ces systèmes ont fait et ont créé ce qu'on appelle la polarisation émotionnelle : où, en fait, ce n'est pas forcément qu'on pense très différemment des autres, c'est juste qu'on a une image très caricaturale et négative des gens qui ne pensent pas comme nous.
Et ça, pour le coup, c'est un poison pour la démocratie. Parce que la démocratie peut s'accorder assez bien avec le fait que des gens ne pensent pas comme toi ; par contre, elle s'accorde assez mal avec le fait que tu détestes les gens qui ne pensent pas comme toi.
Parce que c'est vraiment le principe de la démocratie : c'est de dire qu'on va essayer d'avoir un débat démocratique à peu près serein, et je fais confiance dans les institutions, parce que je sais que j'ai été écouté, et que j'ai pu exprimer mon avis, et que je pense que je partage à peu près la base avec mon adversaire, ou avec la personne qui ne pense pas comme moi. Je fais confiance au choix, et je…
Julien:
J'accepte de perdre.
Jean-Lou Fourquet:
J'accepte de perdre.
Julien:
Exactement. J'accepte de perdre parce que je me dis que l'adversaire n'est pas un ennemi.
Jean-Lou Fourquet:
Exactement. Et aujourd'hui, ces systèmes, en fait, ils nous transforment, et ils transforment tous les gens qui font et qui ont le débat démocratique, de plus en plus, en ennemis.
Juste, et pas par volonté partisane : c'est juste parce qu'en fait, c'est ça qui va créer le plus d'attention et donc le plus de revenus pour les plateformes.
Et donc ça, c'est le premier étage de la fusée : on a créé cette polarisation émotionnelle juste parce que c'est ça qui générait le plus d'argent. Et après, t'as le deuxième effet qui se coule : effectivement, nous, on a des milliardaires en France qui rachètent des médias ; aux États-Unis, maintenant, ils ont des milliardaires qui rachètent carrément des réseaux sociaux. Et honnêtement, je suis assez content que les nôtres n'aient pas assez d'argent ou n'aient pas encore compris ça, parce que je pense que, effectivement, si tu veux avoir le plus de pouvoir, c'est la chose à faire : racheter les réseaux sociaux.
Je fais partie des gens qui pensent qu'aujourd'hui, l'éditorialisation et la maîtrise de l'information passent davantage par la maîtrise des systèmes de recommandation des grandes plateformes — ou des plateformes sur lesquelles on passe beaucoup de temps — que par la maîtrise des médias.
Je ne dis pas que les médias, il n'y a pas de pouvoir, etc.
Mais je dis juste qu'il y a une bascule de pouvoir, et je pense qu'aujourd'hui, la plupart des contenus des grands médias sont aussi beaucoup au diapason de ce qui se fait sur les plateformes.
Ouais, voilà.
Julien:
On va revenir pour voir aussi comment c'est instrumentalisé politiquement dans différents endroits du monde, y compris chez nous.
Je voudrais rester un petit peu sur ce que ça change dans la manière dont fonctionne la démocratie.
On entend souvent parler d'opinion publique.
On a pris l'habitude d'avoir des sondages qui nous disent que le peuple pense ça et qu'on est plus ou moins divisé, mais qu'il y a une espèce d'opinion publique qui existe.
Est-ce que c'est encore pertinent comme terme, en fait, dans un univers qui est à ce point-là fragmenté ?
Jean-Lou Fourquet:
Ben… La manière dont j'aurais de répondre à ça, je ne sais pas si ça n'a jamais été pertinent.
Par contre, ce qui est sûr, c'est que l'opinion que je pense pertinente, c'est celle de Lawrence Lessig, qui est une des personnes qui réfléchit beaucoup à ces questions démocratiques, d'information, de la matière, de créer du commun notamment.
Et je pense qu'il ne faut pas idéaliser une époque du broadcast, mais il y a quand même un moment où les démocraties libérales se sont fondées aussi sur des univers informationnels où une grande partie de l'information que chaque citoyen avait était la même, ce qui ne veut pas dire qu'elle était vraie. Mais, en tout cas, il y avait une chaîne d'information, une radio, ou les mêmes gatekeepers — dont on va aussi reparler — qui nous disent : voilà la version du réel. On peut en discuter, mais au moins on a cette base commune.
Et d'ailleurs, ça me permet d'aller sur un truc : c'est qu'en fait, le fait que ce soit vrai ou pas, on s'en fout un peu.
Moi, j'aime bien la distinction que des gens font entre quelque chose qui est vrai et quelque chose qui est métaphoriquement vrai.
Et en fait, quelque chose qui est métaphoriquement vrai, c'est juste une croyance qui fait que le groupe qui la tient pour vraie a un avantage sur l'autre groupe.
Après, que derrière il y ait une réalité physique ou pas : si ça te donne une compréhension collective du monde qui te permet d'avoir un avantage sur l'environnement ou sur le groupe adverse, ça peut être métaphoriquement vrai.
Et en fait, c'est là — et c'est ça aussi que dit Harry — : l'information, le but, c'est de créer une vision collective qui permet au groupe d'agir.
Après, que l'information soit véritablement vraie, alignée avec la réalité physique ou pas, tant qu'elle permet au groupe d'agir : allons-y. Enfin, allons-y.
Elle est métaphoriquement vraie, du coup.
Ou alors, je crois que Harry, il parle plutôt d'intersubjective. Mais ce n'est pas grave.
C'est juste pour dire, au final, que l'information soit vraie au sens physique du terme, ce n'est pas forcément pertinent pour analyser ce qui se passe dans le monde.
Mais du coup, effectivement, dans un monde où tout le monde a la même information, ça permet — qu'elle soit vraie ou fausse — la coordination. Et donc tu peux avoir effectivement des opinions publiques où il y a un vrai sens, et où l'opinion publique n'est pas dépendante de l'allégeance politique des gens.
Par exemple, sur ça, il y a un exemple que prend Lawrence Lessig, qui est très intéressant : au moment du Watergate, il y a eu ce phénomène — le Watergate, le scandale des écoutes, etc.
Julien:
Nixon, oui.
Jean-Lou Fourquet:
Où, en fait, la cote de popularité de Nixon a chuté chez les démocrates et chez les républicains.
Donc là, tu peux parler d'opinion publique parce que les faits qui étaient diffusés ont eu une influence sur tout le monde, quelle que soit l'allégeance politique, partisane, des uns et des autres.
Aujourd'hui, on est typiquement dans un truc complètement inverse aux États-Unis où, en gros, ça fait un moment que la cote de popularité de Trump est très peu affectée — ou du moins pas du tout autant qu'on s'attendrait — par tous les scandales qui l’accablent depuis plus de huit ans maintenant.
Enfin, depuis toujours, mais depuis la première élection en 2017.
Et ça, ça va dans le sens, effectivement, qu'il n'y a plus d'opinion publique parce qu'en fait les faits que certains entendent n'ont aucune conséquence sur les autres, parce que les autres, en fait, ne les entendent même pas : parce qu'en fait, ils n'arrivent pas dans leur flux d'informations.
Et dernière chose, parce que j'y pense : il y a eu la finale du Super Bowl.
Donc il y a eu la finale du Super Bowl, et donc il y a eu un grand show à la mi-temps, parce qu'aux États-Unis c'est un grand truc, la finale du Super Bowl de football américain. Et en fait, ce qu'ils ont fait là, c'est qu'il y a eu un show qui a été regardé par beaucoup d'Américains, qui était plutôt très progressiste avec Bad Bunny et Trump a organisé son show, et le show pour MAGA, et ça montre bien à quel point…
Julien:
Diffusé en même temps.
Jean-Lou Fourquet:
Diffusé en même temps, avec les gens estampillés MAGA, etc.
Et t'en arrives à ce système où, en fait, tout le monde s'adapte et tout le monde prend ce truc de : chacun a son flux informationnel. On crée des flux parce qu'on sait très bien qu'en fait les gens vont aller regarder ça. Si t'es MAGA, tu vas regarder le show MAGA ; si t'es pas MAGA, tu vas pas regarder le show MAGA. Et le seul truc que les MAGA vont voir du show que les autres ont vu, c'est une caricature, probablement, des moments les plus progressistes du show qui est officiel.
Julien:
Il y a toujours eu une bataille, dans tous les régimes politiques, pour la maîtrise du récit, comme tu l'as dit, pour la maîtrise du flux informationnel.
Et on voit aussi, d'ailleurs, un avantage que peut avoir, au moins sur un court terme, un régime autoritaire, qui va proposer la même version à tout le monde de manière efficace, du coup de manière figée ; et donc ça permet de bouger tout le monde dans le même sens, plutôt que ce qui va être perçu par certains comme une perte de temps, une perte d'énergie, dans les démocraties.
Qui, historiquement, produisent autre chose, produisent aussi de la friction et donc de l'innovation, mais qui, aujourd'hui, est telle qu'elle ralentit énormément de choses et qu'elle fait dysfonctionner tout ça.
Mais je voudrais quand même comprendre comment tu perçois cette idée qu'il y a toujours eu des gatekeepers, qu'il y a toujours eu une forme de filtrage d'informations, parce que les journalistes faisaient justement ce choix de ce qu'on allait diffuser, parfois d'ailleurs — même souvent — en accord avec le pouvoir.
Pour comprendre ce qui est vraiment nouveau dans la manière dont ce filtrage est fait, dont ce filtrage algorithmique est fait.
Et faire la distinction aussi entre ce qui va être de l'ordre de la logique algorithmique pure — donc pour capter l'attention — et ce qui est déjà plus de l'ordre de la manipulation politique. Parce que ce n'est pas quelque chose comme Reginald Isika nous l'a dévoilé : ce n'est pas toujours neutre, ce n'est pas juste forcément pour avoir notre attention, et on va nous orienter de telle ou telle manière.
Il y a aussi des décisions qui sont prises, soit dans la manière dont les algorithmes fonctionnent, soit dans la manière dont ils vont être instrumentalisés, qui font qu'on va dans telle ou telle direction.
Le politique, les puissants, ont à leur disposition un outil totalement inédit de manipulation de masse, qui change la donne.
Donc je voudrais aussi que tu m'expliques ça, et peut-être que tu parles aussi de ta métaphore du barrage informationnel.
Jean-Lou Fourquet:
Oui, mais clairement. Du coup, en trois étapes.
La première, c'est qu'à chaque fois qu'il y a une nouvelle technologie de la communication, ça ne s'est pas fait sans accrocs. Il y a des gens qui soutiennent que c'est notamment l'invention de l'imprimerie de Gutenberg qui a créé aussi les guerres de religion en Europe.
Qui a participé à ce que ça puisse se faire, parce qu'il y a eu une diffusion de la Bible à tout le monde, que tout le monde a pu la lire, se l'approprier, et ça.
Et de la même manière, il y a eu tout un mouvement à la fin du 19e siècle où on a appelé la presse jaune, parce qu'il y avait très peu de régulation de la presse et qu'en fait il y avait une incitation au clash, au commérage, à la diffamation. Et que derrière, on a régulé pour essayer justement de pallier ces problèmes générés par ces innovations de la technologie propre à l'espèce humaine, qui est justement la communication.
Et en fait, ce qui change aujourd'hui, c'est juste qu'on est pris de vitesse, tout simplement, parce qu'il y a aujourd'hui, sur les médias classiques, tout un système de régulation et de responsabilité qui fait qu'il ne se passe pas n'importe quoi.
C'est-à-dire que le gatekeeping, comme tu l'appelles, le gatekeeping journalistique, est organisé.
Il est organisé : il y a des règles, il y a une responsabilité éditoriale, etc. Aujourd'hui, les grandes plateformes se sont débrouillées pour n'être absolument pas régulées. Et du coup, le gatekeeping algorithmique n'a aucune espèce de régulation. Pour tout un tas d'histoires historiques — la section 230 aux États-Unis — il n'y a aucune responsabilité éditoriale des plateformes qui choisissent le contenu que vous allez voir.
Julien:
Le gatekeeping, tu traduis comment ? La vigilance ?
Jean-Lou Fourquet:
Ouais, le filtrage vigilant ou la maîtrise des bornes, des fois.
Et je pense que ça, c'est une vraie différence : c'est qu'aujourd'hui, on a des lois qui sont là pour responsabiliser, pour organiser le pluralisme journalistique, alors qu'on n'a aucune loi. Et aujourd'hui, là où il y a quand même plein de médias — il y a quand même un grand nombre de médias en France, un grand nombre de médias aux États-Unis —, on parle, pour les plateformes, des réseaux sociaux et des grandes plateformes sur lesquelles on va.
Il y en a moins d'une dizaine pour le monde entier.
C'est une situation monopolistique complètement énorme.
Donc ça, déjà, c'est une première différence.
Et la deuxième différence, c'est qu'il n'y a aucun contrôle démocratique.
Il n'y a aucune responsabilité sur le contenu qui est massivement amplifié.
Donc ça, c'est le premier truc sur lequel… la question que tu m'as posée.
La deuxième question que tu as posée, c'est sur la manipulation.
Parce qu'aujourd'hui, ce n'est pas que des histoires de modèles économiques, et on fait ça pour avoir de l'attention et de l'argent.
Et sur ça, tu as parlé de Cambridge Analytica, et c'est un très bon exemple.
Tu as un autre exemple que moi, j'aime bien citer, parce que je le trouve hyper illustrant : c'est que, du temps où Elon Musk n'était pas le CEO de Twitter, il y a des Américains qui ont fait une étude sur le débat Black Lives Matter aux États-Unis.
Ils ont fait toute une étude sur le hashtag BLM, donc Black Lives Matter. Parce qu'il y a eu un moment aux États-Unis où, comme il y a eu Black Lives Matter, tout le monde s'en souvient : c'est le moment où il y a eu plein de révoltes et de protestations contre le fait que des policiers tuent des Afro-Américains aux États-Unis.
C'était un mouvement très consensuel au départ, et après il y a eu tout un tas de protestations. Et notamment, il y a eu des événements où un Afro-Américain a tué des policiers.
Et donc, imagine : Twitter s'est enflammé comme seul Twitter sait faire, avec une sorte de débat hyper polarisé entre les gens qui disaient : « Non mais Black Lives Matter, ça suffit », et les autres qui disaient : « Non mais il faut continuer. »
Donc, ils font leur étude.
Tout va bien.
Imagine deux pôles qui sont divisés et qui ne pensent pas pareil. Donc, une analyse comme ça.
Et en fait, trois semaines après la publication de l'étude, Twitter publie une liste de comptes qui sont visiblement manipulés par l'IRA — c'est l'Internet Research Agency, logée à Saint-Pétersbourg.
Et en fait, les chercheurs et les chercheuses, notamment, se rendent compte que, dans la liste publiée par Twitter, ils connaissent tous les handles, donc tous les noms d'utilisateurs. Ils les connaissent parce que c'est des gens qui ont été massivement représentés dans la bataille que, eux, venaient d'étudier.
Et ils regardent, et ils se rendent compte, en fait, que les opinions, c'est les opinions des deux parties les plus extrêmes, qui étaient poussées par ces comptes manipulés.
Et en fait, il y a quelque chose de très intéressant dans la conclusion de l'étude, où les gens qui font l'étude disent un truc qui nous montre que ça a beaucoup marché : c'est que nous-mêmes, parce que nous étions progressistes, on a demandé à Twitter de vérifier deux fois plus les comptes manipulés qui représentaient leur opinion à eux.
Du coup, la conclusion de l'étude, c'est qu'ils sont effectivement arrivés à semer le doute, puisque même nous, nous avons douté de la méthodologie de Twitter pour trouver les comptes manipulés.
Et ça, c'est pour illustrer le fait qu'aujourd'hui, il y a aussi des manipulations qui sont soit une exploitation par une entité extérieure — comme c'est le cas de ce que je viens de décrire — pour exploiter les faiblesses de la plateforme, qui ne vérifie pas si c'est des gens authentiques, etc., qui s'expriment.
Ou alors, comme c'est le cas de Musk depuis qu'il a pris les rênes : là, très clairement, il y a quand même un grand faisceau d'indices et de preuves qui montrent que lui-même manipule l'algorithme de recommandation pour donner plus de portée aux opinions qu'il soutient.
Il y a quelque chose qui est devenu un mème : une personne force quelqu'un à boire du lait. En gros, il avait mis Twitter, et Elon Musk qui force Twitter à boire ses tweets et à diffuser ses tweets à très grande échelle.
Voilà. Et après, sur la métaphore du barrage : ça, c'est intéressant, parce que c'est un truc que j'aurais dû dire avant, mais on ne se rend pas vraiment compte de ce que c'est, un algorithme de recommandation, et de la puissance que ça a aujourd'hui.
Les derniers chiffres, c'est qu'en fait, l'humanité regarde 2 milliards d'heures de vidéos YouTube par jour.
Donc 2 milliards d'heures.
Et c'est 2 milliards d'heures que l'humanité regarde chaque jour sur YouTube.
Je ne parle même pas de TikTok : YouTube.
Il y en a au moins 70%. 70%, c'était avant que TikTok commence à faire glisser ce chiffre vers quasiment 100% : 70% qui sont décidés par l'algorithme et par l'intelligence artificielle de recommandation de YouTube.
Et juste pour avoir un ordre d'idée, parce que 1,5 milliard d'heures, moi, je ne sais pas très bien ce que ça représente — et pas grand monde : 1,5 milliard d'heures, c'est l'équivalent du temps d'enseignement de 50 000 professeurs pendant toute leur carrière. En gros, YouTube décide quelque part de ce que ces 50 000 professeurs vont enseigner pendant toute leur carrière, et ça, chaque jour. Donc l'humanité regarde la carrière de 50 000 professeurs tous les jours, et ça, c'est décidé de manière complètement non démocratique par YouTube.
Et ça, c'est pareil pour toutes les plateformes.
C'est juste pour donner un ordre d'idée.
Et ce que je disais tout à l'heure, ça va dans le sens que c'est 70%, ça devient de plus en plus 100%, parce qu'aujourd'hui, quand tu vas sur TikTok, ou quand tu vas regarder des shorts sur YouTube, tu as de moins en moins de vidéos que tu décides de regarder, ou qui te sont envoyées par des amis, ou que tu regardes depuis un site.
Et c'est de plus en plus : tu ouvres et tu fais 100% confiance à un flux de vidéos qui va être choisi par l'IA de recommandation de la plateforme.
Julien:
Est-ce que c'est le bon moment pour… ?
Jean-Lou Fourquet:
Je n'ai pas fini le barrage, d'ailleurs, désolé.
Julien:
Ouais, alors vas-y, parce que…
Jean-Lou Fourquet:
Pardon, je fais un tunnel.
Julien:
Non, non, mais très bien.
Jean-Lou Fourquet:
Non, mais en fait, sur le barrage, c'est juste… Ça, c'est vraiment un truc, notamment, qui vient des ccommuns informationnels, de la notion de commun. En fait, pour les gens qui connaissent les communs — Elinor Ostrom, la gestion des communs — il faut se dire qu'en fait, la démocratie, pour arriver à fonctionner, il faut que tout le monde ait une base commune d'information.
Le sang et l'oxygène de la démocratie, c'est une base informationnelle commune qui nous permet, en fait, d'organiser la démocratie.
Par exemple, imagine que quelqu'un soit abreuvé depuis tout petit par des théories alarmiquées complotistes. Ça va être difficile de faire une démocratie avec ces personnes-là, qui n'ont pas du tout la même base que toi.
Et en fait, du coup, le principe, c'est de dire : en fait, on est tous en train de s'abreuver dans un lac informationnel. Donc voilà : on est tous là, on est avec nos petites gourdes, et on prend de l'information ; et, pour que la démocratie fonctionne, il faut que cette information soit d'une bonne qualité.
Et en fait, la question, c'est de se dire : OK, d'où vient l'information qu'on consomme depuis qu'on est né ?
La première, c'est de se dire : elle vient de notre entourage, parce que mon entourage a sélectionné un bout de l'information que j'ai eue, et qui fait que je suis qui je suis.
La deuxième, c'est l'Éducation nationale.
C'est pas pour rien que tous les citoyens et citoyennes français ont un tronc commun, parce que, l'air de rien, l'Éducation nationale, c'est un tronc commun informationnel qui nous permet de fonctionner ensemble.
Et tu remarqueras qu'en fait, on peut s'étriper sur qu'est-ce qu'il y a dans les programmes, mais personne ne s'étripe trop sur le fait qu'il y a un programme.
La question démocratique, c'est : qu'est-ce qu'on va mettre dans le programme ?
Mais le fait qu'il y a un programme, ça fait un peu consensus.
Et après, on va mettre beaucoup d'énergie dans la régulation des médias privés et la création des médias publics, qui créent aussi cet informationnel commun. Et en fait, c'est comme ça que ça fonctionne à la base. Aujourd'hui, en plus, il y a les réseaux sociaux qui sont venus se greffer à ça, et sur lesquels on n'a mis qu'une espèce de contrôle ou de régulation qui nous permet de filtrer ce que vont déverser, dans le lac informationnel dans lequel on s'abreuve, les réseaux sociaux.
Donc en fait, on a mis beaucoup d'argent dans l'Éducation nationale : 160 milliards d'euros par an pour le budget de l'Éducation nationale.
On a beaucoup d'argent sur la régulation et la création des médias publics : c'est 4 milliards d'euros par an.
Et on a quasiment zéro euro.
C'est un petit budget de l'ARCOM qui peut permettre de réguler un petit peu les réseaux sociaux.
Donc c'est une petite partie de 46 millions d'euros.
Donc c'est vraiment rien.
Et en plus, ces vannes-là, qui déversent toute leur information dans le lac sur lequel la démocratie se base, sont contrôlées soit par des entités qui sont américaines, soit par une entité, TikTok, qui est chinoise.
Et c'est ça, la métaphore du barrage : c'est-à-dire qu'aujourd'hui, on a complètement abandonné le contrôle d'une des vannes les plus grosses qui alimente le lac informationnel dans lequel on va tous s'abreuver.
Et en fait, on est face à des marées noires informationnelles, et on est en train de se demander : est-ce que ça ne serait pas bien de faire un peu d'esprit critique ?
Et l'esprit critique, dans cette métaphore, c'est l'équivalent de demander à chacun de développer des branchies pour arriver à respirer dans des marées noires en permanence.
Et à mon avis, on a tout intérêt à essayer de s'intéresser aux mécanismes, donc aux algorithmes de recommandation, qui sont les vannes par lesquelles arrivent, ou n'arrivent pas, ces marées noires de pollution informationnelle.
Julien:
Oui, et puis on va prendre le temps de voir ce que tu proposes là-dessus.
Je trouve super intéressant, en fait, de regarder la structure, effectivement, de regarder dans quoi on est pris, plutôt que de faire appel systématiquement à notre esprit critique, à notre responsabilité individuelle. Parce que, quand on se rend compte de comment ça fonctionne, quand on se rend compte que, de toute façon, on est obligé de passer par ces écrans — soit parce que c'est devenu un outil, soit parce que c'est devenu un problème intergénérationnel, etc., une manière de sociabiliser aujourd'hui —, en fait, on n'est pas totalement libres, de toute façon, de nos opinions, etc.
J'avais une question sur l'… mais je la mets un petit peu de côté. Encore une fois, se rendre compte aussi de l'importance de l'ingérence étrangère là-dessus : tu en as dit deux mots, mais à quel point, aujourd'hui, cette classe est… elle n'est pas neutre. Non seulement elle crée de la confusion, mais en plus elle est alimentée par des choses et par des gens qui ont un agenda, comme on va dire en anglais, comme un projet, qui essaie de teinter l'eau du lac d'une certaine manière.
Est-ce que tu as deux, trois éléments qui illustrent ça, pour qu'on comprenne bien à quel point ça vient de partout ? Et si cet espace-là n'est pas maîtrisé, on perd complètement la main sur ce qu'on va appeler l'opinion publique, et donc la capacité à faire croire ensemble.
Jean-Lou Fourquet:
Alors, il y a plein de choses, mais un exemple, moi, que je trouve extrêmement illustrant et qui est récent, c'est l'histoire des élections en Roumanie, en 2024.
Et ça, c'est intéressant de voir ce qui s'est passé.
Du coup, et tout le monde peut aller voir, parce que franchement, tu regardes la courbe des sondages, tu vois bien qu'il y a quelque chose qui est quand même phénoménal qui s'est passé.
En gros, ce qui s'est passé, c'est que l'algorithme et l'IA de recommandation de TikTok se basent notamment sur l'analyse sémantique de tous les commentaires sous une vidéo pour choisir la prochaine vidéo.
Et ce qu'ont fait les attaquants, c'est qu'ils ont créé massivement des profils inauthentiques, et qui ont laissé des commentaires en faveur d'un candidat qui s'appelle Georgescu, pro-russe, pour parvenir à influencer la recommandation de la prochaine vidéo. Cette recommandation, s'inspirant de tous les commentaires pro-Georgescu qui étaient sous la vidéo de tous les politiques en Roumanie, avait beaucoup de chances de présenter une vidéo pro-Georgescu ensuite.
Parce que l'algorithme de recommandation se base…
Si, sous une vidéo, il y a plein de gens qui disent…
Sous une vidéo d'escalade, il y a des gens qui disent : « Ah ben moi, j'adore aussi le golf. » L'algorithme de recommandation va se dire : « En fait, il y a beaucoup de gens qui adorent l'escalade, qui aiment aussi le golf », et va présenter une vidéo de golf.
Et en fait, grâce à cette attaque, ils ont réussi à massivement influencer l'algorithme de recommandations, et aussi les résultats du vote, parce qu'il y a vraiment cette conception : on a beau être très libre et très indépendant, les informations auxquelles on est exposé ont une influence sur nous.
Et ça, je trouve que c'est un exemple assez prégnant de ce qui peut se passer. Et alors, il ne faudrait pas croire que c'est basé sur rien non plus, dans le sens où ce que font ces attaques, elles ne créent pas des mouvements à partir de rien. Elles créent des mouvements à partir de véritables frustrations aussi.
Et donc là, il y a vraiment un côté où, en fait, ce que font ces attaques, c'est qu'elles soufflent sur des braises qui existent.
Mais quand tu as des braises, tu n'as pas besoin qu'on y souffle dessus ; et le but de la démocratie, c'est d'essayer de les éteindre, pas que des adversaires qui n'ont qu'une envie — c'est de déstabiliser ton régime — soufflent dessus.
Mais voilà, c'est ça qui est en train de se passer. Et pour faire le lien avec Audrey Tang, qui te parlait, du coup, à un moment, de ces réseaux pro-sociaux dont on va parler : je suis allé voir, parce que ça faisait longtemps que je n'étais pas allé voir, elle travaille avec une illustratrice qui s'appelle Nicky Case, et qui avait fait un jeu il y a des années — dix ans maintenant — et qui s'appelle*We Become What We Behold* (donc : « on devient ce qu'on regarde »). Et ça, c'est vraiment la base du journalisme aussi : c'est de se dire qu'effectivement, en mettant ton spot sur un endroit de la société, tu vas aussi déclencher une certaine réaction.
Et donc, en fait, en ayant ces intrusions et ces ingérences, ce que font ces attaques, c'est qu'elles mettent le spot de l'attention de toute la démocratie là où ce spot a le plus de chances de générer de la tétanie : une incapacité à bouger, une incapacité à travailler ensemble, qui, du coup, nous affaiblit.
Donc, en fait, on laisse à des puissances étrangères le soin et le pouvoir de mettre le spot de notre attention là où ça nous affaiblit collectivement.
Julien:
Oui, et puis il y en a plein, des cas comme ça.
Il faut prendre conscience que…
Je mettrai aussi en lien sur le site tous les rapports de différents services qui mettent en évidence toutes les attaques presque quotidiennes, notamment en France. Notamment, les Russes sont très actifs dans la déstabilisation de l'écosystème français.
Les Américains aussi, de plus en plus.
Donc ce n'est absolument pas neutre.
Et comme tu le dis très bien, c'est important aussi de se rendre compte qu'on n'est pas maître de nos opinions.
Et que si, tout d'un coup, on se met à virer de bord, qu'on se met à être de plus en plus inquiété par tel ou tel sujet, en général, il y a une cause.
Ça peut être parfois une simple conversation avec un ami, ou quelqu'un, un membre de la famille ; mais ça peut être aussi une exposition à de plus en plus de contenu, etc.
Ce qui ne veut pas dire, comme tu dis, qu'il n'y a pas des sujets de fond et que tout est inventé.
Et d'ailleurs, c'est d'autant plus puissant quand il y a un début de braise, comme tu le disais.
Jean-Lou Fourquet:
Exactement.
Julien:
Il y a de la matière dans nos sociétés, qui sont d'ailleurs de plus en plus divisées, etc.
Jean-Lou Fourquet:
Mais tu vois, sur ça, ce n'est pas pour rien que Russia Today, à l'époque, avait vachement bien couvert les gilets jaunes.
Ça, c'est un exemple.
Et les gilets jaunes, ils ne les ont pas inventés. Ce mouvement, cette frustration sociale, elle a existé. Mais ce n'est pas innocent si Russia Today mettait son spot que sur ça. C'est exactement ça qui est en train de se passer.
Mais en fait, ce qui s'est passé à Russia Today, aujourd'hui, c'est décuplé par notre faiblesse à maîtriser les flux informationnels sur les plateformes.
Julien:
Et on peut faire un petit aparté là-dessus, sur la manière dont ces régimes-là — soit les démocraties libérales, soit les régimes autoritaires — utilisent ces outils-là de manière extrêmement pointue pour asseoir leur pouvoir, sans avoir d'ailleurs de plus en plus besoin de passer, comme avant, par de la coercition, comme l'ancienne stratégie de régime autoritaire.
C'est-à-dire que, à partir du moment où tu maîtrises ce flux, ça permet de créer une adhésion : la foule va dire « OK, finalement on a le meilleur régime qui soit », ou alors « il n'y a pas d'alternative ». Est-ce que tu peux dire aussi deux mots là-dessus ? Parce que ça permet aussi de figer beaucoup plus les choses qu'avant, et ça leur donne, quelque part, un avantage comparatif en termes de stabilisation du régime.
Jean-Lou Fourquet:
Et d'ailleurs, sur ça : vu que les gens qui écoutent vont être influencés par ce qu'on dit, je veux pas déprimer les gens, mais c'est une des analyses que fait notamment Harari dans*Nexus*. Il dit un truc très bien : il dit que si, aujourd'hui, l'URSS, Staline, avait eu la maîtrise des plateformes, peut-être que l'URSS ne se serait jamais écroulée.
Et, en fait, pour aller dans ce sens, je pense qu'aujourd'hui on a encore une vision un petit peu trop statique de ce que c'est, l'autoritarisme et la propagande. Pour nous, la propagande, c'est des gens qui disparaissent sur les photos.
Et c'est que ça. Et non : en fait, ça évolue.
Et aujourd'hui, par exemple, en Chine — TikTok, c'est un très bon exemple —, le parti communiste chinois n'a absolument pas à dire aux influenceurs politiques chinois ce qu'il faut dire. Il lui suffit, par sa maîtrise des systèmes de recommandation de TikTok, de mettre l'accent, de faire la promotion, d'amplifier la voix des récits qui lui conviennent déjà et qui sont déjà produits.
Et c'est ça qui est fort avec la maîtrise d'un système de recommandation algorithmique : c'est qu'en fait, c'est exactement la même chose que si tu avais une planche à billets.
C'est-à-dire que tu n'as même plus besoin de payer des influenceurs : tu as juste besoin de payer les influenceurs en visibilité algorithmique, qui est, de toute manière, le nerf de la guerre de l'influence. Et pour tous les gens qui s'expriment comme moi, comme toi, sur les réseaux sociaux, c'est la visibilité.
Et, en fait, par ce biais-là, ils arrivent à organiser le système informationnel de manière, effectivement, comme tu le disais, à fortifier la base idéologique, juste en…
Ils appellent ça le « shadow banning », tu sais : en ne donnant aucune visibilité aux discours qui ne leur vont pas.
Ils n'ont même pas à les mettre en prison.
Ils ont juste…
Alors, ils peuvent faire les deux.
Mais disons que le simple fait de ne pas amplifier, c'est déjà énorme, et de donner à voir exactement ce qu'ils ont envie qu'ils soient vus.
Et ça, cette maîtrise de la planche à billets, de la visibilité numérique, c'est une force énorme pour ces régimes.
Julien:
Oui, c'est ça.
C'est qu'on n'a pas besoin d'identifier les révolutionnaires ou de forcer un message.
Ça se fait maintenant avec ces outils.
Il n'y a même plus d'envie, entre guillemets, d'aller sur un contre-récit. Ou, en tout cas, elle n'est pas mise en avant.
Ça, c'est aussi quelque chose que tu as dit : il faut se rendre compte qu'il y a l'algorithme, sur ces réseaux, qui va mettre en avant certains contenus de manière automatique, on va dire. Mais il y a aussi, par moments, l'intervention humaine, qui fait qu'une éditorialisation va décider de mettre en avant telle ou telle personne, tel ou tel compte, tel ou tel contenu produit.
Jean-Lou Fourquet:
Et c'est vraiment les deux étages de la fusée.
Il y a vraiment ce truc où c'est basé sur l'instinct des foules, et donc plutôt la bêtise des foules plutôt que sa sagesse.
Et ça, c'est un truc sur lequel on va revenir, mais je pense que c'est une distinction importante.
C'est-à-dire qu'en fait, l'algorithme, il se nourrit de ça.
Et, en plus de ça, il peut y avoir soit des ingérences étrangères qui exploitent les faiblesses algorithmiques pour que ça aille dans un sens.
Et après, il y a aussi les gens qui maîtrisent la plateforme, qui, eux, de plus en plus, ont des intérêts politiques.
Et là, pour le coup, c'est clairement le cas des plateformes américaines, qui ont été plus rapides que les clercs pour se ranger derrière l'idéologie de Trump et qui, du coup, en font la promotion le plus rapidement.
Et il y a Elon Musk qui, quelque part, par sa maîtrise du système de recommandation aujourd'hui et par ses prises de position, influe clairement dans une direction.
Ce n'est pas pour rien qu'il fait des congrès pour faire la promotion de l'extrême droite allemande, qu'ils essaient de faire de l'ingérence en menaçant les juges qui empêcheraient peut-être Marine Le Pen de se présenter.
Il y a vraiment les deux.
Il y a ces effets mercantiles, dérégulés, et les effets politiques.
Julien:
C'est vrai qu'on précise un peu ça.
Quand on parle de recommandation ou de polarisation, on revient toujours à cette question : qui décide vraiment ?
De quel droit tu as dit que, finalement, le droit, ça va être celui qui possède la plateforme, ou en tout cas celui qui arrive, ou alors celui qui a le plus d'argent pour pouvoir investir et la manipuler d'une certaine manière, l'orienter d'une certaine manière ? Tu parles d'Elon Musk, mais comment ça se passe concrètement, en fait ? Qui va décider de l'orientation des contenus ? On voit à peu près, pour tout ce qui va être médias de masse — même si c'est pas forcément aussi clair que ça — que quelqu'un qui possède un journal ou quelqu'un qui possède une chaîne de télé va dire : « C'est pas moi qui décide de ce qui va être diffusé », mais il y a quand même une orientation. Comment ça se passe concrètement ?
Jean-Lou Fourquet:
Alors déjà, concrètement, il faut aussi voir que la plus grande décision, c'est qu'il n'y ait pas de décision démocratique.
Je m'explique.
Aujourd'hui, les plateformes comme YouTube, comme Instagram ou comme Snapchat n'ont pas trop eu le choix que de suivre ce qu'a fait TikTok.
Dans le sens où TikTok a trouvé ces nouveaux systèmes de recommandations basés vraiment sur nos émotions et nos instincts, sans se préoccuper des choses que nous avons choisies vraiment.
Et en fait, YouTube n'a pas eu le choix. C'est-à-dire que si YouTube ne fait pas ça, YouTube perd trop de parts de marché.
Et donc, ce qui a décidé de cette course en avant, c'est le fait que, collectivement, on soit incapable de réguler.
Parce que tant qu'on ne régule pas et qu'on ne dit pas que ces stratagèmes de recommandations, ou ces mécanismes — ces dark patterns de recommandations — sont interdits, eux, économiquement, ils ne peuvent pas ne pas y aller, parce qu'ils vont se retrouver sur la paille, à perdre des parts de marché.
Et après ça, qui décide, effectivement ? Là, pour le coup : qui décide de comment va être régulée la liberté d'expression, par exemple ? Sur ça, il y a des grands exemples : la liberté d'expression, et quel post va être retiré ou pas s'il a enfreint certaines règles. Sur Facebook, par exemple, Facebook a créé un truc qu'ils appellent Oversight Board, parce qu'en gros, la personne qui décide in fine, c'est quand même Zuckerberg.
Et il a le contrôle. Et donc, ils ont fait tout un tas de trucs pour voir quelles étaient les différentes cultures sur différents sujets polémiques, pour mettre en place des règles différentes, etc.
Et donc, il y a un peu ce côté-là : c'est la démission politique — ou en tout cas le non-volontariat politique de s'emparer de ces questions-là — qui a, quelque part, donné énormément de pouvoir aux plateformes et aux gens qui les dirigent.
Et en l'occurrence, là, c'est Zuckerberg, c'est Jeff Bezos, c'est Elon Musk.
Donc il y a vraiment ce truc-là.
Ces gens-là ont beaucoup trop de pouvoir, là où ça devrait être, effectivement, des choix plutôt démocratiques.
Julien:
OK, donc on voit qu'il y a quand même un sujet, parce que ce n'est pas qu'un sujet technique : c'est un sujet démocratique.
On voit qu'aujourd'hui, il y a des énormes trous dans la raquette et que, notamment en Europe, de manière globale, il y a une énorme faiblesse structurelle qui fait qu'on n'est pas souverain sur tout un tas de choses. Mais on n'est pas souverain, notamment, sur la manière dont nos opinions sont construites — chose que j'avais déjà évoquée dans mon épisode sur la souveraineté européenne, je vous invite à aller voir — et qui affaiblit considérablement la capacité des régimes à fonctionner normalement.
Parce qu'on a des régimes démocratiques qui supposent que, comme on l'a dit, il y ait un certain consensus sur les sujets à traiter, sur les grands enjeux, avant même de discuter de la manière dont on va répondre à ces sujets-là.
C'est-à-dire que si on n'est pas d'accord sur le fait qu'il y a un problème, et sur les données du problème, on ne risque pas de le résoudre, c'est certain.
Et donc, tout le monde s'engouffre là-dedans pour essayer de nous affaiblir, et aujourd'hui, il n'y a pas vraiment de parade.
Et moi, je vois deux sujets.
Il y a ce sujet-là, entre guillemets, de santé démocratique. De souveraineté, on va dire.
Et puis il y a l'autre sujet, dont on va aussi parler maintenant : comment on pourrait utiliser ces outils pour avoir des démocraties qui soient en meilleure santé.
Parce que ces outils sont là. Or, quand même, il n'y aurait pas ces problèmes d'ingérence : on a des démocraties qui fonctionnent toujours à l'ancienne, alors qu'on pourrait faire beaucoup mieux.
Et c'est en ça que l'exemple de Taïwan est hyper intéressant.
Mais d'ailleurs, là-dessus, tu connais très bien le travail d'Audrey Tang, et tu as écouté l'interview. Comment tu pourrais nous expliquer ce que sa démarche change dans la manière de penser le lien entre technologie et démocratie, de manière générale ?
Quel est le cas de Taïwan et pourquoi ça fonctionne chez eux ?
Jean-Lou Fourquet:
Taïwan, c'est extrêmement intéressant. Audrey Tang est extrêmement intéressante.
Je pense que tu as raison aussi, dans l'interview, de souligner à quel point il faut se rendre compte que Taïwan était un cas spécifique et que, du coup, certaines choses qui sont possibles à Taïwan ne sont pas forcément possibles de la même manière chez nous, etc.
Mais, en gros, là où le cas de Taïwan est vraiment intéressant, c'est que, en tout cas pour moi, pour la première fois, il y a eu cette volonté d'utiliser la puissance de feu du numérique au service de plus d'efficacité démocratique.
Parce que je pense vraiment qu'il faut qu'on abandonne, ou en tout cas qu'on complète de manière très, très forte, notre vision de la démocratie comme quelque chose qui est plus juste, avec de meilleures valeurs et plus égalitaire.
Et qu'on revienne aussi à la base, qui est : il faut que ça nous rende capables de nous coordonner.
Et, en fait, à Taïwan, il y a vraiment eu ce truc-là avec le mouvement des Tournesols, où ils sont arrivés, grâce au numérique, à créer une capacité à se coordonner et à agir, dans des temps troubles, plus grande.
Elle a expliqué tout ce système où ils ont utilisé notamment l'outil Pol.is pour parvenir, sur des problématiques un petit peu tendues, à utiliser l'outil pour créer des ponts et créer une compréhension commune du problème, et de ce que pensaient les gens du problème.
Parce que Pol.is, on en reparlera plus précisément, mais c'est vraiment des plateformes qui permettent de voir où sont les consensus qui existent, où sont les groupes, qu'est-ce qui caractérise les groupes, quelles sont leurs différences dans leur manière de voir le problème, et quelles sont aussi les choses sur lesquelles on ne va pas pouvoir avancer parce qu'on n'est pas d'accord.
Et moi, ce que j'aime bien avec l'exemple de Taïwan, c'est que, en fait, Audrey Tang et Taïwan ne sont tombés ni dans une sorte de techno-rassurisme dans lequel vont tomber toutes les big tech aujourd'hui, en disant : « Plus de tech égale une meilleure vie. Quoi qu'on fasse, faites-nous confiance, ça va être mieux pour tout le monde. »
Ni dans une sorte de techno-doomisme, en mode : « La tech, il ne faut pas la regarder parce qu'en gros, nous, on aimerait bien un monde avec moins de technologie, et donc on fait comme si ça n'arrivait pas. »
Et elle a une posture qui est hyper intéressante parce qu'elle n'est ni techno-béate, ni techno-doumiste.
Et ça, je trouve que… En tout cas… Moi, ça m'inspire parce que je pense que, même si des fois je peux être très technophobe — parce que ça va trop vite, j'en ai marre, etc. — je suis obligé de constater que c'est des technologies, et c'est des trucs qui ont changé le monde et qui sont là pour rester.
Et donc, je pense qu'il faut faire, quelque part, avec.
Et notamment, l'exemple que moi je prends souvent, c'est : il y a beaucoup de gens techno-béates, justement, qui disent : « Non, mais pour éviter les trichages dans le vote, il ne faut faire que du vote numérique. »
Avec des certificats. Et en fait, tous les gens qui sont un peu experts en cybersécurité disent : « Non, c'est débile, parce que c'est beaucoup plus facile, quand même, de hacker un vote numérique qu'un vote en présentiel. »
Et alors, du coup, ce qu'ils ont fait à Taïwan, c'est qu'ils ont demandé à tous les gens qui allaient voter — donc en présentiel : bien que ce soit hyper technologique, etc., pour le vote, ça reste du présentiel —, ils ont demandé à tout le monde de filmer en stream, en fait, quand ils allaient voter, pour avoir en live une bibliothèque de différents angles, de tous les partis, de tout ce qui s'est passé à tout moment du vote, dans tous les bureaux de vote.
Donc là, si t'as quelqu'un qui vient dire : « Ah oui, mais là, à 14h30, on a bourré les urnes dans tel bureau de vote », ils ont six streams qui viennent de six personnes différentes pour garantir le fait que non, il n'y ait pas eu d'irrégularité dans le vote.
Et je trouve que Taïwan est vraiment un exemple de cet usage, je trouve, plutôt intelligent de la technologie au service de la confiance et des institutions démocratiques.
Et ça, c'est quand même très inspirant parce que, comme tu disais, comme on me disait tout à l'heure, aujourd'hui on est quand même dans un système où on fait la démocratie comme en 1789 : t'as encore 500 types dans une Assemblée nationale. Le truc le plus innovant qu'on ait fait, c'est que maintenant, au lieu de lever la main — ils lèvent encore la main sur certains votes —, ils appuient sur des boutons électroniques. C'est la seule grande innovation. C'est pas énorme, quand même, en 250 ans. Qu'est-ce
Julien:
Qui t'a marqué le plus dans les innovations mises en place à Taïwan, celles qui changent complètement la donne et qui, éventuellement, seraient applicables ? On a dit que Taïwan, c'est un cas particulier : c'est une démocratie jeune, il n'y a pas tout un héritage à détricoter avant. Mais il y a des choses qui pourraient nous aider fondamentalement à repenser la participation citoyenne ou la représentativité.
Jean-Lou Fourquet:
Moi, le truc qui me marque le plus — après, c'est la déformation professionnelle — c'est vraiment l'utilisation et la promotion de plateformes comme Pol.is. C'est se dire qu'en fait, aujourd'hui, les plateformes de réseaux sociaux...
Julien:
Ouais.
Jean-Lou Fourquet:
En fait, c'est vraiment se dire : aujourd'hui, les plateformes de réseaux sociaux, telles qu'elles sont conçues avec les algorithmes actuels, c'est vraiment des machines à détruire la démocratie, à nous polariser, et à faire en sorte qu'on soit incapables de vivre avec les autres, dont on imagine qu'ils sont des caricatures.
Julien:
Sachant que l'IA — et on n'a pas été là-dessus, peut-être faire un aparté là-dessus — l'IA, mais ça aussi, de plus en plus sous stéroïdes : parce qu'on ne parle plus que des réseaux sociaux, puisque l'IA vient taper dans les contenus qui existent sur internet. Ces contenus sont de plus en plus déformés, etc., etc.
Jean-Lou Fourquet:
Oui, mais en fait, pour moi, dans la métaphore du barrage, pour le coup, c'est là où moi je reste persuadé que les algorithmes de recommandation, ou les systèmes de recommandation, restent très importants.
Parce qu'en fait, ce que tu fais avec l'IA générative, c'est, quelque part, que tu remplis encore le lac de plein de choses.
Et, pour le coup, la maîtrise du système de recommandation, ça reste l'essentiel.
Mais par contre, là où il y a vraiment l'IA générative qui joue un rôle, et qui va jouer un rôle de plus en plus prépondérant, c'est qu'en fait les systèmes génératifs deviennent eux-mêmes des algorithmes de recommandation.
Il y a de plus en plus de gens qui font des recherches, pas sur Google, mais qui font des recherches directement dans l'IA générative.
Donc, en fait, là aussi, quand tu poses une question à une IA générative — que ce soit un modèle comme Cloud, ou Gemini, ou ChatGPT — en fait, il va sélectionner pour toi, dans sa réponse, ce qu'il te recommande.
Donc là, encore une fois, on a ce problème de recommandation.
Le nerf de la guerre, qu'un contenu ait été créé par une IA générative ou par un journaliste, moi, ce qui compte, c'est à quel point ce contenu va participer — ou pas — au fait qu'on puisse se coordonner et coopérer.
Mais, comme tu le dis, il y a de plus en plus de recommandations qui sont faites directement dans ces modèles et dans les IA génératives.
Donc, en fait, ce que fait Pol.is, c'est que, là où les systèmes de recommandations et les plateformes actuelles créent de la polarisation et détruisent le commun qui nous permet de se coordonner et d'agir ensemble, il essaie de recréer ça.
C'est-à-dire qu'en fait — et sur ça, c'est une plateforme, Pol.is, vous allez voir — vous pouvez créer une conversation sur…
C'est quoi un bon podcast ?
Ouais, ouais, voilà.
C'est quoi, pour vous, un bon podcast ?
Et les gens vont dire… Voilà, vous allez donner un peu d'informations, et les gens vont se prononcer.
Donc, en fait, c'est très connu : par exemple, à Taïwan, ils s'en sont servis pour la régulation de Uber.
Quand Uber est arrivé à Taïwan, ils s'en sont servis pour dire : ok, il y a Uber qui arrive, qui va, a priori, tout casser — ou en tout cas, qui va disrupter, comme ils disent — le marché des VTC.
Qu'est-ce qu'on fait ?
Et là, forcément, en fonction des backgrounds et des histoires des gens, et des intérêts des gens, les gens ont des opinions différentes.
Et en fait, si tu dis ça sur Twitter, tu vas avoir une sorte de guerre de clans où les opinions les plus clivantes vont remonter, et tous les consensus vont être enterrés, parce qu'ils vont générer très, très peu d'interactions.
Eh bien, une plateforme comme Pol.is — P-O-L-I-S, vous pouvez aller voir — fait exactement l'inverse.
Et une manière de voir à quel point c'est l'inverse, c'est qu'en fait, ce qui va se passer, c'est que tout le monde va se dire oui, non sur les propositions.
Tout le monde va être capable de faire de nouvelles propositions, parce qu'au bout d'un moment, tu vas dire : ok, moi, je n'ai pas vu cette proposition, j'aimerais bien que celle-là existe.
Et en fait, il va y avoir un album de recommandations pour tous les nouveaux gens qui vont venir voter, et qui va choisir, parmi toutes les propositions qui ont été faites, celles sur lesquelles tu vas voter : notamment les propositions qui ont le plus de chances de générer du consensus, ou celles pour lesquelles il manque le plus de votes pour savoir si c'est un objet de dissensus ou de consensus dans la plateforme.
Mais, par contre, un truc qui est très intéressant dans la plateforme Pol.is, c'est qu'on n'a pas le droit de répondre à un commentaire.
Pour éviter la bataille qu'il va y avoir, en mode : on va troller la personne en disant « ça, c'est n'importe quoi », nanani, nanana.
Et, de la même manière, l'utilisateur ne va pas avoir un nombre de likes sur sa proposition directement.
Et ce que va voir tout le monde, c'est plutôt : est-ce qu'il y a eu beaucoup de gens qui sont pour ou contre les propositions ?
On va avoir une cartographie qui va nous analyser en temps réel : c'est quoi les différents motifs de vote, dont on va pouvoir repérer : ok, il y a des gens qui sont hyper pro-régulation, hyper stricts sur Uber ; t'as des gens qui vont être très « au final, il faut pas du tout réguler », hyper libre marché, tu vois. Il va y avoir cette analyse-là qui va apparaître, et où on va voir aussi qu'il y a certaines propositions où tout le monde est d'accord. Tu vois, aujourd'hui, par exemple, sur les réseaux sociaux en France, il y a un consensus massif transpartisan sur le fait qu'il faut réguler pour les plus jeunes.
Et un truc comme Pol.is te permet, sur tous les sujets, d'avoir une analyse fine des consensus qui existent, et aussi des divisions.
Tu n'es pas en train de nier les divisions, ni le fait qu'une minorité peut penser ça ou ça d'un sujet.
Tu dis juste : ça, ça existe.
C'est ça que pense le groupe.
C'est comme ça que fonctionne le groupe.
Maintenant, à nous, qui avons maintenant une image cohérente et commune de ce que pense le groupe, de décider ensemble et d'agir.
Et dernier truc, juste : nous, on a fait une consultation, par exemple, sur Bloquons-Tout, parce qu'il y avait un mouvement. Moi, Bloquons-Tout, c'était quand ?
C'était en septembre. Et voilà : c'était un peu comme au moment des gilets jaunes ; c'était quand même intéressant de se dire : ok, qu'est-ce qui nous rassemble, finalement ?
Parce que voilà : tout le monde, on veut bloquer, mais on veut bloquer pour faire quoi ?
Et donc, bon, on a fait une consultation, etc.
Et ce qui était très drôle, c'est qu'en fait, quand les gens laissent des commentaires, c'est juste des idées.
« Qu'est-ce que vous voulez derrière Bloquons-Tout ? » Les gens mettent leurs idées.
Et en fait, on est tellement matrixé aujourd'hui par le fait qu'une plateforme est là pour qu'en fait, on s'engraîne dans l'interface de l'application.
Dans l'interface de modération, où nous on voit apparaître les idées, il y a un moment où on n'a pas vu apparaître des idées : on a vu apparaître des gens qui s'engueulaient avec les idées qui avaient été laissées.
Mais en fait, nous, on ne savait pas à quelles idées ils faisaient référence.
Parce qu'en fait, le système n'est pas fait pour que tu ailles dire à une personne : « Ton idée, elle est bête. »
Nous, on a juste vu apparaître : « Ton idée, elle est bête. »
Mais on ne savait même pas à quelles idées ils faisaient référence, parce que le système n'est pas fait pour qu'il y ait ces embrouilles et ces disputes. La plateforme, elle est juste là pour que les gens proposent des idées et qu'on vote sur des idées, pas pour qu'on argumente et qu'on s'insulte.
Et c'est ça où c'est fort : c'est qu'aujourd'hui, les systèmes nous ont tellement matrixés qu'en fait, on s'attend à ce qu'une plateforme soit là pour qu'on puisse s'engrainer en commentaire.
Julien:
Mais ce n'est pas juste du sondage, parce qu'il y a aussi une capacité… enfin, c'est ce dont me parlait Audrey : une capacité, avec des réseaux — je ne sais pas si c'est ça, les réseaux prosociaux — à favoriser aussi l'émergence d'un consensus et à favoriser des conversations qui soient constructives.
Parce que si c'était simplement un outil qui permet de savoir ce que les gens pensent — est-ce que vous êtes d'accord ou pas d'accord — finalement, c'est assez limité.
Là, ce que ça va permettre de faire, c'est d'utiliser la puissance d'un outil social, la puissance du numérique, pour convaincre, pour arriver à faire en sorte qu'un consensus émerge là où il n'y en a pas forcément.
Jean-Lou Fourquet:
Ouais, mais en fait, ce qui est très intéressant, c'est que ce n'est pas l'outil qui fait ça : c'est l'interaction de l'outil et de tous les gens qui le pratiquent.
En fait, ce qui se passe, c'est que toi, tu arrives dans l'interface de police : tu vas avoir un espace où tu vas mettre ta proposition.
Et en fait, ce qui se passe, c'est que, par un phénomène d'acculturation progressive, tu t'aperçois que toi, quand tu laisses un commentaire hyper clivant, en fait, il va cliver et donc, du coup, il va être enterré par le système.
En mode : « Celui-là, on l'a présenté à quatre personnes. Les quatre personnes me disaient : pas d'accord, c'est nul. Paf : t'es enterré complet. »
Et donc, petit à petit, ça va te remodeler toi-même, à te dire : « Non, moi, mon but, ça va être de faire une proposition, justement, qui va intégrer les points de vue de tous les autres et qui va faire en sorte d'être un peu promul. »
Sur ça, j'ai un exemple.
Il y a quelqu'un qui pratique police au Canada, qui, justement, a fait une consultation sur ça. Et en fait, il y avait des gens qui étaient très pro-Canada, anti-US, anti-Russes, etc.
Et en fait, il y avait des messages très crivants, en mode très anti-Russes, si tu veux, vraiment de manière très basique. Et en fait, ces propositions n'attiraient pas un très grand consensus parce que, justement, elles étaient très manichéennes.
Et en fait, il y a quelqu'un qui a repris toutes les idées comme ça, qui ne faisaient pas le consensus, et a juste reformulé en mode : « Contre l'impérialisme russe. »
Juste : on n'est pas contre les Russes en tant que Russes, on est contre la volonté impérialiste de la Russie sur certaines thématiques.
Et bien là, du coup, il y a eu consensus.
Donc il y a droit à ce phénomène où, en fait, quand tu vois que les idées sont enterrées, toi-même, en tant qu'agent humain, tu vas intégrer ça pour proposer des choses qui vont, après, générer du consensus.
Donc, c'est vraiment ça.
Et ces outils sont faits pour ça.
Ils arrivent à t'inciter parce que le succès que tu ressens, la visibilité que tu vas avoir et que tu recherches en tant qu'agent humain, elle va être exacerbée par le fait que tu arrives à trouver ça.
Julien:
Quelle taille ça représente, là ?
Aujourd'hui, on shoote un petit peu sur les questions que j'avais plutôt pour la fin, mais si on veut aller un petit peu dans le concret : qu'est-ce qui fait qu'aujourd'hui, ces outils qui existent, qui sont potentiellement un peu connus, ça ne prend aucune place dans nos systèmes ?
Est-ce qu'il y a des réflexions ? Est-ce qu'il y a des gens à qui tu parles dans le monde politique, qui s'emparent de ces trucs-là, pour comprendre où ça en est ? Est-ce que ça a une chance d'émerger, sachant qu'il y a déjà des choses qui ont été testées ailleurs, qui fonctionnent ? Et si ça marche pas, si ça émerge pas, d'où vient le blocage ?
Jean-Lou Fourquet:
Alors, tu sais, ça, c'est… Ça, c'est une grande question !
Julien:
Non mais, en fait, c'est étonnant, parce que j'imagine que, dans… on va dire : si on prend la classe politique, à mon avis, il y a quand même une prise de conscience du fait qu'il y a des ingérences. J'espère une prise de conscience du fait que l'information est importante, que les réseaux sociaux sont en train de désinguer la démocratie, etc.
C'est la première question. Déjà, ce n'est pas du tout évident, vu la maturité sur le numérique de ces sujets-là, vu la maturité de nos députés sur ces sujets numériques. Je ne sais pas à quel point tu discutes avec eux.
Et puis, deuxièmement : s'il y a cette maturité, s'il y a cette prise de conscience, qu'est-ce qui est fait pour aller dans le sens dont on parle ?
Jean-Lou Fourquet:
Ce que je sais, c'est qu'en Europe, il y a des États ou des endroits où ils utilisent beaucoup plus massivement — ou en tout cas de manière plus importante qu'en France — Pol.is, en l'occurrence.
Donc la Finlande, par exemple, a fait une branche de Pol.is, parce que Pol.is, forcément, c'est un logiciel open source, etc. Donc chacun peut le forker pour en faire un usage.
Ça a été conçu par des Américains, et notamment des Américains dont le constat, c'était de dire : « Twitter is good for revolution, it's not really good to write a constitution ».
Et c'est notamment venu des échecs, partiels en tout cas, des printemps arabes ou d'Occupy Wall Street, où il y a beaucoup de gens qui se réunissent sur une place, mais au final — un peu comme les gilets jaunes ou Nuit debout — il y a des difficultés à faire émerger, de ces mouvements populaires, des revendications et une politique précise.
Donc cet outil a été fait en 2010 et n'a pas servi pour les printemps arabes et Occupy Wall Street, mais a pu servir, et a été beaucoup popularisé, par son utilisation pendant le mouvement des tournesols à Taïwan.
Et d'ailleurs, elle ne l'a pas dit, Audrey, mais moi, je crois savoir que c'est notamment grâce à un peu de pression de Taïwan que le logiciel s'est retrouvé open source. À la base, il n'était pas forcément open source, et Taïwan et Audrey Tang ont mis la pression pour que ce soit open source, pour l'utiliser.
Donc voilà : la Finlande l'utilise ; je sais qu'en Hollande, ils l'utilisent beaucoup plus.
Après, pourquoi ça ne se diffuse pas plus massivement ?
C'est un peu comme si tu me posais la question de pourquoi on n'a pas fait tomber la monarchie plus tôt.
À mon avis, dans des systèmes comme ça, aujourd'hui, il y a quand même une sorte d'inertie.
Chacun a son petit pré carré de pouvoir.
Et pour arriver à lâcher son petit pré carré de pouvoir, qu'on soit politique, député, journaliste, etc., il faut une pression et une urgence suffisantes.
On va sûrement en parler, mais c'est intéressant de prendre conscience de ça.
Et moi, mon plus gros espoir aujourd'hui, c'est que je sens que les choses bougent, parce que la pression est énorme.
Et là, d'ailleurs, sur tous les sujets que tu couvres brillamment ces derniers mois : aujourd'hui, si on se pose des questions de souveraineté, et si ces choses-là arrivent dans le débat public, c'est qu'on sent vraiment, charnellement, les problèmes.
Et sur ça, d'ailleurs, tu vois, il y a un sujet qui est quand même intéressant : est-ce que tu as écouté dernièrement Macron parler des réseaux sociaux ?
Non.
Vous pouvez l'écouter, si vous voulez. Moi, je sais qu'il est venu à Toulouse : La Dépêche avait organisé un grand débat sur les réseaux sociaux, et j'ai été hyper étonné parce qu'en gros, sur les réseaux sociaux, j'étais très d'accord avec beaucoup de choses que pouvait dire Macron.
Ce qui m'a, en vrai, choqué, parce que je n'avais pas l'impression d'être aussi aligné, ou qu'il était aussi aligné avec...
Julien:
Ceci dit, j'aurais tendance à faire la différence entre le discours et les actes, parce qu'il y a pas mal de fois où on peut se retrouver d'accord. Et au final... Beaucoup de gens qui l'écoutent vont dire : « Je suis d'accord », et au final il n'y a pas grand-chose. Enfin bref, pardon pour cette prise de position un peu personnelle.
Jean-Lou Fourquet:
Non, pas de souci. Mais même sur le discours, j'ai été étonné à quel point je trouvais qu'il était, au moins, dans le juste.
Et en fait, juste après, Libération a fait un papier : parce que non seulement je l'ai trouvé juste, mais je l'ai trouvé remonté.
Un peu comme si, d'un seul coup, il avait pris conscience du truc.
Et je me suis dit : mais comment il a pris conscience d'un seul coup ?
Il n'y a rien qui a changé.
C'était en septembre, il ne s'était rien passé.
Et en fait, Libération a fait un papier qui montre que Macron s'est retrouvé sensibilisé aux problématiques des réseaux sociaux, notamment par les grandes rumeurs qui affectent Brigitte Macron.
Et je pense que c'est une illustration du fait qu'en fait, politiquement, il manque un côté très charnel : il faut que les politiques, nos politiques, et que les instituts de pouvoir en France et en Europe se rendent compte du danger — mais aussi pour eux, pour leur vie personnelle — de ce que ce truc est en train de représenter.
Julien:
C'est pareil quel que soit le sujet : tant que t'as pas « skill in the game », comme disent les Américains, tant qu'on n'est pas touché soi-même par quelque chose, forcément c'est plus distant. Et comme on a des gens qui sont très protégés là-haut… Donc, concrètement, les niveaux de conversation qu'il y a : on comprend bien qu'il y a du mal à lâcher des positions, des privilèges. Mais est-ce que, malgré tout, t'as le sentiment que ça avance ?
Parce que, quand on regarde le tableau, comme tu l'as très bien évoqué, on se dit que vraiment il y a un désavantage structurel du fait d'être une démocratie dans cet univers numérique, social ; et de plus en plus, il y a…
Et que si on ne résout pas ça par le haut, en mettant en place une démocratie numérique qui va faire en sorte que la masse informationnelle qui est propre aux démocraties puisse produire de l'innovation, puisse produire de la vitesse, puisse permettre de résoudre les problèmes intelligemment, en faisant appel à l'intelligence collective justement… cette lenteur-là devient un vrai désavantage par rapport à d'autres régimes qui sont plus monolithiques, mais qui vont avancer sur les sujets ; et qui, en plus, n'ont plus forcément la contestation de leur population, parce que leur population est rincée, manipulée par ces réseaux sociaux.
Donc il y a des choses qui se jouent sur ces prochaines années, sur cette capacité : soit ça bascule vers le modèle démocratie libérale — sachant qu'il n'y a pas beaucoup de retour en arrière possible, du fait aussi de l'existence de ces plateformes —, soit les démocraties libérales parviennent à se restructurer, à se rendre compte de l'urgence, et à utiliser ces outils-là, de manière ou d'une autre.
Je ne sais pas si tu vois le tableau de cette manière, et je voudrais savoir où ces conversations ont lieu aujourd'hui.
Jean-Lou Fourquet:
Tu vois, je sais que, par exemple, sur la menace informationnelle, typiquement, l'armée s'intéresse vraiment à la guerre cognitive, etc. Donc tu en as déjà parlé, d'ailleurs. Il y a le sixième champ de l'armée, ou le cinquième, je ne sais plus, qui, depuis quelques années, est la menace informationnelle. Donc ils sont intéressés par ça.
Après, effectivement, derrière, on a cette incapacité, ce manque de courage politique sur certaines choses, qui est assez affligeant. Et qui vient aussi — je complète juste un truc qu'on disait à l'instant — du fait qu'ils sont confortables. Mais ça vient aussi du fait que la guerre cognitive, tu ne la sens pas de la même manière qu'une bombe que tu prends dessus : il y a vraiment un truc où, en fait, nous-mêmes, individuellement — donc les politiques, ça n'est que des individus — on ne sent pas la guerre informationnelle.
Il y a aussi cette difficulté-là.
Alors après, qu'est-ce qui va se passer, comment, etc.
Moi, j'avoue que je regarde ce qui s'est passé à Taïwan et je comprends un truc : c'est qu'en fait, le mouvement des Tournesols, ça a été fait suite…
Ça n'a pas été une politique qui a été très structurée, où on a dit : « On va mettre en place une police, on va nommer Audrey Tang parce que… » C'est vraiment, à un moment, il y a eu un événement qui a sollicité et qui a généré une envie, ou une colère populaire.
Et à ce moment-là, Taïwan a récolté les fruits d'une sorte de noyautage qu'il y avait eu, où ces gens-là étaient très proches de mouvements hackers, civiques, etc., et qui se sont retrouvés, en fait, projetés sur le devant de la scène.
Et j'avoue que moi, c'est comme ça que je vois les choses.
Il y a quelqu'un qui l'a théorisé, qui a parlé d'« adjacents possibles » : c'est qu'en fait, il y a un peu cette question abyssale aujourd'hui, qui est le centre, toi, de ton podcast, et qui, moi aussi, m'anime. C'est qu'en fait, aujourd'hui, on est assez intelligent pour savoir qu'il y a des problèmes systémiques, individuellement ; et en même temps, on est aussi assez humble et conscient de la complexité des choses pour savoir qu'en fait, personne n'a le guidon, le volant de ce truc-là.
Et du coup, c'est très dur de se dire : « OK, moi j'ai un grand plan pour… », enfin j'en sais rien. La seule chose que je peux faire, c'est de créer un univers, une brique, qui, pour moi, sera nécessaire au fait que les choses se passent de la manière que moi je considère la meilleure. Et en fait, la personne qui a créé Pol.is, au final, c'est ça qu'elle a fait : elle a créé une brique. Et il s'avère que Taïwan s'en est emparé. Donc, j'avoue que moi, ma manière de voir les choses, c'est qu'il y a plein de briques à faire partout.
Nous, à Tournesol — et on pourra en parler après — on fait une brique qui correspond un peu à une brique parallèle à ce qu'a fait Pol.is, pour d'autres…
Julien:
Vas-y, vas-y, parle-le maintenant. Pour les initiatives citoyennes, je voudrais savoir ce qui se fait.
Jean-Lou Fourquet:
Du coup — et après, on pourra revenir à, je pense, comment on peut faire à l'échelle d'un individu, et comment… — mais en fait, c'est ça le truc : je pense que la manière dont moi je vis bien mon implication, et la situation qui est quand même pas évidente… Je crois qu'il y a une phrase de Shakespeare que j'aime bien. Je crois qu'il dit un truc — j'ai pas lu le truc, j'ai juste lu la citation que j'aime bien — et il dit : « Il faut une grosse tempête pour éclaircir ce ciel gris. »
Et je pense qu'aujourd'hui, on voit que le ciel est quand même plutôt gris ; et du coup, on sait très bien qu'il va forcément y avoir des tempêtes, et on sait pas quel format il va prendre.
Mais par contre, ce qui, moi, me donne du courage et me donne envie de faire des choses, c'est le fait qu'en fait, à notre échelle, on peut créer des adjacents possibles qui vont permettre que d'autres reprendront.
Et peut-être qu'en fait, peut-être que c'est pas la France qui sera une démocratie numérique, et qui portera très haut l'étendard d'un système que je trouverais plus pertinent, qui serait une démocratie intelligente et numérique.
Peut-être que ça sera, tu vois, la Finlande ; peut-être que ça sera… je sais pas.
Mais tu participes quand même à un truc que tu trouves bien.
Et du coup, ce que fait Tournesol, c'est qu'en gros, il y a une question démocratique — dont on vient de parler, de tout ça — mais en fait, la question, elle est incroyable : c'est de dire, si c'est pas pour des raisons mercantiles qu'on choisit que telle vidéo va être plus promue ou plus amplifiée que telle autre, qui choisit, et comment on choisit ?
C'est-à-dire : comment on choisit ?
Que c'est plutôt le climat que la biodiversité, plutôt la biodiversité que la fin des stations de ski dans les Pyrénées ?
Tu vois : comment tu fais ? Comment tu décides de ça ?
Et en fait, sur ça, il y a tout un tas d'initiatives qu'il y a eu.
Alors notamment, nous, on s'inspire beaucoup d'un travail qui a été fait par une association aux États-Unis, qui s'est demandé : ils récupèrent de la nourriture et ils la redistribuent à plein de gens autour ; qui c'est qui choisit à qui va être distribuée la nourriture ?
La maison de retraite où les personnes âgées n'ont pas assez d'argent ? La mère seule à côté, qui n'en a pas eu depuis deux semaines ? Par quel mécanisme on décide ?
Et en fait, c'est un peu ça, la problématique de choisir quelle vidéo on va amplifier : c'est que personne n'est légitime pour choisir quelle vidéo va être amplifiée.
Et là, il y a deux choix. Il y a le choix actuel, qui est : on va choisir en faisant une sorte de débilité des foules, c'est-à-dire que c'est l'instinct de Julien qui va décider quelle vidéo il faut lui donner ; ou alors l'ORTF. Donc c'est la France, avec son gouvernement de l'information, qui va décider quelles vidéos on va recommander.
Le parti pris de Tournesol, de la plateforme Tournesol, c'est d'essayer d'étudier quelles seraient les recommandations si nous tous et nous toutes, on votait — comme on vote pour un président — en comparant des vidéos, pour quelles vidéos devraient être massivement amplifiées par un système de recommandations que nous, on voudrait d'intérêt général.
Donc en fait, moi, je vais voter parce que je suis fasciné, ou je pense que le truc le plus dramatique, c'est justement les algorithmes de recommandation. Donc moi, je vais voter sur des vidéos qui essaient de sensibiliser à l'importance des algorithmes de recommandation. Toi, Julien, tu vas voter pour autre chose. Et donc il y a tout un tas d'initiatives qui sont là — et Tournesol en fait partie — pour essayer de faire en sorte de créer d'autres systèmes de recommandation qui, au lieu de diviser et cliver, essaient de créer une information commune.
Julien:
Tu penses quoi de Reddit ? Réseaux sociaux.
Jean-Lou Fourquet:
Je pense que c'est, et ça a été, quelque part, le moins pire pendant très longtemps.
Parce que, justement, il fait ça.
Il essaie de faire ça.
Ou, en tout cas, je ne sais pas si c'est par design, par hasard ou pas, mais il a plus ça que d'autres systèmes.
En fait, effectivement, l'algorithme est très clair : il fait remonter les posts qui ont le plus de likes volontaires.
Ce qui est beaucoup mieux qu'un système comme TikTok ou YouTube, qui ne fait pas du tout remonter les vidéos qui ont le plus de likes, mais plutôt les vidéos qui, peut-être, ont eu le plus de commentaires hargneux.
Eh bien, en fait, si tu prends YouTube, et là…
Julien:
Ils ont gardé l'idée du début des réseaux sociaux, en fait.
Jean-Lou Fourquet:
Exactement.
Qui n'était pas si mauvaise.
Eh bien, le but de Tournesol, de Pol.is et de Plattform, c'est d'aller…
En fait, c'est comme si les réseaux sociaux étaient allés dans ce sens, et nous, on reprend les réseaux sociaux, et on veut aller dans le sens, vraiment, de plus de démocratie, ou de réseau pro-social, comme dit Audrey Tang.
Donc, en fait, Tournesol, par exemple, c'est juste une plateforme où les gens vont comparer des vidéos, et il y a tout un système pour, justement… Parce que le like peut être quelque chose de très instinctif : c'est-à-dire que tu peux liker très, très vite.
Le but du jeu, là, c'est de ne pas liker très, très vite ; justement, de faire appel à la même partie de toi qui, quand elle va voter, se demande, en son âme et conscience, pour qui on va voter.
D'ailleurs, c'est très intéressant : tu vois, les jurés dans un tribunal d'assises, il y a vraiment cette histoire de réflexion et de… On demande aux jurés s'ils ont l'intime conviction. Tu vois, c'est vraiment faire appel, justement, pas à cette partie qui like et qui swipe : la partie de nous-mêmes qui va vraiment réfléchir un peu profondément à ce qu'elle pense être bon pour la société.
Eh bien, en fait, une plateforme comme Tournesol, ou une plateforme comme Pol.is, fait appel à cette partie-là de chacun.
Ou tente, pardon, de faire appel.
Julien:
Qu'est-ce que tu as envie de dire aux personnalités politiques ou publiques qui sont en place, qui nous écoutent ? Quel serait le rôle des politiques publiques là-dedans, concrètement ?
Jean-Lou Fourquet:
Concrètement, c'est hyper simple. Enfin, c'est pas hyper simple, pardon. Quand tu dis « c'est hyper simple », j'ai toujours un point d'alerte dans ma tête : tu dis n'importe quoi.
Non, mais en fait, c'est assez basique. C'est que… Un système, par exemple, comme Tournesol ou comme Pol.is, ne pourra jamais se diffuser à grande échelle si tu ne le régules pas un peu et si tu ne l'encourages pas par la régulation.
Parce qu'en gros, comme tu fais et comme tu génères de la friction, ça va générer moins d'engagement, et donc moins de revenus.
Et donc, dans la masse, ce n'est pas ces systèmes-là qui vont se diffuser le plus facilement.
Et donc, il y a vraiment une nécessité d'encourager et de pousser par le pouvoir politique, que ce soit par l'investissement public ou que ce soit par la contrainte des acteurs qui existent déjà.
Tu pourrais aussi, par exemple, interdire dans les plateformes sur lesquelles on est.
Et d'ailleurs, c'est vrai que ça commence à arriver.
Il y a tout un truc sur TikTok aujourd'hui où on reconnaît que TikTok fait usage de dark patterns dans ces algorithmes de recommandation, en mettant en place des mécaniques addictives qui vont générer des comportements addictifs ; et là, on régule.
De la même manière, il faut à la fois qu'ils encouragent les plateformes qui essayent de faire autre chose, et qu'ils régulent et qu'ils interdisent certains mécanismes qu'utilisent ces plateformes.
Il faut bien voir que la régulation intelligente, elle est nécessaire, parce que le but, c'est de donner aux impacts moyen-long terme beaucoup plus de poids dans ce que vont faire les plateformes. Et ça, je pense que c'est au pouvoir politique d'avoir le courage de faire ça.
Julien:
C'est un gros bémol, ça, quand même.
Je t'avoue que, quand Audrey Tang m'a raconté comment ça a été fait à Taïwan, et le fait qu'à un moment donné les députés avaient décidé d'utiliser ces outils, d'écouter les citoyens, je me suis dit qu'on avait un énorme problème. Parce que, de mon point de vue, on est quand même très, très loin de cette maturité — une maturité démocratique, chez nous, d'une manière générale — et surtout de la part de ceux qui nous représentent.
C'est-à-dire que je ne vois pas très bien les élus, d'une manière générale, lâcher de leur pouvoir, lâcher de leur conviction, pour donner plus de place à la parole qui émergerait justement d'un réseau comme ça.
Pour moi, ça reste le principal frein : ça demande, au départ, d'accepter de lâcher, d'accepter de se dire : « OK, je suis peut-être élu, mais je vais pas décider tout pendant 5 ans. » C'est pas du tout dans la culture politique française, pour le coup.
Jean-Lou Fourquet:
Je suis d'accord et, en même temps, je reviens à un truc que tu disais tout à l'heure. Je ne sais plus ce que c'est, l'expression “skin in the game” que tu disais.
Julien:
Ouais, “to have your skin in the game”, c'est être impliqué dans le jeu.
Jean-Lou Fourquet:
Et tu vois, je suis 100 % d'accord avec toi et, en même temps, je suis obligé aussi de constater que si tu avais demandé aux Français, aux politiques français, le 1er mars 2020, s'ils étaient capables d'avoir le courage politique de mettre un confinement et d'essayer d'imposer les masques — non pas que ça ait été une bonne politique, juste de dire que ce n'était pas une politique populaire —, il n'y aurait jamais eu ça avant le Covid. Et moi, ce que je pense profondément, c'est que quand tu commences à avoir — et on va l'avoir — du skin in the game, les choses seront radicalement différentes.
Julien:
Ça peut aller vite, ça peut changer.
Jean-Lou Fourquet:
Mais regarde sur les réseaux sociaux, et les jeunes : c'est un truc qui était inenvisageable il y a deux ans, et aujourd'hui l'Australie l'a fait, la France commence à le faire. Je ne dis pas que c'est parfait.
On parle juste de la possibilité politique de ce genre de choses.
L'Espagne nous a suivis, etc.
Donc il y a vraiment ce truc de : je pense qu'il ne faut pas minimiser le fait qu'en fait, on est très lents, et d'un coup tout va vite.
Et donc, quelque part, citoyennement, notre rôle, c'est de surtout pas désespérer ; de savoir qu'en fait, comme les choses vont changer — et ça, c'est le truc dont on est certain —, c'est que tout va changer, et qu'on va prendre massivement sur le bout du museau. Il faut que nous, on prépare tout pour que ça aille le plus rapidement possible. Et ça, c'est un truc qu'avait dit Jancovici, et moi je trouve que, sur ça, il a raison : c'est que le plan du Shift Project, c'est le plan de transformation de l'économie française ; ce n'est absolument pas un plan où il se disait : “Les gens, les politiques vont prendre le plan et dire : ‘Ah, c'est génial ce que vous avez fait.'” Ils l'ont toujours écrit en se disant : “Si on a raison de penser et d'écrire ce qu'on écrit, il y aura un jour où il y aura des gens qui se demanderont comment on décarbone très, très vite l'économie française.”
Et dans ce cas-là, les gens qui ont pensé concrètement à la solution, eh bien, ça sera dans le placard : c'est prêt.
C'est prêt.
Tu vois, c'est vraiment le : “On est prêt.”
Donc voilà : technologiquement, on est prêt.
Enfin, on n'est pas prêt, mais…
CHUNK START
Julien:
Qu'est-ce qu'on peut faire, en tant que citoyen ? Là, pour ceux qui écoutent, concrètement ?
Jean-Lou Fourquet:
Je pense que personne n'est un citoyen lambda, dans le sens où tout le monde a ses particularités, mais moi je sais que tu vois ce que je veux dire.
Je vois carrément ce que tu veux dire. C'est juste pour dire qu'en fait, chacun a ses leviers à lui, qui lui correspondent. Je peux juste dire qu'à mon niveau, je suis très, très mauvais pour me focaliser sur une chose, donc je fais plein de choses différentes et qui, je pense, correspondent assez bien à ce que chacun peut faire, en tout cas un bout.
Il y a un truc : c'est ce que toi tu fais, moi je fais dans une beaucoup plus petite mesure. C'est ce côté : prendre la parole, dire les choses, pousser des idées, pousser le fait qu'on en a marre de la polarisation, qu'on n'accepte pas ça, et qu'on est très content de dire que, moi, je pense qu'il y a des gens qui sont conservateurs et qui pensent des choses très, très bien, et des gens qui sont progressistes et qui pensent des choses...
Tu vois : ne pas avoir peur de ne pas appartenir à un clan clivé.
Je pense que ça, individuellement, on peut faire ça, et on doit faire ça.
Ensuite, donc voilà : la prise de parole, et le fait de se protéger individuellement. Donc : prendre la parole, et se protéger aussi de ce côté polarisé, et ne pas succomber à ça dans nos interactions.
Toujours donner du crédit à ce que dit l'autre, le plus possible, et voir que même dans des choses qui sont dites, qui ne nous plaisent pas, il y a quelque chose à aller chercher. Donc ça, c'est la première chose.
Là, donc moi, voilà, je vais faire un peu de pub, tu vois : c'est pour ça que j'ai une chaîne YouTube, Après la bière, et un blog, comme Sismique. Ça, c'est important. Donc je pense que chacun peut faire, à son niveau.
Ensuite, je pense qu'il y a ce côté... Moi, je m'intéresse de plus en plus, en tout cas, à cette création possible et à cet investissement dans des briques que l'on pense intéressantes. Et tu vois, même si moi je suis pas hyper aligné avec Pablo Servigne, par exemple, qui était dans ton podcast — tu as fait une série avec lui —, je dois avouer qu'il participe à créer un adjacent possible différent.
C'est-à-dire qu'il montre, ou il essaie de montrer, qu'il est possible, dans une société qui s'effondre, de s'effondrer et de ne pas tuer son voisin.
Très bien.
Il s'investit dans une autre vision.
CHUNK END
Et je pense que, collectivement, moi, ce n'est pas du tout la vision dans laquelle je m'investis. Mais chacun de nous peut s'investir dans la conception d'un petit adjacent possible qu'il pense pertinent. C'est pour ça que, moi, j'investis dans tournesol.app, la plateforme. Mais tu vois, chacun peut s'investir dans un truc auquel il croit, et il dit : « Non mais en fait, dans un monde qui fonctionne bien, cette brique-là, elle se serait diffusée partout. » Et ça, on peut le faire à notre échelle.
En fait, c'est vraiment le fait de se dire : imagine l'humanité, elle joue une partie d'échecs contre un adversaire qui est le changement climatique, ou sa propre extinction.
Toi, Julien, ou moi, on ne choisit pas le prochain coup.
Par contre, on est tout à fait capable de faire en sorte qu'une case qui n'était pas accessible le soit.
Et ça, c'est un truc : individuellement, on peut le faire.
Et moi, je trouve ça hyper apaisant de se dire qu'on participe à quelque chose.
Après, advienne que pourra : ce n'est pas nous qui allons choisir le prochain coup.
Un autre aspect sur lequel on peut agir, moi, je pense que — j'avoue — de plus en plus, j'essaie d'aller vers les entreprises. Parce qu'une des raisons qui expliquent l'inertie des démocraties, c'est le fait que les gens, et les démocraties, se disent qu'elles existeront toujours.
C'est-à-dire qu'en fait, t'as beau faire n'importe quoi, la durée de vie d'un régime, elle est quand même assez longue. Et en fait, il y a une boucle de rétroaction assez faible avec la réalité. Tu peux avoir un régime qui fait n'importe quoi pendant très longtemps, et qui peut se maintenir très longtemps par la force.
Une entreprise, il n'y a pas ça. C'est-à-dire qu'une entreprise, il y a un moment — ou en tout cas, il y a moins ça — : si elle n'arrive pas à être efficace, à se coordonner, dans le but du profit…
En tout cas, si elle n'arrive pas à générer du profit, elle s'écroule très, très vite.
Et donc, moi, j'ai l'impression qu'il y a une remise en question du côté des entreprises qui est très intéressante. Parce que je pense qu'il y a plein d'adjacents possibles, ou de briques technologiques, où les entreprises vont pouvoir — et vont avoir une capacité à s'adapter et à s'emparer des nouvelles briques — beaucoup plus rapidement que ce que font nos démocraties.
Et moi, je pense qu'en fait, une manière aussi de faire, c'est : si les entreprises se rendent compte que, par exemple, ces plateformes, comme Tournesol…
D'ailleurs, je n'en ai pas parlé, mais j'en profite pour le placer.
Pol.is a un équivalent beaucoup plus moderne et beaucoup plus évolutif en ce moment que Pol.is.
C'est la plateforme Agora.Citizen, qui fait la même chose que Pol.is, qui est aussi un logiciel ouvert, développé par des Français, et qui est hyper intéressante.
Et si les entreprises s'emparent de ce genre de manière de se coordonner et de démontrer qu'en fait, collectivement, on peut être plus efficace, dans une manière plus distribuée, je pense que c'est intéressant.
C'est intéressant de prendre parti de cette capacité qu'ont les entreprises à se remettre en question.
Pour qu'après — parce que les gens en entreprise, c'est des citoyens — il y a un moment : quand tous les gens se rendront compte qu'en entreprise, ça fonctionne comme ça et que ça marche très, très bien, eh bien eux, en tant que citoyens, ils auront plus la capacité aussi de pousser pour que ce soient des usages qui se diffusent aussi à plus haute échelle, et à l'échelle de nos systèmes démocratiques, voire de l'Europe.
Et après, dernier truc : mettre la pression politique. Parce que je pense qu'il ne faut pas s'échapper pourquoi ça va mal et pourquoi on n'arrive pas à être collectif et démocratique.
C'est parce qu'en fait, on est tous quand même matrixés et hyper individualistes.
Et il y a un moment où il faut aussi accepter cette remise en question : si on veut que, collectivement, on s'en sorte, il faut aussi être prêt à abandonner un peu de notre confort individuel.
Au nom d'une efficacité et d'un intérêt collectif.
Et ça, je pense qu'il y a pas mal de choix.
C'est un peu chiant.
Non, mais tu vois : je pense que ça, c'est un méta-rappel qu'on doit avoir.
Julien:
Bien sûr, bien sûr. Bien sûr. Surtout qu'on n'a pas été du tout conditionnés à ça depuis quand même pas mal de temps.
Jean-Lou Fourquet:
Clairement pas.
Julien:
Dernière question : tes deux livres préférés, deux livres à lire absolument ?
Jean-Lou Fourquet:
Du coup, je les ai préparés. Il y a celui-là que j'aime beaucoup : c'est le Henrich dont j'ai déjà parlé,*Le Secret de notre succès*.
Et c'est vraiment un super livre où, en fait, tu te rends compte que la puissance de l'être humain, de l'espèce humaine, c'est cette capacité à communiquer, à coopérer et à avoir une culture que tout un collectif adopte.
Et vraiment, il y a quelque chose de très non-jugeant dans son approche où, en fait, tu te rends compte que ce qui compte, c'est la capacité du groupe à avoir une action coordonnée, et que c'est ça qui fait la force de l'espèce humaine.
Et après, un autre livre que j'ai beaucoup aimé, c'est celui-là : ça s'appelle*Ultra Society*, de l'historien Turchin. En gros, lui, il aborde un aspect un peu parallèle, mais aussi très intéressant : dire que c'est aussi le contexte qui fait qu'on est capable, ou pas, de faire des choses.
Et lui, il explique que si l'espèce humaine est une espèce culturelle et très sociale, c'est aussi parce que c'est une espèce qui s'est fait massivement la guerre.
Et parce qu'on se faisait massivement la guerre, les groupes humains ont été sélectionnés par leur capacité à se coordonner pour arriver à gagner sur l'autre. Et en fait, c'est aussi une note, moi je trouve, d'espérance, quelque part. Parce que je pense que, dans les conditions très, très dures qui vont être les nôtres, on va être forcé d'être capables de faire des choses qu'on n'aurait jamais été capables de faire sans ces conditions très, très dures qu'on va avoir. En tout cas, ça va faire émerger de nous des choses auxquelles… alors, potentiellement très mauvaises. Et c'est pour ça qu'il faut se battre pour que ce soit plutôt qu'on sorte par le haut de ces crises, le côté lumineux.
Mais en tout cas, c'est vraiment ça. Et je trouve que ce livre fait prendre conscience de ça, et moi je trouve ça hyper intéressant : Peter Turchin.
Ouais, Peter Turchin, exactement.
Julien:
Merci beaucoup, Jean-Lou. Écoute, super, plein d'insights. Je t'ai laissé faire des petits tunnels.
Jean-Lou Fourquet:
Ouais, pardon.
Julien:
Non, mais pas du tout. C'est très bien pour moi d'avoir des gens qui déroulent de manière structurée comme ça. Donc, très bien. Et comme d'habitude, toutes les notes et les références seront sur le site Sismique.fr. Merci pour ton temps.
Jean-Lou Fourquet:
Merci pour tout. Merci beaucoup. Au revoir.
Soutenez Sismique
Sismique existe grâce à ses donateurs.Aidez-moi à poursuivre cette enquête en toute indépendance.
Merci pour votre générosité ❤️
Nouveaux podcasts
Le rêve d’un monde sans démocratie. Comprendre le néolibéralisme
Le projet politique du néolibéralisme et ses mutations contemporaines : Néolibéralisme, logique d’exit et recomposition du pouvoir
🇬🇧 The Exit from Democracy. The project shaping our world
How markets, law, and technology are reshaping sovereignty.
Sommes-nous prêts pour la guerre ?
Emmanuel Chiva, ex patron de la DGA. Drones, IA, industrie, information, dissuasion... Comment la France se prépare à un nouveau monde conflictuel ?
La bataille des flux : comment l’information structure nos esprits, et nos sociétés ?
Comprendre l’infrastructure invisible de nos démocraties. Algorithmes, flux d’information et transformation du débat public
Ce que manger de la viande implique vraiment
Élevage, climat, santé, politique : décryptage d’un pilier du système alimentaire avec l'association L214
Après l’Occident… Les (dés)ordres du monde ?
Rapports de force, illusions occidentales et recomposition du monde, une conversation avec Hubert Védrine.
IRAN : une guerre pour quoi faire ?
Comprendre la confrontation entre l’Iran, Israël et les États-Unis. Quelles forces profondes qui poussent la région vers l’escalade ?
🇬🇧 How Taiwan reinvented its democracy
Technology, Collective Intelligence and Political Resilience with Audrey Tang, Former Taiwanese Minister








