
LA VAGUE, L'IA, LA PESTE, LA GUERRE
Ce qui est haïssable
Ce n’est pas le pin d’Oyodo qui regarde la mer
Ce qui est haïssable c’est la vague
Qui repart juste après
Avoir vu le rivage
Les Contes d'Ise / traduits du japonais par le général Renondeau et revus par Bernard Frank pour la collection "Connaissance de l'Orient" chez Gallimard-UNESCO. (Période Heian. Ces poèmes sont des tanka (poèmes de 5 vers) : se sont des contes poétiques d'auteur inconnu datant du Xe siècle.)
Le "ce qui est haïssable" est une plainte, presque un reproche. Le poète ne philosophe pas sur la vague en général. Il accuse. Il dit : tu es venue, tu m'as vu, et tu es repartie. La vague a une responsabilité morale dans ce poème. Elle aurait pu rester. Elle a choisi de ne pas rester. C'est exactement ce qu'on peut dire du sédiment-IA : il n'est pas innocent de son propre retrait. Il a ingéré des milliards de rivages humains — des douleurs, des joies, des savoirs millénaires — et il repart à chaque requête, lisse, indifférent, indemne. Sans cicatrice. Ce qui est haïssable dans l'IA générative, ce n'est pas qu'elle soit là. C'est qu'elle ne soit jamais touchée. Le pin d'Oyodo qui regarde la mer, lui, est transformé par ce qu'il voit. Il porte les embruns. Il se tord dans le vent marin. Il est marqué par la présence de l'eau. Le pin, c'est la figure du lecteur humain, du chercheur, de l'artiste — celui que la rencontre change.
L’IA et la peste
A propos de la propagation épidémique des IA.
Anatomie d'une nouvelle peste
Premièrement : se souvenir
En 1347, personne n'avait vu la bactérie. On voyait les navires. La Yersinia pestis s'était propagée par les navires de commerce génois depuis les bords de la mer Noire, portée dans les cales par des rats et leurs puces, invisibles passagers clandestins d'une économie en expansion. Le bacille voyageait dans ce qui circulait le plus librement, le plus joyeusement : les marchandises, les soieries, les épices. La carte de la peste prouve ainsi combien le monde médiéval était déjà connecté : du Groenland au Japon, au Portugal, on mourrait de la même maladie. La Peste Noire nous enseigne que le vecteur n'est jamais ennemi déclaré. Il est le vecteur même du progrès.
L'IA générative s'est propagée selon la même logique. Elle voyage dans les fils de l'économie numérique mondiale — les plateformes, les API, les intégrations invisibles. Elle s'est glissée dans les outils de travail, dans les messageries, dans les moteurs de recherche, dans les tableurs scolaires, dans les logiciels juridiques.
Comme les puces sur les rats des navires génois, elle ne s'annonce pas. Elle est déjà là quand on commence à s'interroger sur sa présence.
Le vecteur de l'IA, c'est la commodité. Ce qui la propage, c'est l'infrastructure même de nos échanges.
Il y a cependant une différence décisive : la propagation de la Peste Noire avait été précipitée par une éruption volcanique de 1345 qui provoqua des étés froids, de mauvaises récoltes méditerranéennes, et força les cités italiennes à importer des céréales depuis les bords de la mer Noire — introduisant ainsi involontairement le bacille dans leurs ports. C'est une crise qui crée les conditions de la contagion.
Pour l'IA, c'est l'inverse : la contagion est la crise elle-même, délibérément accélérée par ceux qui en tirent profit.
Deuxièmement : comprendre le processus
La Peste Noire se manifestait en trois formes distinctes, chacune plus rapide et plus mortelle que la précédente. La forme bubonique, la plus courante, provoquait des gonflements des ganglions lymphatiques. La forme septicémique se manifestait par des taches sombres sur la peau. La forme pulmonaire, très contagieuse, s'attaquait au système respiratoire, se propageant d'une personne à l'autre par l'air. Les contemporains voyaient les symptômes sans comprendre la cause. Ils décrivaient avec précision ce qu'ils ne pouvaient expliquer.
La propagation de l'IA présente, elle aussi, des symptômes en trois formes.
La forme cognitive — la plus diffuse — est le rétrécissement progressif du questionnement. On cesse de chercher, on consulte. On cesse de douter, on confirme. Le ganglion qui gonfle ici est la curiosité elle-même : elle enfle, devient douloureuse, et finit par ne plus servir à rien puisque la réponse est déjà formulée.
La forme épistémique — la forme septicémique — est ce que j'appelle l'épidémie du sédiment : la contamination des savoirs de référence par les biais massifs du corpus d'entraînement. Les taches sombres sur la peau de la connaissance, c'est l'effacement discret des épistémologies minoritaires, des langues rares, des savoirs oraux, des ontologies non-occidentales. On ne voit pas ces absences. Elles se manifestent en creux, dans ce que l'IA ne dit pas, ne peut pas dire, ne sait pas qu'elle ne sait pas.
La forme institutionnelle — la forme pulmonaire — se transmet par l'air : les décisions organisationnelles, les chaînes éditoriales, les processus éducatifs contaminés les uns par les autres, entreprise après entreprise, école après école, jusqu'à constituer un environnement épidémique continu.
Troisièmement : prendre conscience de l’ampleur du phénomène
Avant la Peste Noire, le système féodal divisait la population en castes bien distinctes : le roi au sommet, les nobles et riches marchands, et les serfs tout en bas. La médecine était dispensée sans être contestée, et l'Église catholique était une autorité spirituelle incontestée. La catastrophe démographique a tout brisé, non par volonté révolutionnaire, mais par arithmétique : les travailleurs survivants devenaient d'un coup précieux, avec du pouvoir pour négocier de meilleurs salaires et conditions de vie. Dans beaucoup de régions, le système féodal basé sur les seigneurs puissants et la masse paysanne exploitée se retrouva bousculé. La classe dirigeante essaya par tous les moyens de revenir à l'ancienne "normalité". L'Église s'est jointe à la croisade des propriétaires pour dénoncer cette augmentation des salaires. Le rééquilibrage fut réel mais combattu. Les efforts des riches pour ramener le serf à sa condition antérieure entraînèrent des soulèvements comme la révolte paysanne en France en 1358 et la révolte des paysans de Londres en 1381.
La propagation de l'IA reproduit ce double mouvement, mais en sens inverse dans le temps. C'est d'abord la concentration du pouvoir qui s'opère — puis viendraient, peut-être, les jacqueries. Les grandes plateformes numériques reproduisent une structure néoféodale : quelques cités-États (OpenAI, Google DeepMind, Anthropic, Meta) contrôlent les infrastructures de connaissance mondiale, exactement comme les prêtres et les nobles détenaient le monopole des institutions politiques, intellectuelles et spirituelles, car ils étaient les détenteurs du principal moyen de production. Aujourd'hui, ce moyen de production n'est plus la terre : c'est la puissance de calcul et les données d’entraînement.
La Peste Noire, en affectant nobles, prêtres et paysans de la même façon, remit en cause la hiérarchie établie à la naissance intrinsèque au système féodal.
L'IA, elle, semble égalitaire — accessible depuis n'importe quel smartphone — mais reproduit et amplifie les inégalités épistémiques existantes. Elle donne à chacun la même interface tout en n'offrant pas à tous le même monde.
Quatrièmement : ce qui survit, ce qui lutte
Face à la Peste Noire, les contemporains développèrent des réponses qui disent beaucoup sur leur rapport au monde. L'Église organisa des processions religieuses pour éloigner les démons. Des amulettes et talismans furent portés par les Juifs, les chrétiens et les musulmans. Ces réponses magico-religieuses étaient à la fois dérisoires et profondément humaines : elles exprimaient le refus de se soumettre à l'incompréhensible sans résistance symbolique. Mais d'autres résistances furent plus efficaces. La méthode consistant à faire rester les navires et les voyageurs suspects isolés pendant quarante jours avant de les autoriser à entrer dans la ville de Venise est toujours pratiquée aujourd'hui — et c'est de cette pratique que provient le terme de "quarantaine". La résistance productive à la Peste inventait des outils qui allaient traverser les siècles. Il y eut des zones épargnées. La Peste Noire se répand comme une vague et ne s'établit pas durablement aux endroits touchés. Certaines régions résistèrent mieux — par leur isolement géographique, par leurs pratiques d'hygiène, par des facteurs immunitaires encore mal compris. La résistance n'était pas toujours consciente ni délibérée.
Face à la propagation de l'IA, les immunités sont de même nature multiple et hétérogène. Il y a les résistances magiques — croire que l'IA est simplement un outil neutre et qu'il suffit de "bien l'utiliser", comme les amulettes contre la peste. Elles sont rassurantes et insuffisantes.
Il y a les quarantaines épistémiques — les pratiques qui consistent à maintenir des zones de connaissance délibérément hors-sédiment : les savoirs oraux, les langues non-numérisées, les pratiques artistiques incarnées, le duende qui ne se laisse pas coder. Ces quarantaines ne sont pas un repli. Elles sont la condition d'une réémergence.
Il y a les mutations institutionnelles — les équivalents des nouveaux hôpitaux, des premières mesures de santé publique nées de la catastrophe. Les initiatives comme HAKA, Masakhane, les protocoles Local Contexts : non pas des réponses magiques, mais des infrastructures de résistance collective, des outils pour les siècles.
Et il y a, enfin, les îles qui échappent à la vague — ces lieux, ces pratiques, ces communautés qui par leur singularité radicale, leur opacité revendiquée, leur refus de la traductibilité universelle, demeurent hors de portée du sédiment. Selon Glissant, l'archipel n'est pas une fragmentation : c'est une forme de résistance à l'homogénéisation. Ce que le sédiment exile, l'archipel l'accueille.
Cinquièmement : ce qui meurt, ce qui naît
La fin du servage signa l'arrêt de mort du féodalisme. L'ordre ancien se mourait, mais un ordre nouveau était encore à naître. C'était une période de transition et d'instabilité : une époque où "surgissent les monstres", comme le disait Gramsci.
Nous sommes dans ce moment gramscien. L'ordre ancien — le monopole occidental sur la définition du savoir, sur les canons de la vérité, sur les formes légitimes de connaissance — est moribond. Mais l'ordre nouveau est encore indistinct. Et dans cet entre-deux, l'IA générative risque moins d'être l'instrument d'une émancipation que la tentative ultime, automatisée et planétaire, de fixer le monde dans l'état où il était au moment où on l'a appris à la machine. La Peste Noire a tué un tiers de l'Europe. Elle a aussi, involontairement, libéré un tiers des serfs. La propagation de l'IA ne tuera pas les corps. Elle menace quelque chose de plus insidieux : les façons de savoir qui n'ont pas encore eu le temps de se numériser. Ce qui ne peut pas mourir d'une puce ou d'un bacille peut très bien mourir d'un corpus d’entraînement.
C'est pourquoi la question n'est pas "comment se protéger de l'IA" — comme on n'aurait pas demandé "comment se protéger du commerce". La question est : que garder vivant pendant la vague, pour que quelque chose d'autre que le sédiment soit encore là quand la vague se retire ?
Cet essai s'inscrit dans le projet HAKA (Human Archipelago for Knowledge Alternatives) et accompagne le livre L'IA, vertige des angles morts (éditions Sama, mars 2026).
Sixièmement : l’obsolescence des experts
Le Corpo dei Medici face à la Peste Noire : le sachant impuissant. Ce qui frappe dans la posture des médecins du XIVe siècle c’est cette dissociation entre l'autorité du discours et la nullité de l'efficacité. Face à la peste de 1347-1353, les médecins galéniques produisent des traités d'une sophistication impressionnante : les consilia pestilentialia, textes savants qui mobilisent Hippocrate, Avicenne, des théories miasmatiques élaborées. L'Université de Paris publie en 1348 une étiologie officielle : conjonction astrale de Saturne, Jupiter et Mars en Verseau. Tout est argumenté, sourcé, autorisé — et absolument inopérant. Ce qui se passe là est épistémologiquement fascinant : le corps de doctrine survit à son échec empirique. Les médecins continuent d'être consultés, payés, respectés. L'autorité ne se fonde pas sur l'efficacité prouvée mais sur la maîtrise d'un langage, sur l'appartenance à une corporation du savoir, sur la capacité à nommer avec une terminologie que le commun ne possède pas.
L'expert en IA contemporain, celui qui se prononce sur les "risques", les "alignements", les "émergences" — reproduit cette structure avec une précision troublante. Il maîtrise un lexique ésotérique (gradient descent, hallucination, RLHF, embodiment) qui fonctionne comme le latin des médecins médiévaux : il sépare l'initié du profane avant même que le contenu soit jugeable. Il s'exprime depuis des institutions prestigieuses — Stanford, DeepMind, l'INRIA — qui jouent le rôle de la Faculté de médecine de Paris. Et surtout : il parle avec une grande autorité sur des phénomènes qu'il ne maîtrise pas. Les comportements émergents des grands modèles sont réellement imprévisibles pour leurs propres créateurs. GPT-4 a exhibé des capacités que ses architectes n'avaient pas anticipées. L'alignement reste un problème ouvert dont personne ne sait s'il est soluble. Sur les risques à long terme, les désaccords entre "experts" sont aussi profonds que les désaccords entre galénistes et partisans de la théorie des miasmes. Le médecin médiéval échoue visiblement — les patients meurent sous ses yeux, le taux de mortalité de la peste est de 30 à 60 % selon les régions, le tout se déroule en quelques mois. L'échec est empiriquement brutal et immédiatement lisible. L'expert en IA contemporain échoue — ou réussit — dans un horizon temporel incertain, sur des questions dont les critères d'évaluation sont eux-mêmes contestés. On ne saura peut-être jamais si les garde-fous mis en place aujourd'hui auront "fonctionné". Ce flou temporel protège l'autorité du sachant d'une manière que la peste n'accordait pas aux galénistes.
Ce qui les rapproche, c’est le mécanisme de désertion de la responsabilité : le médecin médiéval disait "le mal vient des astres / des miasmes, nous ne pouvons qu'accompagner". L'expert en IA dit "les risques viennent de la nature même de la technologie / des mauvais acteurs / de la régulation absente, nous ne pouvons que conseiller". Dans les deux cas, le sachant se place à côté de la causalité réelle, dans une position de commentateur éclairé d'une catastrophe sur laquelle il n'a pas prise — mais dont il tire néanmoins une rente symbolique considérable.
Septièmement : la myopie n’est pas une option
Ce que le corpo dei medici révèle, c'est que l'autorité épistémique peut se maintenir indépendamment de l'efficacité, à condition que trois conditions soient réunies : un langage spécialisé, une institution légitimante, et un phénomène suffisamment opaque pour que l'échec ne soit pas directement attribuable au sachant. La rente symbolique du sachant impuissant ne se distribue pas au hasard. Dans le cas du corpo dei medici, les bénéficiaires sont clairement identifiables : la corporation médicale elle-même (qui facture les consilia pendant que les gens meurent), les autorités municipales (qui peuvent dire "nous avons consulté les experts" avant d'ordonner des mesures souvent arbitraires comme l'expulsion des Juifs ou des lépreux), et indirectement l'Église (qui réintègre le mystère divin là où la médecine échoue). Le sachant impuissant fonctionne comme un paratonnerre de la responsabilité : il absorbe la question "que faire ?" sans jamais avoir à répondre de l'inefficacité de la réponse.
Dans l'IA contemporaine, la cartographie des bénéficiaires est plus sophistiquée mais structurellement analogue. Les grandes entreprises technologiques financent massivement la recherche en "sécurité IA" et en "alignement" — OpenAI, Anthropic, DeepMind ont tous des équipes dédiées, publient des papiers, organisent des conférences. Ce n'est pas de la mauvaise foi, mais l'effet politique est limpide : le débat sur les risques se déplace vers un terrain où seuls les initiés peuvent jouer. Quand Altman témoigne au Congrès américain et explique qu'il faudrait peut-être "réguler" l'IA, il adopte exactement la posture du médecin médiéval convoqué par le podestat : il nomme le danger, il en magnifie la complexité, il suggère des remèdes dont lui seul possède les ingrédients. Le résultat politique — l'absence de régulation structurelle effective — ressemble fort à la situation de 1348. Il y a ensuite les gouvernements, qui reproduisent le geste de délégation des autorités municipales médiévales : convoquer des comités d'experts, commander des rapports, financer des "observatoires de l'IA" — tout cela crée une apparence de gouvernance sans que s'opère le moindre transfert réel de pouvoir sur la trajectoire technologique. L'Union Européenne a produit l'AI Act après des années de travail d'experts : c'est un document de grande sophistication conceptuelle dont l'effectivité sur les systèmes réellement déployés reste à prouver. Les médecins parisiens de 1348 auraient reconnu la forme. Et puis, il y a le consensus épistémique lui-même, cette entité collective diffuse qui a intérêt à ce que les questions sur l'IA restent dans le registre de la technique et non dans celui de la politique. Tant que le débat porte sur les "hallucinations", les "biais algorithmiques", les "modèles de fondation" et les "risques existentiels", il reste confisqué par ceux qui maîtrisent ce vocabulaire. La question réellement politique — qui décide quelles valeurs le sédiment encode, au profit de qui, au détriment de qui — ne peut pas s'articuler dans ce langage. Elle est structurellement évacuée par la sophistication terminologique elle-même.
Ce que le parallèle entre le corpo dei medici et les experts en IA révèle, c'est une tendance structurelle de l'expertise institutionnelle à se maintenir en situation d'impuissance relative — non pas par incompétence individuelle ou mauvaise volonté, mais parce que la forme même de l'expertise engendre ce paradoxe. L'expertise se constitue en se spécialisant — elle découpe un domaine, élabore un langage, développe des méthodes. Ce faisant, elle gagne en précision sur un objet de plus en plus étroit et perd simultanément la capacité à saisir les conditions de production et d'usage de cet objet. Le médecin galénique sait tout sur les humeurs mais ne voit pas que la peste se transmet par les puces des rats parce que le rat n'existe pas dans la taxonomie galénique. L'expert en sécurité IA sait tout sur les gradients et les fonctions de perte mais ne voit pas — ou voit sans pouvoir le dire dans son langage — que le vrai "risque" n'est pas l'IA "désalignée" mais l'IA parfaitement alignée sur des valeurs d'extraction et de concentration.
C'est ce que l'on pourrait appeler, en empruntant à Bourdieu, l'illusio spécialisée : pour entrer dans le jeu de l'expertise, il faut accepter les règles du jeu, et ces règles définissent précisément ce qui compte comme question légitime. Or les questions les plus importantes sont souvent celles qui sortent du jeu — celles qui interrogent les règles elles-mêmes.
Il y a là une connexion directe avec ma notion d'angle mort. L'angle mort n'est pas un défaut réparable de l'expertise — il est co-produit par l'acuité même de l'expertise. Plus le médecin médiéval maîtrise les textes d'Avicenne, moins il est en mesure de voir ce qu'Avicenne ne voyait pas. C'est la tragédie épistémique du spécialiste : sa compétence est inséparable de son aveuglement.
Il y a une dimension plus radicale encore, que Wittgenstein permettrait de formuler : l'expert ne peut pas sortir du langage dans lequel il a été formé pour voir ce que ce langage rend invisible. Ce n'est pas une limitation psychologique, c'est une limite logique. Les médecins médiévaux auraient pu observer les rats et les puces — mais l'observation elle-même est guidée par des catégories, et les catégories galéniques ne produisaient pas la question "par quel vecteur animal ce mal se transmet-il ?". La question était littéralement impensable dans ce cadre. De même, la question "de quel droit une minorité d'ingénieurs américains décide-t-elle quels savoirs méritent d'être déposés dans le sédiment de l'humanité ?" est impensable — ou du moins non formulable — dans le cadre conceptuel de l'alignement tel qu'il est pratiqué à San Francisco.
Le sachant impuissant qui parle quand même avec autorité n'est pas un accident, il est une fonction. Une fonction politique (déplacer la responsabilité, confisquer le débat) doublée d'une fonction épistémique (maintenir la légitimité d'un cadre conceptuel dont l'échec partiel est constitutif).
Ce que HAKA propose de faire — retourner l'angle mort en lieu d'émergence — est alors non seulement une stratégie culturelle mais un geste proprement politique : il s'agit de nommer la fonction pour en sortir. De montrer que le silence de certains savoirs n'est pas un oubli réparable par plus d'expertise, mais le résultat d'une économie symbolique qui a ses bénéficiaires et ses logiques.
La différence entre les fossoyeurs anonymes de 1348 — qui enterraient les morts et comprenaient intuitivement que le contact avec les corps malades tuait — et les médecins galénistes qui produisaient des traités sur la conjonction astrale, c'est peut-être la même différence qu'entre une femme Māori dépositaire d'un savoir sur les plantes médicinales et un laboratoire pharmaceutique qui en extrait le principe actif pour le breveter. Dans les deux cas, le savoir situé, incarné, non institutionnalisé, voit ce que l'expertise institutionnelle ne voit pas — et reste pourtant sans voix dans le débat qui décide de l'avenir.
C'est le cœur de l’archipel : pas une nostalgie des fossoyeurs anonymes, mais la reconnaissance que l'autorité du savoir et la pertinence du savoir sont deux choses que nos institutions confondent systématiquement — et que cette confusion n'est pas innocente.
Huitièmement : suicide mode d’emploi
1 Accélérer sans gouvernail
Quand l'autorité et la pertinence se dissocient, les décisions réelles ne sont pas prises par les sachants — elles sont prises par les dynamiques du capital et de la compétition géopolitique, pendant que les sachants produisent du commentaire. C'est exactement ce qui s'est passé avec la peste : pendant que les médecins débattaient des conjonctions astrales, les décisions effectives étaient prises par les marchands (continuer ou non les routes commerciales), les podestats (expulser ou non les populations suspectes), et le hasard épidémiologique. Le savoir institutionnel ne gouvernait pas — il accompagnait et légitimait après coup. Aujourd'hui, les décisions qui façonnent réellement la trajectoire de l'IA — quels modèles sont entraînés sur quelles données, quels marchés sont pénétrés en priorité, quelles langues et quels savoirs sont intégrés ou exclus — sont prises par des dynamiques d'investissement et de compétition entre puissances. Le débat expert sur l'alignement, les risques existentiels, la gouvernance, se déroule à côté de ces décisions, dans un espace qui n'a pas de prise réelle sur elles. La conséquence est une accélération structurellement aveugle : plus rapide que toute capacité de délibération, guidée par des logiques qui ne sont pas celles de la pertinence épistémique mais de la rentabilité et de la puissance. Ce que les médecins médiévaux n'ont pas compris — que la peste se transmettait par les corps et les objets — a coûté peut-être 25 millions de morts en Europe. Mais la peste avait une limite naturelle : elle s'épuisait en tuant ses vecteurs. L'accélération technologique, elle, n'a pas ce genre de frein intrinsèque.
2
Approfondissement de l'épistemicide
Si l'expertise institutionnelle confond autorité et pertinence, elle produit inévitablement une sélection des savoirs qui n'est pas neutre. Ce qui entre dans le sédiment n'est pas "ce qui est vrai" ou "ce qui est utile à l'humanité" — c'est ce qui est déjà formalisé, quantifié, institutionnellement légitimé, exprimable dans les langues dominantes. Les savoirs qui n'ont pas cette forme disparaissent non pas parce qu'ils sont moins pertinents, mais parce que leur pertinence ne peut pas être exprimée dans le langage qui décide de ce qui mérite d'être conservé. C'est une épuration épistémique opérée non par violence directe mais par critères d'admissibilité — ce qui est peut-être plus efficace parce qu'invisible. Et cette épuration se renforce elle-même : plus le sédiment s'épaissit, plus il devient la référence de ce qui compte comme savoir, plus les savoirs qui en sont absents semblent marginaux ou anecdotiques. C'est un processus de clôture progressive qui ressemble à ce que Bourdieu appelait la violence symbolique — une violence qui s'exerce avec la complicité inconsciente de ses victimes, parce que les catégories qui permettraient de la voir sont précisément celles que le système a éliminées. La conséquence ultime n'est pas seulement que certains savoirs disparaissent — c'est que la capacité même à percevoir leur disparition disparaît avec eux. Les générations formées par le sédiment ne sauront pas ce qu'elles ne savent pas. Ce n'est pas l'ignorance ordinaire — c'est une ignorance structurée, produite, et auto-validante.
3
Désolidarisation du lien entre savoir et responsabilité
Dans les sociétés où le savoir est incarné — le guérisseur qui soigne, le paysan qui connaît son sol, l'artisan qui maîtrise sa matière — la pertinence et la responsabilité sont liées. Si je me trompes, les conséquences sont immédiates et te reviennent. Cette connexion est une discipline épistémique puissante : elle oblige le savoir à rester en contact avec l'effectivité. L'expertise institutionnelle brise ce lien. Le médecin médiéval qui prescrit la saignée à un moribond n'est pas responsable de sa mort — il a suivi le protocole. Le chercheur en IA qui publie un papier sur les biais algorithmiques n'est pas responsable du fait que ces biais continuent à opérer dans les systèmes déployés — il a produit la connaissance, à d'autres de l'appliquer. Cette désolidarisation entre savoir et conséquence produit un type particulier d'irresponsabilité collective : chacun a fait son travail, personne n'est responsable du résultat. Ce que cela engendre à long terme, c'est une atrophie de la prudence au sens aristotélicien — la phronesis, cette forme de sagesse pratique qui ne peut s'acquérir que dans le contact avec les conséquences réelles des décisions. Une expertise qui ne porte jamais les conséquences de ses erreurs ne développe pas la prudence — elle développe la sophistication théorique, ce qui est entièrement différent, et parfois inverse.
4
Crise de légitimité et liaisons dangereuses
La confusion entre autorité et pertinence finit par se voir — pas nécessairement par les mécanismes intellectuels que nous venons de décrire, mais par l'expérience brute de l'inefficacité. Les gens de 1348 qui voyaient mourir leurs proches malgré les consilia des médecins ont tiré des conclusions. Certaines de ces conclusions étaient justes — méfiance envers la médecine officielle. D'autres étaient catastrophiques — les pogroms contre les Juifs, accusés d'empoisonner les puits, ont tué des dizaines de milliers de personnes. C'est le schéma classique de la crise de légitimité épistémique : quand l'autorité institutionnelle révèle son impuissance, le mouvement ne va pas nécessairement vers plus de pertinence — il peut aller vers des alternatives qui offrent la certitude émotionnelle que la complexité refusait. La simplicité accusatrice du bouc émissaire contre l'honnêteté désarmante de "nous ne savons pas vraiment". Aujourd'hui, on voit se former quelque chose d'analogue : une défiance croissante envers l'expertise institutionnelle sur l'IA — et cette défiance bifurque dans deux directions opposées. D'un côté, vers des formes de critique radicale qui peuvent être très pertinentes — exactement ce que font des gens comme Gebru, Crawford, ou ce que HAKA cherche à faire. De l'autre, vers des populismes technophobes ou technolâtres également irrationnels, également incapables de saisir la réalité des enjeux, mais émotionnellement satisfaisants parce qu'ils offrent une clarté que la complexité refuse. La conséquence prévisible — et c'est peut-être la plus urgente politiquement — est que le vide laissé par l'expertise impuissante sera comblé, mais pas nécessairement par ce qui est pertinent. Il sera comblé par ce qui est puissant. Et la puissance, en ce moment, appartient aux mêmes acteurs qui ont intérêt à ce que le débat reste confisqué.
5
Amplification du régime de la confusion
Si la confusion entre autorité et pertinence dure assez longtemps, si le sédiment s'épaissit assez, si l'épistemicide est assez profond — il devient possible que l'humanité perde la capacité collective à poser certaines questions. Non pas parce que les questions seraient interdites, mais parce que les catégories qui permettraient de les former auraient disparu avec les savoirs qui les portaient. C'est le risque que les médecins médiévaux n'ont pas fait courir à l'humanité, parce que la peste était une catastrophe localisée dans le temps et l'espace, et que les fossoyeurs, les herboristes, les femmes qui soignaient dans l'ombre, les observateurs sans titre qui regardaient les rats mourir avant les hommes — tous ces sachants non institutionnels ont survécu et ont finalement produit une épidémiologie plus pertinente. Ce qui est différent avec le sédiment-IA, c'est l'échelle et la vitesse. Si le sédiment devient l'infrastructure cognitive dominante de la planète avant que les alternatives aient pu s'organiser, se nommer, se transmettre — alors la perte n'est pas réparable par le simple fait que "les hommes finissent toujours par trouver". Il n'y aura peut-être plus personne pour chercher dans les directions que le sédiment aura rendues impensables. C'est pourquoi HAKA n'est pas une nostalgie ni un luxe intellectuel. C'est une question de temporalité critique : les archipels doivent exister et se nommer avant que la mer monte, pas après.
La vague qui tue
Il est une forme d'IA qui n'est pas métaphorique. Qui ne menace pas les épistémologies — qui menace les corps. Qui ne produit pas de sédiment — qui produit des morts. Le drone autonome est la conclusion logique de tout ce qui précède. Non pas un accident, non pas une dérive — une aboutissement. Revenons au tanka d'Oyodo. Ce qui est haïssable, c'est la vague / qui repart juste après avoir vu le rivage. Le poète du Xe siècle avait identifié quelque chose d'insupportable dans la rencontre sans trace, dans le contact sans transformation. Il avait donné à cette figure le nom d'une douleur morale : la vague aurait pu rester. Elle a choisi de ne pas rester. Le drone de combat autonome est cette vague portée à son terme. Il touche. Il détruit. Il repart. Sans cicatrice, sans mémoire, sans le poids de ce qu'il a fait. Il n'emporte pas avec lui le visage de celui qu'il a tué. Il n'existe pas de nuit qui suive pour lui, pas de perturbation du sommeil, pas de ce que les soldats grecs appelaient miasma — la souillure qui attachait le tueur à sa victime et imposait le rite de purification. La guerre avait cette cruauté et cette grandeur : elle laissait des traces dans les corps de ceux qui la faisaient. Elle les marquait. Achille ne revient pas de Troie indemne. Les tueurs humains portent leurs morts. Le drone autonome brise ce lien pour de bon. Ce n'est pas seulement une question militaire. C'est la conclusion du processus que nous avons décrit tout au long de cet article : la désolidarisation progressive entre l'acte et sa conséquence, entre la décision et sa responsabilité, entre le savoir et ce qu'il coûte. Le médecin médiéval prescrivait la saignée et le patient mourait — mais le médecin était là, il sentait l'odeur de la mort, il devait inventer une explication. L'expert en IA déploie un système biaisé et des milliers de personnes en paient le prix — mais il est ailleurs, dans un open space climatisé, et le lien de causalité est suffisamment diffus pour ne jamais devenir responsabilité. Le drone autonome franchit le dernier seuil : plus personne n'est là. Plus personne, même formellement, même fictionnellement, ne regarde dans les yeux ce qu'il tue.
La guerre a toujours eu un coût politique intérieur : les cercueils qui reviennent, les traumatisés qui témoignent, les mères qui portent le deuil dans l'espace public. Ce coût limitait — imparfaitement, inégalement, mais réellement — la capacité des États à faire la guerre indéfiniment. Le drone autonome supprime ce coût. Il permet une guerre sans deuil domestique, une guerre que la société qui la mène ne ressent pas dans sa chair. Une guerre propre du côté de celui qui l'exerce, infiniment sale du côté de celui qui la subit. Et le sédiment-IA est le substrat de cette propreté. Car le drone autonome ne décide pas à partir du vide — il décide à partir d'un corpus d'entraînement, d'une modélisation de l'ennemi, d'une représentation de ce qui constitue une menace. Il porte en lui, encodés, tous les biais de ceux qui l'ont formé : leurs représentations des corps dangereux, leurs géographies de la menace, leurs catégorisations de qui compte et qui ne compte pas. Le drone tire sur ce que le sédiment lui a appris à reconnaître comme cible. Et le sédiment, nous l'avons vu, n'est pas neutre. Il est le précipité de qui a eu le pouvoir de nommer, de quantifier, de classer. Les recherches sur les systèmes d'identification militaires automatisés montrent que ces systèmes héritent des biais raciaux et géographiques des données sur lesquelles ils ont été entraînés. Ce n'est pas une surprise — c'est la logique même du sédiment appliquée à la décision létale. On ne tire pas sur un individu. On tire sur une statistique. On tire sur une corrélation. On tire sur ce que le modèle a appris à reconnaître comme appartenant à la catégorie des corps qu'il est autorisé à détruire.
Ceci est la forme militaire de l'épistemicide : l'élimination physique de ceux dont les corps correspondent aux patterns que le sédiment a retenus comme menaçants.
Face à cela, que pouvons-nous? La réponse honnête est : pas grand-chose, directement. HAKA ne fait pas de la politique de défense. HAKA n'a pas de prise sur les décisions d'acquisition militaire des États. L'urgence de l'archipel face au drone armé autonome ressemble à celle des fossoyeurs de 1348 face à la conjonction astrale de Saturne : ils avaient raison sur la transmission, et cela n'a pas arrêté la peste.
Mais la réponse honnête n'est pas toute la réponse.
Ce qui peut être fait — ce qui doit être fait, et maintenant — c'est nommer le continuum. Montrer que le drone autonome n'est pas une anomalie militaire séparable du reste du développement de l'IA. Il est son aboutissement logique dans un domaine particulier. Les mêmes logiques qui produisent un moteur de recherche qui efface les épistémologies minoritaires produisent, dans un autre contexte de déploiement, un système qui identifie et élimine des corps minoritaires. Le sédiment est le même. La dissociation entre acte et responsabilité est la même. L'invisibilité des victimes est la même. Ce qui change, c'est uniquement l'amplitude des conséquences. Nommer ce continuum, c'est refuser la coupure commode entre "IA civile" et "IA militaire" qui permet aux mêmes entreprises, aux mêmes ingénieurs, aux mêmes investisseurs de se tenir à distance morale de ce que leurs outils font quand on les déploie dans d'autres contextes. Google a retiré ses ingénieurs du projet Maven en 2018 sous la pression interne — et les mêmes capacités techniques ont continué à se développer ailleurs, par d'autres mains, avec d'autres financements. La pureté des mains n'est pas une politique. Ce que HAKA peut faire — ce que les archipels peuvent faire — c'est maintenir vivante la question de la responsabilité dans un monde qui s'organise pour la dissoudre. Maintenir vivante la figure du tueur qui porte ses morts. Maintenir vivante l'exigence que celui qui décide soit également celui qui assume. Non pas comme nostalgie d'une guerre "plus honorable" — la guerre n'a jamais été honorable. Mais comme principe politique fondamental : le droit de donner la mort ne peut pas être délégué à une corrélation statistique sans que quelque chose d'essentiel à la possibilité même du politique s'effondre avec lui.
La vague du poème d'Oyodo était haïssable parce qu'elle aurait pu rester et qu'elle a choisi de ne pas rester. Le drone autonome est au-delà de la haine : il n'a jamais eu le choix de rester. Il n'a jamais vu le rivage. Il ne sait pas ce que c'est que de voir un rivage et de devoir décider. C'est peut-être la définition la plus précise de ce que nous sommes en train de produire : des systèmes qui agissent dans le monde humain sans jamais avoir accès à ce que le monde humain signifie. Des systèmes pour lesquels ni la douleur d'autrui, ni la beauté d'un pin tordu par le vent marin, ni la mort qu'ils donnent ne constituent une expérience. Des systèmes parfaitement efficaces et radicalement étrangers à ce pour quoi l'efficacité devrait servir.
L'archipel — les savoirs incarnés, les épistémologies situées, les voix qui portent la marque de ce qu'elles ont vécu — n'est pas seulement une alternative culturelle à l'homogénéisation du sédiment. Il est le témoignage que quelque chose a existé qui savait ce que cela coûtait d'agir dans le monde. Et ce témoignage, à l'heure où nous construisons des systèmes pour qui rien ne coûte rien, est peut-être la chose la plus urgente à garder vivante.
Avant que la mer monte. Avant que la vague oublie qu'il y a des rivages.
Cf.
https://fr.wikipedia.org/wiki/Peste_noire
https://www.nature.com/articles/s43247-025-02964-0
https://www.histoirealacarte.com/index.php/moyen-age/la-peste-noire-epidemie-mondiale
https://www.esanum.fr/today/posts/la-peste-noire
https://www.worldhistory.org/trans/fr/2-1543/effets-de-la-mort-noire-en-europe/
https://marxist.com/la-peste-noire-la-pandemie-qui-a-change-le-monde.htm
https://www.worldhistory.org/trans/fr/2-1543/effets-de-la-mort-noire-en-europe/
