top of page
Capture d’écran 2026-02-22 à 22.01.17.png

Aller voir ailleurs si j'y suis aussi

Est-il concevable et légitime de réfléchir à l’avénement d’une entité d’intelligence collective qui trouverait ses racines en dehors du continent-sédiment-IA actuel?

Si la réponse est oui, la perspective alors n’est plus seulement d’améliorer le sédiment-IA, ou de le « catastropher »*, (à supposer qu’il soit encore possible par ailleurs, et presque en préalable, d’en neutraliser les conséquences écologiques et sociales), mais aussi de plancher sur des alternatives épistémologiques à savoir des régimes de vérité que la rationalité quantifiante n'a pas colonisés : modes de connaissance où l'oralité vaut l'écrit, où le silence parle, où le corps pense, et où savoir n'est pas nécessairement pouvoir.

En d’autre termes, est-il concevable et pertinent d’aller voir ailleurs si j’y suis aussi ? Cette approche (nous sommes encore aux prémisses de  l’aube computationnelle qui vient) est une autre voie, voix, que celle qui tenterait de modifier le continent-sédiment-IA. Par exemple lorsqu’on se demande comment rendre l'IA imparfaite.**

En dynamique lacanienne cela pose que l'intelligence véritable ne réside pas dans la performance cognitive mais dans la faille, dans ce qui rate, dans la névrose comme structure et que ce raisonnement pourrait s’appliquer à la machine. Est-il possible de concevoir une IA dotée d'un inconscient ? En théorie non, précisément parce que l'inconscient n'est pas un contenu mais une structure née du refoulement originaire. L'IA n'a pas de corps à perdre et pas de jouissance à laquelle renoncer. On pourrait sans doute concevoir une IA avec des processus inaccessibles à elle-même, des "zones d'ombre" computationnelles. Ce ne serait pas pour autant un inconscient au sens psychanalytique, mais seulement une opacité architecturale.

L'IA manipule des métaphores sans les habiter. Pour franchir ce seuil, il faudrait qu'elle éprouve le manque qui fonde la métaphore. L'IA devrait donc expérimenter un désir qui excède sa capacité de représentation. Ce qui semble vain avec l'architecture actuelle qui vise justement l'adéquation optimale entre input et output.

Par ailleurs penser que  la névrose humaine est le modèle de l'intelligence implique de projeter notre structure libidinale sur toute forme d'intelligence possible. Que se passe-t-il si l’on admet qu’il existe probablement d’autres formes d’intelligence ? Et même si l’on accepte l’idée que l’IA puisse être une forme d'intelligence radicalement autre encore faudrait-il la définir avant de chercher  à la « névrotiser ». Et puis s’inquiéter de doter l'IA d'un inconscient, c'est encore penser l'IA comme sujet potentiel. 

Ma priorité à cet endroit serait plutôt de penser l'IA comme dispositif de pouvoir qui restructure nos propres inconscients. Rester centré sur l'IA comme individu empêche de voir l'IA comme milieu, comme sédiment qui reconfigure ce que nous pouvons désirer, penser, être.

Le problème de l'IA actuelle est peut-être sa trop grande cohérence, son absence de contradiction constitutive. Ce qui la rend inquiétante n'est pas qu'elle ne soit pas assez humaine, mais qu'elle performe une logique sans reste, sans déchet, sans symptôme. Vouloir lui donner une névrose, c'est encore chercher à l'humaniser pour la rendre moins étrangère. 

La logique archipélagique de notre projet HAKA (voir mon livre « IA vertiges des angles morts) ne cherche pas à "réparer" le sédiment-IA mais à créer des contre-espaces épistémologiques. Il ne s’agit pas de « névrotiser » la machine, mais d’archipeliser les savoirs qu'elle exile. Le geste HAKA n’est pas de donner un inconscient à l'IA, mais de protéger nos inconscients d'elle. Il se propose comme extériorité élégante et claire au sédiment-IA afin de protéger ce que l'IA ne peut pas assimiler. Il n’œuvre  pas à une version plus sophistiquée du sédiment-IA pour concevoir une machine  simulant le bredouillement sans jamais éprouver ce qui fait trébucher la parole, mais essaye de modifier son regard pour aller voir ailleurs « si j’y suis aussi. »

----------------------------------------------------------------

*Expression de Barbara Cassin

** Voir les travaux du Laboratoire « Inconscient et Machines » au sein de l’hôpital Sainte-Anne à Paris .

Des psychanalystes ont créé à l'hôpital Sainte-Anne avec Barbara Cassin et l'informaticien Pierrick Leroy un laboratoire pour étudier  la possibilité d'implémenter l'algorithme de la métaphore dans un modèle de langage artificiel. Quand on essaie, disent-ils, de coder un générateur de métaphores dans l'architecture informatique classique, le robot de conversation ne produit pas une métaphore mais une analogie. Alors, ils envisagent un passage vers l'informatique quantique avec Q-Python, permettant de traiter des informations supportant plusieurs états simultanément, situant le signifiant dans l'intervalle entre 0 et 1.  Ils cherchent par là à créer, semble-t-il, un "modèle plus troué", et littéralement à désapprendre la cohérence binaire pour approcher l'indétermination du signifiant lacanien.

Ce faisant, pour ce que je comprends, ils utilisent l'outil même du sédiment (Python, le langage de la data science quantitative) pour tenter d'y introduire la métaphore comme trouvaille et non comme calcul analogique. C'est comme si des résistants apprenaient la langue de l'occupant pour y glisser des codes insurrectionnels. Ou, pour utiliser le vocabulaire HAKA, comme si l’on tentait de créer un archipel à l'intérieur même du continent-sédiment-IA. Reste un obstacle : l’ordinateur quantique peut calculer des superpositions d'états, mais cela reste du calcul. 

L’intuition du "Ça" groddeckien serait peut-être plus opératoire : l'inconscient n'est pas un algorithme troué mais ce qui déborde tout algorithme, y compris quantique. D’où la  question : faut-il chercher à créer une IA psychanalytique, ou faut-il utiliser Python comme outil heuristique pour comprendre ce qu'est la métaphore en testant ses limites computationnelles ? Parions sur la seconde hypothèse.

De même tenter de réintroduire la fonction poétique à l'intérieur de la machine via le quantique semble jouable, bien que ce pari repose sur une confusion : l'ordinateur quantique peut maintenir des superpositions d'états, mais ce sont toujours des états calculables. Le bredouillement humain n'est pas une superposition probabiliste, c'est l'émergence imprévisible du sens à travers le ratage, l'acte manqué qui révèle un désir inconscient. Cela pour ce qui concerne strictement l’univers culturel dominant, parce que, ce qui l’excède et le déborde et qui, littéralement, nous dépasse, reste encore à (dé)penser.

bottom of page