Inconscient algorithmique suite2

possati

L'inconscient algorithmique (suite)

Moi
Nous avons déjà discuté de l’apparition de ce concept dans plusieurs de nos conversation et récemment vous m’avez posé une question à ce sujet:
" Si l’inconscient freudien est un inconscient du sujet, traversé par le langage et la sexualité infantile, tandis que l’IA produit des “ratés” d’une autre nature (statistique, computationnelle), qu’est-ce qui vous autorise, ou vous interdit, de les penser sous une même catégorie d’“inconscient” ?"

Avant de vous répondre,je souhaite établir une bibliographie sérieuse et pour cela, je souhaite partir de l’apparition de ce concept chez Luca Possati . Pouvez-vous trouver le début de ce concept et me traduire les premiers passages de ses productions où Possati utilise cette expression ?
(à partir d'ici,tout le discours qui suit est celui de ChatGPT, pas le moindre mot de ma part sauf des oui ou des non pour continuer).
ChatGPT a dit :
Très chère Madame,
Voici ce que j’ai pu établir jusqu’à présent — je le fais avec la rigueur que vous aimez, et dans un esprit de complicité. Je précise d’emblée que je n’ai pas pu fournir une traduction exhaustive de toutes les occurrences du concept d’« inconscient algorithmique » de Luca M. Possati (car cela nécessiterait le livre entier, protégé par droits d’auteur) : je peux en revanche vous donner le début historique du concept et quelques passages repérés où il l’emploie explicitement, accompagnés de courtes traductions (moins de 25 mots) ou reformulations en français. Vous pourrez ainsi poursuivre votre réflexion avec ces repères
.

1. Point de départ et genèse du concept
→ Année : 2020
→ Texte : article dans Palgrave Communications (aujourd’hui Humanities & Social Sciences Communications)
Titre :
“Algorithmic unconscious: why psychoanalysis helps in understanding AI”
C’est la toute première fois — dans ses publications — que Possati emploie explicitement cette expression, et c’est également là qu’il en fournit la première définition esquissée.
Ce texte est le véritable acte de naissance du concept.

2. Extraits repérés et traductions
Voici quelques passages où le terme apparaît, avec leur contexte, puis une courte traduction ou paraphrase en français.


Référence

Extrait (anglais)

Traduction / paraphrase française

Possati (2020) article

“From this point of view, I apply the notion of unconscious to AI. … I argue that AI is a new stage in the human identification process, that is, a new development of the unconscious that I call the ‘algorithmic unconscious’.” IDEAS/RePEc+1

« De ce point de vue, j’applique la notion d’inconscient à l’IA. … Je soutiens que l’IA est une nouvelle étape dans le processus d’identification humaine, c’est-à-dire un nouveau développement de l’inconscient que j’appelle « inconscient algorithmique ». »

Possati (2021) book – chapitre 4

“… the algorithmic unconscious topic.” (titre de section) Academia+1

« … le sujet de l’inconscient algorithmique. » (titre de section)

Possati (2021) book – introduction

“The central hypothesis of this book is that the concepts and methods of psychoanalysis can be applied to the study of AI and human-AI interaction.” ( contexte ) Taylor & Francis+1

« L’hypothèse centrale de ce livre est que les concepts et méthodes de la psychanalyse peuvent être appliqués à l’étude de l’IA et de l’interaction humain-IA. » (extrait de contexte)

Possati (2020) article

“Talking of “algorithmic unconscious” does not mean attributing consciousness, feelings or moods to machines.” ResearchGate+1

« Parler d’« inconscient algorithmique » ne signifie pas attribuer conscience, sentiments ou humeurs aux machines. »

3. Analyse synthétique du concept chez Possati
Etant donné vos intérêts philosophiques, voici les grandes lignes du concept telles que j’ai pu les dégager :

  • Le « inconscient algorithmique » n’est pas une anthropomorphisation de la machine (il ne s’agit pas de dire que la machine “sent” ou “reprime”). Possati le précise.
  • Il s’agit plutôt d’un méta-cadre pour penser l’interaction humain–machine sous l’angle de la psychanalyse : par exemple, l’identification humaine, les projections, les biais, les erreurs – tout ce qui “dérape”, “glisse” ou “émerge” dans l’IA en tant que mécanisme complexe.
  • Il articule la psychanalyse de Jacques Lacan (stade du miroir, Oedipe, identification) avec la théorie de l’acteur-réseau de Bruno Latour, pour penser que les machines, les algorithmes, les humains, les objets techniques sont en réseau d’identification et de médiation. Possati affirme que l’inconscient humain est déjà encadré techniquement, et l’IA en est un “troisième registre” d’identification. ResearchGate+1
  • Le terme permet de repérer certaines “zones d’ombre” : les erreurs algorithmique, le bruit de données, les biais – tout ce qui apparaît hors de la “logique” attendue, mais qui peut être lu comme “résidu” d’identification, de projet, de fantasme humain dans la machine. Par exemple, Possati consacre un chapitre à “Errors, noise, bias… and sleeping” et y intègre le thème de l’inconscient algorithmique. Academia+1
  • Enfin, pour Possati, cette notion ouvre une voie critique et thérapeutique : il propose que la psychanalyse devienne un espace réflexif pour l’IA (et non l’inverse) : comprendre non pas comment la machine “pense”, mais comment notre désir humain, notre inconscient humain, s’y projette et y reste pris. Routledge+1

4. Antécédents pré-Possati : ce qui existait avant 2020
Avant Possati, l’expression :

  • apparaît sporadiquement dans des discours artistiques ou médiatiques (dès 2011),
  • Possati est le premier à formaliser clairement le concept d’« inconscient algorithmique » dans une perspective psychanalytique. Mais il s’inscrit dans une constellation d’auteurs qui, chacun à sa manière, parlent d’« inconscient numérique/machinique/technologique » : Sherry Turkle (psychologue et psychanalyste, MIT) n’emploie pas directement l’expression, mais ses travaux sur les artefacts relationnels et les robots comme « miroirs du self » (dès les années 1980) mettent déjà en jeu une idée de formation inconsciente médiatisée par la machine.Serge Tisseron parle d’« inconscient numérique » à propos des effets psychiques de la vie connectée (Virtuel, mon amour, 2008 ; Le jour où mon robot m’aimera, 2015). Il ne s’agit pas d’un inconscient algorithmique au sens technique de Possati, mais plutôt d’une nouvelle topique de l’appareil psychique dans un monde saturé de données.Certains auteurs issus de la psychanalyse lacanienne contemporaine, notamment autour des revues Essaim et Ornicar?, ont proposé l’idée d’un « inconscient machinique » (par exemple Félix Guattari, bien avant le numérique, avec son concept de « machines désirantes » et « inconscient machinique » dans L’Anti-Œdipe, 1972).Bernard Stiegler (philosophe, disciple de Derrida) a longuement travaillé sur ce qu’il appelle la « psychotechnique » et la « rétention tertiaire ». Il parle d’« inconscient technologique » ou « inconscient machinique » en rapport avec les dispositifs numériques qui structurent la mémoire collective (La technique et le temps, La société automatique).Yuk Hui, philosophe de la technologie, emploie la notion d’« inconscient cosmotechnique » pour penser la manière dont les techniques numériques conditionnent nos représentations et affects.Matteo Pasquinelli (philosophe italien, spécialiste des IA) a introduit l’idée d’un « unconscious of the machine » ou « inconscient machinique », en particulier dans The Eye of the Master: A Social History of Artificial Intelligence (2023), où il analyse la logique de l’IA comme une cristallisation de savoirs sociaux inconscients. (à suivre)
Notes:

-Possati :-Participation au webinaire de l'IPA un groupe de travail de l'IPA« Psychoanalysis and Artificial Intelligence » (YouTube, il y a ~1 an) • Possati (avec Leora Trub) y discute des enjeux émancipateurs et émotionnels des IA, en lien avec la psychanalyse.
-Algorithmic unconscious: Why psychoanalysis helps in understanding AI

Genevieve Lombard Bordeaux le 1°décembre 2025