Révolutions silencieuses : naissance de la cybernétique

À la croisée des années 1940 et 1950, un vent de renouveau souffle sur les sciences de l’esprit. Une révolution pourtant silencieuse : la naissance de la cybernétique. Le terme, issu du grec kubernêtiké (« art de gouverner »), est officialisé en 1948 par le mathématicien Norbert Wiener avec la publication de Cybernetics, or Control and Communication in the Animal and the Machine [1]. Wiener propose un paradigme radical : étudier les processus d’autorégulation, d’ajustement et de communication que l’on retrouve aussi bien dans la machine que dans l’organisme vivant.

Pour la première fois, la frontière entre technique et vivant vacille. La machine n’est plus un pur automate, le vivant n’est plus un mystère inentamable. Les deux se rejoignent dans leur capacité à traiter de l’information, à s’adapter, à boucler leurs actions sur les effets produits : le fameux mécanisme de « rétroaction » ou feedback.

Le contexte de l’époque est décisif. Les traumatismes de la Seconde Guerre mondiale, l’explosion des communications (téléphone, radar), l’apparition des premiers calculateurs électroniques (le fameux ENIAC en 1945) et des préoccupations sur le contrôle automatisé des systèmes de défense poussent à repenser les bases de la pensée, humaine ou artificielle. D’emblée, le projet cybernétique est interdisciplinaire : mathématiciens, physiciens, neurologues, anthropologues, ingénieurs dialoguent sans précédent (voir la série des conférences Macy [2]).

La cybernétique : entre stabilité et plasticité

Dans la perspective cybernétique, le vivant (et d’abord l’humain) se définit par sa capacité à maintenir son équilibre malgré les turbulences de l’environnement. Ce principe d’homéostasie hérité du physiologiste Walter Cannon (1932) gagne une profondeur nouvelle. Le thermostat, invention banale, devient paradigmatique : il maintient une température cible par des boucles d’ajustement. Pour la cybernétique, l’intelligence humaine procède de la même logique.

Mais l’innovation n’est pas tant dans l’analogie que dans l’idée que la cognition, comme tout système vivant, est avant tout un dialogue dynamique entre stabilité et plasticité. Comment un enfant apprend-il à marcher ? Par essais et erreurs, par ajustements progressifs, par prise d’information et correction de trajectoire.

  • Stabilité : L’intelligence assure une cohérence de comportement (un but, un schéma d’action).
  • Plasticité : Elle permet la modification, l’apprentissage, l’innovation face à l’imprévu.

Ce balancier subtil irrigue depuis la notion même d’intelligence adaptative ; il reparaîtra dans les modèles contemporains, du cerveau prédictif aux intelligences artificielles [3].

De la boîte noire à l’ouverture des processus

La tradition cartésienne, appuyée par le béhaviorisme naissant, avait fait de l’esprit une boîte noire : n’intéressait alors que le visible, le mesurable, l’observable. La cybernétique, à rebours, s’intéresse aux flux cachés, aux chaînes de transformation qui relient perception, action, mémoire. Elle introduit trois notions majeures :

  1. Le feedback négatif, qui permet la correction des écarts (chez l’humain : ajustement des mouvements, autorégulation émotionnelle, etc.).
  2. Le feedback positif, qui amplifie certains processus (escalade, dérèglement, parfois invention).
  3. La communication, pensée comme échange d’informations, non plus réservé au langage humain, mais présente dans tous les systèmes organisés.

Ce déplacement des regards donne naissance à une approche plus dynamique, computationnelle et processuelle de l'intelligence. Herbert Simon, Allen Newell, et Marvin Minsky s’en inspireront pour lancer les fondations de l’intelligence artificielle (Dartmouth Workshop, 1956 [4]).

Vers une intelligence distribuée et incarnée

À mesure que la cybernétique s’impose, elle oblige à repenser la figure de l’intelligence centrée sur le cerveau comme « unité de contrôle ». La notion de systèmes distribués s’impose : selon la cybernétique de second ordre (Heinz von Foerster, 1970s), ce n’est plus seulement l’individu, mais l’ensemble corps-environnement qui « pense » et s’adapte.

  • Edwin Hutchins (1995) décrit une « cognition distribuée » : le savoir se tisse entre humains, outils, artefacts, routines sociales (voir son étude sur la navigation des équipes marines dans Cognition in the Wild).
  • Umberto Maturana et Francisco Varela (années 1970-80) forgent la notion d’autopoïèse : les systèmes vivants s’engendrent eux-mêmes, échangent de l’information avec leur milieu et n’existent que dans cette interaction.
  • Le corps n’est plus un simple vecteur passif : il devient constitutif du processus même d’intelligence ; d’où la place grandissante des théories « incarnées » aujourd’hui.

Ces approches modifient profondément notre rapport à l’apprentissage, à la santé, au handicap, aux intelligences plurielles : comprendre, c’est s’adapter en dialogue avec son environnement — et non seulement résoudre une énigme désincarnée.

La machine comme miroir (et non rival) de l’humain

En rendant modélisable la notion même de pensée — par diagrammes, programmes, circuits logiques — la cybernétique a stimulé les débuts de l’IA (Rosenblatt, perceptron en 1958 [5]) et des sciences cognitives modernes. Mais elle a aussi fait vaciller les frontières. Si les premières machines d’Alan Turing (1936) promettaient le calcul universel sans intelligence, la cybernétique, elle, cherchait à comprendre comment une machine pouvait apprendre, se corriger, échouer pour mieux recommencer.

L’enjeu n’est pas de savoir si l’humain est réductible à la machine, mais de s’en servir comme pièce d’analyse. Par exemple :

  • Les simulateurs cybernétiques ont permis de mieux comprendre certaines pathologies (modèles de la dépression comme dysrégulation des boucles de rétroaction [6]).
  • Les machines adaptatives inspirent aujourd’hui les dispositifs d’apprentissage personnalisés ou encore les systèmes d’assistance pour personnes en situation de handicap (prothèses intelligentes, interfaces cerveau-machine [7]).

Le cerveau cesse ainsi d’être une « boîte mystique » et devient un objet expérimental, mais aussi un modèle pour l’ingénierie et la médecine.

Impacts sur l’éducation, la société et les sciences humaines

L’irruption de la cybernétique ne concerne pas seulement les sciences dures. Elle infiltre pédagogie, sciences sociales, biologie, philosophie.

  • Dans l’éducation, la cybernétique inspire les premiers logiciels d’apprentissage adaptatif dès les années 1960 : PLATO (Programmed Logic for Automatic Teaching Operations) à l’Université de l’Illinois [8] préfigure nos environnements numériques actuels.
  • Elle propose de nouvelles politiques d’intervention : voir la montée des méthodes de « feedback » formatif, apprentissage par essais-erreurs, et évaluation dynamique.
  • En psychologie systémique, Gregory Bateson (1972) applique la cybernétique à la famille, considérée comme un réseau de communications ajustant en continu ses équilibres (cf. Vers une écologie de l’esprit).
  • En médecine et santé mentale, elle inspire la thérapie familiale systémique ou encore l’analyse des réseaux neuronaux chez le patient cérébrolésé.

Au plan collectif, elle éclaire les enjeux contemporains : crise de la désinformation (défauts de rétroaction dans les réseaux sociaux), complexité de l’action publique, nécessité de penser la résilience et l’adaptation des systèmes sociaux face à l’incertitude.

L’intelligence adaptative, héritière de la cybernétique

Au XXI siècle, la cybernétique ne se limite pas aux circuits imprimés ou aux expériences du passé. Sa postérité irrigue les neurosciences cognitives par l’idée centrale que l’intelligence humaine ne se comprend qu’au miroir de l’adaptation :

  • Les neurosciences computationnelles modélisent la cognition comme flux d’informations, de feedbacks et de « bruit ».
  • Les nouvelles IA (deep learning) s’appuient sur des architectures inspirées des modèles cybernétiques et de la distribution multidimensionnelle des signaux.
  • La rééducation du patient cérébrolésé s’appuie sur la plasticité, l’ajustement, l’entraînement par feedback — héritage direct des paradigmes cybernétiques.
  • La société redécouvre la valeur de l’émulation, de la correction d’erreurs, de la résilience collective : dans le monde du travail, de la santé ou face aux crises globales.

Plus que jamais, penser l’intelligence comme adaptation, plasticité, dialogue entre individu et environnement, c’est inscrire la subjectivité humaine dans la profondeur des réseaux — biologiques, sociaux, machinaux. La cybernétique, loin d’être une simple étape dans l’histoire des sciences, semble poser les jalons d’une intelligence en mouvement. Une intelligence qui ne cesse de se refaire et dont le meilleur miroir reste peut-être, à l’heure de l’IA générative, la complexité de nos interactions vivantes.

Repères et sources

  • [1] N. Wiener, Cybernetics: or Control and Communication in the Animal and the Machine, 1948 (MIT Press).
  • [2] Heims, S., The Cybernetics Group, MIT Press, 1991 : compte rendu des conférences Macy (1946-1953).
  • [3] Friston, K. J. (2010). "The free-energy principle: a unified brain theory?" Nature Reviews Neuroscience, 11, 127–138.
  • [4] Boden, M.A., Mind As Machine: A History of Cognitive Science, (Oxford, 2006).
  • [5] Rosenblatt, F. (1958). "The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain", Psychological Review, 65(6), 386–408.
  • [6] S. S. Besharov & G. L. Pittman (2021). "Cybernetic approaches to depression", Journal of Systemics, Cybernetics and Informatics, 19(3).
  • [7] N. Birbaumer, N. Ghanayim et al. (1999). "A spelling device for the paralysed", Nature, 398, 297–298.
  • [8] M. E. Bitterman et al. (1988). "PLATO: A Computer-Based Teaching System", Science, 159(3815), 199–206.

En savoir plus à ce sujet :