Réinterroger l’adaptation : un pont entre vivant et artefact

Le mot “adaptation” ne cesse de traverser notre vocabulaire contemporain, particulièrement face à l’émergence des intelligences artificielles (IA). Mais peut-on, sans mésinterprétation, qualifier une IA d’adaptative ? L’enjeu convoque la rigueur du neuroscientifique, l’éclairage du philosophe, l’expérience du clinicien et la technicité de l’informaticien. À la croisée de ces disciplines, la question n’est plus « l’IA peut-elle simuler l’intelligence humaine ? », mais bien « l’IA expérimente-t-elle réellement l’adaptation ? ».

C’est en déconstruisant le terme à travers différentes perspectives qu’émergent les nuances fondamentales. Dans le vivant, adaptation rime avec survie, apprentissage, et transformation lente ou brutale. Chez l’artefact, jusqu’où cette logique s’étend-elle ?

Adaptativité biologique et cognitive : les racines du concept

En biologie et en neurosciences, l’adaptation se conçoit comme un processus complexe. Elle désigne la capacité des systèmes vivants à modifier leur fonctionnement pour répondre à l’imprévu – par exemple, ajuster sa vision dans l’obscurité, ou développer de nouvelles stratégies d’apprentissage après une lésion cérébrale (Fuchs & Flügge, 2014). À la racine, l’adaptation engage :

  • La plasticité neuronale : au niveau cellulaire, le cerveau modifie ses connexions selon l’expérience.
  • L’homéostasie : maintien d’un équilibre dynamique face aux variations de l’environnement.
  • L’apprentissage implicite et explicite, souvent contextualisé et corrélé au corps, à l’émotion, au vécu.

Dans la psychologie cognitive, l’adaptation recouvre la capacité à transférer ce qui a été appris à des contextes nouveaux. Ce que Jean Piaget résumait en 1967 par la dialectique entre assimilation et accommodation (Piaget, 1967).

Comment l’intelligence artificielle s’approprie-t-elle l’adaptation ?

Les IA font la une de nos quotidiens, mais derrière leur “adaptabilité” perçue, que cachent les architectures ? Deux dynamiques essentielles sont à l’œuvre :

  • Les systèmes à règles fixes (symboliques) répondent selon une base de données programmée, sans véritable adaptation – ils relèvent plus de l’application conditionnelle que de la transformation.
  • Les systèmes d’apprentissage automatique déplacent le curseur. Les réseaux de neurones profonds (Deep Learning) ajustent leurs paramètres internes à partir de milliers, voire de millions d’exemples. Là intervient ce que la littérature technique appelle adaptation aux données d’entraînement.

Pourtant, cette adaptation pose des questions. L’IA, même auto-apprenante, “adapte” ses poids de connexion sans conscience du contexte symbolique, émotionnel, intentionnel, et souvent sans la généralisation propre à l’humain. Ainsi, AlphaGo a, en 2016, battu le champion du monde de Go en développant des stratégies inédites (Nature, 2016). Mais sans but propre, sans souci d’autre chose que la performance dans la tâche.

Transdisciplinarité : déplacer le regard, bousculer les certitudes

Face à la progression sidérante de l’IA – 25 000 brevets liés à l’IA déposés dans le monde en 2022 (source : OMPI) –, aucun champ disciplinaire ne peut seul en épuiser le sens. C’est là que la transdisciplinarité prend toute sa force. Trois apports s’y croisent :

  1. La philosophie des sciences questionne la différence entre adaptation “mécanique” et “expérientielle”. Peut-on parler de « plasticité » pour des codes immatériels ? La philosophe Catherine Malabou oppose ainsi les notions de flexibilité (plasticité imposée de l’extérieur) et de véritable plasticité, qui inclut la possibilité de s’auto-transformer (Malabou, 2010).
  2. La psychologie sociale et cognitive souligne le rôle du vécu, du contexte partagé, des émotions : dimensions absentes des IA, sauf dans leurs simulations.
  3. L’ingénierie informatique nourrit l’illusion adaptative par le développement de systèmes « attentionnels » et « génératifs ». Les architectures dites “transformers” (comme GPT-4) intègrent une forme d’attention contextuelle, mais celle-ci reste dépourvue de corporéité ou d’histoire singulière.

Ce que l’IA comprend… et ce qui lui échappe

Pour apprécier la portée de l’adaptativité dans la machine, il faut replacer quelques faits essentiels :

  • Le coût énergétique d’apprentissage d’un modèle d’IA de type GPT-3 (2020) est d’environ 1,3 Gigawatt-heure : mille fois l’énergie consommée par un cerveau humain en une vie (OpenAI, 2021; Bender et al., 2021).
  • L’apprentissage humain est multisensoriel, multimodal et profondément relationnel. Par comparaison, une IA “vise” l’efficacité statistique, rarement la compréhension incarnée.
  • Des travaux en robotique adaptative tentent d’ajouter des capteurs sensoriels et des boucles de rétroaction « corpo-réelles », mais l’agent artificiel reste tributaire de ce que ses concepteurs nomment les “récompenses” ou “punitions” algorithmiques.
  • En 2023, Mo Han et al. (Université de Stanford) ont conçu des agents virtuels capables de simuler des changements de comportement en réponse à des événements sociaux simulés (Science, 2023), mais avec une complexité et une profondeur de transformation inférieures au plus simple des apprentissages sociaux animaux réels.

En neurosciences, un sujet qui s’adapte “crée du sens”. Chez l’IA, le sens résulte d’optimisations mathématiques, rarement d’une intentionnalité.

L’IA adaptative : de la modélisation mathématique à l’illusion d’intention

L’adaptation en IA est avant tout une affaire de modèles mathématiques :

  • Les réseaux de neurones ajustent leurs paramètres (weights) via rétropropagation, un principe sans homologue exact dans la plasticité synaptique mammalienne (Lillicrap et al., 2020).
  • Les algorithmes évolutionnaires “testent” des solutions sur des générations simulées : ici, la sélection naturelle s’incarne dans l’ordinateur, mais dénuée de souffrance, d’aléas, de hasard biologique.
  • Les systèmes dits « adaptatifs robustes », en ingénierie – par exemple chez Boston Dynamics pour les robots quadrupèdes – apprennent à se relever après une chute, mais via une bibliothèque préconstruite d’actions et de rétroactions, très éloignée d’un apprentissage “vivant”.

Ce qui trompe parfois : la machine donne l’illusion d’une intention. Quand un chatbot retient vos préférences et change de registre selon vos questions (comme dans GPT-4), ce n’est pas une expérience vécue, mais une variation probabiliste des réponses en fonction de ce qu’on lui a montré, et des contextes de dialogue intégrés aux données d’entraînement (OpenAI, 2023).

Cas concrets et défis éthiques

Les applications de ce pseudo-adaptation abondent. Un exemple majeur : les programmes de tutorat intelligent adaptent leur niveau de difficulté à l’élève, optimisant l’apprentissage par des analyses de performance (source : Educause Review, 2022). Mais ces systèmes restent aveugles aux facteurs humains invisibles : fatigue, anxiété, ou motivation.

La santé mentale questionne aussi la notion d’adaptation automatisée : les chatbots thérapeutiques montrent une efficacité modérée sur la réduction des symptômes dépressifs mais peinent à saisir le non-dit, l’abandon, la singularité du vécu (source : Journal of Medical Internet Research, 2023).

Les défis éthiques sont majeurs :

  • Comment éviter le biais algorithmique quand les données d’entrainement reflètent des stéréotypes sociaux ?
  • Est-ce adapter qu’ajuster des recommandations, ou seulement optimiser du comportement ?
  • Peut-on, et doit-on, développer une forme d’adaptation “responsable” chez les IA ?

Vers une nouvelle conception de l’adaptation ?

Si la machine fascine par ses prouesses, l’approche transdisciplinaire rappelle l’irréductible complexité de l’expérience humaine de l’adaptation. Peut-être s’agit-il de ne plus penser adaptation comme une propriété unique, mais comme un spectre.

  • À une extrémité, l’adaptation pleine : vécue, ressentie, créatrice de sens et d’identité. Le propre du vivant.
  • À l’autre, l’adaptation formelle : programmation, modélisation mathématique, calcul de performances. Le propre de l’IA actuelle.

Entre ces deux pôles : des hybridations. Des machines qui, peu à peu, simulent ce que nous croyions l’apanage du vivant, tout en manquant encore ce qui fait son essence : la capacité à donner sens, à souffrir, à désirer, à transformer le réel – et soi – sans s’y limiter.

L’intelligence artificielle, appréhendée comme système adaptatif, invite donc à repenser nos limites, mais aussi nos responsabilités : comment tirer parti de ses capacités d’ajustement pour le bien commun, sans pour autant confondre performance automatisée et transformation vivante ? Cette interrogation ne sera jamais entièrement résolue par une seule discipline, ni par la technologie seule : elle appelle à une vigilance partagée, et surtout à une réflexion collective, au croisement des regards et des savoirs.

En savoir plus à ce sujet :