La théorie BCM, la modification synaptique BCM, ou la règle BCM, du nom d'Elie Bienenstock, Leon Cooper et Paul Munro, est une théorie décrivant les changements d'adaptation neuronale dans le cerveau ou dans un réseau de neurones pendant un processus d'apprentissage. Elle a initialement postulé pour l'apprentissage dans le cortex visuel en 1981. Le modèle BCM propose un seuil mobile pour l'induction de la potentialisation à long terme (LTP) ou de la dépression à long terme (LTD), et indique que la plasticité synaptique est stabilisée par une adaptation dynamique de l'activité post-synaptique moyennée dans le temps.

Selon le modèle BCM, lorsqu'un neurone pré-synaptique se déclenche, les neurones post-synaptiques auront tendance à subir une LTP s'il est dans un état de haute activité (par exemple, se déclenche à haute fréquence et/ou a des concentrations internes élevées en calcium ), ou LTD s'il est dans un état d'activité plus faible (par exemple, déclenchement à basse fréquence, faibles concentrations internes de calcium)[1]. Cette théorie est souvent utilisée pour expliquer comment les neurones corticaux peuvent subir à la fois LTP ou LTD en fonction de différents protocoles de stimulation de conditionnement appliqués aux neurones pré-synaptiques (généralement stimulation haute fréquence, ou HFS, pour LTP, ou stimulation basse fréquence, LFS, pour LTD)[2].

Développement modifier

En 1949, Donald Hebb a proposé un mécanisme de travail pour la mémoire et l'adaptation informatique dans le cerveau maintenant appelé Règle de Hebb résumé par la maxime les neurones qui s'excitent ensemble, se connectent ensemble[3]. Cette notion est fondamentale dans la compréhension moderne du cerveau en tant que réseau de neurones et, bien qu'elle ne soit pas universellement vraie, reste une bonne première approximation étayée par des décennies de preuves[3],[4].

Cependant, la règle de Hebb possède plusieurs défaut :

  • elle n'a aucun mécanisme permettant aux connexions de s'affaiblir
  • et aucune limite supérieure pour la force qu'elles peuvent obtenir.

En d'autres termes, le modèle est instable, à la fois théoriquement et informatiquement.

Des modifications ultérieures ont progressivement amélioré la règle de Hebb, la normalisant et permettant la décomposition des synapses, où aucune activité ou activité non synchronisée entre les neurones n'entraîne une perte de force de connexion. De nouvelles preuves biologiques ont porté cette activité à son apogée dans les années 1970, où les théoriciens ont formalisé diverses approximations dans la théorie, telles que l'utilisation de la fréquence de déclenchement au lieu du potentiel pour déterminer l'excitation des neurones, et l'hypothèse d'une intégration synaptique idéale et, plus important encore, linéaire. de signaux. C'est-à-dire qu'il n'y a pas de comportement inattendu dans l'ajout de courants d'entrée pour déterminer si une cellule se déclenchera ou non.

Ces approximations ont abouti à la forme de base de BCM ci-dessous en 1979, mais l'étape finale a pris la forme d'une analyse mathématique pour prouver la stabilité et d'une analyse informatique pour prouver l'applicabilité, aboutissant à l'article de Bienenstock, Cooper et Munro en 1982.

Depuis lors, des expériences ont montré des preuves du comportement du BCM à la fois dans le cortex visuel et dans l'hippocampe, ce dernier jouant un rôle important dans la formation et le stockage des souvenirs. Ces deux zones sont bien étudiées expérimentalement, mais la théorie et l'expérience doivent encore établir un comportement synaptique concluant dans d'autres zones du cerveau. Il a été proposé que dans le cervelet, la fibre parallèle à la synapse des cellules de Purkinje suit une "règle BCM inverse", ce qui signifie qu'au moment de l'activation des fibres parallèles, une concentration élevée de calcium dans la cellule de Purkinje entraîne une LTD, tandis qu'une plus faible la concentration donne LTP[2]. En outre, la mise en œuvre biologique de la plasticité synaptique dans le BCM n'a pas encore été établie[5].

Théorie modifier

La règle BCM de base prend la forme

 

où:

  •   est le poids synaptique du   ème synapse,
  •   est   le courant d'entrée de la synapse,
  •   est le produit interne des poids et des courants d'entrée (somme pondérée des entrées),
  •   est une fonction non linéaire. Cette fonction doit changer de signe à un certain seuil  , C'est,   si et seulement si  . Voir ci-dessous pour les détails et les propriétés.
  • et   est la constante de temps (souvent négligeable) de la décroissance uniforme de toutes les synapses.

Ce modèle est une forme modifiée de la règle d'apprentissage Hebbian,  , et nécessite un choix de fonction adapté   pour éviter les problèmes hebbiens d'instabilité.

Bienenstock et al.[6] réécrivirent   en tant que fonction    est la moyenne temporelle de  . Avec cette modification et en écartant la décroissance uniforme, la règle prend la forme vectorielle :

 

Les conditions d'un apprentissage stable sont dérivées rigoureusement dans BCM en notant qu'avec   et avec l'approximation de la production moyenne  , il suffit que

 
 

ou de manière équivalente, que le seuil  , où   et   sont des constantes positives fixées[6].

Lorsqu'elle est mise en œuvre, la théorie est souvent prise de telle sorte que

 

  est une constante de temps de sélectivité.

Le modèle présente des inconvénients, car il nécessite à la fois une potentialisation à long terme et une dépression à long terme, ou des augmentations et des diminutions de la force synaptique, ce qui n'a pas été observé dans tous les systèmes corticaux. De plus, il nécessite un seuil d'activation variable et dépend fortement de la stabilité des points fixes sélectionnés.   et  . Cependant, la force du modèle est qu'il intègre toutes ces exigences à partir de règles de stabilité dérivées indépendamment, telles que la normalisabilité et une fonction de décroissance avec le temps proportionnel au carré de la sortie [7].

Exemple modifier

Cet exemple est un cas particulier de celui du chapitre "Résultats mathématiques" de Bienenstock et al.[6] en supposant   et  . Avec ces valeurs   et nous décidons   remplissant les conditions de stabilité énoncées au chapitre précédent.

Supposons que deux neurones présynaptiques fournissent des entrées   et  , son activité un cycle répétitif avec la moitié du temps   et le temps restant  .   la moyenne temporelle sera la moyenne de   valeur dans la première et la seconde moitié d'un cycle.

Soit la valeur initiale des poids  . Dans la première moitié du temps   et  , la somme pondérée   est égal à 0,095 et nous utilisons la même valeur que la moyenne initiale  . Cela signifie  ,  ,  . En ajoutant 10% de la dérivée aux poids, nous en obtenons de nouveaux  .

Dans la prochaine moitié du temps, les entrées sont   et poids  . Cela signifie  ,   du cycle complet est de 0,075,  ,  ,  . En ajoutant 10% de la dérivée aux poids, nous en obtenons de nouveaux  .

En répétant le cycle précédent on obtient, après plusieurs centaines d'itérations, que la stabilité est atteinte avec  ,   (première mi-temps) et   (temps restant),  ,  ,   et  .

Notez comment, comme prévu, le vecteur de poids final   est devenu orthogonal à l'un des modèles d'entrée, étant les valeurs finales de   dans les deux intervalles zéros de la fonction  .

Expérience modifier

La première confirmation expérimentale majeure de BCM est venue en 1992 en étudiant LTP et LTD dans l'hippocampe. Le travail expérimental de Serena Dudek a montré un accord qualitatif avec la forme finale de la fonction d'activation du BCM[8]. Cette expérience a ensuite été reproduite dans le cortex visuel, que le BCM a été initialement conçu pour modéliser[9]. Ce travail a fourni une preuve supplémentaire de la nécessité d'une fonction de seuil variable pour la stabilité dans l'apprentissage de type Hebbian (BCM ou autres).

Les preuves expérimentales n'étaient pas spécifiques au BCM jusqu'à ce que Rittenhouse et al. a confirmé la prédiction de BCM de la modification des synapses dans le cortex visuel lorsqu'un œil est sélectivement fermé. Spécifiquement,

 

  décrit la variance de l'activité spontanée ou du bruit dans l'œil fermé et   est le temps écoulé depuis la fermeture. L'expérience a confirmé la forme générale de cette prédiction et a fourni une explication de la dynamique de la fermeture de l'œil monoculaire (privation monoculaire ) par rapport à la fermeture de l'œil binoculaire[10]. Les résultats expérimentaux sont loin d'être concluants, mais jusqu'à présent ont favorisé le BCM par rapport aux théories concurrentes de la plasticité.

Applications modifier

Alors que l'algorithme de BCM est trop compliqué pour le traitement distribué parallèle à grande échelle, il a été utilisé dans les réseaux latéraux avec un certain succès[11]. De plus, certains algorithmes d'apprentissage de réseau informatique existants ont été conçus pour correspondre à l'apprentissage BCM [12].

Références modifier

  1. Eugene M. Izhikevich et Niraj S. Desai, « Relating STDP to BCM », Neural Computation, vol. 15, no 7,‎ , p. 1511–1523 (ISSN 0899-7667, PMID 12816564, DOI 10.1162/089976603321891783)
  2. a et b Michiel Coesmans, John T. Weber, Chris I. De Zeeuw et Christian Hansel, « Bidirectional Parallel Fiber Plasticity in the Cerebellum under Climbing Fiber Control », Neuron, vol. 44, no 4,‎ , p. 691–700 (PMID 15541316, DOI 10.1016/j.neuron.2004.10.031)
  3. a et b Principles of Neural Science, New York, 5th, (ISBN 978-0-07-139011-8, OCLC 795553723)
  4. (en) Henry Markram, Wulfram Gerstner et Per Jesper Sjöström, « Spike-Timing-Dependent Plasticity: A Comprehensive Overview », Frontiers in Synaptic Neuroscience, vol. 4,‎ , p. 2 (ISSN 1663-3563, PMID 22807913, PMCID 3395004, DOI 10.3389/fnsyn.2012.00002)
  5. L.N. Cooper, « Memories and memory: A physicist's approach to the brain », International Journal of Modern Physics A, vol. 15, no 26,‎ , p. 4069–4082 (DOI 10.1142/s0217751x0000272x, lire en ligne, consulté le )
  6. a b et c Elie L. Bienenstock, Leon Cooper et Paul Munro, « Theory for the development of neuron selectivity: orientation specificity and binocular interaction in visual cortex », The Journal of Neuroscience, vol. 2, no 1,‎ , p. 32–48 (PMID 7054394, PMCID 6564292, DOI 10.1523/JNEUROSCI.02-01-00032.1982, lire en ligne, consulté le )
  7. Nathan Intrator, « The BCM theory of synaptic plasticity », Neural Computation, School of Computer Science, Tel-Aviv University, 2006–2007 (consulté le )
  8. Serena M. Dudek et Mark Bear, « Homosynaptic long-term depression in area CA1 of hippocampus and effects of N-methyl-D-aspartate receptor blockade », Proc. Natl. Acad. Sci., vol. 89, no 10,‎ , p. 4363–4367 (PMID 1350090, PMCID 49082, DOI 10.1073/pnas.89.10.4363, Bibcode 1992PNAS...89.4363D, lire en ligne, consulté le )
  9. Alfredo Kirkwood, Marc G. Rioult et Mark F. Bear, « Experience-dependent modification of synaptic plasticity in rat visual cortex », Nature, vol. 381, no 6582,‎ , p. 526–528 (PMID 8632826, DOI 10.1038/381526a0, Bibcode 1996Natur.381..526K)
  10. Rittenhouse, Harel Z. Shouval, Michael A. Paradiso et Mark F. Bear, « Monocular deprivation induces homosynaptic long-term depression in visual cortex », Nature, vol. 397, no 6717,‎ , p. 347–50 (PMID 9950426, DOI 10.1038/16922, Bibcode 1999Natur.397..347R)
  11. Nathan Intrator, « BCM Learning Rule, Comp Issues », Neural Computation, School of Computer Science, Tel-Aviv University, 2006–2007 (consulté le )
  12. Dorit Baras et Ron Meir, « Reinforcement Learning, Spike-Time-Dependent Plasticity, and the BCM Rule », Neural Computation, vol. 19, no 8,‎ , p. 2245–2279 (PMID 17571943, DOI 10.1162/neco.2007.19.8.2245, lire en ligne [archive du ], consulté le )

Voir aussi modifier

Articles connexes modifier

Liens externes modifier