Syla a dit :
La base de la théorie cellulaire de la mémoire, c'est un postulat de Hebb en 1949 qui peut se résumer à 'Des neurones ayant une activité en commun renforcent leurs communications'.
En gros, à un moment donné on a des entrées sensorielles qui vont activer une assemblée de neurones (un engramme). Ces entrées sont prises au sens large: les 5 sens évidemment, mais aussi toute l'activité neuronale en cours donc les souvenirs, etc... Tout. Si ces entrées sont répétées et cohérentes, les neurones ayant une activité entre eux voient leurs synapses renforcées: pour un signal de même amplitude, elles déchargeront plus fort (ou, plus intéressant: avec un signal plus faible, elles déchargeront quand même). Et même lors de l'arrêt des entrées sensorielles, ces synapses restent potentialisées.
Si, à un moment donné, on réactive une(des) entrée(s) sensorielle(s) adéquate(s), l'engramme se réactive et le souvenir resurgit. Il y a donc un codage du souvenir dans la structure même du réseau. C'est extrêmement robuste car on n'a pas besoin que tous les neurones soient vivants pour restituer un souvenir, et de plus on n'a pas besoin de restimuler exactement de la même façon pour faire resurgir un souvenir. Comme chaque neurone peut participer à plusieurs engrammes, ils se stimulent entre eux.
C'est pour ça qu'il n'y a pas de mémoire 'pure' mais de la mémoire associative: on ne se souvient pas de quelquechose 'comme ça', sorti du néant. On pense à quelquechose qui nous fait penser à quelquechose, qui nous fait penser à quelquechose... Ce sont les assemblées qui s'activent en série. On ne peut pas l'arrêter, dans le pire des cas on rêve. Et la possibilité de codage est potentiellement infinie: il existe des gens qui n'oublient pas, qui se souviennent d'absolument tout, tout le temps.
Donc pour en revenir à Hayworth, son idée est de tout reconstruire, de connaitre chaque neurone dans les moindres détails, la position de chaque synapse et la puissance de chaque connexion, pour recréer à l'identique un cerveau donné à un temps t.
Pour ça, il a amélioré la technique de microscopie à transmission (MET). Avant on coupait une tranche à l'ultramicrotome (quelques nanomètres d'épaisseur), on la mettait sous le microscope, on passait à la suivante, etc... Et on reconstruisait tout ça en 3D pour faire des trucs comme ça et savoir si certaines régions ont changées. Quand je dis 'avant', en fait on fait toujours comme ça tant qu'il n'y a pas trop d'échantillons.
Hayworth a simplifié le processus en coupant les tranches directement dans le microscope. Il y a moins de déformations et surtout, un robot peut le faire.
Son hypothèse est qu'avec l'avancement des techniques, d'ici un siècle on pourra reconstruire l'intégralité de l'architecture d'un cerveau et donc avoir le 'BluePrint' d'une personnalité à l'envie.
Maintenant, évoquons Markram et son Blue Brain Project. Le dessein est similaire, mais l'approche est différente. Il travaille avec des logiciels de simulations neuronales (dont la base est celui là) et son but est de simuler le cerveau in-silico. En commençant par une colonne corticale de rat, puis en complexifiant jusqu'au cerveau humain.
C'est de l'électrophysiologie pure et dure: il compte simuler chaque canal ionique, chaque courant qui passe à travers un neurone, l'effet de chaque neurotransmetteur.
C'est une simulation 'Bottom to Top': de la moindre molécule jusqu'au cerveau entier et il pense actualiser son modèle avec les données nouvelles produites par les autres équipes travaillant de manière 'conventionnelle'.
Au bout du compte, on aurait un cerveau complet in-silico, parfait pour faire des tests et par exemple, étudier plein de maladies. Il prédit ça pour dans 50 ans environ, si je ne me trompe.
( *** Interlude, allez boire un café *** )
Ces deux projets sont très ambitieux, pas idiots et tout le monde est persuadé (moi le premier) que des résultats intéressants en sortiront. Si des gens bossent convenablement, il en sortira toujours quelquechose (on peut déjà remercier Markram pour la mise à jour de toutes les bibliothèques du logiciel Neuron). Mais est ce que le temps et l'argent investis en vaudront vraiment la peine ?
Maintenant les défauts reprochés à ces projets:
Le cerveau humain (ou de rat) n'a pas un développement fixe. On peut assister à la même scène, le souvenir n'aura rien à voir et ne sera pas stocké au même endroit entre vous et moi. De toute façon nos neurones ne sont pas à la même position et n'ont pas les mêmes synapses. Les grandes lignes sont identiques, mais pas les détails. Ca pose un gros problème pour soumettre des données à leurs projets et voir si ça marche: il se peut que le résultat n'ait rien à voir mais soit juste quand même.
La quantité d'informations à stocker est ingérable pour le moment. On parle de 10^11 neurones et 10^14 synapses et ils ne sont pas au même endroit d'un cerveau à l'autre. Ne parlons pas de Markram qui multiplie en plus par le nombre de canaux/protéines par neurones.
Ils sont tous les deux centrés sur les neurones, alors qu'il y a plein d'autres cellules dans le cerveau. Et par exemple, il semble de plus en plus clair que les astrocytes (parfois 100 fois plus nombreux que les neurones) forment eux aussi un réseau, communiquent et interagissent avec les neurones.
Les techniques qu'ils utilisent sont contestées. Par exemple, Markram utilise le modèle de Hodgkin-Huxley (HH) alors qu'il en existe plein d'autres, qui fonctionnent plus ou moins bien selon les sujets. Le truc rigolo, c'est que le modèle HH a été fait originellement pour le calmar (il ne marche pas à température humaine, mais je suppose que ça a été corrigé pour Blue Brain).
Pour Hayworth, il faut savoir que pour faire du MET, il faut d'abord 'fixer' son échantillon pour éviter qu'il ne se détruise. Et on sait que la fixation déforme les neurones, ce qui est ironique pour quelqu'un qui veut enregistrer leur architecture précise. En fait il n'existe pas de méthodes miracles pour fixer un tissu, elles déforment toutes. Peut-être qu'un jour on pourra résoudre l'architecture d'un cerveau complet, mais en tout cas pas avec cette technique là. De plus ça permettrait de connaitre l'architecture, mais on en fait quoi ensuite ? Le transfert est encore une autre question, peut être encore plus compliquée.
Il y a plein d'autres défauts techniques, mais je vais arrêter là.
Bref, il y a de grosses failles de base. Ce n'est pas impossible à résoudre et il y a une (petite) chance que ça marche mais est ce que ça vaut le coup d'y mettre autant d'argent ? car c'est là le problème: si tout le monde avait tout le fric nécessaire, on trouverait ça très bien.
De plus, il y a un phénomène de mode assez stupide. Parmi les problèmes principaux, le cerveau humain est trop complexe et n'a pas un développement fixe (et on ne peut pas faire de manips dessus, évidemment). Mais si on prend C.elegans par exemple, il possède un millier de cellules dont 300 neurones et il a un développement fixe. Donc à un âge donné, on sait parfaitement quel neurone est où, qui il contacte et ce qu'il va devenir. De plus on peut faire des manips de masse avec (on a donc des statistiques fiables) et son génôme est séquencé.
Ca coûterait beaucoup moins cher et on aurait une chance bien plus grande d'y arriver. Ce serait scientifiquement beaucoup plus intéressant mais ce n'est pas vendeur: même si on recrée le premier être vivant in-silico, on ne pourra pas étudier Alzheimer avec.
( *** Désolé pour le pavé *** )