Re : Actu
Quelqu'un aurait moyen de récupérer ce documentaire ?
JC Denton: My vision is augmented.
Vous n’êtes pas identifié. Veuillez vous connecter ou vous inscrire.
Le Vrai Asile » Culture & médias » Actu
Pages Précédent 1 … 15 16 17 18 19 … 659 Suivant
Vous devez vous connecter ou vous inscrire pour pouvoir répondre
Quelqu'un aurait moyen de récupérer ce documentaire ?
mp
http://quebec.huffingtonpost.ca/2012/07 … 90262.html
mp
Merci.
De rien!
Un scientifique se suicide en pariant sur le futur téléversement de son cerveau : http://chronicle.com/article/The-Strang … of/132819/
Un scientifique se suicide en pariant sur le futur téléversement de son cerveau : http://chronicle.com/article/The-Strang … of/132819/
Merci à lui au nom de l'humanité !
Ce sont bien des spermatozoïdes qui nagent autour du cerveau sur l'illustration ?
Tiré de Wefrag où Syla (qui travaille dans ce domaine) à sorti un pavé explicatif:
Syla a dit :
La base de la théorie cellulaire de la mémoire, c'est un postulat de Hebb en 1949 qui peut se résumer à 'Des neurones ayant une activité en commun renforcent leurs communications'.En gros, à un moment donné on a des entrées sensorielles qui vont activer une assemblée de neurones (un engramme). Ces entrées sont prises au sens large: les 5 sens évidemment, mais aussi toute l'activité neuronale en cours donc les souvenirs, etc... Tout. Si ces entrées sont répétées et cohérentes, les neurones ayant une activité entre eux voient leurs synapses renforcées: pour un signal de même amplitude, elles déchargeront plus fort (ou, plus intéressant: avec un signal plus faible, elles déchargeront quand même). Et même lors de l'arrêt des entrées sensorielles, ces synapses restent potentialisées.
Si, à un moment donné, on réactive une(des) entrée(s) sensorielle(s) adéquate(s), l'engramme se réactive et le souvenir resurgit. Il y a donc un codage du souvenir dans la structure même du réseau. C'est extrêmement robuste car on n'a pas besoin que tous les neurones soient vivants pour restituer un souvenir, et de plus on n'a pas besoin de restimuler exactement de la même façon pour faire resurgir un souvenir. Comme chaque neurone peut participer à plusieurs engrammes, ils se stimulent entre eux.
C'est pour ça qu'il n'y a pas de mémoire 'pure' mais de la mémoire associative: on ne se souvient pas de quelquechose 'comme ça', sorti du néant. On pense à quelquechose qui nous fait penser à quelquechose, qui nous fait penser à quelquechose... Ce sont les assemblées qui s'activent en série. On ne peut pas l'arrêter, dans le pire des cas on rêve. Et la possibilité de codage est potentiellement infinie: il existe des gens qui n'oublient pas, qui se souviennent d'absolument tout, tout le temps.
Donc pour en revenir à Hayworth, son idée est de tout reconstruire, de connaitre chaque neurone dans les moindres détails, la position de chaque synapse et la puissance de chaque connexion, pour recréer à l'identique un cerveau donné à un temps t.
Pour ça, il a amélioré la technique de microscopie à transmission (MET). Avant on coupait une tranche à l'ultramicrotome (quelques nanomètres d'épaisseur), on la mettait sous le microscope, on passait à la suivante, etc... Et on reconstruisait tout ça en 3D pour faire des trucs comme ça et savoir si certaines régions ont changées. Quand je dis 'avant', en fait on fait toujours comme ça tant qu'il n'y a pas trop d'échantillons.
Hayworth a simplifié le processus en coupant les tranches directement dans le microscope. Il y a moins de déformations et surtout, un robot peut le faire.Son hypothèse est qu'avec l'avancement des techniques, d'ici un siècle on pourra reconstruire l'intégralité de l'architecture d'un cerveau et donc avoir le 'BluePrint' d'une personnalité à l'envie.
Maintenant, évoquons Markram et son Blue Brain Project. Le dessein est similaire, mais l'approche est différente. Il travaille avec des logiciels de simulations neuronales (dont la base est celui là) et son but est de simuler le cerveau in-silico. En commençant par une colonne corticale de rat, puis en complexifiant jusqu'au cerveau humain.
C'est de l'électrophysiologie pure et dure: il compte simuler chaque canal ionique, chaque courant qui passe à travers un neurone, l'effet de chaque neurotransmetteur.
C'est une simulation 'Bottom to Top': de la moindre molécule jusqu'au cerveau entier et il pense actualiser son modèle avec les données nouvelles produites par les autres équipes travaillant de manière 'conventionnelle'.
Au bout du compte, on aurait un cerveau complet in-silico, parfait pour faire des tests et par exemple, étudier plein de maladies. Il prédit ça pour dans 50 ans environ, si je ne me trompe.( *** Interlude, allez boire un café *** )
Ces deux projets sont très ambitieux, pas idiots et tout le monde est persuadé (moi le premier) que des résultats intéressants en sortiront. Si des gens bossent convenablement, il en sortira toujours quelquechose (on peut déjà remercier Markram pour la mise à jour de toutes les bibliothèques du logiciel Neuron). Mais est ce que le temps et l'argent investis en vaudront vraiment la peine ?
Maintenant les défauts reprochés à ces projets:
Le cerveau humain (ou de rat) n'a pas un développement fixe. On peut assister à la même scène, le souvenir n'aura rien à voir et ne sera pas stocké au même endroit entre vous et moi. De toute façon nos neurones ne sont pas à la même position et n'ont pas les mêmes synapses. Les grandes lignes sont identiques, mais pas les détails. Ca pose un gros problème pour soumettre des données à leurs projets et voir si ça marche: il se peut que le résultat n'ait rien à voir mais soit juste quand même.
La quantité d'informations à stocker est ingérable pour le moment. On parle de 10^11 neurones et 10^14 synapses et ils ne sont pas au même endroit d'un cerveau à l'autre. Ne parlons pas de Markram qui multiplie en plus par le nombre de canaux/protéines par neurones.
Ils sont tous les deux centrés sur les neurones, alors qu'il y a plein d'autres cellules dans le cerveau. Et par exemple, il semble de plus en plus clair que les astrocytes (parfois 100 fois plus nombreux que les neurones) forment eux aussi un réseau, communiquent et interagissent avec les neurones.
Les techniques qu'ils utilisent sont contestées. Par exemple, Markram utilise le modèle de Hodgkin-Huxley (HH) alors qu'il en existe plein d'autres, qui fonctionnent plus ou moins bien selon les sujets. Le truc rigolo, c'est que le modèle HH a été fait originellement pour le calmar (il ne marche pas à température humaine, mais je suppose que ça a été corrigé pour Blue Brain).
Pour Hayworth, il faut savoir que pour faire du MET, il faut d'abord 'fixer' son échantillon pour éviter qu'il ne se détruise. Et on sait que la fixation déforme les neurones, ce qui est ironique pour quelqu'un qui veut enregistrer leur architecture précise. En fait il n'existe pas de méthodes miracles pour fixer un tissu, elles déforment toutes. Peut-être qu'un jour on pourra résoudre l'architecture d'un cerveau complet, mais en tout cas pas avec cette technique là. De plus ça permettrait de connaitre l'architecture, mais on en fait quoi ensuite ? Le transfert est encore une autre question, peut être encore plus compliquée.Il y a plein d'autres défauts techniques, mais je vais arrêter là.
Bref, il y a de grosses failles de base. Ce n'est pas impossible à résoudre et il y a une (petite) chance que ça marche mais est ce que ça vaut le coup d'y mettre autant d'argent ? car c'est là le problème: si tout le monde avait tout le fric nécessaire, on trouverait ça très bien.
De plus, il y a un phénomène de mode assez stupide. Parmi les problèmes principaux, le cerveau humain est trop complexe et n'a pas un développement fixe (et on ne peut pas faire de manips dessus, évidemment). Mais si on prend C.elegans par exemple, il possède un millier de cellules dont 300 neurones et il a un développement fixe. Donc à un âge donné, on sait parfaitement quel neurone est où, qui il contacte et ce qu'il va devenir. De plus on peut faire des manips de masse avec (on a donc des statistiques fiables) et son génôme est séquencé.
Ca coûterait beaucoup moins cher et on aurait une chance bien plus grande d'y arriver. Ce serait scientifiquement beaucoup plus intéressant mais ce n'est pas vendeur: même si on recrée le premier être vivant in-silico, on ne pourra pas étudier Alzheimer avec.( *** Désolé pour le pavé *** )
Une question logique
LeGreg a dit :
Syla a dit :
( *** Désolé pour le pavé *** )Sans doute que leurs prédictions/espérances sont (trop?) optimistes mais pourquoi ne pas le faire ?
Comme tu dis, on ne peut pas expérimenter sur le cerveau humain biologique.
Le tout pour clore sur
Syla a dit :
LeGreg - C'est le principal argument de Markram: avec son Blue Brain on pourra faire des manips sur l'humain sans avoir besoin d'humains.
Si on avait un temps et un argent infini, bien sur que tout le monde dirait qu'il faut le faire. Sauf qu'il faut être un peu réaliste aussi, et estimer le pourcentage de réussite par rapport au coût engagé. Surtout que l'argent investis dans ce projet sera de l'argent en moins pour les autres labos, il n'y aura pas de création de fonds 'seulement pour lui'. Et (si je me souviens bien), Markram demande 1 milliard de dollars pour les 10 prochaines années; ce qui ne s'était jamais vu pour un labo seul. Il y a eu des cas (comme le séquençage du génôme humain) qui ont coûté plus cher, mais c'était toujours réparti entre des dizaines de labos.Ca revient un peu à voir arriver un jeune entrepreneur audacieux qui vous fait un topo très bien fait, très documenté (et scientifiquement correct), sur comment on va coloniser La troisième planête de Proxima du Centaure. Tout le monde pense qu'il y a une chance qu'on y arrive un jour, mais pour le moment il vaut peut-être mieux privilégier la colonisation de Mars.
Haha, Syla toujours aussi bon
mp
Je suis intéressé aussi monsieur.
Bien à vous.
Quand ça sera dispo sur le site : http://captvty.fr/
Accusé du téléchargement d’un film porno, il attaque l’industrie du X
Gabe Newell : Windows 8 est une « une catastrophe pour le PC »
Gabe Newell : Windows 8 est une « une catastrophe pour Valve »
FTFY
Google va devenir un FAI : 0$/mois pour une connections normal, 70$/mois pour du 1 Go (donc 125 Mo/s) : http://fiber.google.com
Bon alors pour l'europe c'est peut être pas pour tout de suite...
Avec ça on peut remplir un DD de 2To en 4 heures...
5mb/1mb la connexion "gratuite", 300$ de frais d'installation.
Bon après vu les tarifs us, c'est pas très cher, 57€ht le 1gb symétrique.
L'évolution est en marche, si ça continu comme ça on baptisera la première ville martienne Larry Page.
Musique : le « piratage de proximité » plébiscité par les Américains
Bah c'était ce que nous faisions avec les K7. Je quémandais ma boite de 3 tous les samedis à Auchan quand j'étais gosse.
Bah ouais avec des clefs usb 8go ou plus à quelques euros, tu peux en partager des mp3...
Hadopi a bien marché sur moi, j'évite de regarder des films français.
Enfin j'ai Canal+ à la demande (qu marche assez mal) pour ça.
Pages Précédent 1 … 15 16 17 18 19 … 659 Suivant
Vous devez vous connecter ou vous inscrire pour pouvoir répondre
Le Vrai Asile » Culture & médias » Actu
Propulsé par PunBB, supporté par Informer Technologies, Inc.
Généré en 0,680 secondes, 12 requêtes exécutées