Re : Vidéos
Sur le compte du vilongay
[video]http://www.youtube.com/watch?v=FOmAeR88rHw[/video]
Vous n’êtes pas identifié. Veuillez vous connecter ou vous inscrire.
Le Vrai Asile » Liens à la con » Vidéos
Pages Précédent 1 … 273 274 275 276 277 … 895 Suivant
Vous devez vous connecter ou vous inscrire pour pouvoir répondre
Sur le compte du vilongay
[video]http://www.youtube.com/watch?v=FOmAeR88rHw[/video]
[video]http://vimeo.com/29552573[/video]
Dans le même genre, je sais même pas quelles astuces ils ont pu utiliser pour certain plans.
[video]http://www.youtube.com/watch?v=kulKdJaqYwo[/video]
Sinon un peu de sérieuses douleurs pour le fun: http://www.zapiks.fr/vtt-dh-downhill-crashes-1.html
Ah j'ai pigé, caméra tyrolienne \o/
omg
[video]http://www.youtube.com/watch?v=0zLuqKNK … re=related[/video]
Bonjour
J ENVOIE DU GROS BOIS ET JE LE FAIS BIEN§§§§§
Reconstruction d'images à partir de l'activité cérébrale
[video]http://www.youtube.com/watch?v=nsjDnYxJ0bo[/video]
Ce qui est génial, c'est qu'on aura jamais une image parfaite, on ne peut pas être sûr que le cerveau traduira tel quel le stimulus. Quand ça sera vraiment au point, ça sera intéressant de comparer les images mentales des personnes face à une même vidéo.
Pourquoi on aurait pas une image nette un jour ? J'ai pas pigé ton explication (au pire je veux bien un lien wiki:-)
Déjà là certaines partie fixe sont très claires (même si c'est de la rémanence d'images passées ?!), ça troue le cul.
Me semble, je n'ai pas lu l'article attention, qu'ils ne transcrivent pas ce que tes yeux envoient à ton cerveau, mais l'image mentale que ton cerveau forme à partir des stimulus envoyés par tes yeux, et il y a une énorme différence entre les deux. Ça ne veut pas dire que l'image sera jamais nette, mais elle sera sans doute différente, sauf pour quelqu'un d'extrêmement concentré et qui pourrait enregistrer chaque détail.
Je vais jeter un coup d’œil à l'article.
C'est bien ce que je me disais, ils captent ton activité cérébrale, pas ton activité visuelle :
The left clip is a segment of a Hollywood movie trailed that the subject viewed while in the magnet. The right clip shows the reconstruction of this segment from brain activity measured using fMRI. The procedure is as follows:
[1] Record brain activity while the subject watches several hours of movie trailers.
[2] Build dictionaries (regression model) to translate between the shapes, edges and motion in the movies and measured brain activity. A separate dictionary is constructed for each of several thousand points in the brain at which brain activity was measured.
(For experts: our success here in building a movie-to-brain activity encoding model was one of the keys of this study)
[3] Record brain activity to a new set of movie trailers that will be used to test the quality of the dictionaries and reconstructions.
[4] Build a random library of ~18,000,000 seconds of video downloaded at random from YouTube (that have no overlap with the movies subjects saw in the magnet). Put each of these clips through the dictionaries to generate predictions of brain activity. Select the 100 clips whose predicted activity is most similar to the observed brain activity. Average those clips together. This is the reconstruction.
Ok. Et comme ce gros malin de cerveau se permet un tas de trucs... Il me semble d'ailleurs avoir lu qu'il produit des genres de minis trous noirs quand on cligne des yeux pour donner l'illusion de la continuité, ce qui explique peut être les coupures nettes dans la vidéo.
Et au niveau de la lecture doit y avoir une attention particulière, parce que incapable de retranscrire un éléphant mais les textes ressortent vachement bien !
Moi je le pige comme ça, un éléphant peut appeler d'autres images plus facilement que du texte.
sauf pour quelqu'un d'extrêmement concentré et qui pourrait enregistrer chaque détail.
[video]http://www.dailymotion.com/video/xi1mo2 … rel-page-5[/video]
Ca marche comment cette représentation graphique de ce qu’interprète le cerveau? C'est flippant.
Bah ouaip, quand tout le monde aura des implants neuronaux pour voir ce qu'on pense, on pourra même plus penser à insulter les noirs tout bas.
Ca marche comment cette représentation graphique de ce qu’interprète le cerveau? C'est flippant.
Si je ne me trompe pas:
Ils montrent une vidéo à des sujets, tout en mesurant l'activité des différentes parties du cerveau: ils en déduisent une corrélation entre taux activité/zone d'activité et l'image à l'écran.
Ensuite ils demandent aux sujets de se remémorer un film qu'ils ont vu avant, et en mesurant l'activité cérébrale, ils en déduisent une "forme".
C'est marrant de voir tous les geeks tripper là dessus. Le jour ou ca sera utilisé pour innocenter les gens avec ce qu'ils pensent, ca rira moins.
[video]http://www.youtube.com/watch?v=WVFS7UFo … r_embedded[/video]
C'est marrant de voir tous les geeks tripper là dessus. Le jour ou ca sera utilisé pour condamner les gens sur ce qu'ils pensent, ca rira moins.
On n'a pas besoin de savoir ce que tu penses pour te condamner dans une dictature.
Le plus drôle c'est quand même quand on enverra les signaux dans l'autre sens pour te faire voir/penser des choses qui n'existent pas.
On pourrait aussi rendre la vue à des aveugles, mais c'est certainement plus profitable de passer 3 jours de walt disney continu à des irakiens. Inutile de fermer les yeux bin sur.
Le plus drôle c'est quand même quand on enverra les signaux dans l'autre sens pour te faire voir/penser des choses qui n'existent pas.
Ca existe déjà, ça s'appelle la télévision.
Il y a l'expérience où ils faisaient croire à une nana sous électrode qu'une personne se tenait derrière elle avec un couteau. On peut aussi te faire voir des couleurs et sentir des odeurs. Par contre je n'arrive pas à retrouver la doc là-dessus.
Jusque là c'est heureusement encore plus simple de te foutre un tonfa dans le cul pour de vrai.
Pages Précédent 1 … 273 274 275 276 277 … 895 Suivant
Vous devez vous connecter ou vous inscrire pour pouvoir répondre
Le Vrai Asile » Liens à la con » Vidéos
Propulsé par PunBB, supporté par Informer Technologies, Inc.
Généré en 0,811 secondes, 10 requêtes exécutées