Je sais pas si je dois me sentir flatté ou pédé, mais vous battez pas hein yen aura pour personne.
Bon pour recentrer sur les instruments du turfu, je suis récemment tomber sur un post de Grimes encore où elle racontait qu'elle allait faire un pack de sons pour ça : https://www.youtube.com/watch?v=5x363UTE4qU
+ https://www.youtube.com/watch?v=bHNr5RqJc1s
(edit : "all you need is lalala and an iOs device", dégueulasse)
ça a de la gueule et ça rejoint un peu l'idée de modularité. Après ça va pas vraiment dans le sens du geste instrumental sur lequel on essaye de se positionner avec un outil de captation gestuelle en 3D (ex : le projet sur lequel je me suis téléporté récemment), certainement parce qu'on travaille aussi beaucoup avec des sons "réels" (enregistrés), même s'il y a aussi modifications/traitements, de la synthèse, et que les interprètes sont jusque là des instrumentistes, l'idée étant d'utiliser une banque de gestes spécifiques au percussionniste pour les associer à certains sons ou événements et images, traitements. Faudrait que je vous mette une vidéo.
Beaucoup de nouvelles interfaces qu'on voit passer concernent la synthèse donc il est peu question d'un geste musical ou physique associé à ce type de sonorité. Ce sera surtout de la variation de pitch (hauteur), de vitesse de lecture, déclenchement. Difficile de donner de l'expressivité à un synthé. Après même si ce n'est pas leur propos, le lien des français qui font Touché ou même Blocks linké au dessus, ont le mérite de quand même façonner et "humaniser" un peu le geste musical lié à de la synthèse.
Sinon pour ce qui est du contrôle d'événements par les gestes en 3D, je me demande bien ce que certains peuvent être en train de développer avec le htc vive, ya moyen de faire des trucs vraiment stylés. Il m'avait semblé que c'était possible d'utiliser certains engines de jeux video pour développer les siens, si c'est pareil avec le htc, ça pourrait être marrant de jeter un coup d'oeil...