Résumés
Résumé
Le synchronisme musical est essentiel à l’interprétation de la musique écrite. La capacité de synchronisation et de coordination en temps réel entre plusieurs musiciens sur scène, interprétant chacun sa propre partie et donnant un résultat d’ensemble cohérent, est un acquis commun des musiciens, qui pose des défis intéressants à l’intelligence artificielle ainsi que la pratique musicale de la musique mixte, afin de pouvoir la ramener dans un contexte d’interaction entre les musiciens et la machine. Cet article étudie la question du synchronisme musical dans la musique mixte, une problématique qui est présentée sous l’angle des aspects pratique, artistique et technologique, et expose des points de vue historiques et récents autour des sujets de recherches musicales connexes a cette problématique.
Mots-clés :
- musique mixte, suivi de partition, synchronisme musical, informatique musicale, électronique en temps réel
Abstract
Musical synchronism is essential to interpreting written music. Performance musicians are skilled in their capacity to achieve real time synchronization and coordination, with multiple musicians each playing their part to produce a coherent result. To successfully elicit a context of interaction between musicians and the machine raises interesting challenges for artificial intelligence and the practice of mixed music. This article explores musical synchronism in mixed music, looking at the practical, artistic and technological aspects, and presents recent and historical points of view drawn from subjects of musical research related to this question.
Keywords:
- mixed music, score following, musical synchrony, computer music, live electronics
Veuillez télécharger l’article en PDF pour le lire.
Télécharger
Parties annexes
Note biographique
Arshia Cont est chercheur à l’Ircam et responsable scientifique de l’équipe-projet MuSync, qui réunit l’Ircam, le CNRS et l’Inria pour l’étude et le développement des processus synchrones et le temps réel en informatique musicale. Parallèlement à ses activités de recherche scientifique, il est également, depuis 2012, le directeur du département Interface Recherche/Création qui oeuvre à mettre en place des voies de médiation entre recherche scientifique et création artistique. Il a réalisé sa thèse en informatique musicale conjointement à l’Université de Californie à San Diego (UCSD) et à l’UPMC (Université Paris 6) en 2008. Il est l’auteur du logiciel Antescofo, lauréat du prix spécial du jury du magazine La recherche en 2011. (Pour plus d’information : repmus.ircam.fr/arshia-cont)
Bibliographie
- Bayle, Laurent (1992), « Ne nous arrêtons donc pas en si bon chemin », Recherche et création, vers de nouveaux territoires, Paris, Ircam – Centre Georges Pompidou, p. 13-33.
- Benveniste Albert, Caspi, Paul, Edwards, Stephan A., Halbwachs, Nicola, Le Guernic, Paul, de Simone, Robert (2003), « The Synchronous Languages 12 Years Later », Proceedings of the IEEE, vol. 91, no 1, p. 64-83.
- Bevilacqua Frédérique, Zamborlin, Bruno, Sypniewski Anthony, Schnell, Norbert, Guédy, Fabrice, Rasamimanana Nicolas (2010), « Continuous realtime gesture following and recognition », Gesture in Embodied Communication and Human-Computer Interaction, LNCS, vol. 5934, p. 73-84.
- Cont, Arshia (2008), « ANTESCOFO : Anticipatory Synchronization and Control of Interactive Parameters in Computer Music », Proceedings of International Computer Music Conference, quod.lib.umich.edu/cgi/p/pod/dod-idx?c=icmc;idno=bbp2372.2008.154
- Cont, Arshia (2010), « A coupled duration-focused architecture for realtime music to score alignment », IEEE Transaction on Pattern Analysis and Machine Intelligence, vol. 32 (6), p. 974-987.
- Cont, Arshia (2011), « On the creative use of score following and its impact on research », inProceedings of Sound and Music Computing (SMC) Conference, Padova, smcnetwork.org/smc_papers-2011123
- Dannenberg, Roger (1984) « An On-Line Algorithm for Real-Time Accompaniment », inProceedings of the International Computer Music Conference, Paris, p. 193-198.
- Griffiths, Paul (1981), A Guide to Electronic Music, Londres, Thames and Hudson.
- Halbwachs, Nicolas (1993), Synchronous Programming of Reactive Systems, Amsterdam, Kluwer Academics.
- Large, Edward W. et Jones, Mari Reiss (1999), « The dynamics of attending : How we track time-varying events », Psychological Review, vol. 106, p. 119-159.
- Manoury, Philippe (1990), La note et le son, Paris, L’Harmattan.
- Manoury, Philippe (2007), « Considérations (toujours actuelles) sur l’état de la musique en temps réel », L’étincelle, le journal de la création à l’Ircam, etincelle.ircam.fr/733.html.
- Puckette, Miller (2004), « A divide between “compositional” and “performative” aspects of Pd », First International Pd Convention, Graz, crca.ucsd.edu/~msp/Publications/graz-reprint.pdf
- Repp, Bruno Hermann (2006), « Musical synchronization », in E. Altenmüller, M. Wiesendanger et J. Kesselring (dir.), Music, motor control, and the brain, Oxford, Oxford University Press, p. 55-76.
- Risset, Jean-Claude (1999), « Composing in real-time? », Contemporary Music Review, 18(3), p. 31-39.
- Stroppa, Marco (1999), « Live electronics or live music? Towards a critique of interaction », Contemporary Music Review, 18(3), p. 41-77.
- Szendy, Peter (1998), « Musique, temps réel », Résonance, no 14, octobre 1998, http://articles.ircam.fr/textes/Szendy98b/
- Tiffon, Vincent (1994), « Recherches sur les musiques mixtes », thèse de doctorat, Université d’Aix-Marseille I.
- Vercoe, Barry (1984), « The Synthetic Performer in the Context of Live Performance », Proceedings of the International Computer Music Conference, Paris, p. 199-200.