Singing-driven interfaces for sound synthesizers

Els instruments musicals digitals es descomponen usualment en dues parts: la interfície d'usuari i el motor de síntesi. Tradicionalment la interfície d'usuari pren el nom de controlador musical. L'objectiu d'aquesta tesi és el disseny d'un interfície que permeti el control d...

Full description

Bibliographic Details
Main Author: Janer Mestres, Jordi
Other Authors: Serra, Xavier
Format: Doctoral Thesis
Language:English
Published: Universitat Pompeu Fabra 2008
Subjects:
004
78
Online Access:http://hdl.handle.net/10803/7550
http://nbn-resolving.de/urn:isbn:9788469209653
id ndltd-TDX_UPF-oai-www.tdx.cat-10803-7550
record_format oai_dc
collection NDLTD
language English
format Doctoral Thesis
sources NDLTD
topic segmentation
phonetic alignment
formant tracking
syllabling
real-time
mapping
control
vocal gestures
sound synthesis
user interface
singing voice
signal processing
controlador musical
alineamiento fonético
segmentación
analisi
mapeo
tiempo real
estimación de formantes
gestos vocales
sintesis de sonido
interfaz de usuario
control
procesado de señal
voz cantada
alineament fonètic
controlador musical
anàlisis
segmentació
estimació de formants
temps real
mapeig
control
gests vocals
interfícies d'usuari
síntesi sonora
veu cantada
processament del senyal
musical controller
004
531/534
78
spellingShingle segmentation
phonetic alignment
formant tracking
syllabling
real-time
mapping
control
vocal gestures
sound synthesis
user interface
singing voice
signal processing
controlador musical
alineamiento fonético
segmentación
analisi
mapeo
tiempo real
estimación de formantes
gestos vocales
sintesis de sonido
interfaz de usuario
control
procesado de señal
voz cantada
alineament fonètic
controlador musical
anàlisis
segmentació
estimació de formants
temps real
mapeig
control
gests vocals
interfícies d'usuari
síntesi sonora
veu cantada
processament del senyal
musical controller
004
531/534
78
Janer Mestres, Jordi
Singing-driven interfaces for sound synthesizers
description Els instruments musicals digitals es descomponen usualment en dues parts: la interfície d'usuari i el motor de síntesi. Tradicionalment la interfície d'usuari pren el nom de controlador musical. L'objectiu d'aquesta tesi és el disseny d'un interfície que permeti el control de la síntesi de sons instrumentals a partir de la veu cantada.Amb la present recerca, intentem relacionar la veu amb el so dels instruments musicals, tenint en compte tan la descripció del senyal de veu, com les corresponents estratègies de mapeig per un control adequat del sintetitzador.Proposem dos enfocaments diferents, d'una banda el control d'un sintetitzador de veu cantada, i d'altra banda el control de la síntesi de sons instrumentals. Per aquest últim, suggerim una representació del senyal de veu com a gests vocals, que inclou una sèrie d'algoritmes d'anàlisis de veu. A la vegada, per demostrar els resultats obtinguts, hem desenvolupat dos prototips a temps real. === Los instrumentos musicales digitales se pueden separar en dos componentes: el interfaz de usuario y el motor de sintesis. El interfaz de usuario se ha denominado tradicionalmente controlador musical. El objectivo de esta tesis es el diseño de un interfaz que permita el control de la sintesis de sonidos instrumentales a partir de la voz cantada.La presente investigación pretende relacionar las caracteristicas de la voz con el sonido de los instrumentos musicales, teniendo en cuenta la descripción de la señal de voz, como las correspondientes estrategias de mapeo para un control apropiado del sintetizador. Se proponen dos enfoques distintos, el control de un sintetizador de voz cantada, y el control de la sintesis de sonidos insturmentales. Para este último, se sugiere una representación de la señal de voz como gestos vocales, incluyendo varios algoritmos de analisis de voz. Los resultados obtenidos se demuestran con dos prototipos a tiempo real. === Digital musical instruments are usually decomposed in two main constituent parts: a user interface and a sound synthesis engine. The user interface is popularly referred as a musical controller, and its design is the primary objective of this dissertation. Under the title of singing-driven interfaces, we aim to design systems that allow controlling the synthesis of musical instruments sounds with the singing voice. This dissertation searches for the relationships between the voice and the sound of musical instruments by addressing both, the voice signal description, as well as the mapping strategies for a meaningful control of the synthesized sound. We propose two different approaches, one for controlling a singing voice synthesizer, and another for controlling the synthesis of instrumental sounds. For the latter, we suggest to represent voice signal as vocal gestures, contributing with several voice analysis methods.To demonstrate the obtained results, we developed two real-time prototypes.
author2 Serra, Xavier
author_facet Serra, Xavier
Janer Mestres, Jordi
author Janer Mestres, Jordi
author_sort Janer Mestres, Jordi
title Singing-driven interfaces for sound synthesizers
title_short Singing-driven interfaces for sound synthesizers
title_full Singing-driven interfaces for sound synthesizers
title_fullStr Singing-driven interfaces for sound synthesizers
title_full_unstemmed Singing-driven interfaces for sound synthesizers
title_sort singing-driven interfaces for sound synthesizers
publisher Universitat Pompeu Fabra
publishDate 2008
url http://hdl.handle.net/10803/7550
http://nbn-resolving.de/urn:isbn:9788469209653
work_keys_str_mv AT janermestresjordi singingdriveninterfacesforsoundsynthesizers
_version_ 1716592868976492544
spelling ndltd-TDX_UPF-oai-www.tdx.cat-10803-75502013-07-11T03:42:22ZSinging-driven interfaces for sound synthesizersJaner Mestres, Jordisegmentationphonetic alignmentformant trackingsyllablingreal-timemappingcontrolvocal gesturessound synthesisuser interfacesinging voicesignal processingcontrolador musicalalineamiento fonéticosegmentaciónanalisimapeotiempo realestimación de formantesgestos vocalessintesis de sonidointerfaz de usuariocontrolprocesado de señalvoz cantadaalineament fonèticcontrolador musicalanàlisissegmentacióestimació de formantstemps realmapeigcontrolgests vocalsinterfícies d'usuarisíntesi sonoraveu cantadaprocessament del senyalmusical controller004531/53478Els instruments musicals digitals es descomponen usualment en dues parts: la interfície d'usuari i el motor de síntesi. Tradicionalment la interfície d'usuari pren el nom de controlador musical. L'objectiu d'aquesta tesi és el disseny d'un interfície que permeti el control de la síntesi de sons instrumentals a partir de la veu cantada.Amb la present recerca, intentem relacionar la veu amb el so dels instruments musicals, tenint en compte tan la descripció del senyal de veu, com les corresponents estratègies de mapeig per un control adequat del sintetitzador.Proposem dos enfocaments diferents, d'una banda el control d'un sintetitzador de veu cantada, i d'altra banda el control de la síntesi de sons instrumentals. Per aquest últim, suggerim una representació del senyal de veu com a gests vocals, que inclou una sèrie d'algoritmes d'anàlisis de veu. A la vegada, per demostrar els resultats obtinguts, hem desenvolupat dos prototips a temps real.Los instrumentos musicales digitales se pueden separar en dos componentes: el interfaz de usuario y el motor de sintesis. El interfaz de usuario se ha denominado tradicionalmente controlador musical. El objectivo de esta tesis es el diseño de un interfaz que permita el control de la sintesis de sonidos instrumentales a partir de la voz cantada.La presente investigación pretende relacionar las caracteristicas de la voz con el sonido de los instrumentos musicales, teniendo en cuenta la descripción de la señal de voz, como las correspondientes estrategias de mapeo para un control apropiado del sintetizador. Se proponen dos enfoques distintos, el control de un sintetizador de voz cantada, y el control de la sintesis de sonidos insturmentales. Para este último, se sugiere una representación de la señal de voz como gestos vocales, incluyendo varios algoritmos de analisis de voz. Los resultados obtenidos se demuestran con dos prototipos a tiempo real.Digital musical instruments are usually decomposed in two main constituent parts: a user interface and a sound synthesis engine. The user interface is popularly referred as a musical controller, and its design is the primary objective of this dissertation. Under the title of singing-driven interfaces, we aim to design systems that allow controlling the synthesis of musical instruments sounds with the singing voice. This dissertation searches for the relationships between the voice and the sound of musical instruments by addressing both, the voice signal description, as well as the mapping strategies for a meaningful control of the synthesized sound. We propose two different approaches, one for controlling a singing voice synthesizer, and another for controlling the synthesis of instrumental sounds. For the latter, we suggest to represent voice signal as vocal gestures, contributing with several voice analysis methods.To demonstrate the obtained results, we developed two real-time prototypes.Universitat Pompeu FabraSerra, XavierUniversitat Pompeu Fabra. Departament de Tecnologia2008-03-14info:eu-repo/semantics/doctoralThesisinfo:eu-repo/semantics/publishedVersionapplication/pdfhttp://hdl.handle.net/10803/7550urn:isbn:9788469209653TDX (Tesis Doctorals en Xarxa)enginfo:eu-repo/semantics/openAccessL'accés als continguts d'aquesta tesi queda condicionat a l'acceptació de les condicions d'ús establertes per la següent llicència Creative Commons: <a href="http://creativecommons.org/licenses/by-nc-sa/3.0/deed.ca">http://creativecommons.org/licenses/by-nc-sa/3.0/deed.ca</a>