Service de Théorie des Circuits et de Traitement du Signal
Liste des TFEs 2004-2005

Maximum 10 TFEs attribués au total
Ouverts aux ELEC – IG – IG Charleroi

En pratique...

Liste des TFEistes 2004-2005
voir ici
Liste des TFEs proposés

    1. Laryngographe et reconnaissance automatique de la parole
    2. Codage et protection d'erreurs pour la reconnaissance vocale distribuée
    3. Indexation et recherche de contenu vocal
    4. Démixage de pistes vocales pour applications musicales et production audio
    5. Outil d'aide à l'annotation multimodale de scènes de communication pour le développement d'approches d'analyse et interprétation      multimodales basées sur des modèles statistiques
    6. Mise au point d’un démonstrateur d’interface homme-machine mutimodale sur PDA
    7. Implémentation d’un système de lecture automatique de code barre dans le cadre d’une application médicale (assistant électronique en environnement mobile)
    8. Reconnaissance automatique de partitions musicales en vue de leur retranscription en braille
    9. Méthodes d’agglomération pour la classification automatique en stades de sommeil
    10. Détection de fumée dans un tunnel à partir de capteurs vidéos
    11. Fusion de données en imagerie médicale
    12. Interfaces multimodales et jeux éducatifs
    13. Amélioration d'un système d'alignement automatique texte/parole pour la création de voix de synthèse
    14. Utilisation d'un PDA pour l'acquisition de données vibratoires
    15. Streaming de séquences de vidéo surveillance sur réseau sans-fil
    16. Implémentation d'un système de benchmarking automatique en interprétation d'image
    17. Etude des caractéristiques périodiques dans des images vidéos
    18. Correction des erreurs de reconnaissance d’un réseau de neurones grâce à de l’information linguistique
    19. Synthèse de parole émotionnelle par sélection d’unités
    20. Mise au point d’un laboratoire de physiologie informatisé
    21. Interfaces cerveau-machine

 

 

Détail des travaux proposés :

 1. Laryngographe et reconnaissance automatique de la parole

Promoteur : Prof. T. Dutoit
Co-Promoteur : Dr. Stéphane Dupont (Multitel)


L'électrolaryngographe (ou microphone de gorge) est un dispositif non-invasif et non-obstrusif permettant de mesurer les impulsions glottiques lors de la production d'un signal de parole. Ce type de dispositif est notamment utilisé pour la recherche médicale mais également comme moyen d'acquisition d'un signal vocal en milieu bruité (ex: cockpit d'un avion).

Dans le cadre de la reconnaissance automatique de la parole, le laryngographe permettra l'acquisition d'un signal glottique fournissant une information complémentaire au signal capturé par un microphone traditionnel, et d'augmenter ainsi les performances de reconnaissance, notamment en milieu bruité. L'étudiant utilisera les bases de données "SI1000P" et "ACCOR" mais sera également amené a enregistrer des données vocales et glottiques.

Après une recherche bibliographique et internet, l'étudiant sera amené à implémenter un système.


Compétences nécessaires :

De bonnes connaissances en programmation (langages C ou C++) sont préférables.
Avoir suivi le cours de traitement de l’information (certificat multimédia) est un avantage


Compétences que l'étudiant pourrait acquérir :

Ce TFE est un projet de recherche qui permettra a l'étudiant de mettre en application des connaissances en traitement du signal dans un domaine innovant de la reconnaissance automatique de la parole.
 

2. Codage et protection d'erreurs pour la reconnaissance vocale distribuée

Promoteur : Prof. T. Dutoit
Co-Promoteur : Dr. Stéphane Dupont (Multitel)


Ce projet s'inscrit dans le cadre des interfaces vocales ubiquistes. Il est ici question d'ouvrir le champ des interfaces hommes-machines utilisant la reconnaissance automatique de la parole (RAP) à des équipements mobiles de petite taille et aux capacités de calcul et de transmission réduites. Dans ce cadre s'est développée une architecture appelée 'Reconnaissance Vocale Distribuée' dans laquelle une partie seulement du processus de reconnaissance vocale est effectuée sur l'équipement mobile; le reste du processus étant réalisé sur un 'serveur RAP'. L'information résultant de l'analyse effectuée dans le mobile doit donc être transmise au serveur après codage (compression bas-débit, quelques kbits/s) et protection contre les erreurs de transmission. Le but du projet sera d'étudier et d'optimiser cette partie du système. L'optimisation se fera dans le cadre d'une tache de reconnaissance vocale et l'étudiant sera donc amené à utiliser le système RAP développé au laboratoire.


Compétences nécessaires :

De bonnes connaissances en programmation (langages C ou C++) sont préférables.
Avoir suivi le cours de traitement de l’information (certificat multimédia) est un avantage


Compétences que l'étudiant pourrait acquérir :

Ce projet permettra a l'étudiant de mettre en application des connaissances dans deux aspects important de la théorie de la communication: la compression bas-débit et la correction d'erreurs.
 

3. Indexation et recherche de contenu vocal

Promoteur : Prof. T. Dutoit
Co-Promoteur : Dr. Stéphane Deketelaere & Stéphane Dupont (Multitel)

 

Suite et extension du TFE d'Irving Mereaux (2003-2003) : aspects MPEG7 - application à une tâche grand vocabulaire par treillis hybride de mots et de phonèmes.

Pour mémoire : Travail de I. Méreau : Le but de ce travail est d'étudier et d'implanter (Si le temps le permet) un système d’indexation vocale pour les messages stockés sur un PDA (Compaq IPAQ) afin de pouvoir les retrouver en prononçant simplement un mot en non pas en étant obligé de réécouter tous les messages enregistrés. les méthodes qui seront exploitées sont basées sur la recherche d'un treillis phonétique sur les caractéristiques d'un signal vocal. Le but, à terme, est de proposer la solution sous forme d'un logiciel "shareware" pour PDA.
 

4. Démixage de pistes vocales pour applications musicales et production audio

Promoteur : Prof. T. Dutoit
Co-Promoteur : Dr. Stéphane Dupont (Multitel)


Ce travail aura pour objectif l'étude, le développement et l'implémentation de méthodes de démixage de signaux audio (séparation de sources) contenant un signal vocal superposé à d'autres signaux. Les deux applications cibles envisagées ici sont la séparation d'une piste vocale dans un signal musical et le débruitage en studio d'un signal de parole enregistré dans des conditions défavorables. Dans ces deux applications, la connaissance du texte prononcé permet d'envisager l'utilisation de techniques par modélisation statistique permettant un démixage de grande qualité. L'objectif final serait le développement d'un module (plug-in) au standard DirectX ou VST, intégrable dans toute suite logicielle audio sous Windows.


Compétences nécessaires :

De bonnes connaissances en programmation (langages C ou C++) sont préférables.


Compétences que l'étudiant pourrait acquérir :

Ce TFE est un projet de recherche qui permettra a l'étudiant de mettre en application des connaissances en traitement du signal dans une application innovante.
 

5. Outil d'aide à l'annotation multimodale de scènes de communication pour le développement d'approches d'analyse et interprétation multimodales basées sur des modèles statistiques

Promoteur : Prof. T. Dutoit
Co-Promoteur : Dr. Stéphane Dupont (Multitel)


La communication humaine est par essence multimodale. D'une part, les aspects verbaux génèrent divers "signaux alternatifs" liés au processus de production de la parole: excitation des cordes vocales, flux d'air, et surtout mouvements des "articulateurs" du conduit vocal et des lèvres. D'autre part, des aspects non verbaux sont également impliqués: mouvement du corps, gestuelle et position de la tête, expression du visage...

Ce projet a pour but le développement d'un outil modulaire et flexible pour l'assistance à l'annotation multimodale de corpus linguistiques. Dans le domaine du multimédia et des interfaces homme-machine, les applications d'un tel outil seront multiples. Par exemple, l'annotation du contour des lèvres pour la recherche sur la lecture labiale. Ou encore l'annotation de la position de la tête et de la gestuelle pour la recherche sur les interfaces assisitives et multimodales. Un tel outil facilitera la recherche sur les aspects de modélisation (statistique) de la communication humaine.


Compétences nécessaires :

De bonnes connaissances en programmation sont préférables.

Compétences que l'étudiant pourrait acquérir :

L'étudiant pourra acquérir et mettre en application des compétences en programmation et développement d'interface graphiques, dans un domaine de pointe des interfaces homme-machines intelligentes.
 

6. Mise au point d’un démonstrateur d’interface homme-machine mutimodale sur PDA

Promoteur : Prof. T. Dutoit
Co-promoteur : Dr. Stéphane Deketelaere (et Xavier Ricco) [MULTITEL]


Le monde des interfaces Homme-Machine est en perpétuelle évolution. ceci est d’autant plus vrai et critique dans le domaine des systèmes mobiles (GSM, PDA, Smartphone, ..) pour lequel les méthodes habituelles d’interaction basées sur le clavier et l’écran sont mal adaptées. Pensez à l’introduction des SMS. Le manque de place sur ces appareils et les limitations physiques des doigts et des yeux ne permettent plus de réduction de dimension que pourtant l’électronique pourrait atteindre.


Dans ce cadre, des nouvelles techniques utilisant la combinaison de plusieurs moyens d’interaction (voix,crayon, claviers virtuels évolutifs, prédicteur de texte,…) semblent être très prometteuses. Néanmoins, elles demandent encore beaucoup d’études et d’essais afin de trouver la nouvelle interface universelle qui jouera le rôle du « clavier-souris » dans le monde mobile.


L’objectif du présent travail est de s’intégrer dans cette démarche et de réaliser un mock-up, ou système démonstrateur de concept, sur un ordinateur de type PDA. Celui-ci proposera, développera et testera l’utilisabilité d’ une ou plusieurs solutions en combinant de manière innovante les moyens classiques d’interaction que sont la voix, le clavier « limité » type T9, les mouvements de l’appareil lui-même, la synthèse vocale, les écrans simplifiés, … (Non limitatif). Ce mock-up devra permettre de déterminer les avantages, inconvénients, limitations et problèmes à résoudre de chaque solution proposée.


Compétences nécessaires :

le candidat idéal aura une imagination débordante afin de proposer des solutions innovantes mais il sera aussi capable de se canaliser afin de produire un système concret, réalisable et utilisable à la fin de son travail. Une certaine pratique de la programmation dans un environnement visual C++ est évidemment un très sérieux atout afin de ne pas perdre trop de temps à l’apprendre.


Compétences que l’étudiant pourrait acquérir :

Une plus grande expérience dans la programmation de plate-forme mobile à l’aide des outils visual C++ . une bonne connaissance de l’état de l’art des systèmes d’interaction homme machine du futur ainsi qu’une mise en application de l’art de l’ingénieur dans le transfert d’une idée vers une solution concrète.
 

7. Implémentation d’un système de lecture automatique de code barre dans le cadre d’une application médicale (assistant électronique en environnement mobile)

Promoteur : Bernard Gosselin
Co-promoteur : Silvio Ferreira


Le travail de fin d’études consiste à étudier et concevoir un système de lecture automatique de code barre dans le cadre d'une application médicale en environnement mobile. A la différence des systèmes actuels de lecture par scanner, ce lecteur de code barre sera basé sur l'acquisition d'images par caméra numérique, une détection de la zone d'intérêt sera au préalable nécessaire. L’étudiant se focalisera donc plus particulièrement sur le traitement d’images et pourra bénéficier des résultats de travaux effectués au sein du service TCTS dans le domaine de la reconnaissance et de la classification (classification par réseaux de neurones, etc). Dans le cadre du prototype, les fonctions d’acquisition d’images ainsi que le système de reconnaissance sont implémentés dans un PDA. Ce travail de fin d’études s’intègre dans un projet plus vaste d'assistant mobile électronique pour personnes malvoyantes.


Domaine :

Traitement d’Images, Intelligence artificielle, Systèmes embarqués.


Compétences nécessaires :

Compétences que l’étudiant pourrait acquérir :

8. Reconnaissance automatique de partitions musicales en vue de leur retranscription en braille

Promoteur : Dr. B. Gosselin

(Ce TFE serait une continuation du TFE de Stéphanie Devuyst)


La reconnaissance automatique de partitions musicales est l'objet, depuis plusieurs années, de nombreuses recherches. Toutefois, à notre connaissance, aucune n'aborde ce problème dans le but de rendre ces partitions musicales mieux accessibles aux personnes dont la vue est déficiente. Un état de l'art sur les divers algorithmes proposés dans la littérature doit donc d'abord être établi, en tenant compte de l'objectif visé ici, c'est à dire la retranscription du résultat de la procédure de reconnaissance en langage braille. Le développement d'un système complet de traitement peut alors être abordé. Ses performances, tant en termes de qualité de retranscription qu'en termes de facilité d'exploitation, peuvent également être évaluées.


Compétences requises:

Compétences que l'étudiant pourrait acquérir :

Traitement d'Image, Algorithmes de Reconnaissance, Analyse, Intégration, Implémentation Logicielle.
 

9. Méthodes d’agglomération pour la classification automatique en stades de sommeil

Promoteur : Prof. T. Dutoit
Co-Promoteur : S. Devuyst (TCTS), F. Meers (Multitel)


Le Service TCTS travaille actuellement sur un projet de classification automatique en phases du sommeil, se basant sur différents signaux électrophysiologiques enregistrés au cours d’une nuit. Dans ce cadre une amélioration des performances de classification pourrait provenir de l’emploi de techniques d’agrégation (ou clustering) appliquées aux différentes tranches temporelles à scorer.

Partant d’un code MATLAB utilisant des techniques classiques de traitement de signal et un arbre de classification, le travail proposé consistera à appliquer des techniques d’agrégation (classification non supervisée) aux attributs issus du module de traitement de signal, et à étudier l’efficacité de diverses méthodes envisageables (k-means clustering, réseaux neuronaux, entre autres).


Compétences nécessaires :

intérêt pour le traitement statistique de l’information, les signaux biomédicaux, connaissance de MATLAB.
Choix préférentiel (mais non exclusif) pour un étudiant de spécialisation ‘Ingénierie du vivant’


Compétences que l'étudiant pourrait acquérir :

connaissance des signaux biomédicaux ; utilisation pratique du cours de traitement de l’information (analyse, classification), connaissances en intelligence artificielle.
 

10. Détection de fumée dans un tunnel à partir de capteurs vidéos

Promoteur : Dr. B. Gosselin
Copromoteurs : JF Delaigle et C. Chaudy


Lieu : Multitel, équipe de recherche Multivision (www.multivision.be). Multivision a créé une spin-off ACIC sa.


Description :

De plus en plus, les capteurs vidéo jouent un rôle important dans l’évaluation du trafic routier, que ce soit en temps-réel ou en différé. Ils offrent la possibilité aux gestionnaires de voiries d’optimiser leurs infrastructures en fonction de critères de mobilité accrue, de sécurité ou même environnementaux. Ils permettent aussi aux service d’intervention de sauver des vies en cas d’incidents graves.

Le système que nous proposons de développer et de tester est un système vidéo de détection automatique de fumée issue de véhicules prenant feu. En général, le principe est de mesurer et détecter une baisse du contraste dans une grande région de l’image.

L’étudiant qui choisira ce sujet sera aidé par une équipe de développeurs et éventuellement des techniciens pour la mise en œuvre du système, l’acquisition des séquences tests et la campagne de tests.

Prérequis :

11. Fusion de données en imagerie médicale

Promoteur : Dr. Bernard GOSSELIN
Co-promoteurs : M. Mancas, J. Hamaide (chercheurs)


Description :

Les images auxquelles nous nous intéresserons seront des images médicales de type Scanner, IRM et PET. Le TFE sera composé de trois parties :

Deux TFEs ont porté sur les deux premiers points énumérés ci-dessus au cours de l’année 2003/2004. Il faudra donc récupérer et améliorer/compléter les résultats déjà obtenus.

Le but principal de ce TFE est l’étude des diverses méthodes de combinaison en logique floue des données et l’application au domaine médical. Il s’agit ici de rationaliser le travail mental du praticien, qui prend une décision à partir de plusieurs sources d’information parfois contradictoires tout en espérant obtenir une meilleure précision.


Domaine :

Compétences requises :

Compétences à acquérir :

12. Interfaces multimodales et jeux éducatifs

Promoteur : Prof. T. Dutoit
Co-promoteurs : J. Hamaide, X. Toubeau (Multitel), M. Mancas

 

Ce travail est la continuation d’un Tfe a été réalisé en 2004 sur le thème « Muséologie et dialogue homme-machine : propositions, réalisations, perspectives ». Il s’agit de concevoir et mettre au point un ensemble de jeux interactifs et éducatifs, basés sur l’utilisation de la voix comme interface homme-machine remplaçant la souris ou le clavier. On envisagera également la possibilité d’utiliser l’activité musculaire (mesurée par un EMG) comme moyen de contrôle. Un environnement d’interfaçage a déjà été mis au point ; il permet l’analyse de la parole à divers niveaux (acoustique, phonétique, phonologique), la synthèse vocale, et l’écriture de scripts gérés par un moteur d’intelligence artificielle. La programmation se fait en C et en DarkBasic, logiciel dédié à la mise au point de jeux 3D.


Domaine :


Compétences requises :

Compétences à acquérir :

13. Amélioration d'un système d'alignement automatique texte/parole pour la création de voix de synthèse

Promoteur : Prof. T. Dutoit
Co-promoteur : F. Malfrère (Babel Technologies SA)


Dans le cadre de la synthèse par sélection d'unités, l'étiquetage phonétique du signal de parole est de loin la tâche la plus longue et la plus fastidieuse. Cet étiquetage est réalisé de manière automatique par alignement de la transcription phonétique sur le signal. Ensuite, il doit être corrigé manuellement. Afin d'accélérer cette phase de correction, il serait souhaitable que le système permettant l'alignement automatique de la transcription sur le signal calcule en plus de la segmentation un indice de qualité de celle-ci au niveau du phonème. En effet, dans la majorité des cas, la segmentation automatique est correcte et seul un nombre très faible d'erreurs nécessite réellement une correction manuelle. Ces erreurs proviennent du fait que ce qui est réellement prononcé ne correspond pas la transcription phonétique utilisée pour l'alignement (déviation dans la prononciation, insertion de pause...). Le but de ce TFE est donc de modifier le système actuel d'alignement afin qu'il puisse indiquer à l'utilisateur les phrases qui ont le plus mauvais score à la sortie du système de reconnaissance vocale ou les endroits où la segmentation automatique est (ou semble) défaillante. Il s'agit donc de donner un indice de confiance sur chaque frontière de segmentation ou sur chaque phrase.


Connaissances requises:

14. Utilisation d'un PDA pour l'acquisition de données vibratoires

Promoteur : Dr. Bernard GOSSELIN

En collaboration avec le service de Mécanique Rationnelle (mais pour un étudiant électricien)
 

15. Streaming de séquences de vidéo surveillance sur réseau sans-fil

Promoteur : Dr. Bernard GOSSELIN
Copromoteur : Dr. JF Delaigle, J. MEESSEN (Multitel)

Lieu : Multitel, équipe de recherche Multivision (www.multivision.be)

Description :

En situation de catastrophe ou d’urgence, il est essentiel de pouvoir visualiser les séquences de caméra de surveillance sur des réseaux sans fil. De nombreuses initiatives internationales se penchent sur ce problème, tant du point de vue des réseaux (IEEE 802.11g etc) que du point de vue du codage flexible (Motion JPEG2000, MPEG4AVC / H264 etc).

Le but de ce travail est de créer une application de streaming sur des réseaux sans fils adaptée à la vidéo surveillance. Le travail sera effectué en collaboration avec l’équipe Multivision ainsi que d’autres partenaires européens du projet WCAM.

L'étude sera faite en C/C++ sur base des initiatives open source de streaming ainsi que des nouveaux standards de compression vidéo et de réseaux sans fil.


Domaines scientifiques et industriels couverts :

streaming, réseaux sans fils, codage vidéo, cameras sans fil


Choix préférentiel (mais non exclusif) pour un étudiant de spécialisation ‘Applicatifs Multimédias’
 

16. Implémentation d'un système de benchmarking automatique en interprétation d'image

Promoteur : Dr. B. Gosselin
Copromoteur: X. DESURMONT


Lieu : Multitel, équipe de recherche Multivision (www.multivision.be)

Les systèmes d'interprétation de séquences d'images sont généralement divisés en différent modules tels que "segmentation", "tracking" et "interprétation". Dans la mise au point d'un système il est souvent intéressant de mesurer la robustesse du système de manière automatique (dans le but de voir les défauts et les corriger). Il faut alors avoir des séquences tests ainsi que des fichiers décrivant les résultats attendus. Cette approche requiert un long travail de description à la main des séquences. C'est pour cela que nous proposons de l'automatiser.

Le projet visera à implémenter:
un système qui construira des séquences virtuelles (synthèse d'image), ainsi que les cartes de segmentation, les resultats de tracking,etc.
Mais aussi la mesure automatique des résultats des différents types de modules existant et leur comparaison avec les résultats attendus.
Ce système devra s'implémenter logiquement dans MVision2 (notre plateforme de développement)
Les différentes étapes de ce stage sont les suivantes:
Prise en main de la plateforme d'analyse d'images et de vidéos MVision2,
Etude des entrées/sorties des différentes familles de traitements (image, tracking, détection scenario),
Etude du logiciel Blender ou autre (Povray?) pour faire les séquences virtuelles, interfacage avec Mvision2,
Création des outils de mesure automatique des résultats des modules de vision, (en C++)
Création de l'outil de résumé de rapport de ses résultats (moyenne, variance, erreurs, etc.) (en C++ langage script)
Rédaction du rapport.
Ce projet s'insère dans le cadre d'une collaboration entre le laboratoire MULTITEL une de ces sociétés SPIN-OFF intéressée par la valorisation de systèmes de vidéo surveillance intelligente.


Domaines scientifiques et industriels couverts:

Computer vision, image de synthèse, programmation orienté objet(c++), analyse de données.


Choix préférentiel (mais non exclusif) pour un étudiant de spécialisation ‘Applicatifs Multimédias’
 

17. Etude des caractéristiques périodiques dans des images vidéos

Promoteur : Dr. B. GOSSELIN
Copromoteur : Dr. JF DELAIGLE, X. DESURMONT


Lieu : Multitel, équipe de recherche Multivision (www.multivision.be)


Les systèmes d'analyses de séquences vidéos décrivent souvent temporellement ce qu'il se passe dans la scène (ex: une personne rentre dans le batiment). Néammoins, se pose le problème de la description d'un évènement périodique (ex: le mouvement de la trotteuse d'une horloge, un le clignotement d'un phare de voiture). Pour l'interprétation il est préférable d'avoir une description haut niveau du type « un phare clignote pendant 10 secondes », au lieu d'une description du type « un phrase s 'allume, puis s'éteint, puis s'allume, puis s'éteint, puis s'allume, .... » pendant 10 secondes.

On veillera dans ce travail à chercher à résoudre ce type de problème au niveau image (filtrage temporel, FFT, etc.) et/ou au niveau sémantique de la représentation.

L'étude pourra etre faite sous matlab ou directement en C++ dans notre plateforme de développement.

Domaines scientifiques et industriels couverts:

Computer vision, traitement d'image, IA.


Choix préférentiel (mais non exclusif) pour un étudiant de spécialisation ‘Applicatifs Multimédias’
 

18. Correction des erreurs de reconnaissance d’un réseau de neurones grâce à de l’information linguistique

Promoteur : Dr. B. Gosselin
Co-promoteur : Céline Thillou (Chercheuse FPMs)


Dans le cadre d’un système de reconnaissance de caractère, il peut être intéressant de corriger les résultats du classificateur (réseau de neurones par exemple) avec de l’information linguistique. Une première correction rapide a déjà été effectuée grâce à un algorithme de Viterbi tenant compte des probabilités des bigrammes ou trigrammes de la langue française (suite de deux ou trois lettres). Il peut être intéressant de renforcer cette correction grâce à un dictionnaire et des informations grammaticales plus importantes ou l’emploi d’un modèle de Markov caché. Le but du TFE est alors d’étudier le compromis pour obtenir les meilleurs résultats.


Domaine :


Compétences requises :


Compétences à acquérir :

19. Synthèse de parole émotionnelle par sélection d’unités

Promoteur : Prof. T. Dutoit
Co-Promoteur : X. Toubeau (Multitel)


Les systèmes actuels de synthèse de la parole à partir du texte (TTS) permettent d’obtenir une voix très réaliste. Cependant, celle-ci possède une mélodie relativement neutre.

Afin de transmettre les valeurs affectives nécessaires au naturel de l’interaction orale et à l’efficacité de la communication, les prochains synthétiseurs de parole devront être capable de générer une voix dont la prosodie soit associée à une émotion donnée.

Dans un premier temps, le travail consistera à déterminer les paramètres linguistiques intervenant dans l’expression des émotions. Ensuite, il s’agira de relier ces critères linguistiques (accentuation des voyelles, position dans la phrase…) à des paramètres acoustiques dont les variations permettront de décrire une émotion donnée. Les critères linguistiques et les variations acoustiques retenus permettront alors de choisir, dans une base d’unités de parole, les unités qui seront ensuite concaténées afin de produire la voix de synthèse.

Compétences nécessaires :

bonnes connaissances en programmation (langages C ou C++) préférables, traitement du signal

Compétences que l'étudiant pourrait acquérir :

analyse linguistique et traitement du signal de parole ; ce TFE est susceptible de déboucher sur un démonstrateur de synthétiseur de parole émotionnelle
 

20. Conception d’un laboratoire de physiologie informatisé

Promoteur : Prof. T. Dutoit
Co-Promoteur : B. Arslan


Les signaux qui sont produits par le corps humain sont importants pour l’analyse de l’état physiologique et psychologique du sujet. Un laboratoire virtuel pour acquérir les différents signaux biomedicaux (ecg, emg, eeg etc) sera réalisé sous l’environment Labview, à partir du matériel BIOPAC récemment acquis par le service. Le système développé inclura également des outils de traitement des signaux biomédicaux.

Compétences nécessaires :

Compétences que l'étudiant pourrait acquérir :

Connaissance des signaux biomédicaux ; utilisation pratique du cours de traitement de l’information (analyse, classification), , connaissance de LABVIEW.
 

21. Interfaces Cerveau-Machine

Promoteur : Prof. T. Dutoit
Co-Promoteur : B. Arslan


Le projet a pour but d’évaluer et d’améliorer les méthodes déjà utilisées pour l’analyse  et la classification des signaux cérébraux spontanés ou évoqués, afin de les utiliser dans un interface direct homme-machine. Les applications typiques de ces interfaces sont l’aide aux personnes handicapées. L’étudiant disposera de matériel (capteurs, amplis) récemment acquis par le service.

Compétences nécessaires :

Compétences que l'étudiant pourrait acquérir :

connaissance des signaux biomédicaux ; utilisation pratique du cours de traitement de l’information (analyse, classification).