Reconnaissance acoustique du genre humain basée sur les modèles GMM

dc.contributor.authorBENBOUZID YACINE, BENKECHIDA LILIA
dc.date.accessioned2024-09-25T09:31:32Z
dc.date.available2024-09-25T09:31:32Z
dc.date.issued2024-06-26
dc.description.abstractLa reconnaissance Automatique du genre humain est une tâche très importante utilisée dans plusieurs domaines d’application tels que : la sécurité, la surveillance, le marketing et la santé. Cette tâche consiste à reconnaître le genre d’une personne à partir de différents types de modalités telles que : la parole, le visage, le signal vidéo, l’écriture, ...etc. Plus particulièrement, un système de reconnaissance acoustique du genre (RAG) a pour objectif de classifier un signal vocal (parole) en classes de genre (H : masculin, F : féminin). La conception d’un système RAG se base sur une phase d’apprentissage permettant de modéliser des différentes classes de genre en utilisant une base de données de signaux d’apprentissage, et une phase de test permettant de classifier des signaux appartenant à une base de données de test pour évaluer les performances du système. Plus particulièrement, l’algorithme de classification KNN est couramment utilisé pour cette tâche, vue de sa simplicité et sa facilité d’implémentation, néanmoins il exige plus d’espace mémoire et temps de calcul. Notre travail consiste à concevoir un système de reconnaissance de genre basée sur l’algorithme de classification GMM (Gaussian Mixture Models) appliqué sur des vecteurs de paramètres MFCC et combiné avec la stratégie de règle de vote. Les résultats de différentes expériences menées nous ont montré que le classificateur GMM est plus performant par rapport au classificateur KNN de points de vue précision (taux de classification) et complexité (espace mémoire et temps de calcul).Plus particulièrement, le classificateur GMM atteint un taux de classification de 100% en utilisant la base de données EMO-DB (Berlin Data base of Emotional speech) en mode indépendant du texte et dépendant du locuteur, alors que le classificateur KNN atteint un taux de classification de 99.61% avec un temps de calcul plus long par rapport au classificateur GMen_US
dc.identifier.urihttp://10.10.1.6:4000/handle/123456789/5487
dc.language.isofren_US
dc.publisherfaculté des sciences et de la technologie* univ bbaen_US
dc.relation.ispartofseries;EL/M/2024/17
dc.subjectReconnaissance acoustique du genre, coefficients MFCC, classificateur GMM, classificateur KNN, stratégie de la règle de vote.en_US
dc.titleReconnaissance acoustique du genre humain basée sur les modèles GMMen_US
dc.typeThesisen_US

Files

Original bundle

Now showing 1 - 1 of 1
Thumbnail Image
Name:
ver 1.pdf
Size:
2.28 MB
Format:
Adobe Portable Document Format
Description:

License bundle

Now showing 1 - 1 of 1
No Thumbnail Available
Name:
license.txt
Size:
1.71 KB
Format:
Item-specific license agreed to upon submission
Description: