Afficher la notice abrégée
dc.contributor.author |
BENBOUZID YACINE, BENKECHIDA LILIA |
|
dc.date.accessioned |
2024-09-25T09:31:32Z |
|
dc.date.available |
2024-09-25T09:31:32Z |
|
dc.date.issued |
2024-06-26 |
|
dc.identifier.uri |
https://dspace.univ-bba.dz:443/xmlui/handle/123456789/5487 |
|
dc.description.abstract |
La reconnaissance Automatique du genre humain est une tâche très importante utilisée dans
plusieurs domaines d’application tels que : la sécurité, la surveillance, le marketing et la santé.
Cette tâche consiste à reconnaître le genre d’une personne à partir de différents types de
modalités telles que : la parole, le visage, le signal vidéo, l’écriture, ...etc. Plus particulièrement,
un système de reconnaissance acoustique du genre (RAG) a pour objectif de classifier un signal
vocal (parole) en classes de genre (H : masculin, F : féminin).
La conception d’un système RAG se base sur une phase d’apprentissage permettant de
modéliser des différentes classes de genre en utilisant une base de données de signaux
d’apprentissage, et une phase de test permettant de classifier des signaux appartenant à une base
de données de test pour évaluer les performances du système. Plus particulièrement,
l’algorithme de classification KNN est couramment utilisé pour cette tâche, vue de sa simplicité
et sa facilité d’implémentation, néanmoins il exige plus d’espace mémoire et temps de calcul.
Notre travail consiste à concevoir un système de reconnaissance de genre basée sur
l’algorithme de classification GMM (Gaussian Mixture Models) appliqué sur des vecteurs de
paramètres MFCC et combiné avec la stratégie de règle de vote. Les résultats de différentes
expériences menées nous ont montré que le classificateur GMM est plus performant par rapport
au classificateur KNN de points de vue précision (taux de classification) et complexité (espace
mémoire et temps de calcul).Plus particulièrement, le classificateur GMM atteint un taux de
classification de 100% en utilisant la base de données EMO-DB (Berlin Data base of Emotional
speech) en mode indépendant du texte et dépendant du locuteur, alors que le classificateur KNN
atteint un taux de classification de 99.61% avec un temps de calcul plus long par rapport au
classificateur GM |
en_US |
dc.language.iso |
fr |
en_US |
dc.publisher |
faculté des sciences et de la technologie* univ bba |
en_US |
dc.relation.ispartofseries |
;EL/M/2024/17 |
|
dc.subject |
Reconnaissance acoustique du genre, coefficients MFCC, classificateur GMM, classificateur KNN, stratégie de la règle de vote. |
en_US |
dc.title |
Reconnaissance acoustique du genre humain basée sur les modèles GMM |
en_US |
dc.type |
Thesis |
en_US |
Fichier(s) constituant ce document
Ce document figure dans la(les) collection(s) suivante(s)
Afficher la notice abrégée