Dépôt Institutionnel de l'Université BBA

Reconnaissance acoustique du genre humain basée sur les modèles GMM

Afficher la notice abrégée

dc.contributor.author BENBOUZID YACINE, BENKECHIDA LILIA
dc.date.accessioned 2024-09-25T09:31:32Z
dc.date.available 2024-09-25T09:31:32Z
dc.date.issued 2024-06-26
dc.identifier.uri https://dspace.univ-bba.dz:443/xmlui/handle/123456789/5487
dc.description.abstract La reconnaissance Automatique du genre humain est une tâche très importante utilisée dans plusieurs domaines d’application tels que : la sécurité, la surveillance, le marketing et la santé. Cette tâche consiste à reconnaître le genre d’une personne à partir de différents types de modalités telles que : la parole, le visage, le signal vidéo, l’écriture, ...etc. Plus particulièrement, un système de reconnaissance acoustique du genre (RAG) a pour objectif de classifier un signal vocal (parole) en classes de genre (H : masculin, F : féminin). La conception d’un système RAG se base sur une phase d’apprentissage permettant de modéliser des différentes classes de genre en utilisant une base de données de signaux d’apprentissage, et une phase de test permettant de classifier des signaux appartenant à une base de données de test pour évaluer les performances du système. Plus particulièrement, l’algorithme de classification KNN est couramment utilisé pour cette tâche, vue de sa simplicité et sa facilité d’implémentation, néanmoins il exige plus d’espace mémoire et temps de calcul. Notre travail consiste à concevoir un système de reconnaissance de genre basée sur l’algorithme de classification GMM (Gaussian Mixture Models) appliqué sur des vecteurs de paramètres MFCC et combiné avec la stratégie de règle de vote. Les résultats de différentes expériences menées nous ont montré que le classificateur GMM est plus performant par rapport au classificateur KNN de points de vue précision (taux de classification) et complexité (espace mémoire et temps de calcul).Plus particulièrement, le classificateur GMM atteint un taux de classification de 100% en utilisant la base de données EMO-DB (Berlin Data base of Emotional speech) en mode indépendant du texte et dépendant du locuteur, alors que le classificateur KNN atteint un taux de classification de 99.61% avec un temps de calcul plus long par rapport au classificateur GM en_US
dc.language.iso fr en_US
dc.publisher faculté des sciences et de la technologie* univ bba en_US
dc.relation.ispartofseries ;EL/M/2024/17
dc.subject Reconnaissance acoustique du genre, coefficients MFCC, classificateur GMM, classificateur KNN, stratégie de la règle de vote. en_US
dc.title Reconnaissance acoustique du genre humain basée sur les modèles GMM en_US
dc.type Thesis en_US


Fichier(s) constituant ce document

Ce document figure dans la(les) collection(s) suivante(s)

Afficher la notice abrégée

Chercher dans le dépôt


Recherche avancée

Parcourir

Mon compte