Doctorat d’Informatique
Permanent URI for this collectionhdl:123456789/279
Browse
17 results
Search Results
Item Towards biometric recognition system based on explainable classifier methods(Université de Bordj Bou Arreridj Faculty of Mathematics and Computer Science, 2024) Djouamai, Zineber the past decade, biometric systems have advanced significantly, achieving high classifica tion accuracy and minimal equal error rates (EER). However, many conventional methods lack transparency and explainability, which are critical in areas like security and identity verifica tion, where trust is paramount. This limitation restricts the ability to understand these systems’ decision-making processes, making it difficult to ensure reliability and accountability in sensi tive applications. To address these challenges, we propose the development of an efficient biometric system based on explainable, rule-based classifiers. Unlike traditional approaches, our method incorpo rates explainability at its core, offering clear insights into the system’s decision-making process while maintaining high performance. This approach ensures that the system is not only accurate but also adaptable and user-friendly, enabling its application across a range of classification and predictive tasks. By prioritizing transparency alongside performance, the proposed system aims to meet the growing demand for trust and usability in biometric applications. Its dual focus on achieving low EER and delivering explainable outcomes ensures it is suitable for deployment in critical domains. This balance between accuracy and explainability positions the system as a reliable and advanced solution for high-stakes environments like security and identity managementItem Contribution à la fouille de données imparfaites(UNIVERSITY BBA, 2024) SEDDIKI, ImaneSequential rule mining is a technique in the field of data mining that allows one for the discovery of temporal relationships between events and for making predictions. The discovery of temporal relationships between events stored in large databases is important in many areas such as stock market analysis, e-learning, etc. In many real-world applications, such as wireless sensor networks, databases contain uncertain data due to factors such as missing, incomplete, or inaccurate information. Data uncertainty is modeled by an existential probability that is associated with each element in each sequence in the database. In this thesis, we focus on the extraction of uncertain sequential rules. We propose a new approach for extracting sequential rules from uncertain sequence databases, by evaluating the performance of the developed methods on synthetic and real data. ملخص استخراج القواعد التسلسلیة، المعروف أیضًا باسم استخراج الأنماط التسلسلیة، ھو تقنیة في مجال استكشاف البیانات تسمح باكتشاف العلاقات الزمنیة بین الأحداث والتنبؤ بھا. یعد اكتشاف العلاقات الزمنیة بین الأحداث المخزنة في قواعد البیانات الكبیرة مھمًا في العدید من المجالات مثل تحلیل سوق الأسھم والتعلم الإلكتروني وما إلى ذلك. في العدید من التطبیقات الواقعیة، مثل شبكات المستشعرات اللاسلكیة، تحتوي قواعد البیانات على بیانات غیر مؤكدة بسبب عوامل مثل المعلومات المفقودة أو غیر المكتملة أو غیر الدقیقة. یتم نمذجة عدم الیقین في البیانات من خلال احتمال وجودي مرتبط بكل عنصر في كل تسلسل في قاعدة البیانات. تركز ھذه الأطروحة على استخراج القواعد التسلسلیة غیر المؤكدة. نقترح نھجًا جدیدًا لاستخراج القواعد التسلسلیة من قواعد بیانات التسلسلات غیر المؤكدة، من خلال تقییم أداء الطرق المتطورة على البیانات الاصطناعیة والواقعیة.Item Privacy preserving pattern mining from uncertain databases(UNIVERSITY BBA, 2024) Mira, LefkirWith advancements in data analysis and processing techniques, the release of micro-data for research purposes, such as disease outbreak studies or economic pattern analysis, has become prevalent. However, these datasets, while valuable for researchers, often contain sensitive information that poses privacy risks to individuals. Privacy-preserving data mining (PPDM) has emerged as a critical field to address these concerns by concealing sensitive information while still enabling the extraction of useful insights. This task is NP-hard and involves the challenge of balancing the concealment of sensitive itemsets with the preservation of non-sensitive ones during data extraction. Numerous algorithms have been developed for deterministic databases, where information is binary (present or absent). This thesis explores a novel PPDM approach in the context of uncertain databases, where information is represented by probabilistic values. The sanitization process, aimed at hiding sensitive information, introduces side effects such as hiding failure, missing cost, artificial cost, and dissimilarity. These side effects are considered as objective functions to be minimized. To achieve the goal of PPDM, a Multi-Objective Optimization problem is formulated, and metaheuristic algorithms are employed. Specifically, the NSGA-II algorithm is applied, leading to the development of the NSGAII4ID algorithm for deterministic databases. This algorithm hides sensitive frequent itemsets by removing selected items from chosen transactions, representing a pioneering effort in privacy-preserving data mining. Furthermore, for uncertain databases, a novel algorithm named U-NSGAII4ID is proposed, addressing the multi-objective optimization problem by encoding a set of items to remove from selected transactions. Additionally, three heuristic approaches for PPDM in uncertain databases are introduced: the aggregate approach, which removes transactions; the disaggregate approach, which removes selected items from each transaction; and the hybrid approach, combining the two former approaches. Experimental evaluations compare these approaches, demonstrating their effectiveness in preserving sensitive itemsets in uncertain databases. *Item Fouille d’épisodes à partir de données incertaines (Episode mining from uncertain data)(UNIVERSITY BBA, 2024-06) Ouarem, OualidData mining is a critical process in the discovery of knowledge from data. Its primary objective is to extract interesting patterns that implicitly indicate significant relationships between items. Different branches of data mining manipulate various types of data. Episode mining is a subfield of data mining that aims to uncover valuable knowledge from temporal data in the form of a single, long sequence of events. The sequence may not always certain data; it may be noisy, sourced from multiple sources, or collected with errors. Consequently, there is a need to develop and design algorithms to extract frequent episodes from uncertain data. This thesis proposes novel algorithms for frequent episode and episode rule mining in the case of certain data and addresses also the challenges associated with these tasks in the context of uncertainItem Contribution à la reconnaissance du contenu Textuel dans les anciens manuscrits maghrébins(Université de Bordj Bou Arreridj Faculty of Mathematics and Computer Science, 2023) Soumia, DJAGHBELLOULe sujet principal de cette thèse est de contribuer à la reconnaissance automatique de l'écriture manuscrite maghrébine, qui est un style d'écriture présent dans le patrimoine manuscrit algérien. Les travaux de recherche ont porté sur la construction, la proposition et la publication d'une nouvelle base de données appelée HAMCDB (Handwritten Arabic Maghrebi Characters DataBase), qui est la première du genre. Cette base de données est constituée d'un ensemble d'images de caractères arabes isolés écrits dans le style maghrébin, collectées à partir d'anciens documents manuscrits selon un processus bien défini en plusieurs phases. La base de données est composée de 1560 images, réparties en deux sous-ensembles d'apprentissage et de test. La création de la base a été suivie par le développement d'un modèle de reconnaissance approprié basé sur trois phases principales : l'extraction de primitives/caractérisation, l'intégration d'une architecture profonde (auto-encoder) pour améliorer les caractéristiques, et l'approche KNN pour la classification des images. Le système développé a montré son efficacité grâce aux résultats obtenus. Cette contribution n'était pas la seule dans le domaine de la reconnaissance de l'écriture arabe manuscrite. Elle a été précédée par d'autres travaux, dont un premier document "survey" qui a défini le domaine dans son ensemble en exposant tous ses aspects, ses divers systèmes et leurs phases, ainsi que des études comparatives entre toutes les bases de données existantes (privées et publiques), ainsi qu'entre les travaux récents développés dans ce domaine. Une autre contribution a consisté à tester une nouvelle combinaison de techniques adoptées pour les caractères arabes. Le modèle a été appliqué sur une base de données publique, et les résultats obtenus ont assuré de bonnes performances du système.The main subject of this thesis is to contribute to the automatic recognition of Maghrebi handwriting, which is a writing style present in the Algerian manuscript heritage. The research work focused on the construction, proposal, and publication of a new database called HAMCDB (Handwritten Arabic Maghrebi Characters Database), which is the first of its kind. This database consists of a set of images of isolated Arabic characters written in the Maghrebi style, collected from old manuscripts according to a well-defined process in several phases. The database is composed of 1560 images, divided into two subsets for training and testing. The creation of the database was followed by the development of a suitable recognition model based on three main phases: feature extraction/characterization, integration of a deep architecture (auto-encoder) to enhance the features, and the KNN approach for image classification. The developed system demonstrated its effectiveness through the obtained results. This contribution was not the only one in the field of Arabic handwriting recognition. It was preceded by other works, including a first "survey" document that defined the field as a whole by exposing all its aspects, various systems, and their phases, as well as comparative studies between all existing databases (private and public), and recent works developed in this field. Another contribution was to test a new combination of techniques adopted for Arabic characters. The model was applied to a public database, and the obtained results ensured good performance of the system. الموضوع الرئيسي والهدف الاساسي من هذه الأطروحة هو المساهمة في التعرف الالي على الخط المغاربي، هذا الخط أو هذا النمط من الكتابة الحاضرة في تراث المخطوطات الجزائرية. في هذا الصدد، تتمثل اعمالنا في مجال التعرف الالي على الكتابة العربية المكتوبة بخط اليد، بشكل أساسي في تصميم واقتراح ونشر قاعدة بيانات جديدة وفريدة تسمى HAMCDB-Handwritten Arabic Maghrebi Characters DataBase -). تتكون قاعدة البيانات هذه من مجموعة من الصور لأحرف عربية منفردة، مكتوبة بالخط المغربي، تم جمع هذه الصور من مجموعة وثائق لمخطوطات مغربية قديمة، وباتباع طريقة منظمة جيدًا تتضمن مجموعة من المراحل، من أجل إنشاء هذه القاعدة التي تضم 1560 صورة، مقسمة إلى مجموعتين فرعيتين؛ التعلم والاختبار. عقب إنشاء قاعدة البيانات هذه تطوير نموذج التعرف المناسب، يعتمد هذا النموذج على ثلاث مراحل رئيسية: أولا استخراج خصائص او مواصفات كل صورة، والخطوة الثانية من خلال دمج بنية عميقة (التشفير التلقائي) للتحسين من هذه الخصائص وأخيرا استخدام خوارزمية KNN كنهج للقيام بعملية تصنيف هذه الصور. حيث أظهر النظام الذي تم تطويره فعاليته من خلال النتائج الجيدة التي تم الحصول عليها. ولم تكن هذه المساهمة الوحيدة، فقد سبقتها أعمال إضافية أخرى في مجال التعرف على الحروف العربية المكتوبة بخط اليد، وتتمثل أولا في انجاز أول مقال "مسح" يقوم بإعطاء وصف شامل للمجال بجميع جوانبه واساسياته وأنظمته المختلفة بمراحلها، مع تقديم دراسات مقارنة بين جميع قواعد البيانات الموجودة (الخاصة والعامة)، وايضا بين بعض الأعمال الحديثة التي تم تطويرها في هذا المجال.Item Conceptual Solutions of Modeling the Adaptive Aspect for Context-Awareness in Ubiquitous Environments(Université de Bordj Bou Arreridj Faculty of Mathematics and Computer Science, 2019) Boudjemline, HaïderWith the widespread use of mobile devices, a new generation of ubiquitous applications has emerged in daily life activities, making information available everywhere and at any moment. Context-awareness is the feature that allows these applications to be smart, by enabling them to continuously detect the user’s current situation and to assist him or her by adapting the application’s behavior accordingly. In the same vein, designing context-aware applications involves new challenges not present in traditional ones, including the perpetual variations in contextual information and the different interactions with sensors. This has propelled the software engineers to introduce additional requirements analysis and enhanced modeling techniques capable of dealing with the different contextual parameters that may affect the application’s behavior. The Unified Modeling Language (UML) is the most commonly used language to specify, visualize, and document the artifacts of software systems. Nevertheless, existing UML diagrams are too general to describe context-aware systems adequately, they do not offer suitable notations to distinguish context-awareness from other system requirements. This thesis proposes a new modeling approach called the Context Unified Modeling Language (CUML), which is an extension of UML diagrams to cater for the specification, visualization, and documentation of context-aware computing systems. In this thesis, we present a number of contributions through which we have succeeded in (i) A novel notion called ContextClass diagram, which extends the UML Class diagram to model the structure of context-aware systems by monitoring the contextual aspects that characterize them. (ii) A novel notion called ContextSequence diagram, which extends the UML Sequence diagram to model the interactions as well as the adaptation behavior of context-aware systems. (iii) A set of concrete modeling editors. (iv) A case study in the healthcare field to demonstrate the pragmatics of the proposed approachItem Issues applicatives de l’Internet des Objets(IoT) au bien être de l’être humain(Université de Bordj Bou Arreridj Faculty of Mathematics and Computer Science, 2023) Manal, LAMRIAujourd’hui il est très reconnu et accepté que les technologies et les applications de l’internet des objets (IdO) et de l’internet des services (IoS) sont dans une phase de prématurité loin de toute maturité. Les défis de recherche se situent pratiquement au niveau de tous les aspects d’une solution allant des dispositifs physiques nécessaires jusqu’aux modèles satisfaisant les besoins spécifiques de l’être humain. En d’autres termes, il y a une grande fissure entre les besoins spécifiques de l’être humain et l’innovation technologique émergeante. Dans le paradigme de l’internet des objets, plusieurs entités qui nous entourent seront interconnectées. Dans cette direction, plusieurs activités de recherche sont en train de concentrer sur les liens entre les milliers de réseaux de capteurs hétérogènes utilisant une convergence de technologies tels que, RFID (Radio Frequency Identification) qui permet à l’individu de garder trace sur tout objet sur terre et à tout moment. Dans cette recherche nous accordons un intérêt particulier à l’informatique nomadique pour investiguer son intérêt au bien être de l’être humain à l’exemple de la protection de son environnement et la bonne prise en charge de sa santé. Cette thèse met l’accent sur des modèles sémantiques de représentation des connaissances qui garantissent une description sémantique des entités dynamiques, assurent l’intégrité des connaissances et préservent la confidentialité. Today, it is widely recognized and accepted that the technologies and applications of the Internet of Things (IoT) and the Internet of Services (IoS) are far from any maturity phase. Research challenges are found practically in all aspects of a solution, ranging from the physical devices necessary to the models satisfying the specific needs of the human being. In other words, there is a big gap between the particular needs of human beings and emerging technological innovation. In the Internet of Things paradigm, many entities around us will be interconnected. In this direction, several research activities focus on the links between the thousands of heterogeneous sensors networks using a convergence of technologies, such as RFID (Radio Frequency Identification) that allow the individual to keep track of any object on earth and at any time. In this research, we take a particular interest in nomadic computing to investigate its interest in the well-being of human beings, such as the protection of their environment and the good support of their health. This thesis focuses on semantic models of knowledge representation that guarantee a semantic description of dynamic entities, ensure knowledge integrity and preserve confidentialityItem Optimisation de l’extraction des caractéristiques des données biométriques(CHALABI Nour el houda, 2022-07-13) CHALABI, Nour el houda; BOUZIANE, Abderraouf (Directeur de thése)Poussée par le besoin de sécurité, la biométrie en tant que domaine de recherche a atteint un stade assez progressif où elle est très utilisée. En prenant en compte le temps qu'a pris la biométrie pour atteindre ce point, on peut dire, sans risque de se tromper, qu'elle a pu trouver assez rapidement sa place dans la routine quotidienne des êtres humains. De nos jours, nous assistons à un grand saut dans une technologie où les matériels d'acquisitions utilisés en biométrie sont de bonne qualité, ce qui conduit à une immense quantité de données capturées. Maintenant, disposer d'une énorme quantité de données peut être bénéfique, mais cela consomme, généralement, beaucoup de temps pour les traiter toutes. Par conséquent, l'intervention d'une autre discipline capable de contrôler le flux pour sélectionner les "caractéristiques" de données les plus pertinentes est indispensable, par exemple l'optimisation peut remplir ce rôle. Le visage est l'un des traits biométriques les plus largement utilisé et accepté. Les systèmes de reconnaissance faciale sont maintenant utilisés dans de nombreuses applications allant des scénarios individuels (l’authentification des utilisateurs de smartphones) aux scénarios à grande échelle (le contrôle des passages frontaliers). La plupart des systèmes de reconnaissance faciale utilisent la sélection des caractéristiques après extraction des caractéristiques pour améliorer la précision du système. En d'autres termes, la sélection des caractéristiques est l'une des phases importantes que tout système de reconnaissance doit effectuer car les résultats finaux en dépendent. Cette thèse aborde principalement l'aspect de sélection des caractéristiques dans la reconnaissance faciale, où nous avons introduit une méthode de sélection de caractéristiques optimisée et basée sur Particle Swarm Optimization (PSO) pour sélectionner un bloc de caractéristiques au lieu d'une seule caractéristique. Afin d'assurer le caractère distinctif et les variations des caractéristiques dans un système de reconnaissance faciale. D’abord l'image du visage est capturée et divisée en un nombre régulier de blocs (sous-images), puis le descripteur local des caractéristiques Binarized Statistical local features (BSIF) est appliqué sur chaque bloc pour l'extraction des caractéristiques. Ensuite, un schéma PSO est utilisé pour sélectionner les blocs. Le KNN classificateur est utilisé pour obtenir la valeur de la fonction objectif (ici, Error Equal Rate (EER)) pour la sélection de bloc. Les blocs avec les plus petits EER sont choisis pour représenter l’individu. Les résultats expérimentaux sur la base de données publique de visages ORL montrent des résultats prometteurs. En plus de la sélection des caractéristiques dans cette thèse, nous avons également abordé la question de l'extraction des caractéristiques et de la réduction de la dimensionnalité en proposant un nouveau descripteur basé sur la représentation du signal monogénique et le descripteur BSIF pour extraire les caractéristiques distinctives et pertinentes de l'image du visage, nommé (M-BSIF). Notre schéma de description des caractéristiques proposé, applique d'abord un mécanisme passe-bande via un filtre logGabor sur l'image, puis un filtre monogénique est appliqué pour décomposer l'image du visage en trois composants complémentaires. Ensuite, BSIF est utilisé pour coder ces composants complémentaires afin d'extraire les caractéristiques M-BSIF. Des analyses expérimentales sur trois bases de données accessibles au public (c'est-à-dire ORL, AR, JAFFE) démontrent l'efficacité du descripteur M-BSIF.Item Réduction de la dimensionnalité pour l’amélioration des performances d’identification biométrique(Université de Bordj Bou Arreridj, 2018-10-28) Adjimi, AhlemRésumé Dans le domaine de l'identification des empreintes digitales, le codage des histogrammes locaux est l'une des techniques les plus utilisées pour la représentation de l'empreinte digitale en raison de sa simplicité. Cette technique est basée sur la concaténation des histogrammes locaux résultant en un histogramme de grande dimension qui cause deux problèmes. Premièrement, un long temps de calcul et de grandes capacités de mémoire sont requis avec des bases de données en croissance. Deuxièmement, le taux de reconnaissance peut être dégradé en raison du phénomène de la malédiction de la dimensionnalité. Afin de résoudre ces problèmes, nous proposons de réduire la dimensionnalité des histogrammes en choisissant uniquement les bins pertinents en utilisant une approche de sélection de caractéristiques basée sur le calcul de l'information mutuelle. Pour l'extraction des caractéristiques d'empreintes digitales, nous utilisons quatre descripteurs: Local Binary Patterns (LBP), Histogramme of Gradients (HoG), Local Phase Quantization (LPQ) et Binarized Statistical Image Features (BSIF). En tant que méthodes de sélection basées sur l'information mutuelle, nous utilisons cinq stratégies: Mutual Information Feature Selection (MIFS), minimum Redundancy and Maximal Relevance (mRMR), Conditional Infomax Feature Extraction (CIFE), Joint Mutual Information (JMI) et Interaction Capping (ICAP). Nous comparons les résultats en termes de taux de reconnaissance et de nombre de caractéristiques sélectionnées pour les descripteurs étudiés et les stratégies de sélection. Nos résultats sont réalisés sur les quatre bases de données FVC 2002 qui présentent différentes qualités d'image. Nous montrons que la combinaison de la méthode de sélection de caractéristiques ICAP avec les caractéristiques BSIF et mRMR ou CIFE avec les caractéristiques HoG donne les meilleurs résultats. Les expérimentations ont montré aussi qu'un nombre élevé de sous-images extraites conduisent à un taux de reconnaissance élevé, mais conduisent également à un histogramme de grande dimension qui a diminué les performances du système en termes de temps de calcul et de capacité mémoire. Ainsi la sélection des caractéristiques peut éviter ce problème Nous montrons également que la sélection des caractéristiques utiles de l'empreinte digitale peut certainement améliorer le taux de reconnaissance et réduire la complexité du système. Mots-clés : Réduction de la dimensionnalité, pertinence, classification, BiométrieItem Optimisation de l’énergie dans les systèmes pair-à-pair(Université de Bordj Bou Arreridj, 2017) Cherbal, SarraLes systèmes pair-à-pair à base de table de hachage distribuée (DHT) ont connu une grande popularité en termes de performance. Ils ont connu de multiples améliorations pour augmenter l’efficacité, comme le mécanisme de réplication qui sert à améliorer la disponibilité des données et l’adaptation à la topologie dynamique. Outre ces avantages, ces méthodes souffrent de trafic excessif généré lors du processus de maintenance des données répliquées. Le déploiement de l’overlay DHT au réseau mobile ad-hoc, bénéficie certes de l’architecture sans infrastructure, mais présente certaines lacunes en raison de la bande passante et l’énergie limitée, ce qui nécessite une réduction d’overhead. C’est dans ce contexte que s’inscrit l’objectif de ce travail, avec en prime l’amélioration de l’efficacité de recherche de Chord à base de DHT sur un underlay de réseau ad-hoc mobile. Pour cela, nous proposons un mécanisme de réplication basé sur une nouvelle formule qui détermine l’emplacement des noeuds de répliques ; un processus de recherche qui vise à réduire le chemin de recherche et un mécanisme de maintenance qui s’adapte à la topologie dynamique tout en évitant l’overhead excessif. En conclusion, ce travail permet d’améliorer les performances de la recherche dans CHORD sans générer de trafic excessif, pour un Chord mobile plus efficace en énergie. La méthode proposée est évaluée suite à une étude de simulation étendue. Mots clés : Système pair à pair; Chord; DHT « table de hachage distribuée »; overhead; réseau ad hoc mobile.