Dépôt Institutionnel de l'Université BBA

La méthode de direction de descente pour l’optimisation multi-objectifs sans contraintes

Afficher la notice abrégée

dc.contributor.author Bennoui, Rebh
dc.date.accessioned 2021-12-23T07:49:15Z
dc.date.available 2021-12-23T07:49:15Z
dc.date.issued 2021-09
dc.identifier.other ROM 150
dc.identifier.uri https://dspace.univ-bba.dz:443/xmlui/handle/123456789/1573
dc.description.abstract La recherche opérationnelle est un ensemble de techniques récentes orientées vers la recherche du meilleur choix en vue d’aboutir le meilleur résultat possible, les premiers travaux concrets de la recherche opérationnelle datant tout à la Seconde Guerre mondial lorsque la marine américaine fait appelle aux mathématiciens, économistes, statisticiens et autres ingénieurs et chercheurs pour participer à la localisation et la réalisation d’une façon optimale au terme de coûts et du nombre, des stations d’anti-espionnage tout au long du territoire américain. En d’autre part la recherche opérationnelle peut être considérée comme un carrefour associant étroitement les méthodes et et techniques de l’économie d’entreprise, les mathématiques et l’informatique. L’optimisation est une branche des mathématiques appliquées et de la recherche opérationnelle. Elle possède ses origines depuis des siècles lorsque le philosophe Grec Pythagore formule son célèbre théorème, où dans un triangle rectangle, le carrée de la longueur de l’hypoténus est égale à la somme des carrées des longueurs des deux autres cotés. Puis utiliser par le célèbre mathématicien Grec Euclide dans le calcule et la minimisation des distances. En effet, L’optimisation est une branche des mathématiques cherchant à modéliser, à analyser et à résoudre analytiquement ou numériquement les problèmes qui consistent à minimiser ou maximiser une fonction sur un ensemble bien définis. L’optimisation joue un rôle important en recherche opérationnelle, domaine ou carrefour où se rencontre les trois disciplines à savoir l’informatique, les mathématiques et l’économie. L’optimisation intervient pratiquement dans tout les domaines les mathématiques fondamentales tel que l’industrie et l’ingénierie, en analyse numérique, en statistique pour l’estimation du maximum de vraisemblance d’une distribution, pour la recherche de stratégies dans le cadre de la théorie des jeux, ou encore en théorie du contrôle et de la commande. L’optimisation multi-objectifs est un domaine d’étude important en recherche opérationnelle, à cause de la nature multi-objectifs de la plupart des problèmes réels. Les premiers travaux menés sur les problèmes multi-objectifs furent réalisés au 19éme siècle sur des études en économie par Francis Y. Edgeworth (1845-1926) et elle a été utilisée de manière plus formelle par l’économiste italien Vilfredo Pareto (1848-1923).En effet, L’optimisation multi-objectifs permet de saisir de manière adéquate les caractéristiques essentielles des problèmes du monde réel et d’améliorer leur perception par les décideurs. 5 LISTE DES TABLEAUX LISTE DES TABLEAUX Dans la plupart des problèmes du monde réel, il ne s’agit pas d’optimiser seulement un seul critère mais plutôt d’optimiser simultanément plusieurs critères et qui sont généralement conflictuels, en production par exemple, on veut souvent minimiser le coût d’un produit mais aussi maximiser sa qualité. Contrairement à l’optimisation impliquant un seul critère où on cherche une solution dite optimale, la résolution d’un problème d’optimisation multi-objectifs consiste à déterminer un ensemble de solutions dites solutions efficaces où solutions non dominées ou solutions optimales au sens de Pareto qui correspondent au mieux aux préférences du décideur parmi les solutions dites solutions de bonne compromis. En effet, dans l’optimisation multi-objectifs les objectifs que nous voulons optimiser sont toujours contradictoires dans le sens où il n’y a pas de décision qui optimise toutes les fonctions d’objectifs simultanément. Pour la résolution des problèmes mult-objectifs, il existe plusieurs méthodes numériques et méta heuristiques parmi les plus utilisées on trouves des méthodes scalaires où paramétriques où il s’agit de transformer le problème multi-objectifs en question en un problème mono-objectifs où la solution optimale de ce dernier possède une relation étroite avec la solution optimale au problème multi-objectifs. Parmi les méthodes scalaires les plus connues on peut citer la méthode de pondération des fonctions objectifs et -contraintes où plusieurs paramètres sont utilisés, ces dernières souffre de plusieurs critiques tel que le choix des valeurs des paramètres qui pose des difficultés pour le décideurs et leur incapacité de chercher les solutions optimale dans la cas de la non-convexité des problèmes multi-objectifs. Dans le cadre de ce mémoire nous considérons le problème d’optimisation multi-objectifs non linéaire et sans contraintes de forme min x∈Rn F(x) tel que F(x) est un vecteur de fonctions R k qu’on note par (MOP). L’objectif de ce travail consiste à étudier en détail une méthode de direction de descente qui consiste à trouver une partie du front de Pareto où un sous ensemble de solutions efficaces. La méthode en question n’utilise aucun paramètre à fixer par l’utilisateur. Contrairement aux méthodes de pondération des fonctions objectifs et -contraintes où la résolution peut intégrer des sous-programmes complexes, la méthode de direction de descente consiste en résolution d’un problème quadratique semi-défini facile à résoudre. Notons aussi, dans les méthodes paramétrique la génération d’un sous-ensemble de l’ensemble Pareto peut se faire en changeant les valeurs des paramètres, par contre dans la méthode de direction de descente la détermination d’un sous-ensemble de Pareto nécessite un sous-ensemble de solutions initiales. En revanche, une modeste étude sera effectué sur quelques exemples de (MOP) convexes et non convexes en utilisant des programmes des méthodes implémentés sur MATLAB et CPLEX. Le présent travail s’organise comme suit : — Le chapitre 1 récapitule des notions de bases et préliminaires concernant l’optimisation mono-objectif sans contraintes. Les conditions d’optimalité et quelques méthodes numériques sont aussi brièvement rappelé. — Dans le chapitre 2, nous rappelons brièvement les notions de base concernant l’optimisation multi-objectifs non linéaire sans contraintes. Notamment, les notions d’optimalité au sens de Pareto et les deux méthodes scalaires à savoir la méthode de pondération des fonction objectifs et la méthode -contraintes. — Par contre, dans le 3ème chapitre nous allons étudier en détail une méthode de direction de descente développée par (Svaiter et Fliege, 2000) qui consiste à trouver un sans en- LISTE DES TABLEAUX LISTE DES TABLEAUX semble du front de Pareto. Nous utilisons les logiciel MATLAB et CPLEX pour résoudre les différents exemples de test. Une modeste étude comparative sera réaliser afin de voir l’avantage des méthodes non paramétriques sur la méthode de pondération classique. en_US
dc.language.iso fr en_US
dc.publisher Université de Bordj Bou Arreridj Faculty of Mathematics and Computer Science en_US
dc.subject La méthode de direction, optimisation multi-objectifs,optimisation multi-objectifs sans contraintes en_US
dc.title La méthode de direction de descente pour l’optimisation multi-objectifs sans contraintes en_US
dc.type Thesis en_US


Fichier(s) constituant ce document

Ce document figure dans la(les) collection(s) suivante(s)

Afficher la notice abrégée

Chercher dans le dépôt


Recherche avancée

Parcourir

Mon compte