Dépôt Institutionnel de l'Université BBA

Les méthodes proximales pour l’optimisation non différentiable

Afficher la notice abrégée

dc.contributor.author NEFNAF, kenza
dc.date.accessioned 2022-03-01T08:52:19Z
dc.date.available 2022-03-01T08:52:19Z
dc.date.issued 2020-09
dc.identifier.other MTM 259
dc.identifier.uri https://dspace.univ-bba.dz:443/xmlui/handle/123456789/2040
dc.description.abstract Les algorithmes d’optimisation sont généralement écrits pour minimiser une fonction. Si l’on désire maximiser une fonction, il suffira de minimiser son opposée. Nous nous intéressons aux méthodes d’optimisation adaptées au cas où la fonction à minimiser est convexe mais non différentiable. De manière général, les méthodes pour l’optimisation non différentiable s’inspirent largement des méthodes différentiables. Dans ce mémoire, on s’intéresse aux méthodes proximaux pour résoudre des problèmes d’optimisation non différentiable qui s’écrivent sous la forme : 8< : Minimiser F(x) = f1(x) + · · · + fm(x), x 2 Rn. (1) Où f1, f2, · · · , fm sont des fonctions convexes ne sont pas toutes différentiable. Il y a une classe spécifique d’algorithmes qui peuvent résoudre le problème d’optimisation (1). Pour m = 2, la fonction F que nous voulons minimiser n’est pas différentiable, car certains algorithmes dits de splitting permettent de minimiser la somme de fonctions en alternant des opérations élémentaires utilisant chacune des fonctions prises séparément. Ce mémoire est divisé en deux chapitres. Le premier chapitre est consacré au rappel de quelques notions de base sur la convexité et d’autre part on présente les outils spécifiques d’optimisation non lisse comme le sous différentiel et les opérateurs monotones. Nous étudierons ensuite les conditions d’optimalité dans le cadre non lisse. Dans le deuxième chapitre, on s’intéresse à l’opérateur proximal et ses propriétés. Nous étudierons plusieurs algorithmes proximaux et leur cadre d’applications, l’algorithme du point proximal, l’algorithme Forward- Backward et l’algorithme Douglas-Rachford ainsi que l’algorithme des directions alternées. Pour conclure cette partie nous verrons comment un même problème peut être réécrit de plusieurs manières et ainsi être résolu via divers algorithmes. On termine ce mémoire par une conclusion finale. en_US
dc.language.iso fr en_US
dc.publisher université de Bordj Bou-Arréridj Faculté des mathématiques et de l'informatique en_US
dc.subject Les méthodes proximales,l’optimisation non différentiable,Éléments d’analyse convexe,Algorithmes Proximaux en_US
dc.title Les méthodes proximales pour l’optimisation non différentiable en_US
dc.type Thesis en_US


Fichier(s) constituant ce document

Ce document figure dans la(les) collection(s) suivante(s)

Afficher la notice abrégée

Chercher dans le dépôt


Parcourir

Mon compte