Résumé:
Les algorithmes d’optimisation sont généralement écrits pour minimiser une fonction. Si
l’on désire maximiser une fonction, il suffira de minimiser son opposée. Nous nous intéressons
aux méthodes d’optimisation adaptées au cas où la fonction à minimiser est convexe mais non
différentiable. De manière général, les méthodes pour l’optimisation non différentiable s’inspirent
largement des méthodes différentiables.
Dans ce mémoire, on s’intéresse aux méthodes proximaux pour résoudre des problèmes
d’optimisation non différentiable qui s’écrivent sous la forme :
8<
:
Minimiser F(x) = f1(x) + · · · + fm(x),
x 2 Rn.
(1)
Où f1, f2, · · · , fm sont des fonctions convexes ne sont pas toutes différentiable. Il y a une
classe spécifique d’algorithmes qui peuvent résoudre le problème d’optimisation (1).
Pour m = 2, la fonction F que nous voulons minimiser n’est pas différentiable, car certains
algorithmes dits de splitting permettent de minimiser la somme de fonctions en alternant des
opérations élémentaires utilisant chacune des fonctions prises séparément.
Ce mémoire est divisé en deux chapitres. Le premier chapitre est consacré au rappel de
quelques notions de base sur la convexité et d’autre part on présente les outils spécifiques
d’optimisation non lisse comme le sous différentiel et les opérateurs monotones. Nous étudierons
ensuite les conditions d’optimalité dans le cadre non lisse. Dans le deuxième chapitre, on
s’intéresse à l’opérateur proximal et ses propriétés. Nous étudierons plusieurs algorithmes
proximaux et leur cadre d’applications, l’algorithme du point proximal, l’algorithme Forward-
Backward et l’algorithme Douglas-Rachford ainsi que l’algorithme des directions alternées. Pour
conclure cette partie nous verrons comment un même problème peut être réécrit de plusieurs
manières et ainsi être résolu via divers algorithmes. On termine ce mémoire par une conclusion
finale.