Description du livre
Le livre est consacré à l'étude des solutions approximatives des problèmes d'optimisation en présence d'erreurs de calcul. Il contient un certain nombre de résultats sur le comportement de convergence des algorithmes dans un espace de Hilbert, qui sont connus comme des outils importants pour résoudre les problèmes d'optimisation. La recherche présentée dans le livre est la continuation et le développement du livre de l'auteur (c) 2016 Numerical Optimization with Computational Errors, Springer 2016. Les deux livres étudient les algorithmes en tenant compte des erreurs de calcul qui sont toujours présentes dans la pratique. L'objectif principal est, pour une erreur de calcul connue, de déterminer quelle solution approximative peut être obtenue et combien d'itérations il faut pour cela.
La principale différence entre ce nouveau livre et le livre de 2016 est que dans le présent ouvrage, la discussion prend en considération le fait que pour chaque algorithme, son itération consiste en plusieurs étapes et que les erreurs de calcul pour les différentes étapes sont généralement différentes. Ce fait, qui n'a pas été pris en compte dans le livre précédent, est en effet important dans la pratique. Par exemple, l'algorithme de projection du sous-gradient se compose de deux étapes. La première étape consiste à calculer un sous-gradient de la fonction objectif, tandis que la seconde consiste à calculer une projection sur l'ensemble réalisable. Dans chacune de ces deux étapes, il y a une erreur de calcul et ces deux erreurs de calcul sont en général différentes.
Il peut arriver que l'ensemble réalisable soit simple et que la fonction objective soit compliquée. En conséquence, l'erreur de calcul, faite lors du calcul de la projection, est essentiellement plus petite que l'erreur de calcul du calcul du sous-gradient. Il est clair qu'un cas contraire est également possible. Ce livre se caractérise également par l'étude d'un certain nombre d'algorithmes importants qui sont apparus récemment dans la littérature et qui ne sont pas abordés dans le livre précédent.
Cette monographie contient 12 chapitres. Le chapitre 1 est une introduction. Dans le chapitre 2, nous étudions l'algorithme de projection de sous-gradient pour la minimisation des fonctions convexes et non-lisses. Nous généralisons les résultats de [NOCE] et établissons des résultats qui n'ont pas de prototype dans [NOCE]. Dans le chapitre 3, nous analysons l'algorithme de descente du miroir pour la minimisation des fonctions convexes et non-lisses, en présence d'erreurs de calcul. Pour cet algorithme, chaque itération se compose de deux étapes. La première étape consiste à calculer un sous-gradient de la fonction objectif, tandis que la seconde consiste à résoudre un problème de minimisation auxiliaire sur l'ensemble des points réalisables. Dans chacune de ces deux étapes, il y a une erreur de calcul. Nous généralisons les résultats de [NOCE] et établissons des résultats qui n'ont pas de prototype dans [NOCE]. Au chapitre 4, nous analysons l'algorithme du gradient projeté avec une fonction objectif lisse en présence d'erreurs de calcul. Au chapitre 5, nous considérons un algorithme qui est une extension de l'algorithme du gradient projeté utilisé pour résoudre des problèmes linéaires inverses survenant dans le traitement des signaux/images. Dans le chapitre 6, nous étudions la méthode du sous-gradient continu et l'algorithme de projection du sous-gradient continu pour la minimisation des fonctions convexes non lisses et pour le calcul des points de selle des fonctions convexe-concave, en présence d'erreurs de calcul. Tous les résultats de ce chapitre n'ont pas de prototype dans [NOCE]. Dans les chapitres 7 à 12, nous analysons plusieurs algorithmes en présence d'erreurs de calcul qui n'ont pas été prises en compte dans [NOCE]. Là encore, chaque étape d'une itération comporte des erreurs de calcul et nous tenons compte du fait que ces erreurs sont, en général, différentes. Un problème d'optimisation avec une fonction objectif composite est étudié au chapitre 7. Un jeu à somme nulle avec deux joueurs est examiné au chapitre 8. Une méthode basée sur l'approximation de la diminution prévue est utilisée au chapitre 9 pour l'optimisation par convection sous contrainte. Le chapitre 10 est consacré à la minimisation des fonctions quasiconvexes. La minimisation des fonctions fortement et faiblement convexes est abordée au chapitre 11. Le chapitre 12 est consacré à une méthode généralisée de projection de sous-gradient pour la minimisation d'une fonction convexe sur un ensemble qui n'est pas nécessairement convexe.
Ce livre est intéressant pour les chercheurs et les ingénieurs travaillant dans le domaine de l'optimisation. Il peut également être utile dans les cours de préparation pour les étudiants diplômés. La principale caractéristique de ce livre qui s'adresse spécifiquement à ce public est l'étude de l'influence des erreurs de calcul pour plusieurs algorithmes d'optimisation importants. Le livre est intéressant pour les experts en applications de l'optimisation à l'ingénierie et à l'économie.