Description du livre
Ce livre étudie les théories mathématiques de l'apprentissage automatique. La première partie du livre explore l'optimalité et l'adaptabilité du choix des pas de descente de gradient pour échapper aux points de selle stricts dans les problèmes d'optimisation non convexes. Dans la deuxième partie, les auteurs proposent des algorithmes pour trouver des minima locaux dans l'optimisation non convexe et pour obtenir des minima globaux dans une certaine mesure à partir de la deuxième loi de Newton sans friction. Dans la troisième partie, les auteurs étudient le problème de la mise en grappes subspatiales avec des données bruyantes et manquantes, problème bien motivé par des données d'applications pratiques soumises à un bruit gaussien stochastique et/ou des données incomplètes avec des entrées manquantes uniformes. Dans la dernière partie, les auteurs présentent un nouveau modèle VAR avec régularisation Elastic-Net et son modèle bayésien équivalent permettant à la fois une esparsité stable et une sélection de groupe.