Mathematica Eterna

Mathematica Eterna
Libre accès

ISSN: 1314-3344

Abstrait

Une nouvelle méthode de gradient de mémoire non monotone pour une optimisation sans contrainte

Zixing Rong et Ke Su

Dans cet article, nous avons introduit une nouvelle technique de recherche de ligne non monotone, puis nous avons proposé une méthode de gradient de mémoire non monotone modifiée, où nous remplaçons la recherche de ligne monotone d'Armijo par la nouvelle technique de recherche de ligne non monotone. L'analyse théorique et les résultats numériques indiquent que notre algorithme présente certains avantages. De plus, nous prouvons la convergence globale de l'algorithme. Au final, les résultats numériques obtenus pour un ensemble de problèmes de test standard sont rapportés, ce qui indique que les méthodes proposées sont très efficaces si nous choisissons un bon paramètre dans la méthode.

Clause de non-responsabilité: Ce résumé a été traduit à l'aide d'outils d'intelligence artificielle et n'a pas encore été révisé ou vérifié.
Top