Dominique Orban
RetourCahiers du GERAD
90 résultats — page 1 de 5
Cet article présente RegularizedOptimization.jl, un module Julia qui implémente des familles de méthodes d'optimisation non lisse.
référence BibTeX
Nous développons R2N, une méthode quasi-Newton modifiée pour minimiser la somme d'une fonction \(\mathcal{C}^1\) \(f\) et d'une fonction \(h\) semi-con...
Nous étendons les analyses de complexité traditionnelles des méthodes de régions de confiance pour l'optimisation sans contrainte, possiblement non convexe....
référence BibTeX
Nous présentons une analyse de la borne de complexité dans le pire des cas pour les méthodes de région de confiance en présence d'approximations du Hessien...
référence BibTeXMADNCL: a GPU implementation of algorithm NCL for large-scale, degenerate nonlinear programs
We present a GPU implementation of Algorithm NCL, an augmented Lagrangian method for solving large-scale and degenerate nonlinear programs. Although interio...
référence BibTeX
Training language models (LMs) under tight GPU memory budgets rules out standard back-propagation and motivates zeroth-order (ZO) optimization. While ZO m...
référence BibTeX
Algorithm NCL was devised to solve a class of large nonlinearly constrained optimization problems whose constraints do not satisfy LICQ at a solution. It ...
référence BibTeX
We propose a multi-precision extension of the Quadratic Regularization (R2) algorithm that enables it to take advantage of low-precision computations, and by...
référence BibTeX
Nous explorons la mise à l’échelle d’un préconditionneur spectral pour résoudre efficacement une suite de systèmes linéaires symétriques et définis positifs...
référence BibTeX
Les méthodes de pénalité constituent une classe bien connue d'algorithmes pour l'optimisation sous contraintes. Elles transforment un problème contraint en u...
référence BibTeX
JSOSuite.jl est un nouveau package Julia offrant une interface conviviale pour l'optimisation non linéaire continue. Les solveurs disponibles sont ceux de l'...
référence BibTeXRipQP: A multi-precision regularized predictor-corrector method for convex quadratic optimization
Nous présentons RipQP, un algorithme de points intérieurs pour l'optimisation quadratique convexe écrit en Julia, libre de droit, dont le code source est lib...
référence BibTeX
Les méthodes de lagrangien augmenté (AL) forment une classe bien connue d’algorithmes pour les problèmes d’optimisation sous contraintes. Elles ont été é...
référence BibTeXCorrigendum: A proximal quasi-Newton trust-region method for nonsmooth regularized optimization
The purpose of the present note is to bring clarifications to certain concepts and surrounding notation of Aravkin et al. (2022). All results therein contin...
référence BibTeX
We develop a trust-region method for minimizing the sum of a smooth term \(f\) and a nonsmooth term \(h\), both of which can be nonconvex.
Each iteratio...
An interior-point trust-region method for nonsmooth regularized bound-constrained optimization
Nous développons une méthode de points intérieurs pour l'optimisation non lisse régularisée avec contraintes de bornes. Notre méthode résout de manière ité...
référence BibTeX
La bibliothèque de sous-programmes Harwell (HSL) est une suite renommée de méthodes numériques efficaces et robustes conçus pour résoudre des problèmes mathé...
référence BibTeXPLSR1: A limited-memory partitioned quasi-Newton optimizer for partially-separable loss functions
Improving neural network optimizer convergence speed is a long-standing priority. Recently, there has been a focus on quasi-Newton optimization methods, whi...
référence BibTeX
Historically, the training of deep artificial neural networks has relied on parallel computing to achieve practical effectiveness. However, with the increas...
référence BibTeX
We introduce an iterative solver named MINARES for symmetric linear systems \(Ax \approx b\), where \(A\) is possibly singular.
MINARES is based on t...