Home
 
Attendees
Conference program
Registration
Location
Hotel information
Links
 
 
Previous editions
2002


    

Session MB10 - Optimisation non linéaire / Nonlinear Optimization

Day Monday, May 05, 2003
Room Cogeco
President Charles Audet

Presentations

14:45 First Order Optimality Conditions Tied to Local Differentiability
  Charles Audet, École Polytechnique de Montréal, GERAD et Mathématiques et génie industriel, C.P. 6079, Succ. Centre-ville, Montréal, Québec, Canada, H3C 3A7
John Dennis, Rice University, CAAM, Houston, TX, U.S.A.

Appropriate versions of the Generalized Pattern Search (GPS) algorithm can be applied to unconstrained, bound constrained or general constrained nonsmooth optimization problems. Under local strict differentiability assumptions, the two first versions are shown to converge to a stationary point. Under weaker differentiability assumptions, the method does not necessarily produce a stationary point in the Clarke sense. However, we identify a set of positive spanning directions for which the Clarke derivative is non-negative (a subset of these directions contains the GPS poll directions).


15:10 On the Optimal Geometric Design of Speed Control Humps
  Emad Khorshid, Kuwait University, Mechanical Engineering Department, P.O. Box 5969, Safat 13060, Kuwait
Mohammed Alfares, Kuwait University, Department of Mechanical Engineering, P.O. Box 5969, Safat 13060, Kuwait

An optimal geometric design of speed control hump (SCH) for roads with different speed limits is introduced. The study investigates the dynamical behavior of the driver's body components and the vehicle due to crossing on speed hump profile. An optimum design method of the SCH profile is used to control the geometric design variables. It was observed that the optimal solution did improve the objective function of satisfying the goals of speed humps.


15:35 Tests robustes de descente par différence finie automatique
  Benoit Hamelin, Université de Sherbrooke, Mathématiques et informatique, Sherbrooke, Québec, Canada, J1K 2R1
Jean-Pierre Dussault, Université de Sherbrooke, Mathématiques et informatique, 2500, boul. Université, Sherbrooke, Québec, Canada, J1K 2R1

En optimisation différentiable, les algorithmes de descente utilisent la fonction objectif pour assurer le progrès vers un minimum local en comparant la valeur de l'objectif aux points successifs engendrés par l'algorithme. Or, près d'un optimum, les différences entre les valeurs de l'objectif sont proportionnelles au carré de la distance à l'optimum, causant des difficultés numériques. Nous proposons une technique pour contourner cette difficulté numérique utilisant des différences finies.


16:00 Algorithme primal-dual de pénalité-mixte pour la programmation non linéaire non convexe
  Ahmed Fouad Elouafdi, Université de Sherbrooke, Mathématiques et informatique, 2500, boul. Université, Sherbrooke, Québec, Canada, J1K 2L2
Jean-Pierre Dussault, Université de Sherbrooke, Mathématiques et informatique, 2500, boul. Université, Sherbrooke, Québec, Canada, J1K 2R1
Abdelhamid Benchakroun, Université de Sherbrooke, Mathématiques et informatique, 2500, boul. Université, Sherbrooke, Québec, Canada, J1k2r1

La modélisation sous forme de systèmes non linéaires avec ou sans contrainte apparaît régulièrement dans les problèmes de mathématiques appliqués en optimisation. Dans cette communication, nous présentons un algorithme primal-dual de pénalité mixte pour la résolution des problèmes non linéaires non convexes. Cet algorithme combine une direction de Newton modifiée et une direction d'extrapolation. La convergence globale est renforcée par l'approche de recherche linéaire utilisant une fonction de mérite de type lagrangien augmenté.