L'optimiseur Stratégie évolutionnaire d'adaptation de la matrice de covariance (CMA-ES) est le plus sophistiqué des optimiseurs globaux. Il dispose d'une convergence relativement rapide pour un optimiseur global. Grâce à la stratégie évolutionnaire d'adaptation de la matrice de covariance, l'optimiseur peut se « souvenir » des itérations précédentes, et cet historique peut être exploité pour améliorer les performances de l'algorithme tout en évitant les optimums locaux.
Convient pour : optimisation générale, notamment les domaines à problèmes complexes
Un optimiseur local puissant qui construit un modèle linéaire sur des données primaires dans une région « de confiance » près du point de départ. La solution modélisée sera utilisée comme nouveau point de départ jusqu'à ce qu'elle converge vers un modèle précis des données. La structure de région de confiance tire parti des informations de sensibilité du paramètre S pour réduire le nombre de simulations requises et accélérer le processus d'optimisation. C'est l'algorithme d'optimisation le plus robuste.
Convient pour : optimisation générale, notamment sur les modèles intégrant des informations de sensibilité
S'appuyant sur une approche évolutionnaire de l'optimisation, l'algorithme génétique génère des points dans l'espace des paramètres, puis les affine suivant plusieurs générations avec une mutation des paramètres aléatoire. En sélectionnant les ensembles de paramètres les plus « adéquats » de chaque génération, l'algorithme converge vers un optimum global.
Convient pour : domaines avec des problèmes complexes et modèles avec de nombreux paramètres
Cet algorithme est un autre optimiseur global qui traite les points se trouvant dans l'espace des paramètres comme des particules en mouvement. À chaque itération, la position des particules change en fonction de la meilleure position connue de chaque particule, mais également de la meilleure position de tout l'essaim. L'optimisation par essaim de particules fonctionne bien pour les modèles disposant de nombreux paramètres.
Convient pour : modèles avec de nombreux paramètres
Cette méthode est une technique d'optimisation locale qui utilise différents points répartis dans l'espace des paramètres pour trouver l'optimum. L'algorithme à simplexe Nelder-Mead est moins dépendant du point de départ que la plupart des optimiseurs locaux.
Convient pour : domaines à problèmes complexes ayant relativement peu de paramètres ou les systèmes sans modèle de base approprié
Il s'agit d'un optimiseur local rapide qui utilise l'interpolation pour donner une approximation du gradient de l'espace des paramètres. La méthode interpolée quasi-Newton dispose d'une convergence rapide.
Convient pour : modèles exigeant de nombreux calculs
Un optimiseur local robuste et simple pour les problèmes à un seul paramètre. Bien qu'il soit plus lent que l'optimiseur interpolé quasi-Newton, il peut parfois être plus précis.
Convient pour : optimisation à une seule variable
L'optimiseur de condensateur de découplage (Decap Optimizer) est spécialisé dans la conception de cartes à circuits imprimés. Il calcule le placement le plus efficace des condensateurs de découplage en utilisant préalablement le principe de Pareto. Il peut être utilisé pour réduire au minimum le nombre de condensateurs requis ou le coût total tout en respectant la courbe d'impédance spécifiée.
Convient pour : agencement des cartes à circuits imprimés