Die Kovarianz-Matrix-Adaptations-Evolutionsstrategie (Covariance Matrix Adaptation Evolutionary Strategy, kurz CMA-ES) ist der am weitesten entwickelte globale Optimierer und weist eine für einen globalen Optimierer relativ schnelle Konvergenz auf. Bei CMA-ES kann sich der Optimierer frühere Iterationen „merken“. Dadurch lassen sich nicht nur die Leistung des Algorithmus verbessern, sondern auch lokale Optima vermeiden.
Geeignet für: Allgemeine Optimierung, insbesondere bei komplexen Problemdomänen
Ein leistungsstarker lokaler Optimierer, der basierend auf Primärdaten ein lineares Modell in einem „vertrauenswürdigen“ Bereich um den Ausgangspunkt herum aufbaut. Die modellierte Lösung wird als neuer Ausgangspunkt verwendet, bis sie zu einem akkuraten Datenmodell konvergiert. Das Trust-Region-Framework nutzt S-Parameter-Sensitivitätsinformationen, um die Anzahl der erforderlichen Simulationen zu reduzieren und den Optimierungsprozess zu beschleunigen. Es ist der robusteste Optimierungsalgorithmus.
Geeignet für: Allgemeine Optimierung, insbesondere bei Modellen mit Sensitivitätsinformationen
Mithilfe eines evolutionären Optimierungsansatzes generiert der genetische Algorithmus Punkte im Parameterbereich und verfeinert diese dann über mehrere Generationen durch zufällige Parameteränderung. Durch die Auswahl der „passendsten“ Parametersätze einer jeden Generation konvergiert der Algorithmus zu einem globalen Optimum.
Geeignet für: Komplexe Problemdomänen und Modelle mit vielen Parametern
Dieser Algorithmus gehört ebenfalls zu den globalen Optimierern. Er behandelt Punkte im Parameterbereich als sich bewegende Partikel. Bei jeder Iteration ändert sich die Partikelposition nicht nur abhängig von der besten bekannten Position eines jeden Partikels, sondern auch in Abhängigkeit der besten Position des gesamten Partikelschwarms. Die Partikelschwarmoptimierung eignet sich gut für Modelle mit vielen Parametern.
Geeignet für: Modelle mit vielen Parametern
Hierbei handelt es sich um eine lokale Optimierungsmethode, bei der anhand mehrerer über den Parameterbereich verteilter Punkte das Optimum ermittelt wird. Der Nelder-Mead-Simplex-Algorithmus ist weniger abhängig vom Ausgangspunkt als die meisten lokalen Optimierer.
Geeignet für: Komplexe Problemdomänen mit relativ wenigen Parametern, Systeme ohne gutes Anfangsmodell
Hierbei handelt es sich um einen schnellen lokalen Optimierer, der sich mittels Interpolation dem Gradienten des Parameterbereichs annähert. Das interpolierte Quasi-Newton-Verfahren weist eine schnelle Konvergenz auf.
Geeignet für: Rechenintensive Modelle
Ein einfacher wie robuster lokaler Optimierer für Einzelparameter-Probleme. Obwohl er langsamer ist als das interpolierte Quasi-Newton-Verfahren, übertrifft er dieses zuweilen bei der Genauigkeit.
Geeignet für: Einzelvariablen-Optimierung
Der Decap-Optimierer ist ein spezieller Optimierer für Leiterplatten. Er berechnet die effektivste Platzierung von Entkopplungskondensatoren mithilfe des Pareto-Optimums. Er kann verwendet werden, um entweder die Anzahl der benötigten Kondensatoren oder die Gesamtkosten zu senken und dennoch die angegebene Impedanzkurve zu erreichen.
Geeignet für: Leiterplattenlayout