Metaheuristik

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

In der Informatik und der mathematischen Optimierung ist eine Metaheuristik (von altgriechisch μετα (über, darüber) und εὑρίσκειν heurískein (auffinden, entdecken)) ein Verfahren oder eine Heuristik auf höherer Ebene. Es dient dazu, eine oder mehrere Heuristiken (auf Erfahrung und begrenztem Wissen beruhender Suchalgorithmus) zu finden, zu generieren, zu tunen oder auszuwählen, die eine hinreichend gute Lösung für ein Optimierungsproblem oder ein Problem des maschinellen Lernens bieten kann, insbesondere bei unvollständigen oder unvollkommenen Informationen oder begrenzter Rechenleistung.[1][2][3] Metaheuristiken können mit relativ wenigen Annahmen über das zu lösende Optimierungsproblem auskommen und sind daher für eine Vielzahl von Problemen verwendbar.[2][4][5] Ihr Einsatz ist immer dann von Interesse, wenn exakte oder andere (Näherungs-)Verfahren nicht zur Verfügung stehen oder nicht zielführend sind, sei es wegen zu langer Rechenzeiten oder weil z. B. die gelieferte Lösung zu ungenau ist.

Im Vergleich zu exakten Optimierungsalgorithmen und iterativen Methoden der numerischen Mathematik garantieren Metaheuristiken nicht, dass für eine bestimmte Klasse von Problemen das globale Optimum gefunden werden kann.[3] Viele Metaheuristiken implementieren eine Form der stochastischen Optimierung, so dass die gefundene Lösung von den erzeugten Zufallsvariablen abhängt und jeder Optimierungslauf ein anderes Ergebnis bringen kann und seien die Unterschiede auch nur gering.[6] In der kombinatorischen Optimierung gibt es viele Aufgabenstellungen, die zur Klasse der NP-vollständigen Probleme gehören. Sie sind damit ab einem relativ geringen Komplexitätsgrad nicht mehr in akzeptabler Zeit exakt lösbar.[7][8] Metaheuristiken liefern dann oft gute Lösungen mit weniger Rechenaufwand als iterative Methoden, Näherungsverfahren oder einfache Heuristiken.[2][3][6] Dies gilt ebenfalls im Bereich der kontinuierlichen oder mixed-integer Optimierung.[2][9][10] Mehrere Bücher und Übersichtsarbeiten sind zu diesem Thema veröffentlicht worden.[2][3][6][11] Der Begriff Metaheuristik geht auf Fred Glover zurück,[12] der sie als Lösungsmethoden beschrieb, die eine Interaktion zwischen lokalen Verbesserungsverfahren und Strategien auf höherer Ebene organisieren, um einen Prozess zu schaffen, der in der Lage ist, aus lokalen Optima zu entkommen und eine robuste Suche in einem Lösungsraum durchzuführen.[2]

Generell hängen Erfolg und Laufzeit metaheuristischer Verfahren entscheidend von der Definition und Implementierung der einzelnen Schritte ab. Es gibt keine Metaheuristik, die für beliebige Probleme besser ist als alle anderen (No-free-Lunch-Theoreme). Die meiste Literatur über Metaheuristiken ist experimenteller Natur und beschreibt empirische Ergebnisse auf der Grundlage von Computerexperimenten mit den Algorithmen. Es liegen aber auch einige formale theoretische Ergebnisse vor, häufig zur Konvergenz und zur Möglichkeit, das globale Optimum zu finden.[3][13]

Eigenschaften von Metaheuristiken[Bearbeiten | Quelltext bearbeiten]

Nachstehende Eigenschaften kennzeichnen die meisten Metaheuristiken:[3]

  • Metaheuristiken sind Strategien, die einen Suchprozess steuern.
  • Das Ziel besteht darin, den Suchraum effizient zu erkunden, um optimale oder nahezu optimale Lösungen zu finden.
  • Die Techniken, die metaheuristische Algorithmen kennzeichnen, reichen von einfachen lokalen Suchverfahren bis hin zu komplexen Lernprozessen.
  • Metaheuristische Algorithmen sind approximativ und in der Regel nicht-deterministisch.
  • Metaheuristiken sind nicht problemspezifisch. Sie wurden allerdings häufig bezogen auf eine Problemklasse wie die der kontinuierlichen[14][15] oder der kombinatorischen Optimierung[16] entwickelt und dann zum Teil erst später verallgemeinert.[17][18]
  • Sie können auf domänenspezifisches Wissen in Form von Heuristiken zurückgreifen, die von der übergeordneten Strategie gesteuert werden.
  • Sie können Mechanismen enthalten, die vermeiden, dass sie in bestimmten Bereichen des Suchraums stecken bleiben.
  • Moderne Metaheuristiken nutzen häufig den Suchverlauf, um die Suche zu steuern.

Beispiele für Metaheuristiken[Bearbeiten | Quelltext bearbeiten]

Viele Metaheuristiken basieren auf dem Prinzip der lokalen Suche:

  1. Bestimme eine Startlösung L.
  2. Definiere eine Nachbarschaft von zu L „ähnlichen“ Lösungen.
  3. Suche diese Nachbarschaft vollständig ab und bestimme die beste Lösung.

Die genaue Definition der einzelnen Schritte hängt vom untersuchten Problem ab (für Beispiele siehe lokale Suche), und die so gefundene Lösung ist in der Regel nicht das globale Optimum. Durch Tabu-Listen kann vermieden werden, dass bereits gefundene Lösungen wiederholt betrachtet werden. Um das Steckenbleiben in lokalen Optima so weit wie möglich zu verhindern, kann man beispielsweise

Klassifikation[Bearbeiten | Quelltext bearbeiten]

Es gibt eine Vielzahl von Metaheuristiken[2][6] und eine Reihe von Eigenschaften, anhand derer sie klassifiziert werden können.[1][3][19][20] Die nachstehende Liste ist daher exemplarisch zu verstehen.

Populationsbasierte versus Einzelpunktsuche[Bearbeiten | Quelltext bearbeiten]

Ein Unterscheidungsmerkmal besteht in Anzahl der parallel betrachteten Lösungen: Suche mit einem Punkt im Suchraum oder einer vorgegebenen Menge, meist Population genannt.[3][11] Einzellösungsansätze basieren auf der Modifizierung und Verbesserung eines einzelnen Lösungskandidaten. Beispiele sind Simulated Annealing, Tabu Search, Iterated Local Search,[21] Variable Neighborhood Search[22], GRASP[23] oder Guided Local Search[24]. Ihnen gemeinsam ist die Eigenschaft, während des Suchvorgangs eine Bewegungsbahn im Suchraum zu beschreiben.[3] Bei populationsbasierten Ansätzen werden mehrere Lösungskandidaten bearbeitet und verbessert, wobei häufig Populationsmerkmale zur Steuerung der Suche verwendet werden. Zu den typischen Vertretern zählen alle Arten evolutionärer Algorithmen, Scatter Search,[25][26] die Partikelschwarmoptimierung und die Ameisenalgorithmen. Ebenfalls auf einer Population basiert das Konzept der Schwarmintelligenz als das kollektive Verhalten dezentralisierter, selbstorganisierter Systeme, unabhängig davon ob sie natürlich oder künstlich sind.[27]

Lokale versus globale Suche[Bearbeiten | Quelltext bearbeiten]

Ein weiteres wichtiges Unterscheidungsmerkmal betrifft die Art der Suchstrategie.[3] Bei lokal suchenden Verfahren wird die Nachbarschaft eines Startpunktes untersucht. Ein typischer Vertreter ist der einfache Bergsteiger-Algorithmus, bei dem die Gefahr groß ist, an einem Suboptimum hängen zu bleiben. Um die Suche auszuweiten, wurden unterschiedliche Strategien entwickelt, Gebiete des Suchraums von minderer Qualität zu überspringen. Zu den sich daraus ergebenden Metaheuristiken zählen alle zuvor genannten Verfahren der Einzelpunktsuche. Im Gegensatz dazu suchen alle zuvor genannten populationsbasierten Metaheuristiken von vornherein global.

Hybridisierung und memetische Algorithmen[Bearbeiten | Quelltext bearbeiten]

Eine hybride Metaheuristik ist eine Kombination aus einer Metaheuristik und anderen Optimierungsverfahren, wie z. B. Algorithmen der mathematischen Optimierung, der Constraintprogrammierung oder des maschinellen Lernens.[1][28] Beide Komponenten einer hybriden Metaheuristik können gleichzeitig laufen und Informationen austauschen, um die Suche zu steuern.[29]

Memetische Algorithmen nutzen die Synergie von populationsbasierten und darunter insbesondere von evolutionären Verfahren und separaten individuellen Lern- oder lokalen Verbesserungsalgorithmen.[30] Ein Beispiel für einen memetischen Algorithmus ist die Verwendung eines oder mehrerer lokaler Suchverfahren zusätzlich zu oder anstelle von Mutationsoperatoren in evolutionären Algorithmen.[31] Dabei kann die Metaheuristik um eine Lernkomponente erweitert werden, um den Einsatz der lokalen Suchverfahren oder Heuristiken basierend auf Erfolg und Aufwand zu steuern.[32][33]

Parallele Metaheuristiken[Bearbeiten | Quelltext bearbeiten]

Parallele Metaheuristik nutzt Techniken der parallelen Programmierung, um mehrere metaheuristische Suchläufe parallel laufen zu lassen; diese können von einfachen verteilten Läufen bis hin zu gleichzeitigen Suchläufen reichen, die zur Verbesserung der Gesamtlösung zusammenwirken.[3][34] Bei populationsbasierten Metaheuristiken kann einerseits die Population selbst parallelisiert werden, indem entweder jedes Individuum oder eine Gruppe von einem eigenen Thread bearbeitet wird oder die Metaheuristik selbst läuft auf einem Rechner und die Nachkommen werden pro Iteration verteilt bewertet.[35] Letzteres ist vor allem dann sinnvoll, wenn der Rechenaufwand für die Bewertung erheblich größer ist als der zur Erzeugung von Nachkommen. Dies ist bei vielen praktischen Anwendungen der Fall, insbesondere bei simulationsgestützten Berechnungen der Lösungsqualität.[36][37]

Von der Natur inspirierte Metaheuristiken[Bearbeiten | Quelltext bearbeiten]

Ein sehr aktives Forschungsgebiet stellt die Entwicklung und Erprobung naturinspirierter Metaheuristiken dar. So war die Physik von Abkühlungsvorgängen Vorbild beim Simulated Annealing und die Grundlagen der biologischen Fortpflanzung standen Pate bei allen Arten evolutionärer Algorithmen. Bei den Ameisenalgorithmen wird das natürliche Verhalten von Ameisen auf der Wegsuche modelliert und die Partikelschwarmoptimierung geht auf das Verhalten von Vogel- oder Fischschwärmen zurück.

Andererseits ist in letzter Zeit eine sehr große Zunahme an metapher- und naturinspirierten Metaheuristiken zu beobachten. Dies hat zu Kritik in der Forschungsgemeinschaft geführt, da es vielen diesbezüglichen Publikationen an wissenschaftlicher Tiefe, Neuheit oder dem Nachweis der Tauglichkeit oder Überlegenheit über ältere und erprobte Verfahren mangelt.[38][39][40][41] Das hat auch dazu geführt, dass die Veröffentlichungsrichtlinien von etlichen Fachzeitschriften entsprechend angepasst wurden.[42][43][44]

Anwendungen[Bearbeiten | Quelltext bearbeiten]

Die meisten Metaheuristiken sind Suchverfahren und bei deren Anwendung ist zu beachten, dass an die Bewertungsfunktion größere Ansprüche als bei einer mathematischen Optimierung gestellt werden sollten. Denn es muss nicht nur der gewünschte Zielzustand formuliert werden, sondern die Bewertung sollte auch Verbesserungen einer Lösung auf dem Weg zum Ziel belohnen, soweit dies nicht bereits Bestandteil der Zielfunktion ist. Als Beispiel können die Fitnessfunktionen von evolutionären oder memetischen Algorithmen dienen.

Metaheuristiken werden für alle Arten von Optimierungsproblemen eingesetzt, von kontinuierlichen über gemischt-ganzzahlige Probleme bis hin zur kombinatorischen Optimierung oder Kombinationen davon.[9][29][45] Bei der kombinatorischen Optimierung wird eine optimale Lösung in einem diskreten Suchraum gesucht. Ein Beispiel ist das Problem des Handlungsreisenden, bei dem der Suchraum der Lösungsvorschläge mit zunehmender Größe des Problems schneller als exponentiell wächst, was eine vollständige Suche nach der optimalen Lösung undurchführbar macht.[46][47] Ein weiteres Beispiel sind alle Arten von Schedulingaufgaben, wie z. B. die Produktionsplanung, bei der die einzelne Arbeitsschritte zur Herstellung eines Produkt unterschiedlichen Bearbeitungsstationen zeitlich so zuzuordnen sind, dass alle rechtzeitig fertig werden und die Gesamtbearbeitungszeit möglichst kurz ist.[7][4][48] Bei praktischen Anwendungen müssen häufig zusätzliche Restriktionen beachtet werden, z. B. eine Begrenzung der zulässigen Abfolge einiger Arbeitsschritte eines Jobs durch vordefinierte Workflows[49] und/oder hinsichtlich der Ressourcennutzung, z. B. in Form einer Glättung des Energiebedarfs und der Vermeidung von Verbrauchsspitzen.[50][51]

Ein weiteres großes Anwendungsgebiet sind Optimierungsaufgaben in kontinuierlichen oder gemischt-ganzzahligen Suchräumen, da viele technische Entwurfsprobleme, wie z. B. die Form- und Verhaltensfindung, ebenfalls dem Problem hoher Dimensionalität oder dem von Nichtlinearitäten unterliegen, was sie für exakte Analysemethoden oder eine umfassende Suche unzugänglich macht.[52][5][53][54] Auch bei anderen ingenieurtechnischen Aufgabenstellungen kommen Metaheuristiken zum Einsatz.[55][56][57] Ein Beispiel für eine Anwendung mit gleichzeitiger kombinatorischer und kontinuierlicher Optimierung ist die Planung günstiger Bewegungsbahnen für Industrieroboter.[58][59]

Es gibt eine Reihe von Framework-Implementierungen für Metaheuristiken, die eine oder mehrere Metaheuristiken zusammen mit nützlichen Tools enthalten. Eine umfassende Übersicht und Bewertung kann in[60] gefunden werden. Zu der darin vermisste Unterstützung paralleler Implementierungen gab es vor allem ab Ende der 2010er Jahre eine Reihe von Arbeiten.[61][37][62][63][36]

Literatur[Bearbeiten | Quelltext bearbeiten]

  • Rafael Martí, Panos M. Pardalos, Mauricio G. C. Resende (Hrsg.): Handbook of Heuristics. Springer International Publishing, Cham 2018, ISBN 978-3-319-07123-7, doi:10.1007/978-3-319-07124-4.
  • Bassem Jarboui, Patrick Siarry, Jacques Teghem (Hrsg.): Metaheuristics for Production Scheduling (= Automation - control and industrial engineering series). Wiley & Sons Ltd, 2013, ISBN 978-1-84821-497-2, doi:10.1002/9781118731598.
  • Timothy Ganesan, Pandian Vasant, Irraivan Elamvazuthi: Advances in Metaheuristics: Applications in Engineering Systems. CRC Press, Taylor & Francis Group, Boca Raton, FL, USA 2016, ISBN 978-1-315-29765-1, doi:10.1201/9781315297651.
  • Mohamed Abdel-Basset, Laila Abdel-Fatah, Arun Kumar Sangaiah: Metaheuristic Algorithms: A Comprehensive Review. In: Arun Kumar Sangaiah, Michael Sheng, Zhiyong Zhang (Hrsg.): Intelligent Data-Centric Systems, Computational Intelligence for Multimedia Big Data on the Cloud with Engineering Applications (= Intelligent data centric systems). Academic Press, an imprint of Elsevier, London Cambridge, MA 2018, ISBN 978-0-12-813314-9, S. 185–231, doi:10.1016/B978-0-12-813314-9.00010-4.
  • Luis Velasco, Hector Guerrero, Antonio Hospitaler: A Literature Review and Critical Analysis of Metaheuristics Recently Developed. In: Archives of Computational Methods in Engineering. Band 31, Nr. 1, Januar 2024, ISSN 1134-3060, S. 125–146, doi:10.1007/s11831-023-09975-0.

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. a b c Günther R. Raidl: A Unified View on Hybrid Metaheuristics. In: Francisco Almeida et al. (Hrsg.): Hybrid Metaheuristics, Conf. Proc of Third Int. Workshop (HM 2006). LNCS 4030. Springer, Berlin, Heidelberg 2006, ISBN 3-540-46384-4, S. 1–12, doi:10.1007/11890584_1.
  2. a b c d e f g Fred Glover, Gary A. Kochenberger (Hrsg.): Handbook of Metaheuristics (= International Series in Operations Research & Management Science. Band 57). Springer US, Boston, MA 2003, ISBN 1-4020-7263-5, doi:10.1007/b101874.
  3. a b c d e f g h i j k Christian Blum, Andrea Roli: Metaheuristics in combinatorial optimization: Overview and conceptual comparison. In: ACM Computing Surveys. Band 35, Nr. 3, September 2003, ISSN 0360-0300, S. 268–308, doi:10.1145/937503.937505.
  4. a b Bassem Jarboui, Patrick Siarry, Jacques Teghem (Hrsg.): Metaheuristics for production scheduling (= Automation - control and industrial engineering series). Wiley & Sons, London 2013, ISBN 978-1-84821-497-2.
  5. a b Shubham Gupta, Hammoudi Abderazek, Betül Sultan Yıldız, Ali Riza Yildiz, Seyedali Mirjalili, Sadiq M. Sait: Comparison of metaheuristic optimization algorithms for solving constrained mechanical design optimization problems. In: Expert Systems with Applications. Band 183, November 2021, S. 115351, doi:10.1016/j.eswa.2021.115351 (elsevier.com [abgerufen am 3. Dezember 2023]).
  6. a b c d Leonora Bianchi, Marco Dorigo, Luca Maria Gambardella, Walter J. Gutjahr: A survey on metaheuristics for stochastic combinatorial optimization. In: Natural Computing. Band 8, Nr. 2, Juni 2009, ISSN 1567-7818, S. 239–287, doi:10.1007/s11047-008-9098-4.
  7. a b Peter Brucker, Sigrid Knust: Complex Scheduling. Springer, Berlin, Heidelberg 2012, ISBN 978-3-642-23928-1, doi:10.1007/978-3-642-23929-8.
  8. Christos H. Papadimitriou, Kenneth Steiglitz: Combinatorial optimization: algorithms and complexity. Dover Publ., korrigierte, ungekürzte Neuauflage des 1982 bei Prentice-Hall erschienenen Werks., Mineola, NY, USA 2000, ISBN 0-486-40258-4.
  9. a b Ahmed G. Gad: Particle Swarm Optimization Algorithm and Its Applications: A Systematic Review. In: Archives of Computational Methods in Engineering. Band 29, Nr. 5, August 2022, ISSN 1134-3060, S. 2531–2561, doi:10.1007/s11831-021-09694-4.
  10. Zhenhua Li, Xi Lin, Qingfu Zhang, Hailin Liu: Evolution strategies for continuous optimization: A survey of the state-of-the-art. In: Swarm and Evolutionary Computation. Band 56, August 2020, S. 100694, doi:10.1016/j.swevo.2020.100694 (elsevier.com [abgerufen am 21. November 2023]).
  11. a b El-Ghazali Talbi: Metaheuristics: from design to implementation. Wiley, Hoboken, NJ, USA 2009, ISBN 978-0-470-27858-1.
  12. Fred Glover: Future paths for integer programming and links to artificial intelligence. In: Computers & Operations Research. Band 13, Nr. 5, Januar 1986, ISSN 0305-0548, S. 533–549, doi:10.1016/0305-0548(86)90048-1.
  13. Günter Rudolph: Self-adaptive mutations may lead to premature convergence. In: IEEE Transactions on Evolutionary Computation. Band 5, Nr. 4, August 2001, S. 410–414, doi:10.1109/4235.942534 (ieee.org [abgerufen am 25. November 2023]).
  14. Ingo Rechenberg: Evolutionsstrategie '94 (= Werkstatt Bionik und Evolutionstechnik. Nr. 1). Frommann-Holzboog, Stuttgart 1994, ISBN 3-7728-1642-8.
  15. R. Eberhart, J. Kennedy: A new optimizer using particle swarm theory. IEEE, 1995, ISBN 0-7803-2676-8, S. 39–43, doi:10.1109/MHS.1995.494215 (ieee.org [abgerufen am 25. November 2023]).
  16. Alberto Colorni, Marco Dorigo, Vittorio Maniezzo: Distributed Optimization by Ant Colonies. In: F. Varela, P. Bourgine (Hrsg.): Conf. Proc. of European Conf. on Artificial Life (ECAL'91). Elsevier Publ., Amsterdam 1991, S. 134–142 (researchgate.net).
  17. Volker Nissen, Matthias Krause: Constrained Combinatorial Optimization with an Evolution Strategy. In: Fuzzy Logik. Springer Berlin Heidelberg, Berlin, Heidelberg 1994, ISBN 3-540-58649-0, S. 33–40, doi:10.1007/978-3-642-79386-8_5 (springer.com [abgerufen am 25. November 2023]).
  18. Krzysztof Socha, Marco Dorigo: Ant colony optimization for continuous domains. In: European Journal of Operational Research. Band 185, Nr. 3, März 2008, S. 1155–1173, doi:10.1016/j.ejor.2006.06.046 (elsevier.com [abgerufen am 25. November 2023]).
  19. Fred Glover, Kenneth Sörensen: Metaheuristics. In: Scholarpedia. Band 10, Nr. 4, 2015, ISSN 1941-6016, S. 6532, doi:10.4249/scholarpedia.6532 (scholarpedia.org [abgerufen am 25. November 2023]).
  20. Mauro Birattari, Luis Paquete, Thomas Stützle, Klaus Varrentrapp: Classification of Metaheuristics and Design of Experiments for the Analysis of Components. 2001 (semanticscholar.org).
  21. H.R. Lourenço, O. Martin, T. Stützle: Iterated Local Search. In: Fred Glover, Gary A. Kochenberger (Hrsg.): Handbook of Metaheuristics (= International series in operations research & management science. Band 57). 2. Auflage. Springer, New York, NY, USA 2010, ISBN 978-1-4419-1663-1, S. 320–353, doi:10.1007/b101874 (springer.com [abgerufen am 25. November 2023]).
  22. Pierre Hansen, Nenad Mladenović, José A. Moreno Pérez: Variable neighbourhood search: methods and applications. In: Annals of Operations Research. Band 175, Nr. 1, März 2010, ISSN 0254-5330, S. 367–407, doi:10.1007/s10479-009-0657-6.
  23. Thomas A. Feo, Mauricio G. C. Resende: Greedy Randomized Adaptive Search Procedures. In: Journal of Global Optimization. Band 6, Nr. 2, März 1995, ISSN 0925-5001, S. 109–133, doi:10.1007/BF01096763.
  24. Christos Voudouris, Edward Tsang: Guided local search and its application to the traveling salesman problem. In: European Journal of Operational Research. Band 113, Nr. 2, März 1999, S. 469–499, doi:10.1016/S0377-2217(98)00099-X (elsevier.com [abgerufen am 25. November 2023]).
  25. Fred Glover: Heuristics for Integer Programming Using Surrogate Constraints. In: Decision Sciences. Band 8, Nr. 1, Januar 1977, ISSN 0011-7315, S. 156–166, doi:10.1111/j.1540-5915.1977.tb01074.x.
  26. Jose A. Egea, Eva Balsa-Canto, María-Sonia G. García, Julio R. Banga: Dynamic Optimization of Nonlinear Processes with an Enhanced Scatter Search Method. In: Industrial & Engineering Chemistry Research. Band 48, Nr. 9, 6. Mai 2009, ISSN 0888-5885, S. 4388–4401, doi:10.1021/ie801717t.
  27. Gerardo Beni, Jing Wang: Swarm Intelligence in Cellular Robotic Systems. In: Robots and Biological Systems: Towards a New Bionics? Springer, Berlin, Heidelberg 1993, ISBN 3-642-63461-3, S. 703–712, doi:10.1007/978-3-642-58069-7_38.
  28. Christian Blum, Andrea Roli: Hybrid Metaheuristics: An Introduction. In: C. Blum, M.J.B. Aguilera, A. Roli, M. Sampels (Hrsg.): Hybrid Metaheuristics (= Studies in Computational Intelligence. Band 114). Springer, Berlin, Heidelberg 2008, ISBN 978-3-540-78294-0, S. 1–30, S.17, doi:10.1007/978-3-540-78295-7_1 (researchgate.net [abgerufen am 27. November 2023]).
  29. a b F. Almeida, M.J.B. Aguilera, C. Blum, J.M.M. Vega, M.P. Pérez, A.Roli, M. Sampels (Hrsg.): Hybrid Metaheuristics: Third International Workshop, HM 2006, Proceedings (= Lecture Notes in Computer Science. Band 4030). Springer, Berlin Heidelberg 2006, ISBN 3-540-46384-4, doi:10.1007/11890584.
  30. Pablo Moscato: On Evolution, Search, Optimization, Genetic Algorithms and MartialArts: Towards Memetic Algorithms. Caltech Concurrent Computation Program, Technical Report 826. California Institute of Technology, Pasadena, CA, USA 1989, S. 19–20 (researchgate.net [PDF]).
  31. Ferrante Neri, Carlos Cotta, Pablo Moscato (Hrsg.): Handbook of Memetic Algorithms (= Studies in Computational Intelligence. Band 379). Springer, Berlin, Heidelberg 2012, ISBN 978-3-642-23246-6, doi:10.1007/978-3-642-23247-3.
  32. Wilfried Jakob: A general cost-benefit-based adaptation framework for multimeme algorithms. In: Memetic Computing. Band 2, Nr. 3, September 2010, ISSN 1865-9284, S. 201–218, doi:10.1007/s12293-010-0040-9.
  33. Y.S. Ong, A.J. Keane: Meta-Lamarckian Learning in Memetic Algorithms. In: IEEE Transactions on Evolutionary Computation. Band 8, Nr. 2, April 2004, ISSN 1089-778X, S. 99–110, doi:10.1109/TEVC.2003.819944 (ieee.org [abgerufen am 30. November 2023]).
  34. Enrique Alba (Hrsg.): Parallel Metaheuristics: A New Class of Algorithms (= Wiley series on parallel and distributed computing). Wiley, Hoboken, NJ, USA 2005, ISBN 0-471-67806-6.
  35. Erick Cantú-Paz: Efficient and Accurate Parallel Genetic Algorithms. Genetic Algorithms and Evolutionary Computation, Nr. 1. Springer US, Boston, MA 2001, ISBN 1-4613-6964-9, doi:10.1007/978-1-4615-4369-5 (englisch).
  36. a b Dirk Sudholt: Parallel Evolutionary Algorithms. In: Springer Handbook of Computational Intelligence. Springer, Berlin, Heidelberg 2015, ISBN 978-3-662-43504-5, S. 929–959, doi:10.1007/978-3-662-43505-2_46.
  37. a b Hatem Khalloof, Mohammad Mohammad, Shadi Shahoud, Clemens Duepmeier, Veit Hagenmeyer: A Generic Flexible and Scalable Framework for Hierarchical Parallelization of Population-Based Metaheuristics. ACM, 2020, ISBN 978-1-4503-8115-4, S. 124–131, doi:10.1145/3415958.3433041.
  38. Kenneth Sörensen: Metaheuristics - the metaphor exposed. In: International Transactions in Operational Research. Band 22, Nr. 1, Januar 2015, ISSN 0969-6016, S. 3–18, doi:10.1111/itor.12001.
  39. Jerry Swan, Steven Adriaensen, Mohamed Bishr, Edmund K. Burke, John A. Clark, Patrick De Causmaecke, Juan José Durillo, Kevin Hammond, Emma Hart, Colin G. Johnson, Zoltan A. Kocsis, Ben Kovitz , Krzysztof Krawiec, Simon Martin, Juan J. Merelo, Leandro L. Minku, Ender Özcan, Gisele Lobo Pappa, Erwin Pesch, Pablo García-Sánchez, Andrea Schaerf, Kevin Sim, Jim Smith, Thomas Stützle, Stefan Wagnerr, Xin Yao: A Research Agenda for Metaheuristic Standardization. 2015, abgerufen am 30. November 2023.
  40. Alexander Brownlee, John R. Woodward: Why we fell out of love with algorithms inspired by nature. In: en.wikipedia.org. The Conversation, 2015, abgerufen am 30. November 2023.
  41. Fred Glover, Kenneth Sörensen: Metaheuristics. In: Scholarpedia. Band 10, Nr. 4, 2015, ISSN 1941-6016, The metaphor controversy, S. 6532, doi:10.4249/scholarpedia.6532 (scholarpedia.org [abgerufen am 30. November 2023]).
  42. Journal of Heuristics Policies on Heuristic Search Research. (PDF) www.springer.com, Archivierte Webseite, 2015, archiviert vom Original (nicht mehr online verfügbar) am 9. Juli 2017; abgerufen am 30. November 2023.  Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.@1@2Vorlage:Webachiv/IABot/www.springer.com
  43. 4OR - Aims and scope. www.springer.com, abgerufen am 30. November 2023.
  44. Memetic Computing - Aims and scope. www.springer.com, abgerufen am 30. November 2023.
  45. Andrea Caponio, Ferrante Neri, Regina Berretta, Carlos Cotta, Pablo Moscato: Handbook of Memetic Algorithms. Hrsg.: Ferrante Neri, Carlos Cotta, Pablo Moscato (= Studies in Computational Intelligence. Band 379). Springer, Berlin, Heidelberg 2012, ISBN 978-3-642-23246-6, Part III: Applications, S. 241–271, doi:10.1007/978-3-642-23247-3.
  46. M. Dorigo, L.M. Gambardella: Ant colony system: a cooperative learning approach to the traveling salesman problem. In: IEEE Transactions on Evolutionary Computation. Band 1, Nr. 1, April 1997, S. 53–66, doi:10.1109/4235.585892 (ieee.org [abgerufen am 3. Dezember 2023]).
  47. Peter Merz, Bernd Freisleben: Memetic Algorithms for the Traveling Salesman Problem. In: Complex Systems. Band 13, Nr. 4, 2002, ISSN 0891-2513 (researchgate.net).
  48. Fatos Xhafa, Ajith Abraham (Hrsg.): Metaheuristics for Scheduling in Industrial and Manufacturing Applications (= Studies in Computational Intelligence. Band 128). Springer, Berlin, Heidelberg 2008, ISBN 978-3-540-78984-0, doi:10.1007/978-3-540-78985-7.
  49. Wilfried Jakob, Sylvia Strack, Alexander Quinte, Günther Bengel, Karl-Uwe Stucky, Wolfgang Süß: Fast Rescheduling of Multiple Workflows to Constrained Heterogeneous Resources Using Multi-Criteria Memetic Computing. In: Algorithms. Band 6, Nr. 2, 22. April 2013, ISSN 1999-4893, S. 245–277, doi:10.3390/a6020245 (mdpi.com [abgerufen am 3. Dezember 2023]).
  50. Damla Kizilay, M. Fatih Tasgetiren, Quan-Ke Pan, Gürsel Süer: An Ensemble of Meta-Heuristics for the Energy-Efficient Blocking Flowshop Scheduling Problem. In: Procedia Manufacturing. Band 39, 2019, S. 1177–1184, doi:10.1016/j.promfg.2020.01.352 (elsevier.com [abgerufen am 3. Dezember 2023]).
  51. Benedikt Grosch, Timm Weitzel, Niklas Panten, Eberhard Abele: A metaheuristic for energy adaptive production scheduling with multiple energy carriers and its implementation in a real production system. In: Procedia CIRP. Band 80, 2019, S. 203–208, doi:10.1016/j.procir.2019.01.043 (elsevier.com [abgerufen am 3. Dezember 2023]).
  52. T. Ganesan, I. Elamvazuthi, Ku Zilati Ku Shaari, P. Vasant: Swarm intelligence and gravitational search algorithm for multi-objective optimization of synthesis gas production. In: Applied Energy. Band 103, März 2013, S. 368–374, doi:10.1016/j.apenergy.2012.09.059 (elsevier.com [abgerufen am 3. Dezember 2023]).
  53. Bogdan Tomoiagă, Mircea Chindriş, Andreas Sumper, Antoni Sudria-Andreu, Roberto Villafafila-Robles: Pareto Optimal Reconfiguration of Power Distribution Systems Using a Genetic Algorithm Based on NSGA-II. In: Energies. Band 6, Nr. 3, 6. März 2013, ISSN 1996-1073, S. 1439–1455, doi:10.3390/en6031439.
  54. Ian C. Parmee: Strategies for the Integration of Evolutionary/Adaptive Search with the Engineering Design Process. In: Evolutionary Algorithms in Engineering Applications. Springer, Berlin, Heidelberg 1997, ISBN 3-642-08282-3, S. 453–477, doi:10.1007/978-3-662-03423-1_25.
  55. Taymaz Akan, Ahmed M. Anter, A. Şima Etaner-Uyar, Diego Oliva (Hrsg.): Engineering Applications of Modern Metaheuristics (= Studies in Computational Intelligence. Band 1069). Springer International Publishing, Cham 2023, ISBN 978-3-03116831-4, doi:10.1007/978-3-031-16832-1.
  56. Ernesto Sanchez, Giovanni Squillero, Alberto Tonda: Industrial Applications of Evolutionary Algorithms (= Intelligent Systems Reference Library. Band 34). Springer, Berlin, Heidelberg 2012, ISBN 978-3-642-27466-4, doi:10.1007/978-3-642-27467-1.
  57. Jayaraman Valadi, Patrick Siarry (Hrsg.): Applications of Metaheuristics in Process Engineering. Springer International Publishing, Cham 2014, ISBN 978-3-319-06507-6, doi:10.1007/978-3-319-06508-3.
  58. Christian Blume: Optimized Collision Free Robot Move Statement Generation by the Evolutionary Software GLEAM. In: Stefano Cagnoni et al. (Hrsg.): Real-World Applications of Evolutionary Computing, Conf. Proc. of EvoWorkshops 2000. LNCS 1803. Springer, Berlin, Heidelberg 2000, ISBN 3-540-67353-9, S. 330–341, doi:10.1007/3-540-45561-2_32.
  59. Nantiwat Pholdee, Sujin Bureerat: Multiobjective Trajectory Planning of a 6D Robot based on Multiobjective Meta Heuristic Search. In: Proceedings of the 2018 VII International Conference on Network, Communication and Computing (ICNCC'18). ACM, 2018, ISBN 978-1-4503-6553-6, S. 352–356, doi:10.1145/3301326.3301356.
  60. José Antonio Parejo, Antonio Ruiz-Cortés, Sebastián Lozano, Pablo Fernandez: Metaheuristic optimization frameworks: a survey and benchmarking. In: Soft Computing. Band 16, Nr. 3, März 2012, ISSN 1432-7643, S. 527–561, doi:10.1007/s00500-011-0754-8 (researchgate.net [abgerufen am 4. Dezember 2023]).
  61. Dudy Lim, Yew-Soon Ong, Yaochu Jin, Bernhard Sendhoff, Bu-Sung Lee: Efficient Hierarchical Parallel Genetic Algorithms using Grid computing. In: Future Generation Computer Systems. Band 23, Nr. 4, Mai 2007, S. 658–670, doi:10.1016/j.future.2006.10.008 (elsevier.com [abgerufen am 4. Dezember 2023]).
  62. Mario García-Valdez, Juan J. Merelo Guervós: evospace-js: asynchronous pool-based execution of heterogeneous metaheuristics. Genetic and Evolutionary Computation Conference Companion. ACM, 2017, ISBN 978-1-4503-4939-0, S. 1202–1208, doi:10.1145/3067695.3082473 (researchgate.net [abgerufen am 4. Dezember 2023]).
  63. Antonio J. Nebro, Cristóbal Barba-González, José García Nieto, José A. Cordero, José F. Aldana Montes: Design and architecture of the jMetaISP framework. ACM, 2017, ISBN 978-1-4503-4939-0, S. 1239–1246, doi:10.1145/3067695.3082466 (researchgate.net [abgerufen am 4. Dezember 2023]).