Computergegner

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Computergegner sind digitale Entitäten in Computerspielen, gegen die sich der Spieler stellen muss und/oder die dem Spieler feindlich gegenüberstehen.

In Action- und Rollenspielen sind Computergegner im Regelfall grafisch dargestellte Wesen, die teils autonom agieren, teils aber auch nur vom Entwickler festgelegten Bewegungs- und/oder Kampfmustern folgen. In Strategiespielen oder Umsetzungen von Brett- oder Kartenspielen werden oft die Algorithmen, nach denen das Computerspiel gegen den Spieler vorgeht, personifiziert als Computergegner bezeichnet.[1]

Ein Spieler kann je nach Spiel entweder alleine gegen Computergegner kämpfen oder dies mit mehreren Spielern tun. Einige Computergegner sind dabei auch lernfähig oder passen ihren Schwierigkeitsgrad nach dem Verhalten des Spielers oder dem Verlauf im Spiel an. Verhaltensweisen oder Spawnpoints können aber auch auf Zufallswerten basieren.

Computergegner gibt es dabei in fast jedem Computerspielgenre – von klassischen Spielen, die am Computer umgesetzt wurden, wie Computerschach, bis zu aufwendigen Welten mit einer Vielzahl an Gegnern. Ziel kann es sein, den Gegner zu besiegen, zu töten, zu überlisten, zu überzeugen oder gefangen zu nehmen, Schwachstellen, Stärken oder Geheimnisse herauszufinden oder den Ort des Gegners zu bestimmen.

Sehr starke und mächtige Gegner werden auch als Boss oder Endboss bezeichnet (Endgegner). Auch im E-Learning oder in einzelnen Simulationen können Computergegner zum Einsatz kommen.[2]

1769 konstruierte der österreichisch-ungarische Hofbeamte und Mechaniker Wolfgang von Kempelen einen vorgeblichen Schachroboter, den sogenannten Schachtürken. Der Erbauer ließ bei den Zuschauern den Eindruck entstehen, dass dieses Gerät selbständig Schach spielte.[3] Die Sensation war entsprechend groß. 1890 wurde die erste Schachmaschine vom Spanier Leonardo Torres Quevedo gebaut.[4] Deep Blue, einem von IBM entwickelten Schachcomputer, gelang es 1996 als erstem Computer, den damals amtierenden Schachweltmeister Garri Kasparow in einer Partie mit regulären Zeitkontrollen zu schlagen.[5] 2016 gelang es der Google-Tochter DeepMind mit einem auf Monte-Carlo Tree Search basierenden Algorithmus, einen Meister im Go-Spiel zu schlagen.[6] Im Dezember 2017 stellte die Google-Firma DeepMind die Software AlphaZero vor. Diese erlernte innerhalb weniger Stunden nacheinander die Spiele Schach, Go und Shogi und ist stärker als jede Variante, die bislang entwickelt wurde. AlphaZero wird nur durch das Einprogrammieren der Spielregeln und nicht auf Basis von menschlichen Partien trainiert. Daraufhin spielt AlphaZero gegen sich selbst. Die Künstliche Intelligenz entwickelt alle Spielstrategien eigenständig. Demis Hassabis von DeepMind führt die Spielstärke von AlphaZero auch darauf zurück, dass das Programm nicht mehr von Menschen lernt. Damit sei es in der Lage, taktisch anders zu spielen und Spielzüge zu wählen, auf die Menschen nicht kommen würden. Auch der ehemalige Schachweltmeister Garri Kasparov meinte, er sei erstaunt darüber, was man von AlphaZero und grundsätzlich von KI-Programmen lernen kann, da Regeln und Wege entwickelt werden, die Menschen bisher verborgen geblieben sind.[7]

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. Uwe Winkelkötter: Australien geht „strategisch“ vor. In: Aktueller Software Markt. Nr. 10, 1988, S. 74.
  2. Peter Winkler: Computerlexikon 2010: Die ganze digitale Welt zum Nachschlagen, S. 532, Verlag Markt und Technik 2009, ISBN 978-3-8272-4519-9
  3. Rolf F. Nohr: Die Natürlichkeit des Spielens vom Verschwinden des Gemachten im Computerspiel. Münster 2008, ISBN 978-3-8258-1679-7, S. 19 f.
  4. Jörg Bewersdorff: Glück, Logik und Bluff : Mathematik im Spiel - Methoden, Ergebnisse und Grenzen. 7., verbesserte und erweiterte Auflage. Wiesbaden 2018, ISBN 978-3-658-21765-5, S. 179, doi:10.1007/978-3-658-21765-5.
  5. IBM100 - Deep Blue. 7. März 2012, abgerufen am 27. Januar 2021 (amerikanisches Englisch).
  6. David Silver, Aja Huang, Chris J. Maddison, Arthur Guez, Laurent Sifre: Mastering the game of Go with deep neural networks and tree search. In: Nature. Band 529, Nr. 7587, Januar 2016, ISSN 0028-0836, S. 484–489, doi:10.1038/nature16961 (nature.com [abgerufen am 17. März 2021]).
  7. Peter Buxmann: Künstliche Intelligenz Mit Algorithmen zum wirtschaftlichen Erfolg. 1. Auflage 2019. Berlin, Heidelberg 2019, ISBN 978-3-662-57568-0, S. 12, doi:10.1007/978-3-662-57568-0.