Software-Agent

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Als Software-Agent (auch Agent oder Softbot) bezeichnet man ein Computerprogramm, das zu gewissem (wohl spezifiziertem) eigenständigem und eigendynamischem (autonomem) Verhalten fähig ist. Das bedeutet, dass abhängig von verschiedenen Zuständen (Status) ein bestimmter Verarbeitungsvorgang abläuft, ohne dass von außen ein weiteres Startsignal gegeben wird oder während des Vorgangs ein äußerer Steuerungseingriff erfolgt.

Definition und Grundlagen[Bearbeiten]

Laut Wooldridge[1] gibt es keine allgemein anerkannte Definition eines Agenten. Es gibt zwar generelle Zustimmung, dass ein Agent selbstständig (autonom) sein muss, darüber hinaus gibt es aber wenig Einigung. Wooldridge versucht sich dennoch an einer Definition: "Ein Agent ist ein Computersystem das sich in einer bestimmten Umgebung befindet und welches fähig ist, eigenständige Aktionen in dieser Umgebung durchzuführen, um seine (vorgegebenen) Ziele zu erreichen."

Die Forschung über Künstliche Intelligenz definiert eine Software als Agenten, wenn sie folgende Eigenschaften besitzt, die den Grad der Autonomie beschreiben:

  • autonom – das Programm arbeitet unabhängig von Benutzereingriffen
  • kognitiv – das Programm ist lernfähig und lernt aufgrund zuvor getätigter Entscheidungen bzw. Beobachtungen
  • kommunikativ – das Programm teilt seine Zustände als Wirkung auf seine Umgebung dieser mit
  • modal adaptiv - das Programm ändert aufgrund der eigenen Zustände und der Zustände der Umgebung seine eigenen Einstellungen (Parameter und/oder Struktur)
  • proaktiv – das Programm führt Aktionen aufgrund eigener Initiative aus
  • reaktiv – das Programm reagiert auf Änderungen der Umgebung
  • robust – das Programm kompensiert äußere und innere Störungen
  • sozial – das Programm kommuniziert mit anderen Agenten

Dabei sind gleichzeitige Eingriffe von außen, die die Autonomie einschränken oder die Entscheidungskriterien verändern, nicht ausgeschlossen.

Kommt zu den genannten Eigenschaften die Fähigkeit hinzu, selbsttätig den Ausführungsort zu wechseln (zu migrieren), so spricht man von einem mobilen Agenten. Dazu braucht er Fähigkeiten, die ihn zu einer gewissen Anpassung an andere Infrastruktur befähigen. Siehe hierzu Migration (Informationstechnik), das solche Mechanismen seitens eines Menschen beschreibt.
Intelligente Agenten zeichnen sich durch Wissen, Lernfähigkeit, Schlussfolgerungen und die Möglichkeit zu Verhaltensänderungen aus.

Ein Netz aus einer Teilmenge von autonomen Agenten, die miteinander kommunizieren können, nennt man eine Population. Diese Kommunikation wird durch die Dichte und die Verteilung der Agenten sowie deren Gruppierung und die zeitliche Varianz dieser Parameter beeinflusst.

Einsatz[Bearbeiten]

Agenten werden große Einsatzmöglichkeiten in den Bereichen E-Commerce, Informationsrecherche, Simulation, Erledigen von Routineaufgaben und in autonomen Systemen eingeräumt. Aber auch komplexe Aufgaben, beispielsweise in automatisierten Verhandlungen, können durch Softwareagenten übernommen werden.[2] Im Bereich Simulation gibt es dabei das Spezialgebiet der Multi-Agenten-Simulation bzw. Gruppensimulation mit eigenen Softwareprodukten. Letzteres wird gerne im Spielebereich eingesetzt.

Implementierungen[Bearbeiten]

Es gibt zahlreiche Implementierungen von Agentenplattformen im wissenschaftlichen Umfeld. Diese haben meist einen speziellen Fokus, zum Beispiel intelligentes Verhalten, Sicherheit, effiziente Migration.

Eine ausführliche Übersicht über aktuelle Systeme, welches als Projekt (Co-ordination Action) im Rahmen des sechsten Forschungsrahmenprogramms der Europäischen Kommission gefördert wird, ist AgentLink.org[3].

Unter anderem existiert das umfangreiche, Java-basierte Agentenframework JADE.

Agententypen[Bearbeiten]

Agententypen unterscheiden sich in der Agentenarchitektur (nicht zu verwechseln mit der Architektur, auf der das Umgebungsprogramm läuft). Unter einer Agentenarchitektur versteht man die Art und Weise, wie die Definition und Verwaltung des Agentenverhaltens erfolgt. Prinzipiell herrscht dabei eine große Begriffsvielfalt, aber die Einteilung in drei weitgehend anerkannte Bereiche ist möglich:

Reaktive Agenten[Bearbeiten]

Reaktive (bzw. subkognitive) Agenten verfügen prinzipiell nicht über eigenes Wissen, sondern agieren nur aufgrund ihrer Wahrnehmungen direkt und ohne Entscheidungsprozess.

Folgende Agententypen treten in diesem Zusammenhang öfter auf:

  • Einfach Reaktiver Agent: Ist der einfachste Typ. Der Agent erhält Sensorinformationen und wählt aufgrund von Bedingungs-Aktions-Regeln eine Aktion aus.
  • Beobachtender Agent: Stellt eine Erweiterung des Einfachen Reaktiven Agenten dar. Dieser Agententyp besitzt bereits ein Gedächtnis und sammelt Informationen über die Umwelt und was die eigenen Aktionen bewirken würden. Die Bedingungs-Aktions-Regeln werden dann auf dieses Gesamtbild angewandt und nicht mehr nur auf die reinen Sensorinformationen.

Adaptive Agenten[Bearbeiten]

Adaptive Agenten verwalten ein Modell der eigenen Prozess- und Parameterstruktur. Diese können der eigenen Vorgeschichte und erkannten oder gemessenen äußeren Bedingungen angepasst werden. Dadurch wird eine adaptive Regelung und damit beispielsweise eine hinsichtlich der Ressourcen optimale Ausführung möglich[4][5][6].

Kognitive Agenten[Bearbeiten]

Kognitive Agenten verwalten ein Modell ihrer Umwelt in einer eigenen Datenstruktur.[7][8][9] Dadurch wird Planung der Aktionen und schließlich auch zielgerichtetes Handeln möglich. Eine bekannte Unterklasse ist die Agentendefinition in den BDI Agenten durch Angabe der Beliefs, Desires und Intentions.

Folgende Agententypen treten in diesem Zusammenhang öfter auf:

  • Zielbasierter Agent: Der Agent besitzt eine Zielvorgabe, die er zu erreichen versucht, und er entscheidet aufgrund der Sensorinformation und seines Wissens über die Folgen seiner Aktionen, welche Aktion ihn seinem Ziel am nächsten bringt. Da das Ziel nicht immer in einem Schritt erreicht werden kann, ist der Agent in der Lage zu planen.
  • Nutzenbasierter Agent: Als Weiterentwicklung des zielbasierten Agenten besitzt der nutzenbasierte Agent ebenfalls eine Zielvorgabe. Es werden dabei alle möglichen und unmöglichen Zustände auf eine reelle Zahl abgebildet, welche den Nutzen für den Agenten repräsentiert. Er selbst hat hierbei den Wert -∞. Dadurch ist er in der Lage, in Situationen, in denen mehrere Ziele erreichbar sind, zu entscheiden, welche Aktionen den größeren Nutzen haben, bzw. welche Ziele erstrebenswerter sind. Dies ist vor allem dann interessant, wenn nicht mit Sicherheit gesagt werden kann, ob ein Ziel erreicht werden kann. Der Agent kann damit eine Risikoeinschätzung durchführen und wird nicht nur seinem Hauptziel folgen.

Siehe auch[Bearbeiten]

Literatur[Bearbeiten]

Weblinks[Bearbeiten]

Einzelnachweise[Bearbeiten]

  1. Wooldridge: Intelligent Agents: The Key Concepts. 2002, S. 5.
  2. Büttner: Automatisierte Verhandlungen in Multi-Agenten-Systemen. Gabler-Verlag, Wiesbaden 2010.
  3. http://www.agentlink.org/ AgentLink.org
  4. Adaptive Agents (PDF; 1,0 MB)
  5. Definition of adaptive agents
  6. Adaptive Agents and Multi-Agent Systems (PDF; 216 kB)
  7. Cognitive Agents (PDF; 309 kB)
  8. Cognitive Agents (PDF; 1,5 MB)
  9. Survey of Cognitive and Agent Architectures