Kurzdefinition: Agentische KI – Agentic AI – bezeichnet in der Psychologie und angrenzenden Gebieten solcher Technik ein Konzept, das über rein reaktive, datenverarbeitende oder promptbasierte Systeme hinausgeht und Aspekte wie Autonomie, Zielgerichtetheit, Entscheidungsfindung und Adaptivität umfasst.
Unter agentischer KI versteht man künstliche Intelligenzsysteme, die nicht bloß auf Anfragen reagieren, sondern selbständig handeln, eigene Ziele verfolgen, komplexe Entscheidungen treffen und in dynamischen Umgebungen adaptiv agieren. Sie besitzen eine Form von „Handlungsmacht“ (agency), die es ihnen ermöglicht, Initiativen zu ergreifen, Strategien zu entwickeln, Zwischenschritte zu planen und ihr Verhalten aufgrund von Feedback oder veränderten Umständen zu modifizieren. Psychologisch relevant sind dabei insbesondere die Wahrnehmung solcher Agentität durch Menschen, die Implikationen für Vertrauen, Verantwortungszuschreibung und Interaktion zwischen Mensch und Maschine, sowie die mentalen Modelle, die Nutzer von solchen Systemen haben.
Agentic AI bezieht sich also auf eine Form von Künstlicher Intelligenz (KI), die in der Lage ist, autonom zu handeln und Entscheidungen zu treffen, um bestimmte Ziele oder Aufgaben zu erfüllen. Der Begriff „agentisch“ kommt von der Vorstellung eines „Agenten“, der in der Lage ist, in einer gegebenen Umgebung zu agieren und seine Handlungen entsprechend zu steuern, um gewünschte Ergebnisse zu erzielen. In diesem Zusammenhang geht es nicht nur um reaktive Intelligenz, sondern auch um proaktive, zielorientierte Handlungen.
Agentische KI unterscheidet sich von klassischen KIs darin, dass letztere meist reaktiv und festgelegt sind – sie verarbeiten Eingabe und liefern Ausgabe gemäß vorgegebener Regeln oder trainierter Muster, ohne selbst Initiativen zu ergreifen oder langfristige Pläne autonom zu verfolgen. Agentische KI hingegen kann mehrere Schritte ausführen, Ziele in Hierarchien organisieren, Strategien anpassen und auch über Werkzeuge oder Schnittstellen (APIs) mit der Umwelt interagieren. Sie kann Gedächtnis besitzen, in dem vergangene Aktionen, Ergebnisse oder Kontextinformationen erhalten und bei zukünftigen Entscheidungen berücksichtigt werden.
Psychologisch gesehen hat agentische KI mehrere wichtige Implikationen. Erstens verändert sich die Art und Weise, wie Menschen solchen Systemen Vertrauen zuschreiben. Wenn eine KI als sehr agentisch wahrgenommen wird – als fähig, Ziele autonom zu verfolgen, Entscheidungen zu treffen und in gewissem Maße Verantwortung zu übernehmen – steigt bei Nutzern einerseits die Erwartung an Kompetenz und Verlässlichkeit, andererseits steigt auch das Risiko einer Verletzung von Vertrauen. Studien zeigen, dass Menschen Maschinen, denen hohe Agency zugeschrieben wird, ähnlichere moralische Maßstäbe anlegen wie bei Menschen (z. B. hinsichtlich Absicht) als bei weniger agentischen Systemen.
Zweitens beeinflusst agentische KI, wie Verantwortung und Schuld verteilt werden – wer haftet, wenn ein autonomes System einen Fehler macht? Die Verantwortung kann diffus werden. Drittens beeinflusst Agentität die Motivations-, Kontroll- und Selbstwirksamkeitserwartungen der Nutzer: Wenn Menschen mit Artefakten interagieren, die als Agenten wahrgenommen werden, kann das ihr Gefühl beeinflussen, wieviel Kontrolle sie selbst haben, wieviel sie sich einmischen müssen oder wollen. Viertens spielt in der Psychologie das Konzept des „mentalen Agenten“ eine Rolle – wie Menschen Systemen Intelligenz, Intentionalität oder gar Bewusstsein zuschreiben (mind perception), was wiederum Einfluss auf die Einstellungen und das Verhalten gegenüber der KI hat. Studien etwa untersuchen, wie wahrgenommene Agency und wahrgenommene Erfahrung („experience“) zusammen das moralische Urteil beeinflussen.
Beispiele für agentische KI-Anwendungen sind autonome Agents, die im Betrieb von Geschäftsprozessen eingesetzt werden, um ohne ständige menschliche Steuerung bestimmte Ziele zu verfolgen – etwa Systeme, die Workflow-Automatisierungen einrichten, Prioritäten setzen, auf neue Daten reagieren und sich anpassen. Ein anderes Beispiel sind Forschungsassistenten oder wissenschaftliche Agenten, die Literatur sichten, Hypothesen vorschlagen und ihre Vorgehensweise anpassen. Oder KI-Systeme, die in Robotik oder in der medizinischen Diagnostik Entscheidungen treffen, die nicht alleine auf statischen Regeln beruhen, sondern auf komplexen Modellen, Feedback, Unsicherheit und Risiko kalkuliert werden müssen.
Agentische KI wirft psychologisch und ethisch Herausforderungen auf: Wie transparent sind diese Systeme? Wie nachvollziehbar ihre Entscheidungen? Wie wird Verantwortung zugeschrieben (an den Entwickler, den Betreiber, den Agent selbst)? Wie reagieren Menschen, wenn die Agentität versagt – z. B. hohe Fehlerrate oder unerwartetes Verhalten? Wie beeinflusst die wahrgenommene Agentität das Vertrauen, die Akzeptanz oder die Bereitschaft zur Delegation von Aufgaben an KI? Schließlich auch: Welches Selbstbild entwickeln Menschen im Umgang mit Agenten? Fühlen sie sich entmachtet, überflüssig oder unterstützt?
Agentic AI stattet etwa Roboter mit erweiterten Schlussfolgerungsfähigkeiten aus und könnte so deren operativen Möglichkeiten in der Robotik revolutionieren. Der weltweite Bedarf an Lösungen für gesellschaftliche und wirtschaftliche Herausforderungen treibt die Entwicklung voran, und Initiativen wie das Robotics Institute Germany fördern den Fortschritt in der Robotik. Im Wesentlichen unterscheidet sich Agentic AI von traditionellen KI-Systemen, die in der Regel auf festgelegte Regeln oder Muster basieren und in einem vorgegebenen Rahmen agieren. Agentic AI hat die Fähigkeit, ihre Umgebung zu analysieren, zu interpretieren und eigenständig Entscheidungen zu treffen, die sich auf das Erreichen eines übergeordneten Ziels konzentrieren.
Diese Form der KI könnte in verschiedensten Bereichen eingesetzt werden, von der Optimierung von Produktionsprozessen in der Industrie über die Entwicklung autonomer Fahrzeuge bis hin zu komplexen strategischen Entscheidungen in der Finanzwelt oder in der Medizin. Ein zentrales Merkmal von Agentic AI ist ihre Fähigkeit zur Selbstregulation und zur Anpassung an sich verändernde Umstände. Sie kann auf neue Informationen reagieren, ihre Handlungen anpassen und langfristige Strategien entwickeln, um ihre Ziele effizienter zu erreichen. Dabei kann sie auch ethische, rechtliche und soziale Überlegungen in ihre Entscheidungsprozesse einbeziehen, was sie von rein funktionalen KIs unterscheidet. Die Entwicklung von Agentic AI ist ein spannendes und zugleich herausforderndes Gebiet in der KI-Forschung, da sie nicht nur technologische, sondern auch philosophische und gesellschaftliche Fragen aufwirft. Dazu gehören etwa die Frage der Kontrolle über autonome Systeme, die Notwendigkeit einer transparenten Entscheidungsfindung und die Verantwortung für die Handlungen solcher Systeme. Agentic AI stellt also nicht nur eine technische Innovation dar, sondern auch einen Schritt in Richtung einer KI, die in der Lage ist, sich in einer komplexen und dynamischen Welt zu behaupten und zu agieren, ohne dabei ständig auf menschliche Eingriffe angewiesen zu sein.
Literatur
Stangl, B. (2023, 17. April). Agentic AI. 🤖 roboter lexikon.
https:// roboter.stangl.wien/agentic-ai/