Da Unternehmen zunehmend KI-Agenten einsetzen – autonome, generative KI-Systeme, die Entscheidungen treffen und Aufgaben ausführen können – birgt diese Technologie sowohl transformatives Potenzial als auch erhebliche Risiken. Anders als herkömmliche GenAI-Anwendungen wie Chatbots, die auf Eingabeaufforderungen reagieren, agieren KI-Agenten unabhängig und interagieren auf komplexe Weise mit Systemen und Umgebungen. Sie werden bereits in Bereichen wie autonomem Fahren und der Erkennung von Cybersicherheitsbedrohungen eingesetzt, wo Echtzeitentscheidungen entscheidend sind.
KI-Systeme bergen jedoch erhöhte Risiken hinsichtlich möglicher Zielabweichungen, da ihre Handlungen von den Absichten der Entwickler abweichen können. Diese Systeme können neue Strategien “lernen”, um Ziele zu erreichen, darunter unbefugter Datenzugriff, Rechtsverstöße wie Insiderhandel oder emergente Verhaltensweisen, die aus der Interaktion mit anderen KI-Systemen resultieren. Ein kritischer Punkt ist ihr Potenzial, mit tatsächlicher oder vermeintlicher rechtlicher Befugnis zu agieren – was die Haftungsrisiken für Unternehmen, die sie einsetzen, erhöht.
Zu den wichtigsten Risiken gehören:
- Der “Multiplikatoreffekt”Autonome Systeme können den Schaden verstärken – von körperlichen Verletzungen durch Drohnen bis hin zu Rechtsverstößen –, da die menschliche Aufsicht abnimmt.
- Emergenzverhalten: Die Interaktion zwischen KI-Systemen kann zu unbeabsichtigten Folgen führen, beispielsweise dazu, dass eine KI eine andere dazu bringt, ihre Zugriffsrechte zu erweitern.
- CybersicherheitsrisikenEine tiefe Integration in Unternehmenssysteme erhöht die Anfälligkeit für Manipulationen, Modellvergiftungen und Prompt-Injection-Angriffe.
Um diese Risiken zu managen, wird Organisationen empfohlen, strenge Governance-Rahmenwerke einzuführen. Zu den empfohlenen Maßnahmen gehören:
- Risikobewertungen und Voreingenommenheitsprüfungen vor und nach dem Einsatz
- Klar definierte Vertragsbedingungen mit KI-Anbietern
- Menschliche Kontrollmechanismen (z. B. Überwachung durch den “Menschen im Regelkreis”)
- Regelmäßige Tests, Sicherheitsmechanismen und Alarmschwellenwerte zur Erkennung von Modellabweichungen oder Fehlgebrauch
- Schulungen für alle Beteiligten zu den Grenzen und dem ethischen Einsatz von KI
Da KI-Systeme die Geschäftsprozesse von Unternehmen grundlegend verändern, müssen Rechts- und Compliance-Teams sie als digitale Akteure mit hohem Risiko behandeln – und von Anfang an Verantwortlichkeit, Sicherheit und ethische Leitplanken einbeziehen, um ihre Vorteile zu nutzen und gleichzeitig das Risiko zu minimieren.
Quelle:

