Rollen und Verantwortlichkeiten in AI Literacy und AI Governance
AI‑bezogene Kompetenzen werden in vielen Organisationen primär als Schulungs‑ oder Weiterbildungsthema verstanden. Tatsächlich handelt es sich jedoch um zentrale Governance‑Fragen, denn der Einsatz von AI‑gestützten Systemen verändert nicht nur Prozesse, sondern Entscheidungslogiken, Verantwortlichkeiten und Haftungsräume.
Ob Agentic AI in Finance, Decision Intelligence (DI) oder AI‑gestützte Steuerungssysteme – kritisch ist nicht das technische Verständnis einzelner Tools, sondern die Frage:
Wer entscheidet, welche AI‑Kompetenz erforderlich ist – und wer verantwortet Entscheidungen, wenn sie systemisch vorbereitet oder beeinflusst werden?

Warum Governance bei AI Literacy & AI Governance entscheidend ist
AI‑Systeme wirken zunehmend indirekt: Sie priorisieren Optionen, strukturieren Entscheidungsräume und beeinflussen Ergebnisse, ohne dass einzelne Entscheidungen explizit als „AI‑Entscheidungen“ wahrgenommen werden.
Ohne klare Governance entstehen typische Probleme:
AI‑Ergebnisse werden unkritisch übernommen
Verantwortung wird implizit an Systeme delegiert
Kompetenzlücken werden erst nach Fehlentscheidungen sichtbar
Eskalationsmechanismen fehlen oder greifen zu spät
Governance im Kontext von AI Literacy bedeutet deshalb nicht Schulungstiefe, sondern Verbindlichkeit: Welche Entscheidungen dürfen systemisch vorbereitet werden – und wo ist menschliche Verantwortung zwingend?
Welche Entscheidungen im Kontext AI Literacy & AI Governance wirklich relevant sind
Nicht jede AI‑Anwendung ist governance‑relevant. Entscheidend sind jene Entscheidungen, die Entscheidungsspielräume dauerhaft verändern oder verengen.
Zu den zentralen Governance‑Entscheidungen zählen:
Festlegung von Kompetenzanforderungen (z. B. Mindestanforderungen im Umgang mit Agentic AI in Finance)
Einbettung von AI in Entscheidungsprozesse (z. B. Nutzung von Decision Intelligence (DI) zur Entscheidungsunterstützung)
Definition von Delegations‑ und Eskalationsgrenzen (z. B. im Zusammenspiel mit einer Governance Engine)
Umgang mit systemischen Entscheidungsrisiken (z. B. Algorithmic Resilience & Autonomous Finance – NextLevel)
Sicherung von Nachvollziehbarkeit und Integrität (z. B. durch Autonomous Finance Integrity Trails (AFIT©))
Diese Entscheidungen definieren nicht, wie gut AI verstanden wird, sondern wie verantwortet AI eingesetzt wird.
Wer entscheidet was? – Rollen und Verantwortlichkeiten
Vorstand / Verwaltungsrat
Der Vorstand bzw. Verwaltungsrat trägt die Gesamtverantwortung für den Einsatz AI‑gestützter Systeme im Unternehmen.
Typische Aufgaben:
Festlegung, in welchen Bereichen AI‑gestützte Entscheidungen zulässig sind
Verantwortung für Human Oversight und Haftungsfragen
Sicherstellung der Einhaltung regulatorischer Vorgaben (z. B. DORA – Governance, Board‑Verantwortung & Human Oversight, EU AI Act im Finance: Governance & Compliance als Wettbewerbsvorteil)
Entscheidet über den zulässigen Rahmen von AI‑gestützter Entscheidungsunterstützung
CFO / Executive Management
Der CFO übersetzt Strategie und Governance‑Vorgaben in steuerbare Entscheidungsarchitekturen.
Typische Entscheidungsfelder:
Einsatz von Decision Intelligence (DI) in Finance‑ und Controlling‑Prozessen
Festlegung von Eskalations‑ und Override‑Logiken
Definition von Mindestanforderungen an AI‑Kompetenz in kritischen Entscheidungsrollen
Einführung einer Governance Engine zur Durchsetzung von Entscheidungsregeln
Entscheidet über Architektur, Verantwortlichkeiten und Standards
Fachbereiche / Finance & Operations
Operative Funktionen arbeiten innerhalb der definierten Entscheidungsräume.
Typische Tätigkeiten:
Nutzung AI‑gestützter Entscheidungsunterstützung
Interpretation systemgenerierter Ergebnisse
Eskalation bei Unsicherheit oder Abweichungen
Nutzen AI‑Systeme – entscheiden aber nicht über deren Governance‑Logik
Risiko‑, Governance‑ & Kontrollfunktionen
Diese Funktionen sichern die Integrität des AI‑Einsatzes.
Aufgaben:
Überwachung von Model Risk und Model Risk Management (MRM)
Sicherstellung konsistenter Data Governance (Daten‑Governance)
Kontrolle durch Assurance & Controls (IKS‑Module)
Audit‑fähige Umsetzung über Minimum Viable Audit (MVA)©
Überwachen, prüfen, eskalieren – entscheiden nicht operativ
Typische Governance‑Fehler bei AI Literacy & AI Governance
In der Praxis zeigen sich wiederkehrende Muster:
AI‑Kompetenz wird als Trainingsfrage behandelt, nicht als Governance‑Thema
Verantwortung für Entscheidungen verschwimmt zwischen Mensch und System
Eskalationsrechte sind unklar oder kulturell blockiert
Model Risk wird technisch adressiert, organisatorisch jedoch ignoriert
Diese Fehler sind selten technischer Natur – sie sind Governance‑Defizite.
AI‑Policy vs. operative AI‑Nutzung
Ein Governance‑Rahmen für AI definiert den Entscheidungskorridor, nicht die tägliche Nutzung.
Typischerweise regelt er:
welche Entscheidungen AI‑gestützt vorbereitet werden dürfen
wo menschliche Freigabe zwingend ist
wie Eskalationen und Overrides erfolgen
wie Entscheidungen nachvollziehbar dokumentiert werden (z. B. AFIT©)
Operative Nutzung erfolgt innerhalb dieser Leitplanken. Abweichungen sind stets Governance‑Entscheidungen, keine technischen Optimierungen.
Fazit: AI Literacy ist eine Governance‑Disziplin
AI‑Kompetenz entscheidet nicht über Tool‑Effizienz, sondern über verantwortete Entscheidungsdelegation.Organisationen bleiben nur dann steuerungsfähig, wenn klar ist:
wer AI einsetzen darf,
wer Entscheidungen verantwortet,
und wer bei Abweichungen eingreift.
Nicht durch mehr Training –sondern durch klare Rollen, Entscheidungsrechte und Governance.
Hinweis:
Dieser Artikel ist Teil unserer strukturierten Ausarbeitung zu Rollen, Verantwortlichkeiten und Entscheidungslogiken rund um Kapitalkosten, Investitionsentscheidungen und wertorientierte Unternehmenssteuerung sowie des integrierten Finanz‑Governance‑Systems von NextLevel.
