EU AI Act und die Schweiz
- NextLevel

- 20. Sept.
- 8 Min. Lesezeit
Der EU AI Act – Regulatorik trifft Praxis: Was Unternehmen jetzt wissen und tun müssen
Die Europäische Union hat mit dem AI Act ein weltweit einzigartiges Regelwerk geschaffen, das den Einsatz von Künstlicher Intelligenz (KI) erstmals systematisch reguliert. Während andere Regionen auf freiwillige Leitlinien oder branchenspezifische Standards setzen, geht die EU einen mutigen Schritt: Sie macht KI zur regulierten Technologie – mit klaren Pflichten, Verboten und Governance-Strukturen.
Doch was bedeutet das für Unternehmen, Entwickler und Bildungseinrichtungen? Wie lässt sich regulatorische Konformität mit Innovationskraft verbinden? Und welche strategischen Chancen ergeben sich aus dem neuen Rechtsrahmen?
Der AI Act – ein regulatorischer Meilenstein
Der AI Act ist mehr als ein Gesetz. Er ist ein Paradigmenwechsel. Er definiert KI nicht nur technisch, sondern auch ethisch und gesellschaftlich. Ziel ist es, Vertrauen zu schaffen – durch Transparenz, Kontrolle und Verantwortlichkeit.
Die Grundidee:
KI-Systeme werden nach ihrem Risiko klassifiziert.
Hochrisiko-Systeme unterliegen strengen Anforderungen.
Bestimmte Praktiken sind verboten.
General Purpose AI (GPAI) wird separat geregelt.
Anbieter, Betreiber und andere Akteure erhalten definierte Rollen und Pflichten.
Damit wird KI nicht nur als Technologie, sondern als sozio-technisches System verstanden – mit Auswirkungen auf Menschen, Organisationen und Gesellschaft.

Risikoklassen: Von verboten bis unreguliert
Der AI Act unterscheidet vier Risikoklassen:
Diese Klassifizierung ist dynamisch – sie hängt vom Einsatzkontext ab. Ein KI-System kann je nach Anwendung hochriskant oder harmlos sein.
Hochrisiko-KI: Anforderungen im Detail
Wer ein Hochrisiko-KI-System anbietet oder betreibt, muss umfangreiche Pflichten erfüllen:
Risikomanagement: Identifikation, Bewertung und Minimierung von Risiken
Datenqualität: Trainingsdaten müssen relevant, repräsentativ und diskriminierungsfrei sein
Dokumentation & Protokollierung: Technische Unterlagen, Logs, Konformitätsberichte
Transparenz & Nutzerinformation: Klarheit über Funktion, Grenzen und Einsatz
Menschliche Aufsicht: Mechanismen zur Kontrolle und Eingreifbarkeit
Robustheit & Sicherheit: Schutz vor Manipulation, Fehlfunktionen und Missbrauch
Diese Anforderungen sind nicht nur juristisch – sie sind auch operativ. Sie betreffen Entwicklung, Deployment, Monitoring und Governance.
GPAI & Foundation Models: Die neue Verantwortung
Ein Novum im AI Act ist die Regulierung von General Purpose AI (GPAI) – also Modellen, die für viele Zwecke eingesetzt werden können (z. B. Sprachmodelle, Bildgeneratoren).
Ab August 2025 gelten für GPAI-Anbieter u. a.:
Offenlegung von Trainingsdaten
Beschreibung von Fähigkeiten und Grenzen
Kennzeichnung von KI-generierten Inhalten
Risikobewertung bei Integration in Hochrisiko-Systeme
Für sogenannte „systemische GPAI“ (z. B. große Foundation Models) gelten zusätzliche Pflichten – etwa zur Cybersicherheit, Energieeffizienz und gesellschaftlichen Auswirkungen.
Praxisbeispiele aus verschiedenen Branchen
Gesundheitswesen: KI in der Diagnostik
Ein Krankenhaus nutzt KI zur Analyse von MRT-Bildern. Risikoklasse: Hochrisiko Pflichten: Validierung der Datenqualität, menschliche Überprüfung, CE-Kennzeichnung Empfehlung: Integration in klinische Entscheidungsprozesse mit klarer Dokumentation
HR & Recruiting: KI-gestützte Bewerberauswahl
Ein Unternehmen filtert Bewerbungen mit einem KI-Tool. Risikoklasse: Hochrisiko Pflichten: Diskriminierungsfreie Daten, Transparenz gegenüber Bewerber:innen Empfehlung: Auditierbare Entscheidungslogik und Feedbackmechanismen
Finanzdienstleister: Kreditwürdigkeitsprüfung
Eine Bank nutzt KI zur Bonitätsbewertung. Risikoklasse: Hochrisiko Pflichten: Erklärbarkeit, Fairness, Risikomanagement Empfehlung: Einsatz von Bias-Detection-Tools und regelmäßige Modellüberprüfung
Öffentliche Sicherheit: Gesichtserkennung im öffentlichen Raum
Eine Stadtverwaltung testet KI-basierte Videoüberwachung. Risikoklasse: Potenziell verboten (Art. 5) Pflichten: Nur mit Ausnahmegenehmigung, strenge Zweckbindung Empfehlung: Alternativen prüfen, z. B. anonymisierte Mustererkennung
E-Commerce: Chatbots & Produktempfehlungen
Ein Online-Shop nutzt KI zur Kundeninteraktion. Risikoklasse: Begrenztes Risiko Pflichten: Transparenz („Sie sprechen mit einer KI“) Empfehlung: Labeling und einfache Möglichkeit zur menschlichen Kontaktaufnahme
Automobilindustrie: KI in Fahrerassistenzsystemen
Ein Hersteller integriert KI zur Spurhaltung und Kollisionsvermeidung. Risikoklasse: Hochrisiko (je nach Autonomiegrad) Pflichten: Robustheit, Sicherheit, menschliche Kontrolle Empfehlung: Konformitätsbewertung mit EU-Datenbankeintrag
Spezialfall: Chatbot im Kundenservice – Bias-Falle und Transparenz
Ein Telekommunikationsunternehmen setzt einen KI-Chatbot ein, um Kundenanfragen zu Verträgen und Störungen zu beantworten. Der Bot wurde mit historischen Chatverläufen trainiert.
Herausforderungen:
Bias in Trainingsdaten: Unbewusste Muster (z. B. weniger Kulanz gegenüber jüngeren Kund:innen) - die grosse, unterschätzte Gefahr für viele Unternehmen!
Transparenzpflicht: Bot gibt sich nicht als KI zu erkennen
Risikoklassifizierung: Begrenztes Risiko – kann aber bei automatisierten Entscheidungen in Hochrisiko übergehen
Lösung:
Bias-Check & Datenbereinigung
Transparente Kommunikation („Ich bin ein KI-Assistent“)
Menschliche Eskalationsmöglichkeit
Dokumentation der Entscheidungslogik & Governance-Struktur
Akteure & Verantwortlichkeiten
Der AI Act definiert dabei klare Rollen:
Jede Rolle trägt dabei Verantwortung – rechtlich, technisch und organisatorisch. Die Haftung ist nicht delegierbar oder auf andere abzuwälzen!
Governance & Konformität: Was jetzt zu tun ist
Der AI Act ist kein reines IT-Thema. Er betrifft Compliance, HR, Produktentwicklung, Marketing und Geschäftsführung. Unternehmen sollten folgende Schritte gehen:
1. KI-Inventar erstellen
Welche KI-Systeme werden eingesetzt? In welchem Kontext? Mit welchem Risiko?
2. Risikobewertung durchführen
Welche Systeme sind hochriskant? Welche Anforderungen gelten?
3. Governance-Strukturen etablieren
Wer ist verantwortlich? Wie wird dokumentiert? Welche Prozesse gelten?
4. Schulung & Awareness
Mitarbeitende müssen verstehen, was KI ist – und was sie darf.
5. Externe Partner einbinden
Zertifizierungsstellen, Rechtsberatung, technische Audits
Der AI Act im globalen Kontext
Europa geht voran – aber nicht allein. Auch andere Regionen regulieren KI:
USA: Executive Order, NIST AI Risk Framework
China: KI-Gesetz mit Fokus auf Sicherheit und Kontrolle
OECD: Prinzipien für vertrauenswürdige KI
ISO 42001: Managementsystem für KI
Der AI Act ist anschlussfähig – aber auch anspruchsvoll. Er setzt Standards, die global wirken.
Was NextLevel jetzt tut – Know-how, Orientierung und Umsetzungskraft für den DACH-Raum
Der EU AI Act verändert die Anforderungen an Unternehmen, Bildungseinrichtungen und Fachkräfte grundlegend. Als strategischer Bildungsanbieter im DACH-Raum reagiert NextLevel College proaktiv und strukturiert:
Für Lernende & Fachkräfte:
Wir entwickeln modulare Schulungen, die nicht nur Wissen vermitteln, sondern Handlungskompetenz schaffen – z. B. zur Risikoklassifizierung, Dokumentation und Governance.
Unsere Programme sind praxisnah und zertifizierbar, sodass Teilnehmende regulatorisch relevante Kompetenzen erwerben, die sie direkt im Berufsalltag anwenden können.
Durch Szenarien und Fallstudien lernen Fachkräfte, KI-Systeme nicht nur zu verstehen, sondern auch verantwortungsvoll zu gestalten.
Für Unternehmen & Organisationen:
Wir unterstützen bei der strategischen Umsetzung des AI Acts – von der Rollenklärung über die Risikobewertung bis zur Konformitätsstrategie.
Unsere Inhalte sind branchenübergreifend adaptierbar – ob Industrie, HR, Medizin oder öffentliche Verwaltung.
Mit Audit-Vorbereitungspaketen, Toolkits und Governance-Modulen helfen wir Unternehmen, regulatorische Anforderungen nicht nur zu erfüllen, sondern als Wettbewerbsvorteil zu nutzen.
Für Bildungseinrichtungen & Weiterbildungsanbieter:
Wir bieten strukturierte Curricula, die den AI Act didaktisch aufbereiten – inkl. Lehrmaterialien, Prüfungsformate und Zertifizierungsoptionen.
Als Partner für Anerkennung und Akkreditierung helfen wir, Bildungsangebote AI-Act-konform zu gestalten und international anschlussfähig zu machen.
Unsere Expertise in modularer Didaktik und regulatorischer Integration macht NextLevel zum Brückenbauer zwischen Bildung, Recht und Praxis.
Der EU AI Act: Was Schweizer Unternehmen jetzt tun müssen – und wie sie davon sogra noch profitieren können
Der EU AI Act ist beschlossene Sache – und auch für Unternehmen in der Schweiz relevant. Obwohl die Schweiz kein EU-Mitglied ist, sind viele Unternehmen direkt oder indirekt betroffen: durch Kunden, Lieferketten, Tochtergesellschaften oder den Export von KI-basierten Produkten und Dienstleistungen in den EU-Raum.
Der AI Act bringt nicht nur Pflichten, sondern auch Chancen. Wer frühzeitig handelt, kann regulatorische Risiken minimieren, Vertrauen schaffen und sich strategisch positionieren. Dieser Artikel zeigt, was ein „normales“ Unternehmen in der Schweiz jetzt konkret tun sollte – unabhängig von Branche oder Größe.
Warum der AI Act auch für Schweizer Unternehmen gilt
Auch wenn der AI Act ein EU-Gesetz ist, wirkt er über die Grenzen hinaus:
Extraterritoriale Wirkung: Der AI Act gilt für alle Anbieter und Betreiber von KI-Systemen, die in der EU vermarktet oder eingesetzt werden – unabhängig vom Sitz des Unternehmens.
Lieferketten & Kundenbeziehungen: Schweizer Unternehmen, die KI-Systeme für EU-Kunden entwickeln oder betreiben, müssen Konformität sicherstellen.
Zertifizierung & Marktzugang: Ohne CE-Kennzeichnung und Konformitätsnachweis droht der Ausschluss vom EU-Markt.
Kurz gesagt: Wer KI entwickelt, vertreibt oder nutzt – und dabei mit der EU interagiert – muss sich mit dem AI Act nicht nur auseinandersetzen sondern diesen anwenden!
Welche KI-Systeme sind betroffen?
Der AI Act unterscheidet vier Risikoklassen:
Die Einstufung hängt vom Einsatzkontext ab – nicht nur von der Technologie selbst.
Was Unternehmen jetzt konkret tun sollten
1. KI-Inventar erstellen
Welche KI-Systeme sind im Einsatz?
Wo kommen sie zum Einsatz (intern, extern, EU-bezogen)?
Welche Funktionen erfüllen sie?
2. Risikobewertung durchführen
Welche Systeme sind potenziell hochriskant?
Gibt es automatisierte Entscheidungen mit rechtlicher Wirkung?
3. Dokumentation & Governance aufbauen
Technische Unterlagen, Entscheidungslogik, Trainingsdaten
Rollenklärung: Wer ist Anbieter, Betreiber, Händler?
4. Mitarbeitende sensibilisieren und mit einbeziehen
Schulungen zu KI-Einsatz, Transparenzpflichten und regulatorischen Anforderungen
Awareness für Bias, Diskriminierung und menschliche Kontrolle
5. Konformitätsstrategie entwickeln
CE-Kennzeichnung vorbereiten (für Hochrisiko-Systeme)
EU-Datenbankeintrag, Konformitätsbewertung, externe Audits
Beispiel: Chatbot im Kundenservice
Ein Schweizer Handelsunternehmen nutzt einen KI-Chatbot zur Bearbeitung von Kundenanfragen. Der Bot wurde mit historischen Daten trainiert und ist auch für EU-Kunden aktiv.
Risiken:
Bias in Trainingsdaten (z. B. unterschiedliche Tonalität gegenüber Altersgruppen)
Transparenzpflicht (Art. 52 AI Act): Der Bot muss sich als KI zu erkennen geben
Grenzüberschreitender Einsatz: EU-Kunden → AI Act gilt
Lösung:
Datenbereinigung & Bias-Check
Transparente Kommunikation („Ich bin ein KI-Assistent“)
Menschliche Eskalationsmöglichkeit
Dokumentation der Entscheidungslogik & Governance-Struktur
Branchenübergreifende Beispiele
Strategische Chancen für Schweizer Unternehmen
Vertrauensaufbau: Transparente KI stärkt Kundenbindung – besonders im EU-Raum
Wettbewerbsvorteil: Frühzeitige Konformität wird zum Differenzierungsmerkmal
Marktzugang sichern: CE-Kennzeichnung und Konformitätsnachweis öffnen Türen
Innovation mit Verantwortung: KI wird nicht nur effizient, sondern auch ethisch
Fazit: Jetzt handeln – mit Struktur und Weitblick
Der EU AI Act ist kein Hindernis, sondern ein Rahmen für verantwortungsvolle Innovation. Schweizer Unternehmen, die KI einsetzen oder exportieren, sollten jetzt aktiv werden:
Risiken erkennen
Pflichten verstehen
Governance etablieren
Mitarbeitende befähigen
Konformität dokumentieren
Wer früh beginnt, bleibt handlungsfähig – und macht KI zum strategischen Erfolgsfaktor.
Wir als NextLevel sehen darin sogar noch weitere Chancen:
Der AI-Act als Hebel für ethische KI und digitale Transparenz
Wettbewerbsvorteil durch regulatorische Klarheit
Der AI-Act schafft nicht nur rechtliche Rahmenbedingungen, sondern eröffnet strategische Chancen für Bildungsanbieter, Plattformbetreiber und Unternehmen, die ethische KI aktiv gestalten. Wer frühzeitig auf Transparenz, Quellenangaben und nachvollziehbare Datenflüsse setzt, positioniert sich als vertrauenswürdiger Akteur in einem zunehmend regulierten Markt.
Quellenpflicht als Schutz vor Fake News und digitalen Bubbles
Die verpflichtende Angabe von Quellen wirkt wie ein digitales Gegengewicht zu Desinformation, ideologischen Echokammern und manipulativen Strömungen. Sie fördert eine neue Kultur der digitalen Aufrichtigkeit, in der Inhalte überprüfbar, kontextualisiert und ethisch eingebettet sind. Dies stärkt nicht nur die Informationsqualität, sondern auch das gesellschaftliche Vertrauen in KI-gestützte Systeme.
Blockchain als Erweiterung für Urhebernachweise
Die Integration von Blockchain-Technologie – etwa zur lückenlosen Dokumentation von Bildentstehung und Urheberschaft („Wer hat was, wann, wo erstellt?“) – bietet eine zusätzliche Ebene der Nachvollziehbarkeit. So entsteht ein manipulationssicheres System, das nicht nur AI-Act-konform, sondern auch moralisch resilient ist. Diese Kombination aus regulatorischer Compliance und technologischer Integrität wird zum echten USP für zukunftsorientierte Anbieter.
Unsere Haltung: KI als ethischer Kompass
Als Bildungsanbieter mit internationaler Verantwortung sehen wir KI nicht nur als Werkzeug, sondern als ethischen Kompass. In unserem Manifest haben wir klar verankert, dass Technologie dem Menschen dienen muss – nicht umgekehrt. Wir setzen uns aktiv dafür ein, dass KI-Systeme nicht nur funktional, sondern auch moralisch vertretbar sind. Transparenz, Quellenpflicht und digitale Nachvollziehbarkeit sind für uns keine Pflichtübungen, sondern Ausdruck einer Haltung: gegen Rechtsruck, gegen Desinformation, für eine aufgeklärte, demokratische Informationskultur.
KI als Transformator für eine bessere Informationslandschaft
Der AI-Act bietet die Bühne – Blockchain und transparente Quellenangaben liefern die Instrumente. Gemeinsam ermöglichen sie eine neue Ära der digitalen Verantwortung, in der Innovation und Integrität Hand in Hand gehen. Für uns ist das nicht nur Compliance, sondern ein aktiver Beitrag zur gesellschaftlichen Resilienz.
Auf eine Zukunft ohne Fake-News und mit vielen wirklichen Erkenntnissen!
NextLevel Höhere Fachschulen AG




Kommentare