top of page

EU AI Act und die Schweiz

  • Autorenbild: NextLevel
    NextLevel
  • 20. Sept.
  • 8 Min. Lesezeit

Der EU AI Act – Regulatorik trifft Praxis: Was Unternehmen jetzt wissen und tun müssen

Die Europäische Union hat mit dem AI Act ein weltweit einzigartiges Regelwerk geschaffen, das den Einsatz von Künstlicher Intelligenz (KI) erstmals systematisch reguliert. Während andere Regionen auf freiwillige Leitlinien oder branchenspezifische Standards setzen, geht die EU einen mutigen Schritt: Sie macht KI zur regulierten Technologie – mit klaren Pflichten, Verboten und Governance-Strukturen.


Doch was bedeutet das für Unternehmen, Entwickler und Bildungseinrichtungen? Wie lässt sich regulatorische Konformität mit Innovationskraft verbinden? Und welche strategischen Chancen ergeben sich aus dem neuen Rechtsrahmen?


Der AI Act – ein regulatorischer Meilenstein

Der AI Act ist mehr als ein Gesetz. Er ist ein Paradigmenwechsel. Er definiert KI nicht nur technisch, sondern auch ethisch und gesellschaftlich. Ziel ist es, Vertrauen zu schaffen – durch Transparenz, Kontrolle und Verantwortlichkeit.


Die Grundidee:

  • KI-Systeme werden nach ihrem Risiko klassifiziert.

  • Hochrisiko-Systeme unterliegen strengen Anforderungen.

  • Bestimmte Praktiken sind verboten.

  • General Purpose AI (GPAI) wird separat geregelt.

  • Anbieter, Betreiber und andere Akteure erhalten definierte Rollen und Pflichten.


Damit wird KI nicht nur als Technologie, sondern als sozio-technisches System verstanden – mit Auswirkungen auf Menschen, Organisationen und Gesellschaft.


AI-Act - Schweiz und EU im Handlungsdruck
AI-Act - mehr als nur eine Pflicht - auch viele Chancen stecken darin verborgen. Wer findet sie? NextLevel

Risikoklassen: Von verboten bis unreguliert

Der AI Act unterscheidet vier Risikoklassen:

Klasse

Beschreibung

Beispiele

Verbotene KI

Praktiken, die gegen Grundrechte verstoßen

Social Scoring, emotionale Erkennung am Arbeitsplatz

Hochrisiko-KI

Systeme mit erheblichem Einfluss auf Leben, Rechte oder Sicherheit

Medizinische Diagnostik, Kreditvergabe, Personalrekrutierung

Begrenztes Risiko

Systeme mit Transparenzpflichten

Chatbots, Deepfakes

Minimales Risiko

Unkritische Anwendungen

Spamfilter, KI in Videospielen

Diese Klassifizierung ist dynamisch – sie hängt vom Einsatzkontext ab. Ein KI-System kann je nach Anwendung hochriskant oder harmlos sein.


Hochrisiko-KI: Anforderungen im Detail

Wer ein Hochrisiko-KI-System anbietet oder betreibt, muss umfangreiche Pflichten erfüllen:


  • Risikomanagement: Identifikation, Bewertung und Minimierung von Risiken

  • Datenqualität: Trainingsdaten müssen relevant, repräsentativ und diskriminierungsfrei sein

  • Dokumentation & Protokollierung: Technische Unterlagen, Logs, Konformitätsberichte

  • Transparenz & Nutzerinformation: Klarheit über Funktion, Grenzen und Einsatz

  • Menschliche Aufsicht: Mechanismen zur Kontrolle und Eingreifbarkeit

  • Robustheit & Sicherheit: Schutz vor Manipulation, Fehlfunktionen und Missbrauch


Diese Anforderungen sind nicht nur juristisch – sie sind auch operativ. Sie betreffen Entwicklung, Deployment, Monitoring und Governance.


GPAI & Foundation Models: Die neue Verantwortung

Ein Novum im AI Act ist die Regulierung von General Purpose AI (GPAI) – also Modellen, die für viele Zwecke eingesetzt werden können (z. B. Sprachmodelle, Bildgeneratoren).

Ab August 2025 gelten für GPAI-Anbieter u. a.:


  • Offenlegung von Trainingsdaten

  • Beschreibung von Fähigkeiten und Grenzen

  • Kennzeichnung von KI-generierten Inhalten

  • Risikobewertung bei Integration in Hochrisiko-Systeme


Für sogenannte „systemische GPAI“ (z. B. große Foundation Models) gelten zusätzliche Pflichten – etwa zur Cybersicherheit, Energieeffizienz und gesellschaftlichen Auswirkungen.


Praxisbeispiele aus verschiedenen Branchen

Gesundheitswesen: KI in der Diagnostik

Ein Krankenhaus nutzt KI zur Analyse von MRT-Bildern. Risikoklasse: Hochrisiko Pflichten: Validierung der Datenqualität, menschliche Überprüfung, CE-Kennzeichnung Empfehlung: Integration in klinische Entscheidungsprozesse mit klarer Dokumentation


HR & Recruiting: KI-gestützte Bewerberauswahl

Ein Unternehmen filtert Bewerbungen mit einem KI-Tool. Risikoklasse: Hochrisiko Pflichten: Diskriminierungsfreie Daten, Transparenz gegenüber Bewerber:innen Empfehlung: Auditierbare Entscheidungslogik und Feedbackmechanismen


Finanzdienstleister: Kreditwürdigkeitsprüfung

Eine Bank nutzt KI zur Bonitätsbewertung. Risikoklasse: Hochrisiko Pflichten: Erklärbarkeit, Fairness, Risikomanagement Empfehlung: Einsatz von Bias-Detection-Tools und regelmäßige Modellüberprüfung


Öffentliche Sicherheit: Gesichtserkennung im öffentlichen Raum

Eine Stadtverwaltung testet KI-basierte Videoüberwachung. Risikoklasse: Potenziell verboten (Art. 5) Pflichten: Nur mit Ausnahmegenehmigung, strenge Zweckbindung Empfehlung: Alternativen prüfen, z. B. anonymisierte Mustererkennung


E-Commerce: Chatbots & Produktempfehlungen

Ein Online-Shop nutzt KI zur Kundeninteraktion. Risikoklasse: Begrenztes Risiko Pflichten: Transparenz („Sie sprechen mit einer KI“) Empfehlung: Labeling und einfache Möglichkeit zur menschlichen Kontaktaufnahme


Automobilindustrie: KI in Fahrerassistenzsystemen

Ein Hersteller integriert KI zur Spurhaltung und Kollisionsvermeidung. Risikoklasse: Hochrisiko (je nach Autonomiegrad) Pflichten: Robustheit, Sicherheit, menschliche Kontrolle Empfehlung: Konformitätsbewertung mit EU-Datenbankeintrag


Spezialfall: Chatbot im Kundenservice – Bias-Falle und Transparenz

Ein Telekommunikationsunternehmen setzt einen KI-Chatbot ein, um Kundenanfragen zu Verträgen und Störungen zu beantworten. Der Bot wurde mit historischen Chatverläufen trainiert.


Herausforderungen:

  • Bias in Trainingsdaten: Unbewusste Muster (z. B. weniger Kulanz gegenüber jüngeren Kund:innen) - die grosse, unterschätzte Gefahr für viele Unternehmen!

  • Transparenzpflicht: Bot gibt sich nicht als KI zu erkennen

  • Risikoklassifizierung: Begrenztes Risiko – kann aber bei automatisierten Entscheidungen in Hochrisiko übergehen


Lösung:

  • Bias-Check & Datenbereinigung

  • Transparente Kommunikation („Ich bin ein KI-Assistent“)

  • Menschliche Eskalationsmöglichkeit

  • Dokumentation der Entscheidungslogik & Governance-Struktur


Akteure & Verantwortlichkeiten

Der AI Act definiert dabei klare Rollen:

Rolle

Aufgabe

Anbieter

Entwicklung und Inverkehrbringen von KI-Systemen

Betreiber

Einsatz und Kontrolle im eigenen Kontext

Einführer

Import von KI-Systemen in die EU

Händler

Vertrieb und Vermarktung

Bevollmächtigte

Vertretung nicht-europäischer Anbieter

Jede Rolle trägt dabei Verantwortung – rechtlich, technisch und organisatorisch. Die Haftung ist nicht delegierbar oder auf andere abzuwälzen!


Governance & Konformität: Was jetzt zu tun ist

Der AI Act ist kein reines IT-Thema. Er betrifft Compliance, HR, Produktentwicklung, Marketing und Geschäftsführung. Unternehmen sollten folgende Schritte gehen:


1. KI-Inventar erstellen

Welche KI-Systeme werden eingesetzt? In welchem Kontext? Mit welchem Risiko?

2. Risikobewertung durchführen

Welche Systeme sind hochriskant? Welche Anforderungen gelten?

3. Governance-Strukturen etablieren

Wer ist verantwortlich? Wie wird dokumentiert? Welche Prozesse gelten?

4. Schulung & Awareness

Mitarbeitende müssen verstehen, was KI ist – und was sie darf.

5. Externe Partner einbinden

Zertifizierungsstellen, Rechtsberatung, technische Audits



Der AI Act im globalen Kontext

Europa geht voran – aber nicht allein. Auch andere Regionen regulieren KI:

  • USA: Executive Order, NIST AI Risk Framework

  • China: KI-Gesetz mit Fokus auf Sicherheit und Kontrolle

  • OECD: Prinzipien für vertrauenswürdige KI

  • ISO 42001: Managementsystem für KI


Der AI Act ist anschlussfähig – aber auch anspruchsvoll. Er setzt Standards, die global wirken.


Was NextLevel jetzt tut – Know-how, Orientierung und Umsetzungskraft für den DACH-Raum

Der EU AI Act verändert die Anforderungen an Unternehmen, Bildungseinrichtungen und Fachkräfte grundlegend. Als strategischer Bildungsanbieter im DACH-Raum reagiert NextLevel College proaktiv und strukturiert:


Für Lernende & Fachkräfte:

  • Wir entwickeln modulare Schulungen, die nicht nur Wissen vermitteln, sondern Handlungskompetenz schaffen – z. B. zur Risikoklassifizierung, Dokumentation und Governance.

  • Unsere Programme sind praxisnah und zertifizierbar, sodass Teilnehmende regulatorisch relevante Kompetenzen erwerben, die sie direkt im Berufsalltag anwenden können.

  • Durch Szenarien und Fallstudien lernen Fachkräfte, KI-Systeme nicht nur zu verstehen, sondern auch verantwortungsvoll zu gestalten.


Für Unternehmen & Organisationen:

  • Wir unterstützen bei der strategischen Umsetzung des AI Acts – von der Rollenklärung über die Risikobewertung bis zur Konformitätsstrategie.

  • Unsere Inhalte sind branchenübergreifend adaptierbar – ob Industrie, HR, Medizin oder öffentliche Verwaltung.

  • Mit Audit-Vorbereitungspaketen, Toolkits und Governance-Modulen helfen wir Unternehmen, regulatorische Anforderungen nicht nur zu erfüllen, sondern als Wettbewerbsvorteil zu nutzen.


Für Bildungseinrichtungen & Weiterbildungsanbieter:

  • Wir bieten strukturierte Curricula, die den AI Act didaktisch aufbereiten – inkl. Lehrmaterialien, Prüfungsformate und Zertifizierungsoptionen.

  • Als Partner für Anerkennung und Akkreditierung helfen wir, Bildungsangebote AI-Act-konform zu gestalten und international anschlussfähig zu machen.

  • Unsere Expertise in modularer Didaktik und regulatorischer Integration macht NextLevel zum Brückenbauer zwischen Bildung, Recht und Praxis.

 

Der EU AI Act: Was Schweizer Unternehmen jetzt tun müssen – und wie sie davon sogra noch profitieren können


Der EU AI Act ist beschlossene Sache – und auch für Unternehmen in der Schweiz relevant. Obwohl die Schweiz kein EU-Mitglied ist, sind viele Unternehmen direkt oder indirekt betroffen: durch Kunden, Lieferketten, Tochtergesellschaften oder den Export von KI-basierten Produkten und Dienstleistungen in den EU-Raum.


Der AI Act bringt nicht nur Pflichten, sondern auch Chancen. Wer frühzeitig handelt, kann regulatorische Risiken minimieren, Vertrauen schaffen und sich strategisch positionieren. Dieser Artikel zeigt, was ein „normales“ Unternehmen in der Schweiz jetzt konkret tun sollte – unabhängig von Branche oder Größe.


Warum der AI Act auch für Schweizer Unternehmen gilt

Auch wenn der AI Act ein EU-Gesetz ist, wirkt er über die Grenzen hinaus:


  • Extraterritoriale Wirkung: Der AI Act gilt für alle Anbieter und Betreiber von KI-Systemen, die in der EU vermarktet oder eingesetzt werden – unabhängig vom Sitz des Unternehmens.

  • Lieferketten & Kundenbeziehungen: Schweizer Unternehmen, die KI-Systeme für EU-Kunden entwickeln oder betreiben, müssen Konformität sicherstellen.

  • Zertifizierung & Marktzugang: Ohne CE-Kennzeichnung und Konformitätsnachweis droht der Ausschluss vom EU-Markt.


Kurz gesagt: Wer KI entwickelt, vertreibt oder nutzt – und dabei mit der EU interagiert – muss sich mit dem AI Act nicht nur auseinandersetzen sondern diesen anwenden!


Welche KI-Systeme sind betroffen?

Der AI Act unterscheidet vier Risikoklassen:

Klasse

Beispiele

Pflichten

Verbotene KI

Social Scoring, emotionale Erkennung am Arbeitsplatz

Einsatz verboten

Hochrisiko-KI

Medizinische Diagnostik, Kreditvergabe, Personalrekrutierung

Strenge Anforderungen (z. B. Dokumentation, menschliche Kontrolle)

Begrenztes Risiko

Chatbots, Deepfakes

Transparenzpflicht („Sie sprechen mit einer KI“)

Minimales Risiko

Spamfilter, KI in Videospielen

Keine regulatorischen Pflichten

Die Einstufung hängt vom Einsatzkontext ab – nicht nur von der Technologie selbst.


Was Unternehmen jetzt konkret tun sollten

1. KI-Inventar erstellen

  • Welche KI-Systeme sind im Einsatz?

  • Wo kommen sie zum Einsatz (intern, extern, EU-bezogen)?

  • Welche Funktionen erfüllen sie?

2. Risikobewertung durchführen

  • Welche Systeme sind potenziell hochriskant?

  • Gibt es automatisierte Entscheidungen mit rechtlicher Wirkung?

3. Dokumentation & Governance aufbauen

  • Technische Unterlagen, Entscheidungslogik, Trainingsdaten

  • Rollenklärung: Wer ist Anbieter, Betreiber, Händler?

4. Mitarbeitende sensibilisieren und mit einbeziehen

  • Schulungen zu KI-Einsatz, Transparenzpflichten und regulatorischen Anforderungen

  • Awareness für Bias, Diskriminierung und menschliche Kontrolle

5. Konformitätsstrategie entwickeln

  • CE-Kennzeichnung vorbereiten (für Hochrisiko-Systeme)

  • EU-Datenbankeintrag, Konformitätsbewertung, externe Audits


Beispiel: Chatbot im Kundenservice

Ein Schweizer Handelsunternehmen nutzt einen KI-Chatbot zur Bearbeitung von Kundenanfragen. Der Bot wurde mit historischen Daten trainiert und ist auch für EU-Kunden aktiv.


Risiken:

  • Bias in Trainingsdaten (z. B. unterschiedliche Tonalität gegenüber Altersgruppen)

  • Transparenzpflicht (Art. 52 AI Act): Der Bot muss sich als KI zu erkennen geben

  • Grenzüberschreitender Einsatz: EU-Kunden → AI Act gilt


Lösung:

  • Datenbereinigung & Bias-Check

  • Transparente Kommunikation („Ich bin ein KI-Assistent“)

  • Menschliche Eskalationsmöglichkeit

  • Dokumentation der Entscheidungslogik & Governance-Struktur


Branchenübergreifende Beispiele

Branche

KI-Anwendung

Risikoklasse

Empfehlung

Industrie

Qualitätskontrolle mit KI-Bildanalyse

Hochrisiko

CE-Kennzeichnung, menschliche Kontrolle

Finanzen

Kreditwürdigkeitsprüfung

Hochrisiko

Bias-Detection, Auditierbarkeit

HR

Bewerbervorauswahl

Hochrisiko

Transparenz, Feedbackmechanismen

E-Commerce

Chatbots & Produktempfehlungen

Begrenztes Risiko

Labeling, Feedbackoptionen

Logistik

Routenoptimierung

Minimales Risiko

Keine regulatorischen Pflichten

Strategische Chancen für Schweizer Unternehmen

  • Vertrauensaufbau: Transparente KI stärkt Kundenbindung – besonders im EU-Raum

  • Wettbewerbsvorteil: Frühzeitige Konformität wird zum Differenzierungsmerkmal

  • Marktzugang sichern: CE-Kennzeichnung und Konformitätsnachweis öffnen Türen

  • Innovation mit Verantwortung: KI wird nicht nur effizient, sondern auch ethisch


Fazit: Jetzt handeln – mit Struktur und Weitblick

Der EU AI Act ist kein Hindernis, sondern ein Rahmen für verantwortungsvolle Innovation. Schweizer Unternehmen, die KI einsetzen oder exportieren, sollten jetzt aktiv werden:


  • Risiken erkennen

  • Pflichten verstehen

  • Governance etablieren

  • Mitarbeitende befähigen

  • Konformität dokumentieren


Wer früh beginnt, bleibt handlungsfähig – und macht KI zum strategischen Erfolgsfaktor.

Wir als NextLevel sehen darin sogar noch weitere Chancen:

Der AI-Act als Hebel für ethische KI und digitale Transparenz


Wettbewerbsvorteil durch regulatorische Klarheit

Der AI-Act schafft nicht nur rechtliche Rahmenbedingungen, sondern eröffnet strategische Chancen für Bildungsanbieter, Plattformbetreiber und Unternehmen, die ethische KI aktiv gestalten. Wer frühzeitig auf Transparenz, Quellenangaben und nachvollziehbare Datenflüsse setzt, positioniert sich als vertrauenswürdiger Akteur in einem zunehmend regulierten Markt.


Quellenpflicht als Schutz vor Fake News und digitalen Bubbles

Die verpflichtende Angabe von Quellen wirkt wie ein digitales Gegengewicht zu Desinformation, ideologischen Echokammern und manipulativen Strömungen. Sie fördert eine neue Kultur der digitalen Aufrichtigkeit, in der Inhalte überprüfbar, kontextualisiert und ethisch eingebettet sind. Dies stärkt nicht nur die Informationsqualität, sondern auch das gesellschaftliche Vertrauen in KI-gestützte Systeme.


Blockchain als Erweiterung für Urhebernachweise

Die Integration von Blockchain-Technologie – etwa zur lückenlosen Dokumentation von Bildentstehung und Urheberschaft („Wer hat was, wann, wo erstellt?“) – bietet eine zusätzliche Ebene der Nachvollziehbarkeit. So entsteht ein manipulationssicheres System, das nicht nur AI-Act-konform, sondern auch moralisch resilient ist. Diese Kombination aus regulatorischer Compliance und technologischer Integrität wird zum echten USP für zukunftsorientierte Anbieter.


Unsere Haltung: KI als ethischer Kompass

Als Bildungsanbieter mit internationaler Verantwortung sehen wir KI nicht nur als Werkzeug, sondern als ethischen Kompass. In unserem Manifest haben wir klar verankert, dass Technologie dem Menschen dienen muss – nicht umgekehrt. Wir setzen uns aktiv dafür ein, dass KI-Systeme nicht nur funktional, sondern auch moralisch vertretbar sind. Transparenz, Quellenpflicht und digitale Nachvollziehbarkeit sind für uns keine Pflichtübungen, sondern Ausdruck einer Haltung: gegen Rechtsruck, gegen Desinformation, für eine aufgeklärte, demokratische Informationskultur.


KI als Transformator für eine bessere Informationslandschaft

Der AI-Act bietet die Bühne – Blockchain und transparente Quellenangaben liefern die Instrumente. Gemeinsam ermöglichen sie eine neue Ära der digitalen Verantwortung, in der Innovation und Integrität Hand in Hand gehen. Für uns ist das nicht nur Compliance, sondern ein aktiver Beitrag zur gesellschaftlichen Resilienz.


Auf eine Zukunft ohne Fake-News und mit vielen wirklichen Erkenntnissen!


NextLevel Höhere Fachschulen AG

 

 
 
 

Kommentare


bottom of page