Ratgeber

Artificial Intelligence Act - das müssen Unternehmen wissen

AI Regulation and Justice. Legal and Technology concept. Hologram of the Brain and Statue of Goddess Themis: Symbols of Law, Equality, Legislation and artificial intelligence.

Künstliche Intelligenz (KI) ist zu einem zentralen Bestandteil der digitalen Wirtschaft geworden. Ob in der Fertigung, im Gesundheitswesen oder im Finanzsektor – KI treibt Innovationen voran und schafft neue Möglichkeiten. Die Europäische Union hat mit dem Artificial Intelligence Act (AI Act) dazu einen rechtlichen Rahmen verabschiedet mit dem Ziel, vertrauenswürdige KI und verantwortungsvolle KI-Innovationen in Europa zu fördern. Basierend auf einen risikobasierten Ansatz ist die Verordnung seit dem 1. August 2024 in Kraft getreten. Die EU-Mitgliedsstaaten sind nun in der Verpflichtung, den AI Act ins nationale Recht einzubinden. Die Konkretisierung der rechtlichen Anforderungen erfolgt aktuell noch an diversen Stellen. KI-entwickelnde wie auch KI-nutzende Unternehmen sollten sich trotzdem jetzt schon auf die Umsetzung vorbereiten. Dafür gilt es, sich früh mit den komplexen Anforderungen des AI Acts auseinanderzusetzen.

Warum gibt es den AI Act?

Der AI Act wurde eingeführt, um die potenziellen Risiken, die mit dem Einsatz von Künstlicher Intelligenz verbunden sind, zu minimieren. Es gibt Bedenken, dass KI-Systeme diskriminieren könnten,

  • z. B. wenn sie auf voreingenommenen Datensätzen basieren (KI Bias),
  • Nutzer manipulieren oder täuschen
  • oder verwendet werden könnten, um Menschen unrechtmäßig zu überwachen.

Dabei ist der AI Act eine sektorübergreifende Verordnung, die sicherstellt, dass KI die mit EU Bürgerinnen und Bürgern agiert deren Sicherheit, Gesundheit und Grundrechte wahrt und im Einklang mit europäischen Werten eingesetzt wird.

Übersicht: Für wen gilt der AI Act?

AnbieterBetreiberProduktherstellerBevöllmächtigterEinführerHändler
Entwickeln KI-Systeme, stellen sie zur Nutzung bereit oder bringen sie unter eigenen Namen oder eigener Handelsmarke auf den MarktNutzen KI-Systeme oder integrieren sie in interne ProzesseBieten oder vertreiben KI-Anwendungen unter eigenen Namen oder eigener Marke in der EU als Produkt oder Bestandteil eines Produkts an.In der EU niedergelassene Vertreter von ausländischen KI-AnbieternBringen KI-Systeme von ausländischen Anbietern auf den europäischen Binnenmarkt.Vertreiben KI-Produkte an Endnutzer oder andere Unternehmen.
Beispiel: Open AI ist Anbieter von ChatGPTBeispiel: Eine Bank, die KI zur Betrugserkennung von Transaktionen verwendetBeispiel: Ein Autohersteller, der KI zur Produktentwicklung nutztBeispiel: AnwaltskanzleienBeispiel Eine EU-Tochtergesellschaft, die das KI-System auf den Markt bringtBeispiel Unternehmen

Für wen gilt der AI Act?

Der Rechtsrahmen gilt nach dem Marktortprinzip

  • für jegliche Akteure innerhalb und außerhalb der EU,
  • die ein KI-System in der Union auf den Markt bringen
  • und dessen Verwendung Auswirkungen auf EU-Bürgerinnen und EU-Bürger hat.

In Anbetracht der breiten Anwendungsbereiche von KI nimmt der AI Act jegliche Akteure entlang der Wertschöpfungskette in Verantwortung, wenn auch mit unterschiedlichem Maß.

Wichtig zu wissen ist, dass im Rahmen des AI Acts verschiedene Akteure in die Rolle des Anbieters wechseln könnten, mit den dazugehörigen Pflichten.

Besondere Vorsicht gilt bei Hochrisiko-KI. Bringen Einführer, Produkthersteller oder Betreiber ein Hochrisiko-KI-System unter ihrem eigenen Namen oder ihrer Handelsmarke auf den Markt oder nehmen es in Betrieb, gelten sie als Anbieter im Sinne des AI Acts und müssen die Pflichten aus Art. 16 (Art. 28) erfüllen. Insbesondere bei Produktherstellern kann dies der Fall sein, die Produkte meist unter eigenem Namen auf den Markt bringen.

Dies gilt auch, wenn Unternehmen die Zweckbestimmung eines Hochrisiko-KI-Systems ändern oder wesentliche Änderungen daran vornehmen, die es weiterhin als Hochrisiko-KI-System einstufen würde. Umgekehrt könnten Änderungen dazu führen, dass ein KI-System oder dessen Zweckbestimmung dieses zu einem Hochrisiko-KI-System machen könnten.

In solchen Fällen haftet der ursprüngliche Anbieter nicht mehr und der neue Anbieter ist für die Erfüllung aller Anforderungen der KI-Verordnung verantwortlich. Der ursprüngliche Anbieter muss dem neuen Anbieter jedoch die notwendigen Dokumentationen und Unterlagen zur Verfügung stellen. Diese gilt es umfassend zu prüfen und Korrekturen vorzunehmen, wenn notwendig.

Risikobasierter Ansatz

Risikopyramide AI Act
Quelle: Europäische Kommission

Der AI Act legt besondere Anforderungen für unterschiedliche Arten von KI fest, abhängig von ihrem Risikopotenzial. Kurz um gilt: je höher das Risiko, desto strenger die Anforderungen.

Was müssen Unternehmen tun?

Unternehmen müssen ihre KI-Systeme nach den klassifizierten Risiken einordnen, um entsprechende Maßnahmen zu ergreifen.

Unterschieden wird in vier Risikokategorien:

Pflichten für Anbieter von Hochrisiko-KI

Die umfangreichsten Pflichten müssen Unternehmen erfüllen, die als Anbieter von Hochrisiko-KI definiert werden. Unter Abschnitt II des AI Acts finden Unternehmen die technischen, sicherheitsrelevanten und organisatorischen Pflichten, die im Falle von Nicht-Einhaltung zu hohen Bußgeldern führen können.

Pflichten für Betreiber von Hochrisiko-KI

Betreiber von Hochrisiko-KI haben vor allem eine Transparenz- und Informationspflicht zu erfüllen, die denen der Anbieter ähnelt sowie bestimmte Umsetzungspflichten des Anbieters zu überprüfen. Dabei handelt es sich um:

  • KI-Kompetenzvermittlung der Mitarbeiter
  • angemessene technische und organisatorische Maßnahmen ergreifen, um den sicheren und ordnungsgemäßen Betrieb des KI-Systems zu gewährleisten, wie vom Anbieter in der Gebrauchsanweisung beschrieben
  • Menschliche Aufsichtspflicht erfüllen
  • auf eine zweckgebundene Nutzung achten, um nicht in die Rolle des Anbieters zu rutschen
  • Benachrichtigung des Anbieters, Händlers oder der Marktüberwachungsbehörde bei Zweifeln über die Konformität der Hochrisiko-KI bis hin zum Aussetzen des KI-Systems im Notfall
  • Aufbewahrungspflicht der vom Anbieter erstellten Protokolle (mind. 6 Monate)
  • Prüfen, ob die EU-Konformitätserklärung vom Anbieter erstellt wurde
  • Prüfen, ob das KI-System in der EU-Datenbank registriert wurde (Hochrisiko-KI in kritischer Infrastruktur wird in der nationalen Datenbanken registriert)
  • Kooperation mit den zuständigen Behörden

Arbeitgeberpflicht zur KI-Kompetenzvermittlung (Artikel 4)

Seit dem 2. Februar 2025 ist die Arbeitgeberpflicht in der KI-Kompetenzvermitllung in Kraft getreten. Demnach gilt es sicherzustellen, dass alle Mitarbeitenden die entweder„nur“ Chat GPT benutzen oder KI-Systeme entwickeln über ein ausreichendes Maße an KI-Kompetenz verfügen müssen. über die erforderlichen Kompetenzen und Kenntnisse verfügen.

Der AI Act definiert in Artikel 4, dass Anbieter und Betreiber von KI-Systemen Maßnahmen ergreifen müssen, „um nach besten Kräften sicherzustellen, dass ihr Personal und andere Personen, die in ihrem Auftrag mit […] KI-Systemen befasst sind, über ein ausreichendes Maß an KI-Kompetenz verfügen, wobei ihre technischen Kenntnisse, ihre Erfahrung, ihre Ausbildung und Schulung und der Kontext, in dem die KI- Systeme eingesetzt werden sollen, sowie die Personen oder Personengruppen, bei denen die KI-Systeme eingesetzt werden sollen, zu berücksichtigen sind“.

Art. 3(56) definiert KI-Kompetenz als „die Fähigkeiten, die Kenntnisse und das Verständnis, die es Anbietern, Betreibern und Betroenen […] ermöglichen, KI-Systeme sachkundig einzusetzen sowie sich der Chancen und Risiken von KI und möglicher Schäden, die sie verursachen kann, bewusst zu werden“

Dies betrifft Anbieter und Betreiber, unabhängig davon, ob es sich um eine KI mit minimalem oder hohen Risiko handelt. Zusammenfassend sind folgende Aspekte zu berücksichtigen:

  • Technische Kenntnisse und Erfahrung der Mitarbeitenden
  • Umfang der Ausbildung und Schulung
  • Der Kontext, in dem KI-Systeme eingesetzt werden
  • Die betroffenen Personen oder Personengruppen

Zudem bietet es sich an, das Thema Datenschutz aufzugreifen und Mitarbeitende gemäß DSGVO aufzuklären.

Im Webinar der Europäischen Kommission zur KI-Kompetenzvermittlung am 20. Februar 2025 gab die Kommission an, dass eine Zertifizierung über relevante Schulungen von seiten der Europäischen Kommission nicht verpflichtend sei. Vielmehr sei es ratsam, den Zeitpunkt und die Teilnehmenden der Schulungen zu dokumentieren u.a. für den Fall von Haftungsfragen.

Um den gesetzlichen Anforderungen nachzukommen, sollten Unternehmen folgende Maßnahmen ergreifen:

  • Erstellung eines KI-Inventars: Erfassen Sie alle im Unternehmen verwendeten KI-Anwendungen. Nutzen Ihre Mitarbeitenden ChatGPT oder Co-Pilot? Entwickeln sie KI-Systeme selbst?
  • Rollen und Verantwortlichkeiten klären: Welche Rolle nehmen Ihre Mitarbeitenden ein, und welche Pflichten sind damit verbunden? Sind sich alle Beteiligten ihrer Verantwortung bewusst?
  • Bestandsaufnahme der KI-Kompetenz: Welche Kenntnisse haben Ihre Mitarbeitenden bereits? Gibt es Unterschiede im Kenntnisstand?
  • Schulungsprogramme entwickeln und implementieren: Sorgen Sie für strukturierte Schulungen, die die notwendigen technischen und ethischen Grundlagen für den Umgang mit KI vermitteln. Sind alle auf dem gleichen Stand? Reicht eine generelle Schulung aus oder muss ich einzelne Mitarbeitenden oder Abteilungen einen vertieften Kenntnisstand vermitteln?
  • Trainings zur sicheren Nutzung von KI-Systemen bereitstellen: Insbesondere in sicherheitskritischen oder sensiblen Bereichen sind spezifische Schulungen notwendig.
  • Regelmäßige Auffrischungskurse anbieten: Halten Sie Ihr Team durch kontinuierliche Fortbildungen auf dem neuesten Stand der KI-Entwicklung und Best Practices.

KI mit allgemeinem Verwendungszweck: mit und ohne systemischem Risiko

KI mit allgemeinem Verwendungszweck, auch General Purpose Artificial Intelligence (GPAI) genannt, hat ein erhebliches Einsatzspektrum. Dies macht sie zu einem kraftvollen Werkzeug für Innovation und Effizienzsteigerung etwa als virtueller Assistent im Kundenservice oder bei der Analyse von Krankheitsdaten.

Der Unterschied zwischen GPAI ohne und mit systemischem Risiko besteht hauptsächlich in der Höhe des Wirkungsgrades, die sie für den Markt und die Gesellschaft darstellen. Daraus ergeben sich strengere regulatorischen Anforderungen und Schutzmaßnahmen, die von Anbietern und Bevollmächtigten erfüllt werden müssen.

GPAI mit systemischem Risiko (Artikel 51)

Als GPAI mit systemischem Risiko werden KI-Modelle bezeichnet, die eine der folgenden Bedingungen erfüllen. Zum einen, wenn es sich um GPAIs mit einem hohen Wirkungsgrad handelt. Unter Artikel 51, Absatz 2 wird hierzu eine Gesamtrechenleistung von mehr 10^25 FLOPs (Floating Point Operations) genannt, die beim Training verwendet wurden. Zum anderen, wenn eine der acht in Anhang XIII gelisteten Kriterien zutrifft. Diese reichen von der Größe oder Qualität der Datensätze bis zu der Anzahl der Parameter. Interessant sind hierbei auch Buchstabe f) und g) des Anhangs, die auf die Reichweite eingehen. Während die Zahl der registrierten Endnutzer offen bleibt, können mindestens 10.000 gewerblich in der EU registrierte Nutzer das GPAI-Modell als systemisch riskant einstufen. Daraus ließe sich schließen, dass ChatGPT als ein solches gelten dürfte.

Pflichten für Anbieter von GPAI ohne und mit systemischem Risiko

Pflichten für Betreiber von GPAI

Die Verordnung erwähnt bei der Nutzung von GPAI keine speziellen Pflichten für Betreiber. Trotzdem ist es ratsam, gerade bei der Nutzung von GPAI mit systemischem Risiko eine Überprüfung der Anbieterverpflichtungen zu erwägen.

KI-Aufsichtsbehörde in Deutschland

Die nationale KI-Aufsichtsbehörde muss spätestens bis zum 2. August 2025 von der Bundesregierung ernannt werden.

Als zentrale Anlaufstelle wird ihre Hauptaufgabe sein, die Einhaltung der Vorgaben des AI Acts in Deutschland zu überwachen. Dazu gehören:

  • die Überprüfung und Zulassung von Hochrisiko-KI-Systemen,
  • Beratung und Unterstützung für Unternehmen
  • Durchführung von Audits und Inspektionen
  • bei Verstößen Sanktionen zu verhängen, die von Bußgeldern bis hin zu Nutzungsbeschränkungen oder dem vollständigen Verbot eines KI-Systems reichen können.

Das Bundesministerium für Wirtschaft und Klimaschutz sieht dafür die Bundesnetzagentur vor, die nebst der Aufsichtsaufgaben auch Maßnahmen zur Innovationsförderung umsetzen soll gemäß der Sandboxes. Der Bundesnetzagentur sollen jedoch nicht alle Kompetenzen im Bereich KI zugeschrieben werden. Produktrelevante Fragen für den Automotivebereich zum Beispiel soll weiterhin das Kraftfahrtbundesamt ausüben.

Die Verhandlungen dazu sind noch nicht abgeschlossen.

Was passiert bei Regelbrüchen?

Die Sanktionsregeln sehen vor, dass Mitgliedstaaten bei Verstößen gegen KI-Vorschriften wirksame und abschreckende Strafen verhängen müssen.

Die Summen variieren je nach Schwere des Verstoßes und berücksichtigen die Unternehmensgröße.

  • Verstöße bei verbotenen Praktiken aus Artikel 5 oder Verletzungen von Datenanforderungen:
    Strafen bis zu 35 Millionen Euro oder 7 % des gesamten weltweiten Vorjahresumsatzes (je nachdem, welcher Wert höher ist).
  • Verstöße gegen andere Vorschriften der Verordnung:
    Strafen bis zu 15 Millionen Euro oder 3 % des gesamten weltweiten Vorjahresumsatzes.
    Hierunter fallen Vorschriften für Hochrisiko-KI wie Konformitätsprüfung oder Risikobewältigungsmaßnahmen. Unternehmen, die entlang der Wertschöpfungskette als Akteure (Anbieter, Betreiber, Händler oder Einführer) laut AI Act fungieren, laufen Gefahr, bei nicht konformen Praktiken Geldbußen zu erhalten.
  • Nichteinhalten der GPAI-Vorschriften:
    Strafen bis zu 15 Millionen Euro oder 3 % des gesamten weltweiten Vor-jahresumsatzes.
  • Falsche, unvollständige oder irreführende Angaben an Behörden:
    Strafen bis zu 7,5 Millionen Euro oder 1,5 % des gesamten weltweiten Vorjahresumsatzes.

Für KMUs und Start-Ups gelten jeweils die niedrigeren Schwellenwerte.

Welche Umsetzungsfristen müssen Unternehmen kennen?

zeitplan_ai_act_1
Quelle: IHK für München und Oberbayern

Unternehmen sollten sich für ihre Compliance-Strategie gut mit den verschiedenen Umsetzungsfristen auseinandersetzen, um etwaige Verstöße zu umgehen und ihnen bei dabei hilfreich sein können.

Checkliste für Unternehmen

Mismatch AI Act und Datenschutz

Unternehmen, die Künstliche Intelligenz einsetzen, müssen beim Umgang mit personenbezogenen Daten die Datenschutz-Grundverordnung (DSGVO) beachten, die eine rechtmäßige, transparente und zweckgebundene Verarbeitung verlangt.

Werden KI-Systeme mit personenbezogenen Daten trainiert oder verarbeiten sie diese, dann müssen Unternehmen befugt auf einer Rechtsgrundlage gemäß der DSGVO wie z. B. einem berechtigen Interesse (Art. 6 Abs. 1 lit. f DSGVO) oder einer Einwilligung (Art. 6 Abs. 1 lit. a DSGVO bzw. bei besonderen Kategorien personenbezogener Daten nach Art. 9 Abs. 1 lit. a DSGVO) in allen Stufen der Datenverarbeitung, d. h. beim Erheben von Trainingsdaten, beim Verarbeiten von Trainingsdaten, bei der Bereitstellung solcher KI-Anwendungen, beim Nutzen von solchen und beim Nutzen von Ergebnissen solcher KI-Anwendungen, hierin enthaltene personenbezogene Daten verarbeiten dürfen. Die ist vorab zu klären und zu dokumentieren im Verzeichnis von Verarbeitungstätigkeiten.

Zudem müssen KI-Systeme so konfiguriert oder eingestellt sein, dass sie den Rechtsgrundsätzen Datenschutz durch Technik bzw. Technikvoreinstellung sowie dem Grundsatz der Datenminimierung (Art.5, Abs. 1 lit. c DSGVO) entsprechen. Unternehmen unterliegen hinsichtlich der Datenverarbeitung den Informationspflichten nach DSGVO. Bei KI-Systemen haben sie stets auch über die involvierte Logik zu informieren. Zwischen dem Anbieter und dem Betreiber einer KI ist ein Vertrag über Auftragsverarbeitung (weisungsgebundene Auftragsverarbeitung) abzuschließen. Hier sind die Vorgaben der DSGVO zu Drittstaatentransfers zu beachten. Je nach Sachverhaltsgestaltung kann anstelle eines Vertrags über Auftragsverarbeitung oder nur für Teile der Datenverarbeitung ein Vertrag über gemeinsame Verantwortliche (wenn gemeinsam Mittel zur und Zwecke der Verarbeitung festgelegt werden) zu schließen sein. Zudem ist nach DSGVO i.V.m. Nr. 11 der sog. „Blacklist“ der DSK (Datenschutzkonferenz der Datenschutzaufsichtsbehörden des Bundes und der Länder) beim Einsatz von KI immer dann eine Datenschutz-Folgenabschätzung durchzuführen, wenn mit dieser KI die Interaktion mit Betroffenen gesteuert oder persönliche Aspekte der betroffenen Person bewertet werden.

Die DSGVO verbietet abgesehen von engen Ausnahmen zudem ein automatisiertes Profiling von Personen, wenn hierdurch erzeugte Entscheidungen dieser Person gegenüber rechtlicher Wirkung entfalten oder diese Person in ähnlicher Weise beeinträchtigen (Art. 22 DSGVO).

Zusätzlich sollten Geschäftsgeheimnisse durch Maßnahmen wie Verschlüsselung, Zugriffsbeschränkungen und Vertraulichkeitsvereinbarungen gesichert werden.

Mehr Informationen: Datenschutz & Künstliche Intelligenz - was bringt der AI Act?

Was sind Sandboxes und wie unterstützen sie Unternehmen bei der konformen KI-Entwicklung?

Sandboxes sind geschützte Umgebungen, in denen Unternehmen ihre KI-Systeme testen und entwickeln können, bevor sie in realen Szenarien eingesetzt werden. Ihr Vorteil für Unternehmen, und speziell KMUs oder Start-Ups, ist die Erprobung in einem sicheren Rechtsrahmen, in dem Risiken erkannt und unter behördlicher Aufsicht behoben werden können. Dadurch sollen Konformitätsbrüche mit dem AI Act vermieden werden. Unternehmen müssen dabei auf gewisse Schutzvorkehrungen achten: Zustimmung der Nutzer, Ausschluss negativer Auswirkungen, Ergebnisse müssen umkehrbar sein und die Daten am Ende des Tests gelöscht werden.

Vorteile von Sandboxes:

  • Sicherheit: Minimierung potentieller Risiken, in dem neue KI-Systeme in einer kontrollierten Umgebung getestet werden
  • Regulatorische Unterstützung: Konformität der getesteten KI-Systeme durch die Zusammenarbeit mit Aufsichtsbehörden

Sandboxes sind per se nichts Neues. Im Bereich FinTech und Krypto betreibt die Bundesanstalt für Finanzdienstleistungsaufsicht bereits ein Reallabor zur Testung neuer Geschäftsmodelle und Technologien von Unternehmen. Im Bereich KI fehlt solch eine Unterstützung bisher. Der AI Act sieht deshalb vor, dass bis zum 2. Februar 2025 pro EU-Mitgliedsstaat mindestens eine Sandbox errichtet werden muss.

Positionierung der IHK zum AI Act

Mit Inkrafttreten des AI Acts am 1. August 2024 steht Deutschland vor der Herausforderung, diese Verordnung in nationales Recht umzusetzen, wobei Unternehmen bereits in den ersten sechs Monaten erste Regelungen beachten müssen. Die Art und Weise, wie Deutschland den AI Act umsetzt, wird entscheidend für die Wettbewerbsfähigkeit der heimischen Wirtschaft sein. Insgesamt hinkt die EU im internationalen Vergleich hinterher.

Die IHK für München und Oberbayern fordert daher in ihrem Positionspapier zur Umsetzung des AI Acts eine zügige Vorlage des Durchführungsgesetzes der Bundesregierung, um Rechtssicherheit zu gewährleisten, europäische Innovationen zu fördern und bürokratische Hürden zu minimieren.

Konkret fordern wir:

  • Eine Harmonisierung des AI Acts mit bestehenden Verordnungen (z.B. der DGSVO, Data Act etc.) statt Doppelregulierung
  • Keine zusätzlichen, national einschränkenden Regulierungen (Gold Plating)
  • Terminologische Auslegungsspielräume z.B. zu KI oder der Bewertung eines KI-Hochrisikosystems zügig konkretisieren
  • Keinen weiteren Bürokratieaufwuchs für Unternehmen
  • Die Bennungen einer zentralen Bundesbehörde, um einen Flickenteppich von 16 Länderbehörden nach dem Vorbild der DSGVO zu vermeiden
  • Eine zeitnahe Einsatzfähigkeit
  • Ausreichend Ressourcen, z.B. um rechtzeitig qualifizierte Fachkräfte anzuwerben

Lesen Sie unser vollständiges IHK-Positionspapier zur Umsetzung des AI Acts HIER.

Webinarreihe: AI Act umsetzen

Die Webinarreihe "AI Act umsetzen" präsentiert von Oktober 2024 bis Februar 2025 im Rahmen der gemeinsamen Digitalisierungsinitiative der Industrie- und Handelskammern in Bayern unterstützt Unternehmen dabei, alle wichtigen Umsetzungspflichten, Herangehensweisen und Risten zu erhalten, um die Herausforderungen der komplexen KI-Gesetzgebung zu meistern.

Hilfreiche Links