Umsetzung des AI Acts: Chancen der KI für Wirtschaft ausschöpfen
Nach der Verabschiedung der europäischen Verordnung über Künstliche Intelligenz (AI Act) durch den EU-Rat am 21. Mai 2024 und der Veröffentlichung im Amtsblatt beginnt innerhalb eines Jahres die Umsetzung in nationales Recht. Die IHK-Vollversammlung hat sich in ihrer Sitzung im Juni 2024 für eine frühzeitige Einbindung der Wirtschaft ausgesprochen, um praktikable Lösungen zu entwickeln.
In ihrer IHK-Position fordert sie nachdrücklich eine zügige, klare, innovationsfreundliche und bürokratiearme Umsetzung des AI Acts.
Chancen der KI für Wirtschaft ausschöpfen
Der AI Act der Europäischen Union soll klare Regeln für den sicheren und verantwortungsvollen Umgang mit KI schaffen. KI bietet großes Potenzial für die Zukunftssicherung der hiesigen Wirtschaft. Im internationalen Vergleich verlieren die EU-Länder jedoch zunehmend den Anschluss bei der Entwicklung von Hightech.
Mit der Verabschiedung der Verordnung im Frühjahr 2024 beginnt die kritische Phase der Umsetzung. Im Mittelpunkt stehen das geplante nationale Umsetzungsgesetz und die Etablierung von Standards und Normen, die Unternehmen bei der Entwicklung sowie dem Einsatz von KI-Anwendungen künftig erfüllen müssen.
IHK-Forderungen für eine erfolgreiche AI Act Umsetzung
Damit die europäische und damit auch die bayerische Wirtschaft von den Chancen der KI-Entwicklung und -Nutzung umfassend profitieren kann, muss die Umsetzung möglichst einheitlich, innovationsfreundlich, bürokratiearm und rechtssicher erfolgen. Dies gilt es nun im weiteren Prozess konsequent sicherzustellen.
Umsetzung und Pflichten schnell konkretisieren
An erster Stelle ist es wichtig, dass die im AI Act vorgesehenen Vorschriften, Standards und Pflichten nun schnell, innovationsfreundlich und
rechtlich klar konkretisiert werden, damit die Wirtschaft genügend Zeit hat, sich vorzubereiten. Sonst droht, dass Unternehmen sich auf Grund
hoher Komplexitäten und Unklarheiten gegen die Entwicklung und Nutzung von KI-Systemen entscheiden. Deshalb muss die Politik zügig aktiv
werden:
Der AI Act sieht vor, dass die Mitgliedstaaten innerhalb von 12 Monaten die zuständige Behörde ernennen müssen (Artikel 70). Wenn diese sich dann erst noch aufbauen und organisieren muss, während die Unternehmen bereits die Verpflichtungen für KI-Systeme mit hohem Risiko vorbereiten, ist zu befürchten, dass wichtige Ansprechpartner zur Klärung von Fragen fehlen.
Gleichzeitig müssen die zuständigen Verwaltungseinheiten mit ausreichenden und kompetenten Ressourcen aufgestellt werden. Dafür müssen entsprechende Mittel in der Haushaltsplanung vorgesehen und qualifizierte Fachkräfte frühzeitig gewonnen werden.
Wir fordern die Benennung einer zentralen, nationalen KI-Behörde für Deutschland. Es darf keinen regionalen Flickenteppich wie bei der DSGVO durch die Zersplitterung der Aufsicht in 16 Bundesländer geben.
Die Definition von KI ist unscharf und die Anforderungen der jeweiligen Risikoeinstufungen sind komplex. Auslegungsprobleme, wie z. B. bei der Bewertung eines Hochrisiko-KI-Systems (Artikel 6) oder auch, ob eine Software unter die KI-Definition fällt, sind zu erwarten. Auslegungsspiel?räume dürfen dabei nie zulasten der Innovationskraft ausgefüllt werden. Die Anforderungen müssen frühzeitig verständlich konkretisiert werden, damit Unternehmen genügend Zeit haben, sich richtig vorzubereiten. Ziel muss dabei sein, Unklarheiten und daraus resultierende bürokratische und finanzielle Belastungen zu vermeiden. Das bedeutet zum Beispiel:
- Die Leitlinien für die Bewertung einer Hochrisiko-KI müssen schnell festgelegt werden und nicht erst zum spätest möglichen Zeitpunkt18 Monate nach Inkrafttreten (Artikel 6). Andernfalls blieben Unternehmen nur noch 6 Monate für die Prüfung sowie die Erfüllung alle Pflichten.
- Die Einführung von Qualitätsmanagement-Systemen (Artikel 17) soll proportional zur Größe des Anbieters erfolgen. Kleine und mittlere Unternehmen (KMU) brauchen hier schnell eine Konkretisierung, wie die Anforderungen an sie aussehen, um sich auf diese einzustellen.
Innovationen und „AI made in Europe“ stärken
Trotz des gegenteilig lautenden politischen Ziels der EU besteht durch die neuen Pflichten die Gefahr, dass KI-Innovationen durch den AI Act ausgebremst werden. In der Umsetzung sollten die Chancen innovativer Technologien und „AI made in Europe“ daher in den Fokus rücken und Anreize für die Entwicklung und Verbreitung europäischer KI-Anwendungen geschaffen werden. Grundsätzlich sollte Titel V „Maßnahmen zur Unterstützung der Innovation“ des AI Acts für die Politik eine übergeordnete Rolle spielen:
Um die Chancen innovativer Technologien zu nutzen, brauchen Unternehmen auch die Möglichkeit, diese zu entwickeln. Verbesserte Finanzie?rungsmöglichkeiten, v. a. großvolumige Venture-Capital Fonds, attraktive steuerliche Behandlung von Investitionen in Start-ups (z. B. für Mitar?beiter), aber auch Zugang zu Supercomputing-Infrastruktur, wie bspw. Exascale-Supercomputer, sollten parallel zur inhaltlichen Umsetzung des
AI Acts vorangetrieben werden.
Vor allem KMU, welche vor den hohen Compliance-Anforderungen zurückschrecken, können von (regulatorischen) Sandboxes profitieren. Der Bund sowie der Freistaat sollten die Möglichkeiten aus Artikel 57 voll ausnutzen, um Unternehmen die Möglichkeiten zu bieten, KI-Systeme zu entwickeln und deren Compliance in sogenannten „real world conditions“ zu prüfen. Diese Sandboxes sollten so bald wie möglich zur Verfügung stehen und nicht erst, wie vorgesehen, 24 Monate nach Inkrafttreten der Verordnung.
Artikel 62 ermöglicht eine Anpassung der Gebühren für die Konformitätsbewertung für KMU sowie Start-ups. Diese Möglichkeit sollte umfang?reich und nach ausgewogenen Kriterien ausgeschöpft werden.
Auch die öffentliche Hand selbst sollte KI zur Optimierung ihrer Verwaltungsprozesse nutzen. So trägt sie bei zu mehr Vertrauen in die Technolo?gie, zur Stärkung von KI-Innovationen und zu effizienteren Verwaltungsprozessen.
Bürokratieaufwachs vermeiden
KI-Unternehmen, v. a. KMU, sehen sich mit großen Unklarheiten sowie bürokratischen und finanziellen Belastungen konfrontiert. Bei der
Umsetzung gilt es deshalb zwingend darauf zu achten, nicht noch mehr Bürokratiebelastung für Unternehmen aufzubauen:
- Regulierungen harmonisieren: Es muss Konsistenz und Kohärenz mit der existierenden Gesetzgebung herbeigeführt werden, sonst stehen Unternehmen vor nicht lösbaren unterschiedlichen rechtlichen Anforderungen oder werden doppelt belastet. Es ist daher wichtig, dass die Verpflichtungen aus dem AI Act eng mit den Standards bzw. Verpflichtungen weiterer Regelwerke (DSGVO, Data Act etc.) abgestimmt werden. Ein „die DSGVO bleibt unberührt“ erhöht die Rechtsunsicherheit statt die Entwicklung und Nutzung von KI zu fördern. Als horizontale Verordnung muss der AI Act außerdem mit bestehenden sektoralen Regulierungen (z. B. für Medizintechnik, Maschinen-VO etc.) abgestimmt werden.
- Unternehmen bei Umsetzung unterstützen: Zur zügigen Beseitigung von Unklarheiten und Nutzung der Erfahrung anderer Organisationen sollten ausreichend Kapazitäten bereitgestellt werden, um Unternehmen z. B. durch FAQs, Leitfäden, Checklisten und Beratung in der Umsetzung des AI Acts und bei einer Konformitätsbewertung zu unterstützen. Durch Service Level Agreements der involvierten Behörden sollen planbare Prozesse und Antwortzeiten geschaffen werden.
Europa- und bundesweit einheitliche Umsetzungsstandards durchsetzen
Deutschland ist nun gefordert, für eine einheitliche europäische Umsetzung zu sorgen. Startups und KMU, die EU-weit tätig sind, wären über?fordert, wenn sie ihre Angebote an 27 unterschiedliche AI Act-Auslegungen ausrichten müssten. Gleichzeitig kann sich die deutsche Politik ein sogenanntes „Gold Plating“ in der Regulierung oder Auslegung nicht leisten. Dies verstärkt die Gefahr, dass Unternehmen sich in anderen Ländern in oder sogar außerhalb der EU niederlassen. Deutschland muss bei der Umsetzung sparsam und zielführend agieren:
Deutschland sollte mit entsprechender Kapazität bereits auf EU-Ebene, z. B. im AI-Office, durch engagierte Mitarbeit für eine zielführende, harmonisierte Umsetzung sorgen.
Wo der AI Act Raum für ergänzende nationale Regulierungen zulässt, sollte dies auf keinen Fall genutzt werden, um die KI-Entwicklung und -Nutzung zu erschweren. So darf beispielsweise keine nationale Regelung der Genehmigungsfiktion entgegenstehen, die bei dem vorgesehenen „real world testing“ außerhalb der Sandboxes (Artikel 60) nach 30 Tagen greift.
Für eine zügige und einheitliche Umsetzung soll die nationale Aufsichtsbehörde auf Bundesebene etabliert und auf keinen Fall – wie bei der DSGVO – auf die Bundesländer übertragen und uneinheitlich organisiert werden.