PRESSEMITTEILUNG

Berlin | 20. März 2024

Ein Statement des Vorstands des Internationalen Wirtschaftssenat e. V. 

AI Act: Regulierung auf Vorrat – der nächste europäische Exportschlager?

Nach der nun erfolgten Zustimmung der EU-Mitgliedstaaten und des EU-Parlaments wird die europäische Verordnung zur künstlichen Intelligenz in den nächsten 6 bis 36 Monaten schrittweise in der EU in nationales Recht umgesetzt und eingeführt, gestaffelt nach unterschiedlichen Regulierungsbereichen (zunächst strikte Verbote bestimmter Anwendungen wie die Erkennung von Gesichtern oder Kategorisierung von Personen, zum Schluss Auflagen für sogenannte Hochrisikosysteme). Die Verordnung ist das Resultat eines langen Ringens zwischen den Organen der EU, Interessensverbänden und den Mitgliedsstaaten. Ein erster Entwurf wurde von der EU-Kommission bereits Anfang 2021 vorgelegt, das Erscheinen von ChatGPT und die folgenden Diskussionen zu generativer KI und großen Sprachmodellen haben die EU dazu veranlasst, den angestrebten Regulierungsrahmen zu erweitern.

Das zentrale Konzept der Regulierung in der EU ist der Risikobegriff: KI-Anwendungen werden in vier Risikoklassen eingeteilt: Anwendungen mit inakzeptablem Risiko, mit hohem Risiko, mit begrenztem Risiko und mit geringem Risiko. Sie alle unterliegen spezifischen Einschränkungen, und die „Allzweck-KI“ à la ChatGPT, die nach heutigem Stand der Technik auf großen Sprachmodellen basiert, unterliegt selbst besonderen Regeln.

Die EU-Definition von KI ist sehr weit gefasst und wenig spezifisch. Da KI-Techniken in naher Zukunft in praktisch alle Software-Produkte und -Dienstleistungen integriert sein werden, wird dies mit einiger Sicherheit dazu führen, dass praktisch jeder Bereich, in dem Software eingesetzt wird, vom AI Act betroffen sein wird. Es gehört nicht viel Phantasie dazu, sich den künftigen bürokratischen Aufwand vorzustellen, zumal die Risiko-Einstufung der Methoden und Techniken von verschiedenen noch aufzubauenden Behörden auf allen Ebenen vorgenommen und in regelmäßigen Abständen aktualisiert werden muss. Die EU-Kommission behält sich zudem vor, die Liste der betroffenen Anwendungen zu erweitern.

Wir sind nicht der Meinung, dass man Innovation fördern kann (oder in der Vergangenheit gefördert hat), indem man angstgetrieben und „auf Vorrat“ Vorschriften für potentielle technische Entwicklungen erlässt, bevor diese starten und sich entfalten können – auch wenn dies von politischer Seite immer wieder behauptet wird. Das eigentliche Risiko besteht also darin, dass sich die EU auf einen vorauseilenden Rechtsrahmen festlegt, der es sowohl für die potentiellen Innovatoren in der EU als auch für ausländische Unternehmen nicht mehr planbar erscheinen lässt, inwieweit ein neuartiges Produkt in eine akzeptable Risikoklasse fällt, und sie die Entwicklung dann doch lieber im Ausland oder gar nicht durchführen. Beispiele aus der Vergangenheit wie rote und grüne Gentechnik, Biotechnologie und Datenschutz durch „Datensparsamkeit“ sollten hier Warnung genug sein. Gerade der letztgenannte Punkt ist uns in Deutschland in Fleisch und Blut übergegangen und steht der Digitalisierung im Allgemeinen und den darauf aufbauenden „Big Data“-Technologien heute für jedermann sichtbar massiv im Wege. Wir haben uns in Deutschland hier im wahrsten Sinne des Wortes aus dem Geschäft genommen und preisen den weitgehenden Verzicht auf die wirtschaftliche Nutzung von Daten auch heute noch als Vorbild für die Welt, gar als Exportschlager!

Werden durch den AI Act wenigstens die Bürgerrechte besonders geschützt oder etwa dem medizinischen Fortschritt geholfen? Zweifel sind angebracht: Der Rüstungsbereich (Stichwort: autonome Waffen), der Bereich der „nationalen Sicherheit“ und auch die Identifikation von Personen zur Strafverfolgung sind ausgenommen. Umgekehrt werden aber beispielsweise relevante Bereiche der Behördenarbeit und der Justiz als Hochrisikoanwendungen eingestuft, was deren Arbeit wohl dauerhaft auf dem Stand des Vor-KI-Zeitalters einfrieren wird. Vielleicht wäre eher an der Zeit, stattdessen einmal über ein Bürgerrecht auf den Zugang zu jeweils neuester Informationstechnik nachzudenken.

Wir haben es beim EU AI Act also mit einer Verordnung zu tun, die auf rund 250 Seiten kleinteilig vorschreibt, welche Klassen von KI in Europa verboten sein werden, weil aus heutiger Sicht der Entscheidungsträger ein zu hohes Risiko besteht. Selbst wenn sich im Nachhinein herausstellen sollte, dass dies Fehleinschätzungen waren, sind diese Märkte angesichts der dramatischen Entwicklungsgeschwindigkeit von KI und verwandten Technologien dann für Europa verloren – und zwar für immer. Hinzu kommt die Belastung der Unternehmen durch neu aufzubauende Bürokratie und Berichtspflichten, nicht nur beim Thema AI, sondern beispielsweise auch beim „Digital Operational Resilience Act“ DORA der EU.

Der Internationale Wirtschaftssenat e.V. mahnt eindringlich, dass die Entscheidungsträger endlich aus den Fehlern der Vergangenheit lernen und statt der bekannten Sackgassen neue Wege beschreiten müssen. Regulierungen „auf Vorrat“ und Angst vor neuen Technologien tragen dazu bei, Innovationen aktiv zu verhindern und damit Europa samt dem Standort Deutschland zu schaden. Neue Technik wie KI birgt immer Risiken, aber auch bisher unbekannte Potenziale für nahezu alle Bereiche des privaten und geschäftlichen Lebens. Diese Potenziale zu ersticken, bevor sie überhaupt bekannt, geschweige denn gehoben sind, halten wir für grundfalsch!

Es bleibt uns zu hoffen, dass bei der praktischen Umsetzung in nationales deutsches Recht „Regulierungssparsamkeit“ im Vordergrund steht und wir uns nicht ohne Not von der Entwicklung einer der wichtigsten Basistechnologien des 21. Jahrhunderts abkoppeln.