Unsere Serie zu den SDGs der Vereinten Nationen und ESG-Richtlinien der EU:
Den 17 globalen Nachhaltigkeitszielen der Vereinten Nationen – Sustainable Development Goals (SDGs) – folgt die EU mit einer Reihe an ESG-Richtlinien und Verordnungen für Unternehmen, um für mehr Nachhaltigkeit in der EU zu sorgen. In unserer Serie zu den SDGs auf unserem LinkedIn-Kanal stellen wir Ihnen in den nächsten Wochen die 17 SDGs vor. Hier auf unserem Blog wollen wir Ihnen die daraus in der EU resultierenden ESG-Gesetze näher erläutern. Vorab: Ein ESG-Gesetz gibt es in dem Sinne nicht. Mit dem ESG Legal Framework legt die EU einen gesetzlichen Rahmen für Europa fest, um es nachhaltiger zu gestalten. Dieses Framework beinhaltet Verordnungen und Richtlinien, wie EU Green Deal, CSRD, SFDR, EU-Taxonomie.
Die rasante Entwicklung der Künstlichen Intelligenz (KI) bringt nicht nur zahlreiche Chancen, sondern auch Herausforderungen mit sich. Angesichts dieser Dynamik hat die Europäische Union den AI Act ins Leben gerufen – ein umfassender Rechtsrahmen, der den Umgang mit KI in Europa regeln soll. In diesem Beitrag werfen wir einen Blick auf die wichtigsten Aspekte des AI Acts, seine Ziele und die möglichen Auswirkungen auf Wirtschaft, Gesellschaft und Technologie.
Edit: Der EU AI Act ist im August 2024 in Kraft getreten. Seit Februar 2025 gilt Umsetzung der ersten Regelungen daraus. Wir haben einen aktuellen Überblick integriert und erklären die Regelungen, die Unternehmen bereits 2025 beachten müssen.
Was ist der AI Act?
Der Rat der 27 EU-Mitgliedstaaten hat am 21. Mai 2024 den AI Act verabschiedet. Der AI Act zielt darauf ab, einheitliche Regeln für den Einsatz von KI-Systemen in Europa zu schaffen. Ziel ist es, Innovation zu fördern und gleichzeitig Risiken für Grundrechte und Sicherheit zu minimieren. Die Regulierung soll als Leitfaden dienen, um den verantwortungsvollen Umgang mit KI-Technologien zu gewährleisten und einen fairen Wettbewerb zu ermöglichen.
Die zentralen Ziele des AI Acts
- Schutz der Grundrechte:
Einer der Kernpunkte des AI Acts ist der Schutz der individuellen Rechte und Freiheiten. Dies umfasst unter anderem den Schutz der Privatsphäre, Nichtdiskriminierung und den Schutz vor schädlichen oder unfairen KI-Anwendungen. - Förderung von Innovation:
Durch klare Regelungen und Standards soll ein vertrauensvolles Umfeld geschaffen werden, in dem Unternehmen innovativ arbeiten können. Insbesondere kleine und mittelständische Unternehmen sollen von einem einheitlichen europäischen Rechtsrahmen profitieren. - Sicherheit und Transparenz:
KI-Systeme sollen so entwickelt und eingesetzt werden, dass sie nachvollziehbar und sicher sind. Dazu gehört auch, dass Entscheidungen von KI-Systemen transparent gemacht werden, um mögliche Fehlentscheidungen besser nachvollziehen und korrigieren zu können.
Risikobasierter Ansatz: Kategorien und Anforderungen
Der AI Act unterscheidet KI-Anwendungen nach ihrem Risikopotenzial:
- Unzulässige KI-Systeme:
Systeme, die als Bedrohung für die Sicherheit, die Rechte von Einzelpersonen oder die demokratische Ordnung gelten, sollen verboten werden. Hierzu zählen etwa Systeme, die Menschen manipulieren oder diskriminieren. - Hochrisiko-KI-Systeme:
Diese Kategorie umfasst KI-Anwendungen, die in sicherheitsrelevanten Bereichen wie Gesundheit, Verkehr oder Justiz eingesetzt werden. Für diese Systeme gelten strenge Anforderungen hinsichtlich ihrer Entwicklung, des Testverfahrens und der kontinuierlichen Überwachung. - Geringes Risiko und KI-Systeme mit minimalen Anforderungen:
Anwendungen, die in Bereichen mit weniger potenziellen Risiken eingesetzt werden, unterliegen milderen Anforderungen. Dennoch sollen auch hier Transparenz und ethische Standards gewahrt bleiben.
Herausforderungen und Kritik
Obwohl der AI Act als wichtiger Schritt zur Regulierung von KI-Technologien gesehen wird, gibt es auch kritische Stimmen:
- Innovationshemmnisse:
Einige Experten befürchten, dass zu strenge Auflagen insbesondere für Start-ups und kleinere Unternehmen Innovationsprozesse verlangsamen und den Wettbewerb beeinträchtigen könnten. - Globale Wettbewerbsfähigkeit:
Angesichts der unterschiedlichen Regulierungsansätze weltweit könnte Europa Gefahr laufen, in der globalen KI-Landschaft den Anschluss zu verlieren, wenn zu restriktive Maßnahmen ergriffen werden. - Umsetzung und Kontrolle:
Die praktische Umsetzung und die Überwachung der Einhaltung der neuen Vorschriften stellen für die nationalen Aufsichtsbehörden eine große Herausforderung dar. Eine enge Zusammenarbeit zwischen EU, nationalen Regierungen und der Industrie ist daher unerlässlich.
Chancen für eine ethische und nachhaltige KI
Trotz der Herausforderungen bietet der AI Act auch zahlreiche Chancen:
- Vertrauensbildung:
Mit klaren Richtlinien und einem Fokus auf Ethik und Transparenz kann das Vertrauen in KI-Systeme gestärkt werden – ein entscheidender Faktor für die breite Akzeptanz von KI in der Gesellschaft. - Rechtssicherheit:
Unternehmen profitieren von einem einheitlichen Regelwerk, das nicht nur den europäischen Markt harmonisiert, sondern auch den internationalen Handel erleichtern kann. - Schutz der Gesellschaft:
Der Schutz der Bürger vor den negativen Auswirkungen unregulierter KI-Anwendungen ist ein wichtiger Schritt in Richtung einer sicheren und inklusiven digitalen Zukunft.
Umsetzungsfristen des EU AI Acts: Wichtige Termine für Unternehmen
Unternehmen sollten die verschiedenen Umsetzungsfristen des AI Acts genau kennen, um frühzeitig die erforderlichen Maßnahmen zur Compliance zu ergreifen und Verstöße zu vermeiden. Die ersten Regelungen treten bereits sechs Monate nach Inkrafttreten des Gesetzes in Kraft. Hier sind die wichtigsten Fristen im Überblick:
2. Februar 2025
Ab dem 2. Februar 2025 treten im Rahmen des EU AI Acts erste wichtige Regelungen in Kraft. Unternehmen müssen sich auf folgende Änderungen einstellen:
1. Verbot unannehmbarer KI-Systeme: Ab diesem Datum sind bestimmte KI-Anwendungen innerhalb der Europäischen Union untersagt. Dazu zählen insbesondere:
- Social Scoring: Systeme, die Individuen basierend auf ihrem Verhalten oder ihren Eigenschaften bewerten und klassifizieren.
- Automatisierte biometrische Identifizierung im öffentlichen Raum: Die Echtzeit-Fernidentifizierung von Personen durch Strafverfolgungsbehörden ist grundsätzlich verboten, es sei denn, es liegen spezifische gesetzliche Ausnahmen vor.
2. Einführung der KI-Kompetenzpflicht: Unternehmen, die KI-Systeme anbieten, betreiben, importieren oder vertreiben, sind verpflichtet, sicherzustellen, dass ihre Mitarbeiter über angemessene Kenntnisse und Fähigkeiten im Umgang mit KI verfügen. Diese Schulungs- und Sensibilisierungsmaßnahmen müssen bis zum 2. Februar 2025 implementiert sein.
2. Mai 2025
Der nächste Schritt zur Veröffentlichung des KI-Verhaltenskodexes im Rahmen des EU AI Acts besteht in der Erarbeitung und Verabschiedung spezifischer Leitlinien, die Unternehmen bei der freiwilligen Anwendung unterstützen sollen. Diese Verhaltenskodizes werden von der Europäischen Kommission in Zusammenarbeit mit relevanten Interessengruppen entwickelt und sollen als Best-Practice-Rahmen dienen.
Die Verhaltenskodizes richten sich an alle Unternehmen, die KI-Systeme entwickeln, bereitstellen oder nutzen, unabhängig von ihrer Größe oder Branche. Ziel ist es, ethische Standards und Transparenz bei der Anwendung von KI zu fördern. Obwohl die Teilnahme an diesen Kodizes freiwillig ist, können sie als Richtlinie für bewährte Verfahren dienen und Unternehmen dabei unterstützen, die Anforderungen des AI Acts zu erfüllen.
Unternehmen sollten die Entwicklung dieser Verhaltenskodizes aufmerksam verfolgen und prüfen, inwieweit deren Anwendung zur Sicherstellung der Compliance mit dem AI Act beitragen kann.
2. August 2025
Ab August treten vor allem die Regeln bezüglich der Transparenzanforderungen für generative KI in Kraft (GPAI). Daneben sollen nationale Aufsichtsbehörden ernannt und die ersten Sanktionsmaßnahmen eingeführt werden.
Unternehmen sollten frühzeitig ihre internen Prozesse und KI-Systeme auf die neuen Anforderungen abstimmen, um mögliche Sanktionen zu vermeiden und langfristige Compliance sicherzustellen.
August 2026
Ab August kommenden Jahres erfolgt die vollständige Anwendung aller Vorschriften.
Der AI Act markiert einen bedeutenden Meilenstein in der Regulierung von Künstlicher Intelligenz. Er bietet einen strukturierten Rahmen, der den Spagat zwischen Innovationsförderung und dem Schutz fundamentaler Rechte meistern soll. Während noch viele Fragen hinsichtlich der praktischen Umsetzung und der globalen Wettbewerbsfähigkeit offen sind, ist der AI Act ein klarer Impuls, um KI-Technologien verantwortungsvoll zu gestalten. Die kommenden Jahre werden zeigen, wie sich dieser Rechtsrahmen in der dynamischen Welt der KI bewährt und welche Anpassungen möglicherweise notwendig sein werden, um den stetig wachsenden Anforderungen gerecht zu werden.
Unternehmen sollten frühzeitig ihre internen Prozesse und KI-Systeme auf die neuen Anforderungen abstimmen, um mögliche Sanktionen zu vermeiden und langfristige Compliance sicherzustellen.
Bleiben Sie gespannt und verfolgen Sie die Entwicklungen rund um den AI Act – die Zukunft der Künstlichen Intelligenz in Europa hat gerade erst begonnen!
Empfohlen zum Lesen: Warum Green IT die Zukunft ist?
Mit ChatGPT zusammenfassen