KI-Verordnung (KI-VO)
Grundrechte schützen, Innovationen ermöglichen: Die Europäische Kommission hat einen Gesetzesentwurf zum Umgang mit Künstlicher Intelligenz („Artificial Intelligence Act“) vorgelegt, der Europa zum globalen Zentrum für vertrauenswürdige KI machen soll.
KI-Verordnung (AI Act): Alles, was Sie über die EU-Regulierung für Künstliche Intelligenz wissen müssen
Die KI-Verordnung, auch bekannt als „AI Act“, ist ein entscheidender Schritt der Europäischen Union, um den Einsatz von Künstlicher Intelligenz (KI) innerhalb der EU zu regulieren und sowohl die Sicherheit als auch die Innovationskraft zu fördern. Diese Verordnung trat am 1. August 2024 in Kraft, nachdem sie am 12. Juli 2024 im Amtsblatt der Europäischen Union veröffentlicht wurde.
Sie stellt sicher, dass KI-Technologien ethisch, sicher und verantwortungsbewusst zum Einsatz kommen, indem Transparenzanforderungen eingeführt, Risikobewertungen durchgeführt und strenge Überwachungs- und Prüfpflichten für Hochrisiko-KI-Systeme festgelegt werden. Der AI Act verfolgt einen risikobasierten Ansatz. KI-Systeme werden je nach ihrem Risiko für die Sicherheit, Gesundheit oder Grundrechte in vier Risikostufen klassifiziert, um unterschiedliche regulatorische Anforderungen zu erfüllen. Je höher das Risiko, desto strengere Compliance-Anforderungen gelten.
Was ist die KI-Verordnung?
Stufenweise Anwendbarkeit der KI-Verordnung
Der AI Act tritt automatisch in Kraft und ist als EU-Verordnung direkt anwendbar, ohne dass eine separate nationale Umsetzung erforderlich ist. Die Mitgliedstaaten müssen jedoch sicherstellen, dass sie die Verordnung in ihrer Praxis umsetzen. Jeder Mitgliedstaat muss bis zum 2. August 2025 eine nationale Aufsichtsbehörde benennen, die für die Überwachung des AI Act zuständig ist.
Diese Behörde kontrolliert die Einhaltung der Verordnung. Die Mitgliedstaaten haben einen gewissen Spielraum für nationale Regelungen, wie zum Beispiel die genaue Ausgestaltung der Aufsichtsbehörden oder spezifische Anforderungen an lokale KI-Anwendungen, was eine maßgeschneiderte Umsetzung ermöglicht.
Deutschland sollte sich auf EU-Ebene für eine harmonisierte Umsetzung des AI Act einsetzen, um die Wettbewerbsfähigkeit sicherzustellen und administrative Belastungen für Unternehmen zu reduzieren. Der AI Act ist zwar direkt anwendbar, jedoch müssen die Mitgliedstaaten die praktische Umsetzung gestalten und dabei Innovationskraft und Verbraucherschutz berücksichtigen.
Die Anwendbarkeit der KI-Verordnung erfolgt in mehreren Stufen:
Ab 2. Februar 2025
Ab 2. August 2025
Ab 2. August 2026
Ab 2. August 2027
Datenschutzaufsichtsbehörden und neue Befugnisse
Die Bundesregierung hat entschieden, dass die Bundesnetzagentur (BNetzA) die zentrale Aufsichtsbehörde für die Überwachung der KI-Verordnung in Deutschland wird. Diese Maßnahmen sollen die konsequente Umsetzung der Verordnung sicherstellen:
Aufgaben und Kompetenzen
Die BNetzA wird als zentrale Stelle für:
- Die Überwachung und Durchsetzung der KI-VO
- Die Funktion als KI-Kompetenzzentrum
- Die Innovationsförderung zuständig sein
Geteilte Zuständigkeiten
Trotz der zentralen Rolle der BNetzA bleiben spezifische Zuständigkeiten bei anderen Fachbehörden:
- Kraftfahrtbundesamt: Automotive-Branche
- BaFin: Finanzsektor
Rolle der Datenschutzbehörden
Die Datenschutzbehörden bleiben weiterhin involviert:
- Sie behalten ihre Kompetenzen bei KI-Systemen, die personenbezogene Daten verarbeiten
- Sie haben spezifische Befugnisse bei bestimmten KI-Anwendungen, wie der biometrischen Identifizierung
Zeitlicher Rahmen
Die Umsetzung der KI-Aufsicht muss bis zum 2. August 2025 abgeschlossen sein
- Die neue Behördenstruktur soll dabei Doppelzuständigkeiten vermeiden und eine innovationsfreundliche sowie bürokratiearme Durchführung der Verordnung gewährleisten
Datenschutzaufsichtsbehörden erhalten Zugang zu allen erforderlichen Dokumenten, die zur Einhaltung der KI-Verordnung erstellt werden. Dies gewährleistet Transparenz und Nachvollziehbarkeit bei der Anwendung von KI-Systemen. Sie können auch technische Untersuchungen durch Marktüberwachungsbehörden anfragen, um sicherzustellen, dass die KI-Systeme den gesetzlichen Vorgaben entsprechen, insbesondere bei Systemen mit hohen Risiken, die potenziell die Grundrechte der Nutzer beeinträchtigen könnten.
Anbieter von Hochrisiko-KI-Systemen müssen ihre Systeme in einer EU-Datenbank registrieren. Diese Registrierungen sind nicht immer öffentlich zugänglich, jedoch dürfen die Datenschutzaufsichtsbehörden darauf zugreifen, um ihre Überwachungspflichten zu erfüllen.
Ein weiterer wichtiger Aspekt ist die Aufsicht über biometrische Fernidentifizierungssysteme. Anbieter solcher Systeme müssen der zuständigen Datenschutzaufsichtsbehörde auf Anfrage Dokumentationen zur Nutzung vorlegen und zusammengefasste Jahresberichte über die Verwendung dieser Systeme einreichen.
Die KI-Verordnung fördert die Einrichtung von Reallaboren, in denen innovative KI-Systeme unter kontrollierten Bedingungen entwickelt und getestet werden können. Wenn dabei personenbezogene Daten verarbeitet werden, müssen die Datenschutzaufsichtsbehörden eingebunden werden, um den Datenschutz zu gewährleisten.
Die Umsetzung der neuen Befugnisse erfolgt auf nationaler Ebene und erfordert enge Zusammenarbeit zwischen den Behörden. Die Konferenz der unabhängigen Datenschutzaufsichtsbehörden des Bundes und der Länder (DSK) hat bereits ein Positionspapier veröffentlicht, um diese Zusammenarbeit zu fördern. Zudem ermöglicht die KI-Verordnung nationale Anpassungen, was den Mitgliedstaaten Spielraum gibt, striktere Regelungen zu erlassen, insbesondere im Bereich biometrischer Identifizierung.
Diese neuen Befugnisse sollen ein hohes Datenschutzniveau innerhalb der EU sicherstellen und den Herausforderungen durch technologische Entwicklungen gerecht werden. Die Mitgliedstaaten müssen sicherstellen, dass sie die Verordnung umsetzen, da der AI Act direkt anwendbar ist und keine separate nationale Umsetzung erforderlich ist.
Risikokategorien bei KI-Systemen
Die EU-KI-Verordnung, auch bekannt als AI Act, klassifiziert KI-Systeme basierend auf ihrem Risiko für Sicherheit, Gesundheit und Grundrechte in vier Kategorien: verbotene Praktiken, Hochrisiko-KI, KI mit begrenztem Risiko und KI mit minimalem Risiko. Diese Klassifizierung ermöglicht eine gezielte Bewertung der potenziellen Risiken durch den Einsatz von KI-Systemen.
Das Ziel besteht darin, sicherzustellen, dass geeignete Schutzmaßnahmen ergriffen werden, um die Sicherheit, den Gesundheitsschutz und die Wahrung der Grundrechte aller betroffenen Personen zu gewährleisten. Durch die Einteilung in unterschiedliche Risikokategorien können Regulierungen gezielt angepasst und Maßnahmen spezifisch auf die jeweilige Risikostufe zugeschnitten werden, um das Vertrauen in die Nutzung von KI-Systemen zu stärken.
KI-Systeme, die unannehmbare Risiken darstellen, sind vollständig untersagt. Dazu gehören Systeme, die subliminale Techniken nutzen, um das Verhalten von Personen zu beeinflussen und ihnen zu schaden. Auch Praktiken wie Social Scoring durch öffentliche Stellen und die unbefugte Verarbeitung biometrischer Daten in Echtzeit in öffentlich zugänglichen Räumen fallen in diese Kategorie.
Unannehmbares Risiko – Verbotene KI-Praktiken
KI-Systeme mit unannehmbarem Risiko sind vollständig verboten. Dazu zählen Systeme, die subliminale Techniken nutzen, um das Verhalten von Personen zu beeinflussen und ihnen zu schaden. Auch Emotionserkennungssysteme und Social Scoring durch öffentliche Stellen und die unbefugte Verarbeitung biometrischer Daten in Echtzeit in öffentlich zugänglichen Räumen fallen in diese Kategorie.
Hohes Risiko – Hochrisiko-KI-Systeme
Hochrisiko-KI-Systeme haben erhebliche Auswirkungen auf die Rechte und Freiheiten von Personen und unterliegen strengen Anforderungen wie Risikobewertungen, Daten-Governance, technischer Dokumentation, menschlicher Aufsicht, Cybersicherheitsmaßnahmen und einer EU-Konformitätserklärung. Anbieter müssen vor der Inbetriebnahme Maßnahmen zur Risikominimierung treffen und das System während des Betriebs überwachen. Beispiele für Hochrisiko-KI sind medizinische Diagnostiksysteme oder Kreditbewertung. Hochrisiko-KI-Systeme, die in sicherheits- oder grundrechtssensiblen Bereichen eingesetzt werden, unterliegen strengen Vorschriften:
- Risikobewertungen
- Daten-Governance zur Vermeidung von Verzerrungen
- Technische Dokumentation
- Menschliche Aufsicht
- Cybersicherheitsmaßnahmen
- EU-Konformitätserklärung
Diese Vorschriften sollen Sicherheit, Transparenz und Fairness von Hochrisiko-KI-Systemen gewährleisten und das Vertrauen der Nutzer in die Technologie stärken.
KI-Systeme mit begrenztem Risiko
Systeme mit moderatem Risiko müssen Transparenzpflichten erfüllen. Nutzer sollten wissen, dass sie mit einer KI interagieren, um fundierte Entscheidungen treffen zu können. Beispiele sind Chatbots oder KI für Rechtschreib- und Grammatikprüfung.
KI-Systeme mit minimalen Risiko
Die Mehrheit der KI-Systeme stellt ein geringes oder kein Risiko dar und fällt in die Kategorie mit minimalem Risiko. Für diese Systeme gelten keine spezifischen rechtlichen Anforderungen; bewährte Verfahren werden jedoch empfohlen. Beispiele sind KI-Anwendungen in Videospielen oder Spamfiltern.
Die Risikokategorisierung ermöglicht es, Maßnahmen entsprechend dem Risikopotenzial eines KI-Systems zu ergreifen und eine sichere Nutzung der Technologie zu gewährleisten.
Diese Kategorisierung ermöglicht es, angemessene Maßnahmen entsprechend dem jeweiligen Risikopotenzial eines KI-Systems zu ergreifen.
Nationale Anpassungen und biometrische Fernidentifizierung
Die KI-Verordnung ermöglicht nationale Anpassungen, besonders bei biometrischer Fernidentifizierung. Mitgliedstaaten können spezifische Regelungen erlassen, angepasst an ihre jeweilige nationale Situation. Der Bundesbeauftragte für Datenschutz (BfDI) empfiehlt der Bundesregierung, diese Möglichkeit zu nutzen und strengere nationale Verbote umzusetzen, um den Schutz der Bürger zu erhöhen. Insbesondere soll die missbräuchliche Verwendung biometrischer Systeme, wie Gesichtserkennung im öffentlichen Raum, eingeschränkt werden.
Zusätzliche Vorschriften könnten für den privatwirtschaftlichen Einsatz biometrischer Identifikationsverfahren eingeführt werden, um die Grundrechte der Bürger zu schützen. Eine stärkere Regulierung würde auch die Transparenz und Rechenschaftspflicht von Unternehmen fördern, die biometrische Technologien nutzen.
Gesetzgebungsverfahren und Transparenzpflichten
Die Verordnung wurde in einem umfassenden Verfahren unter Beteiligung der Europäischen Kommission, des Europäischen Parlaments und des Rates der EU entwickelt, um die Bürger der EU vor KI-Risiken zu schützen und Innovationen zu fördern. Intensive Verhandlungen und Konsultationen mit Fachleuten stellten sicher, dass sowohl Sicherheitsanforderungen als auch Innovationsbedürfnisse berücksichtigt wurden. Große KI-Modelle wie ChatGPT unterliegen speziellen Transparenzpflichten, damit Nutzer erkennen können, wenn Inhalte durch KI erstellt wurden. Dies stärkt das Vertrauen der Öffentlichkeit und sorgt für klare Kennzeichnung von KI-generierten Inhalten. Für weniger risikoreiche Systeme, wie personalisierte Streaming-Empfehlungen, gelten allgemeine Vorgaben wie Mitarbeiterschulungen und regelmäßige Überprüfung der Algorithmen, um faire und zuverlässige Empfehlungen sicherzustellen.
Verpflichtungen für Anbieter außerhalb der EU
Auch Anbieter außerhalb der EU müssen die KI-Verordnung einhalten, wenn sie Dienste in der EU anbieten. Damit wird gewährleistet, dass alle Anbieter von KI-Lösungen dieselben Standards erfüllen, unabhängig von ihrem Standort. Anbieter müssen ihre KI-Systeme registrieren, insbesondere wenn diese als Hochrisiko eingestuft werden, um Transparenz zu gewährleisten und Nutzer umfassend zu informieren.
Inkrafttreten und Übergangsfristen
Die KI-Verordnung trat bereits am 1. August 2024 in Kraft. Verbote für KI-Praktiken mit inakzeptablem Risiko gelten bereits sechs Monate nach Inkrafttreten. Für andere Vorgaben gibt es Übergangsfristen von einem bis drei Jahren, um betroffenen Akteuren ausreichend Zeit zur Anpassung zu geben. Unternehmen können sich so schrittweise an die neuen Regelungen anpassen, ohne ihren Betrieb erheblich zu beeinträchtigen. Die Verordnung verfolgt einen risikobasierten Ansatz mit vier Kategorien: verbotene Praktiken, Hochrisiko-KI, begrenztes Risiko und minimales Risiko, um sicherzustellen, dass Maßnahmen dem Gefährdungspotenzial der jeweiligen KI-Technologie angemessen sind.
Aufsicht und nationale Umsetzung
Die Aufsicht über die Einhaltung der Vorgaben erfolgt sektorbezogen. Für bestimmte KI-Systeme wird die EU-Kommission zuständig sein und ein spezielles KI-Büro einrichten, das als zentrale Anlaufstelle für Fragen zur Regulierung von KI-Systemen dient und die Einhaltung der Vorschriften überwacht. In Deutschland wird im Herbst 2024 ein erstes Durchführungsgesetz erwartet, das die nationalen Maßnahmen konkretisiert.
Wichtige Aspekte der nationalen Umsetzung sind die Benennung der nationalen Aufsichtsbehörden sowie die Einrichtung von KI-Reallaboren als Testumgebungen für die Erprobung und Evaluierung neuer KI-Technologien. Diese Reallabore werden helfen, praktische Erfahrungen zu sammeln und die Wirksamkeit der regulatorischen Maßnahmen zu überprüfen.
Schaffung eines europäischen Rahmens für KI
Die Schaffung eines europäischen Rahmens für KI durch den AI Act ist ein umfassendes Vorhaben der Europäischen Union, das weitreichende Auswirkungen auf die Entwicklung und den Einsatz von KI-Technologien haben wird. Hier einige weitere wichtige Fakten und Aspekte:
Die Verordnung wird voraussichtlich Aspekte des KI-Einsatzes wie Transparenz, Haftung und Datenschutz regeln. Sie soll im Einklang mit anderen relevanten Gesetzen der Union stehen und Maßnahmen zur Überwachung und Durchsetzung enthalten, um eine effektive Umsetzung sicherzustellen. Ein weiteres Ziel der KI-Verordnung ist die Schaffung eines europäischen Rahmens zur Förderung von Vertrauen in KI-Anwendungen und zur Erleichterung ihrer Marktakzeptanz.
Transparenz und Rechenschaftspflicht
Ähnlich wie die DSGVO legt der AI Act großen Wert auf Transparenz und Rechenschaftspflicht:
- Anbieter von Hochrisiko-KI-Systemen müssen Betreibern detaillierte Gebrauchsanweisungen zur Verfügung stellen.
- KI-Systeme, die für die direkte Interaktion mit Menschen bestimmt sind, müssen als solche gekennzeichnet werden.
- Unternehmen müssen die Einhaltung der Anforderungen durch technische Dokumentation und Protokolle nachweisen können.
Aufsicht und Durchsetzung
Der AI Act sieht die Einrichtung neuer Aufsichtsstrukturen vor:
- Nationale Aufsichtsbehörden werden für die Überwachung der Einhaltung zuständig sein.
- Ein neu gegründetes AI Office bei der Europäischen Kommission wird die Durchsetzung für KI-Modelle mit allgemeinem Verwendungszweck übernehmen.
- Ein Europäischer Ausschuss für künstliche Intelligenz wird als Koordinierungsplattform und Beratungsgremium fungieren.
Auswirkungen auf die Nutzung von KI im Alltag
Mit dem AI Act reagiert die EU auf die zunehmende Bedeutung von KI im Alltag, die von einfachen Produktempfehlungen bis hin zu entscheidenden Einflussfaktoren reicht, etwa im Personalmanagement, der Finanzanalyse oder der Kreditvergabe. Insgesamt wird die KI-Verordnung dazu beitragen, dass KI-Technologien verantwortungsbewusst und zum Wohl der Gesellschaft eingesetzt werden. Sie wird zudem sicherstellen, dass KI-Systeme transparent, sicher und mit einer angemessenen menschlichen Aufsicht entwickelt und betrieben werden.
Auswirkungen auf Unternehmen
Die Auswirkungen der KI-Verordnung auf Unternehmen sind bedeutend, insbesondere für Unternehmen, die Hochrisiko-KI-Systeme entwickeln oder einsetzen, wie etwa in den Bereichen Gesundheitswesen, Finanzen und öffentliche Verwaltung. Zum Beispiel könnten Unternehmen, die KI im Bereich der Finanzanalyse einsetzen, umfangreiche Compliance-Maßnahmen implementieren müssen.
Diese Unternehmen müssen sicherstellen, dass sie alle regulatorischen Anforderungen erfüllen, um hohe Strafen für Verstöße zu vermeiden. Die KI-Verordnung sieht Bußgelder von bis zu 30 Millionen Euro oder 6 % des weltweiten Jahresumsatzes vor, je nachdem, welcher Betrag höher ist. Dies verdeutlicht die Bedeutung der Compliance für alle Marktteilnehmer. Die Implementierung des AI Acts wird erhebliche Auswirkungen auf Unternehmen haben:
Unternehmen müssen ihre Datenschutzprozesse und -richtlinien anpassen, um KI-Anwendungen zu berücksichtigen. Es können Datenschutz-Folgenabschätzungen erforderlich sein, insbesondere bei Hochrisiko-KI-Systemen. Bei Nichteinhaltung drohen hohe Bußgelder von bis zu 30 Millionen Euro oder 6 % des weltweiten Jahresumsatzes.
Die Einhaltung der KI-Verordnung wird nicht nur regulatorische Risiken minimieren, sondern auch das Vertrauen der Verbraucher in KI-Systeme erhöhen. Durch die Einhaltung von Anforderungen wie Transparenz, Datensicherheit und menschlicher Aufsicht können Unternehmen Wettbewerbsvorteile erzielen und sich als vertrauenswürdige Anbieter auf dem Markt positionieren.
Förderung von Innovation und Wettbewerbsfähigkeit
Neben dem Schutz von Grundrechten zielt der AI Act auch darauf ab:
- Die Entwicklung und Nutzung vertrauenswürdiger KI in der EU zu fördern.
- Die Wettbewerbsfähigkeit europäischer Unternehmen im Bereich KI zu stärken.
- Einen einheitlichen Rechtsrahmen für den EU-Binnenmarkt zu schaffen.
Herausforderungen
Die Umsetzung des AI Acts bringt auch Herausforderungen mit sich:
- Die Balance zwischen Transparenz und dem Schutz von Geschäftsgeheimnissen muss gewahrt werden.
- Die schnelle technologische Entwicklung im KI-Bereich erfordert möglicherweise regelmäßige Anpassungen des Regelwerks.
- Die Durchsetzung und Überwachung der Einhaltung könnte sich als komplex erweisen, insbesondere bei grenzüberschreitenden KI-Anwendungen.
Der AI Act stellt einen ambitionierten Versuch dar, einen umfassenden Rahmen für die Regulierung von KI in Europa zu schaffen. Er wird voraussichtlich sowohl die Entwicklung als auch den Einsatz von KI-Technologien in der EU maßgeblich beeinflussen und könnte als globaler Standard für KI-Regulierung dienen.
Neue Anforderungen und Transparenzregeln für generative KI-Systeme
Der AI Act wurde mittlerweile final verabschiedet und enthält einige wichtige Neuerungen gegenüber den ursprünglichen Entwürfen. Eine der zentralen Änderungen betrifft die Definition und Einstufung von Hochrisiko-KI-Systemen. Der finale Text des AI Act präzisiert, welche spezifischen KI-Anwendungen als hochriskant gelten und welche Anforderungen an ihre Nutzung gestellt werden.
Ein weiterer wichtiger Aspekt der finalen Verabschiedung betrifft die sogenannten generativen KI-Systeme. Diese Systeme, wie z. B. Sprachmodelle und KI-generierte Inhalte, unterliegen nun klaren Transparenzanforderungen. Anbieter solcher Technologien müssen sicherstellen, dass die Nutzer erkennen können, wenn Inhalte durch KI generiert wurden. Dies soll die Verbreitung von Fehlinformationen verhindern und die Verantwortung der Anbieter stärken.
Unterstützung für kleine und mittlere Unternehmen (KMU)
Zudem wurde ein neuer Fokus auf die Unterstützung von kleinen und mittleren Unternehmen (KMU) gelegt. Der AI Act sieht spezielle Maßnahmen zur Unterstützung von KMUs vor, um deren Anpassung an die neuen Anforderungen zu erleichtern. Dazu gehören Beratung und finanzielle Unterstützung, um sicherzustellen, dass auch kleinere Marktteilnehmer die neuen Regelungen umsetzen können, ohne dabei übermäßig belastet zu werden.
Zu den konkreten Maßnahmen gehören unter anderem die Bereitstellung von Schulungsprogrammen, um KMUs bei der Implementierung von KI-Technologien zu unterstützen. Dies umfasst Workshops und Seminare, die darauf abzielen, das Verständnis für die neuen Vorschriften zu vertiefen und bewährte Praktiken zu vermitteln. Darüber hinaus werden auch digitale Plattformen eingerichtet, über die KMUs Zugang zu relevanten Informationen und Tools erhalten können.
Finanzielle Unterstützung ist ein weiterer wichtiger Aspekt. Die Europäische Kommission plant, spezielle Förderprogramme aufzulegen, die Zuschüsse und zinsgünstige Darlehen für KMUs umfassen, damit diese die nötigen Investitionen in Technologien und Prozesse tätigen können. Dies soll sicherstellen, dass auch kleinere Unternehmen wettbewerbsfähig bleiben und die Chancen der Digitalisierung nutzen können.
Außerdem wird angestrebt, regionale Beratungszentren einzurichten, die als Anlaufstelle für KMUs dienen sollen, um individuelle Unterstützung bei der Einhaltung der Vorschriften und der Einführung von KI-Lösungen zu bieten. Diese Zentren sollen eng mit lokalen Handelskammern und Branchenverbänden zusammenarbeiten, um eine möglichst flächendeckende Unterstützung zu gewährleisten.
Stärkung der Verantwortlichkeit und Haftungsregelungen
Der AI Act wird außerdem die Verantwortlichkeit der KI-Anbieter stärken, indem klare Haftungsregelungen eingeführt werden. Diese Regelungen sollen sicherstellen, dass sowohl die Entwickler als auch die Anwender von KI-Systemen im Falle von Fehlfunktionen oder Schäden zur Rechenschaft gezogen werden können. Dies erhöht die Sicherheit der Nutzer und sorgt für mehr Vertrauen in KI-basierte Technologien.
Der AI Act legt besonderen Wert auf Transparenz und die Vermeidung von Diskriminierung. Anbieter von KI-Systemen müssen sicherstellen, dass ihre Systeme keine diskriminierenden Ergebnisse liefern und transparent in ihrer Funktionsweise sind. Zudem sind klare Kennzeichnungspflichten vorgesehen, insbesondere wenn Nutzer mit KI-generierten Inhalten interagieren.
Die Verordnung sieht auch die Einrichtung eines Europäischen Ausschusses für Künstliche Intelligenz vor, der die Umsetzung überwacht und Leitlinien bereitstellt. Unternehmen, die KI-Systeme entwickeln oder einsetzen, sollten sich frühzeitig mit den Anforderungen des AI Act vertraut machen, um Compliance sicherzustellen und potenzielle Sanktionen zu vermeiden.
Insgesamt stellt der AI Act einen bedeutenden Schritt dar, um den verantwortungsvollen Einsatz von KI in der EU zu fördern, Innovation zu unterstützen und gleichzeitig die Rechte und Freiheiten der Bürger wirksam zu schützen. Die Verordnung verbindet Innovation und Sicherheit, um das Potenzial von KI-Technologien verantwortungsvoll auszuschöpfen und die Marktakzeptanz von KI-Lösungen zu erhöhen.
Neuer EU-Rechtsrahmen für Künstliche Intelligenz: Anpassungen und Umsetzung der KI-Verordnung 2024
Wichtige Änderungen der KI-Verordnung:
Die KI-Verordnung trat am 1. August 2024 in Kraft, mit gestaffelten Übergangsfristen. Das Gesetz wird in zwei Jahren vollständig anwendbar sein, während einige Verbote bereits nach sechs Monaten in Kraft treten.
Open-Source-KI-Systeme
Grundsätzlich vom Anwendungsbereich der Verordnung ausgenommen, außer bei Hochrisiko- oder verbotenen Praktiken.
Zuständigkeit des AI-Office
Die Aufsicht für sogenannte „general purpose AI“ liegt beim AI Office, während der Europäische Datenschutzbeauftragte (EDPS) für die Nutzung von KI durch EU-Organe zuständig ist.
Verbot der unterschwelligen Beeinflussung
Es muss eine „hinreichende Wahrscheinlichkeit“ eines Schadenseintritts vorliegen, um Maßnahmen zu rechtfertigen.
Konformitätsvermutung für KI-Modelle
KI-Modelle gelten als regelkonform, wenn sie harmonisierte Standards einhalten, was den Nachweis der Gesetzeskonformität erleichtert.
Hochrisiko-KI-Pflichten
Die Änderungen betreffen alle Bildungsstufen sowie Migrations- und Grenzkontrollen, auch wenn diese von Dritten im Auftrag von Behörden durchgeführt werden.
Im Rahmen der Durchsetzung der neuen KI-Verordnung wurden wichtige Anpassungen vorgenommen, um den gesetzlichen Rahmen an die neuesten Entwicklungen im Bereich der Künstlichen Intelligenz (KI) anzupassen. Diese Änderungen beeinflussen den Anwendungsbereich und die Pflichten der Verordnung maßgeblich.
Das KI-Gesetz (Verordnung (EU) 2024/1689) ist der erste umfassende Rechtsrahmen für Künstliche Intelligenz, der sich mit den Risiken befasst und Europa eine führende Rolle im globalen Wettbewerb ermöglicht. Es bietet Entwicklern klare Anforderungen und Verpflichtungen und zielt darauf ab, den Aufwand für Unternehmen, insbesondere kleine und mittlere Unternehmen (KMU), zu verringern.
Das KI-Gesetz ist Teil eines umfassenden Maßnahmenpakets zur Unterstützung der Entwicklung vertrauenswürdiger KI in der EU, das auch das KI-Innovationspaket und den koordinierten KI-Plan umfasst. Diese Maßnahmen fördern die Sicherheit, den Schutz der Grundrechte, die Akzeptanz sowie die Innovation im Bereich Künstliche Intelligenz in der EU.
Wesentliches über die KI-Verordnung 2024 zusammengefasst
- Verabschiedung des AI Acts: Verabschiedet am 12. Juli 2024, in Kraft seit 1. August 2024. Erstes umfassendes Regelwerk für KI weltweit.
- Risikobasierter Ansatz: Klassifizierung von KI-Systemen nach Risikostufen
- Bürgerrechte und Schutz: Schutz der Grundrechte, Einspruchsrecht gegen KI-Entscheidungen.
- Verpflichtungen für Anbieter: Strenge Auflagen für Hochrisiko-KI-Systeme, u. a. Risikomanagement, Datenqualität, menschliche Aufsicht.
- Transparenzanforderungen: Kennzeichnungspflicht für KI-generierte Inhalte wie Deepfakes.
- Umsetzung in nationales Recht: EU-Mitgliedstaaten müssen die Verordnung umsetzen, um sicheren und innovativen KI-Einsatz zu gewährleisten.
Handlungsempfehlungen für Unternehmen zur Umsetzung der KI-Verordnung
Unternehmen sollten sich frühzeitig auf die Anforderungen der KI-Verordnung vorbereiten, insbesondere wenn sie Hochrisiko-KI-Systeme anbieten, wie beispielsweise KI-Systeme für Kreditbewertung oder automatisierte Entscheidungsfindung bei der Personalrekrutierung. Diese Anbieter müssen umfassende Maßnahmen wie eine Risikobewertung, Protokollierung und menschliche Aufsicht sicherstellen.
Eine frühzeitige Prüfung der bestehenden KI-Systeme und eine Anpassung an die neuen Anforderungen sind unerlässlich, um spätere Sanktionen zu vermeiden. Auch Unternehmen, die KI-Systeme von Drittanbietern nutzen, sollten eine Bestandsaufnahme machen und ihre Rolle sowie damit verbundene Pflichten klären, beispielsweise bei der Nutzung von Chatbots für Kundenanfragen. Frühzeitiges Handeln wird entscheidend sein, um die Anforderungen der KI-Verordnung fristgerecht und effizient zu erfüllen.
Lassen Sie sich jetzt von unseren Experten beraten, um sicherzustellen, dass Ihr Unternehmen bestens auf die neuen Regelungen vorbereitet ist.
Mit Cortina Consult die Vorgaben der neuen KI-Verordnung in Ihrem Unternehmen rechtssicher umsetzen.