11. März 2025

Der AI-Act der EU: Herausforderung oder Chance?

Die Verabschiedung des AI-Acts der EU sorgt für zahlreiche Diskussionen in Unternehmen und Organisationen. Die entscheidende Frage dabei: Ist diese Regulierung eine Chance oder eher eine Hürde?

Was ist der AI-Act der EU?

Der AI-Act (Artificial Intelligence Act, also das Gesetz über Künstliche Intelligenz) der Europäischen Union ist die weltweit erste umfassende gesetzliche Regelung für Künstliche Intelligenz. Ziel ist es, den sicheren und verantwortungsvollen Einsatz von KI-Technologien zu gewährleisten. Der AI-Act basiert auf einem risikobasierten Ansatz und unterscheidet zwischen vier Risikostufen:

  • Unannehmbares Risiko: KI-Anwendungen, die Grundrechte verletzen oder gesellschaftlich nicht akzeptabel sind, sind seit dem 2. Februar 2024 verboten. Beispiele hierfür sind:
    • Sozialbewertungssysteme („Social Scoring“)
    • Echtzeit-Biometrieüberwachung im öffentlichen Raum (mit wenigen Ausnahmen)
    • Manipulative KI-Technologien, die menschliches Verhalten unzulässig beeinflussen
  • Hohes Risiko: KI-Systeme mit potenziell erheblichen Auswirkungen unterliegen strengen Vorgaben, etwa:
    • KI in der Personalrekrutierung (z. B. Bewerberauswahl durch automatisierte Systeme)
    • KI-gestützte medizinische Diagnosesysteme
    • KI-Systeme in kritischen Infrastrukturen wie Energie oder Transport
  • Begrenztes Risiko: Hierzu gehören Anwendungen wie Chatbots oder Sprachassistenten. Sie müssen Transparenzpflichten erfüllen, z. B. eine Kennzeichnungspflicht. Beispiele:
    • KI-gestützte Kundenservice-Chatbots
    • Text- und Bildgeneratoren, die klar als KI-generiert gekennzeichnet sein müssen
  • Minimales Risiko: KI-Anwendungen, die kaum reguliert werden, da sie wenig Risiken bergen. Dazu zählen:
    • Spam-Filter
    • Empfehlungsalgorithmen für Musik- oder Streamingdienste
    • KI-gestützte Spiele

Der AI-Act wurde im Dezember 2023 politisch beschlossen, die endgültige Verabschiedung durch die EU-Gremien erfolgte am 13. März 2024. Die Regelungen treten gestaffelt in Kraft: Das Verbot von Hochrisiko-KI ist bereits in Kraft, während weitere Vorschriften schrittweise bis 2026 umgesetzt werden müssen.

AI-generated
Roboter bei der Arbeit

Chancen überwiegen – aber Herausforderungen bleiben

KI ist auch für bluepartner ein spannendes Thema. Verantwortlich im Team ist Maria Bock, im Unternehmen für Compliance zuständig. Für sie ist der AI-Act eine Herausforderung, aber auch gleichzeitig eine Chance. Denn: „Für mich überwiegen die positiven Aspekte. Der Grundgedanke hinter dieser Verordnung ist klar: Die Regulierung von KI-Anwendungen, die Einhaltung ethischer Standards, der Schutz der Grundrechte sowie Transparenz und Verantwortung sind essenziell. Diese Ziele tragen dazu bei, Vertrauen in KI-Technologien zu stärken und den europäischen Markt zu einer Vorreiterregion für sichere KI-Anwendungen zu machen.“

Aber sie sieht auch die Herausforderungen – insbesondere für kleine und mittlere Unternehmen ohne eigene Rechtsabteilung. „Allein die Auseinandersetzung mit dem 150-seitigen Regelwerk erfordert erhebliche Ressourcen“, kommentiert sie. „Dazu kommt die praktische Umsetzung: Unternehmen müssen ihre vorhandenen KI-Anwendungen identifizieren, eine Risikoklassifizierung durchführen und – je nach Einstufung – umfassende Maßnahmen zur Einhaltung der Vorschriften ergreifen. Hochriskante KI-Anwendungen unterliegen dabei besonders strengen Auflagen, während KI-Systeme mit unannehmbarem Risiko seit Februar 2024 verboten sind. Doch auch bei „begrenztem Risiko“ bestehen Pflichten, etwa in den Bereichen Transparenz und Kennzeichnung.“

KI in der Praxis – Erfahrungen bei bluepartner

Schon vor Inkrafttreten des AI-Acts hat man sich bei bluepartner mit einem KI-Einsatz und den damit verbundenen rechtlichen oder ethischen Fragestellungen beschäftigt. Allerdings nur eingeschränkt. Denn bislang ist KI-Technologie lediglich in Form eines Sprachassistenten eingesetzt. Sie übernimmt einfache Kundenanliegen, wie etwa die Erfassung von Zählerständen, und sorgt für eine verbesserte Erreichbarkeit des Kundenservice rund um die Uhr. „Parallel,“ erklärt Maria Bock, „prüfen wir kontinuierlich weitere KI-Anwendungen, die sowohl unsere Mitarbeiter entlasten als auch unser Dienstleistungsangebot optimieren können.“

Eine zentrale Anforderung des AI-Acts war für bluepartner die Risikoklassifizierung des Sprachassistenten. Das Ergebnis: Der künstliche Assistent fällt unter die Kategorie „begrenztes Risiko“ – mit entsprechenden Auflagen hinsichtlich Transparenz und Kennzeichnung. So wurde bei bluepartner ein Maßnahmeplan aufgestellt, welcher jetzt schrittweise umgesetzt wird. 

Best practise: Umsetzung in mittelständischen Unternehmen

Wie bluepartner machen es bereits viele mittelständische Unternehmen und setzen KI-Technologien ein. Auch hier existiert die Herausforderungen, die neuen Vorschriften zu erfüllen. Hier einige Praxisbeispiele:

  • Produzierendes Gewerbe: Automatisierte Qualitätssicherung mit KI-Kamerasystemen zur Fehlererkennung. Unternehmen müssen sicherstellen, dass die eingesetzten Algorithmen nachvollziehbar und nicht diskriminierend sind.
  • Handel und E-Commerce: KI-gestützte Empfehlungssysteme für Kunden. Diese müssen als KI-generiert gekennzeichnet sein, um den Transparenzanforderungen zu entsprechen.
  • Gesundheitswesen: Diagnoseunterstützende KI-Anwendungen, die als „hohes Risiko“ eingestuft werden und eine umfangreiche Dokumentation sowie regelmäßige Audits erfordern.
  • Finanzbranche: Automatisierte Kreditbewertungssysteme, die eine faire und transparente Entscheidungsfindung sicherstellen müssen.

Hemmnis für Innovation oder Vertrauensschub?

Der AI-Act verfolgt das Ziel, Vertrauen in KI-Technologien zu stärken und eine sichere Nutzung zu gewährleisten. Ähnlich wie die DSGVO stellt er ein starkes Instrument zum Schutz der Verbraucher dar. „Ich kann mir gut vorstellen, dass diese Regulierung das Vertrauen der Nutzer erhöht, indem sie Sicherheit und Verlässlichkeit in den Vordergrund rückt,“ ist sich Maria Bock sicher.

Es gibt allerdings auch kritische Stimmen, die befürchten, dass die neuen Regelungen europäische Unternehmen im globalen Wettbewerb benachteiligen könnten. Ob das der Fall ist, wird sich erst in den kommenden Monaten und Jahren zeigen. Die Frage bleibt, ob die Vorgaben praktikabel genug sind, um Innovationen nicht auszubremsen, sondern zu fördern.

Unterstützung und Ausblick

Noch ist der Aufwand, die Anforderungen des AI-Acts umzusetzen, überschaubar. Und so setzt Maria Bock bei bluepartner zunächst auf die eigenen Ressourcen. Aber: „Sollte sich der Umsetzungsaufwand erhöhen, schließen wir nicht aus, zukünftig auf externe Unterstützung – beispielsweise durch Beratungsunternehmen oder Verbände – zurückzugreifen.“ 

Fazit: Der AI-Act bringt Herausforderungen mit sich, bietet aber auch Chancen. Unternehmen, die sich frühzeitig mit den neuen Regelungen auseinandersetzen und ihre KI-Strategie entsprechend anpassen, können langfristig profitieren – sowohl durch eine höhere Rechtssicherheit als auch durch ein gestärktes Vertrauen der Nutzer.