Der AI-Act (Artificial Intelligence Act, also das Gesetz über Künstliche Intelligenz) der Europäischen Union ist die weltweit erste umfassende gesetzliche Regelung für Künstliche Intelligenz. Ziel ist es, den sicheren und verantwortungsvollen Einsatz von KI-Technologien zu gewährleisten. Der AI-Act basiert auf einem risikobasierten Ansatz und unterscheidet zwischen vier Risikostufen:
Der AI-Act wurde im Dezember 2023 politisch beschlossen, die endgültige Verabschiedung durch die EU-Gremien erfolgte am 13. März 2024. Die Regelungen treten gestaffelt in Kraft: Das Verbot von Hochrisiko-KI ist bereits in Kraft, während weitere Vorschriften schrittweise bis 2026 umgesetzt werden müssen.
KI ist auch für bluepartner ein spannendes Thema. Verantwortlich im Team ist Maria Bock, im Unternehmen für Compliance zuständig. Für sie ist der AI-Act eine Herausforderung, aber auch gleichzeitig eine Chance. Denn: „Für mich überwiegen die positiven Aspekte. Der Grundgedanke hinter dieser Verordnung ist klar: Die Regulierung von KI-Anwendungen, die Einhaltung ethischer Standards, der Schutz der Grundrechte sowie Transparenz und Verantwortung sind essenziell. Diese Ziele tragen dazu bei, Vertrauen in KI-Technologien zu stärken und den europäischen Markt zu einer Vorreiterregion für sichere KI-Anwendungen zu machen.“
Aber sie sieht auch die Herausforderungen – insbesondere für kleine und mittlere Unternehmen ohne eigene Rechtsabteilung. „Allein die Auseinandersetzung mit dem 150-seitigen Regelwerk erfordert erhebliche Ressourcen“, kommentiert sie. „Dazu kommt die praktische Umsetzung: Unternehmen müssen ihre vorhandenen KI-Anwendungen identifizieren, eine Risikoklassifizierung durchführen und – je nach Einstufung – umfassende Maßnahmen zur Einhaltung der Vorschriften ergreifen. Hochriskante KI-Anwendungen unterliegen dabei besonders strengen Auflagen, während KI-Systeme mit unannehmbarem Risiko seit Februar 2024 verboten sind. Doch auch bei „begrenztem Risiko“ bestehen Pflichten, etwa in den Bereichen Transparenz und Kennzeichnung.“
Schon vor Inkrafttreten des AI-Acts hat man sich bei bluepartner mit einem KI-Einsatz und den damit verbundenen rechtlichen oder ethischen Fragestellungen beschäftigt. Allerdings nur eingeschränkt. Denn bislang ist KI-Technologie lediglich in Form eines Sprachassistenten eingesetzt. Sie übernimmt einfache Kundenanliegen, wie etwa die Erfassung von Zählerständen, und sorgt für eine verbesserte Erreichbarkeit des Kundenservice rund um die Uhr. „Parallel,“ erklärt Maria Bock, „prüfen wir kontinuierlich weitere KI-Anwendungen, die sowohl unsere Mitarbeiter entlasten als auch unser Dienstleistungsangebot optimieren können.“
Eine zentrale Anforderung des AI-Acts war für bluepartner die Risikoklassifizierung des Sprachassistenten. Das Ergebnis: Der künstliche Assistent fällt unter die Kategorie „begrenztes Risiko“ – mit entsprechenden Auflagen hinsichtlich Transparenz und Kennzeichnung. So wurde bei bluepartner ein Maßnahmeplan aufgestellt, welcher jetzt schrittweise umgesetzt wird.
Wie bluepartner machen es bereits viele mittelständische Unternehmen und setzen KI-Technologien ein. Auch hier existiert die Herausforderungen, die neuen Vorschriften zu erfüllen. Hier einige Praxisbeispiele:
Der AI-Act verfolgt das Ziel, Vertrauen in KI-Technologien zu stärken und eine sichere Nutzung zu gewährleisten. Ähnlich wie die DSGVO stellt er ein starkes Instrument zum Schutz der Verbraucher dar. „Ich kann mir gut vorstellen, dass diese Regulierung das Vertrauen der Nutzer erhöht, indem sie Sicherheit und Verlässlichkeit in den Vordergrund rückt,“ ist sich Maria Bock sicher.
Es gibt allerdings auch kritische Stimmen, die befürchten, dass die neuen Regelungen europäische Unternehmen im globalen Wettbewerb benachteiligen könnten. Ob das der Fall ist, wird sich erst in den kommenden Monaten und Jahren zeigen. Die Frage bleibt, ob die Vorgaben praktikabel genug sind, um Innovationen nicht auszubremsen, sondern zu fördern.
Noch ist der Aufwand, die Anforderungen des AI-Acts umzusetzen, überschaubar. Und so setzt Maria Bock bei bluepartner zunächst auf die eigenen Ressourcen. Aber: „Sollte sich der Umsetzungsaufwand erhöhen, schließen wir nicht aus, zukünftig auf externe Unterstützung – beispielsweise durch Beratungsunternehmen oder Verbände – zurückzugreifen.“
Fazit: Der AI-Act bringt Herausforderungen mit sich, bietet aber auch Chancen. Unternehmen, die sich frühzeitig mit den neuen Regelungen auseinandersetzen und ihre KI-Strategie entsprechend anpassen, können langfristig profitieren – sowohl durch eine höhere Rechtssicherheit als auch durch ein gestärktes Vertrauen der Nutzer.