Chancen und Grenzen von KI im Berufsalltag
KI kann in verschiedenen Berufen unterstützend eingesetzt werden. Ein Beispiel ist die medizinische Diagnostik, bei der Systeme in der Lage sind, große Mengen an medizinischen Daten zu analysieren und Ärzten dabei helfen, schneller und präziser Diagnosen zu stellen. Hintergründe zum Einsatz von KI in der Medizin findet man hier beim Fraunhofer Institut. In der Industrie unterstützen KI-Systeme die Fertigung, indem sie Produktionsprozesse überwachen, Fehler frühzeitig erkennen und vorausschauende Wartungen (z.B. beim Einsatz von Kamerabrücken im Schienengüterverkehr) ermöglichen. Im Finanzwesen (mehr dazu gibt's hier) kommt KI zum Einsatz, um Betrugsfälle in Echtzeit zu erkennen und Handelsstrategien durch maschinelles Lernen zu optimieren. Ebenso nutzen Personalabteilungen KI-gestützte Systeme für die Vorauswahl von Bewerbungen und sogar für die Analyse von Video-Interviews (einen Überblick dazu erhält man hier).
Diese Beispiele zeigen, dass KI eine wichtige Rolle bei der Effizienzsteigerung und Qualitätssicherung spielt. Aber auch bei solchen Anwendungen werden häufig vor allem ethische Bedenken laut. KI-Systeme entscheiden auf Grundlage großer Datenmengen, was bei fehlerhaften oder verzerrten Daten zu diskriminierenden Ergebnissen führen kann. Auch die Frage nach der Transparenz solcher Entscheidungen stellt eine Herausforderung dar: Wenn KI als „Black Box“ agiert, ist nicht immer nachvollziehbar, wie und warum ein Algorithmus zu einem bestimmten Ergebnis gekommen ist.
Der entscheidende Unterschied zwischen KI und menschlicher Intelligenz liegt nicht nur in der Art der Datenverarbeitung, sondern auch im Fehlen von emotionaler Intelligenz und moralischem Urteilsvermögen. KI kann immense Datenmengen analysieren, sie aber nicht im gleichen Maße wie der Mensch in einen Kontext setzen. Ein Beispiel: In der medizinischen Betreuung ist es nicht ausreichend, nur die Krankheitssymptome zu kennen – der Arzt berücksichtigt auch die emotionale Lage des Patienten, seine Lebensumstände und soziale Faktoren. Solche Überlegungen und das Mitgefühl können durch keine Maschine vollständig ersetzt werden.
In kreativen Berufen, wie Journalismus oder Kunst, bleibt der Mensch ebenfalls unersetzbar. KI mag in der Lage sein, große Textmengen zu generieren oder visuelle Inhalte zu kreieren, aber die Fähigkeit zur originellen und emotional resonanten Schöpfung ist etwas, das eine rein datengetriebene Maschine nicht leisten kann. Darüber hinaus bleibt der Mensch der ultimative Träger von Verantwortung: Eine KI kann Vorschläge machen, aber wer trägt die Konsequenzen, wenn eine Entscheidung falsch ist oder Schaden verursacht? Das weiß auch der Deutsche Ethikrat. „Der Einsatz von KI muss menschliche Entfaltung erweitern und darf sie nicht vermindern. KI darf den Menschen nicht ersetzen. Das sind grundlegende Regeln für die ethische Bewertung“, sagt Alena Buyx, die Vorsitzende des Deutschen Ethikrates bei der Vorstellung der Stellungnahme des Rates zur KI im März 2023. Weiter heißt es: KI solle zur Entscheidungsunterstützung und nicht zur Entscheidungsersetzung verwendet werden, soll die Diffusion von Verantwortung verhindern, menschliche Kontrolloptionen nicht beeinträchtigen und den Zugang zu den Entscheidungsgrundlagen insbesondere in Bereichen mit hoher Eingriffstiefe gewährleisten. Die Empfehlungen des Deutschen Ethikrates kann man hier downloaden.
Um die Nutzung von KI ethisch zu regulieren, arbeitet die Europäische Union seit 2021 am AI Act, einer Verordnung, die darauf abzielt, einheitliche Standards für die Entwicklung und Anwendung von KI-Systemen zu schaffen. Der AI Act sieht vor, KI-Systeme in verschiedene Risikoklassen zu unterteilen – von minimalem bis hin zu unzumutbarem Risiko. Anwendungen mit hohem Risiko, wie etwa in der Medizin oder bei der Überwachung öffentlicher Räume, sollen strenge Vorschriften und eine regelmäßige Kontrolle unterliegen. Die Verordnung soll Transparenz und Nachvollziehbarkeit sicherstellen, beispielsweise durch verpflichtende Offenlegung von KI-Entscheidungsprozessen. Systeme, die ein „inakzeptables Risiko“ darstellen, wie z.B. der Einsatz von KI zur Massenüberwachung oder Manipulation des menschlichen Verhaltens, sollen vollständig verboten werden.
Der AI Act ist ein Schritt in die richtige Richtung: KI kann und sollte nur im Sinne der Gesellschaft und ethischer Grundsätze eingesetzt werden. Dennoch gibt es Kritikpunkte: Einige Experten befürchten, dass zu strenge Regularien die Innovation in der EU bremsen könnten. Andere sehen die Gefahr, dass weniger transparente Märkte wie die USA oder China ihre KI-Systeme ohne ähnliche Auflagen weiterentwickeln und dadurch Wettbewerbsvorteile erlangen könnten. Mehr zum AI Act gibt es hier.
Die Diskussion um den Einsatz von KI dreht sich nicht nur um technische Möglichkeiten, sondern vor allem um die Frage, wie diese Technologie in Einklang mit menschlichen Werten und gesellschaftlichen Normen gebracht werden kann. KI hat das Potenzial, den Menschen in vielen Bereichen zu unterstützen und sogar kreative Impulse zu setzen. Sie kann jedoch nicht den Menschen ersetzen, da ihr die Fähigkeit zu ethischem Handeln und emotionaler Intelligenz fehlt.
Die Regulierung durch den AI Act ist ein wichtiger Schritt, um sicherzustellen, dass KI verantwortungsvoll eingesetzt wird. Letztlich liegt es jedoch in den Händen der Menschen, wie weit wir KI-Systeme in unser Leben integrieren und welche Rolle sie in Zukunft spielen sollen. Die Technologie muss immer als Werkzeug gesehen werden, das den Menschen unterstützt, nicht als Ersatz für ihn. Denn das Fundament jeder ethisch vertretbaren Entscheidung bleibt der Mensch mit seiner Fähigkeit zur Reflexion, Empathie und zum verantwortungsvollen Handeln.