21.03.2022

Interview mit …

Lothar Schröder

Lothar Schröder ist ehemaliges langjähriges Mitglied im ver.di-Bundesvorstand und ehemaliges Mitglied der Enquetekommission des Deutschen Bundestages zur Künstlichen Intelligenz. Heute berät er Datenschutzbeiräte mehrerer Unternehmen und arbeitet in Forschungsprojekten zum Thema KI mit.

Lothar Schröder

Du warst Mitglied der Enquetekommission des Deutschen Bundestages zur Künstlichen Intelligenz. Was hast du in dieser Zeit gelernt?

Lothar Schröder: Eine Menge über den parlamentarischen Betrieb, aber inhaltlich waren es zwei Dinge, die mich stark beeinflusst haben. Das eine ist die Vielfalt des Themas. Die ersten zwei bis drei Sitzungen haben wir uns mit der Diskriminierung durch KI-Systeme beschäftigt und damit, wie sie sich verhindern lässt. Wenn man dann das Thema auffächert, treten sehr viel mehr Aspekte zutage. Da geht es dann beispielsweise um Würde und Autonomie, um Persönlichkeitsentfaltung und das Primat menschlicher Entscheidungen. Es geht um Fairness, Diversität, um Gebrauchstauglichkeit. Es geht um Normtreue und die Privatsphäre im Denken und Fühlen. Solche Systeme sind in der Lage, Mimik und Gestik auszuwerten.

Es geht um Ergonomie und um soziale Folgenabschätzung. Es geht darum, ob solche Systeme erwartungskonform funktionieren, und darum, wie man das Risiko klassifiziert, das derartige Systeme haben – bis hin zu nachhaltigem Ressourcenansatz und Energieeffizienz. Und mir wurde auch klar: Wer sich mit maschinellen Schlussfolgerungen bzw. Entscheidungen beschäftigt, sollte sich mit Ethik auseinandersetzen.

Wer über Ethik redet, muss sich die Frage stellen, wie Menschen Entscheidungen und Schlussfolgerungen treffen. Ein KI-System kennt Spontanität und Leidenschaft nicht, es fiebert nicht mit, hat keinen Enthusiasmus und lässt sich nicht damit anstecken. Das System kann keine Gefühle entwickeln und soziale Wärme ausdrücken. Und es verfügt über keine Tugenden. Ein KI-System kennt keine Skrupel, keine Scham, keine Ehrlichkeit, keine Großzügigkeit, keine Gerechtigkeit. Wenn man so einem System keine Vorgaben macht, trifft es schlicht ausschließlich rationale Entscheidungen. Und die Frage ist, ob wir uns diese reduzierten, emotions- und bewusstseinslosen Entscheidungen immer wünschen. Ich glaube nicht.

Dein Praxishandbuch zu Künstlicher Intelligenz wird in Kürze erscheinen (Praxishandbuch Künstliche Intelligenz*). Warum war es notwendig, dieses Buch zu schreiben?

In der Enquetekommission hat sich erneut bestätigt, dass der Gesetzgeber nicht jede einzelne KI-Anwendung regulieren kann, sich auch nicht um alles kümmern will, was in den Betrieben stattfindet. Deswegen müssen die Akteure der betrieblichen Mitbestimmung mit ran, so wie sie bei der IT-Gestaltung auch rangegangen sind. Aber es gibt bisher kaum eine praktische Hilfe dafür, wenig Handhabbares für Betriebe. Daher habe ich das KI-Lagom-Modell entwickelt, mit dem eine Kritikalitätseinstufung von KI-Systemen vorgenommen werden kann. Es arbeitet mit der Idee eines strategischen Filters. Mittels Prüffragen werden unterschiedliche Anwendungen hinterfragt und auch der Kontext im jeweiligen Unternehmen beurteilt, um ein Bild von den Risiken und dem Nutzen der Systeme zu erhalten. Zu fragen ist beispielsweise, wie viel Entscheidungsautonomie der Maschine zugebilligt werden soll, wie hoch das Schädigungspotenzial für die Firma, für die Persönlichkeitsrechte ausfallen könnte und ob die Entscheidungen, die eine KI treffen soll, grundrechtsrelevant sind. Es geht aber auch um den Nutzen. KI- Lagom ist kein Modell, das für sich in Anspruch nimmt, letzte Wahrheiten zu verkünden, sondern es hilft dabei, den eigenen Weg zu finden, die richtigen Fragen zu stellen, die richtigen Schwerpunkte im jeweiligen betrieblichen Kontext und in der Anwendung zu identifizieren.

Du hast dein Praxishandbuch vor allem für Betriebs- und Personalräte geschrieben. Kann es auch für andere Akteure im Betrieb eine Hilfestellung sein?

Ich glaube schon. Wenn man im Betrieb ein KI-System einführt und als Arbeitgeber auf die Unkenntnis oder ein Überfahren der Mitbestimmungsträger und Beschäftigten setzt, lässt man kein Vertrauen entstehen. KI-Lagom will Vertrauensfaktoren aufbauen. Es ist ein Instrument, mit dem beide Seiten den Dialog führen können. Und deswegen richtet sich dieses Buch auch an Betriebspraktiker:innen, die auf der Arbeitgeberseite Verantwortung tragen. Die Arbeitgeberseite tut gut daran, KI-Systeme dialogisch und strukturiert einzuführen und Fragen zu stellen: nach der Wirkung auf das Personal, aber auch nach Effizienz, Effektivität, Erforderlichkeit und nach Stabilität und Robustheit von Systemen.

Welche Fehler sollten Unternehmen und Verwaltungen bei der Einführung von KI unbedingt vermeiden?

Also ich glaube, dass Firmen und Verwaltungen zunächst mal vermeiden müssten, so zu tun, als ob KI nur ein IT-System ohne Besonderheiten wäre. Das würde der Sache nicht gerecht werden. KI-Systeme sind in der Lage, durch ihre Entscheidungen in vielfacher Hinsicht in die Autonomie des Menschen einzugreifen. Sie arbeiten mit einer beachtlichen Sensorik und produzieren einen Output, der enorm ist. KI-Systeme können Deepfakes erzeugen, menschliche Sprache verstehen, Mimik und Gestik auslesen und das in einer Geschwindigkeit, bei der der Mensch nicht mehr hinterherkommt. Vertrauen ist da essenziell. Daher müssen Arbeitgeber- und Arbeitnehmerseite gemeinsam den Dialog über die richtige Regulierung von KI führen. Der Dialog stärkt auch das Vertrauen der Beschäftigten, von denen manche Angst vor Kontroll- oder Jobverlust haben, sich Sorgen um ihre Karriere machen und eine Entwertung ihrer Qualifikation fürchten.

Ein Fehler wäre es auch zu ignorieren, dass wir es mit lernenden Systemen zu tun haben, die sich fortentwickeln. Solche Systeme kommen ohne Evaluation im Betrieb nicht aus. Man muss vereinbaren, in welchen Abständen man immer wieder draufguckt, welche Mechanismen man schafft, um sicherzustellen, dass das System noch in der richtigen Spur läuft. Das muss man bei Systemen mit niedriger Risikorelevanz nicht so häufig machen. Aber im Pilotbereich und bei kritischen Anwendungen ist es dringend erforderlich, das regelmäßig zu prüfen.

Brauchen Unternehmen unbedingt eine KI-Ethikleitlinie?

Ich glaube, etwas überspitzt gesagt, Ethik sollte man vorher haben und nicht erst über Ethik nachdenken, wenn man mit KI zu tun hat. Ich denke, ein anspruchsvolles ethisches Gerüst im Lebens- und Berufsalltag lässt sich aber gut auf KI übertragen. Dabei gibt es ein paar grundlegende Aspekte, zum Beispiel: Betrachte ich die Beschäftigten oder auch Kunden nur als ökonomische Größen, oder habe ich auch deren Gemeinwohl- und Persönlichkeitsinteressen im Auge? Sage ich den Menschen, dass sie mit KI arbeiten, oder sage ich es ihnen nicht? Solche Fragen muss man stellen und da sollte man eigentlich vorher schon eine ethische Richtung haben. Es ist schön, wenn man die dann zu Papier bringt, wenn es um KI geht, aber ethisches Handeln sollte im Grunde Wesensmerkmal sämtlicher Prozesse im Arbeitsleben sein.

Ein Interview von Ines Roth, INPUT Consulting

* Zum Praxishandbuch:

Lothar Schröder, Petra Höfers, „Praxishandbuch Künstliche Intelligenz. Handlungsanleitungen, Praxistipps, Prüffragen, Checklisten.“, Frankfurt: Bund-Verlag, ISBN 978-3-7663-7264-2

Praxishandbuch Künstliche Intelligenz (bund-verlag.de)

(Erscheint ca. April 2022)

Diese Seite teilen: