06.07.2022

3 Fragen an…

Benno Blumoser

Der diplomierte Kulturwirt und Magister der Musikpädagogik leitet das Siemens AI Lab am Münchner Viktualienmarkt. Dort geht es zum einen um die Exploration neuer Applikationen industrieller KI, zum anderen um die Spannungsfelder Künstlicher Intelligenz. Nachhaltigkeit, verantwortliche Implementierung („Responsible AI“) und Zukunft der Arbeit, diese Themen und mögliche Lösungsansätze waren Blumoser seit der Gründung des Labs wichtig.

Sie haben bereits 2017 bei Siemens das AI Lab gegründet, wie kam es dazu?

In meinem vorherigen Job hatte ich ein kleines Portfolio an trendbasierten Opportunitäten für Siemens verantwortet: Bei welchen Trends sollte Siemens mehr tun, externe Potenziale wie Start-ups besser nutzen? Welche Rolle könnten Industrial Blockchain, Circular Economy und Nano-Satelliten spielen? Ein immer größeres Thema wurde damals die Industrielle Künstliche Intelligenz, die kurz vorher durch die Durchbrüche in der Anwendung der Neuronalen Netze viel Phantasie auch in ihrer industriellen Anwendung entstehen hat lassen. Gemeinsam mit einem AI-Expertenkollegen und Meinungsführer, Dr. Ulli Waltinger, haben wir in Strategieprojekten und „Task Forces“ mögliche Handlungsfelder erörtert und Maßnahmen vorgeschlagen. KI hat ja bei Siemens eine relativ lange Historie mit stabilen Anwendungsfeldern in wichtigen Nischenbereichen wie der Kupferpreis-Vorhersage oder den selbstlernenden Gasturbinen. Wir äußerten die Vermutung, dass es noch viel mehr AI-Möglichkeiten gibt, die nach Exploration schreien. Und für diese Explorationen wollten wir ein neues Umfeld gestalten, mit neuen Methoden und in frischen Formaten. Daher brachten wir am Ende unserer Empfehlungen immer den Punkt: „Außerdem sollte Siemens ein AI Lab gründen.“ Irgendwann wurden wir dann gefragt: „Sagt doch mal, was meint Ihr denn genau damit?“, und schließlich wurden wir als Doppelspitze eines Siemens AI Lab in die Pflicht genommen.

Und was meinten Sie damit?

Wir hatten sehr unterschiedliche Vorstellungen davon, was ein AI Lab eigentlich ausmacht, und das war vermutlich einer der Erfolgsfaktoren. Ulli als Technology Head dachte: „Hackathons! Neue Ideen möglichst schnell austesten und angewandte Forschung neu gestalten.“ Ich dachte eher: „Wir können systematische Innovationsmethoden auf das weite Feld der KI-Entwicklung anwenden und große Themen wie nachhaltige KI durchdenken, konzeptionieren und strukturieren.“ Gemacht haben wir schließlich beides – und getroffen haben wir uns in der Überzeugung, dass wir eine neue Innovationskultur schaffen wollen. Unpolitisch, neugierig und divers.
Vor allem aber waren wir durch die Co-Location im Lab effektiver. AI- und Business-Unit-Expert:innen arbeiten dort ja eng zusammen – weniger Briefings, weniger Rückmeldungen, die drei Wochen auf sich warten ließen, weniger Korrekturschleifen, die per E-Mail passierten. Sondern alle saßen in einem Raum zusammen, mit kurzen Kommunikationswegen. Das heißt, die AI-Expert:innen konnten sofort bei den Business-Leuten nachfragen: „Was bedeutet dieser Datenpunkt hier eigentlich? Wie würdest Du diese Anomalie hier interpretieren?“ Gleichzeitig baute man schneller ein gegenseitiges Verständnis auf und öffnete sich, um voneinander zu lernen. Erfolge wurden schließlich gemeinsam gepitcht, und nach einer Woche, der typischen Dauer eines „Sprints“, war es deutlich einfacher, ein Scheitern der Hypothese zuzugeben und als Lernerfolg zu labeln. Die Verdichtung im Lab wurde zu einem deutlichen Produktivitäts- und Vertrauensbooster.

Und was ist aus den Themen wie „Sustainability und AI“ geworden?

Wir haben von Anfang an versucht, die wertebasierte KI zu verstehen und Schlüsse für das Unternehmen abzuleiten. Zunächst ging es um „Responsible AI“: also um die Ambivalenz, dass KI neben den vielen Vorzügen und Potenzialen auch negative Nebenwirkungen haben kann und viel Raum für Missbrauch bietet. Wenn man an den Skandal um Cambridge Analytica denkt, der zeigte, was für ein Schindluder mit AI im Rahmen politischer Manipulation getrieben werden kann, etwa im US-Wahlkampf und bei Abstimmungen zum Brexit, wird das auf unheimliche Weise deutlich. Das amerikanische Unternehmen hatte dafür unredlich Daten von Hundertausenden Menschen erschlichen. Das bewies, wie wichtig neben einem funktionierenden Datenschutz auch eine Kontrolle über die Macht großer Internetkonzerne ist. Mächtige Technologien wie KI müssen sinnvoll reguliert werden, ohne die Innovationskraft zu bremsen – das ist die große Aufgabe, die derzeit ja etwa die Europäische Kommission mit der Umsetzung ihres AI Act zu bewältigen hat. Die industriellen Use Cases, wie sie sich etwa bei uns im Portfolio befinden, kommen mit deutlich geringerem Risiko daher – bei uns geht es weniger um Personendaten als um Maschinendaten. Dafür sind die Anforderungen an Sicherheit und Robustheit umso höher. Trotzdem wird dies in der Wahrnehmung von „KI“ oft in einen Topf geworden – und auch wir als Industrieunternehmen müssen dieses Problem der Ambivalenz, der Polarisierung benennen, wir müssen es auch verstehen und entsprechend agieren. Ausführliche Szenarienarbeit hat uns hierbei geholfen – und die Tatsache, dass vertrauenswürdige Technologien (wie AI-on-the-edge, federated learning oder explainable AI), die dabei helfen, die Risiken zu minimieren, gleichzeitig auch kommerziell interessant sind und auf hohe Nachfrage treffen. Jetzt in der zweiten Welle der wertebasierten KI geht es sehr stark um das Thema der Nachhaltigkeit – und die Frage, wo KI am besten eingesetzt werden kann, um die großen Ziele der Dekarbonisierung und der Ressourceneffizienz zu erreichen. Gerade im Bereich der Energieeffizienz können KI-Algorithmen große Mehrwerte generieren, aber auch hier ist noch viel Exploration notwendig. Die dritte Welle wird vermutlich das Thema „AI and the future of work“ werden. Es gibt bereits viele kleine Leuchtturmprojekte, die sich damit auseinandersetzen, wie sich Arbeit durch KI (im Rahmen der generellen Digitalisierungs-Megatrends) noch weiter verändern wird. Wie arbeiten wir mit „Kollege KI“ zusammen? Welche Fähigkeiten sind notwendig in einer Arbeitsrealität, in der wiederkehrende Aufgaben regelmäßig an eine KI abgegeben werden können, ich aber als „Intrapreneur“ die wesentlichen kreativen Impulse geben muss? Welche emotionale Bereitschaft, welche Resilienz wird dabei von mir als Mensch gefordert – wie schnell werde ich meine Rolle wieder ändern müssen? Ein wesentlicher Aspekt dabei ist aus meiner Überzeugung die Purpose Centricity als ein Mechanismus, um Arbeit im Team zu organisieren. Erst wenn alle Mitarbeiter:innen im Team diesen Purpose verinnerlicht haben, braucht es keine konkreten Aufgaben mehr, die kleinteilig verteilt werden, sondern die erschließen sich aus diesem Purpose und ergeben sich neu von Situation zu Situation. Und hier schließt sich dann auch wieder der Kreis zur Kultur: Denn KI – im Verbund mit vielen weiteren digitalen Technologien – wird in der Zukunft die Art und Weise verändern, wie wir erfolgreich zusammenarbeiten. Dies zu antizipieren ist eine herausfordernde und spannende Aufgabe, die wir uns auch im AI Lab gegeben haben und worüber wir uns mit vielen Peers austauschen.

 

Ein Interview von Eva Meschede

Diese Seite teilen: