minds mastering machines 2022: KI-Trends für die Welt der Logistik (Teil 2/2)

Axel Bohnet

Axel Bohnet

Ethische und sicherheitsrelevante Fragen zu KI und maschinellem Lernen

In unserem ersten Teil haben unsere Kollegen bereits eine Auswahl spannender Vorträge der m3 vorgestellt. In diesem weiteren Abschnitt gehen wir nochmal gesondert auf die Themen ethische und sicherheitsrelevante Probleme von KI sowie Transferlernen und Domänenadaption von KI-Modellen ein.

Zuverlässige KI: Absicherung künstlicher neuronaler Netze

Auch wenn das Thema Künstliche Intelligenz in der Öffentlichkeit zunehmende Bedeutung erlangt, müssen mit zunehmender Verbreitung von KIs in echten Anwendungsfällen auch ethische- und sicherheitsrelevante Fragen beachtet und beantwortet werden. Dies zeigte Prof. Dr.-Ing. Marco Huber vom Fraunhofer IPA in seinem Vortrag auf.

Bekannt gewordene Fehlversuche in ethischen Zusammenhängen waren in der nahen Vergangenheit z. B. bei Amazon eine KI, die bei der Auswahl von Bewerber:innen behilflich seine sollte. Die KI wurde mit Mitarbeiterprofilen aus der IT-Abteilung trainiert, die überwiegend männlich waren, was dazu führte, dass weibliche Bewerberinnen in der Folge von der KI als ungeeignet ausgeschlossen wurden. Ein weiteres Experiment war ein von Microsoft entwickelter Twitter-Bot, der von den Usern lernen sollte („Bot to Learn from User“). Das Modell wurde durch die Interaktion mit Nutzer:innen trainiert, was die KI in nur wenigen Stunden zu einem Rassisten machte. Das System wurde umgehend gestoppt. Weitere bekannt gewordene Fehlschläge, die sicherheitsrelevant waren, waren verschiedene, zum Teil schwere Unfälle mit Teslas Autopiloten.

Wem vertraut der Mensch: der KI oder einer menschlichen Entscheidung?

Eine Umfrage, die von Bosch im Rahmen ihrer KI-Zukunftsprognose erhoben wurde, brachte beachtliche Unterschiede in verschiedenen Einsatzgebieten von KIs zutage. Während es bei Themen zu Industrie und Verkehr ein hohes Vertrauen in KIs gibt, so schwindet das Vertrauen der Menschen in KI bei gesundheitlichen Fragen oder Personalentscheidungen auf ein Minimum.
Verschiedene Anwendungssituationen - KI vs. Mensch
Unterschiedlich großes Vertrauen in KI

Um eine KI gegen Fehler, ethische Fehlentscheidungen, Sicherheitslücken und das menschliche Misstrauen abzusichern, gibt es die folgenden Handlungsfelder:

  1. Sicherheit
  2. Verlässlichkeit
  3. Transparenz

Sicherheit: Absichtliche Manipulation einer KI durch einen Angriff

Bei der Entwicklung eine Künstlichen Intelligenz muss sichergestellt und getestet werden, dass sich das Modell so verhält, wie es soll. Eine Möglichkeit, dies zu testen, ist die Verfälschung der Ergebnisse. Unter einer Adversarial Attack („feindlicher Angriff“) versteht man die Verwendung von Adversarial Examples („feindliche Beispiele“) zur Manipulation der KI. Ein Adversarial Example ist ein speziell manipuliertes Eingangssignal in ein künstliches Neuronales Netzwerk, welches dieses absichtlich zu Fehlklassifikationen verleitet. Die Manipulation kann sogar so vorgenommen werden, dass ein menschlicher Beobachter diese nicht bemerkt oder nicht als absichtliche Manipulation erkennt. Schon einzelne fehlerhafte Pixel auf den Trainingsdaten können ein völlig anderes Klassifizierungsergebnis bewirken.

Transparenz: Blackbox KI und die Erklärbarkeit von künstlichen Entscheidungen

Es liegt in der Natur eines Neuronalen Netzes, das Entscheidungen intransparent sind, und damit ist es für Nutzer:innen schwer nachzuvollziehen, wie es zu der einen und nicht zu einer anderen Entscheidung gekommen ist. Wie kann der Mensch also nachvollziehen, was die KI tut – zum Beispiel, um die Ergebnisse zu überprüfen? Die Erklärbarkeit der Entscheidungen der KI ist schließlich unerlässlich dafür, dass Menschen ihr vertrauen können.

Zur Lösung dieser Problematiken gibt es verschiedene Ansätze, Beispielweise mittels Optimierung, die jedoch zu teilweise kaum lösbaren mathematischen Problemen führt. Eine andere Möglichkeit ist die Bayessche Inferenz: Dabei werden vorher bekannte Informationen benutzt, um zu überprüfen, ob eine Lösung möglich sein kann. Alle drei Fragen, also bzgl. Sicherheit, Verlässlichkeit und Transparenz sollten im Laufe der Entwicklung der KI beachtet und geklärt werden.

Von der Spielwiese in die Umsetzung: Deployment von ML in der Batteriefertigung

Im Vortrag von Dr. Antje Fitzner, Digitalisation of Battery Cell Production, Fraunhofer Research Institution for Battery Cell Production FFB Münster und Alexander D. Kies, M.Sc., Production Quality, Fraunhofer Institute for Production Technology IPT Aachen, wurden 2 mögliche Einsatzgebiete für den Einsatz von KI in der Batteriefertigung vorgestellt.

Im FFB werden Fertigungsmöglichkeiten für die spätere Batteriezellenfertigung in kleinen und großen Fertigungsstätten bis hin zu „Giga-Factories“ entwickelt. So wurde dann auch die mögliche Integration von KI in den Fertigungs- und Überwachungsprozessen als ein interessantes Entwicklungsgebiet eingestuft. Der Vortrag ging von der Grundüberlegung, wo überhaut der Einsatz von KI sinnvoll ist, bis zur Umsetzung des Einsatzfalles.

AI Use Cases in der Produktion
Mögliche Einsatzgebiete von ML

Im Vortrag wurden zwei mögliche Einsatzgebiete vorgestellt:

  • Erkennung von Anomalien bei der Schichtdicke in der Herstellung von Batteriefolien
  • Vorhersage von Wartungsintervallen für eine Extruder-Schnecke während der kontinuierlichen Mischung von Batteriezellenbestandteilen

Bei der Umsetzung der beiden Anwendungsfälle wurde nach dem CRISP-DM Model vorgegangen. Das CRISP-DM Model ist ein einheitlicher Standard für die Entwicklung von KI-Modellen und hilft dabei, KI-Projekte strukturiert umzusetzen. Diese oder eine ähnliche Vorgehensweise sollten wir auch für unsere Anwendungsfälle in Erwägung ziehen.

Bedingt durch die spezielle Arbeitsweise einer Forschungsstätte und der damit einhergehenden, sich ständig verändernden Fertigungsweise der Batterien, waren die Modelle in dem Institut wenig aussagekräftig. Jedoch wird vermutet, dass in dem späteren Einsatzbereichen, in Fertigungsstraßen, die Modelle konstante und mehrwertbringende Ergebnisse liefern werden.

Wir sind für Sie da!

Zusammenfassend lässt sich sagen, dass die m³-Konferenz jedes Jahr einen spannenden Einblick in die Welt der Künstlichen Intelligenz gibt. Gerade der im Vergleich mit anderen Veranstaltungen kleinere Rahmen fördert den Austausch mit anderen Teilnehmer:innen und den Referent:innen. Tiefere Einblicke in einzelne Themen bietet der Workshop am Tag vor der Konferenz. Hier haben wir uns umfassend mit dem Thema MLOps auseinandergesetzt. Dies ist auch eins der Hauptthemen, mit denen sich die Machine Learning Community aktuell befasst.

Waren während der beiden vergangenen Konferenzen vor Ort 2018 und 2019 vor allem Machine-Learning-Algorithmen und neue Durchbrüche im Bereich der Neuronalen Netze auf der Agenda, ging es diesmal vor allem darum, wie Machine-Learning-Standards etabliert werden können. Die Produktivsetzung von Modellen und Daten sind ebenfalls ein großes Thema. Denn ein Modell verliert naturgemäß an Genauigkeit, während „normale“ Software relativ unbeeindruckt von der Zeit ihren Dienst verrichtet.

Auch leogistics befasst sich intensiv mit den Themen Künstliche Intelligenz und Machine Learning und Anwendungsszenarien in der Welt der Logistik und des Supply Chain Managements. Haben wir Ihr Interesse an Lösungen im Bereich der künstlichen Intelligenz geweckt? Sprechen Sie uns an unter blog@leogistics.com!

KONTAKT

SPRECHEN SIE MICH AN​

Sie interessieren sich für State-of-the-Art-Logistiklösungen? Dann bin ich Ihr Ansprechpartner. Ich freue mich auf Ihren Anruf oder Ihre Nachricht per Kontaktformular. 

Christian Piehler
Mitglied der Geschäftsleitung

Neues von leogistics in Ihr Postfach

Jetzt anmelden und Zugang zu unserem kostenlosen Whitepaper und Downloads erhalten.