Ethische und sicherheitsrelevante Fragen zu KI und maschinellem Lernen
In unserem ersten Teil haben unsere Kollegen bereits eine Auswahl spannender Vorträge der m3 vorgestellt. In diesem weiteren Abschnitt gehen wir nochmal gesondert auf die Themen ethische und sicherheitsrelevante Probleme von KI sowie Transferlernen und Domänenadaption von KI-Modellen ein.
Zuverlässige KI: Absicherung künstlicher neuronaler Netze
Auch wenn das Thema Künstliche Intelligenz in der Öffentlichkeit zunehmende Bedeutung erlangt, müssen mit zunehmender Verbreitung von KIs in echten Anwendungsfällen auch ethische- und sicherheitsrelevante Fragen beachtet und beantwortet werden. Dies zeigte Prof. Dr.-Ing. Marco Huber vom Fraunhofer IPA in seinem Vortrag auf.
Bekannt gewordene Fehlversuche in ethischen Zusammenhängen waren in der nahen Vergangenheit z. B. bei Amazon eine KI, die bei der Auswahl von Bewerber:innen behilflich seine sollte. Die KI wurde mit Mitarbeiterprofilen aus der IT-Abteilung trainiert, die überwiegend männlich waren, was dazu führte, dass weibliche Bewerberinnen in der Folge von der KI als ungeeignet ausgeschlossen wurden. Ein weiteres Experiment war ein von Microsoft entwickelter Twitter-Bot, der von den Usern lernen sollte („Bot to Learn from User“). Das Modell wurde durch die Interaktion mit Nutzer:innen trainiert, was die KI in nur wenigen Stunden zu einem Rassisten machte. Das System wurde umgehend gestoppt. Weitere bekannt gewordene Fehlschläge, die sicherheitsrelevant waren, waren verschiedene, zum Teil schwere Unfälle mit Teslas Autopiloten.
Wem vertraut der Mensch: der KI oder einer menschlichen Entscheidung?
Um eine KI gegen Fehler, ethische Fehlentscheidungen, Sicherheitslücken und das menschliche Misstrauen abzusichern, gibt es die folgenden Handlungsfelder:
- Sicherheit
- Verlässlichkeit
- Transparenz
Sicherheit: Absichtliche Manipulation einer KI durch einen Angriff
Transparenz: Blackbox KI und die Erklärbarkeit von künstlichen Entscheidungen
Es liegt in der Natur eines Neuronalen Netzes, das Entscheidungen intransparent sind, und damit ist es für Nutzer:innen schwer nachzuvollziehen, wie es zu der einen und nicht zu einer anderen Entscheidung gekommen ist. Wie kann der Mensch also nachvollziehen, was die KI tut – zum Beispiel, um die Ergebnisse zu überprüfen? Die Erklärbarkeit der Entscheidungen der KI ist schließlich unerlässlich dafür, dass Menschen ihr vertrauen können.
Zur Lösung dieser Problematiken gibt es verschiedene Ansätze, Beispielweise mittels Optimierung, die jedoch zu teilweise kaum lösbaren mathematischen Problemen führt. Eine andere Möglichkeit ist die Bayessche Inferenz: Dabei werden vorher bekannte Informationen benutzt, um zu überprüfen, ob eine Lösung möglich sein kann. Alle drei Fragen, also bzgl. Sicherheit, Verlässlichkeit und Transparenz sollten im Laufe der Entwicklung der KI beachtet und geklärt werden.
Von der Spielwiese in die Umsetzung: Deployment von ML in der Batteriefertigung
Im Vortrag von Dr. Antje Fitzner, Digitalisation of Battery Cell Production, Fraunhofer Research Institution for Battery Cell Production FFB Münster und Alexander D. Kies, M.Sc., Production Quality, Fraunhofer Institute for Production Technology IPT Aachen, wurden 2 mögliche Einsatzgebiete für den Einsatz von KI in der Batteriefertigung vorgestellt.
Im FFB werden Fertigungsmöglichkeiten für die spätere Batteriezellenfertigung in kleinen und großen Fertigungsstätten bis hin zu „Giga-Factories“ entwickelt. So wurde dann auch die mögliche Integration von KI in den Fertigungs- und Überwachungsprozessen als ein interessantes Entwicklungsgebiet eingestuft. Der Vortrag ging von der Grundüberlegung, wo überhaut der Einsatz von KI sinnvoll ist, bis zur Umsetzung des Einsatzfalles.
Im Vortrag wurden zwei mögliche Einsatzgebiete vorgestellt:
- Erkennung von Anomalien bei der Schichtdicke in der Herstellung von Batteriefolien
- Vorhersage von Wartungsintervallen für eine Extruder-Schnecke während der kontinuierlichen Mischung von Batteriezellenbestandteilen
Bei der Umsetzung der beiden Anwendungsfälle wurde nach dem CRISP-DM Model vorgegangen. Das CRISP-DM Model ist ein einheitlicher Standard für die Entwicklung von KI-Modellen und hilft dabei, KI-Projekte strukturiert umzusetzen. Diese oder eine ähnliche Vorgehensweise sollten wir auch für unsere Anwendungsfälle in Erwägung ziehen.
Bedingt durch die spezielle Arbeitsweise einer Forschungsstätte und der damit einhergehenden, sich ständig verändernden Fertigungsweise der Batterien, waren die Modelle in dem Institut wenig aussagekräftig. Jedoch wird vermutet, dass in dem späteren Einsatzbereichen, in Fertigungsstraßen, die Modelle konstante und mehrwertbringende Ergebnisse liefern werden.
Wir sind für Sie da!
Zusammenfassend lässt sich sagen, dass die m³-Konferenz jedes Jahr einen spannenden Einblick in die Welt der Künstlichen Intelligenz gibt. Gerade der im Vergleich mit anderen Veranstaltungen kleinere Rahmen fördert den Austausch mit anderen Teilnehmer:innen und den Referent:innen. Tiefere Einblicke in einzelne Themen bietet der Workshop am Tag vor der Konferenz. Hier haben wir uns umfassend mit dem Thema MLOps auseinandergesetzt. Dies ist auch eins der Hauptthemen, mit denen sich die Machine Learning Community aktuell befasst.
Waren während der beiden vergangenen Konferenzen vor Ort 2018 und 2019 vor allem Machine-Learning-Algorithmen und neue Durchbrüche im Bereich der Neuronalen Netze auf der Agenda, ging es diesmal vor allem darum, wie Machine-Learning-Standards etabliert werden können. Die Produktivsetzung von Modellen und Daten sind ebenfalls ein großes Thema. Denn ein Modell verliert naturgemäß an Genauigkeit, während „normale“ Software relativ unbeeindruckt von der Zeit ihren Dienst verrichtet.
Auch leogistics befasst sich intensiv mit den Themen Künstliche Intelligenz und Machine Learning und Anwendungsszenarien in der Welt der Logistik und des Supply Chain Managements. Haben wir Ihr Interesse an Lösungen im Bereich der künstlichen Intelligenz geweckt? Sprechen Sie uns an unter blog@leogistics.com!