Edge Computing aus Sicht der Künstlichen Intelligenz

 

Dirk Hecker, Michael Mock, Joachim Sicking, Angi Voss und Tim Wirtz

Nachrichten über neue Einsatzmöglichkeiten der Künstlichen Intelligenz (KI) erreichen uns fast täglich. Während China angesetzt hat, die Vormachtstellung der USamerikanischen IT-Konzerne bis 2030 auf allen Gebieten der KI zu brechen, rechnet sich Deutschland Vorteile im Kontext von Industrie 4.0 aus. Die heutigen Erfolge der KI beruhen auf riesigen Datenmengen, die zentral gesammelt und analysiert werden. Zwar fallen auch in der Industrie große Datenmengen an, aber beschränkte Bandbreite, Kommunikationskosten, schnelle Reaktionszeiten, Datenschutz oder Betriebsgeheimnisse verbieten eine solche Datenzentralisierung oftmals.

Dieser Beitrag stellt die Schlüsseltechnologie der modernen KI vor: das maschinelle Lernen (ML) und speziell das Lernen mit künstlichen neuronalen Netzen. Er erklärt, wie ein solches Modell unmittelbar an den Orten der Datenentstehung gelernt werden kann – ganz ohne Kommunikation von Rohdaten. Dieses Paradigma wird als verteiltes Lernen – oder kurz – Lernen an der Edge bezeichnet, im Gegensatz zum heute vorherrschenden Lernen in der Cloud.
Künstliche Intelligenz ist in den letzten Jahren in unseren Alltag eingezogen, in Form von Sprachassistenten und Übersetzern, Objekt- und Gesichtserkennung, Produktempfehlungen und personalisierten Informationen. Die gemeinsame Technik hinter all diesen Fähigkeiten ist das maschinelle Lernen. Gemeinsamer Enabler von maschinellem Lernen und Big Data ist die nahezu exponentiell wachsende Verfügbarkeit an Ressourcen wie Rechenleistung und Speicherkapazität [1].

Warum Lernen in der Cloud nicht ausreicht

Auch im industriellen Kontext finden Modelle des maschinellen Lernens, die auf leistungsstarken Rechnern mithilfe großer Datenmengen (Big Data) trainiert werden, zahlreiche Anwendungen: von der Anomalieerkennung im Condition Monitoring und der präventiven Wartung (engl. Predictive Maintenance) über Empfehlungen zur Maschineneinstellung bis hin zu autonomen Fahrzeugen, kooperativen Robotern und intelligenten Steuerungen. Die
Daten hierfür entstehen im Zuge der Digitalisierung von industriellen und logistischen Prozessen (I4.0) in einer Vielzahl an Sensoren, Geräten und Maschinen, die räumlich verteilt, jedoch oftmals miteinander vernetzt sind (Internet der Dinge, IoT).
Das Lernen auf diesen großen Datenmengen findet zurzeit vorwiegend in der Cloud statt, also auf einer zentralen Big-Data-Plattform, auf der historische Daten kontinuierlich durch Datensätze ergänzt werden, die im Einsatz neu gewonnen werden. Dieses Paradigma ist in zahlreichen Bereichen jedoch weder technisch wünschenswert noch rechtlich möglich: Während im Gesundheitswesen der Datenschutz die primäre Hürde darstellt, kommen im industriellen Umfeld noch weitere Gegenargumente und Bedenken hinzu, etwa geringe vorhandene Bandbreiten, hohe Kommunikationskosten oder die Forderung nach kurzen Reaktionszeiten. Die in den Daten enthaltenen Informationen über den Urheber der Daten, im Industriekontext etwa ein produzierendes Unternehmen, könnten es einem Geräte- und Maschinenproduzenten ermöglichen, Interna und Betriebsgeheimnisse seiner Kunden gegen deren Willen in Erfahrung zu bringen und zum eigenen Vorteil zu nutzen. Dies zu verhindern, ohne auf die Chancen durch KI verzichten zu müssen, ist ein zentraler Aspekt des verteilten Lernens, des Lernens an der Edge.


Bild 1: Kommunikation zwischen Koordinator und lokalen Agenten.


Was soll Lernen an der Edge erreichen?

Diese weit verbreiteten Herausforderungen motivieren Konzepte für das Lernen von Modellen auf den datenerzeugenden Endgeräten und Sensoren, also an der Edge statt in der Cloud. Da die Datenmenge eines einzelnen Endgerätes gering ist, den Erfolgen des maschinellen Lernens jedoch oftmals die Verfügbarkeit von Big Data zugrunde liegt, stellt sich als zentrale wissenschaftliche Fragestellung, wie die Modelle auf einem lokalen Gerät von den „Erkenntnissen“ der jeweils anderen Geräte profitieren können, ohne dass Rohdaten ausgetauscht oder in der Cloud zentralisiert werden müssen.
Eine analoge Problematik gibt es in der Spracherkennung: Auf einem einzelnen Smartphone wird die Spracherkennung für seinen Nutzer optimiert, je nachdem also für eine junge oder alte Stimme, eine Stimme mit Dialekt oder die Stimme eines Nicht-Muttersprachlers. Um von den lokalen Modellen für die jeweiligen Gerätebenutzer zu einem einzigen Modell zu gelangen, das eine Vielzahl an Stimmvarianten erfolgreich verarbeiten kann, sollen diese „Erkenntnisse“ zwischen den Modellen ausgetauscht werden, sodass schließlich ein einziges Modell auf allen Endgeräten die Verarbeitung vieler Stimmtypen beherrscht. Die zentrale Herausforderung ist nun, diesen „Erkenntnisaustausch“ zu realisieren, ohne dass dafür auch nur eine einzige Stimmaufzeichnung in die Cloud gelangen muss.
Übertragen auf den industriellen Kontext soll ein stabiles, gemeinsames Modell trainiert werden, das zum Beispiel vorausschauende Wartung für Fahrzeuge und Geräte ermöglicht, die unterschiedlich beansprucht und gepflegt werden, in unterschiedlichen Umgebungen, Beleuchtungs und Temperaturverhältnissen betrieben werden.
Techniken, Verfahren und Ansätze für dieses Lernen an der Edge werden bereits seit einigen Jahren entwickelt, allerdings unter wechselnden Bezeichnungen wie ressourcenbeschränktes Lernen, verteiltes Lernen, dezentrales Lernen, kollaboratives Lernen oder kommunikationseffizientes Lernen. Viele Grundlagen wurden in den vom Fraunhofer IAIS geleiteten EU-Forschungsprojekten LIFT und FERARI erarbeitet [24].


Wie funktioniert maschinelles Lernen?

Maschinelles Lernen versucht, aus Stichprobendaten ein mathematisches Modell der statistischen Zusammenhänge zwischen Eingaben und Ausgaben in den Daten zu erfassen. Im Einsatz wird das Modell benutzt, um für neu eintreffende Eingaben Schätzungen der Ausgabewerte zu generieren. Beispiele sind Prognosen von Trends, Abschätzungen numerischer Größen, Klassifikationen aller Art, Ergänzung oder Fortsetzung von Eingaben.
Die spektakulären Durchbrüche der Künstlichen Intelligenz seit 2012 wurden vor allem durch das Trainieren von tiefen neuronalen Netzen erzielt (engl. Deep Learning). Die Netze bestehen aus vielen Knoten, den künstlichen Neuronen, die in Schichten angeordnet und miteinander verschaltet werden. Durch das Zusammenwirken der Knoten berechnet das Netz eine Funktion, die von den Gewichten zwischen verbundenen Knoten abhängt. Die Gewichte sind die Parameter, die es anhand der Daten zu optimieren gilt. Ein Netz kann leicht mehrere Millionen Knoten und Gewichte haben. Deshalb benötigt es zum Training sehr große Datenmengen [5].

Zum Weiterlesen klicken Sie hier.