Jenseits der Bereitstellung: Wie man Edge-AI-Modelle im Einsatz weiter lernen lässt

Edge-KI ermöglicht eine Ebene der Echtzeit-Entscheidungsfindung, die wirklich transformativ ist. Die volle Leistungsfähigkeit der Edge-KI kann jedoch nur dann realisiert werden, wenn Modelle im Laufe der Zeit lernen und sich verbessern können.

Die kontinuierliche Verbesserung von KI-Modellen ist entscheidend, um sich an dynamische Umgebungen anzupassen, Modellabweichungen und Fehler zu beheben und neue Dienste, Funktionen und tiefere Personalisierung zu ermöglichen. Dieses kontinuierliche Lernen stellt sicher, dass KI-Lösungen lange nach ihrer Bereitstellung relevant und effektiv bleiben.

Das Problem mit Edge-Umgebungen

Das Training nach der Bereitstellung ist am Edge aus mehreren Gründen besonders herausfordernd, wobei Ressourcen die primäre Einschränkung darstellen. Während das Modelltraining bekanntermaßen ressourcenintensiv ist, muss es auf eingebetteten Systemen ausgeführt werden, ohne die Leistung zu beeinträchtigen. Die inhärente Schwierigkeit liegt darin, dass eingebettete Hardware aufgrund von Größenbeschränkungen oft über begrenzte Rechenleistung, Energie und Speicher verfügt.

Über die Ressourcenbeschränkungen hinaus stellen Datenschutz und Sicherheit erhebliche Hürden dar. Die Verwendung von Daten für das Training, die nicht ordnungsgemäß anonymisiert oder verschlüsselt wurden, kann ein rechtliches und regulatorisches Minenfeld schaffen, insbesondere wenn sensible oder persönlich identifizierbare Informationen betroffen sind.

Darüber hinaus haben Edge-Umgebungen nicht immer eine zuverlässige Bandbreite. Wenn ein Modell auf das Internet für das Training angewiesen ist, kann jede Unterbrechung der Konnektivität seine Funktionalität stören.

Obwohl diese Herausforderungen technisch komplex sind, können sie durch die Annahme der richtigen Lernmethoden, Trainingstechniken und Technologie-Stacks überwunden werden.

Wie Edge-KI lernt

Im Allgemeinen wird das Training nach der Bereitstellung am Edge auf eine von drei Arten durchgeführt: auf dem Gerät selbst, in der Cloud oder durch ein gemeinsames Lernökosystem. Durch die Kombination dieser Methoden mit den richtigen Modellanpassungstechniken können Organisationen sicherstellen, dass ihre KI auch nach der Bereitstellung weiterhin lernt.

On-Device-Learning – Beim On-Device-Learning werden KI-Modelle direkt auf der Edge-Hardware trainiert oder aktualisiert. Das Modell wird mit Daten feinabgestimmt, die von seinen eigenen Sensoren oder Benutzerinteraktionen gesammelt werden, die es dann vorverarbeitet und aufnimmt.

Dieser Ansatz eignet sich gut für dynamische, Echtzeit-Personalisierung und bewahrt die Privatsphäre der Benutzer, indem keine Daten übertragen oder geteilt werden. Der Hauptnachteil ist jedoch das Risiko des Overfittings; da lokale Datensätze klein sind, könnte ein Modell die Daten "auswendig lernen", anstatt ein allgemeines Muster zu lernen, was es unfähig macht, auf neue Daten zu verallgemeinern.

Federated Learning – Als Alternative zum reinen On-Device-Learning führt das Federated Learning einen zentralen Server ein, um das Training über mehrere Geräte hinweg zu koordinieren. In diesem Modell teilt ein zentraler Server ein KI-Modell mit einer Flotte von Edge-Geräten. Jedes Gerät trainiert dann das Modell auf seinem lokalen Datensatz und überträgt die Ergebnisse seines Trainings – nicht die Rohdaten – zurück an den Server. Der Server aggregiert diese Ergebnisse und veröffentlicht ein konsolidiertes Modell-Update für alle Geräte.

Da nur Modell-Updates übertragen werden, ist diese Methode sowohl bandbreiteneffizient als auch sicher. Eine wesentliche Herausforderung besteht jedoch darin, dass die Synchronisierung dieser Updates über verschiedene Arten von Edge-Geräten oft spezialisierte Software erfordert.

Cloud-basiertes Retraining – Der dritte Ansatz, das cloud-basierte Retraining, ähnelt am meisten dem traditionellen Modelltraining. Diese Methode umfasst eine Cloud-Plattform, die Daten von Edge-Geräten sammelt und in die Cloud überträgt, um ein zentrales KI-Modell neu zu trainieren. Sobald das Training abgeschlossen ist, wird das aktualisierte Modell an jedes Gerät zurückübertragen.

Obwohl dieser Ansatz komplexere Retraining-Aufgaben und umfassende Modell-Updates unterstützen kann, ist er stark auf Konnektivität angewiesen und kann von Latenzzeiten betroffen sein. Darüber hinaus wirft die Übertragung von Rohdaten Datenschutzbedenken auf, da sensible Informationen ohne ordnungsgemäße Verschlüsselung offengelegt werden könnten.

Praktische Techniken zur Modellanpassung im Feld

Um die spezifischen Einschränkungen von Edge-Umgebungen zu adressieren, können mehrere Anpassungstechniken mit den oben beschriebenen Lernmethoden kombiniert werden.

  • Inkrementelles Lernen: Beim inkrementellen Lernen assimiliert das Modell neue Informationen, sobald sie eintreffen. Diese Daten werden hauptsächlich verwendet, um das Modell feinabzustimmen, Drift zu verwalten und sich an neue Datenmuster anzupassen, während das Modell seinen Fokus auf seine ursprüngliche Funktion beibehält. Ein häufiges Beispiel ist ein tragbarer Fitness-Tracker, der mit neuen Daten über seinen Träger aktualisiert wird.
  • Transferlernen: Während das inkrementelle Lernen ein Modell feinabstimmt, wird es beim Transferlernen umfunktioniert. Mit dieser Technik wird ein Modell, das auf einem großen, generischen Datensatz vortrainiert wurde, für eine spezifische Aufgabe mit einem viel kleineren, lokalen Datensatz angepasst. Dies reduziert drastisch den Rechenaufwand, den Speicher und die Energie, die für das Modelltraining benötigt werden, was wiederum die Bereitstellung anspruchsvollerer KI am Edge ermöglicht. Beispielsweise könnte ein autonomes Fahrsystem Transferlernen verwenden, um sein Objekterkennungsmodell für eine neue Umgebung zu trainieren.
  • Kontinuierliches Lernen: Kontinuierliches Lernen geht einen Schritt weiter und ermöglicht es einem Modell, im Laufe der Zeit völlig neue Funktionen zu erlernen. Hierbei nimmt das Modell einen konstanten Datenfluss auf, um ihm zu helfen, neue Aufgaben zu erlernen oder sich an neue Fähigkeiten anzupassen. Im Gegensatz zum inkrementellen Lernen, das sich auf die ursprüngliche Aufgabe konzentriert, erweitert das kontinuierliche Lernen die Domäne des Modells, sodass es sich besser an signifikante Änderungen in seinem Ökosystem anpassen kann. Ein intelligentes Thermostat könnte beispielsweise kontinuierliches Lernen nutzen, um sich mit einer neu installierten intelligenten Klimaanlage zu integrieren.

In der Praxis ist es oft am effektivsten, einen hybriden Ansatz zu verfolgen, der mehrere Techniken kombiniert, wie z.B. die Kombination von On-Device-Training mit kontinuierlichem Lernen und periodischem cloud-basiertem Retraining.

Die Bedeutung der richtigen KI-Stack-Auswahl

Diese fortschrittlichen Lern- und Anpassungstechniken sind leistungsstark, aber sie hängen von einem gut durchdachten Hardware- und Software-Stack ab, um sicherzustellen, dass Modell-Updates tatsächlich stattfinden können. Dies erfordert in erster Linie Hardware, die in der Lage ist, die Ressourcenanforderungen des Modells zu unterstützen, und Software, die Trainings-Updates mit minimalem Aufwand verwalten, koordinieren, planen und sichern kann.

Entscheidend ist, dass Hardware und Software nicht als einzelne Komponenten, sondern als einheitliches Ganzes funktionieren müssen. Ohne die richtige integrierte Infrastruktur kann ein Modell nach der Bereitstellung nicht effektiv lernen und kann auf kritische Engpässe stoßen, von Ressourcenengpässen bis hin zu vollständigem Hardwareausfall.

Um dies zu lösen, bietet SECO einen vollständigen Stack aus integrierter Hardware, Software und Tools, die selbst die komplexesten Edge-KI-Bereitstellungen unterstützen. Viele unserer Edge-Geräte verfügen über dedizierte Neural Processing Units (NPUs) und KI-Beschleuniger, um anspruchsvolle Workloads zu bewältigen, einschließlich Unterstützung für Drittanbieteroptionen wie Axelera's Artificial Intelligence Processing Unit (AIPU) hardwarebasierte Beschleuniger.

Diese leistungsstarke Hardware wird durch Clea, unser modulares Software-Framework, verbunden, das das vollständige Ökosystem für das Lernen nach der Bereitstellung bietet. Wir bieten alles, was Sie benötigen, um zunächst ein KI-Modell über das Drag-and-Drop Clea AI Studio zu entwickeln, es auf einem oder mehreren Edge-Geräten bereitzustellen und dann sicherzustellen, dass das Modell weiterhin lernt, unabhängig davon, auf welchem Edge-Gerät es läuft.

Abschließende Gedanken

Das Lernen nach der Bereitstellung ist für jede erfolgreiche Edge-KI-Implementierung unerlässlich, da es einem Modell ermöglicht, bessere Personalisierung zu liefern, sich an dynamische Umgebungen anzupassen und sich mit den Bedürfnissen Ihres Unternehmens und Ihrer Kunden weiterzuentwickeln. Während die Wahl der richtigen Lerntechniken entscheidend für die Aufrechterhaltung der Modellgenauigkeit und -effektivität ist, ist der zugrunde liegende Lösungsstack ebenso wichtig. SECO bietet den integrierten Stack, den Sie benötigen, um erfolgreich zu sein.

Kontaktieren Sie uns, um zu erfahren, wie wir Ihnen helfen können, anpassungsfähige, dynamische Edge-KI zu entwickeln.