Die neue KI-Architektur: Kombination von Edge-, Fog- und Cloud-Computing

Während künstliche Intelligenz oft mit Cloud-Computing in Verbindung gebracht wird, migrieren immer mehr KI-Workloads auf lokale Geräte - ein Phänomen, das als Edge AI bekannt ist. Dieser Artikel untersucht die Vorteile von Edge AI und wie die Clea-Integration deren Implementierung ermöglicht

Während künstliche Intelligenz oft mit Cloud-Computing in Verbindung gebracht wird, migrieren immer mehr KI-Workloads auf lokale Geräte – ein Phänomen, das als Edge-KI bekannt ist. Dank des Aufkommens kostengünstiger, KI-fähiger eingebetteter Prozessoren und leichter KI-Modelle findet man KI nun in Maschinen auf dem Fabrikboden, in medizinischen Geräten und in vielen anderen Edge-Anwendungen.

Die Vorteile der Implementierung von Edge-KI sind erheblich. Der größte Vorteil ist die reduzierte Latenz. Anstatt auf eine Antwort von einem weit entfernten Rechenzentrum zu warten und unbestimmte Netzwerkkommunikationszeiten in Kauf zu nehmen, können Daten in Echtzeit verarbeitet werden. Die Speicherung sensibler Daten auf dem lokalen Gerät verbessert auch die Sicherheit, indem sie die Möglichkeiten zur Beeinflussung der KI-gestützten Entscheidungsfindung drastisch reduziert. Diese Faktoren ermöglichen es der KI, einen zuverlässigen Echtzeitbetrieb zu unterstützen – ein Schlüsselfeature für zeitkritische Anwendungsfälle wie autonome Fahrzeuge und Robotik, die innerhalb eines Cloud-basierten KI-Paradigmas möglicherweise nicht realisierbar sind.

Edge-KI reduziert auch den Energieverbrauch, indem sie die Notwendigkeit ständiger Datenübertragungen in die Cloud eliminiert – ein entscheidendes Merkmal für Edge-Geräte, die mit begrenzter Energie betrieben werden. Unternehmen sparen auch Geld, indem sie Daten lokal verarbeiten, anstatt für kontinuierliche Cloud-Bandbreite zu zahlen.

Vielleicht am wichtigsten ist, dass Edge-KI-Systeme auch dann weiterarbeiten, wenn Internetverbindungen ausfallen, und so eine Zuverlässigkeit bieten, die Cloud-abhängige Systeme nicht erreichen können.

Bedarf an mehrschichtiger Intelligenz

Obwohl Edge-KI viele Vorteile hat, gibt es auch Einschränkungen. Viele Systeme benötigen eine mehrschichtige Intelligenz, die Edge-, Cloud- und Fog-Computing kombiniert, um Effizienz, Geschwindigkeit und Skalierbarkeit auszugleichen. Um zu verstehen, warum, betrachten wir ein typisches Videoüberwachungssystem:

  • Edge-KI verarbeitet Daten direkt auf dem Endgerät – zum Beispiel in einer intelligenten Überwachungskamera.
  • Fog-Computing fügt eine Schicht zwischen Edge und Cloud hinzu, die Daten aus mehreren Quellen verarbeiten kann. Zum Beispiel kann ein lokales Netzwerk-Videorekordersystem (NVR), das mit mehreren Kameras verbunden ist, Objekte verfolgen, die sich zwischen verschiedenen Kameraperspektiven bewegen, und die abgeleiteten Ergebnisse bei Bedarf an die Cloud kommunizieren.
  • Cloud-Computing aggregiert und verarbeitet große Datenmengen in Rechenzentren. Dies eignet sich gut für die Langzeitspeicherung, das Training von KI-Modellen und die Analyse von Daten über die Zeit – wie das Verfolgen von Sicherheitstrends in einer ganzen Stadt.

Durch die Kombination dieser Ansätze kann ein Edge-to-Cloud-System oder ein Edge-to-Fog-to-Cloud-System einen größeren Wert liefern als eine eigenständige Punktlösung.

Clea deckt alle Komponenten der Wertschöpfungskette ab

In Anerkennung der Bedeutung eines ganzheitlichen Ansatzes bietet SECO sowohl Hardware- als auch Softwarelösungen, die Edge-, Fog- und Cloud-KI umfassen.

Edge-KI-Hardwarelösungen umfassen eine Vielzahl von Standard-Formfaktor-Computermodulen und Einplatinencomputern. Die aktuelle Generation eingebetteter Prozessoren von Unternehmen wie NXP, Qualcomm, MediaTek und Intel bietet integrierte KI-Beschleuniger und zugehörige Bibliotheken. Zum Beispiel verwendet das kreditkartengroße SOM-SMARC-Genio700-Modul den Genio 700-Prozessor von MediaTek, der acht Arm-Kerne (2x Cortex-A78 + 6x Cortex-A55) mit einem Deep Learning Accelerator kombiniert, der 4 Billionen Operationen pro Sekunde (TOPS) an KI-Leistung liefert. Dies ermöglicht es, komplexe KI auf kleinen, lüfterlosen Geräten und sogar batteriebetriebenen Systemen auszuführen.

Für Fog-Computing bieten höherwertige Industriecomputer mehr Rechenleistung, Konnektivität und dedizierte KI-Coprozessoren. Zum Beispiel kombiniert der Titan 300 TGL-UP3 AI lüfterlose Computer einen Intel Tiger Lake UP3-Prozessor mit einem Axelera AI-Chip, um 120 TOPS durch seine Metis AIPU zu liefern. Dies bietet leistungsstarke KI-Verarbeitung auf lokaler Ebene.

Auf der Softwareseite verbindet die Clea Internet of Things (IoT) Software-Suite Edge, Fog und Cloud für fortschrittliche KI-Systeme. Sie beginnt mit Clea OS, einer vollständigen Yocto-basierten Linux-Plattform, die auf SECOs Edge- und Fog-Hardware funktioniert und sowohl x86- als auch Arm-Prozessoren unterstützt. Clea OS erleichtert die Bereitstellung verteilter KI, indem es standardisierte Entwicklungstools und Back-End-DevOps-Funktionen für kontinuierliche Integration und Bereitstellung bietet.

Das Clea-Ökosystem ist cloud-agnostisch und umfasst mehrere wichtige Tools:

  • Für Edge- und Fog-KI-Knoten bietet Clea Edgehog robuste Geräteüberwachungs- und Flottenmanagement-Funktionen, die es einfacher machen, Geräte in großem Maßstab zu warten und zu aktualisieren.
  • Auf Cloud-Ebene bietet Clea Astarte eine ausgeklügelte Datenorchestrierung, die Geräte-Daten über eine Flotte von IoT-Geräten sammelt, weiterleitet und verwaltet. Astarte ermöglicht die Sammlung, Verarbeitung und Analyse großer Datenmengen, unterstützt von Kubernetes für Skalierbarkeit und ScyllaDB für nahtloses Unternehmenswachstum.
  • Clea Portal bietet ein cloudbasiertes Frontend zur Verwaltung und Monetarisierung der Edge-KI-Flotte, mit allem von Datenvisualisierung bis zur Geräteverwaltung.
  • Clea AI Studio ist eine visuelle Programmierumgebung, die Service-Flows basierend auf Prozessoranbieter-KI-Tools erstellt, um KI-gestützte Anwendungen auf Edge-Geräten bereitzustellen.

Entwickler können die Clea-Software-Suite verwenden, um vollständige End-to-End-IoT-Lösungen zu erstellen und die Bereitstellung und den Betrieb von KI-Funktionen zu erleichtern – unabhängig davon, ob der spezifische KI-Algorithmus am Edge, im Fog oder in der Cloud arbeitet. Die Suite kümmert sich um alles, von der Datenerfassung bis zur Erstellung von Benutzeroberflächen, und vereinfacht den Prozess der Bereitstellung von Edge-KI.

Fazit

Während Edge-KI überzeugende Vorteile gegenüber traditionellen Cloud- oder Fog-Computing-Ansätzen bietet, erfordert eine erfolgreiche Implementierung eine sorgfältige Berücksichtigung der Hardware- und Softwareanforderungen.

SECOs umfassender Lösungsstack ermöglicht es Organisationen, ihre Edge-KI-Bereitstellungen entsprechend ihren spezifischen Bedürfnissen zu optimieren und bietet die Flexibilität und Skalierbarkeit, die in der sich schnell entwickelnden technologischen Landschaft von heute erforderlich sind.

Bereit, Ihr Edge-KI-Design zu starten? Kontaktieren Sie uns noch heute