Au-delà du déploiement : Comment maintenir l'apprentissage des modèles d'IA en périphérie sur le terrain

L'IA Edge permet un niveau de prise de décision en temps réel qui est véritablement transformateur. Cependant, la pleine puissance de l'IA Edge ne peut être réalisée que lorsque les modèles peuvent apprendre et s'améliorer au fil du temps.

L'amélioration continue des modèles d'IA est cruciale pour s'adapter à des environnements dynamiques, traiter la dérive et les erreurs des modèles, et permettre de nouveaux services, fonctionnalités et une personnalisation plus approfondie. Cet apprentissage continu garantit que les solutions d'IA restent pertinentes et efficaces longtemps après leur déploiement.

Le problème avec les environnements Edge

La formation post-déploiement est particulièrement difficile à la périphérie pour plusieurs raisons, les ressources étant la principale contrainte. Bien que la formation de modèles soit une tâche notoirement gourmande en ressources, elle doit être exécutée sur des systèmes embarqués sans compromettre les performances. La difficulté inhérente réside dans le fait que, en raison des contraintes de taille, le matériel embarqué dispose souvent de capacités de calcul, d'énergie et de mémoire limitées.

Au-delà des limitations de ressources, la confidentialité et la sécurité des données posent des obstacles importants. Utiliser des données pour la formation qui n'ont pas été correctement anonymisées ou cryptées peut créer un champ de mines juridique et réglementaire, surtout lorsque des informations sensibles ou personnellement identifiables sont impliquées.

De plus, les environnements Edge n'ont pas toujours une bande passante fiable. Si un modèle dépend d'Internet pour sa formation, toute interruption de connectivité peut perturber sa fonctionnalité.

Bien que ces défis soient techniquement complexes, ils peuvent être surmontés en adoptant les bonnes méthodes d'apprentissage, techniques de formation et pile technologique.

Comment l'IA Edge apprend

De manière générale, la formation post-déploiement à la périphérie est réalisée de l'une des trois manières suivantes : sur l'appareil lui-même, dans le cloud ou via un écosystème d'apprentissage partagé. En associant ces méthodes aux bonnes techniques d'adaptation des modèles, les organisations peuvent s'assurer que leur IA continue d'apprendre bien après le déploiement.

Apprentissage sur l'appareil – Avec l'apprentissage sur l'appareil, les modèles d'IA sont formés ou mis à jour directement sur le matériel Edge. Le modèle est affiné en utilisant les données recueillies par ses propres capteurs ou interactions utilisateur, qu'il prétraite ensuite et ingère.

Cette approche est bien adaptée à la personnalisation dynamique en temps réel et préserve la confidentialité des utilisateurs en ne transmettant ni ne partageant les données. L'inconvénient principal, cependant, est le risque de surapprentissage ; en raison de la petite taille des ensembles de données locaux, un modèle pourrait "mémoriser" les données plutôt que d'apprendre un schéma général, le rendant incapable de généraliser à de nouvelles données.

Apprentissage fédéré – En alternative à l'apprentissage purement sur l'appareil, l'apprentissage fédéré introduit un serveur central pour coordonner la formation sur plusieurs appareils. Dans ce modèle, un serveur central partage un modèle d'IA avec une flotte d'appareils Edge. Chaque appareil forme ensuite le modèle sur son ensemble de données local et transmet les résultats de sa formation — et non les données brutes — au serveur. Le serveur agrège ces résultats et publie une mise à jour consolidée du modèle à tous les appareils.

Comme seules les mises à jour du modèle sont transmises, cette méthode est à la fois efficace en termes de bande passante et sécurisée. Un défi clé, cependant, est que la synchronisation de ces mises à jour sur divers types d'appareils Edge nécessite souvent des logiciels spécialisés.

Réentraînement basé sur le cloud – La troisième approche, le réentraînement basé sur le cloud, est la plus similaire à la formation traditionnelle des modèles. Cette méthode implique une plateforme cloud collectant des données des appareils Edge et les transmettant au cloud pour réentraîner un modèle d'IA centralisé. Une fois la formation terminée, le modèle mis à jour est retransmis à chaque appareil.

Bien que cette approche puisse prendre en charge des tâches de réentraînement plus complexes et des mises à jour de modèles complètes, elle dépend fortement de la connectivité et peut être affectée par la latence. De plus, la transmission de données brutes soulève des préoccupations en matière de confidentialité, car des informations sensibles pourraient être exposées sans cryptage approprié.

Techniques pratiques pour l'adaptation des modèles sur le terrain

Pour répondre aux limitations spécifiques des environnements Edge, plusieurs techniques d'adaptation peuvent être associées aux méthodes d'apprentissage décrites ci-dessus.

  • Apprentissage incrémental : Dans l'apprentissage incrémental, le modèle assimile de nouvelles informations à mesure qu'elles arrivent. Ces données sont principalement utilisées pour affiner le modèle, gérer la dérive et s'adapter à de nouveaux schémas de données tout en conservant son objectif initial. Un exemple courant est un tracker de fitness portable mis à jour avec de nouvelles données sur son utilisateur.
  • Apprentissage par transfert : Là où l'apprentissage incrémental affine un modèle, l'apprentissage par transfert le réutilise. Avec cette technique, un modèle pré-entraîné sur un grand ensemble de données générique est adapté pour une tâche spécifique en utilisant un ensemble de données local beaucoup plus petit. Cela réduit considérablement les besoins en calcul, mémoire et énergie pour la formation du modèle, ce qui permet à son tour le déploiement d'une IA plus sophistiquée à la périphérie. Par exemple, un système de conduite autonome pourrait utiliser l'apprentissage par transfert pour former son modèle de détection d'objets pour un nouvel environnement.
  • Apprentissage continu : L'apprentissage continu va plus loin dans l'adaptation, permettant à un modèle d'apprendre de nouvelles fonctions au fil du temps. Ici, le modèle ingère un flux constant de données pour l'aider à apprendre de nouvelles tâches ou à s'adapter à de nouvelles capacités. Contrairement à l'apprentissage incrémental, qui se concentre sur la tâche initiale, l'apprentissage continu élargit le domaine du modèle, lui permettant de mieux s'adapter à des changements significatifs dans son écosystème. Un thermostat intelligent, par exemple, pourrait utiliser l'apprentissage continu pour s'intégrer à un climatiseur intelligent nouvellement installé.

En pratique, il est souvent plus efficace d'adopter une approche hybride qui tire parti de plusieurs techniques, telles que la combinaison de la formation sur l'appareil avec l'apprentissage continu et le réentraînement périodique basé sur le cloud.

L'importance de trouver la bonne pile d'IA

Ces techniques avancées d'apprentissage et d'adaptation sont puissantes, mais elles dépendent d'une pile matérielle et logicielle bien pensée pour garantir que les mises à jour du modèle puissent réellement se produire. Cela nécessite, avant tout, un matériel capable de supporter les exigences en ressources du modèle et un logiciel capable de gérer, coordonner, planifier et sécuriser les mises à jour de formation avec un minimum d'intervention.

Essentiellement, le matériel et le logiciel doivent fonctionner non pas comme des composants individuels, mais comme un tout unifié. Sans l'infrastructure intégrée appropriée, un modèle ne peut pas apprendre efficacement après le déploiement et peut rencontrer des goulets d'étranglement critiques, allant des pénuries de ressources à des pannes matérielles complètes.

Pour résoudre cela, SECO fournit une pile complète de matériel, logiciel et outils intégrés conçus pour les déploiements d'IA Edge les plus complexes. Beaucoup de nos appareils Edge disposent d'unités de traitement neuronal (NPU) dédiées et d'accélérateurs d'IA pour gérer des charges de travail exigeantes, y compris la prise en charge d'options tierces comme les accélérateurs matériels de l'unité de traitement de l'intelligence artificielle (AIPU) d'Axelera.

Pour relier ce matériel puissant, Clea, notre cadre logiciel modulaire, fournit l'écosystème complet pour l'apprentissage post-déploiement. Nous fournissons tout ce dont vous avez besoin pour d'abord développer un modèle d'IA via le studio Clea AI en glisser-déposer, le déployer sur un ou plusieurs appareils Edge, puis garantir que le modèle continue d'apprendre, quel que soit l'appareil Edge sur lequel il fonctionne.

Réflexions finales

L'apprentissage post-déploiement est essentiel pour toute mise en œuvre réussie de l'IA Edge, car il permet à un modèle de fournir une meilleure personnalisation, de s'adapter à des environnements dynamiques et d'évoluer avec les besoins de votre entreprise et de vos clients. Bien que le choix des bonnes techniques d'apprentissage soit crucial pour maintenir la précision et l'efficacité du modèle, la pile de solutions sous-jacente est tout aussi importante. SECO fournit la pile intégrée dont vous avez besoin pour réussir.

Contactez-nous pour découvrir comment nous pouvons vous aider à construire une IA Edge adaptable et dynamique.