Tout ce que vous devez savoir sur notre technologie de prédiction par IA Edge basée sur le Reservoir Computing.
1. Caractéristiques de notre IA
Le Reservoir Computing s'applique à une grande variété de phénomènes représentables sous forme de séries temporelles, notamment les vibrations mécaniques, procédés chimiques, phénomènes naturels et signaux biologiques.
Contrairement au deep learning, qui nécessite souvent d'énormes volumes de données, le Reservoir Computing peut produire des prédictions précises avec seulement 500 à 1 000 points temporels. À titre d'exemple : une mesure de température toutes les heures génère 24 points par jour.
Les données d'entraînement doivent couvrir une variété suffisante de conditions opérationnelles et de dynamiques que vous vous attendez à rencontrer en production. Des données trop limitées risquent de ne pas permettre au modèle de bien généraliser.
Dans la plupart des cas, non. Le Reservoir Computing est bien plus robuste que le deep learning à cet égard et nécessite peu ou pas de feature engineering manuel. Certains prétraitements de base comme la standardisation peuvent être nécessaires, mais notre équipe s'en charge dans le cadre du projet.
Le Reservoir Computing couvre une large gamme de fréquences : des vibrations mécaniques rapides au-delà de 10 kHz jusqu'aux processus lents dans la gamme sub-Hz.
L'entraînement est réalisé par Entrox avant le déploiement du modèle sur l'appareil. Cela permet de garder l'algorithme embarqué léger et compact. Un réentraînement sur l'appareil est également possible pour les applications nécessitant des mises à jour périodiques.
Cela dépend de l'application. Notre IA apprend les relations entre les variables d'entrée et la variable cible. Au fil du temps, des facteurs comme le vieillissement des équipements, l'usure ou la dérive des capteurs peuvent modifier ces relations. Si ces changements étaient déjà pris en compte dans l'entraînement initial, le modèle reste efficace sur toute sa durée de vie. Sinon, un réentraînement périodique ou un apprentissage en ligne continu est recommandé.
Si vous pouvez nous envoyer un jeu de données, nous pouvons fournir des premiers résultats dans la plupart des cas sous une semaine. Aucune infrastructure spéciale n'est requise. Notre IA est extrêmement légère et ne nécessite ni GPU ni cloud.
Le modèle entraîné est livré sous forme de code dans un langage adapté à votre plateforme cible, typiquement une fonction en langage C ou similaire. Notre développement et notre entraînement internes utilisent Python, mais aucun environnement d'exécution Python n'est requis sur votre matériel cible. Voir « Comment l'IA nous est-elle livrée ? » ci-dessous pour les détails complets.
2. Performance et précision
Pour les problèmes de séries temporelles industrielles auxquels il est destiné (soft sensors et capteurs virtuels, détection d'anomalies et prédiction de durée de vie résiduelle), le Reservoir Computing atteint une précision comparable aux méthodes de deep learning comme les LSTM, tout en nécessitant beaucoup moins de données, de puissance de calcul et de temps d'entraînement.
Nous utilisons des métriques standard adaptées à chaque tâche : R² et RMSE pour la régression, les soft sensors et capteurs virtuels, AUC-ROC et F1 score pour la détection d'anomalies, MAE/RMSE pour la prédiction de durée de vie résiduelle. Nous pouvons également travailler avec vos propres métriques sur demande.
3. Déploiement et intégration
Le modèle entraîné est livré sous forme de code, typiquement une fonction en langage C ou similaire, qui s'intègre à votre firmware ou application existant. Selon votre chaîne d'outils, nous pouvons le fournir sous forme de fichiers source pour votre propre système de build, ou sous forme de bibliothèque prête à l'emploi. Le même modèle peut être déployé sur du matériel allant des microcontrôleurs et automates aux PC industriels et serveurs edge. L'IA s'exécute entièrement sur votre matériel : pas d'environnement d'exécution externe, pas de connexion cloud.
Pour le moment, nous prenons en charge le réentraînement en collaboration avec vous. Sur demande, nous pouvons également discuter d'un outil de bureau avec interface graphique qui permet à votre équipe de réentraîner le modèle elle-même. Le modèle réentraîné peut être exporté vers votre matériel cible dans le même format que la livraison initiale.
Le Reservoir Computing fonctionne sur des microcontrôleurs et processeurs embarqués standard, sans GPU, sans connexion cloud et sans matériel spécial. L'inférence se fait en sub-milliseconde, ce qui le rend adapté même aux boucles de contrôle temps réel critiques.
Non. Le modèle s'exécute entièrement sur des appareils locaux, vos données restent sur site. Aucune connexion cloud ni transfert de données externe n'est nécessaire. Idéal pour les environnements avec des exigences strictes en matière de sécurité des données.
Tout format standard de séries temporelles convient : CSV, exports de bases de données ou flux de capteurs directs. L'essentiel est de disposer de mesures horodatées de vos capteurs. Nous gérons tout le prétraitement et le formatage dans le cadre du projet.
Le modèle entraîné s'intègre facilement comme module logiciel dans votre infrastructure existante : systèmes de contrôle, automates (PLC), SCADA, microcontrôleurs ou appareils edge.
4. Explicabilité
Oui. Nos modèles ne sont pas une boîte noire : la structure entière est visible sous forme d'expressions mathématiques. Pour les applications de type soft sensor et capteur virtuel, nous pouvons identifier quels termes mathématiques du modèle, y compris les interactions non linéaires, influencent le plus la prédiction. Nous appelons cette capacité l'Analyse de Sensibilité.
Oui. Notre architecture de détection d'anomalies décompose naturellement le score d'anomalie global par capteur. Lorsqu'une anomalie est signalée, les ingénieurs peuvent immédiatement identifier quel capteur ou composant se comporte anormalement, fournissant une information directement exploitable.
5. Pour commencer
Un jeu de données issu de votre processus, typiquement des mesures de capteurs historiques dans un format standard. Nous pouvons discuter des exigences spécifiques lors d'une première consultation.
Une première évaluation de faisabilité peut être réalisée sous une semaine après réception de vos données. Un projet pilote complet, incluant l'optimisation du modèle et l'évaluation des performances, prend généralement 2 à 4 semaines selon la complexité.
Le livrable d'un projet pilote comprend un modèle entraîné sous forme de code optimisé (C pour les microcontrôleurs, Python pour les appareils edge plus puissants), accompagné de métriques de performance, de documentation et de recommandations pour la mise en service.