Tout ce que vous devez savoir sur notre technologie de prédiction par IA Edge basée sur le Reservoir Computing.
1. Caractéristiques de notre IA
Le Reservoir Computing s'applique à une grande variété de phénomènes représentables sous forme de séries temporelles, notamment les vibrations mécaniques, procédés chimiques, phénomènes naturels et signaux biologiques.
Contrairement au deep learning, qui nécessite souvent d'énormes volumes de données, le Reservoir Computing peut produire des prédictions précises avec seulement 500 à 1 000 points temporels. À titre d'exemple : une mesure de température toutes les heures génère 24 points par jour.
Les données d'entraînement doivent couvrir une variété suffisante de conditions opérationnelles et de dynamiques que vous vous attendez à rencontrer en production. Des données trop limitées risquent de ne pas permettre au modèle de bien généraliser.
Dans la plupart des cas, non. Le Reservoir Computing est bien plus robuste que le deep learning à cet égard et nécessite peu ou pas de feature engineering manuel. Certains prétraitements de base comme la standardisation peuvent être nécessaires, mais notre équipe s'en charge dans le cadre du projet.
Le Reservoir Computing couvre une large gamme de fréquences : des vibrations mécaniques rapides au-delà de 10 kHz jusqu'aux processus lents dans la gamme sub-Hz.
L'entraînement est réalisé par Entrox avant le déploiement du modèle sur l'appareil. Cela permet de garder l'algorithme embarqué léger et compact. Un réentraînement sur l'appareil est également possible pour les applications nécessitant des mises à jour périodiques.
Cela dépend de l'application. Notre IA apprend les relations entre les variables d'entrée et la variable cible. Au fil du temps, des facteurs comme le vieillissement des équipements, l'usure ou la dérive des capteurs peuvent modifier ces relations. Si ces changements étaient déjà pris en compte dans l'entraînement initial, le modèle reste efficace sur toute sa durée de vie. Sinon, un réentraînement périodique ou un apprentissage en ligne continu est recommandé.
Si vous pouvez nous envoyer un jeu de données, nous pouvons fournir des premiers résultats dans la plupart des cas sous une semaine. Aucune infrastructure spéciale n'est requise. Notre IA est extrêmement légère et ne nécessite ni GPU ni cloud.
Notre modèle entraîné est conçu pour s'exécuter sous forme de code optimisé directement sur votre appareil, adapté aux contraintes de votre environnement, y compris les capacités de calcul limitées des microcontrôleurs ou systèmes embarqués.
Nous développons nos modèles en Python et les convertissons dans le langage adapté à votre plateforme cible, généralement C pour les microcontrôleurs et systèmes embarqués, ou Python pour les appareils edge plus puissants.
2. Performance et précision
Pour les problèmes de séries temporelles industrielles auxquels il est destiné (soft sensors, détection d'anomalies et prédiction de durée de vie résiduelle), le Reservoir Computing atteint une précision comparable aux méthodes de deep learning comme les LSTM, tout en nécessitant beaucoup moins de données, de puissance de calcul et de temps d'entraînement.
Nous utilisons des métriques standard adaptées à chaque tâche : R² et RMSE pour la régression et les soft sensors, AUC-ROC et F1 score pour la détection d'anomalies, MAE/RMSE pour la prédiction de durée de vie résiduelle. Nous pouvons également travailler avec vos propres métriques sur demande.
3. Déploiement et intégration
Le Reservoir Computing fonctionne sur des microcontrôleurs et processeurs embarqués standard, sans GPU, sans connexion cloud et sans matériel spécial. L'inférence se fait en sub-milliseconde, ce qui le rend adapté même aux boucles de contrôle temps réel critiques.
Non. Le modèle s'exécute entièrement sur des appareils locaux, vos données restent sur site. Aucune connexion cloud ni transfert de données externe n'est nécessaire. Idéal pour les environnements avec des exigences strictes en matière de sécurité des données.
Tout format standard de séries temporelles convient : CSV, exports de bases de données ou flux de capteurs directs. L'essentiel est de disposer de mesures horodatées de vos capteurs. Nous gérons tout le prétraitement et le formatage dans le cadre du projet.
Le modèle entraîné s'intègre facilement comme module logiciel dans votre infrastructure existante : systèmes de contrôle, automates (PLC), SCADA, microcontrôleurs ou appareils edge.
4. Explicabilité
Oui. Nos modèles ne sont pas une boîte noire : la structure entière est visible sous forme d'expressions mathématiques. Pour les applications de type soft sensor, nous pouvons identifier quels termes mathématiques du modèle, y compris les interactions non linéaires, influencent le plus la prédiction. Nous appelons cette capacité l'Analyse de Sensibilité.
Oui. Notre architecture de détection d'anomalies décompose naturellement le score d'anomalie global par capteur. Lorsqu'une anomalie est signalée, les ingénieurs peuvent immédiatement identifier quel capteur ou composant se comporte anormalement, fournissant une information directement exploitable.
5. Pour commencer
Un jeu de données issu de votre processus, typiquement des mesures de capteurs historiques dans un format standard. Nous pouvons discuter des exigences spécifiques lors d'une première consultation.
Une première évaluation de faisabilité peut être réalisée sous une semaine après réception de vos données. Un projet pilote complet, incluant l'optimisation du modèle et l'évaluation des performances, prend généralement 2 à 4 semaines selon la complexité.
Le livrable d'un projet pilote comprend un modèle entraîné sous forme de code optimisé (C pour les microcontrôleurs, Python pour les appareils edge plus puissants), accompagné de métriques de performance, de documentation et de recommandations pour la mise en service.