Alles Wissenswerte über unsere Edge-KI-Vorhersagetechnologie auf Basis von Reservoir Computing.
1. Eigenschaften unserer KI
Reservoir Computing eignet sich für eine Vielzahl von Phänomenen, die als Zeitreihen dargestellt werden können, darunter mechanische Schwingungen, chemische Prozesse, Naturphänomene und biologische Signale.
Im Gegensatz zu Deep-Learning-Algorithmen, die oft riesige Datenmengen benötigen, kann Reservoir Computing bereits mit 500–1.000 Zeitpunkten präzise Vorhersagen treffen. Zum Vergleich: Eine stündliche Temperaturmessung liefert 24 Datenpunkte pro Tag.
Die Trainingsdaten sollten eine ausreichende Vielfalt an Betriebsbedingungen und Dynamiken abdecken, die im realen Einsatz zu erwarten sind. Wenn die Daten nur einen engen Bereich abbilden, kann das Modell möglicherweise nicht gut auf andere Situationen generalisieren.
In den meisten Fällen nicht. Reservoir Computing ist in dieser Hinsicht deutlich robuster als Deep Learning und erfordert in der Regel kein manuelles Feature Engineering. Einfache Vorverarbeitungen wie Standardisierung können je nach Datenlage erforderlich sein. Dies übernimmt unser Team im Rahmen des Projekts.
Reservoir Computing deckt ein breites Frequenzspektrum ab: von schnellen mechanischen Schwingungen über 10 kHz bis hin zu langsamen Prozessen im Sub-Hz-Bereich.
Das Training wird von Entrox durchgeführt, bevor das Modell auf dem Gerät bereitgestellt wird. So bleibt der Algorithmus auf dem Gerät schlank und kompakt. Für Anwendungen, die regelmäßige Modellaktualisierungen erfordern, ist auch ein Nachtraining auf dem Gerät möglich.
Das hängt von der Anwendung ab. Unsere KI lernt die Zusammenhänge zwischen Eingangsvariablen und Zielgröße. Im Laufe der Zeit können Faktoren wie Alterung, Verschleiß oder Sensordrift diese Zusammenhänge verändern. Wurde dies im ursprünglichen Training bereits berücksichtigt, ist das Modell über die ganze Lebenzeit verwendbar. Falls nicht, ist regelmäßiges oder sogar kontinuierliches Online-Learning sinnvoll.
Wenn Sie uns einen Datensatz zusenden, können wir in den meisten Fällen innerhalb einer Woche erste Testergebnisse liefern. Es ist keine besondere Infrastruktur erforderlich. Unsere KI ist extrem schlank und benötigt weder GPU noch Cloud-Anbindung.
Das trainierte Modell wird als Code in einer Sprache ausgeliefert, die für Ihre Zielplattform geeignet ist, typischerweise als C-Funktion oder ähnlich. Wir entwickeln und trainieren intern in Python, aber auf Ihrer Zielhardware ist keine Python-Laufzeitumgebung erforderlich. Siehe „Wie wird die KI an uns geliefert?" unten für vollständige Details.
2. Leistung und Genauigkeit
Für die industriellen Zeitreihenprobleme, auf die Reservoir Computing ausgelegt ist (Soft-Sensoren und virtuelle Sensoren, Anomalieerkennung und Restlebensdauervorhersage), erreicht es eine Genauigkeit, die mit Deep-Learning-Methoden wie LSTMs vergleichbar ist, bei deutlich geringerem Daten-, Rechen- und Trainingsaufwand.
Wir verwenden aufgabenspezifische Standardmetriken: R² und RMSE für Regression, Soft-Sensoren und virtuelle Sensoren, AUC-ROC und F1-Score für Anomalieerkennung sowie MAE/RMSE für die Restlebensdauervorhersage. Auf Wunsch arbeiten wir auch mit Ihren eigenen Metriken.
3. Einsatz und Integration
Das trainierte Modell wird als Code ausgeliefert, typischerweise als C-Funktion oder ähnlich, die sich in Ihre vorhandene Firmware oder Anwendung integriert. Je nach Ihrer Toolchain können wir es als Quelldateien für Ihr eigenes Build-System oder als gebrauchsfertige Bibliothek bereitstellen. Dasselbe Modell lässt sich auf Hardware vom Mikrocontroller und SPS bis hin zum Industrie-PC und Edge-Server einsetzen. Die KI läuft vollständig auf Ihrer Hardware: keine externe Laufzeitumgebung, keine Cloud-Anbindung.
Derzeit übernehmen wir das Nachtraining in Zusammenarbeit mit Ihnen. Auf Anfrage können wir auch über ein Desktop-Tool mit grafischer Oberfläche sprechen, mit dem Ihr Team das Modell selbst nachtrainieren kann. Das nachtrainierte Modell kann im selben Format wie die ursprüngliche Lieferung auf Ihre Zielhardware exportiert werden.
Reservoir Computing läuft auf handelsüblichen Mikrocontrollern und Embedded-Prozessoren, ohne GPU, ohne Cloud-Anbindung und ohne Spezialhardware. Die Inferenz erfolgt in unter einer Millisekunde, wodurch auch echtzeitkritische Regelkreise abgedeckt werden.
Nein. Da das Modell vollständig auf lokalen Geräten läuft, bleiben Ihre Daten vor Ort. Es wird weder Cloud-Konnektivität noch externer Datentransfer benötigt. Ideal für Umgebungen mit strengen Datensicherheitsanforderungen.
Jedes gängige Zeitreihenformat ist geeignet: CSV, Datenbankexporte oder direkte Sensor-Feeds. Wichtig sind zeitgestempelte Messwerte Ihrer Sensoren. Die Vorverarbeitung und Formatierung übernehmen wir im Rahmen des Projekts.
Ja. Das trainierte Modell ist als Softwaremodul problemlos in bestehende Infrastrukturen integrierbar: Steuerungssysteme, SPS, SCADA-Systeme, Mikrocontroller oder Edge-Geräte.
4. Erklärbarkeit
Ja. Unsere Modelle sind keine Black Box: Die gesamte Struktur liegt als mathematischer Ausdruck offen. Bei Soft-Sensor- und Virtual-Sensor-Anwendungen lässt sich identifizieren, welche mathematischen Terme im Modell, einschließlich nichtlinearer Wechselwirkungen, die Vorhersage am stärksten beeinflussen. Wir nennen diese Fähigkeit Sensitivitätsanalyse.
Ja. Unsere Anomalieerkennungs-Architektur zerlegt den Gesamt-Anomaliescore automatisch aufgelistet nach Sensoren. Bei einer erkannten Anomalie ist sofort erkennbar, welcher Sensor oder welche Komponente sich auffällig verhält und kann so direkt weiterverarbeitet werden.
5. Erste Schritte
Einen Datensatz aus Ihrem Prozess, typischerweise historische Sensormesswerte in einem gängigen Format. Die spezifischen Datenanforderungen besprechen wir gerne in einem Erstgespräch.
Eine erste Machbarkeitsbewertung kann innerhalb einer Woche nach Erhalt Ihrer Daten erfolgen. Ein vollständiges Pilotprojekt mit Modelloptimierung und Leistungsbewertung dauert je nach Komplexität in der Regel 2–4 Wochen.
Das Ergebnis eines Pilotprojekts umfasst ein trainiertes Modell als optimierten Code (C für Mikrocontroller oder Python für leistungsstärkere Edge-Geräte), zusammen mit Leistungskennzahlen, Dokumentation und Empfehlungen für den Einsatz.